WO2020162051A1 - Projection type video display system - Google Patents

Projection type video display system Download PDF

Info

Publication number
WO2020162051A1
WO2020162051A1 PCT/JP2019/049517 JP2019049517W WO2020162051A1 WO 2020162051 A1 WO2020162051 A1 WO 2020162051A1 JP 2019049517 W JP2019049517 W JP 2019049517W WO 2020162051 A1 WO2020162051 A1 WO 2020162051A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
projectors
unit
projected
projection
Prior art date
Application number
PCT/JP2019/049517
Other languages
French (fr)
Japanese (ja)
Inventor
田中 和彦
中嶋 満雄
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Publication of WO2020162051A1 publication Critical patent/WO2020162051A1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Definitions

  • the present invention relates to a projection-type image display system, and more particularly to a technique effective for correcting image distortion in image projection using a plurality of projectors.
  • the shape of the projection region there is one that corresponds to the shape of the content image (see Patent Document 1, for example).
  • the cause of the time lag is that the projector moves due to vibrations, so-called misalignment, or screen misalignment.
  • misalignment or screen misalignment.
  • An object of the present invention is to provide a technique capable of automatically detecting and correcting image distortion when projecting image content and eliminating the need for periodic image correction after the projector is installed. It is in.
  • a typical projection-type video display system includes a plurality of projectors, a computer, and an imaging unit.
  • the plurality of projectors project an image.
  • the computer outputs the video data to the plurality of projectors.
  • the imaging unit captures an image projected by the plurality of projectors on the image projection surface (.
  • a plurality of projectors have a geometric correction unit and a video projection unit.
  • the geometric correction unit corrects the geometric distortion of the projected image based on the geometric parameter.
  • the image projection unit projects an image on the image projection surface.
  • the computer has a video analysis unit and a control unit.
  • the image analysis unit analyzes the image captured by the image capturing unit and determines whether or not there is a time-dependent shift that causes a shift in the images projected by the plurality of projectors.
  • the control unit controls the plurality of projectors.
  • the video analysis unit calculates the coordinates of the four corners of the video projected by each projector captured by the imaging unit, compares the calculated coordinates with a preset threshold, and calculates the coordinates. Is above the threshold value, it is determined that a time lag has occurred.
  • the geometric correction unit corrects the image projected by each projector when the image analysis unit determines that a time lag has occurred.
  • the control unit projects only the image of the projector that is the target of coordinate calculation, and dims the corners of the projector that is not the target.
  • FIG. 3 is an explanatory diagram showing an example of an external appearance of the projection type video display system according to the first embodiment. It is explanatory drawing which shows an example of a structure in the projection type video display system of FIG. It is explanatory drawing which shows an example of the image which the projector of FIG. 1 projects. It is explanatory drawing which shows an example of the image
  • 3 is a flowchart showing an example of an outline of overall processing by the projection type video display system of FIG. 2. 6 is a flowchart showing an example of a process in initial adjustment which is the process of step S101 of FIG. It is explanatory drawing which shows an example of the projection image of the all-white image by the projector of FIG.
  • FIG. 6 is a flowchart showing an example of a process in time-dependent shift detection which is the process of step S103 of FIG. It is explanatory drawing which shows an example of a time-dependent shift detection of FIG.
  • FIG. 3 is an explanatory diagram showing an example of calculation of coordinates of a corner portion in correction of time-dependent shift by the projection type image display system of FIG. 2.
  • 12 is a flowchart showing an example of processing in time-dependent shift correction using the coordinate calculation example of FIG. 11.
  • FIG. 9 is an explanatory diagram showing an example of calculation of coordinates of a corner portion in correction of time-dependent deviation according to the second embodiment.
  • FIG. 14 is a flowchart showing an example of a process of time-dependent shift correction using the coordinate calculation example of FIG. 13.
  • FIG. 11 is an explanatory diagram showing an example of calculating coordinates of a corner portion according to the third embodiment. It is explanatory drawing which shows the other example of FIG.
  • FIG. 16 is an explanatory diagram showing an example of calculating the coordinates of a corner portion in the correction of time-dependent deviation according to the fourth embodiment.
  • 16 is a flowchart showing an example of an outline of overall processing in the projection type video display system according to the fifth embodiment. It is explanatory drawing which shows an example of the image content in which the time-dependent shift occurred.
  • FIG. 16 is an explanatory diagram showing an example of a configuration of a projection type video display system according to a sixth embodiment.
  • FIG. 16 is an explanatory diagram showing an example of a configuration of a projection type video display system according to a seventh embodiment.
  • FIG. 19 is an explanatory diagram showing an example of a configuration of
  • FIG. 1 is an explanatory diagram showing an example of the external appearance of a projection-type image display system 10 according to the first embodiment.
  • the projection-type image display system 10 includes projectors 11 to 14, a camera 15, and a personal computer 16.
  • the projection-type image display system 10 performs stack projection for realizing high brightness by superimposing images projected from the projectors 11 to 14.
  • the projectors 11 to 14 irradiate the image data input from the outside to the image projection surface such as the wall surface or the screen 50, which is the projection target.
  • the projectors 11 to 14 and the camera 15 are connected to a personal computer 16 which is a computer.
  • the personal computer 16 outputs the video data to the projectors 11 to 14, respectively.
  • FIG. 1 shows an example in which images projected from four projectors 11 to 14 are superimposed and projected, but the number of projectors to perform stack projection is not particularly limited as long as it is two or more. ..
  • FIG. 2 is an explanatory diagram showing an example of the configuration of the projection type video display system 10 of FIG.
  • the projector 11 includes a video interface 20, a marker generation circuit 21, a mask generation circuit 22, a pattern generation circuit 23, a video calculation circuit 24, a geometric correction circuit 25, a geometric correction parameter storage unit 26, an optical system 27, a communication interface 28, and control. It is composed of a circuit 29.
  • the configuration of the projectors 12 to 14 is the same as that of the projector 11, and thus the description thereof is omitted.
  • These projectors 11 to 14 have an adjusting function of adjusting the deviation of the image captured by the camera 15 in the stack projection.
  • the video interface 20 is an interface for transmitting video data output from the personal computer 16, and is connected to the personal computer 16 via, for example, an HDMI (High Definition Multimedia Interface) terminal.
  • HDMI High Definition Multimedia Interface
  • the marker generation circuit 21 which is a marker generation unit, generates a marker, a frame-shaped white frame, or the like under the control of the control circuit 29.
  • the marker or the white frame is used for adjusting the image shift in the stack projection.
  • the marker is displayed at the corner of the projected image.
  • the white frame is displayed around the projected image.
  • the mask generation circuit 22 which is a mask generation unit, generates a mask.
  • the mask adjusts the brightness of the corner portion of the image projected on the screen 50.
  • the pattern generation circuit 23 generates a correction pattern.
  • the video calculation circuit 24 synthesizes the marker generated by the marker generation circuit 21 with the projected image, synthesizes the mask generated by the mask generation circuit 22 with the projected image, or displays all white generated by the pattern generation circuit 23.
  • the correction pattern such as an image or an all-black image is displayed.
  • the marker generation circuit 21, the mask generation circuit 22, the pattern generation circuit 23, and the video calculation circuit 24 operate under the control of the control circuit 29.
  • the geometric correction circuit 25, which is a geometric correction unit, corrects the projected image by geometrically correcting the geometric distortion of the projected image based on the geometric parameter.
  • the geometric correction parameter storage unit 26 is a non-volatile memory such as a flash memory, for example, and stores geometric parameters calculated by a parameter calculation unit 34 described later.
  • the geometric correction circuit 25 geometrically corrects the geometric distortion of the projected image based on the geometric parameters stored in the geometric correction parameter storage unit 26.
  • the communication interface 28 is an interface for communicating with the projectors 11 to 14.
  • the optical system 27 which is a video projection unit, converts the video data geometrically converted by the geometric correction circuit 25 into light and projects it.
  • the optical system 27 includes, for example, a projection lens that projects an image on the screen 50, a display element that generates the projected image, and a light source unit that generates illumination light for projection.
  • a DMD Digital Micromirror Device
  • registered trademark registered trademark
  • the display element is not limited to the DMD panel, and may be, for example, a transmissive liquid crystal panel or a reflective liquid crystal panel.
  • the control circuit 29 controls the operation of the projector 11.
  • the personal computer 16 includes a camera input unit 30, a projection video selection unit 31, a video transmission unit 32, a camera video analysis unit 33, a parameter calculation unit 34, a communication control unit 35, a projection video generation unit 36, a projection video analysis unit 37, and a storage. It is composed of a unit 38 and a sequence control unit 39.
  • the camera input unit 30 acquires image data captured by the camera 15 via, for example, a USB (Universal Serial Bus) terminal.
  • the projected image selection unit 31 determines a correction pattern to be used for correcting the projected image and sends it to the control circuits 29 of the projectors 11 to 14, respectively.
  • the video transmission unit 32 transmits the video data generated by the projection video generation unit 36 to the projectors 11-14.
  • the camera image analysis unit 33 which is an image analysis unit, analyzes the image captured by the camera 15 and detects the corner portion of the projected image.
  • the parameter calculator 34 calculates a geometric parameter for correcting the geometric distortion of the projected image.
  • the communication control unit 35 communicates with the control circuit 29 included in the projectors 11 to 14.
  • the projection video generation unit 36 decodes the video content stored in the storage unit 38. The decoded video content is output to the projection video generation unit 36.
  • the projected image analysis unit 37 analyzes the image data transmitted by the image transmission unit 32, that is, the image projected by the projector, and determines whether or not the corner portion of the projected image can be detected.
  • the storage unit 38 is composed of, for example, a hard disk drive (HDD) or a non-volatile memory such as a flash memory, and stores video content to be projected on the screen 50.
  • the sequence control unit 39 serving as a control unit controls the operation in the correction process of the projected image.
  • FIG. 3 is an explanatory diagram showing an example of an image displayed on the screen 50 when the projectors 11 to 14 in FIG. 1 project an image “A” without performing geometric correction.
  • FIG. 4 is an explanatory diagram showing an example of an image when the projectors 11 to 14 of FIG. 1 perform stack projection.
  • FIG. 3A shows a state in which the image of “A” projected by the projector 11 is displayed on the screen 50
  • FIG. 3B shows the image of “A” projected by the projector 12
  • FIG. 3A shows a state of the image of “A” projected by the projector 13
  • FIG. 3D shows a state of the image of “A” projected by the projector 14 on the screen 50.
  • the projection type video display system 10 before correction, that is, a rectangular area is determined from the display area of each projector shown in FIG. 4A, and geometric conversion is performed so as to match the determined rectangular area, and the images are superimposed.
  • the projection-type image display system 10 also has a function of automatically correcting a time-dependent shift in which superimposed images shift with time.
  • FIG. 5 is a flowchart showing an example of the outline of the overall processing by the projection type video display system 10 of FIG.
  • each step in FIG. 5 is executed by each functional block as described below, but the function may be realized by software. In that case, it is realized by the sequence control unit 39, the control circuit 29 and the like executing software in a program format stored in a program storage memory (not shown) of the personal computer 16 or the projectors 11 to 14, respectively.
  • step S101 perform initial adjustment (step S101). This initial adjustment is performed only when the projection-type image display system 10 is initially installed. In the process of step S101, after the projectors 11 to 14 are installed, the deviation of the projected image displayed on the screen 50 is adjusted.
  • step S102 the projection of the video content by the projectors 11 to 14 is started. Then, while the video content is being projected, a time-lapse detection process for detecting the occurrence of time-lapse is executed (step S103).
  • step S104 when it is detected that a time shift has occurred (step S104), a time shift correction process for correcting the time shift by the projection-type image display system 10 is performed (step S105).
  • step S104 If it is not detected in the process of step S104 that a time lapse has occurred, or if the process of correcting the time lapse by the process of step S105 ends, the process returns to step S102.
  • FIG. 6 is a flowchart showing an example of processing in the initial adjustment which is the processing of step S101 in FIG.
  • the sequence control unit 39 sets the target projector number, which is a variable held in the projected image selection unit 31, to 0 (step S201). Subsequently, the sequence control unit 39 issues a command for projecting an all-white image to the control circuit 29 of the target projector (for example, the projector 11) via the communication control unit 35 according to the target projector number (step S202).
  • the control circuit 29 receiving the command from the sequence control unit 39 controls the pattern generation circuit 23 to generate an all-white image.
  • the all-white image generated by the pattern generation circuit 23 is projected by the optical system 27 via the image calculation circuit 24 and the geometric correction circuit 25.
  • the sequence control unit 39 issues a command for projecting an all-black image to the control circuit 29 of the projector (eg, projectors 12 to 14) other than the target projector via the communication control unit 35 according to the target projector number (Ste S203).
  • step S203 the control circuit 29 having received the command causes the pattern generation circuit 23 to generate an all-black image.
  • the all-black image generated by the pattern generation circuit 23 is projected by the optical system 27 via the image calculation circuit 24 and the geometric correction circuit 25.
  • step S204 the sequence control unit 39 waits for the waiting time defined in advance (step S204).
  • the waiting time is defined based on, for example, a time +margin from when a command is issued to each projector to when the projected image is actually reflected.
  • the sequence control unit 39 issues a shooting command to the camera 15 via the camera input unit 30. Upon receiving this command, the camera 15 shoots a screen (step S205).
  • the camera 15 sends the captured image to the camera input unit 30.
  • the camera input unit 30 stores the input video in an internal buffer (not shown) provided in the camera input unit 30, and when the storage of the video is completed, transmits a shooting completion signal to the sequence control unit 39.
  • the sequence control unit 39 when receiving the photographing completion signal from the camera input unit 30, issues a video analysis instruction command to the camera video analysis unit 33.
  • the camera image analysis unit 33 Upon receiving the command from the sequence control unit 39, the camera image analysis unit 33 receives the captured image from the internal buffer of the camera input unit 30, and detects the four corners of the display region of the projected image including the received camera image. The coordinates are calculated (step S206).
  • the camera image analysis unit 33 When the calculation of the coordinates of the corner portion in the projected image is completed, the camera image analysis unit 33 notifies the sequence control unit 39 that the calculation is completed. Upon receiving the calculation end notification, the sequence control unit 39 stores the calculated four corner coordinates for each target projector number.
  • the calculated coordinates may be stored in, for example, a storage area (not shown) of the camera image analysis unit 33, or the calculated coordinates may be stored in the storage unit 38.
  • step S207 the sequence control unit 39 increments the target projector number, which is a variable held in the projected image selection unit 31, by 1 (step S207).
  • step S208 the sequence control unit 39 returns to the beginning of the loop and repeats the processing from step S202. If the processing of all projectors is completed (step S208), the geometric parameter calculation processing is executed (step S209).
  • step S209 the sequence control unit 39 issues a geometric conversion parameter calculation command to the parameter calculation unit 34.
  • the parameter calculation unit 34 reads out the coordinates of the corner unit stored for each target projector in a storage area (not shown) of the camera image analysis unit 33 and corresponds to each of the projectors 11 to 14. The calculated geometric transformation matrix is calculated.
  • the camera image analysis unit 33 notifies the sequence control unit 39 of the completion.
  • the sequence control unit 39 transmits the geometric conversion matrix to the control circuit 29 of each of the projectors 11-14.
  • the control circuit 29 of the projectors 11 to 14 Upon receiving the geometric transformation matrix, the control circuit 29 of the projectors 11 to 14 stores the received geometric transformation matrix in the geometric correction parameter storage unit 26, and stores it in the geometric correction parameter storage unit 26 for the geometric correction circuit 25.
  • the geometric transformation is executed using the parameter, that is, the geometric transformation matrix. Further, the control circuit 29 sets the video arithmetic circuit 24 to output the signal output from the video interface 20.
  • each of the projectors 11 to 14 performs the geometric conversion on the video input from the video interface 20 based on the geometric conversion parameter stored in the geometric correction parameter storage unit 26. Project the converted video.
  • the projection video generation unit 36 When the projection video generation unit 36 receives the content reproduction instruction from the sequence control unit 39, the projection video generation unit 36 reads the video content from the storage unit 38 based on the preset content name, and decodes the read video content. And generate video data.
  • the projection video generation unit 36 sends the generated video data to each of the projectors 11 to 14 via the communication control unit 35.
  • the projection image generation unit 36 realizes moving image reproduction by executing the above processing and updating the image at a frame cycle corresponding to the content, for example, every 30 frames/second. Further, a frame synchronization signal is sent to the sequence controller 39 each time the processing of each frame is completed.
  • the image is transformed based on a transformation called perspective transformation.
  • perspective transformation By performing perspective transformation, near objects are displayed large and objects far away are displayed small as in the real world.
  • Equation 1 When the point (xi, yi) in one coordinate system is converted to the point (xo, yo) in another coordinate system by the perspective transformation, the relationship of Equation 1 is established between them.
  • the 3 ⁇ 3 matrix in Expression 1 is a transformation matrix that defines the perspective transformation.
  • This conversion matrix can be specified by obtaining eight variables a00 to a21 which are elements of the matrix. Eight equations are required to obtain eight unknowns, and for that purpose, it is only necessary to know four pairs of (xi, yi) and (xo, yo).
  • FIG. 7 is an explanatory diagram showing an example of a projected image of an all-white image by the projectors 11 and 12 of FIG.
  • FIG. 7A shows the shape of the all-white image 51 projected onto the screen 50 by the projector 11, and the camera 15 photographs the all-white image 51 projected onto the screen 50 by the camera 15.
  • FIG. 7B shows the shape of the all-white image 52 projected by the projector 12 on the screen 50, and shows the all-white image 52 projected by the projector 12 on the screen 50 by the camera 15. Is.
  • the vertices of the four corner portions of the all-white image 51 are points A0, B0, C0, and D0, respectively, as shown in FIG. 7A
  • the vertices of the four corner portions of the all-white image 52 are As shown in FIG. 7B, points A1, B1, C1, and D1 are set, respectively.
  • the display area of the corrected image 53 is determined by obtaining the points Am, Bm, Cm, and Dm that are the vertices of the four corners of the corrected image 53 using the all-white images 51 and 52 of FIG. ..
  • FIG. 8 is an explanatory diagram showing an example of calculation in the display area by the initial adjustment.
  • the X-coordinates of points A0 and D0 of the all-white image 51 and points A1 and D1 of the all-white image 52 are obtained with the corner portion at the lower left corner of the screen 50 in FIG. 8 as the origin.
  • the X coordinate of the point having the maximum value is set as the X coordinate of the point Am and the point Dm, respectively.
  • the X-coordinates of the points B0 and C0 of the all-white image 51 and the points B1 and C1 of the all-white image 52 are obtained, respectively, which is the minimum value among the obtained X-coordinates of the points B0 and C0 and the points B1 and C1.
  • the X coordinates of the points are set as the X coordinates of the points Bm and Cm, respectively.
  • the Y coordinates of the points A0 and B0 of the all-white image 51 and the points A1 and B1 of the all-white image 52 are obtained, respectively, which is the maximum value among the obtained Y coordinates of the points A0 and B0 and the points A1 and B1.
  • the Y coordinates of the points are set as the Y coordinates of the points Am and Bm, respectively.
  • the Y coordinates of the points D0 and C0 of the all-white image 51 and the points D1 and C1 of the all-white image 52 are obtained, respectively, which is the maximum value among the obtained Y coordinates of the points D0 and C0 and the points D1 and C1.
  • the Y coordinate of the point is set as the Y coordinate of the point Dm and the point Cm, respectively.
  • the rectangular area having the corners of the points Am, Bm, Cm, and Dm thus obtained is used as the display area of the corrected image 53.
  • FIG. 9 is a flowchart showing an example of the process in the time shift detection which is the process of step S103 of FIG.
  • the process shown in FIG. 9 is performed mainly by the camera image analysis unit 33 of FIG.
  • the sequence control unit 39 is assumed to execute the processing shown in FIG. 9 for each frame synchronization signal output from the projection image generation unit 36.
  • the frame synchronization signal is output, for example, every 30 frames.
  • step S301 frame superimposition processing of camera images is performed (step S301).
  • the sequence control unit 39 receives the frame synchronization signal output from the projection image generation unit 36, the sequence control unit 39 issues a shooting request to the camera input unit 30 and the camera 15 shoots.
  • the video image captured by the camera 15 is stored in a buffer (not shown) of the camera input unit 30.
  • the camera 15 outputs a shooting completion signal.
  • the sequence control unit 39 issues a video storage command to the camera video analysis unit 33.
  • the camera video analysis unit 33 Upon receiving the video storage command, the camera video analysis unit 33 receives the captured video from the buffer of the camera input unit 30 and stores the video in the internal buffer of the camera video analysis unit 33.
  • This internal buffer can store N images, and the latest N frames of captured images are stored.
  • the camera image analysis unit 33 performs a superimposing process on N images.
  • the superimposing method is, for example, comparative light composition.
  • the pixel having the maximum value is selected from N images for each pixel position and combined.
  • step S302 N frames of the projector image are superimposed.
  • the sequence control unit 39 issues a video storage command to the projection video analysis unit 37.
  • the projection video analysis unit 37 Upon receiving the video storage command, the projection video analysis unit 37 receives the projection image from the projection video generation unit 36 and stores the received video in the internal buffer of the projection video analysis unit 37.
  • This internal buffer can store N images, and the latest N frames of projected images are stored.
  • the projected image analysis unit 37 performs a superposition process of N images.
  • the superimposing method is the comparative bright combination, as in the process of step S301.
  • the projected image analysis unit 37 analyzes the generated superimposed image to determine whether or not the image can detect the four corners of the image (step S303).
  • the projected video analysis unit 37 analyzes the superimposed video and calculates the coordinates of the four corners of the video (step S304).
  • step S303 when it is determined that the video is not a corner-detectable image, the processing returns to step S301.
  • the projected image analysis unit 37 compares the calculated coordinates of the four corners of the image with the past calculation results, and determines whether or not the coordinate deviation exceeds a predetermined threshold value (Ste S305).
  • the projected image analysis unit 37 determines that no temporal shift has occurred, and the process returns to step S301. If it is determined that the coordinate shift exceeds the threshold value, the projected image analysis unit 37 determines that a temporal shift has occurred, and detects the temporal shift (step S306). When the time-dependent shift is detected, the time-dependent shift correction, which is the process of step S105 of FIG. 5, is performed.
  • the projection video analysis unit 37 stores the calculated latest coordinates of the four corners in a memory or the like (not shown) included in the projection video analysis unit 37 in order to compare the coordinates after the next time.
  • FIG. 10 is an explanatory diagram showing an example of the temporal shift detection of FIG.
  • FIG. 10A shows a case where two images projected from two projectors have no time lag
  • FIG. 10B shows two images projected from two projectors. It shows the case where there is a time lag in.
  • the projected images from the two projectors are displayed in an overlapping manner.
  • the rectangular area where the projected images from the two projectors are displayed in other words, the points at the four corners of the image display area are the points obtained by the initial adjustment in FIG. It corresponds to Am, Bm, Cm, Dm.
  • the coordinates of the corner point of the rectangular area projected from the two projectors are compared with the coordinates of the corner section obtained in the initial adjustment, and if the coordinates match, there is a time lag. You can determine that you have not. Further, when the coordinates do not match, it can be determined that a time lapse has occurred.
  • FIG. 11 is an explanatory diagram showing an example of the calculation of the coordinates of the corner portion in the correction of the time lapse by the projection type video display system 10 of FIG.
  • FIG. 11 shows an example of calculation of coordinates by the two projectors 11 and 12 for the sake of simplicity.
  • the coordinate calculation method shown in FIG. 11 is to turn on the target projector that is the target of coordinate calculation and turn off the other projectors, that is, the non-target projectors.
  • the coordinates of the corners of the four projectors are obtained by sequentially turning on the target projectors and turning off all other non-target projectors.
  • the non-target projector was turned off, but the brightness may be reduced so that the image does not affect the calculation of the coordinates, instead of turning off the non-target projector.
  • FIG. 12 is a flow chart showing an example of processing in time deviation correction using the coordinate calculation example of FIG. 11.
  • the sequence control unit 39 sets the target projector number, which is a variable held in the projected image selection unit 31, to 0 (step S401). Then, the projector that is not the target is turned off (step S402).
  • step S402 the sequence control unit 39 issues a command to turn off the image to the control circuit 29 of the projector (eg, projectors 12 to 14) that is not the target via the communication control unit 35 according to the target projector number. ..
  • the control circuit 29 receiving the command from the sequence control unit 39 controls the optical system 27 to turn off the light.
  • the projectors 12 to 14, which are not the targets, are turned off, and only the image of the target projector (for example, the projector 11) is projected on the screen 50.
  • steps S403 to S408 of FIG. 12 are the same as the processes of steps S204 to S209 of FIG. Then, using the geometrical correction parameters calculated in this way, the temporal shift is corrected as shown in FIG.
  • the time lag is automatically corrected during the projection of the moving image content, it is possible to reduce the continuous projection of the moving image content with the shifted image. As a result, the viewer can be provided with high-quality video.
  • FIG. 13 is an explanatory diagram showing an example of the calculation of the coordinates of the corner portion in the correction of the time-dependent shift according to the second embodiment.
  • FIG. 13 also shows an example of calculating coordinates by the two projectors 11 and 12 for the sake of simplicity.
  • the configuration of the projection-type image display system 10 is the same as that of the projection-type image display system 10 in FIG.
  • the coordinate calculation method shown in FIG. 13 is to turn on the projector that is the target of coordinate calculation and reduce the brightness of the corner portion of the projected image in the other projectors that are not the target.
  • the projector 11 that is the target of coordinate calculation is turned on, and as shown on the right side of FIG. Reduces the brightness of the corners. In this state, the coordinates of the four corners in the projected image of the projector 11 are obtained.
  • the brightness of the corner portion projected by the non-target projector is reduced, but the projector may be controlled so that the corner portion of the projected image is gradation. Further, the corner portion that reduces the brightness may have a shape that allows the corner portion to be easily detected.
  • FIG. 14 is a flow chart showing an example of processing in time deviation correction using the coordinate calculation example of FIG. 13.
  • the sequence control unit 39 sets the target projector number, which is a variable held in the projected image selection unit 31, to 0 (step S501). Subsequently, the brightness of the corner portion projected by the non-target projector is reduced (step S502).
  • the sequence control unit 39 causes the control circuit 29 of the projector (for example, the projectors 12 to 14) that is not the target to control the brightness of the corner portion of the projected image via the communication control unit 35 according to the target projector number. Issue a command that lowers the projector (for example, the projectors 12 to 14) that is not the target to control the brightness of the corner portion of the projected image via the communication control unit 35 according to the target projector number. Issue a command that lowers the
  • the control circuit 29 that receives the command from the sequence control unit 39 controls the mask generation circuit 22 to generate a mask that reduces the brightness of the corner portion of the projected image.
  • the image calculation circuit 24 synthesizes the mask generated by the mask generation circuit 22 into a projected image and projects it by the optical system 27.
  • the luminance of the corner portion of the projected image of the projectors 12 to 14, which is not the target, is reduced. Therefore, the coordinates of the corner portion of the projected image of the target projector (for example, the projector 11) whose luminance is not reduced can be calculated accurately.
  • steps S503 to S508 of FIG. 14 are the same as the processes of steps S204 to S209 of FIG. Then, using the geometrical correction parameters calculated in this way, the temporal shift is corrected as shown in FIG.
  • FIG. 15 is an explanatory diagram showing an example of the coordinate calculation of the corner portion according to the third embodiment.
  • FIG. 15 shows an example of displaying a marker on the corner section by the projector to be detected in the coordinate calculation method shown in FIG.
  • the configuration of the projection type video display system 10 is the same as that of the projection type video display system 10 of FIG.
  • the projector 11 which is the target of coordinate calculation is turned on, and the markers 11 are displayed on the four corners of the projected image by the projector 11 in a superimposed manner.
  • the brightness of the corner portion of the projected image is reduced.
  • the coordinates of the four corners in the projected image of the projector 11 are obtained.
  • the coordinates of the four corners of the projector 11 can be detected more accurately and in a shorter time.
  • the brightness of the corners of the projected image is reduced as shown on the left side of FIG. 15(b). Further, the projector 12 restores the brightness of the corners to the normal level and displays the markers 61 on the respective corners, as shown on the right side of FIG. As a result, the coordinates of the four corners of the projector 12 can be detected more accurately and in a shorter time.
  • the markers 60 and 61 are generated by the marker generation circuit 21.
  • the video calculation circuit 24 combines the marker generated by the marker generation circuit 21 with the projected video content.
  • the video content combined with the markers 60 and 61 is projected by the optical system 27.
  • the markers 60 and 61 are not limited as long as they have a shape such that a corner portion such as a quadrangle or a circle can be accurately detected.
  • the markers 60 and 61 may have colors close to the hue of the displayed video content.
  • the display color of the markers 60 and 61 is green, which is close to the color of the grassland, and when the image is a blue sky, the markers 60 and 61 are close to the blue sky. Display in blue, etc. Thereby, the markers 60 and 61 can be made inconspicuous, and the viewer's discomfort can be reduced.
  • FIG. 16 is an explanatory diagram showing another example of FIG.
  • FIG. 16 an example is shown in which the markers 60 and 61 are not superimposed and displayed on the corner portion, but a white frame is superimposed and displayed on the outer peripheral portion of the display area of the image projected by the projector. It should be noted that the black line on the outer peripheral portion of FIG. 16 is for making the drawing easier to see and does not actually exist.
  • a frame-shaped frame 60a is superimposed and displayed on the outer peripheral portion of the projected image of the projector 11, and the coordinates of the four corner portions are obtained.
  • a frame-shaped frame 61a is superimposed and displayed on the outer peripheral portion in the projected image of the projector 12, and the coordinates of the four corner portions are respectively obtained.
  • the coordinates of the four corners of the projectors 11 and 12 can be detected more accurately and in a shorter time.
  • FIG. 17 is an explanatory diagram showing an example of the calculation of the coordinates of the corner portion in the correction of the time lapse according to the fourth embodiment.
  • the configuration of the projection type video display system 10 is the same as that of the projection type video display system 10 of FIG.
  • FIG. 17 also shows an example of calculating coordinates by the two projectors 11 and 12 for the sake of simplicity.
  • the coordinate calculation method shown in FIG. 17 includes a process of increasing the brightness of the corner part of the target projector whose brightness has decreased, in addition to the process of FIG. 13 of decreasing the brightness of the corner part of the projected image on the non-target projector. It is something to do.
  • the projector 11 that is the target of coordinate calculation is turned on, and as shown on the right side of FIG. Reduces the brightness of the corners.
  • the projector 11 increases the brightness of the corner portion of the projected image of the projector 12 whose brightness has decreased. At this time, the projector 11 increases the brightness to such an extent that the corner portion can be clearly detected.
  • the brightness of the corners of the projected image on the projector 11 is reduced, and at the right side of FIG. 17(b).
  • the lowered brightness of the corner portion of the projector 12 is increased to be brighter than the specified value.
  • the projector 12 increases the brightness to such an extent that the corner portion can be clearly detected.
  • the sequence control unit 39 controls the mask generation circuit 22 to generate a mask for decreasing the brightness of the corner portion of the projected image and a mask for increasing the brightness of the corner portion.
  • the peripheral part of the image may be displayed brightly.
  • the overflow exceeds the upper limit of the brightness value of the pixel, and the displayed image is saturated. There is.
  • the projection video analysis unit 37 determines whether or not the brightness value of the pixel overflows if the brightness of the corner unit is increased during the coordinate calculation. This process is performed for each frame.
  • the projected image analysis unit 37 When it is determined that an overflow occurs, the projected image analysis unit 37 outputs a control signal to the sequence control unit 39 to stop the increase in the brightness of the corner portion in the coordinate calculation process.
  • the sequence control unit 39 receives the control signal, the sequence control unit 39 stops increasing the brightness of the corner portion by the frame and cancels the coordinate calculation process.
  • sequence control unit 39 When the sequence control unit 39 receives a control signal from the projection video analysis unit 37 indicating that the video content has no overflow, the sequence control unit 39 restarts the increase in the brightness of the corner unit and executes the coordinate calculation process.
  • FIG. 18 is a flowchart showing an example of the outline of the overall processing in the projection type video display system 10 according to the fifth embodiment.
  • FIG. 19 is an explanatory diagram showing an example of image content in which a time lag has occurred.
  • the video content shown in FIG. 19(a) shows a case where no lag has occurred
  • the video content shown in FIG. 19(b) shows that the projector 11 out of the two projectors 11 and 12 moves forward.
  • An example of a case in which there is a time lag that deviates in time is shown.
  • step S606 is added to the initial adjustment process to reduce the occurrence of time lag due to the forward displacement of the projector.
  • steps S601 to S605 in the flowchart of FIG. 18 is the same as the processing of steps S101 to S105 of FIG. 5, so description thereof will be omitted.
  • step S606 if it is not detected in the detection process of step S604 that a time-dependent shift has occurred, the sequence control unit 39 of FIG. 2 determines whether or not a preset time has elapsed. ..
  • the set time is, for example, about 24 hours.
  • the sequence control unit 39 executes the initial adjustment which is the process of step S601, calculates the geometric correction parameter, and corrects the deviation of the projected image. This initial adjustment is the process shown in FIG.
  • FIG. 20 is an explanatory diagram showing an example of the configuration of the projection-type image display system 10 according to the sixth embodiment.
  • the projection-type image display system 10 shown in FIG. 20 includes projectors 11 to 14, a camera 15, and a personal computer 16, as in FIG.
  • the initial adjustment process and the temporal deviation correction process are executed by the projectors 11 to 14.
  • the projection-type image display system 10 shown in FIG. An example is shown in which the personal computer 16 is provided with a function of executing the process of the deviation correction.
  • the projectors 11 to 14 each include a video interface 20, an optical system 27, a communication interface 28, and a control circuit 29.
  • the operations of the video interface 20, the optical system 27, the communication interface 28, and the control circuit 29 are the same as those in FIG.
  • the personal computer 16 includes a camera input unit 30, a projection video selection unit 31, a video transmission unit 32, a camera video analysis unit 33, a parameter calculation unit 34, a communication control unit 35, a projection video generation unit 36, a projection video analysis unit 37, and a storage.
  • the personal computer 16 of FIG. 2 including the unit 38 and the sequence control unit 39 has the same configuration as the marker superimposing unit 41, the mask generation processing unit 42, which is a functional block that executes the initial adjustment process and the temporal deviation correction process.
  • a pattern generation processing unit 43, a video calculation processing unit 44, a geometric correction processing unit 45, and a geometric correction parameter storage unit 46 are newly provided.
  • the mask generation processing unit 42 Regarding the operations of the marker superimposing unit 41, the mask generation processing unit 42, the pattern generation processing unit 43, the image calculation processing unit 44, the geometric correction processing unit 45, and the geometric correction parameter storage unit 46 which are newly provided in the personal computer 16, The description is omitted because it is the same as the marker generation circuit 21, the mask generation circuit 22, the pattern generation circuit 23, the video calculation circuit 24, the geometric correction circuit 25, and the geometric correction parameter storage unit 26 of FIG. 2.
  • the projectors 11 to 14 can be downsized and the cost can be reduced.
  • FIG. 21 is an explanatory diagram showing an example of the configuration of the projection type video display system 10 according to the seventh embodiment.
  • the projection-type image display system 10 shown in FIG. 21 includes projectors 11 to 14 and a mobile terminal 90, and the mobile terminal 90 executes the functions of the camera 15 and the personal computer 16.
  • a communication interface 28a is provided instead of the communication interface 28 of FIG.
  • Other connection configurations of the video interface 20, the marker generation circuit 21, the mask generation circuit 22, the pattern generation circuit 23, the video calculation circuit 24, the geometric correction circuit 25, the geometric correction parameter storage unit 26, the optical system 27, and the control circuit 29 Is the same as that in FIG. 2, and the description thereof is omitted.
  • the communication interface 28a performs wireless communication such as wireless LAN (Local Area Network) and Bluetooth (registered trademark).
  • a personal computer (not shown) is connected to the video interface 20. The personal computer outputs video content data that is a projected video to be displayed to the viewer.
  • the mobile terminal 90 is an electronic mobile device such as a smartphone or a tablet.
  • the mobile terminal 90 includes a camera 80, a camera input unit 81, a camera image analysis unit 82, a parameter calculation unit 83, a storage unit 84, a sequence control unit 85, a display unit 86, and a communication control unit 87.
  • the camera input unit 81, camera image analysis unit 82, parameter calculation unit 83, storage unit 84, sequence control unit 85, display unit 86, and communication control unit 87 are interconnected by an internal bus 88.
  • the communication control unit 87 performs, for example, wireless communication according to a communication standard such as 3G (Generation) and 4G and wireless communication such as a wireless LAN (Local Area Network) and Bluetooth (registered trademark).
  • the display unit 86 is, for example, a liquid crystal display, and displays various kinds of information.
  • the video content data may be transmitted from the mobile terminal 90 instead of the personal computer described above.
  • the communication control unit 87 transmits to the wireless communication interface 46 of the projectors 11 to 14 by wireless communication.
  • the camera image analysis unit 33, the parameter calculation unit 34, the storage unit 38, and the sequence control unit 39 are the same as those described above, and thus description thereof will be omitted.
  • the system can be downsized.
  • FIG. 22 is an explanatory diagram showing an example of the configuration of the projection type video display system 10 according to the eighth embodiment.
  • the projection type video display system 10 shown in FIG. 22 includes projectors 11 to 14 and a personal computer 16.
  • Projection-type video display system 11 Projector 12 Projector 13 Projector 14 Projector 15 Camera 16 Personal computer 20 Video interface 21 Marker generation circuit 22 Mask generation circuit 23 Pattern generation circuit 24 Video operation circuit 25 Geometric correction circuit 26 Geometric correction parameter storage unit 27 Optical System 28 Communication interface 29 Control circuit 30 Camera input unit 31 Projected image selection unit 32 Image transmission unit 33 Camera image analysis unit 34 Parameter calculation unit 35 Communication control unit 36 Projected image generation unit 37 Projected image analysis unit 38 Storage unit 39 Sequence control unit 41 marker superimposing unit 42 mask generation processing unit 43 pattern generation processing unit 44 image calculation processing unit 45 geometric correction processing unit 46 geometric correction parameter storage unit 80 camera 81 camera input unit 82 camera image analysis unit 83 parameter calculation unit 84 storage unit 85 sequence Control unit 86 Display unit 87 Communication control unit 88 Internal bus 90 Mobile terminal 95 Camera

Abstract

In a projection type video display system 10, geometric correction circuits 25 of projectors 11-14 correct geometric distortions in videos to be projected on the basis of geometric parameters. A personal computer 16 includes a camera video analysis unit 33 that: calculates coordinates for each of four corner parts in a video projected by each of the projectors 11-14 and photographed by the camera 15; compares the calculated coordinates with a pre-set threshold; and determines that a time lag is occurring when the coordinates exceed the threshold. The geometric correction circuits 25 correct the videos projected by the projectors 11-14 when the camera video analysis unit 33 has determined that a time lag is occurring.

Description

投射型映像表示システムProjection type video display system
 本発明は、投射型映像表示システムに関し、特に、複数台のプロジェクタを用いた映像投影における映像の歪み補正に有効な技術に関する。 The present invention relates to a projection-type image display system, and more particularly to a technique effective for correcting image distortion in image projection using a plurality of projectors.
 近年、大画面の映像表示を行うプロジェクタでは、高輝度化の要求が高まっている。表示映像を高輝度化する投影技術としては、例えば複数台のプロジェクタを用いて重畳投影する、いわゆるスタック投影がある。 Demand for high brightness has increased in recent years in projectors that display large screen images. As a projection technique for increasing the brightness of a display image, there is so-called stack projection in which, for example, a plurality of projectors are used to perform superimposed projection.
 このスタック投影を行う場合には、プロジェクタの設置に複数のプロジェクタ映像をピクセル精度にて重ね合わせる作業が必要である。この作業は、例えば各々のプロジェクタから投影される調整用パターン映像をカメラなどによって撮影し、撮影した映像に基づいて幾何学補正する。 When performing this stack projection, it is necessary to install multiple projector images with pixel accuracy when installing the projector. In this work, for example, an adjustment pattern image projected from each projector is photographed by a camera or the like, and geometric correction is performed based on the photographed image.
 なお、この種の複数台のプロジェクタを用いた投影映像を補正する技術としては、複数のプロジェクタを用いて投影領域の少なくとも一部を重畳させた投影領域を形成する場合に、その投影領域の形状をコンテンツ画像の形状に対応させるものがある(例えば特許文献1参照)。 Note that, as a technique for correcting a projected image using a plurality of projectors of this type, when forming a projection region in which at least a part of the projection region is superimposed using the plurality of projectors, the shape of the projection region There is one that corresponds to the shape of the content image (see Patent Document 1, for example).
特開2018-125819号公報Japanese Patent Laid-Open No. 2018-125819
 前述したプロジェクタのスタック投影では、プロジェクタの設置時にピクセル単位にて映像を重ね合わせても、時間の経過とともに重ね合わせた映像がずれてしまう、経時ずれが発生してしまう恐れがある。 In the above-mentioned projector stack projection, even if the images are superimposed pixel by pixel when the projector is installed, there is a risk that the superimposed images will shift over time, or time lag will occur.
 経時ずれが発生する要因としては、振動などによってプロジェクタが移動する、いわゆる設置ずれ、あるいはスクリーンの設置位置ずれなどがある。この経時ずれを補正するには、定期的に再度調整用パターンを投影して幾何学補正を行わなければならず、その都度時間および工数が必要となる。 -The cause of the time lag is that the projector moves due to vibrations, so-called misalignment, or screen misalignment. In order to correct this time lag, it is necessary to periodically project the adjustment pattern again to perform geometric correction, which requires time and man-hours each time.
 また、定期的な補正を行っていても、補正する間隔が長くなった場合には、映像を投射した際に映像ずれが発生していることが考えられる。その場合には、ずれた映像が投射され続けることになり、映像の鮮明度が低下してしまうという問題がある。 Also, even if the correction is performed regularly, if the correction interval becomes long, it is possible that the image shift occurs when the image is projected. In that case, there is a problem that the shifted image continues to be projected, and the sharpness of the image decreases.
 本発明の目的は、映像コンテンツを投影している際に映像の歪みを自動的に検出補正して、プロジェクタの設置後の定期的な映像補正などを不要とすることのできる技術を提供することにある。 An object of the present invention is to provide a technique capable of automatically detecting and correcting image distortion when projecting image content and eliminating the need for periodic image correction after the projector is installed. It is in.
 本発明の前記ならびにその他の目的と新規な特徴については、本明細書の記述および添付図面から明らかになるであろう。 The above and other objects and novel features of the present invention will be apparent from the description of this specification and the accompanying drawings.
 本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。 Among the inventions disclosed in the present application, a brief description of the outline of typical ones is as follows.
 すなわち、代表的な投射型映像表示システムは、複数のプロジェクタ、コンピュータ、および撮像部を備える。複数のプロジェクタは、映像を投影する。コンピュータは、複数のプロジェクタに映像データを出力する。撮像部は、複数のプロジェクタが映像投射面(に投影する映像を撮影する。 That is, a typical projection-type video display system includes a plurality of projectors, a computer, and an imaging unit. The plurality of projectors project an image. The computer outputs the video data to the plurality of projectors. The imaging unit captures an image projected by the plurality of projectors on the image projection surface (.
 複数のプロジェクタは、幾何補正部および映像投射部を有する。幾何補正部は、投影される映像の幾何学的歪みを幾何パラメータに基づいて補正する。映像投射部は、映像投射面に映像を投影する。 A plurality of projectors have a geometric correction unit and a video projection unit. The geometric correction unit corrects the geometric distortion of the projected image based on the geometric parameter. The image projection unit projects an image on the image projection surface.
 コンピュータは、映像解析部および制御部を有する。映像解析部は、撮像部が撮影した映像を解析して、複数のプロジェクタが投影する映像にずれが生じる経時ずれが発生しているか否かを判定する。制御部は、複数のプロジェクタを制御する。 The computer has a video analysis unit and a control unit. The image analysis unit analyzes the image captured by the image capturing unit and determines whether or not there is a time-dependent shift that causes a shift in the images projected by the plurality of projectors. The control unit controls the plurality of projectors.
 そして、映像解析部は、撮像部が撮影した各々のプロジェクタが投影する映像の4つのコーナ部の座標をそれぞれ算出し、算出した座標とあらかじめ設定されているしきい値とを比較して、座標がしきい値を超えている場合に経時ずれが発生していると判定する。 Then, the video analysis unit calculates the coordinates of the four corners of the video projected by each projector captured by the imaging unit, compares the calculated coordinates with a preset threshold, and calculates the coordinates. Is above the threshold value, it is determined that a time lag has occurred.
 幾何補正部は、映像解析部が経時ずれが発生していると判定した際に各々のプロジェクタが投影する映像を補正する。 The geometric correction unit corrects the image projected by each projector when the image analysis unit determines that a time lag has occurred.
 また、制御部は、撮像部が各々のプロジェクタの映像を撮影する際に、座標算出の対象となるプロジェクタの映像のみを投影させ、対象ではないプロジェクタのコーナを減光させる。 Also, when the imaging unit captures the image of each projector, the control unit projects only the image of the projector that is the target of coordinate calculation, and dims the corners of the projector that is not the target.
 本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。 The effects obtained by the representative ones of the inventions disclosed in the present application will be briefly described as follows.
 プロジェクタ設置後における定期的な投影映像の補正を不要にすることができる。 It is possible to eliminate the need to periodically correct the projected image after installing the projector.
実施の形態1による投射型映像表示システムにおける外観の一例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of an external appearance of the projection type video display system according to the first embodiment. 図1の投射型映像表示システムにおける構成の一例を示す説明図である。It is explanatory drawing which shows an example of a structure in the projection type video display system of FIG. 図1のプロジェクタが投影する映像の一例を示す説明図である。It is explanatory drawing which shows an example of the image which the projector of FIG. 1 projects. 図1のプロジェクタがスタック投影した際の映像の一例を示す説明図である。It is explanatory drawing which shows an example of the image|video when the projector of FIG. 1 carries out stack projection. 図2の投射型映像表示システムによる全体処理の概要の一例を示すフローチャートである。3 is a flowchart showing an example of an outline of overall processing by the projection type video display system of FIG. 2. 図5のステップS101の処理である初期調整における処理の一例を示すフローチャートである。6 is a flowchart showing an example of a process in initial adjustment which is the process of step S101 of FIG. 図1のプロジェクタによる全白画像の投影映像の一例を示す説明図である。It is explanatory drawing which shows an example of the projection image of the all-white image by the projector of FIG. 初期調整による表示領域における算出の一例を示す説明図である。It is explanatory drawing which shows an example of calculation in the display area by initial adjustment. 図5のステップS103の処理である経時ずれ検出における処理の一例を示すフローチャートである。6 is a flowchart showing an example of a process in time-dependent shift detection which is the process of step S103 of FIG. 図9の経時ずれ検出の一例を示す説明図である。It is explanatory drawing which shows an example of a time-dependent shift detection of FIG. 図2の投射型映像表示システムによる経時ずれ補正におけるコーナ部の座標算出の一例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of calculation of coordinates of a corner portion in correction of time-dependent shift by the projection type image display system of FIG. 2. 図11の座標算出例を用いた経時ずれ補正における処理の一例を示すフローチャートである。12 is a flowchart showing an example of processing in time-dependent shift correction using the coordinate calculation example of FIG. 11. 実施の形態2による経時ずれ補正におけるコーナ部の座標算出の一例を示す説明図である。FIG. 9 is an explanatory diagram showing an example of calculation of coordinates of a corner portion in correction of time-dependent deviation according to the second embodiment. 図13の座標算出例を用いた経時ずれ補正における処理の一例を示すフローチャートである。14 is a flowchart showing an example of a process of time-dependent shift correction using the coordinate calculation example of FIG. 13. 実施の形態3によるコーナ部の座標算出における一例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of calculating coordinates of a corner portion according to the third embodiment. 図15の他の例を示す説明図である。It is explanatory drawing which shows the other example of FIG. 実施の形態4による経時ずれ補正におけるコーナ部の座標算出の一例を示す説明図である。FIG. 16 is an explanatory diagram showing an example of calculating the coordinates of a corner portion in the correction of time-dependent deviation according to the fourth embodiment. 実施の形態5による投射型映像表示システムにおける全体処理の概要の一例を示すフローチャートである。16 is a flowchart showing an example of an outline of overall processing in the projection type video display system according to the fifth embodiment. 経時ずれが発生した画像コンテンツの一例を示す説明図である。It is explanatory drawing which shows an example of the image content in which the time-dependent shift occurred. 実施の形態6による投射型映像表示システムにおける構成の一例を示す説明図である。FIG. 16 is an explanatory diagram showing an example of a configuration of a projection type video display system according to a sixth embodiment. 実施の形態7による投射型映像表示システムにおける構成の一例を示す説明図である。FIG. 16 is an explanatory diagram showing an example of a configuration of a projection type video display system according to a seventh embodiment. 実施の形態8による投射型映像表示システムにおける構成の一例を示す説明図である。FIG. 19 is an explanatory diagram showing an example of a configuration of a projection type video display system according to an eighth embodiment.
 実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。 In all the drawings for explaining the embodiments, the same reference numerals are given to the same members in principle, and the repeated description thereof will be omitted.
 以下、実施の形態を詳細に説明する。 The following describes the embodiment in detail.
 (実施の形態1)
 〈投射型映像表示システムの外観例〉
 図1は、本実施の形態1による投射型映像表示システム10における外観の一例を示す説明図である。
(Embodiment 1)
<Example of appearance of projection type video display system>
FIG. 1 is an explanatory diagram showing an example of the external appearance of a projection-type image display system 10 according to the first embodiment.
 投射型映像表示システム10は、図1に示すように、プロジェクタ11~14、カメラ15、およびパーソナルコンピュータ16から構成されている。この投射型映像表示システム10は、プロジェクタ11~14から投射される映像を重ね合わせることにより、高輝度化を実現するスタック投影を行う。 As shown in FIG. 1, the projection-type image display system 10 includes projectors 11 to 14, a camera 15, and a personal computer 16. The projection-type image display system 10 performs stack projection for realizing high brightness by superimposing images projected from the projectors 11 to 14.
 プロジェクタ11~14は、外部から入力される映像データを投影対象である壁面またはスクリーン50などの映像投射面に照射する。撮像部であるカメラ15は、スクリーン50に投影された映像を撮影する。 The projectors 11 to 14 irradiate the image data input from the outside to the image projection surface such as the wall surface or the screen 50, which is the projection target. The camera 15, which is an image capturing unit, captures an image projected on the screen 50.
 コンピュータであるパーソナルコンピュータ16には、プロジェクタ11~14およびカメラ15がそれぞれ接続されている。パーソナルコンピュータ16は、プロジェクタ11~14に映像データをそれぞれ出力する。 The projectors 11 to 14 and the camera 15 are connected to a personal computer 16 which is a computer. The personal computer 16 outputs the video data to the projectors 11 to 14, respectively.
 ここで、図1では、4台のプロジェクタ11~14から投射される映像を重畳投影する例を示しているが、スタック投影するプロジェクタの数については、特に制限なく、2台以上であればよい。 Here, FIG. 1 shows an example in which images projected from four projectors 11 to 14 are superimposed and projected, but the number of projectors to perform stack projection is not particularly limited as long as it is two or more. ..
 〈投射型映像表示システムの構成例〉
 図2は、図1の投射型映像表示システム10における構成の一例を示す説明図である。
<Configuration example of projection type video display system>
FIG. 2 is an explanatory diagram showing an example of the configuration of the projection type video display system 10 of FIG.
 プロジェクタ11は、映像インタフェース20、マーカ生成回路21、マスク生成回路22、パターン生成回路23、映像演算回路24、幾何補正回路25、幾何補正パラメータ格納部26、光学系27、通信インタフェース28、および制御回路29から構成されている。 The projector 11 includes a video interface 20, a marker generation circuit 21, a mask generation circuit 22, a pattern generation circuit 23, a video calculation circuit 24, a geometric correction circuit 25, a geometric correction parameter storage unit 26, an optical system 27, a communication interface 28, and control. It is composed of a circuit 29.
 なお、図2において、プロジェクタ12~14の構成については、プロジェクタ11と同様であるので説明は省略する。これらプロジェクタ11~14は、カメラ15が撮影した映像からスタック投影における映像のずれを調整する調整機能を有する。 Note that, in FIG. 2, the configuration of the projectors 12 to 14 is the same as that of the projector 11, and thus the description thereof is omitted. These projectors 11 to 14 have an adjusting function of adjusting the deviation of the image captured by the camera 15 in the stack projection.
 映像インタフェース20は、パーソナルコンピュータ16から出力される映像データを伝送するインタフェースであり、例えばHDMI(High Definition Multimedia Interface)端子を介してパーソナルコンピュータ16に接続される。 The video interface 20 is an interface for transmitting video data output from the personal computer 16, and is connected to the personal computer 16 via, for example, an HDMI (High Definition Multimedia Interface) terminal.
 マーカ生成部であるマーカ生成回路21は、制御回路29の制御に基づいて、マーカあるいは額縁状の白枠などを生成する。マーカあるいは白枠は、スタック投影における映像のずれを調整用として用いられる。マーカは、投射する映像のコーナ部などに表示される。白枠は、投射する映像の周辺部に表示される。 The marker generation circuit 21, which is a marker generation unit, generates a marker, a frame-shaped white frame, or the like under the control of the control circuit 29. The marker or the white frame is used for adjusting the image shift in the stack projection. The marker is displayed at the corner of the projected image. The white frame is displayed around the projected image.
 マスク生成部であるマスク生成回路22は、マスクを生成する。マスクは、スクリーン50に投影される映像のコーナ部の明暗度を調整する。パターン生成回路23は、補正用パターンを生成する。 The mask generation circuit 22, which is a mask generation unit, generates a mask. The mask adjusts the brightness of the corner portion of the image projected on the screen 50. The pattern generation circuit 23 generates a correction pattern.
 映像演算回路24は、マーカ生成回路21が生成するマーカを投影映像に合成させる合成表示、マスク生成回路22が生成するマスクを投影映像に合成させる合成表示、あるいはパターン生成回路23が生成する全白画像または全黒画像などの補正用パターンの表示などを行う。 The video calculation circuit 24 synthesizes the marker generated by the marker generation circuit 21 with the projected image, synthesizes the mask generated by the mask generation circuit 22 with the projected image, or displays all white generated by the pattern generation circuit 23. The correction pattern such as an image or an all-black image is displayed.
 これらマーカ生成回路21、マスク生成回路22、パターン生成回路23、および映像演算回路24は、制御回路29の制御に基づいて、それぞれ動作する。幾何補正部である幾何補正回路25は、投射される映像の幾何学的歪みを幾何パラメータに基づいて、幾何補正して投影画像を補正する。 The marker generation circuit 21, the mask generation circuit 22, the pattern generation circuit 23, and the video calculation circuit 24 operate under the control of the control circuit 29. The geometric correction circuit 25, which is a geometric correction unit, corrects the projected image by geometrically correcting the geometric distortion of the projected image based on the geometric parameter.
 幾何補正パラメータ格納部26は、例えばフラッシュメモリなどに例示される不揮発性メモリであり、後述するパラメータ算出部34が算出する幾何パラメータを格納する。幾何補正回路25は、幾何補正パラメータ格納部26に格納される幾何パラメータに基づいて、投射される映像の幾何学的歪みを幾何補正する。通信インタフェース28は、プロジェクタ11~14と通信するインタフェースである。 The geometric correction parameter storage unit 26 is a non-volatile memory such as a flash memory, for example, and stores geometric parameters calculated by a parameter calculation unit 34 described later. The geometric correction circuit 25 geometrically corrects the geometric distortion of the projected image based on the geometric parameters stored in the geometric correction parameter storage unit 26. The communication interface 28 is an interface for communicating with the projectors 11 to 14.
 映像投射部である光学系27は、幾何補正回路25によって幾何変換された映像データを光に変換して投影する。光学系27は、例えば映像をスクリーン50に投射する投射レンズ、投射する映像を生成する表示素子、および投射用の照明光を発生する光源部などから構成される。 The optical system 27, which is a video projection unit, converts the video data geometrically converted by the geometric correction circuit 25 into light and projects it. The optical system 27 includes, for example, a projection lens that projects an image on the screen 50, a display element that generates the projected image, and a light source unit that generates illumination light for projection.
 表示素子は、例えばDMD(Digital Micromirror Device)(登録商標)パネルなどが用いられる。 As the display element, for example, a DMD (Digital Micromirror Device) (registered trademark) panel or the like is used.
 表示素子については、DMDパネルに限定されるものではなく、例えば透過型液晶パネルあるいは反射型液晶パネルなどであってもよい。制御回路29は、プロジェクタ11における動作を制御する。 The display element is not limited to the DMD panel, and may be, for example, a transmissive liquid crystal panel or a reflective liquid crystal panel. The control circuit 29 controls the operation of the projector 11.
 パーソナルコンピュータ16は、カメラ入力部30、投影映像選択部31、映像送出部32、カメラ映像解析部33、パラメータ算出部34、通信制御部35、投影映像生成部36、投影映像解析部37、記憶部38、およびシーケンス制御部39から構成されている。 The personal computer 16 includes a camera input unit 30, a projection video selection unit 31, a video transmission unit 32, a camera video analysis unit 33, a parameter calculation unit 34, a communication control unit 35, a projection video generation unit 36, a projection video analysis unit 37, and a storage. It is composed of a unit 38 and a sequence control unit 39.
 カメラ入力部30は、例えばUSB(Universal Serial Bus)端子を介してカメラ15が撮影した画像データを取得する。投影映像選択部31は、投影画像の補正に用いる補正用パターンを決定してプロジェクタ11~14の制御回路29にそれぞれ送信する。 The camera input unit 30 acquires image data captured by the camera 15 via, for example, a USB (Universal Serial Bus) terminal. The projected image selection unit 31 determines a correction pattern to be used for correcting the projected image and sends it to the control circuits 29 of the projectors 11 to 14, respectively.
 映像送出部32は、投影映像生成部36が生成した映像データをプロジェクタ11~14に送信する。 The video transmission unit 32 transmits the video data generated by the projection video generation unit 36 to the projectors 11-14.
 映像解析部であるカメラ映像解析部33は、カメラ15が撮影した映像を解析して投影映像のコーナ部を検出する。パラメータ算出部34は、投射される映像の幾何学的歪みを補正する幾何パラメータを算出する。 The camera image analysis unit 33, which is an image analysis unit, analyzes the image captured by the camera 15 and detects the corner portion of the projected image. The parameter calculator 34 calculates a geometric parameter for correcting the geometric distortion of the projected image.
 通信制御部35は、プロジェクタ11~14が有する制御回路29との通信を行う。投影映像生成部36は、記憶部38に格納されている映像コンテンツをデコードする。デコードされた映像コンテンツは、投影映像生成部36に出力される。 The communication control unit 35 communicates with the control circuit 29 included in the projectors 11 to 14. The projection video generation unit 36 decodes the video content stored in the storage unit 38. The decoded video content is output to the projection video generation unit 36.
 投影映像解析部37は、映像送出部32が送信する映像データすなわちプロジェクタが投影している映像を解析して、投影映像のコーナ部を検出できるか否かを判定する。記憶部38は、例えばハードディスクドライブ(HDD)あるいはフラッシュメモリに例示される不揮発性メモリなどからなり、スクリーン50に投影する映像コンテンツなどが格納される。制御部となるシーケンス制御部39は、投影画像の補正処理における動作を制御する。 The projected image analysis unit 37 analyzes the image data transmitted by the image transmission unit 32, that is, the image projected by the projector, and determines whether or not the corner portion of the projected image can be detected. The storage unit 38 is composed of, for example, a hard disk drive (HDD) or a non-volatile memory such as a flash memory, and stores video content to be projected on the screen 50. The sequence control unit 39 serving as a control unit controls the operation in the correction process of the projected image.
 〈スタック投影の映像例〉
 図3は、図1のプロジェクタ11~14が幾何補正を行わずに「A」という映像を投影したときにスクリーン50上に表示される映像の一例を示す説明図である。図4は、図1のプロジェクタ11~14がスタック投影した際の映像の一例を示す説明図である。
<Example of stack projection image>
FIG. 3 is an explanatory diagram showing an example of an image displayed on the screen 50 when the projectors 11 to 14 in FIG. 1 project an image “A” without performing geometric correction. FIG. 4 is an explanatory diagram showing an example of an image when the projectors 11 to 14 of FIG. 1 perform stack projection.
 図3(a)は、プロジェクタ11が投射した「A」の映像がスクリーン50上に表示された様子、図3(b)は、プロジェクタ12が投射した「A」の映像、図3(c)は、プロジェクタ13が投射した「A」の映像、および図3(d)は、プロジェクタ14が投射した「A」の映像のスクリーン50上の様子をそれぞれ示している。 FIG. 3A shows a state in which the image of “A” projected by the projector 11 is displayed on the screen 50, and FIG. 3B shows the image of “A” projected by the projector 12 and FIG. 3A shows a state of the image of “A” projected by the projector 13 and FIG. 3D shows a state of the image of “A” projected by the projector 14 on the screen 50.
 各々のプロジェクタ11~14は、設置されている位置がそれぞれ異なっているため、歪の無い同一の映像を投影した場合であっても、図3(a)~図3(d)に示すように、その設置位置に応じてスクリーン50に投影される映像に歪が生じてしまう。 Since the installed positions of the projectors 11 to 14 are different from each other, as shown in FIGS. 3A to 3D, even when the same image without distortion is projected. However, the image projected on the screen 50 is distorted according to the installation position.
 この歪みを補正せずに、そのままスクリーン50に表示させた場合には、図4(a)に示すように、それぞれの歪みによってスクリーン50に表示される「A」の文字がずれて不鮮明に表示される。 When the distortion is not corrected and is displayed on the screen 50 as it is, as shown in FIG. 4A, the character “A” displayed on the screen 50 is misaligned and displayed unclearly as shown in FIG. 4A. To be done.
 投射型映像表示システム10では、補正前、すなわち図4(a)に示す各プロジェクタの表示領域から矩形領域を決定して、決定した矩形領域に合致するように幾何変換して映像を重ね合わせる。また、投射型映像表示システム10は、時間の経過とともに重ね合わせた映像がずれてしまう、経時ずれについても自動的に補正する機能を有している。 In the projection type video display system 10, before correction, that is, a rectangular area is determined from the display area of each projector shown in FIG. 4A, and geometric conversion is performed so as to match the determined rectangular area, and the images are superimposed. The projection-type image display system 10 also has a function of automatically correcting a time-dependent shift in which superimposed images shift with time.
 これにより、図4(b)に示すように、各プロジェクタ11~14から投影される「A」の映像のずれが減少し、経時ずれが発生する環境下であっても鮮明な映像をスクリーン50に表示させることができる。 As a result, as shown in FIG. 4B, the deviation of the image of “A” projected from each of the projectors 11 to 14 is reduced, and a clear image can be displayed on the screen 50 even in an environment where a time-dependent deviation occurs. Can be displayed on.
 〈投射型映像表示システムの動作例〉
 続いて、投射型映像表示システム10による動作について説明する。
<Operation example of projection type video display system>
Next, the operation of the projection type image display system 10 will be described.
 図5は、図2の投射型映像表示システム10による全体処理の概要の一例を示すフローチャートである。 FIG. 5 is a flowchart showing an example of the outline of the overall processing by the projection type video display system 10 of FIG.
 なお、図5における各ステップの処理は、後述するように各機能ブロックが実行するものであるが、ソフトウェアによってその機能を実現する構成であってもよい。その場合には、パーソナルコンピュータ16やプロジェクタ11~14の図示しないプログラム格納メモリなどに記憶されているプログラム形式のソフトウェアを、シーケンス制御部39および制御回路29などがそれぞれ実行することにより実現される。 The processing of each step in FIG. 5 is executed by each functional block as described below, but the function may be realized by software. In that case, it is realized by the sequence control unit 39, the control circuit 29 and the like executing software in a program format stored in a program storage memory (not shown) of the personal computer 16 or the projectors 11 to 14, respectively.
 まず、初期調整を行う(ステップS101)。この初期調整は、投射型映像表示システム10を最初の設置する時にのみ行われる調整である。このステップS101の処理では、各々のプロジェクタ11~14を設置した後、スクリーン50に表示される投影映像のずれを調整する。 First, perform initial adjustment (step S101). This initial adjustment is performed only when the projection-type image display system 10 is initially installed. In the process of step S101, after the projectors 11 to 14 are installed, the deviation of the projected image displayed on the screen 50 is adjusted.
 その後、プロジェクタ11~14による映像コンテンツの投影が開始される(ステップS102)。そして、映像コンテンツが投影されている際、経時ずれの発生を検出する経時ずれ検出処理を実行する(ステップS103)。 After that, the projection of the video content by the projectors 11 to 14 is started (step S102). Then, while the video content is being projected, a time-lapse detection process for detecting the occurrence of time-lapse is executed (step S103).
 経時ずれ検出処理において、経時ずれが発生したことを検出すると(ステップS104)、投射型映像表示システム10による経時ずれを補正する経時ずれ補正処理が行われる(ステップS105)。 In the time shift detection process, when it is detected that a time shift has occurred (step S104), a time shift correction process for correcting the time shift by the projection-type image display system 10 is performed (step S105).
 ステップS104の処理にて、経時ずれが発生したことを検出しない場合、あるいはステップS105の処理による経時ずれ補正処理が終了すると、再びステップS102の処理に戻る。 If it is not detected in the process of step S104 that a time lapse has occurred, or if the process of correcting the time lapse by the process of step S105 ends, the process returns to step S102.
 〈初期調整について〉
 続いて、初期調整について、図6を用いて説明する。
<About initial adjustment>
Next, the initial adjustment will be described with reference to FIG.
 図6は、図5のステップS101の処理である初期調整における処理の一例を示すフローチャートである。 FIG. 6 is a flowchart showing an example of processing in the initial adjustment which is the processing of step S101 in FIG.
 まず、シーケンス制御部39は、投影映像選択部31に保持している変数であるターゲットプロジェクタ番号を0に設定する(ステップS201)。続いて、シーケンス制御部39は、ターゲットプロジェクタ番号に従って、通信制御部35を経由して、ターゲットプロジェクタ(例えばプロジェクタ11)の制御回路29に全白映像を投影するコマンドを発行する(ステップS202)。 First, the sequence control unit 39 sets the target projector number, which is a variable held in the projected image selection unit 31, to 0 (step S201). Subsequently, the sequence control unit 39 issues a command for projecting an all-white image to the control circuit 29 of the target projector (for example, the projector 11) via the communication control unit 35 according to the target projector number (step S202).
 シーケンス制御部39からコマンドを受け取った制御回路29は、パターン生成回路23を制御して全白映像を生成させる。パターン生成回路23が生成した全白映像は、映像演算回路24および幾何補正回路25を経由して光学系27によって投影される。 The control circuit 29 receiving the command from the sequence control unit 39 controls the pattern generation circuit 23 to generate an all-white image. The all-white image generated by the pattern generation circuit 23 is projected by the optical system 27 via the image calculation circuit 24 and the geometric correction circuit 25.
 その後、シーケンス制御部39は、ターゲットプロジェクタ番号に従って、通信制御部35を経由して、ターゲットプロジェクタ以外のプロジェクタ(例えばプロジェクタ12~14)の制御回路29に全黒映像を投影するコマンドを発行する(ステップS203)。 After that, the sequence control unit 39 issues a command for projecting an all-black image to the control circuit 29 of the projector (eg, projectors 12 to 14) other than the target projector via the communication control unit 35 according to the target projector number ( Step S203).
 ステップS203の処理にて、コマンドを受け取った制御回路29は、パターン生成回路23に全黒映像を生成させる。パターン生成回路23が生成した全黒映像は、映像演算回路24および幾何補正回路25を経由して光学系27によって投影される。 In the process of step S203, the control circuit 29 having received the command causes the pattern generation circuit 23 to generate an all-black image. The all-black image generated by the pattern generation circuit 23 is projected by the optical system 27 via the image calculation circuit 24 and the geometric correction circuit 25.
 ステップS203の処理が終了すると、シーケンス制御部39は、あらかじめ規定されている待ち時間分待つ(ステップS204)。待ち時間は、例えば各プロジェクタにコマンドを発行してから、実際に投影映像が反映されるまでの時間+マージンに基づいて規定する。 When the process of step S203 is completed, the sequence control unit 39 waits for the waiting time defined in advance (step S204). The waiting time is defined based on, for example, a time +margin from when a command is issued to each projector to when the projected image is actually reflected.
 そして、シーケンス制御部39は、カメラ入力部30を経由して、カメラ15に対して撮影コマンドを発行する。このコマンドを受け取ると、カメラ15は、スクリーンを撮影する(ステップS205)。 Then, the sequence control unit 39 issues a shooting command to the camera 15 via the camera input unit 30. Upon receiving this command, the camera 15 shoots a screen (step S205).
 カメラ15は、撮影した映像をカメラ入力部30に送信する。カメラ入力部30は、入力された映像を該カメラ入力部30に設けられた図示しない内部バッファに格納し、該映像の格納が終了した際に、撮影完了信号をシーケンス制御部39に送信する。 The camera 15 sends the captured image to the camera input unit 30. The camera input unit 30 stores the input video in an internal buffer (not shown) provided in the camera input unit 30, and when the storage of the video is completed, transmits a shooting completion signal to the sequence control unit 39.
 シーケンス制御部39は、カメラ入力部30から撮影完了信号を受け取ると、カメラ映像解析部33に映像解析指示コマンドを発行する。カメラ映像解析部33は、シーケンス制御部39からコマンドを受信すると、カメラ入力部30の内部バッファから撮影画像を受け取り、受け取ったカメラ画像の含まれている投影映像の表示領域の4つのコーナ部の座標を算出する(ステップS206)。 The sequence control unit 39, when receiving the photographing completion signal from the camera input unit 30, issues a video analysis instruction command to the camera video analysis unit 33. Upon receiving the command from the sequence control unit 39, the camera image analysis unit 33 receives the captured image from the internal buffer of the camera input unit 30, and detects the four corners of the display region of the projected image including the received camera image. The coordinates are calculated (step S206).
 投影映像におけるコーナ部の座標の算出が終了すると、カメラ映像解析部33は、シーケンス制御部39に算出が終了したことを通知する。シーケンス制御部39は、算出終了の通知を受け取ると、算出された4隅の座標をターゲットプロジェクタ番号ごとに格納する。 When the calculation of the coordinates of the corner portion in the projected image is completed, the camera image analysis unit 33 notifies the sequence control unit 39 that the calculation is completed. Upon receiving the calculation end notification, the sequence control unit 39 stores the calculated four corner coordinates for each target projector number.
 算出した座標は、例えばカメラ映像解析部33が有する図示しない格納領域に格納してもよいし、あるいは記憶部38に算出した座標を格納するようにしてもよい。 The calculated coordinates may be stored in, for example, a storage area (not shown) of the camera image analysis unit 33, or the calculated coordinates may be stored in the storage unit 38.
 ステップS206の処理が終了すると、シーケンス制御部39は、投影映像選択部31に保持されている変数であるターゲットプロジェクタ番号を1増やす(ステップS207)。 When the process of step S206 ends, the sequence control unit 39 increments the target projector number, which is a variable held in the projected image selection unit 31, by 1 (step S207).
 シーケンス制御部39は、ターゲットプロジェクタ番号がプロジェクタ台数よりも小さければ(ステップS208)、ループの先頭に戻ってステップS202から処理を繰り返す。また、全プロジェクタの処理が完了していれば(ステップS208)、幾何パラメータ算出処理を実行する(ステップS209)。 If the target projector number is smaller than the number of projectors (step S208), the sequence control unit 39 returns to the beginning of the loop and repeats the processing from step S202. If the processing of all projectors is completed (step S208), the geometric parameter calculation processing is executed (step S209).
 ステップS209の処理では、シーケンス制御部39がパラメータ算出部34に対して、幾何変換パラメータ算出コマンドを発行する。パラメータ算出部34は、シーケンス制御部39からコマンドを受信すると、カメラ映像解析部33が有する図示しない格納領域にターゲットプロジェクタごとに格納されているコーナ部の座標を読み出し、各プロジェクタ11~14に対応した幾何変換行列を算出する。 In the process of step S209, the sequence control unit 39 issues a geometric conversion parameter calculation command to the parameter calculation unit 34. Upon receiving the command from the sequence control unit 39, the parameter calculation unit 34 reads out the coordinates of the corner unit stored for each target projector in a storage area (not shown) of the camera image analysis unit 33 and corresponds to each of the projectors 11 to 14. The calculated geometric transformation matrix is calculated.
 全ての幾何変換行列が求められると、カメラ映像解析部33は、シーケンス制御部39に完了を通知する。シーケンス制御部39は、完了通知を受け取ると、各プロジェクタ11~14の制御回路29に幾何変換行列を送信する。 When all the geometric transformation matrices are obtained, the camera image analysis unit 33 notifies the sequence control unit 39 of the completion. Upon receiving the completion notification, the sequence control unit 39 transmits the geometric conversion matrix to the control circuit 29 of each of the projectors 11-14.
 プロジェクタ11~14の制御回路29は、幾何変換行列を受信すると、受信した幾何変換行列を幾何補正パラメータ格納部26に格納し、幾何補正回路25に対して、幾何補正パラメータ格納部26に格納されたパラメータ、すなわち幾何変換行列を用いて幾何変換を実行させる。また、制御回路29は、映像演算回路24が映像インタフェース20から出力される信号を出力するように設定する。 Upon receiving the geometric transformation matrix, the control circuit 29 of the projectors 11 to 14 stores the received geometric transformation matrix in the geometric correction parameter storage unit 26, and stores it in the geometric correction parameter storage unit 26 for the geometric correction circuit 25. The geometric transformation is executed using the parameter, that is, the geometric transformation matrix. Further, the control circuit 29 sets the video arithmetic circuit 24 to output the signal output from the video interface 20.
 これらの設定を行うことにより、各プロジェクタ11~14は、映像インタフェース20から入力された映像に対して、幾何補正パラメータ格納部26に格納されている幾何変換パラメータに基づいた幾何変換を実施し、変換後の映像を投影する。 By making these settings, each of the projectors 11 to 14 performs the geometric conversion on the video input from the video interface 20 based on the geometric conversion parameter stored in the geometric correction parameter storage unit 26. Project the converted video.
 投影映像生成部36は、シーケンス制御部39からコンテンツ再生の指示を受け取ると、あらかじめ設定されているコンテンツ名に基づいて、映像コンテンツを記憶部38から読み出し、読み出した映像コンテンツに対してデコード処理を行い、映像データを生成する。 When the projection video generation unit 36 receives the content reproduction instruction from the sequence control unit 39, the projection video generation unit 36 reads the video content from the storage unit 38 based on the preset content name, and decodes the read video content. And generate video data.
 投影映像生成部36は、生成した映像データを通信制御部35を経由して、各プロジェクタ11~14に送出する。投影映像生成部36は、コンテンツに応じたフレーム周期、例えば30フレーム/秒ごとに、上記処理を実行して映像を更新することによって動画再生を実現する。さらに、各フレームの処理が完了するごとにフレーム同期信号をシーケンス制御部39に送出する。 The projection video generation unit 36 sends the generated video data to each of the projectors 11 to 14 via the communication control unit 35. The projection image generation unit 36 realizes moving image reproduction by executing the above processing and updating the image at a frame cycle corresponding to the content, for example, every 30 frames/second. Further, a frame synchronization signal is sent to the sequence controller 39 each time the processing of each frame is completed.
 ここで、パラメータ算出部34による幾何変換行列の算出処理について説明する。 Here, the calculation processing of the geometric transformation matrix by the parameter calculation unit 34 will be described.
 プロジェクタによる映像投射やカメラ15による撮影では、透視変換と呼ばれる変換に基づいて画像が変形されることになる。透視変換を行うことによって、実世界と同様に近くにある物体は大きく、遠くにある物体は小さく表示される。 When projecting an image with a projector or shooting with the camera 15, the image is transformed based on a transformation called perspective transformation. By performing perspective transformation, near objects are displayed large and objects far away are displayed small as in the real world.
 透視変換によって、ある座標系の点(xi,yi)が、別の座標系の点(xo,yo)に変換されるとき、両者の間には式1の関係が成り立っている。 When the point (xi, yi) in one coordinate system is converted to the point (xo, yo) in another coordinate system by the perspective transformation, the relationship of Equation 1 is established between them.
Figure JPOXMLDOC01-appb-M000001
 この式は同次座標で書かれており、xoとyoは、以下に示す式2、式3によって求めることができる。
Figure JPOXMLDOC01-appb-M000001
This equation is written in homogeneous coordinates, and xo and yo can be obtained by the following equations 2 and 3.
Figure JPOXMLDOC01-appb-M000002
 式1の中の3×3行列が透視変換を規定する変換行列である。この変換行列は、行列の要素であるa00~a21までの8個の変数を求めることにより特定することができる。8個の未知数を求めるには、8本の方程式が必要であり、そのためには、(xi,yi)と(xo,yo)との組を4つ知ることができればよい。
Figure JPOXMLDOC01-appb-M000002
The 3×3 matrix in Expression 1 is a transformation matrix that defines the perspective transformation. This conversion matrix can be specified by obtaining eight variables a00 to a21 which are elements of the matrix. Eight equations are required to obtain eight unknowns, and for that purpose, it is only necessary to know four pairs of (xi, yi) and (xo, yo).
 すなわち、透視変換前の映像上の4点の座標が、それぞれどの座標に変換されるかが判れば変換行列を求めることが可能である。ここでは、これを用いて、幾何変換行列を算出する。 That is, it is possible to obtain the transformation matrix by knowing which coordinate the four coordinates on the image before perspective transformation are respectively transformed. Here, this is used to calculate the geometric transformation matrix.
 〈座標算出例〉
 続いて、幾何変換行列による補正後の映像における4つのコーナ部の座標を算出例について説明する。なお、ここでは、説明を簡単にするために、2つのプロジェクタ11,12から映像が投影されるものとする。
<Coordinate calculation example>
Next, an example of calculating the coordinates of the four corner portions in the image after correction by the geometric conversion matrix will be described. Note that, here, for simplicity of description, it is assumed that images are projected from the two projectors 11 and 12.
 図7は、図1のプロジェクタ11,12による全白画像の投影映像の一例を示す説明図である。 FIG. 7 is an explanatory diagram showing an example of a projected image of an all-white image by the projectors 11 and 12 of FIG.
 図7(a)は、プロジェクタ11がスクリーン50に投影した全白画像51の形状を示したものであり、カメラ15によってプロジェクタ11がスクリーン50に投影した全白画像51を撮影したものである。 FIG. 7A shows the shape of the all-white image 51 projected onto the screen 50 by the projector 11, and the camera 15 photographs the all-white image 51 projected onto the screen 50 by the camera 15.
 同様に、図7(b)は、プロジェクタ12がスクリーン50に投影した全白画像52の形状を示したものであり、カメラ15によってプロジェクタ12がスクリーン50に投影した全白画像52を撮影したものである。 Similarly, FIG. 7B shows the shape of the all-white image 52 projected by the projector 12 on the screen 50, and shows the all-white image 52 projected by the projector 12 on the screen 50 by the camera 15. Is.
 ここで、全白画像51の4つのコーナ部の頂点を、図7(a)に示すように、それぞれ点A0,B0,C0,D0とし、全白画像52の4つのコーナ部の頂点を、図7(b)に示すように、それぞれ点A1,B1,C1,D1とする。 Here, the vertices of the four corner portions of the all-white image 51 are points A0, B0, C0, and D0, respectively, as shown in FIG. 7A, and the vertices of the four corner portions of the all-white image 52 are As shown in FIG. 7B, points A1, B1, C1, and D1 are set, respectively.
 これら図7の全白画像51,52を用いて補正後の映像53の4つのコーナ部の頂点である点Am,Bm,Cm,Dmを求めることによって補正後の映像53の表示領域を決定する。 The display area of the corrected image 53 is determined by obtaining the points Am, Bm, Cm, and Dm that are the vertices of the four corners of the corrected image 53 using the all- white images 51 and 52 of FIG. ..
 〈表示領域の算出例〉
 図8は、初期調整による表示領域における算出の一例を示す説明図である。
<Display area calculation example>
FIG. 8 is an explanatory diagram showing an example of calculation in the display area by the initial adjustment.
 この図8では、図7(a)の全白画像51および図7(b)の全白画像52をそれぞれ点線にて示しており、補正後の映像53を実線にて示している。 In FIG. 8, the all-white image 51 of FIG. 7A and the all-white image 52 of FIG. 7B are shown by dotted lines, and the corrected image 53 is shown by solid lines.
 まず、図8のスクリーン50の左下方のコーナ部を原点として、全白画像51の点A0,D0および全白画像52の点A1,D1のX座標をそれぞれ求める。求めた点A0,D0および点A1,D1のX座標のうち、最大値となる点のX座標をそれぞれ点Amおよび点DmのX座標として設定する。 First, the X-coordinates of points A0 and D0 of the all-white image 51 and points A1 and D1 of the all-white image 52 are obtained with the corner portion at the lower left corner of the screen 50 in FIG. 8 as the origin. Among the obtained X coordinates of the points A0 and D0 and the points A1 and D1, the X coordinate of the point having the maximum value is set as the X coordinate of the point Am and the point Dm, respectively.
 同様に、全白画像51の点B0,C0および全白画像52の点B1,C1のX座標をそれぞれ求め、求めた点B0,C0および点B1,C1のX座標のうち、最小値となる点のX座標をそれぞれ点Bmおよび点CmのX座標として設定する。 Similarly, the X-coordinates of the points B0 and C0 of the all-white image 51 and the points B1 and C1 of the all-white image 52 are obtained, respectively, which is the minimum value among the obtained X-coordinates of the points B0 and C0 and the points B1 and C1. The X coordinates of the points are set as the X coordinates of the points Bm and Cm, respectively.
 続いて、全白画像51の点A0,B0および全白画像52の点A1,B1のY座標をそれぞれ求め、求めた点A0,B0および点A1,B1のY座標のうち、最大値となる点のY座標をそれぞれ点Amおよび点BmのY座標として設定する。 Then, the Y coordinates of the points A0 and B0 of the all-white image 51 and the points A1 and B1 of the all-white image 52 are obtained, respectively, which is the maximum value among the obtained Y coordinates of the points A0 and B0 and the points A1 and B1. The Y coordinates of the points are set as the Y coordinates of the points Am and Bm, respectively.
  同様に、全白画像51の点D0,C0および全白画像52の点D1,C1のY座標をそれぞれ求め、求めた点D0,C0および点D1,C1のY座標のうち、最大値となる点のY座標をそれぞれ点Dmおよび点CmのY座標として設定する。 Similarly, the Y coordinates of the points D0 and C0 of the all-white image 51 and the points D1 and C1 of the all-white image 52 are obtained, respectively, which is the maximum value among the obtained Y coordinates of the points D0 and C0 and the points D1 and C1. The Y coordinate of the point is set as the Y coordinate of the point Dm and the point Cm, respectively.
 このようにして求めた点Am,Bm,Cm,Dmをコーナ部とする矩形領域を補正後の映像53の表示領域とする。 The rectangular area having the corners of the points Am, Bm, Cm, and Dm thus obtained is used as the display area of the corrected image 53.
 〈経時ずれ検出例〉
 続いて、投射型映像表示システム10による経時ずれ検出の動作について説明する。
<Example of detection of time lag>
Next, the operation of detecting the time shift by the projection type image display system 10 will be described.
 図9は、図5のステップS103の処理である経時ずれ検出における処理の一例を示すフローチャートである。 FIG. 9 is a flowchart showing an example of the process in the time shift detection which is the process of step S103 of FIG.
 この図9に示す処理は、図2のカメラ映像解析部33が主体となって行うものである。シーケンス制御部39は、投影映像生成部36から出力されるフレーム同期信号ごとに図9に示す処理を実行するものとする。フレーム同期信号は、例えば30フレーム/毎に出力される。 The process shown in FIG. 9 is performed mainly by the camera image analysis unit 33 of FIG. The sequence control unit 39 is assumed to execute the processing shown in FIG. 9 for each frame synchronization signal output from the projection image generation unit 36. The frame synchronization signal is output, for example, every 30 frames.
 まず、カメラ映像のフレーム重畳処理を行う(ステップS301)。ステップS301の処理において、シーケンス制御部39は、投影映像生成部36から出力されるフレーム同期信号を受信すると、カメラ入力部30に対して撮影要求を発行し、カメラ15による撮影が行われる。 First, frame superimposition processing of camera images is performed (step S301). In the process of step S301, when the sequence control unit 39 receives the frame synchronization signal output from the projection image generation unit 36, the sequence control unit 39 issues a shooting request to the camera input unit 30 and the camera 15 shoots.
 カメラ15が撮影した映像は、カメラ入力部30の図示しないバッファなどに格納される。カメラ15の撮影が終了すると、該カメラ15から撮影完了信号が出力される。カメラ15からの撮影完了信号を受け取ると、シーケンス制御部39は、カメラ映像解析部33に映像格納コマンドを発行する。 The video image captured by the camera 15 is stored in a buffer (not shown) of the camera input unit 30. When the camera 15 finishes shooting, the camera 15 outputs a shooting completion signal. Upon receiving the shooting completion signal from the camera 15, the sequence control unit 39 issues a video storage command to the camera video analysis unit 33.
 カメラ映像解析部33は、映像格納コマンドを受信すると、カメラ入力部30のバッファから撮影映像を受け取り、該カメラ映像解析部33が有する内部バッファに映像を格納する。 Upon receiving the video storage command, the camera video analysis unit 33 receives the captured video from the buffer of the camera input unit 30 and stores the video in the internal buffer of the camera video analysis unit 33.
 この内部バッファは、N個分の画像を格納することができ、直近Nフレーム分の撮影画像が格納される。ここで、Nの値は、あらかじめ規定されており、例えばN=30程度である。 This internal buffer can store N images, and the latest N frames of captured images are stored. Here, the value of N is defined in advance and is, for example, about N=30.
 カメラ映像解析部33は、N枚分の画像の重畳処理を行う。重畳方法は、例えば比較明合成などである。この比較明合成は、画素位置ごとにN枚の画像の中から最大の値の画素を選択して合成する。 The camera image analysis unit 33 performs a superimposing process on N images. The superimposing method is, for example, comparative light composition. In this comparative bright combination, the pixel having the maximum value is selected from N images for each pixel position and combined.
 続いて、プロジェクタ画像をNフレーム重畳する(ステップS302)。ステップS302の処理において、シーケンス制御部39は、投影映像解析部37に対して映像格納コマンドを発行する。 Next, N frames of the projector image are superimposed (step S302). In the process of step S302, the sequence control unit 39 issues a video storage command to the projection video analysis unit 37.
 投影映像解析部37は、映像格納コマンドを受信すると、投影映像生成部36から投影画像を受け取り、投影映像解析部37の内部バッファに受け取った映像を格納する。この内部バッファは、N個分の画像を格納可能となっており、直近Nフレーム分の投影画像が格納される。 Upon receiving the video storage command, the projection video analysis unit 37 receives the projection image from the projection video generation unit 36 and stores the received video in the internal buffer of the projection video analysis unit 37. This internal buffer can store N images, and the latest N frames of projected images are stored.
 Nの値はあらかじめ規定されており、例えばN=30程度である。投影映像解析部37は、N枚分の画像の重畳処理を行う。重畳方法は、ステップS301の処理と同様に、比較明合成である。 The value of N is specified in advance, and for example, N=30. The projected image analysis unit 37 performs a superposition process of N images. The superimposing method is the comparative bright combination, as in the process of step S301.
 そして、投影映像解析部37は、生成した重畳映像を解析して、映像の4つのコーナ部を検出することのできる映像であるか否かを判定する(ステップS303)。コーナ部を検出することのできる映像であると判定すると、投影映像解析部37は、重畳映像を解析して映像の4隅の座標を算出する(ステップS304)。 Then, the projected image analysis unit 37 analyzes the generated superimposed image to determine whether or not the image can detect the four corners of the image (step S303). When it is determined that the video is a video in which the corner portion can be detected, the projected video analysis unit 37 analyzes the superimposed video and calculates the coordinates of the four corners of the video (step S304).
 また、ステップS303の処理において、コーナ部を検出することのできる映像でないと判定した際には、ステップS301の処理に戻る。 Also, in the processing of step S303, when it is determined that the video is not a corner-detectable image, the processing returns to step S301.
 続いて、投影映像解析部37は、算出した映像の4つのコーナ部の座標を、過去の算出結果と比較し、座標のずれがあらかじめ規定したしきい値を超えているか否かを判定する(ステップS305)。 Next, the projected image analysis unit 37 compares the calculated coordinates of the four corners of the image with the past calculation results, and determines whether or not the coordinate deviation exceeds a predetermined threshold value ( Step S305).
 座標のずれがしきい値を超えていないと判定した場合、投影映像解析部37は、経時ずれが発生していないと判定し、ステップS301の処理に戻る。また、座標のずれがしきい値を超えていると判定した場合、投影映像解析部37は、経時ずれが発生していると判定し、経時ずれを検出する(ステップS306)。経時ずれを検出した場合には、図5のステップS105の処理である経時ずれ補正が行われる。 If it is determined that the coordinate shift does not exceed the threshold value, the projected image analysis unit 37 determines that no temporal shift has occurred, and the process returns to step S301. If it is determined that the coordinate shift exceeds the threshold value, the projected image analysis unit 37 determines that a temporal shift has occurred, and detects the temporal shift (step S306). When the time-dependent shift is detected, the time-dependent shift correction, which is the process of step S105 of FIG. 5, is performed.
 また、ステップS305の処理において、投影映像解析部37は、算出した最新の4つのコーナ部の座標を次回以降に比較するために該投影映像解析部37が有する図示しないメモリなどに格納する。 Further, in the process of step S305, the projection video analysis unit 37 stores the calculated latest coordinates of the four corners in a memory or the like (not shown) included in the projection video analysis unit 37 in order to compare the coordinates after the next time.
 以上により、経時ずれ検出の処理が終了となる。 Due to the above, the process for detecting the time shift is completed.
 図10は、図9の経時ずれ検出の一例を示す説明図である。 FIG. 10 is an explanatory diagram showing an example of the temporal shift detection of FIG.
 図10(a)は、2つのプロジェクタから投影される2つの映像に経時ずれが発生していない場合を示したものであり、図10(b)は、2つのプロジェクタから投影される2つの映像に経時ずれが発生している場合を示したものである。 FIG. 10A shows a case where two images projected from two projectors have no time lag, and FIG. 10B shows two images projected from two projectors. It shows the case where there is a time lag in.
 まず、2つのプロジェクタから投影される2つの映像に経時ずれが発生していないときには、2つのプロジェクタからの投影映像が重なって表示される。 First, when there is no time lag between the two images projected from the two projectors, the projected images from the two projectors are displayed in an overlapping manner.
 よって、2つのプロジェクタからの投影映像が表示される矩形領域、言い換えれば映像表示領域の4つのコーナ部の点は、図10(a)に示すように、図6の初期調整にて求めた点Am,Bm,Cm,Dmと一致することになる。 Therefore, as shown in FIG. 10A, the rectangular area where the projected images from the two projectors are displayed, in other words, the points at the four corners of the image display area are the points obtained by the initial adjustment in FIG. It corresponds to Am, Bm, Cm, Dm.
 一方、2つのプロジェクタからの投影映像に経時ずれが発生すると、それぞれのプロジェクタの映像表示領域がずれるために、各々の映像表示領域の4つのコーナ部の点が、図10(b)に示すように、図6の初期調整にて求めた点Am,Bm,Cm,Dmと一致しない。 On the other hand, when the projected images from the two projectors deviate over time, the image display areas of the respective projectors deviate, so that the four corner points of each image display area are as shown in FIG. In addition, the points Am, Bm, Cm, and Dm obtained by the initial adjustment in FIG. 6 do not match.
 よって、2つのプロジェクタから投影された矩形領域のコーナ部の点と初期調整にて求めたコーナ部との座標とを比較して、該座標が一致している場合には、経時ずれが発生していないと判断することができる。また、座標が一致していない場合には、経時ずれが発生したと判定することができる。 Therefore, the coordinates of the corner point of the rectangular area projected from the two projectors are compared with the coordinates of the corner section obtained in the initial adjustment, and if the coordinates match, there is a time lag. You can determine that you have not. Further, when the coordinates do not match, it can be determined that a time lapse has occurred.
 〈経時ずれ補正について〉
 続いて、経時ずれを検出した際の経時ずれ補正について説明する。
<About aging correction>
Next, a description will be given of the correction of time deviation when the time deviation is detected.
 まず、各々のプロジェクタの全点灯時における4つのコーナ部の座標をそれぞれ求める。すべてのプロジェクタの座標が求まると、図6の初期調整と同様に幾何補正パラメータを算出する。 First, find the coordinates of the four corners when all projectors are fully lit. When the coordinates of all the projectors are obtained, the geometric correction parameters are calculated as in the initial adjustment shown in FIG.
 この経時ずれの補正は、動画コンテンツが投影されている際に行われるので、視聴者にできるだけ違和感を与えずに各プロジェクタの全点灯時におけるコーナ部の座標を求めることが重要となる。 Since this time lag correction is performed while the video content is being projected, it is important to find the coordinates of the corners when all the projectors are fully lit, without giving the viewer a feeling of strangeness.
 続いて、前述した経時ずれ補正におけるプロジェクタの全点灯時におけるコーナ部の座標を求める方法について具体的に説明する。 Next, a method of obtaining the coordinates of the corner portion when the projector is fully lit in the above-described time-dependent shift correction will be specifically described.
 図11は、図2の投射型映像表示システム10による経時ずれ補正におけるコーナ部の座標算出の一例を示す説明図である。 FIG. 11 is an explanatory diagram showing an example of the calculation of the coordinates of the corner portion in the correction of the time lapse by the projection type video display system 10 of FIG.
 なお、図11は、説明を簡単にするために2つのプロジェクタ11,12による座標の算出例を示している。 Note that FIG. 11 shows an example of calculation of coordinates by the two projectors 11 and 12 for the sake of simplicity.
 図11に示す座標の算出方法は、座標算出の対象となるターゲットプロジェクタを点灯状態とし、それ以外、すなわち対象外のプロジェクタを消灯させるものである。 The coordinate calculation method shown in FIG. 11 is to turn on the target projector that is the target of coordinate calculation and turn off the other projectors, that is, the non-target projectors.
 プロジェクタ11における4つのコーナ部の座標をそれぞれ求める。この場合、図11(a)の左側に示すように、まず、座標算出の対象となるプロジェクタ11による映像投影を行う。このとき、図11(a)の右側に示すように、対象外のプロジェクタ12は、消灯させる。この状態にて、プロジェクタ11における4つのコーナ部の座標をそれぞれ求める。 Obtain the coordinates of the four corners of the projector 11 respectively. In this case, as shown on the left side of FIG. 11A, first, image projection is performed by the projector 11 that is the target of coordinate calculation. At this time, as shown on the right side of FIG. 11A, the non-target projector 12 is turned off. In this state, the coordinates of the four corners of the projector 11 are obtained.
 続いて、プロジェクタ12の4つのコーナ部の座標を求める。この場合、図11(b)の左側に示すように、該プロジェクタ11を消灯させるとともに、図11(b)の右側に示すようにプロジェクタ12を点灯させる。この状態にて、プロジェクタ12における4つのコーナ部の座標をそれぞれ求める。 Next, find the coordinates of the four corners of the projector 12. In this case, the projector 11 is turned off as shown on the left side of FIG. 11B, and the projector 12 is turned on as shown on the right side of FIG. 11B. In this state, the coordinates of the four corners of the projector 12 are obtained.
 なお、4つのプロジェクタの場合には、順次対象となるプロジェクタを点灯し、それ以外の非対象のすべてのプロジェクタを消灯することによって、4つのプロジェクタにおけるコーナ部の座標を求める。 In the case of four projectors, the coordinates of the corners of the four projectors are obtained by sequentially turning on the target projectors and turning off all other non-target projectors.
 これにより、視聴者に違和感を与えることなく、動画コンテンツを投影中に経時ずれを補正することができる。 With this, it is possible to correct the time lag while projecting the video content without giving the viewer a feeling of strangeness.
 ここでは、非対象のプロジェクタを消灯させていたが、非対象のプロジェクタを消灯させるのではなく、座標の算出に影響が出ない程度の映像となるように輝度を低下させるようにしてもよい。 Here, the non-target projector was turned off, but the brightness may be reduced so that the image does not affect the calculation of the coordinates, instead of turning off the non-target projector.
 図12は、図11の座標算出例を用いた経時ずれ補正における処理の一例を示すフローチャートである。 FIG. 12 is a flow chart showing an example of processing in time deviation correction using the coordinate calculation example of FIG. 11.
 まず、シーケンス制御部39は、投影映像選択部31に保持している変数であるターゲットプロジェクタ番号を0に設定する(ステップS401)。続いて、ターゲットではないプロジェクタを消灯する(ステップS402)。 First, the sequence control unit 39 sets the target projector number, which is a variable held in the projected image selection unit 31, to 0 (step S401). Then, the projector that is not the target is turned off (step S402).
 ステップS402の処理において、シーケンス制御部39は、ターゲットプロジェクタ番号に従って、通信制御部35を経由して、ターゲットではないプロジェクタ(例えばプロジェクタ12~14)の制御回路29に映像を消灯するコマンドを発行する。 In the process of step S402, the sequence control unit 39 issues a command to turn off the image to the control circuit 29 of the projector (eg, projectors 12 to 14) that is not the target via the communication control unit 35 according to the target projector number. ..
 シーケンス制御部39からコマンドを受け取った制御回路29は、光学系27を制御して消灯させる。これによって、ターゲットではないプロジェクタ12~14は消灯され、ターゲットプロジェクタ(例えばプロジェクタ11)の映像のみがスクリーン50に投影される。 The control circuit 29 receiving the command from the sequence control unit 39 controls the optical system 27 to turn off the light. As a result, the projectors 12 to 14, which are not the targets, are turned off, and only the image of the target projector (for example, the projector 11) is projected on the screen 50.
 以降、図12のステップS403~S408の処理は、図6のステップS204~S209の処理と同様であるので、説明は省略する。そして、このように算出した幾何補正パラメータを用いて、前述した図8のように経時ずれを補正する。 After that, the processes of steps S403 to S408 of FIG. 12 are the same as the processes of steps S204 to S209 of FIG. Then, using the geometrical correction parameters calculated in this way, the temporal shift is corrected as shown in FIG.
 以上により、経時ずれを定期的に自動的に補正することができるので、ユーザによるプロジェクタ11~14設置後の再調整を不要とすることができる。これにより、利便性を向上させることができる。 Due to the above, it is possible to automatically correct the time lag periodically, so that it is not necessary for the user to readjust after installing the projectors 11 to 14. Thereby, convenience can be improved.
 また、動画コンテンツの投影中に経時ずれを自動的に補正するので、画像のずれた動画コンテンツが投影されつつけることを低減することが可能となる。その結果、視聴者に高品質の映像を提供することができる。 Also, since the time lag is automatically corrected during the projection of the moving image content, it is possible to reduce the continuous projection of the moving image content with the shifted image. As a result, the viewer can be provided with high-quality video.
 (実施の形態2)
 〈座標算出例〉
 図13は、本実施の形態2による経時ずれ補正におけるコーナ部の座標算出の一例を示す説明図である。
(Embodiment 2)
<Coordinate calculation example>
FIG. 13 is an explanatory diagram showing an example of the calculation of the coordinates of the corner portion in the correction of the time-dependent shift according to the second embodiment.
 なお、図13についても、説明を簡単にするために2つのプロジェクタ11,12による座標の算出例を示している。また、投射型映像表示システム10の構成については、図2の投射型映像表示システム10と同様であるので、説明は省略する。 Note that FIG. 13 also shows an example of calculating coordinates by the two projectors 11 and 12 for the sake of simplicity. The configuration of the projection-type image display system 10 is the same as that of the projection-type image display system 10 in FIG.
 図13に示す座標の算出方法は、座標算出の対象となるプロジェクタを点灯状態とし、それ以外である対象外のプロジェクタにおける投影映像のコーナ部の輝度を低下させるものである。 The coordinate calculation method shown in FIG. 13 is to turn on the projector that is the target of coordinate calculation and reduce the brightness of the corner portion of the projected image in the other projectors that are not the target.
 まず、図13(a)の左側に示すように、座標算出の対象となるプロジェクタ11を点灯させるとともに、図13(a)の右側に示すように、対象外のプロジェクタ12においては、投影映像のコーナ部の輝度を低下させる。この状態にて、プロジェクタ11の投影映像における4つのコーナ部の座標をそれぞれ求める。 First, as shown on the left side of FIG. 13A, the projector 11 that is the target of coordinate calculation is turned on, and as shown on the right side of FIG. Reduces the brightness of the corners. In this state, the coordinates of the four corners in the projected image of the projector 11 are obtained.
 プロジェクタ11の4つのコーナ部の座標が求められると、図13(b)の右側に示すように、低下させていたプロジェクタ12のコーナ部の輝度を規定に戻すとともに、図13(b)の左側に示すように、プロジェクタ11における投影映像のコーナ部の輝度を低下させる。この状態にて、プロジェクタ12における4つのコーナ部の座標をそれぞれ求める。 When the coordinates of the four corners of the projector 11 are obtained, as shown on the right side of FIG. 13B, the lowered brightness of the corners of the projector 12 is returned to the standard, and the left side of FIG. As shown in, the brightness of the corner portion of the projected image on the projector 11 is reduced. In this state, the coordinates of the four corners of the projector 12 are obtained.
 これにより、座標算出時には、コーナ部のみ輝度が低下し、その他の領域の輝度は低減しないので、投影映像の違和感をより少なくしながら、コーナ部の座標算出を行うことができる。 With this, when calculating the coordinates, the brightness of only the corner part decreases and the brightness of the other areas does not decrease, so it is possible to calculate the coordinates of the corner part while reducing the discomfort of the projected image.
 ここでは、非対象のプロジェクタが投影するコーナ部の輝度を低下させていたが、投影映像のコーナ部にグラデーションがかかるように該プロジェクタを制御してもよい。また、輝度を低下させるコーナ部は、コーナ部が容易に検出される形状であればよい。 Here, the brightness of the corner portion projected by the non-target projector is reduced, but the projector may be controlled so that the corner portion of the projected image is gradation. Further, the corner portion that reduces the brightness may have a shape that allows the corner portion to be easily detected.
 図14は、図13の座標算出例を用いた経時ずれ補正における処理の一例を示すフローチャートである。 FIG. 14 is a flow chart showing an example of processing in time deviation correction using the coordinate calculation example of FIG. 13.
 まず、シーケンス制御部39は、投影映像選択部31に保持している変数であるターゲットプロジェクタ番号を0に設定する(ステップS501)。続いて、非対象のプロジェクタが投影するコーナ部の輝度を低下させる(ステップS502)。 First, the sequence control unit 39 sets the target projector number, which is a variable held in the projected image selection unit 31, to 0 (step S501). Subsequently, the brightness of the corner portion projected by the non-target projector is reduced (step S502).
 このステップS502の処理において、シーケンス制御部39は、ターゲットプロジェクタ番号に従って、通信制御部35を経由して、ターゲットではないプロジェクタ(例えばプロジェクタ12~14)の制御回路29に投影映像のコーナ部の輝度を低下させるコマンドを発行する。 In the process of step S502, the sequence control unit 39 causes the control circuit 29 of the projector (for example, the projectors 12 to 14) that is not the target to control the brightness of the corner portion of the projected image via the communication control unit 35 according to the target projector number. Issue a command that lowers the
 シーケンス制御部39からコマンドを受け取った制御回路29は、マスク生成回路22を制御して投影映像のコーナ部の輝度を低下させるマスクを生成させる。映像演算回路24は、マスク生成回路22が生成したマスクを投影映像に合成して光学系27によって投影される。 The control circuit 29 that receives the command from the sequence control unit 39 controls the mask generation circuit 22 to generate a mask that reduces the brightness of the corner portion of the projected image. The image calculation circuit 24 synthesizes the mask generated by the mask generation circuit 22 into a projected image and projects it by the optical system 27.
 これによって、ターゲットではないプロジェクタ12~14の投影映像のコーナ部の輝度が低下するので、輝度が低下していないターゲットプロジェクタ(例えばプロジェクタ11)の投影映像のコーナ部の座標を精度よく算出することができる。 As a result, the luminance of the corner portion of the projected image of the projectors 12 to 14, which is not the target, is reduced. Therefore, the coordinates of the corner portion of the projected image of the target projector (for example, the projector 11) whose luminance is not reduced can be calculated accurately. You can
 以降、図14のステップS503~S508の処理は、図6のステップS204~S209の処理と同様であるので、説明は省略する。そして、このように算出した幾何補正パラメータを用いて、前述した図8のように経時ずれを補正する。 After that, the processes of steps S503 to S508 of FIG. 14 are the same as the processes of steps S204 to S209 of FIG. Then, using the geometrical correction parameters calculated in this way, the temporal shift is corrected as shown in FIG.
 以上により、投影映像の違和感をより軽減しながら、経時ずれの補正を行うことができる。 Due to the above, it is possible to correct the time lag while further reducing the discomfort of the projected image.
 (実施の形態3)
 〈座標算出例〉
 図15は、本実施の形態3によるコーナ部の座標算出における一例を示す説明図である。
(Embodiment 3)
<Coordinate calculation example>
FIG. 15 is an explanatory diagram showing an example of the coordinate calculation of the corner portion according to the third embodiment.
 図15では、図13に示した座標算出方法において、検出対象のプロジェクタによってコーナ部にマーカを表示させる例を示している。投射型映像表示システム10の構成については、図2の投射型映像表示システム10と同様であるので、説明は省略する。 FIG. 15 shows an example of displaying a marker on the corner section by the projector to be detected in the coordinate calculation method shown in FIG. The configuration of the projection type video display system 10 is the same as that of the projection type video display system 10 of FIG.
 この場合、図15(a)の左側に示すように、座標算出の対象となるプロジェクタ11を点灯させるとともに該プロジェクタ11にて投影映像における4つのコーナ部にマーカ60をそれぞれ重畳表示させる。 In this case, as shown on the left side of FIG. 15A, the projector 11 which is the target of coordinate calculation is turned on, and the markers 11 are displayed on the four corners of the projected image by the projector 11 in a superimposed manner.
 また、対象外のプロジェクタ12においては、図15(a)の右側に示すように、投影映像のコーナ部の輝度を低下させる。この状態にて、プロジェクタ11の投影映像における4つのコーナ部の座標をそれぞれ求める。マーカ60を表示させることにより、プロジェクタ11の4つのコーナ部の座標をより精度よく、より短時間で検出することができる。 Further, in the non-target projector 12, as shown on the right side of FIG. 15A, the brightness of the corner portion of the projected image is reduced. In this state, the coordinates of the four corners in the projected image of the projector 11 are obtained. By displaying the marker 60, the coordinates of the four corners of the projector 11 can be detected more accurately and in a shorter time.
 プロジェクタ11の4つのコーナ部の座標が求められると、図15(b)の左側に示すように、投影映像のコーナ部の輝度を低下させる。また、プロジェクタ12は、図15(b)の右側に示すように、コーナ部の輝度を規定に戻すとともに、各々のコーナ部にマーカ61を表示させる。これによって、プロジェクタ12の4つのコーナ部の座標をより精度よく、より短時間にて検出することができる。 When the coordinates of the four corners of the projector 11 are obtained, the brightness of the corners of the projected image is reduced as shown on the left side of FIG. 15(b). Further, the projector 12 restores the brightness of the corners to the normal level and displays the markers 61 on the respective corners, as shown on the right side of FIG. As a result, the coordinates of the four corners of the projector 12 can be detected more accurately and in a shorter time.
 マーカ60,61は、マーカ生成回路21によって生成される。そして、映像演算回路24が、マーカ生成回路21が生成したマーカを投影される映像コンテンツに合成する、マーカ60,61が合成された映像コンテンツは、光学系27によって投影される。 The markers 60 and 61 are generated by the marker generation circuit 21. The video calculation circuit 24 combines the marker generated by the marker generation circuit 21 with the projected video content. The video content combined with the markers 60 and 61 is projected by the optical system 27.
 マーカ60,61は、四角形や丸などのコーナ部が精度よく検出することのできる形状であればよく、制限はない。 The markers 60 and 61 are not limited as long as they have a shape such that a corner portion such as a quadrangle or a circle can be accurately detected.
 また、マーカ60,61は、表示されている映像コンテンツの色相に近い色とするようにしてもよい。例えば、マーカ60,61付近の映像が草原などの場合には、該マーカ60,61の表示色を草原の色に近い緑色などとし、青空などの場合には、マーカ60,61を青空に近い青色などによって表示する。これによって、マーカ60、61を目立たなくすることができ、視聴者の違和感を軽減することができる。 Alternatively, the markers 60 and 61 may have colors close to the hue of the displayed video content. For example, when the image near the markers 60 and 61 is a grassland or the like, the display color of the markers 60 and 61 is green, which is close to the color of the grassland, and when the image is a blue sky, the markers 60 and 61 are close to the blue sky. Display in blue, etc. Thereby, the markers 60 and 61 can be made inconspicuous, and the viewer's discomfort can be reduced.
 〈座標算出の他の例〉
 図16は、図15の他の例を示す説明図である。
<Other examples of coordinate calculation>
FIG. 16 is an explanatory diagram showing another example of FIG.
 この図16では、コーナ部にマーカ60,61を重畳表示させるのではなく、プロジェクタが投影する映像の表示領域の外周部に白色の枠を重畳表示する例を示している。なお、図16の外周部の黒色の線は図面を見やすくするためのものであり、実際には存在しない。 In FIG. 16, an example is shown in which the markers 60 and 61 are not superimposed and displayed on the corner portion, but a white frame is superimposed and displayed on the outer peripheral portion of the display area of the image projected by the projector. It should be noted that the black line on the outer peripheral portion of FIG. 16 is for making the drawing easier to see and does not actually exist.
 まず、図16(a)に示すように、プロジェクタ11の投影映像における外周部に額縁状の枠60aを重畳表示させて、4つのコーナ部の座標をそれぞれ求める。その後、図16(b)に示すように、プロジェクタ12の投影映像における外周部に額縁状の枠61aを重畳表示させて、4つのコーナ部の座標をそれぞれ求める。 First, as shown in FIG. 16A, a frame-shaped frame 60a is superimposed and displayed on the outer peripheral portion of the projected image of the projector 11, and the coordinates of the four corner portions are obtained. After that, as shown in FIG. 16B, a frame-shaped frame 61a is superimposed and displayed on the outer peripheral portion in the projected image of the projector 12, and the coordinates of the four corner portions are respectively obtained.
  これによっても、プロジェクタ11,12の4つのコーナ部の座標をより精度よく,より短時間にて検出することができる。 Also by this, the coordinates of the four corners of the projectors 11 and 12 can be detected more accurately and in a shorter time.
 以上により、動画コンテンツを視聴中における視聴者の違和感を低減しながら、より精度よく、より短時間で経時ずれを補正することができる。 Due to the above, it is possible to correct the time lag more accurately and in a shorter time while reducing the viewer's discomfort while watching the video content.
 (実施の形態4)
 〈座標算出例〉
 図17は、本実施の形態4による経時ずれ補正におけるコーナ部の座標算出の一例を示す説明図である。投射型映像表示システム10の構成については、図2の投射型映像表示システム10と同様であるので、説明は省略する。
(Embodiment 4)
<Coordinate calculation example>
FIG. 17 is an explanatory diagram showing an example of the calculation of the coordinates of the corner portion in the correction of the time lapse according to the fourth embodiment. The configuration of the projection type video display system 10 is the same as that of the projection type video display system 10 of FIG.
 なお、図17についても、説明を簡単にするために2つのプロジェクタ11,12による座標の算出例を示している。 Note that FIG. 17 also shows an example of calculating coordinates by the two projectors 11 and 12 for the sake of simplicity.
 図17に示す座標の算出方法は、対象外のプロジェクタにおける投影映像のコーナ部の輝度を低下させる図13の処理に加えて、対象のプロジェクタにおいて、輝度が低下したコーナ部の輝度を上げる処理を行うものである。 The coordinate calculation method shown in FIG. 17 includes a process of increasing the brightness of the corner part of the target projector whose brightness has decreased, in addition to the process of FIG. 13 of decreasing the brightness of the corner part of the projected image on the non-target projector. It is something to do.
 まず、図17(a)の左側に示すように、座標算出の対象となるプロジェクタ11を点灯させるとともに、図17(b)の右側に示すように、対象外のプロジェクタ12においては、投影映像のコーナ部の輝度を低下させる。 First, as shown on the left side of FIG. 17A, the projector 11 that is the target of coordinate calculation is turned on, and as shown on the right side of FIG. Reduces the brightness of the corners.
 このとき、プロジェクタ11は、輝度が低下したプロジェクタ12の投影映像のコーナ部の輝度を増加させる。この際、プロジェクタ11では、コーナ部が明確に検出できる程度の輝度まで増加させる。 At this time, the projector 11 increases the brightness of the corner portion of the projected image of the projector 12 whose brightness has decreased. At this time, the projector 11 increases the brightness to such an extent that the corner portion can be clearly detected.
 これによって、コーナ部の輝度低下を補うことができるので、違和感の少ない投影映像を視聴者などに提供することができる。この状態にて、プロジェクタ11の投影映像における4つのコーナ部の座標をそれぞれ求める。 By doing this, it is possible to compensate for the decrease in brightness at the corners, so it is possible to provide viewers with a projected image with less discomfort. In this state, the coordinates of the four corners in the projected image of the projector 11 are obtained.
 プロジェクタ11の4つのコーナ部の座標が求められると、図17(b)の左側に示すように、プロジェクタ11における投影映像のコーナ部の輝度を低下させるとともに、図17(b)の右側に示すように、低下させていたプロジェクタ12のコーナ部の輝度を規定よりも明るくなるように増加させる。この場合も、プロジェクタ12は、コーナ部が明確に検出できる程度の輝度まで増加させる。 When the coordinates of the four corners of the projector 11 are obtained, as shown on the left side of FIG. 17(b), the brightness of the corners of the projected image on the projector 11 is reduced, and at the right side of FIG. 17(b). As described above, the lowered brightness of the corner portion of the projector 12 is increased to be brighter than the specified value. Also in this case, the projector 12 increases the brightness to such an extent that the corner portion can be clearly detected.
 この状態にて、プロジェクタ12における4つのコーナ部の座標をそれぞれ求める。これによっても、コーナ部の輝度低下を補うことができるので、より違和感の少ない投影映像を視聴者などに提供することができる。 In this state, the coordinates of the four corners of the projector 12 are obtained respectively. This also makes it possible to compensate for the decrease in the brightness of the corner portion, and thus it is possible to provide the viewer with a projected image with less discomfort.
 この場合、図17に示すコーナ部の輝度の増加は、シーケンス制御部39がマスク生成回路22を制御して投影映像のコーナ部の輝度を低下させるマスクおよびコーナ部の輝度を増加させるマスクを生成させる。 In this case, in order to increase the brightness of the corner portion shown in FIG. 17, the sequence control unit 39 controls the mask generation circuit 22 to generate a mask for decreasing the brightness of the corner portion of the projected image and a mask for increasing the brightness of the corner portion. Let
 これにより、求めた各プロジェクタの投影映像のコーナ部の座標から算出した幾何補正パラメータを用いて、前述した図8のように経時ずれを補正する。 With this, the temporal shift is corrected as shown in FIG. 8 described above, using the geometric correction parameters calculated from the coordinates of the corners of the projected image of each projector obtained.
 投影映像のコンテンツによっては、映像の周辺部の明るく表示されるものがある。このようなコンテンツを表示している場合には、図17に示すようにコーナ部の輝度を上げると画素の輝度値の上限を超えるオーバフローとなってしまい、表示される映像が飽和してしまう場合がある。 Depending on the content of the projected image, the peripheral part of the image may be displayed brightly. In the case where such content is displayed, when the brightness of the corner portion is increased as shown in FIG. 17, the overflow exceeds the upper limit of the brightness value of the pixel, and the displayed image is saturated. There is.
 よって、投影映像解析部37は、投影するコンテンツ映像の周辺が明るい場合に、座標算出時にコーナ部の輝度を上げると、画素の輝度値がオーバフローするか否かを判断する。この処理は、フレーム毎に行われる。 Therefore, when the surroundings of the projected content video are bright, the projection video analysis unit 37 determines whether or not the brightness value of the pixel overflows if the brightness of the corner unit is increased during the coordinate calculation. This process is performed for each frame.
 オーバフローが発生すると判断すると、投影映像解析部37は、シーケンス制御部39に対して、座標の算出処理におけるコーナ部の輝度の増加を停止する制御信号を出力する。シーケンス制御部39は、制御信号を受け取ると、当該フレームによるコーナ部の輝度の増加を中止し、 座標の算出処理を取りやめる。 When it is determined that an overflow occurs, the projected image analysis unit 37 outputs a control signal to the sequence control unit 39 to stop the increase in the brightness of the corner portion in the coordinate calculation process. When the sequence control unit 39 receives the control signal, the sequence control unit 39 stops increasing the brightness of the corner portion by the frame and cancels the coordinate calculation process.
 シーケンス制御部39は、投影映像解析部37からオーバフローが発生しない映像コンテンツであると判断したことを示す制御信号を受け取ると、コーナ部の輝度の増加を再開して 座標の算出処理を実行する。 When the sequence control unit 39 receives a control signal from the projection video analysis unit 37 indicating that the video content has no overflow, the sequence control unit 39 restarts the increase in the brightness of the corner unit and executes the coordinate calculation process.
 以上により、経時ずれ補正において、視聴者に、より違和感のない動画コンテンツを提供することができる。 With the above, it is possible to provide viewers with more comfortable moving image content in correction of time lapse.
 (実施の形態5)
 〈経時ずれの補正例〉
 図9に示したように経時ずれ検出処理では、カメラ映像を重畳してずれを検出する。そのため、例えば設置されているプロジェクタが前方向にずれた場合には、ずれたプロジェクタの投影映像が小さくなるだけであり、そのずれを検出できることができない。
(Embodiment 5)
<Example of correction of time lag>
As shown in FIG. 9, in the temporal shift detection process, camera images are superimposed to detect the shift. Therefore, for example, when the installed projector is displaced in the forward direction, the projected image of the displaced projector is only reduced, and the displacement cannot be detected.
 そこで、本実施の形態5においては、プロジェクタが前方向にずれた場合であっても、経時ずれの補正を行うことのできる技術について説明する。 Therefore, in the fifth embodiment, a technique capable of correcting the temporal shift even when the projector shifts in the forward direction will be described.
 図18は、本実施の形態5による投射型映像表示システム10における全体処理の概要の一例を示すフローチャートである。図19は、経時ずれが発生した画像コンテンツの一例を示す説明図である。 FIG. 18 is a flowchart showing an example of the outline of the overall processing in the projection type video display system 10 according to the fifth embodiment. FIG. 19 is an explanatory diagram showing an example of image content in which a time lag has occurred.
 図19(a)に示す映像コンテンツは、経時ずれが発生していない場合を示しており、図19(b)に示す映像コンテンツは、2つのプロジェクタ11,12のうち、例えばプロジェクタ11が前方向にずれる経時ずれが発生している場合の例を示している。 The video content shown in FIG. 19(a) shows a case where no lag has occurred, and the video content shown in FIG. 19(b) shows that the projector 11 out of the two projectors 11 and 12 moves forward. An example of a case in which there is a time lag that deviates in time is shown.
 図19(b)に示したプロジェクタ11が前方向にずれて経時ずれが発生した場合には、前述したように前方にずれたプロジェクタ11の映像表示領域が小さくあるだけである。よって、図9に示す経時ずれ検出の処理の場合、Nフレームを重畳して撮影したカメラ映像から4つのコーナ部の検出しているため、経時ずれを検出することができない。 When the projector 11 shown in FIG. 19(b) is displaced in the forward direction and is displaced with time, the image display area of the projector 11 displaced forward is only small as described above. Therefore, in the case of the processing for detecting the time-dependent shift shown in FIG. 9, since the four corners are detected from the camera image captured by superimposing N frames, the time-dependent shift cannot be detected.
 そこで、図18のフローチャートに示すように、初期調整の処理において、ステップS606の処理を追加することにより、プロジェクタが前方向にずれることによる経時ずれの発生を低減する。 Therefore, as shown in the flowchart of FIG. 18, the process of step S606 is added to the initial adjustment process to reduce the occurrence of time lag due to the forward displacement of the projector.
 ここで、図18のフローチャートにおけるステップS601~ステップS605の処理は、図5のステップS101~S105の処理と同様であるので、説明は省略する。 Here, the processing of steps S601 to S605 in the flowchart of FIG. 18 is the same as the processing of steps S101 to S105 of FIG. 5, so description thereof will be omitted.
 ステップS606の処理では、ステップS604の検出処理にて経時ずれが発生したことが検出されなかった場合、図2のシーケンス制御部39が、予め設定された時間が経過したか否かの判断を行う。設定される時間は、例えば24時間程度である。 In the process of step S606, if it is not detected in the detection process of step S604 that a time-dependent shift has occurred, the sequence control unit 39 of FIG. 2 determines whether or not a preset time has elapsed. .. The set time is, for example, about 24 hours.
 設定時間を経過している場合、シーケンス制御部39は、ステップS601の処理である初期調整を実行して、幾何補正パラメータを算出して投影映像のずれを補正する。この初期調整は、図6に示す処理である。 When the set time has elapsed, the sequence control unit 39 executes the initial adjustment which is the process of step S601, calculates the geometric correction parameter, and corrects the deviation of the projected image. This initial adjustment is the process shown in FIG.
 これにより、プロジェクタが前方にずれる経時ずれであっても、補正することがきるので、良好な動画コンテンツを提供することができる。 With this, even if the projector is shifted forward over time, it can be corrected, so that good video content can be provided.
 (実施の形態6)
 〈投射型映像表示システムの構成例〉
 図20は、本実施の形態6による投射型映像表示システム10における構成の一例を示す説明図である。
(Embodiment 6)
<Configuration example of projection type video display system>
FIG. 20 is an explanatory diagram showing an example of the configuration of the projection-type image display system 10 according to the sixth embodiment.
 図20に示す投射型映像表示システム10は、図2と同様に、プロジェクタ11~14、カメラ15、およびパーソナルコンピュータ16から構成されている。 The projection-type image display system 10 shown in FIG. 20 includes projectors 11 to 14, a camera 15, and a personal computer 16, as in FIG.
 図2の投射型映像表示システム10では、初期調整の処理および経時ずれ補正の処理をプロジェクタ11~14にて実行したが、図20に示す投射型映像表示システム10では、初期調整の処理および経時ずれ補正の処理を実行する機能をパーソナルコンピュータ16に持たせた例を示している。 In the projection-type image display system 10 of FIG. 2, the initial adjustment process and the temporal deviation correction process are executed by the projectors 11 to 14. However, in the projection-type image display system 10 shown in FIG. An example is shown in which the personal computer 16 is provided with a function of executing the process of the deviation correction.
 プロジェクタ11~14は、映像インタフェース20、光学系27、通信インタフェース28、および制御回路29からそれぞれ構成されている。これら映像インタフェース20、光学系27、通信インタフェース28、および制御回路29における動作については、図2と同様であるので、説明は省略する。 The projectors 11 to 14 each include a video interface 20, an optical system 27, a communication interface 28, and a control circuit 29. The operations of the video interface 20, the optical system 27, the communication interface 28, and the control circuit 29 are the same as those in FIG.
 パーソナルコンピュータ16は、カメラ入力部30、投影映像選択部31、映像送出部32、カメラ映像解析部33、パラメータ算出部34、通信制御部35、投影映像生成部36、投影映像解析部37、記憶部38、およびシーケンス制御部39からなる図2のパーソナルコンピュータ16と同様の構成に、初期調整の処理および経時ずれ補正の処理を実行する機能ブロックであるマーカ重畳部41、マスク生成処理部42、パターン生成処理部43、映像演算処理部44、幾何補正処理部45、ならびに幾何補正パラメータ格納部46が新たに設けられている。 The personal computer 16 includes a camera input unit 30, a projection video selection unit 31, a video transmission unit 32, a camera video analysis unit 33, a parameter calculation unit 34, a communication control unit 35, a projection video generation unit 36, a projection video analysis unit 37, and a storage. The personal computer 16 of FIG. 2 including the unit 38 and the sequence control unit 39 has the same configuration as the marker superimposing unit 41, the mask generation processing unit 42, which is a functional block that executes the initial adjustment process and the temporal deviation correction process. A pattern generation processing unit 43, a video calculation processing unit 44, a geometric correction processing unit 45, and a geometric correction parameter storage unit 46 are newly provided.
 パーソナルコンピュータ16に新たに設けられたマーカ重畳部41、マスク生成処理部42、パターン生成処理部43、映像演算処理部44、幾何補正処理部45、および幾何補正パラメータ格納部46の動作については、図2のマーカ生成回路21、マスク生成回路22、パターン生成回路23、映像演算回路24、幾何補正回路25、および幾何補正パラメータ格納部26と同様であるので、説明は省略する。 Regarding the operations of the marker superimposing unit 41, the mask generation processing unit 42, the pattern generation processing unit 43, the image calculation processing unit 44, the geometric correction processing unit 45, and the geometric correction parameter storage unit 46 which are newly provided in the personal computer 16, The description is omitted because it is the same as the marker generation circuit 21, the mask generation circuit 22, the pattern generation circuit 23, the video calculation circuit 24, the geometric correction circuit 25, and the geometric correction parameter storage unit 26 of FIG. 2.
 また、カメラ入力部30、投影映像選択部31、映像送出部32、カメラ映像解析部33、パラメータ算出部34、通信制御部35、投影映像生成部36、投影映像解析部37、記憶部38、およびシーケンス制御部39における動作についても、図2と同様であるので、説明は省略する。 Further, the camera input unit 30, the projected image selection unit 31, the image transmission unit 32, the camera image analysis unit 33, the parameter calculation unit 34, the communication control unit 35, the projected image generation unit 36, the projected image analysis unit 37, the storage unit 38, Also, the operation of the sequence control unit 39 is the same as that of FIG.
 このように、初期調整の処理および経時ずれ補正の処理を実行する機能ブロックをパーソナルコンピュータ16に設けることにより、各プロジェクタ11~14の小型化および低コスト化を実現することができる。 As described above, by providing the personal computer 16 with the functional blocks that execute the initial adjustment process and the time lag correction process, the projectors 11 to 14 can be downsized and the cost can be reduced.
 (実施の形態7)
 〈投射型映像表示システムの構成例〉
 本実施の形態7においては、図2のパーソナルコンピュータ16およびカメラ15を不要とする構成について説明する。
(Embodiment 7)
<Configuration example of projection type video display system>
In the seventh embodiment, a configuration that does not require the personal computer 16 and the camera 15 of FIG. 2 will be described.
 図21は、本実施の形態7による投射型映像表示システム10における構成の一例を示す説明図である。 FIG. 21 is an explanatory diagram showing an example of the configuration of the projection type video display system 10 according to the seventh embodiment.
 図21に示す投射型映像表示システム10は、プロジェクタ11~14および携帯端末90から構成されており、該携帯端末90がカメラ15およびパーソナルコンピュータ16の機能を実行する。 The projection-type image display system 10 shown in FIG. 21 includes projectors 11 to 14 and a mobile terminal 90, and the mobile terminal 90 executes the functions of the camera 15 and the personal computer 16.
 プロジェクタ11~14の構成については、図2の通信インタフェース28の代わりに通信インタフェース28aが設けられている。その他の映像インタフェース20、マーカ生成回路21、マスク生成回路22、パターン生成回路23、映像演算回路24、幾何補正回路25、幾何補正パラメータ格納部26、光学系27、および制御回路29の接続構成については、図2と同様であるので、説明は省略する。 Regarding the configuration of the projectors 11 to 14, a communication interface 28a is provided instead of the communication interface 28 of FIG. Other connection configurations of the video interface 20, the marker generation circuit 21, the mask generation circuit 22, the pattern generation circuit 23, the video calculation circuit 24, the geometric correction circuit 25, the geometric correction parameter storage unit 26, the optical system 27, and the control circuit 29. Is the same as that in FIG. 2, and the description thereof is omitted.
 通信インタフェース28aは、無線LAN(Local Area Network)やBluetooth(登録商標)などによる無線通信などを行う。映像インタフェース20は、図示しないパーソナルコンピュータが接続される。パーソナルコンピュータは、視聴者に対して表示する投影映像である映像コンテンツのデータを出力する。 The communication interface 28a performs wireless communication such as wireless LAN (Local Area Network) and Bluetooth (registered trademark). A personal computer (not shown) is connected to the video interface 20. The personal computer outputs video content data that is a projected video to be displayed to the viewer.
 携帯端末90は、スマートフォンあるいはタブレットなどの電子携帯機器である。携帯端末90は、カメラ80、カメラ入力部81、カメラ映像解析部82、パラメータ算出部83、記憶部84、シーケンス制御部85、表示部86、および通信制御部87から構成されている。 The mobile terminal 90 is an electronic mobile device such as a smartphone or a tablet. The mobile terminal 90 includes a camera 80, a camera input unit 81, a camera image analysis unit 82, a parameter calculation unit 83, a storage unit 84, a sequence control unit 85, a display unit 86, and a communication control unit 87.
 これらカメラ入力部81、カメラ映像解析部82、パラメータ算出部83、記憶部84、シーケンス制御部85、表示部86、および通信制御部87は、内部バス88によって相互に接続されている。 The camera input unit 81, camera image analysis unit 82, parameter calculation unit 83, storage unit 84, sequence control unit 85, display unit 86, and communication control unit 87 are interconnected by an internal bus 88.
 通信制御部87は、例えば3G(Generation)や4Gなどの通信規格による無線通信および無線LAN(Local Area Network)やBluetooth(登録商標)などによる無線通信などを行う。表示部86は、例えば液晶ディスプレイであり、各種の情報を表示する。 The communication control unit 87 performs, for example, wireless communication according to a communication standard such as 3G (Generation) and 4G and wireless communication such as a wireless LAN (Local Area Network) and Bluetooth (registered trademark). The display unit 86 is, for example, a liquid crystal display, and displays various kinds of information.
 ここで、映像コンテンツのデータは、前述したパーソナルコンピュータからではなく、携帯端末90から送信するようにしてもよい。その場合には、通信制御部87が、プロジェクタ11~14が有する無線通信インタフェース46に対して無線通信によって送信する。 Here, the video content data may be transmitted from the mobile terminal 90 instead of the personal computer described above. In that case, the communication control unit 87 transmits to the wireless communication interface 46 of the projectors 11 to 14 by wireless communication.
 カメラ80、カメラ入力部81、カメラ映像解析部82、パラメータ算出部83、記憶部84、シーケンス制御部85、表示部86、および通信制御部87については、図2のカメラ15、カメラ入力部30、カメラ映像解析部33、パラメータ算出部34、記憶部38、およびシーケンス制御部39と同様であるので、説明は省略する。 Regarding the camera 80, the camera input unit 81, the camera image analysis unit 82, the parameter calculation unit 83, the storage unit 84, the sequence control unit 85, the display unit 86, and the communication control unit 87, the camera 15, the camera input unit 30 of FIG. The camera image analysis unit 33, the parameter calculation unit 34, the storage unit 38, and the sequence control unit 39 are the same as those described above, and thus description thereof will be omitted.
 このように、投射型映像表示システム10をプロジェクタ11~14および携帯端末90から構成することによって、システムの小型化を実現することができる。 By thus configuring the projection-type image display system 10 from the projectors 11 to 14 and the mobile terminal 90, the system can be downsized.
 (実施の形態8)
 〈投射型映像表示システムの構成例〉
 図22は、本実施の形態8による投射型映像表示システム10における構成の一例を示す説明図である。
(Embodiment 8)
<Configuration example of projection type video display system>
FIG. 22 is an explanatory diagram showing an example of the configuration of the projection type video display system 10 according to the eighth embodiment.
 図22に示す投射型映像表示システム10は、プロジェクタ11~14およびパーソナルコンピュータ16から構成されている。 The projection type video display system 10 shown in FIG. 22 includes projectors 11 to 14 and a personal computer 16.
 図22の投射型映像表示システム10が、図2の投射型映像表示システム10と異なる点は、プロジェクタ11にカメラ95が内蔵されたところである。その他の構成および動作については、図2と同様であるので、説明を省略する。 22 is different from the projection type video display system 10 of FIG. 2 in that the projector 11 has a camera 95 built therein. Other configurations and operations are the same as those in FIG. 2, and therefore description thereof will be omitted.
 このように、プロジェクタ11にカメラ95を内蔵することにより、カメラの取り付け作業などを不要にすることができるので、利便性をより向上することができる。また、投射型映像表示システム10における設置時間についても短縮することができる。 In this way, by incorporating the camera 95 in the projector 11, it is possible to eliminate the work of installing the camera and the like, so that the convenience can be further improved. Also, the installation time in the projection type video display system 10 can be shortened.
 以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。 Although the invention made by the inventor has been specifically described based on the embodiment, the invention is not limited to the embodiment, and various modifications can be made without departing from the scope of the invention. Needless to say.
10 投射型映像表示システム
11 プロジェクタ
12 プロジェクタ
13 プロジェクタ
14 プロジェクタ
15 カメラ
16 パーソナルコンピュータ
20 映像インタフェース
21 マーカ生成回路
22 マスク生成回路
23 パターン生成回路
24 映像演算回路
25 幾何補正回路
26 幾何補正パラメータ格納部
27 光学系
28 通信インタフェース
29 制御回路
30 カメラ入力部
31 投影映像選択部
32  映像送出部
33 カメラ映像解析部
34 パラメータ算出部
35 通信制御部
36 投影映像生成部
37 投影映像解析部
38 記憶部
39 シーケンス制御部
41 マーカ重畳部
42 マスク生成処理部
43 パターン生成処理部
44 映像演算処理部
45 幾何補正処理部
46 幾何補正パラメータ格納部
80 カメラ
81 カメラ入力部
82 カメラ映像解析部
83 パラメータ算出部
84 記憶部
85 シーケンス制御部
86 表示部
87 通信制御部
88 内部バス
90 携帯端末
95 カメラ
10 Projection-type video display system 11 Projector 12 Projector 13 Projector 14 Projector 15 Camera 16 Personal computer 20 Video interface 21 Marker generation circuit 22 Mask generation circuit 23 Pattern generation circuit 24 Video operation circuit 25 Geometric correction circuit 26 Geometric correction parameter storage unit 27 Optical System 28 Communication interface 29 Control circuit 30 Camera input unit 31 Projected image selection unit 32 Image transmission unit 33 Camera image analysis unit 34 Parameter calculation unit 35 Communication control unit 36 Projected image generation unit 37 Projected image analysis unit 38 Storage unit 39 Sequence control unit 41 marker superimposing unit 42 mask generation processing unit 43 pattern generation processing unit 44 image calculation processing unit 45 geometric correction processing unit 46 geometric correction parameter storage unit 80 camera 81 camera input unit 82 camera image analysis unit 83 parameter calculation unit 84 storage unit 85 sequence Control unit 86 Display unit 87 Communication control unit 88 Internal bus 90 Mobile terminal 95 Camera

Claims (10)

  1.  複数の映像を重ね合わせて表示する投射型映像表示システムであって、
     前記映像を投影する複数のプロジェクタと、
     複数の前記プロジェクタに映像データを出力するコンピュータと、
     複数の前記プロジェクタが映像投射面に投影する前記映像を撮影する撮像部と、
     を備え、
     複数の前記プロジェクタは、
     投影される前記映像の幾何学的歪みを幾何パラメータに基づいて補正する幾何補正部と、
     前記映像投射面に前記映像を投影する映像投射部と、
     を有し、
     前記コンピュータは、
     前記撮像部が撮影した前記映像を解析して、複数の前記プロジェクタが投影する映像にずれが生じる経時ずれが発生しているか否かを判定する映像解析部と、
     複数の前記プロジェクタを制御する制御部と、
     を有し、
     前記映像解析部は、前記撮像部が撮影した各々の前記プロジェクタが投影する前記映像を全て重畳した映像の4つのコーナ部の座標をそれぞれ算出し、算出した前記座標とあらかじめ設定されているしきい値とを比較して、前記座標が前記しきい値を超えている場合に経時ずれが発生していると判定し、
     前記幾何補正部は、前記映像解析部が経時ずれが発生していると判定した際に各々の前記プロジェクタが投影する前記映像を補正する、投射型映像表示システム。
    A projection type image display system for displaying a plurality of images in an overlapping manner,
    A plurality of projectors for projecting the image,
    A computer for outputting video data to the plurality of projectors;
    An image capturing unit that captures the image projected by the plurality of projectors on the image projection surface;
    Equipped with
    A plurality of said projectors,
    A geometric correction unit that corrects the geometric distortion of the projected image based on a geometric parameter;
    An image projection unit that projects the image on the image projection surface,
    Have
    The computer is
    An image analysis unit that analyzes the image captured by the image capturing unit and determines whether or not there is a time-dependent shift that causes a shift in the images projected by the plurality of projectors,
    A control unit for controlling the plurality of projectors;
    Have
    The image analysis unit calculates coordinates of four corners of an image obtained by superimposing all of the images projected by each of the projectors captured by the image capturing unit, and the calculated coordinates and preset thresholds. By comparing with the value, it is determined that a time lapse has occurred when the coordinates exceed the threshold value,
    The projection-type image display system, wherein the geometric correction unit corrects the image projected by each of the projectors when the image analysis unit determines that a time lag has occurred.
  2.  請求項1記載の投射型映像表示システムにおいて、
     前記制御部は、前記撮像部が各々の前記プロジェクタの前記映像を撮影する際に、座標算出の対象ではないプロジェクタの投影映像の一部の輝度を低減させる、投射型映像表示システム。
    The projection type video display system according to claim 1,
    The projection type image display system, wherein the control unit reduces the brightness of a part of the projection image of the projector that is not the target of coordinate calculation when the image capturing unit captures the image of each of the projectors.
  3.  請求項1記載の投射型映像表示システムにおいて、
     前記制御部は、前記撮像部が各々の前記プロジェクタの前記映像を撮影する際に、座標算出の対象となるプロジェクタの映像のみを投影させ、対象ではないプロジェクタを消灯させる、投射型映像表示システム。
    The projection type video display system according to claim 1,
    A projection-type image display system, wherein the control unit projects only an image of a projector which is a target of coordinate calculation and turns off an untargeted projector when the image capturing unit captures the image of each of the projectors.
  4.  請求項1記載の投射型映像表示システムにおいて、
     複数の前記プロジェクタは、
     前記映像のコーナ部の座標の算出を補助するマーカを生成するマーカ生成部と、
     前記マーカ生成部が生成する前記マーカを前記映像の4つのコーナ部に重畳させる映像演算部と、
     を有し、
     前記撮像部は、前記マーカが重畳表示された前記映像を前記プロジェクタ毎にそれぞれ撮影し、
     前記映像解析部は、前記撮像部が撮影した前記マーカが重畳表示された前記映像から前記コーナ部の座標を算出する、投射型映像表示システム。
    The projection type video display system according to claim 1,
    A plurality of said projectors,
    A marker generation unit that generates a marker for assisting the calculation of the coordinates of the corner portion of the image,
    An image calculation unit that superimposes the markers generated by the marker generation unit on four corners of the image,
    Have
    The image capturing unit captures the image on which the marker is superimposed and displayed for each of the projectors,
    The projection type video display system, wherein the video analysis unit calculates coordinates of the corner unit from the video on which the marker captured by the imaging unit is displayed in a superimposed manner.
  5.  請求項4記載の投射型映像表示システムにおいて、
     前記マーカ生成部は、投影される前記映像に近似する色のマーカを生成する、投射型映像表示システム。
    The projection type video display system according to claim 4,
    The projection type image display system, wherein the marker generation unit generates a marker having a color similar to the projected image.
  6.  請求項1記載の投射型映像表示システムにおいて、
     複数の前記プロジェクタは、
     前記映像のコーナ部の算出を補助するマーカを生成するマーカ生成部と、
     前記マーカ生成部が生成する前記マーカを前記映像の4つのコーナ部に重畳させる映像演算部と、
     を有し、
     前記マーカ生成部が生成する前記マーカは、前記映像の外周部を取り囲む額縁状の枠であり、
     前記撮像部は、前記マーカが重畳表示された前記映像を前記プロジェクタ毎にそれぞれ撮影し、
     前記映像解析部は、前記撮像部が撮影した前記マーカが重畳表示された前記映像から前記コーナ部の座標を算出する、投射型映像表示システム。
    The projection type video display system according to claim 1,
    A plurality of said projectors,
    A marker generation unit that generates a marker for assisting the calculation of the corner portion of the image,
    An image calculation unit that superimposes the markers generated by the marker generation unit on four corners of the image,
    Have
    The marker generated by the marker generation unit is a frame-shaped frame that surrounds the outer peripheral portion of the image,
    The image capturing unit captures the image on which the marker is superimposed and displayed for each of the projectors,
    The projection type video display system, wherein the video analysis unit calculates coordinates of the corner unit from the video on which the marker captured by the imaging unit is displayed in a superimposed manner.
  7.  請求項1記載の投射型映像表示システムにおいて、
     複数の前記プロジェクタは、
     前記映像の輝度を増加または減少させるマスクを生成するマスク生成部と、
     前記マスク生成部が生成する前記マスクを、投影される映像の4つのコーナ部に重畳させる映像演算部と、
     を有し、
     前記撮像部は、前記マスクによってコーナ部の輝度が増加または減少した前記映像を前記プロジェクタ毎にそれぞれ撮影し、
     前記映像解析部は、前記撮像部が撮影した前記映像から前記コーナ部の座標を算出する、投射型映像表示システム。
    The projection type video display system according to claim 1,
    A plurality of said projectors,
    A mask generation unit that generates a mask that increases or decreases the brightness of the image;
    An image calculation unit that superimposes the mask generated by the mask generation unit on four corners of a projected image;
    Have
    The image capturing unit captures the image in which the brightness of the corner portion is increased or decreased by the mask for each of the projectors,
    The projection type video display system, wherein the video analysis unit calculates coordinates of the corner from the video captured by the imaging unit.
  8.  複数の映像を重ね合わせて表示する投射型映像表示システムであって、
     前記映像を投影する複数のプロジェクタと、
     複数の前記プロジェクタに映像データを出力するコンピュータと、
     複数の前記プロジェクタが映像投射面に投影する前記映像を撮影する撮像部と、
     を備え、
     複数の前記プロジェクタは、
     投影される前記映像の幾何学的歪みを幾何パラメータに基づいて補正する幾何補正部と、
     前記映像投射面に前記映像を投影する映像投射部と、
     前記撮像部が撮影した前記映像を解析して、複数の前記プロジェクタが投影する映像にずれが生じる経時ずれが発生しているか否かを判定する映像解析部と、
     を有し、
     前記映像解析部は、前記撮像部が撮影した各々の前記プロジェクタが投影する前記映像の4つのコーナ部の座標をそれぞれ算出し、算出した前記座標とあらかじめ設定されているしきい値とを比較して、前記座標が前記しきい値を超えている場合に経時ずれが発生していると判定し、
     前記幾何補正部は、前記映像解析部が経時ずれが発生していると判定した際に各々の前記プロジェクタが投影する前記映像を補正する、投射型映像表示システム。
    A projection type image display system for displaying a plurality of images in an overlapping manner,
    A plurality of projectors for projecting the image,
    A computer for outputting video data to the plurality of projectors;
    An image capturing unit that captures the image projected by the plurality of projectors on the image projection surface;
    Equipped with
    A plurality of said projectors,
    A geometric correction unit that corrects the geometric distortion of the projected image based on a geometric parameter;
    An image projection unit that projects the image on the image projection surface,
    An image analysis unit that analyzes the image captured by the image capturing unit and determines whether there is a time-dependent shift that causes a shift in the images projected by the plurality of projectors,
    Have
    The image analysis unit calculates coordinates of four corners of the image projected by each of the projectors captured by the imaging unit, and compares the calculated coordinates with a preset threshold value. Then, it is determined that a time lapse has occurred when the coordinates exceed the threshold value,
    The projection type image display system, wherein the geometric correction unit corrects the image projected by each of the projectors when the image analysis unit determines that a time lag has occurred.
  9.  複数の映像を重ね合わせて表示する投射型映像表示システムであって、
     前記映像を投影する複数のプロジェクタと、
     複数の前記プロジェクタに映像データを出力するコンピュータと、
     を備え、
     複数の前記プロジェクタのうち、1つの前記プロジェクタは、映像投射面に投影される前記映像を撮影する撮像部を有し、
     複数の前記プロジェクタは、
     投影される前記映像の幾何学的歪みを幾何パラメータに基づいて補正する幾何補正部と、
     前記映像投射面に前記映像を投影する映像投射部と、
     を有し、
     前記コンピュータは、前記撮像部が撮影した前記映像を解析して、複数の前記プロジェクタが投影する映像にずれが生じる経時ずれが発生しているか否かを判定する映像解析部を有し、
     前記映像解析部は、前記撮像部が撮影した各々の前記プロジェクタが投影する前記映像の4つのコーナ部の座標をそれぞれ算出し、算出した前記座標とあらかじめ設定されているしきい値とを比較して、前記座標が前記しきい値を超えている場合に経時ずれが発生していると判定し、
     前記幾何補正部は、前記映像解析部が経時ずれが発生していると判定した際に各々の前記プロジェクタが投影する前記映像を補正する、投射型映像表示システム。
    A projection type image display system for displaying a plurality of images in an overlapping manner,
    A plurality of projectors for projecting the image,
    A computer for outputting video data to the plurality of projectors;
    Equipped with
    Among the plurality of projectors, one of the projectors has an imaging unit that captures the image projected on the image projection surface,
    A plurality of said projectors,
    A geometric correction unit that corrects the geometric distortion of the projected image based on a geometric parameter;
    An image projection unit that projects the image on the image projection surface,
    Have
    The computer has an image analysis unit that analyzes the image captured by the imaging unit and determines whether or not there is a time-dependent shift that causes a shift in the images projected by the plurality of projectors.
    The image analysis unit calculates coordinates of four corners of the image projected by each of the projectors captured by the imaging unit, and compares the calculated coordinates with a preset threshold value. Then, it is determined that a time lapse has occurred when the coordinates exceed the threshold value,
    The projection type image display system, wherein the geometric correction unit corrects the image projected by each of the projectors when the image analysis unit determines that a time lag has occurred.
  10.  複数の映像を重ね合わせて表示する投射型映像表示システムであって、
     前記映像を投影する複数のプロジェクタと、
     複数の前記プロジェクタが投影する映像にずれが生じる経時ずれを検出して補正する携帯端末と、
     を備え、
     複数の前記プロジェクタは、
     投影される前記映像の幾何学的歪みを幾何パラメータに基づいて補正する幾何補正部と、
     映像投射面に前記映像を投影する映像投射部と、
     を有し、
     前記携帯端末は、
     複数の前記プロジェクタが前記映像投射面に投影する前記映像を撮影する撮像部と、
     前記撮像部が撮影した前記映像を解析して、複数の前記プロジェクタが投影する前記映像に前記経時ずれが発生しているか否かを判定する映像解析部と、
     を有し、
     前記映像解析部は、前記撮像部が撮影した各々の前記プロジェクタが投影する前記映像の4つのコーナ部の座標をそれぞれ算出し、算出した前記座標とあらかじめ設定されているしきい値とを比較して、前記座標が前記しきい値を超えている場合に経時ずれが発生していると判定し、
     前記幾何補正部は、前記映像解析部が経時ずれが発生していると判定した際に各々の前記プロジェクタが投影する前記映像を補正する、投射型映像表示システム。
    A projection type image display system for displaying a plurality of images in an overlapping manner,
    A plurality of projectors for projecting the image,
    A mobile terminal that detects and corrects a time-dependent shift that causes a shift in images projected by the plurality of projectors,
    Equipped with
    A plurality of said projectors,
    A geometric correction unit that corrects the geometric distortion of the projected image based on a geometric parameter;
    An image projection unit that projects the image on an image projection surface,
    Have
    The mobile terminal is
    An imaging unit that captures the image projected by the plurality of projectors onto the image projection surface;
    An image analysis unit that analyzes the image captured by the image capturing unit and determines whether or not the time lag has occurred in the images projected by the plurality of projectors,
    Have
    The video analysis unit calculates coordinates of four corners of the video projected by each of the projectors captured by the imaging unit, and compares the calculated coordinates with a preset threshold value. Then, it is determined that a time lapse has occurred when the coordinates exceed the threshold value,
    The projection-type image display system, wherein the geometric correction unit corrects the image projected by each of the projectors when the image analysis unit determines that a time lag has occurred.
PCT/JP2019/049517 2019-02-06 2019-12-18 Projection type video display system WO2020162051A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-019388 2019-02-06
JP2019019388A JP2020127162A (en) 2019-02-06 2019-02-06 Projection type video display system

Publications (1)

Publication Number Publication Date
WO2020162051A1 true WO2020162051A1 (en) 2020-08-13

Family

ID=71947602

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/049517 WO2020162051A1 (en) 2019-02-06 2019-12-18 Projection type video display system

Country Status (2)

Country Link
JP (1) JP2020127162A (en)
WO (1) WO2020162051A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022100661A (en) 2020-12-24 2022-07-06 セイコーエプソン株式会社 Control method of projector, projector, and image projection system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007013810A (en) * 2005-07-01 2007-01-18 Sharp Corp Image projection method, projector, and computer program
JP2011228832A (en) * 2010-04-16 2011-11-10 Seiko Epson Corp Image processing device, image display system, and image processing method
JP2012047849A (en) * 2010-08-25 2012-03-08 Canon Inc Projection type display system and projection type display apparatus
JP2013192098A (en) * 2012-03-14 2013-09-26 Ricoh Co Ltd Projection system, projection method, program, and recording medium
JP2017009909A (en) * 2015-06-25 2017-01-12 日立マクセル株式会社 Projection type video display system, projection type video display device, and projection correction method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007013810A (en) * 2005-07-01 2007-01-18 Sharp Corp Image projection method, projector, and computer program
JP2011228832A (en) * 2010-04-16 2011-11-10 Seiko Epson Corp Image processing device, image display system, and image processing method
JP2012047849A (en) * 2010-08-25 2012-03-08 Canon Inc Projection type display system and projection type display apparatus
JP2013192098A (en) * 2012-03-14 2013-09-26 Ricoh Co Ltd Projection system, projection method, program, and recording medium
JP2017009909A (en) * 2015-06-25 2017-01-12 日立マクセル株式会社 Projection type video display system, projection type video display device, and projection correction method

Also Published As

Publication number Publication date
JP2020127162A (en) 2020-08-20

Similar Documents

Publication Publication Date Title
US20180139427A1 (en) Projector, its control method, and image projection system
US9554105B2 (en) Projection type image display apparatus and control method therefor
US7949202B2 (en) Image processing system, projector, and image processing method
JP6645687B2 (en) Display device and control method
JP5796286B2 (en) Projector and projector control method
JP2017083672A (en) Image projection system, projector, and control method of image projection system
JP6793483B2 (en) Display devices, electronic devices and their control methods
US20170244941A1 (en) Projector and control method thereof
US10582171B2 (en) Display system and information processing method
JP2016014713A (en) Image projection device, image projection method, and control program of image projection device
JP2019161397A (en) Control device, program, and control method
US9568812B2 (en) Image projection apparatus and control method thereof
JP2017129728A (en) Image quality correcting method and image projecting system
JP6794092B2 (en) Display device
JP2011188404A (en) Image processing apparatus in multi-projection system, method of processing image in multi-projection system, and multi-projection system
WO2020162051A1 (en) Projection type video display system
JP2014194464A (en) Image projection device and method for controlling the same
JP6345316B2 (en) Projector, control method therefor, program, and storage medium
JP6700955B2 (en) Projection apparatus and projection method
JP2020150481A (en) Information processing device, projection system, information processing method, and program
JP2014137386A (en) Projector, control method therefor, and image projection system
JP2019047355A (en) projector
JP2019078875A (en) Image display apparatus, adjustment method thereof, and program
JP2012095181A (en) Projector, and method of controlling projector
WO2012172655A1 (en) Projector and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19914356

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19914356

Country of ref document: EP

Kind code of ref document: A1