WO2016194191A1 - 投射型映像表示装置および映像表示方法 - Google Patents

投射型映像表示装置および映像表示方法 Download PDF

Info

Publication number
WO2016194191A1
WO2016194191A1 PCT/JP2015/066163 JP2015066163W WO2016194191A1 WO 2016194191 A1 WO2016194191 A1 WO 2016194191A1 JP 2015066163 W JP2015066163 W JP 2015066163W WO 2016194191 A1 WO2016194191 A1 WO 2016194191A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
video
unit
target surface
projection target
Prior art date
Application number
PCT/JP2015/066163
Other languages
English (en)
French (fr)
Inventor
田中 和彦
中嶋 満雄
伸宏 福田
Original Assignee
日立マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立マクセル株式会社 filed Critical 日立マクセル株式会社
Priority to PCT/JP2015/066163 priority Critical patent/WO2016194191A1/ja
Publication of WO2016194191A1 publication Critical patent/WO2016194191A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Definitions

  • the present invention relates to video display technology, and in particular, a projection type video display device that projects video onto an object placed in the real world using video imaging means such as a camera, and video in the projection type video display device It relates to the display method.
  • the transformation matrix used in this transformation is uniquely determined by the geometric positional relationship between the projector and the projection object such as the screen, it can be determined from the setup drawings of the projector and the projection object. In addition to being complicated, it is difficult to cope with the case where the projection object moves with time.
  • Patent Document 1 Japanese Patent No. 39788938
  • a marker is added to a projection target, and the position of the marker is specified by capturing the marker with a camera, and a transformation matrix for geometric transformation is calculated.
  • a transformation matrix for geometric transformation is calculated.
  • Patent Document 1 is effective when the distance between the projector and the projection target is substantially constant, or when the optical axis of the projector and the optical axis of the camera are completely coincident.
  • the distance between the projector and the projection object is the reference distance when creating the perspective transformation matrix due to the effect of this optical axis deviation. As the difference increases, a positional deviation occurs between the projection target and the projection image.
  • An object of the present invention is to provide a video display technique that reduces a positional shift between a projection target and a projected video.
  • the projection-type image display apparatus is a projection-type image display apparatus that projects images onto a plurality of image projection target surfaces having different distances from the projection lens.
  • the projection-type image display device includes a light source, a display element that modulates light from the light source, a projection lens that projects light from the display element, an image input unit, and an image input by the image input unit. And a display control unit that controls the display element, and one or a plurality of imaging units capable of imaging the plurality of video projection target surfaces. Then, among the plurality of video projection target surfaces, the first video input to the video input unit is projected to the first video projection target surface, and the second video projection target surface is input to the video input unit. As the setting process for projecting the second video, the display control unit adjusts the video projection position with respect to the first video projection target surface based on the imaging result of the imaging unit, and the first The image projection position adjustment process for the image projection target surface 2 is performed.
  • the projection-type image display apparatus is a projection-type image display apparatus that projects an image on an image projection target surface whose distance from the projection lens can change with time.
  • the projection-type image display device includes a light source, a display element that modulates light from the light source, a projection lens that projects light from the display element, an image input unit, and an image input by the image input unit.
  • a display control unit that controls the display element, and one or a plurality of imaging units capable of imaging the image projection target surface. Then, as a setting process for projecting the video input to the video input unit on the video projection target surface, the display control unit performs an adjustment process on the imaging result of the imaging unit, and Information necessary for geometric transformation to be adapted to the image projection target surface is generated.
  • the video display method in one embodiment is a video display method in which adjustment processing in the projection type video display device is performed by software processing.
  • the video display method includes a video input step, a display control step for controlling a display element based on the video input in the video input step, and one or a plurality of imaging steps capable of imaging a plurality of video projection target surfaces. And comprising.
  • the first video input in the video input step is projected onto the first video projection target surface among the plurality of video projection target surfaces, and the second video projection target surface is projected.
  • the setting process for projecting the second video input in the video input step based on the imaging result of the imaging step, the adjustment process of the video projection position with respect to the first video projection target surface, the first The image projection position adjustment process for the image projection target surface 2 is performed.
  • Embodiment 1 of this invention it is a figure which shows an example of a structure of the projection type video display apparatus in Embodiment 1 of this invention.
  • Embodiment 1 of this invention it is a figure which shows an example of a structure of a projector.
  • Embodiment 1 of this invention it is a figure which shows an example of the positional relationship of a camera, a projector, and a projection reference plane.
  • Embodiment 1 of this invention it is a figure which shows an example of the state which installed the screen for adjustment in the projection reference plane.
  • Embodiment 1 of this invention it is a figure which shows an example of the image
  • Embodiment 1 of this invention it is a figure which shows an example of the projection target object imaged with the camera, and its periphery.
  • Embodiment 1 of this invention it is a figure which shows an example of a mode that another projection target object is imaged with a camera.
  • Embodiment 1 of this invention it is a figure which shows an example of a mode that an image
  • it is a figure which shows an example of the position shift of another projection target object and a projection image
  • Embodiment 1 of this invention it is a figure which shows an example of an external appearance at the time of implement
  • Embodiment 1 of this invention it is a figure which shows an example of an external appearance at the time of implement
  • Embodiment 4 of this invention it is a figure which shows an example of the positional relationship of a camera, a projector, and a projection reference plane. In Embodiment 4 of this invention, it is a figure which shows an example of the state which installed the screen for adjustment in the projection reference plane. In Embodiment 4 of this invention, it is a figure which shows an example of a mode that another projection target object is imaged with a camera. In Embodiment 4 of this invention, it is a figure which shows an example of a mode that an image
  • Embodiment 4 of this invention it is a figure which shows an example of a mode that an image
  • Embodiment 4 of this invention it is a figure which shows an example of the external appearance of the projector which has arrange
  • the constituent elements are not necessarily indispensable unless otherwise specified and apparently essential in principle. Needless to say.
  • the shapes, positional relationships, etc. of the components, etc. when referring to the shapes, positional relationships, etc. of the components, etc., the shapes are substantially the same unless otherwise specified, or otherwise apparent in principle. And the like are included. The same applies to the above numerical values and ranges. [Outline of the embodiment]
  • the projection-type image display apparatus is a projection-type image display apparatus that projects images onto a plurality of image projection target surfaces having different distances from the projection lens.
  • the projection display apparatus includes a light source (light source 14), a display element (display element 12) that modulates light from the light source, a projection lens (projection lens 11) that projects light from the display element, A video input unit (video input unit 170), and a display control unit (reference perspective transformation matrix generation units 100, 100a, 100b, projection video generation unit 110) that controls the display element based on the video input by the video input unit.
  • the first video input to the video input unit is projected onto the first video projection target surface (projection target A (50)) among the plurality of video projection target surfaces, and the second video projection is performed.
  • the display control unit is configured to perform the above processing based on the imaging result of the imaging unit.
  • a video projection position adjustment process for the first video projection target surface and a video projection position adjustment process for the second video projection target surface are respectively performed.
  • the projection display apparatus projects a video onto a video projection target surface (projection target B (51)) whose distance from the projection lens can change with time. It is.
  • the projection display apparatus includes a light source (light source 14), a display element (display element 12) that modulates light from the light source, a projection lens (projection lens 11) that projects light from the display element, A video input unit (video input unit 170), and a display control unit (reference perspective transformation matrix generation units 100, 100a, 100b, projection video generation unit 110) that controls the display element based on the video input by the video input unit. , 150, 120, 121 and the video composition unit 130) and one or a plurality of imaging units (cameras 20, 21) capable of imaging the video projection target surface. Then, as a setting process for projecting the video input to the video input unit on the video projection target surface, the display control unit performs an adjustment process on the imaging result of the imaging unit, and Information necessary for geometric transformation to be adapted to the image projection target surface is generated.
  • the video display method in one embodiment is a video display method in which adjustment processing in the projection type video display device is performed by software processing.
  • the video display method includes a video input step (operation in the video input interface 511) and a display control step (chip set 501, main storage device 502, GPU 503) for controlling display elements based on the video input in the video input step. And an operation in the CPU 510) and one or a plurality of imaging steps (operations in the camera 20 and the video imaging unit 29) capable of imaging a plurality of video projection target surfaces.
  • the first video input in the video input step is projected onto a first video projection target surface (projection target A (50)) among the plurality of video projection target surfaces.
  • a video projection position adjustment process for the first video projection target surface and a video projection position adjustment process for the second video projection target surface are respectively performed.
  • the projection type video display apparatus and video display method according to Embodiment 1 will be described with reference to FIGS.
  • the first embodiment is a projection type video display device that projects video onto a plurality of projection objects having different distances from the projection lens, and a video display method in the projection type video display device. Further, the first embodiment is a projection type video display device that projects a video onto a projection target whose distance from the projection lens can change with time, and a video display method in the projection type video display device.
  • FIG. 1 is a diagram illustrating an example of the configuration of the projection display apparatus according to the first embodiment.
  • the projection type video display apparatus includes a projector 10, a camera 20, a reference perspective transformation matrix generation unit 100, and a plurality of (two examples are shown in FIG. 1) projection video generation units 110 and 150.
  • the video composition unit 130, the reference marker generation unit 140, and the video input unit 170 are configured.
  • the projector 10 is a projection unit that projects an input video onto a projection target such as a screen or an uneven object.
  • This projection target (more specifically, the object plane of the projection target) is an example of a video projection target plane.
  • the projector 10 includes at least a light source 14, a display element 12, and a projection lens 11.
  • the camera 20 is an imaging unit that images a projection target.
  • a visible light camera is assumed.
  • an infrared LED or the like which is a light source that generates light having a wavelength that cannot be seen by humans, is used as a marker, an infrared ray is used.
  • a camera may be used.
  • the reference perspective transformation matrix generation unit 100 converts a coordinate system (hereinafter referred to as a camera coordinate system) in an image captured by the camera 20 into a coordinate system (hereinafter referred to as a projector coordinate system) in an image projected by the projector 10. It is a production
  • the camera coordinate system is a coordinate system in which the upper left of the video output from the camera 20 is the origin.
  • the projector coordinate system is a coordinate system with the upper left corner of the image projected by the projector 10 as the origin.
  • the image projected from the projector 10 is projected onto the projection object, and is captured by the camera 20.
  • the reference perspective transformation matrix generation unit 100 includes a reference perspective transformation matrix generation unit 101, a marker position calculation unit 102, and a projection reference plane marker detection unit 103. Details will be described later.
  • Projection image generation units 110 and 150 are projection image generation units that geometrically transform an input image in accordance with the object plane of the projection target.
  • this Embodiment 1 since the case where a video is projected with respect to two projection target objects A and B is assumed, it is an apparatus configuration including two projection video generation units, but this is not necessarily the case.
  • the number is not limited to two. There may be one or any number of three or more. Further, as will be described in the second embodiment to be described later, when this apparatus is realized by software of a personal computer or the like, the number can be dynamically changed.
  • the projected video generation units 110 and 150 include a marker position correction unit 111, a video projection position calculation unit 113, a projection video identification unit 114, a perspective conversion unit 115, a video perspective conversion matrix generation unit 116, a marker position calculation unit 117, and a marker detection.
  • Each processing unit of the unit 118 and the perspective conversion unit 119 is included. Details will be described later.
  • the video synthesizing unit 130 is a video synthesizing unit that synthesizes the videos generated by the plurality of projection video generating units 110 and 150, and the synthesized video is sent to the projector 10.
  • the reference marker generation unit 140 is a generation unit that generates a marker to be projected onto the projection object by the projector 10 when the reference perspective transformation matrix 80 is calculated.
  • the video input unit 170 is an input unit to which two videos, a projection video 70 on the projection target A and a projection video 71 on the projection target B, are input.
  • the projected video 70 and the projected video 71 are also simply referred to as a video 70 and a video 71, respectively.
  • the video input to the video input unit 170 (the projection video 70 on the projection target A and the projection video 71 on the projection target B) is projected.
  • the projector 10 projects the input video onto the projection target.
  • the image projected on the projection object is captured by the camera 20.
  • the video imaged by the camera 20 is output to the reference perspective transformation matrix generation unit 100 and the projection video generation units 110 and 150.
  • the reference perspective transformation matrix generation unit 100 creates a reference perspective transformation matrix for converting the camera coordinate system in the image captured by the camera 20 into the projector coordinate system in the image projected by the projector 10.
  • the reference perspective transformation matrix created by the reference perspective transformation matrix generation unit 100 is output to the projection video generation units 110 and 150.
  • the projection video generation units 110 and 150 are input in accordance with the object plane of the projection target based on the video captured by the camera 20 and the reference perspective transformation matrix generated by the reference perspective transformation matrix generation unit 100. Transform the captured image.
  • the images geometrically converted by the projection image generation units 110 and 150 are output to the image composition unit 130.
  • the video synthesis unit 130 synthesizes the video generated by the projection video generation units 110 and 150.
  • the video synthesized by the video synthesis unit 130 is sent to the projector 10.
  • the video input unit 170 is an example of a video input unit
  • the reference perspective transformation matrix generation unit 100, the projected video generation units 110 and 150, and the video synthesis unit 130 are video. It is an example of a display control unit that controls a display element based on an image input by an input unit
  • the camera 20 is an example of an imaging unit that can image a plurality of video projection target surfaces.
  • the operation in the video input unit 170 is an example of a video input step.
  • the operation in the unit 130 is an example of a display control step
  • the operation in the camera 20 is an example of an imaging step.
  • the configuration and operation of each unit will be described in detail.
  • FIG. 2 is a diagram illustrating an example of the configuration of the projector 10 described above.
  • the projector 10 includes a light source 14, a reflecting mirror 15, an illumination optical system 13, a display element 12, a projection lens 11, a display element driving circuit 31, and a video interface (I / F) (32).
  • the light source 14 includes, for example, a discharge lamp.
  • the illumination optical system 13 includes a condenser lens, for example.
  • the display element 12 is composed of, for example, a liquid crystal panel or DMD (digital mirror device).
  • the projection lens 11 is a projection optical system.
  • a single-plate transmissive display element projector is taken as an example, but the present invention is not limited to this, and a configuration using a plurality of display elements or reflective display elements may be used.
  • the display element may be a liquid crystal type or a DMD type.
  • the light output from the light source 14 is applied to the display element 12 through the reflecting mirror 15 and the illumination optical system 13.
  • the reflecting mirror 15 is not necessarily required depending on the type of the light source 14.
  • the light source is a discharge lamp, it is common to provide a reflecting mirror.
  • a solid light source such as an LED, a laser light source, a laser excitation device, etc.
  • a suitable optical system may be added as appropriate.
  • the display element 12 has a structure in which a large number of elements whose transmittance, reflectance, or reflection time changes according to the input pixel value are arranged two-dimensionally, and includes a video I / F (32) and a display element driving circuit.
  • a two-dimensional transmittance, reflectance, or reflection time distribution corresponding to the projection image input via the terminal 31 can be realized. That is, the light applied to the display element 12 is modulated by the display element 12 and projected onto an object such as a screen through a projection optical system such as the projection lens 11.
  • FIG. 3 is a diagram illustrating an example of the positional relationship between the camera 20, the projector 10, and the projection reference plane described above.
  • the first embodiment will be described using a case where the projector 10, the camera 20, and the projection target A (50) are arranged as shown in FIG.
  • FIG. 3 is a view of a device composed of these components as viewed from the side (when the camera 20 is mounted on the projector 10), and when this is a view as viewed from the top and bottom. (If the camera 20 is on the right side of the projector 10 or the like), there will be no trouble in the following description. That is, these positional relationships are relative.
  • a projection reference plane 40 is a reference plane for performing perspective transformation from the camera coordinate system to the projector coordinate system, and a perspective transformation matrix from the camera coordinate system to the projector coordinate system based on this plane. Is calculated.
  • the distance between the projector 10 and the projection reference plane 40 is assumed to be L0. Further, it is assumed that the projection surface of the projection object A (50) coincides with the projection reference surface 40.
  • the reference perspective transformation matrix generation unit 100 generates a reference perspective transformation matrix 80 that is a transformation matrix from the camera coordinate system to the projector coordinate system.
  • the process of generating this matrix only needs to be performed once at the beginning, and as long as the projector 10 and the camera 20 are not moved, there is no need to perform the process again even if the projection object moves. That is, the present invention can be applied to an object whose distance from the projection lens 11 can change with time as the projection object moves.
  • FIG. 4 is a diagram illustrating an example of a state in which the adjustment screen 60 is installed on the projection reference plane 40.
  • the projection surface of the projection object A (50) can be used instead of the adjustment screen 60.
  • the wider the projection surface used here the higher the accuracy of the reference perspective transformation matrix 80 becomes.
  • the adjustment screen 60 is used will be described.
  • FIG. 5 shows an example of an image captured by the camera 20 with the adjustment screen 60 installed.
  • FIG. 5 is a diagram illustrating an example of an image captured by the camera 20.
  • reference numeral 25 denotes the entire camera imaging range imaged by the camera 20, in which the adjustment screen 60 is shown.
  • the entire adjustment screen 60 is completely included in the camera imaging range 25, but it is not always necessary to do so.
  • the image projected from the projector 10 is projected onto the projector projection range 16 on the adjustment screen 60.
  • the projector projection range 16 is included in the adjustment screen 60, but it is not always necessary to do so.
  • the present invention is also effective when the projector projection range 16 is not a rectangle but a distorted rectangle.
  • Equations 1 and 2 show the equations for converting the point (Xc, Yc) on the camera coordinate system to the point (Xp, Yp) on the projector coordinate system by perspective transformation using the reference perspective transformation matrix 80.
  • the perspective transformation matrix Mcp can be uniquely determined by giving four sets of (Xc, Yc) and (Xp, Yp) corresponding thereto.
  • the markers P00, P10, P01, and P11 shown in FIG. 5 are displayed one by one by the reference marker generator 140 shown in FIG.
  • the image is projected on the adjustment screen 60 by the projector 10. This is imaged by the camera 20, and the coordinates (Xc, Yc) of the camera coordinate system corresponding to each marker are obtained by the projection reference plane marker detection unit 103 and the marker position calculation unit 102.
  • the reference The perspective transformation matrix generation unit 101 calculates a perspective transformation matrix Mcp (reference perspective transformation matrix 80).
  • the projection reference plane marker detection unit 103 detects a marker using features such as color, brightness, marker shape, and the like.
  • FIG. 6 is a diagram illustrating an example of the projection target A (50) imaged by the camera 20 and its surroundings. Markers to be affixed to the four corners of the projection target A (50) may be stickers with specific colors, or may be infrared LEDs or the like as described above.
  • the position and shape of the projection target A (50) may be acquired by pattern matching or the like without using the marker.
  • the shape of the projection surface of the projection target A (50) is assumed to be a quadrangle, but this may be a curved surface or a more complicated shape.
  • the projection plane is divided into small areas such as triangles and quadrilaterals, and each area plane is subjected to the conversion according to the present invention and projected to project the image. .
  • the projection surface of the projection object A (50) and the image 70 to be projected onto the projection surface are both squares, and the markers T00, T10, T01, and T11 are the projection object A (50).
  • the description will be made assuming that they are located at the four corners of the projection surface.
  • These four markers are imaged by the camera 20 and processed by the marker detection unit 118 and the marker position calculation unit 117, whereby the coordinates (Xmc, Ymc) of each marker in the camera coordinate system can be obtained.
  • these markers have an area of 0 and should be positioned at the four corners of the projection surface.
  • the marker 20 has a certain area and is 4 on the projection surface. It will be located slightly inside the corner.
  • the coordinates of the four corners of the actual projection surface are obtained by performing correction using the shape / area of the marker and the coordinates on the projection surface.
  • the projection target When the projection target is not on the projection reference plane 40, it is necessary to correct the marker position described later. However, the projection target A (50) is on the projection reference plane 40, and the marker position needs to be corrected. Therefore, the process in the marker position correcting unit 111 will be ignored and the description will be continued.
  • the processing by the perspective transformation unit 115 using the reference perspective transformation matrix 80 is applied to the coordinates (Xmc, Ymc) of each marker obtained in the previous step, the coordinates (Xmp, Ymp) is obtained.
  • the perspective transformation matrix (video perspective transformation matrix 81) from the four corner coordinates (Xi, Yi) to the four corner coordinates (Xmp, Ymp) of the projection target A (50) in the projector coordinate system can be calculated. It is.
  • This matrix calculation process is performed by the video perspective transformation matrix generation unit 116.
  • the perspective transformation is sequentially applied to each pixel of the video 70 projected onto the projection target A (50) by the perspective transformation unit 119, and if necessary.
  • the output video of the projection video generation unit 110 is generated by performing pixel interpolation processing. By sending this to the projector 10 via the video composition unit 130 and projecting it, the video 70 can be projected in a form that matches the projection surface of the projection target A (50).
  • the projection video on the projection target B (51) is generated not by the projection video generation unit 110 but by the projection video generation unit 150.
  • the internal structures of both are basically the same, but by changing the marker detection condition in the marker detection unit 118, the projection object A (50) and the projection object B (51) can be distinguished and handled. ing.
  • the projection object A (50) and the projection object B (51) are simply distinguished by using markers of different colors. Other methods such as changing the marker shape or changing the lighting pattern of the LED marker are also conceivable.
  • FIG. 7 is a diagram illustrating an example of a state where another camera B (51) is imaged by the camera 20.
  • the projection object B (51) is placed at a position separated from the projector 10 by a distance L1. This is a distance shorter than the distance L0 between the projector 10 and the projection reference plane 40 (the present invention is similarly established even if L0 ⁇ L1).
  • the projection target B (51) is at a virtual position 55 on the extension line between the camera 20 and the projection target B (51).
  • the image is captured as if.
  • the virtual position 55 is a camera image virtual position of the projection target B (51) on the projection reference plane 40.
  • the processing in the perspective conversion unit 119 is performed in a form that matches the virtual position 55. Therefore, an image is projected to the position 91 shown in FIG.
  • FIG. 8 is a diagram illustrating an example of a state in which an image is projected by the projector 10 onto the projection target B (51).
  • FIG. 9 is a diagram illustrating an example of a positional deviation between the projection target B (51) and the projection video.
  • the camera 20 is used to capture the image projected at the position 91, and the deviation is measured and fed back to reduce the deviation. That is, in this feedback processing, control is performed so that a difference that is a deviation amount between the position of the projection target B (51) and the position 91 of the video display on the projection target B (51) becomes small.
  • a projection video generation unit 150 that processes a video captured from the camera 20 for a projection target B (51) (in the following description, the processing related to the projection video 71 is not the projection video generation unit 110).
  • the projection video identification unit 114 inside the projection video generation unit 150 performs pattern matching with the projection video 71, and based on the result, the video projection position calculation unit 113 calculates the projection video 71.
  • the projection position is calculated. This pattern matching process may be performed after performing perspective transformation on the video captured from the camera 20 or the projected video 71, or may be performed without performing perspective transformation.
  • the projection position of the projection image 71 calculated here is a numerical value representing the coordinates of the four corners of the projection position 91 of the projection image 71 in the captured image of the camera 20 in the camera coordinate system.
  • the marker position correction unit 111 compares these numerical values with the coordinates of the four corners of the projection object B (51) calculated by the marker position calculation unit 117, calculates a coordinate shift amount, and uses this shift amount to make a marker Correction processing is performed on the coordinates of the four corners of the projection target B (51) calculated by the position calculation unit 117.
  • FIG. 10 is a diagram illustrating an example of the inside of the marker position correction unit 111 and its peripheral processing unit.
  • the marker position correction unit 111 includes a correction amount generation unit 200, an adder 210, and a subtracter 220.
  • the correction amount generation unit 200 includes a 1-frame delay unit 201, an adder 202, and a selector 203.
  • the marker position correcting unit 111 since the optical axes of the projector 10 and the camera 20 are inconsistent only in the Y direction, the marker position correcting unit 111 only corrects the coordinate in the Y direction.
  • the Y coordinate 160 of the four corners of the projection position 91 of the image 71 calculated by the image projection position calculation unit 113 by pattern matching, and the projection target B (51 obtained by the marker position calculation unit 117). 4) of the four corners of the projection surface are input.
  • the X coordinates 161 at the four corners are sent to the perspective conversion unit 115 as they are.
  • the Y coordinate 160 and the Y coordinate 162 are compared by the subtractor 220 for each corner. Since there are four corners, four logical subtractors 220 are necessary. However, in the first embodiment, it is assumed that time division processing is performed. It is only described. The other components are similarly assumed to be time-division processing (however, four corners are required for the storage elements in the one-frame delay unit 201).
  • the correction amount generation unit 200 generates a correction amount 163 to be added to the Y coordinate 162 by the adder 210, and generates the correction amount 163 so that the positional deviation output from the subtracter 220 is reduced. For example, when the Y coordinate 160 calculated by pattern matching is larger than the Y coordinate 162 calculated from the marker, that is, when the display position 91 of the video 71 is below the projection target B (51), the correction amount The correction amount generation unit 200 operates so that 163 becomes a negative number.
  • the correction amount generation unit 200 has a feedback system including a one-frame delay unit 201, an adder 202, and a selector 203.
  • the output 163 increases or decreases by + d or -d for each frame according to the output of the subtracter 220.
  • d is a parameter that determines the speed at which the correction amount 163 changes. Increasing d increases the change in the correction amount and improves the tracking speed, but the output of the correction amount 163 tends to vibrate. It is easier to get better results if you set a smaller value.
  • the projection display apparatus has a structure in which the camera 20 and the projector 10 are realized in different casings, and the camera 20 in another casing is mounted on the projector 10.
  • FIG. 11 is a diagram illustrating an example of an external appearance when the camera 20 and the projector 10 are realized in different housings.
  • the first embodiment is not limited to the structure as shown in FIG.
  • the camera 20 and the projector 10 may be realized by a single casing, and the camera 20 may be built in the projector 10.
  • FIG. 12 is a diagram showing an example of an external appearance when the camera 20 and the projector 10 are realized by a single casing.
  • the camera 20 is not necessarily present above the projection lens 11 of the projector 10, and the method of the present invention is effective even when the camera 20 is present below, right and left, or obliquely.
  • the positional deviation between the projection objects A (50) and B (51) and the projection images 70 and 71 is detected. Can be reduced.
  • projection is performed using a method in which a positional deviation between the positions of the markers T00, T10, T01, and T11 captured by the camera 20 and the position 91 of the projected image captured by the camera 20 is feedback-controlled to the video perspective transformation matrix 81.
  • a positional shift between the objects A (50) and B (51) and the projected images 70 and 71 can be reduced.
  • the projection objects A (50) and B (51) placed at different distances are compatible with them. It is possible to convert and project the video. More details are as follows.
  • the projection-type image display device is a device that projects images onto a plurality of projection objects A (50) and B (51) having different distances from the projection lens 11, and includes a light source 14 and a display element 12.
  • the video composition unit 130 performs the video projection position adjustment process for the projection target A (50) and the video projection position adjustment process for the projection target B (51). Do each. Thereby, the position shift between the projection objects A (50) and B (51) and the projection images 70 and 71 can be reduced.
  • the adjustment process performed by the reference perspective transformation matrix generation unit 100, the projection video generation units 110 and 150, and the video synthesis unit 130 includes the position of the projection object B (51) acquired by the camera 20 and the projector acquired by the camera 20.
  • videos may become small is included. As described above, by including the feedback process in the adjustment process, it is possible to reduce the positional deviation between the projection objects A (50) and B (51) and the projection images 70 and 71.
  • the detection processing of the positions of the projection objects A (50) and B (51) is performed by using the camera 20 to detect the markers T00, T10, T01, and T11 existing on the projection objects A (50) and B (51). Do it by getting.
  • the markers T00, T10, T01, and T11 are light sources such as infrared LEDs, and can generate light having a wavelength that cannot be seen by humans.
  • the camera 20 is an infrared camera or the like, and can sense light generated by a light source.
  • the projection-type image display device is a device that projects an image onto the projection object B (51) whose distance from the projection lens 11 can change with time
  • the projection object B (51) As a setting process for projecting the projection video 71, the reference perspective transformation matrix generation unit 100, the projection video generation units 110 and 150, and the video synthesis unit 130 perform adjustment processing on the imaging result of the camera 20, Information necessary for geometric transformation to be adapted to the projection target B (51) is generated. Thereby, the projection target B (51) and the projection image 71 are also moved with respect to the projection target B (51) in which the projection target B (51) moves and the distance from the projection lens 11 can change with time. Can be reduced.
  • the projection objects A (50) and B (51) and the projection image 70 projected onto the projection objects A (50) and B (51) , 71 is specified, and feedback processing is performed so that the difference between the two positions becomes small, so that the projected images 70 and 71 are shifted in position with respect to the projection objects A (50) and B (51). It becomes possible to reduce and project.
  • Embodiment 2 The projection type video display device and video display method in Embodiment 2 will be described with reference to FIG. In the second embodiment, differences from the first embodiment will be mainly described.
  • the first embodiment has been described on the assumption that each basic process is realized by a functional module such as a dedicated electronic circuit. However, these may be realized by software on a general-purpose device such as a personal computer. I do not care.
  • the second embodiment is an example in which a part of the configuration of the projection display apparatus is realized by a personal computer. ⁇ Projection-type image display device>
  • FIG. 13 is a diagram illustrating an example of the configuration of the projection display apparatus according to the second embodiment.
  • the projection display apparatus includes a projector 10, a camera 20, a personal computer 500, and a keyboard / mouse 509.
  • the personal computer 500 has substantially the same configuration as a general personal computer, and includes a chip set 501, a main storage device 502, a GPU 503, a video output interface (I / F) 504, an internal bus 505, a hard disk interface (HDD I / F) 506, It includes a general-purpose peripheral device interface (USB I / F) 507, a hard disk (HDD) 508, a CPU 510, a video input interface (I / F) 511, and the like.
  • a chip set 501 includes a main storage device 502, a GPU 503, a video output interface (I / F) 504, an internal bus 505, a hard disk interface (HDD I / F) 506, It includes a general-purpose peripheral device interface (USB I / F) 507, a hard disk (HDD) 508, a CPU 510, a video input interface (I / F) 511, and the like.
  • USB I / F general-purpose peripheral device interface
  • HDD hard disk
  • a video input interface 511, a video output interface 504, and a hard disk interface 506 are used for basic arithmetic processing units such as the CPU 510, the main storage device 502, the chip set 501, and the GPU 503 using an internal bus 505, a dedicated bus, or the like.
  • the projector 10, the camera 20, the hard disk 508, the keyboard / mouse 509, and the like are connected via the general-purpose peripheral device interface 507 and the like.
  • the same processes as those of the reference perspective transformation matrix generation unit 100, the projection video generation units 110 and 150, the video synthesis unit 130, the reference marker generation unit 140, and the video input unit 170 in the first embodiment are performed.
  • the video input step is an operation in the video input interface 511
  • the display control step is an operation in the chip set 501, the main storage device 502, the GPU 503, and the CPU 510.
  • the camera 20 performs an imaging step operation.
  • the projection images 70 and 71 projected onto the projection objects A (50) and B (51) by the projector 10 are not limited to the case where the projection images 70 and 71 are input from the video input interface 511. Graphics drawn with can be considered.
  • the video is stored in the hard disk 508 or generated by the CPU 510, there is no upper limit on the number of projection objects projected by the projector 10 as long as the performance of the CPU 510 and the hard disk 508 is satisfied. become. ⁇ Effect of Embodiment 2>
  • the projection type video display apparatus and video display method in the second embodiment even when a part of the projection type video display apparatus is realized by the personal computer 500, the same as in the first embodiment. The effect of can be obtained.
  • adjustment processing in the projection type video display device can be performed by software processing. That is, in the display control step of the video display method in the projection type video display device, a setting process for projecting the projection video 70 onto the projection target A (50) and projecting the projection video 71 onto the projection target B (51).
  • the personal computer 500 performs a video projection position adjustment process for the projection target A (50) and a video projection position adjustment process for the projection target B (51) based on the imaging result of the camera 20, respectively. Thereby, the position shift between the projection objects A (50) and B (51) and the projection images 70 and 71 can be reduced.
  • Embodiment 3 The projection type video display device and video display method in Embodiment 3 will be described with reference to FIG. In the third embodiment, differences from the second embodiment will be mainly described.
  • the projector 10, the camera 20, and the personal computer 500 are different cases, and it is assumed that these are connected by a cable, wireless, or the like. It may be stored.
  • the third embodiment is an example in which the entire configuration of the projection display apparatus is stored in one casing. ⁇ Projection-type image display device>
  • FIG. 14 is a diagram illustrating an example of the configuration of the projection display apparatus according to the third embodiment.
  • the video projection unit 19 has a function corresponding to the projector 10 in FIG. 13, and the video imaging unit 29 has a function corresponding to the camera 20 in FIG.
  • the other parts have functions corresponding to the personal computer 500 of FIG.
  • the projection display apparatus according to the third embodiment assumes a general projector 18 and the keyboard / mouse 509 is replaced with an operation panel 515.
  • the operation panel 515 includes a monitor display such as a liquid crystal display and switches. However, the operation panel 515 may include only switches.
  • Embodiment 4 The projection type video display apparatus and video display method according to Embodiment 4 will be described with reference to FIGS. In the fourth embodiment, differences from the first to third embodiments will be mainly described.
  • the deviation of the projection position is corrected using one camera.
  • a method using a plurality of cameras will be described.
  • FIG. 15 is a diagram illustrating an example of the configuration of the projection display apparatus according to the fourth embodiment.
  • the projection-type image display apparatus includes a projector 10, a plurality of cameras 20 and 21 (two examples are shown in FIG. 15), and a plurality of reference images (two examples are shown in FIG. 15).
  • the matrix generation units 100a and 102b, a plurality of projection video generation units 120 and 121 (two examples shown in FIG. 15), a video synthesis unit 130, a reference marker generation unit 140, and a video input unit 170 are included.
  • the reference perspective transformation matrix generation units 100a and 100b include a reference perspective transformation matrix generation unit 101, a marker position calculation unit 102, and a projection reference plane marker detection unit 103, respectively.
  • the projected video generation units 120 and 121 include a marker position correction unit 125, perspective conversion units 115a and 115b, a video perspective conversion matrix generation unit 116, marker position calculation units 117a and 117b, marker detection units 118a and 118b, and Each processing unit of the perspective conversion unit 119 is included.
  • the operations of the components in the reference perspective transformation matrix generation units 100a and 100b and the projection video generation units 120 and 121 are the same as those in the first embodiment.
  • the deviation of the projection position is corrected using the two cameras 20 and 21. ⁇ Relationship between camera, projector and projection reference plane>
  • FIG. 16 is a diagram illustrating an example of the positional relationship between the cameras 20 and 21, the projector 10, and the projection reference plane described above.
  • the camera 20 is installed on the upper side of the projector 10 and the camera 21 is installed on the lower side.
  • the cameras 20 and 21 are installed so that the distance between the optical axis of the camera 20 and the optical axis of the projector 10 is equal to the distance between the optical axis of the camera 21 and the optical axis of the projector 10.
  • Each of the cameras 20 and 21 is connected to the reference perspective transformation matrix generation units 100a and 100b, and calculates the reference perspective transformation matrix using the adjustment screen 60 as shown in FIG. FIG.
  • FIG. 17 is a diagram illustrating an example of a state in which the adjustment screen 60 is installed on the projection reference plane 40. Since the calculation method of the reference perspective transformation matrix is the same as the method described in the first embodiment, the details thereof will not be described here. However, the camera 20 and the camera 21 correspond to the projector 10 and the adjustment screen 60. It should be noted that since the positional relationship is different, the reference perspective transformation matrix is also different.
  • FIG. 18 is a diagram illustrating an example of a state where the camera 20 captures an image of the projection target B (51).
  • FIG. 19 is a diagram illustrating an example of a state in which an image is projected by the projector 10 onto the projection target B (51).
  • the projection target B (51) appears to be present at the position 56 on the projection reference plane 40 from the camera 20.
  • 56 t is a point in the upper right corner of a quadrangle corresponding to the projection surface existing at the position 56.
  • FIG. 20 is a diagram illustrating an example of a state where the camera 21 captures an image of the projection target B (51).
  • FIG. 21 is a diagram illustrating an example of a state in which an image is projected by the projector 10 onto the projection target B (51).
  • the projection object B (51) appears to the camera 21 to be present at a position 57 on the projection reference plane 40.
  • 57 t is a point in the upper right corner of a quadrangle corresponding to the projection surface existing at the position 57.
  • a video is projected onto the projection target B (51) by the projector 10 without performing any correction, it is projected from the projection target B (51) at the position 93 in FIG. .
  • the projection position on the projection target B (51) is calculated using the camera 20 or the camera 21 whose optical axis does not coincide with the projector 10, the position is shifted from the actual projection target B (51). The video will be projected.
  • FIG. 22 is a diagram illustrating an example of a state in which the projection target B (51) is captured by the camera of the projector with camera 10a.
  • reference numeral 10a denotes a projector with a camera including a projector and a camera whose optical axis coincides perfectly with the projector.
  • the projection target B (51) appears to be present at the position 58 on the projection reference plane 40.
  • 58 t is a point in the upper right corner of a quadrangle corresponding to the projection surface existing at the position 58.
  • FIG. 23 is a diagram illustrating an example of how the projection target B (51) is reflected according to the positions of the cameras 20 and 21.
  • a point 56t is obtained when the camera 20 is used, and the position of the image on the projection reference plane 40 at the upper right corner of the projection object B (51), and a point 57t is obtained when the camera 21 is used.
  • the position of the image on the projection reference plane 40 at the upper right corner of the projection target B (51), the point 58t is the projection reference at the upper right corner of the projection target B (51) obtained when the camera is placed at the position of the projector 10. This is the position of the image on the surface 40.
  • a straight line connecting the camera 20 and the point 56t and a straight line connecting the projector 10 and the point 58t intersect at a point 68, and two similar triangles are formed at both ends of the point 68.
  • the ratio between the distance between the point 56t and the point 58t and the distance between the point 57t and the point 58t is the distance between the optical axes of the camera 20 and the projector 10; This is equal to the ratio of the distance between the optical axes of the camera 21 and the projector 10.
  • 120 is a projection video generation unit that generates a video for projection onto the projection target A (50), and 121 is a projection video generation that generates a video for projection onto the projection target B (51). Part.
  • the two structures are the same except that the conditions for marker detection are different (refer to the first embodiment for details), and the number of projected image generation units is not limited to two.
  • the projection video generation unit to be described is the projection video generation unit 121.
  • This is converted into the projector coordinate system by the perspective conversion units 115a and 115b using the reference perspective conversion matrix.
  • the marker positions at the four corners of the projection object B (51) obtained from the camera 20 and the marker positions at the four corners of the projection object B (51) obtained from the camera 21 are as follows.
  • the marker positions at the four corners of the projection object B (51) when the cameras 20 and 21 are assumed to be placed at the position of the projector 10 are calculated.
  • the video perspective transformation matrix generation unit 116 creates the video perspective transformation matrix 81, and the perspective transformation unit 119 further perspectives the projection video 71 on the projection object B (51). Conversion is performed to obtain a projection image after conversion.
  • FIG. 24 is a diagram illustrating an example of the appearance of the projector 10 in which the cameras 20 and 21 are arranged above and below the projection lens 11.
  • the camera 20 and the camera 21 are arranged above and below the projection lens 11 of the projector 10 so that the distances between the optical axes are equal.
  • the projection lens 11 and the cameras 20 and 21 of the projector 10 are arranged so that the horizontal positions of the optical axes coincide with each other, and the marker position correction unit 125 performs the vertical direction for the marker positions obtained from the respective cameras 20 and 21.
  • the marker coordinates used for the video perspective transformation matrix generation unit 116 are calculated by averaging.
  • FIG. 25 is a diagram showing an example of the appearance of the projector 10 in which the cameras 20 and 21 are arranged on the left and right sides of the projection lens 11.
  • the camera 20 and the camera 21 are arranged on the left and right of the projection lens 11 of the projector 10 so that the distances between the optical axes are equal.
  • the projector 10 and the cameras 20 and 21 are arranged so that the vertical positions of the optical axes coincide with each other, and the marker position correction unit 125 averages the marker positions obtained from the cameras 20 and 21 in the horizontal direction.
  • the marker coordinates used by the video perspective transformation matrix generation unit 116 are calculated.
  • the adjustment process of the projection image generation unit 121 in the structure as shown in FIGS. 24 and 25 is performed by adjusting the marker position of the projection object B (51) acquired by the camera 20 and the projection object B (51 ) Is performed using marker coordinates obtained by performing weighted averaging processing calculation at a 1: 1 ratio defined in advance.
  • the cameras 20 and 21 and the projection lens 11 of the projector 10 are arranged so that the optical axis of the projector 10 coincides with the center of the optical axes of the cameras 20 and 21.
  • the fourth embodiment is not limited to this.
  • the projection lens 11 does not necessarily have to exist at the center of the cameras 20 and 21. This example is shown in FIG.
  • FIG. 26 is a diagram illustrating an example of the appearance of the projector 10 in which the cameras 20 and 21 are arranged at different distances on the left and right sides of the projection lens 11.
  • the appearance of the projector 10 when the distance between the optical axes of the camera 20 and the projection lens 11 is a and the distance between the optical axes of the camera 21 and the projection lens 11 is b 2 ⁇ a. Is shown.
  • FIG. 27 shows a view of the relationship between the projector 10 and the projection reference plane 40 from above in this configuration.
  • FIG. 27 is a diagram illustrating an example of how the projection target B (51) is reflected according to the positions of the cameras 20 and 21. As shown in FIG.
  • the adjustment processing of the projection image generation unit 121 in the structure as shown in FIGS. 26 and 27 is performed by the coordinates 85 of the projection target B (51) acquired by the camera 20 and the projection target B (51 by the camera 21). ) And a coordinate 86 obtained by performing a weighting calculation with a ratio of a: b defined in advance.
  • the configuration of the fourth embodiment can be realized by software processing in the same manner as described with reference to FIGS. 13 and 14 in the second and third embodiments.
  • a plurality of cameras 20 in FIG. 13 and a plurality of video imaging units 29 in FIG. 14 are mounted.
  • the influence of the optical axis shift between the cameras 20 and 21 and the projector 10 using the plurality of cameras 20 and 21 is affected.
  • a method of canceling and generating an appropriate perspective transformation matrix the same effects as in the first to third embodiments can be obtained. More specifically, in the fourth embodiment, effects different from those of the first to third embodiments are as follows.
  • the adjustment processing by the reference perspective transformation matrix generation units 100a and 100b, the projection video generation units 120 and 121, and the video synthesis unit 130 is performed by the position information of the projection target B (51) acquired by the camera 20 and the camera 21.
  • This is a calculation process using position information calculated using the acquired position information of the projection object B (51).
  • the influence of the optical axis shift between the cameras 20 and 21 and the projector 10 can be offset by using the cameras 20 and 21, and the positional shift between the projection target B (51) and the projection image 71 can be reduced. it can.
  • the adjustment processing by the reference perspective transformation matrix generation units 100a and 100b, the projection video generation units 120 and 121, and the video synthesis unit 130 is performed by the position information of the projection target B (51) acquired by the camera 20 and the camera 21.
  • This is a calculation process using position information obtained by performing a weighting calculation with a predefined ratio on the acquired position information of the projection object B (51).
  • weighting with a predefined ratio is a 1: 1 averaging process.
  • the weighting by the ratio defined in advance is processing by the ratio a: b.
  • a plurality of cameras 20 and 21 are mounted in the same casing as the projection lens 11 of the projector 10. Thereby, the image
  • the plurality of cameras 20 and 21 and the projection lens 11 are arranged in the same straight line.
  • the center distance between the camera 20 and the projection lens 11 is equal to the center distance between the camera 21 and the projection lens 11.
  • each of the above-described configurations may be configured such that a part or all of the configuration is configured by hardware, or is realized by executing a program by a processor.
  • control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

投射対象物と投射映像との間の位置ずれを軽減する映像表示技術である。投射型映像表示装置は、光源と、光源からの光を変調する表示素子と、表示素子からの光を投射する投射レンズと、映像入力部170と、映像入力部170で入力された映像に基づいて表示素子を制御する基準透視変換行列生成部100、投射映像生成部110、150および映像合成部130と、複数の映像投射対象面を撮像可能なカメラ20と、を備える。そして、第1の映像投射対象面に第1の映像を投射し、第2の映像投射対象面に第2の映像を投射するための設定処理として、基準透視変換行列生成部100、投射映像生成部110、150および映像合成部130は、カメラ20の撮像結果に基づいて、第1の映像投射対象面に対する映像投射位置の調整処理と、第2の映像投射対象面に対する映像投射位置の調整処理とをそれぞれ行う。

Description

投射型映像表示装置および映像表示方法
 本発明は、映像表示技術に関し、特に、カメラ等の映像撮像手段を用いて、実世界に置かれた物体に対して映像を投射する投射型映像表示装置、およびこの投射型映像表示装置における映像表示方法に関する。
 近年、実世界に置かれた物体に対して、プロジェクタ等の映像投射装置を用いて映像を投射する、いわゆるプロジェクションマッピングと呼ばれる技術が注目を浴びている。
 この技術を用いると、プロジェクタに正対した平面のスクリーンだけでなく、プロジェクタに正対せずに角度を持って置かれたスクリーンや凹凸のある物体等に対して映像を投射することが可能となる。プロジェクタに対してスクリーン等の投射対象が正対していない場合、すなわちプロジェクタの光軸と投射対象面とが直角に交わっていない場合、投射された映像に幾何学的な歪が発生する。
 例えば、スクリーンの上辺がプロジェクタに近く、下辺が遠くになるようにスクリーンが設置された場合に、プロジェクタから正方形の映像を投射すると、正方形の上辺が下辺よりも短く投射される、いわゆる台形歪が発生することになる。実際には、上下方向だけでなく、左右方向にも同様の現象が発生するので、プロジェクタから投射した正方形の映像は、平行な辺の無い歪んだ四角形として投射されうることになる。
 この場合、この歪を打ち消すように、あらかじめ投射する映像に逆方向の幾何補正を掛けておくことで、正しく正方形として表示することが可能となる。この幾何補正(幾何変換)は、透視変換または射影変換と呼ばれ、行列計算によって実現することが可能である。
 この変換で使用する変換行列は、プロジェクタとスクリーン等の投射対象物の幾何的な位置関係によって一意に定まるため、プロジェクタや投射対象物の設営図面等から決定することが可能であるが、計算が煩雑である上、投射対象物が時間と共に移動するような場合には対応することが困難である。
 この変換行列の算出を簡易化する方法が、例えば特許文献1(特許第3978938号公報)に記載されている。
特許第3978938号公報
 上記特許文献1では、投射対象物にマーカーを付加し、これをカメラで撮像することでマーカーの位置を特定し、幾何変換の変換行列を算出する。このようにして算出した変換行列を用いて、投射映像に対して透視変換を適用し、プロジェクタを用いてこれを投射することで、投射対象物の位置や傾き等に合致した映像投射が可能であるとしている。
 上記特許文献1の方式は、プロジェクタと投射対象物との距離がほぼ一定の場合、またはプロジェクタの光軸とカメラの光軸とが完全に一致している場合には有効である。しかし、プロジェクタの光軸とカメラの光軸とを完全に一致させるためにはハーフミラー等を用いる必要があり、光学系が複雑になるため、プロジェクタ筐体の大型化、コスト増、性能低下(輝度や映像品質)に繋がる。これを避けるため、プロジェクタの光軸から離れた場所にカメラを設置すると、この光軸ずれの影響によりプロジェクタと投射対象物との距離が、透視変換行列を作成する際に基準とした距離との差が大きくなるに従い、投射対象物と投射映像との間に位置ずれが発生することになる。
 本発明の目的は、投射対象物と投射映像との間の位置ずれを軽減する映像表示技術を提供することである。
 本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
 本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。
 一実施の形態における投射型映像表示装置は、投射レンズからの距離が異なる複数の映像投射対象面に対して映像を投射する投射型映像表示装置である。前記投射型映像表示装置は、光源と、前記光源からの光を変調する表示素子と、前記表示素子からの光を投射する投射レンズと、映像入力部と、前記映像入力部で入力された映像に基づいて前記表示素子を制御する表示制御部と、前記複数の映像投射対象面を撮像可能な一つまたは複数の撮像部と、を備える。そして、前記複数の映像投射対象面のうち、第1の映像投射対象面に前記映像入力部に入力された第1の映像を投射し、第2の映像投射対象面に前記映像入力部に入力された第2の映像を投射するための設定処理として、前記表示制御部は、前記撮像部の撮像結果に基づいて、前記第1の映像投射対象面に対する映像投射位置の調整処理と、前記第2の映像投射対象面に対する映像投射位置の調整処理とをそれぞれ行う。
 一実施の形態における別の投射型映像表示装置は、投射レンズからの距離が時間と共に変化しうる映像投射対象面に対して映像を投射する投射型映像表示装置である。前記投射型映像表示装置は、光源と、前記光源からの光を変調する表示素子と、前記表示素子からの光を投射する投射レンズと、映像入力部と、前記映像入力部で入力された映像に基づいて前記表示素子を制御する表示制御部と、前記映像投射対象面を撮像可能な一つまたは複数の撮像部と、を備える。そして、前記映像投射対象面に前記映像入力部に入力された映像を投射するための設定処理として、前記表示制御部は、前記撮像部の撮像結果に対して調整処理を行ったうえで、前記映像投射対象面に適合させるための幾何変換に必要な情報の生成を行う。
 一実施の形態における映像表示方法は、投射型映像表示装置における調整処理をソフトウェア処理で実施する映像表示方法である。前記映像表示方法は、映像入力ステップと、前記映像入力ステップで入力された映像に基づいて表示素子を制御する表示制御ステップと、複数の映像投射対象面を撮像可能な一つまたは複数の撮像ステップと、を備える。そして、前記表示制御ステップでは、前記複数の映像投射対象面のうち、第1の映像投射対象面に前記映像入力ステップで入力された第1の映像を投射し、第2の映像投射対象面に前記映像入力ステップで入力された第2の映像を投射するための設定処理として、前記撮像ステップの撮像結果に基づいて、前記第1の映像投射対象面に対する映像投射位置の調整処理と、前記第2の映像投射対象面に対する映像投射位置の調整処理とをそれぞれ行う。
 本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下の通りである。
 一実施の形態によれば、投射対象物と投射映像との間の位置ずれを軽減する映像表示技術を提供することができる。
本発明の実施の形態1における投射型映像表示装置の構成の一例を示す図である。 本発明の実施の形態1において、プロジェクタの構成の一例を示す図である。 本発明の実施の形態1において、カメラ、プロジェクタ、投射基準面の位置関係の一例を示す図である。 本発明の実施の形態1において、投射基準面に調整用スクリーンを設置した状態の一例を示す図である。 本発明の実施の形態1において、カメラで撮像される映像の一例を示す図である。 本発明の実施の形態1において、カメラで撮像した投射対象物およびその周辺の一例を示す図である。 本発明の実施の形態1において、別の投射対象物をカメラで撮像する様子の一例を示す図である。 本発明の実施の形態1において、別の投射対象物へプロジェクタで映像を投射する様子の一例を示す図である。 本発明の実施の形態1において、別の投射対象物と投射映像との位置ずれの一例を示す図である。 本発明の実施の形態1において、マーカー位置補正部の内部およびその周辺処理部の一例を示す図である。 本発明の実施の形態1において、カメラとプロジェクタとを異なる筐体で実現した場合の外観の一例を示す図である。 本発明の実施の形態1において、カメラとプロジェクタとを単一の筐体で実現した場合の外観の一例を示す図である。 本発明の実施の形態2における投射型映像表示装置の構成の一例を示す図である。 本発明の実施の形態3における投射型映像表示装置の構成の一例を示す図である。 本発明の実施の形態4における投射型映像表示装置の構成の一例を示す図である。 本発明の実施の形態4において、カメラ、プロジェクタ、投射基準面の位置関係の一例を示す図である。 本発明の実施の形態4において、投射基準面に調整用スクリーンを設置した状態の一例を示す図である。 本発明の実施の形態4において、別の投射対象物をカメラで撮像する様子の一例を示す図である。 本発明の実施の形態4において、別の投射対象物へプロジェクタで映像を投射する様子の一例を示す図である。 本発明の実施の形態4において、別の投射対象物を別のカメラで撮像する様子の一例を示す図である。 本発明の実施の形態4において、別の投射対象物へプロジェクタで映像を投射する様子の一例を示す図である。 本発明の実施の形態4において、別の投射対象物をカメラ付きプロジェクタのカメラで撮像する様子の一例を示す図である。 本発明の実施の形態4において、カメラの位置に応じた投射対象物の映り方の一例を示す図である。 本発明の実施の形態4において、投射レンズの上下にカメラを配置したプロジェクタの外観の一例を示す図である。 本発明の実施の形態4において、投射レンズの左右にカメラを配置したプロジェクタの外観の一例を示す図である。 本発明の実施の形態4において、投射レンズの左右にカメラを異なる距離で配置したプロジェクタの外観の一例を示す図である。 本発明の実施の形態4において、図26に示すカメラの位置に応じた投射対象物の映り方の一例を示す図である。
 以下の実施の形態においては、便宜上その必要があるときは、複数のセクションまたは実施の形態に分割して説明するが、特に明示した場合を除き、それらは互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。また、以下の実施の形態において、要素の数等(個数、数値、量、範囲等を含む)に言及する場合、特に明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではなく、特定の数以上でも以下でも良い。
 さらに、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは、特に明示した場合および原理的に明らかにそうでないと考えられる場合等を除き、実質的にその形状等に近似または類似するものなどを含むものとする。このことは、上記数値および範囲についても同様である。
 [実施の形態の概要]
 まず、実施の形態の概要について説明する。本実施の形態の概要では、一例として、括弧内に各実施の形態の対応する構成要素および符号等を付して説明する。
 一実施の形態における投射型映像表示装置は、投射レンズからの距離が異なる複数の映像投射対象面に対して映像を投射する投射型映像表示装置である。前記投射型映像表示装置は、光源(光源14)と、前記光源からの光を変調する表示素子(表示素子12)と、前記表示素子からの光を投射する投射レンズ(投射レンズ11)と、映像入力部(映像入力部170)と、前記映像入力部で入力された映像に基づいて前記表示素子を制御する表示制御部(基準透視変換行列生成部100、100a、100b、投射映像生成部110、150、120、121および映像合成部130)と、前記複数の映像投射対象面を撮像可能な一つまたは複数の撮像部(カメラ20、21)と、を備える。そして、前記複数の映像投射対象面のうち、第1の映像投射対象面(投射対象物A(50))に前記映像入力部に入力された第1の映像を投射し、第2の映像投射対象面(投射対象物B(51))に前記映像入力部に入力された第2の映像を投射するための設定処理として、前記表示制御部は、前記撮像部の撮像結果に基づいて、前記第1の映像投射対象面に対する映像投射位置の調整処理と、前記第2の映像投射対象面に対する映像投射位置の調整処理とをそれぞれ行う。
 一実施の形態における別の投射型映像表示装置は、投射レンズからの距離が時間と共に変化しうる映像投射対象面(投射対象物B(51))に対して映像を投射する投射型映像表示装置である。前記投射型映像表示装置は、光源(光源14)と、前記光源からの光を変調する表示素子(表示素子12)と、前記表示素子からの光を投射する投射レンズ(投射レンズ11)と、映像入力部(映像入力部170)と、前記映像入力部で入力された映像に基づいて前記表示素子を制御する表示制御部(基準透視変換行列生成部100、100a、100b、投射映像生成部110、150、120、121および映像合成部130)と、前記映像投射対象面を撮像可能な一つまたは複数の撮像部(カメラ20、21)と、を備える。そして、前記映像投射対象面に前記映像入力部に入力された映像を投射するための設定処理として、前記表示制御部は、前記撮像部の撮像結果に対して調整処理を行ったうえで、前記映像投射対象面に適合させるための幾何変換に必要な情報の生成を行う。
 一実施の形態における映像表示方法は、投射型映像表示装置における調整処理をソフトウェア処理で実施する映像表示方法である。前記映像表示方法は、映像入力ステップ(映像入力インターフェース511における動作)と、前記映像入力ステップで入力された映像に基づいて表示素子を制御する表示制御ステップ(チップセット501、主記憶装置502、GPU503およびCPU510における動作)と、複数の映像投射対象面を撮像可能な一つまたは複数の撮像ステップ(カメラ20、映像撮像部29における動作)と、を備える。そして、前記表示制御ステップでは、前記複数の映像投射対象面のうち、第1の映像投射対象面(投射対象物A(50))に前記映像入力ステップで入力された第1の映像を投射し、第2の映像投射対象面(投射対象物B(51))に前記映像入力ステップで入力された第2の映像を投射するための設定処理として、前記撮像ステップの撮像結果に基づいて、前記第1の映像投射対象面に対する映像投射位置の調整処理と、前記第2の映像投射対象面に対する映像投射位置の調整処理とをそれぞれ行う。
 以下、上述した実施の形態の概要に基づいた各実施の形態を図面に基づいて詳細に説明するが、本発明は必ずしもこれらの実施の形態に限定されるものではない。なお、実施の形態を説明するための各図面において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。
 [実施の形態1]
 実施の形態1における投射型映像表示装置および映像表示方法について、図1~図12を用いて説明する。本実施の形態1は、投射レンズからの距離が異なる複数の投射対象物に対して映像を投射する投射型映像表示装置、およびこの投射型映像表示装置における映像表示方法である。また、本実施の形態1は、投射レンズからの距離が時間と共に変化しうる投射対象物に対して映像を投射する投射型映像表示装置、およびこの投射型映像表示装置における映像表示方法である。
 <投射型映像表示装置>
 本実施の形態1における投射型映像表示装置について、図1を用いて説明する。図1は、本実施の形態1における投射型映像表示装置の構成の一例を示す図である。
 本実施の形態1における投射型映像表示装置は、プロジェクタ10と、カメラ20と、基準透視変換行列生成部100と、複数(図1では2つの例を図示)の投射映像生成部110、150と、映像合成部130と、基準マーカー生成部140と、映像入力部170とで構成される。
 プロジェクタ10は、入力された映像を、スクリーンや凹凸のある物体等の投射対象物へ投射する投射部である。この投射対象物(より詳細には投射対象物の物体面)は、映像投射対象面の一例である。プロジェクタ10は、図2を用いて後述するように、少なくとも、光源14、表示素子12、投射レンズ11を含む。
 カメラ20は、投射対象物を撮像する撮像部である。本実施の形態1では、可視光のカメラを想定しているが、マーカーとして、人間に見ることのできない波長の光を発生する光源である赤外光のLED等を使用する場合には、赤外線カメラを使用する場合もありうる。
 基準透視変換行列生成部100は、カメラ20で撮像された映像における座標系(以後、カメラ座標系と称する)をプロジェクタ10が投射する映像における座標系(以後、プロジェクタ座標系と称する)に変換するための基準透視変換行列80を作成する生成部である。カメラ座標系は、カメラ20から出力される映像の左上を原点とした座標系である。プロジェクタ座標系は、プロジェクタ10で投射する映像の左上を原点とした座標系である。プロジェクタ10から投射された映像は、投射対象物に投射され、それをカメラ20で撮像することになる。
 基準透視変換行列生成部100には、基準透視変換行列生成部101、マーカー位置算出部102、および、投射基準面マーカー検出部103の各処理部が含まれる。詳細は後述する。
 投射映像生成部110、150は、投射対象物の物体面に合わせて、入力された映像を幾何変換する投射映像生成部である。本実施の形態1では、2つの投射対象物A、Bに対して映像を投射するケースを想定しているため、投射映像生成部を2つ含んだ装置構成となっているが、これは必ずしも2個に限定されるものではない。1個であっても良いし、3個以上の任意の数であっても構わない。また、後述する実施の形態2で説明するように、パソコンのソフトウェア等でこの装置を実現する場合は、動的に個数を変更することも可能である。
 投射映像生成部110、150には、マーカー位置補正部111、映像投射位置算出部113、投射映像識別部114、透視変換部115、映像透視変換行列生成部116、マーカー位置算出部117、マーカー検出部118、および、透視変換部119の各処理部が含まれる。詳細は後述する。
 映像合成部130は、複数の投射映像生成部110、150によって生成された映像を合成する映像合成部であり、ここで合成された映像がプロジェクタ10へ送出される。
 基準マーカー生成部140は、基準透視変換行列80の算出の際に、プロジェクタ10によって投射対象物に投射するマーカーを生成する生成部である。
 映像入力部170は、投射対象物Aへの投射映像70と投射対象物Bへの投射映像71との2つの映像が入力される入力部である。本実施の形態1では、投射映像70、投射映像71は、単に、映像70、映像71とも称する。
 以上のような構成による投射型映像表示装置の動作では、映像入力部170に入力された映像(投射対象物Aへの投射映像70、投射対象物Bへの投射映像71)が投射される。まず、プロジェクタ10において、入力された映像を投射対象物へ投射する。この投射対象物へ投射された映像をカメラ20で撮像する。カメラ20で撮像された映像は、基準透視変換行列生成部100および投射映像生成部110、150へ出力される。
 続いて、基準透視変換行列生成部100において、カメラ20で撮像された映像におけるカメラ座標系を、プロジェクタ10が投射する映像におけるプロジェクタ座標系に変換するための基準透視変換行列を作成する。この基準透視変換行列生成部100で作成された基準透視変換行列は、投射映像生成部110、150へ出力される。
 さらに、投射映像生成部110、150において、カメラ20で撮像された映像および基準透視変換行列生成部100で生成された基準透視変換行列に基づいて、投射対象物の物体面に合わせて、入力された映像を幾何変換する。この投射映像生成部110、150で幾何変換された映像は、映像合成部130へ出力される。
 そして、映像合成部130において、投射映像生成部110、150で生成された映像を合成する。この映像合成部130で合成された映像は、プロジェクタ10へ送出される。
 本実施の形態1における投射型映像表示装置の構成において、映像入力部170は映像入力部の一例であり、基準透視変換行列生成部100、投射映像生成部110、150および映像合成部130は映像入力部で入力された映像に基づいて表示素子を制御する表示制御部の一例であり、カメラ20は複数の映像投射対象面を撮像可能な撮像部の一例である。また、本実施の形態1における投射型映像表示装置の動作において、映像入力部170における動作は映像入力ステップの一例であり、基準透視変換行列生成部100、投射映像生成部110、150および映像合成部130における動作は表示制御ステップの一例であり、カメラ20における動作は撮像ステップの一例である。以下において、各部の構成および動作について、詳細に説明する。
 <プロジェクタ>
 図2は、前述したプロジェクタ10の構成の一例を示す図である。プロジェクタ10は、光源14と、反射鏡15と、照明光学系13と、表示素子12と、投射レンズ11と、表示素子駆動回路31と、映像インターフェース(I/F)(32)とで構成される。光源14は、例えば放電ランプ等からなる。照明光学系13は、例えば集光レンズ等からなる。表示素子12は、例えば液晶パネルまたはDMD(デジタルミラーデバイス)等からなる。投射レンズ11は、投射光学系である。
 図2では、単板式の透過型表示素子プロジェクタを例に挙げているが、これに限定されるものではなく、複数の表示素子や反射型表示素子を使用した構成等であっても構わない。表示素子は、液晶方式でもDMD方式でも構わない。
 光源14から出力された光は、反射鏡15、照明光学系13を経て、表示素子12に照射される。なお、光源14の種類次第では、反射鏡15は必ずしも必要ない。例えば、光源が放電ランプである場合は反射鏡を備えるのが一般的であるが、LED、レーザー光源、レーザー励起デバイス等の固体光源の場合は、反射鏡に替えて、それぞれの光源と配置に合う光学系とを適宜追加すればよい。
 表示素子12は、入力画素値に応じて透過率、反射率、または反射時間が変化する素子を二次元状に多数配置した構造となっており、映像I/F(32)および表示素子駆動回路31を介して入力された投射映像に対応した二次元の透過率、反射率または反射時間分布を実現することができる。すなわち、この表示素子12へ照射された光は、表示素子12により変調され、投射レンズ11等の投射光学系を通してスクリーン等の対象物へ投射される。
 <カメラ、プロジェクタ、投射基準面の位置関係>
 図3は、前述したカメラ20、プロジェクタ10、投射基準面の位置関係の一例を示す図である。本実施の形態1では、図3のように、プロジェクタ10、カメラ20、投射対象物A(50)が配置されているケースを用いて説明する。図3は、これらの構成要素から構成される装置を横方向から見た図であるが(プロジェクタ10の上にカメラ20が載っている場合)、これが上下方向から見た図である場合等にも(プロジェクタ10に対し向かって右側にカメラ20がある場合等)、以下の説明に支障は生じない。すなわち、これらの位置関係は相対的なものである。
 この図3において、投射基準面40は、カメラ座標系からプロジェクタ座標系への透視変換を行う際の基準となる面であり、この面を基準にカメラ座標系からプロジェクタ座標系への透視変換行列を算出する。この例では、プロジェクタ10と投射基準面40との間の距離はL0離れているとしている。また、投射対象物A(50)の投射面は、この投射基準面40に一致しているものとする。
 <基準透視変換行列生成部の動作>
 最初に、図1の基準透視変換行列生成部100の動作について説明する。基準透視変換行列生成部100で生成するのは、カメラ座標系からプロジェクタ座標系への変換行列である基準透視変換行列80である。本行列の生成処理は、最初に一度だけ行えば良く、プロジェクタ10とカメラ20とを動かさない限り、投射対象物が移動しても再度実施する必要は無い。すなわち、投射対象物が移動して、投射レンズ11からの距離が時間と共に変化しうる対象物に対しても適用可能である。
 基準透視変換行列80を作成する際には、図4に示すように投射基準面40に沿う様に、調整用スクリーン60を設置する。図4は、投射基準面40に調整用スクリーン60を設置した状態の一例を示す図である。原理的には、投射対象物A(50)の投射面を調整用スクリーン60の代わりに使用することも可能であるが、ここで使用する投射面が広いほど基準透視変換行列80を高精度に生成できるため、ここでは調整用スクリーン60を用いた場合について説明する。
 調整用スクリーン60を設置した状態で、カメラ20で撮像される映像の例を図5に示す。図5は、カメラ20で撮像される映像の一例を示す図である。この図5において、25はカメラ20で撮像されるカメラ撮像範囲の全体であり、この中に調整用スクリーン60が写っている。この例では、調整用スクリーン60の全体がカメラ撮像範囲25に完全に含まれているが、必ずしもこのようになっている必要はない。
 調整用スクリーン60には、プロジェクタ10から投射された映像がプロジェクタ投射範囲16へ投射される。図5では、プロジェクタ投射範囲16は、調整用スクリーン60に包含される形になっているが、必ずしもこのようになっている必要はない。また、プロジェクタ投射範囲16が長方形ではなく、歪んだ四角形となっている場合も本発明は有効である。
 カメラ座標系上の点(Xc,Yc)を、基準透視変換行列80を用いた透視変換によってプロジェクタ座標系上の点(Xp,Yp)に変換する場合の式を式1、式2に示す。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 これらの式において、透視変換行列Mcpは、(Xc,Yc)とそれに対応する(Xp,Yp)との組を4点与えることによって、一意に決定することが可能である。
 そこで、基準透視変換行列80の算出の際には、図1に記載されている基準マーカー生成部140によって、図5に記載されているマーカーP00、P10、P01、P11を一つずつ表示し、プロジェクタ10によって調整用スクリーン60上に投射する。これをカメラ20で撮像し、投射基準面マーカー検出部103、マーカー位置算出部102によって、各マーカーに対応したカメラ座標系の座標(Xc,Yc)を得る。このようにして、カメラ画像から得られた4つの座標(Xc,Yc)と、基準マーカー生成部140が使用したプロジェクタ座標系における各マーカーの座標(Xp,Yp)との組を用いて、基準透視変換行列生成部101が、透視変換行列Mcp(基準透視変換行列80)を算出する。ここで、投射基準面マーカー検出部103は、色や輝度やマーカー形状等の特徴を用いてマーカーを検出している。
 <投射映像生成部の動作>
 次に、算出された基準透視変換行列80を用いて、投射映像生成部110の動作により、投射対象物A(50)に映像を投射する方法を説明する。前述のように、投射対象物A(50)の投射面は投射基準面40上にある。ここでは、説明を簡単にするため、図6に示すように、投射対象物A(50)の4隅にマーカーT00、T10、T01、T11を貼り付けてある場合を想定して説明する。図6は、カメラ20で撮像した投射対象物A(50)およびその周辺の一例を示す図である。投射対象物A(50)の4隅に貼り付けるマーカーは、特定の色のついたシールであっても良いし、前述したように赤外光のLED等でも構わない。また、マーカーを使わずに、パターンマッチング等で投射対象物A(50)の位置・形状を取得しても構わない。本実施の形態1では、投射対象物A(50)の投射面の形状は四角形を想定しているが、これは、曲面やより複雑な形状であっても構わない。この様な場合には、投射面を三角形や四角形等の小領域に分割して、それぞれの領域面に対して、本発明の変換を実施した上で映像を投射することで対応が可能となる。
 本実施の形態1では、投射対象物A(50)の投射面とそこに投射するための映像70はどちらも四角形であり、マーカーT00、T10、T01、T11は投射対象物A(50)の投射面の4隅に位置するものとして説明を行う。これら4つのマーカーをカメラ20で撮像し、マーカー検出部118、マーカー位置算出部117で処理することにより、各マーカーのカメラ座標系における座標(Xmc、Ymc)を得ることができる。
 なお、理想的には、これらのマーカーは面積0で、投射面の4隅に位置するのが良いが、実際にカメラ20で検出を行う際には、ある程度の面積を持ち、投射面の4隅よりも多少内側に位置することになる。このような場合は、マーカーの形状・面積や投射面における座標を用いた補正を行うことで、実際の投射面の4隅の座標を得るものとする。
 また、投射対象物が投射基準面40上に無い場合は、後述するマーカー位置の補正が必要であるが、投射対象物A(50)は投射基準面40上にあり、マーカー位置を補正する必要がないため、ひとまずマーカー位置補正部111における処理については無視して説明を続ける。先ほど得られた各マーカーのカメラ座標系における座標(Xmc、Ymc)に対して、基準透視変換行列80を用いた透視変換部115による処理を適用すると、各マーカーのプロジェクタ座標系における座標(Xmp、Ymp)が得られる。
 各マーカーは、投射対象物A(50)の4隅に位置しているので、基準透視変換行列80の算出の際に用いた方法と同様に、投射対象物A(50)へ投射する映像70の4隅の座標(Xi、Yi)からプロジェクタ座標系における投射対象物A(50)の4隅の座標(Xmp、Ymp)への透視変換行列(映像透視変換行列81)を算出することが可能である。本行列の算出処理は、映像透視変換行列生成部116にて実施される。
 このようにして算出された映像透視変換行列81を用いて、透視変換部119によって投射対象物A(50)へ投射する映像70の各画素に対して順次透視変換を適用し、必要に応じて画素の補間処理を行うことで投射映像生成部110の出力映像が生成される。これを、映像合成部130を経由してプロジェクタ10へ送出し、投射することで、投射対象物A(50)の投射面に合致した形で、映像70を投射することが可能となる。
 次に、投射基準面40上に存在しない別の投射対象物B(51)に映像を投射する場合について説明する。投射対象物B(51)への投射映像は、投射映像生成部110ではなく、投射映像生成部150で生成する。両者の内部構造は基本的に同じであるが、マーカー検出部118におけるマーカー検出条件を変更することで、投射対象物A(50)と投射対象物B(51)とを区別して扱えるようになっている。
 ここでは、単純に投射対象物A(50)と投射対象物B(51)とでは、異なる色のマーカーを使うことで両者を判別することとしている。その他の方法としては、マーカー形状を変えるとか、LEDマーカーの点灯パターンを変えるなどの方法も考えられる。
 図7は、別の投射対象物B(51)をカメラ20で撮像する様子の一例を示す図である。図7に示すように、投射対象物B(51)はプロジェクタ10から距離L1だけ離れた位置に置かれている。これは、プロジェクタ10と投射基準面40との間の距離L0よりも短い距離である(本発明はL0≦L1であっても同様に成立する)。
 これを、プロジェクタ10と光軸が一致していないカメラ20で撮像すると、投射対象物B(51)はカメラ20と投射対象物B(51)との延長線上にある仮想的な位置55にあるかのように撮像されることになる。この仮想的な位置55は、投射基準面40上の投射対象物B(51)のカメラ像仮想位置である。この状態で、投射対象物A(50)と同様の手順で投射対象物B(51)に映像71を投射すると、仮想的な位置55に合致する形で透視変換部119における処理が実施されるため、図8に示す位置91に対して映像が投射されることになる。これを正面から見ると、図9に示すように、投射対象物B(51)とずれた位置91に映像が投射されていることになる。図8は、投射対象物B(51)へプロジェクタ10で映像を投射する様子の一例を示す図である。図9は、投射対象物B(51)と投射映像との位置ずれの一例を示す図である。
 本実施の形態1の方式では、カメラ20を用いて、位置91に投射された映像を取り込み、このずれ量を計測してフィードバックすることでずれを軽減する。すなわち、このフィードバック処理では、投射対象物B(51)の位置と、この投射対象物B(51)への映像表示の位置91とのずれ量である差分が小さくなるように制御する。本方式では、まずカメラ20から取り込んだ映像を投射対象物B(51)向けの映像を処理する投射映像生成部150(以下の説明において、投射映像71に関する処理は、投射映像生成部110ではなく投射映像生成部150で処理するものとする)の内部にある投射映像識別部114において、投射映像71とパターンマッチングを行い、その結果をもとに映像投射位置算出部113は、投射映像71の投射位置を算出する。このパターンマッチング処理は、カメラ20から取り込んだ映像または投射映像71に対して透視変換を行った後に実施しても良いし、透視変換を行わずに実施しても構わない。
 ここで算出される投射映像71の投射位置は、カメラ20の撮像映像の中にある投射映像71の投射位置91の4隅の座標をカメラ座標系で表した数値である。マーカー位置補正部111は、これらの数値とマーカー位置算出部117が算出した投射対象物B(51)の4隅の座標を比較し、座標のずれ量を算出し、このずれ量を用いてマーカー位置算出部117が算出した投射対象物B(51)の4隅の座標に対して補正処理を行う。
 補正の方法についてはいくつか考えられるが、本実施の形態1では図10に示す構成に基づいた方式を使用する。この図10は、マーカー位置補正部111の内部およびその周辺処理部の一例を示す図である。マーカー位置補正部111は、補正量生成部200と、加算器210と、減算器220とで構成される。補正量生成部200には、1フレーム遅延部201、加算器202、および、セレクタ203を含んでいる。
 本実施の形態1では、プロジェクタ10とカメラ20との光軸はY方向のみが不一致となっているため、マーカー位置補正部111では座標のY方向の補正のみを行う。マーカー位置補正部111には、映像投射位置算出部113がパターンマッチングによって算出した映像71の投射位置91の4隅のY座標160と、マーカー位置算出部117によって求められた投射対象物B(51)の投射面の4隅のX座標161、Y座標162が入力される。このうち、4隅のX座標161については、そのまま透視変換部115へ送られる。
 ここで、それぞれの隅について、減算器220によって、Y座標160とY座標162とを比較する。なお、隅は4つあるので、減算器220は論理的には4個必要となるが、本実施の形態1ではこれを時分割処理することを想定しているため、図10には1個のみの記載となっている。その他の構成要素についても同様に時分割処理を想定している(ただし1フレーム遅延部201内の記憶素子については4隅分必要である)。
 補正量生成部200は、加算器210でY座標162に加算する補正量163を生成するものであり、減算器220によって出力される位置ずれが小さくなるように補正量163を生成する。例えば、パターンマッチングにより算出したY座標160がマーカーから算出したY座標162よりも大きいケース、すなわち、映像71の表示位置91が投射対象物B(51)よりも下側にある場合は、補正量163が負の数になるように補正量生成部200は動作することになる。補正量生成部200は、1フレーム遅延部201、加算器202およびセレクタ203からなるフィードバック系を有しており、その出力163は減算器220の出力に応じて1フレームごとに+dまたは-d増減する。dは補正量163の変化する速度を決めるパラメータになっており、dを大きくすると補正量の変化が速くなり、追従速度は改善するが、補正量163の出力が振動しやすくなるため、dについては小さめの値を設定したほうが良い結果を得やすい。
 <投射型映像表示装置の外観>
 本実施の形態1における投射型映像表示装置は、図11に示すように、カメラ20とプロジェクタ10とを異なる筐体で実現し、プロジェクタ10の上に別筐体のカメラ20を搭載した構造となる。図11は、カメラ20とプロジェクタ10とを異なる筐体で実現した場合の外観の一例を示す図である。なお、本実施の形態1は、図11のような構造に限定されるものではない。例えば、図12に示すように、カメラ20とプロジェクタ10とを単一の筐体で実現し、カメラ20をプロジェクタ10の内部に内蔵しても構わない。図12は、カメラ20とプロジェクタ10とを単一の筐体で実現した場合の外観の一例を示す図である。また、カメラ20は、必ずしもプロジェクタ10の投射レンズ11の上方に存在する必要はなく、下方、または左右や斜めに存在する場合であっても本発明の手法は有効となる。
 <実施の形態1の効果>
 以上説明したように、本実施の形態1における投射型映像表示装置および映像表示方法によれば、投射対象物A(50)、B(51)と投射映像70、71との間の位置ずれを軽減することができる。すなわち、カメラ20で撮像したマーカーT00、T10、T01、T11の位置とカメラ20で撮像した投射映像の位置91との間の位置ずれを映像透視変換行列81にフィードバック制御する手法を用いて、投射対象物A(50)、B(51)と投射映像70、71との間の位置ずれを軽減することができる。この結果、プロジェクタ10とカメラ20との光軸が一致していない場合であっても、異なる距離に置かれた投射対象物A(50)、B(51)に対して、それらと適合する形に映像を変換し、投射することが可能となる。より詳細には、以下の通りである。
 (1)投射型映像表示装置は、投射レンズ11からの距離が異なる複数の投射対象物A(50)、B(51)に対して映像を投射する装置であり、光源14と、表示素子12と、投射レンズ11と、映像入力部170と、基準透視変換行列生成部100、投射映像生成部110、150および映像合成部130と、カメラ20と、を備える。そして、投射対象物A(50)に投射映像70を投射し、投射対象物B(51)に投射映像71を投射するための設定処理として、基準透視変換行列生成部100、投射映像生成部110、150および映像合成部130は、カメラ20の撮像結果に基づいて、投射対象物A(50)に対する映像投射位置の調整処理と、投射対象物B(51)に対する映像投射位置の調整処理とをそれぞれ行う。これにより、投射対象物A(50)、B(51)と投射映像70、71との間の位置ずれを軽減することができる。
 (2)基準透視変換行列生成部100、投射映像生成部110、150および映像合成部130による調整処理は、カメラ20によって取得した投射対象物B(51)の位置と、カメラ20によって取得したプロジェクタ10の投射映像の位置との差分が小さくなるように制御するフィードバック処理を含む。このように、調整処理にフィードバック処理を含むことにより、投射対象物A(50)、B(51)と投射映像70、71との間の位置ずれを軽減することができる。
 (3)投射対象物A(50)、B(51)の位置の検出処理は、投射対象物A(50)、B(51)上に存在するマーカーT00、T10、T01、T11をカメラ20によって取得することで行う。マーカーT00、T10、T01、T11は、赤外光のLED等の光源であり、人間に見ることのできない波長の光を発生することが可能である。カメラ20は、赤外線カメラ等であり、光源が発生する光を感知することが可能となる。
 (4)投射型映像表示装置が、投射レンズ11からの距離が時間と共に変化しうる投射対象物B(51)に対して映像を投射する装置の場合には、投射対象物B(51)に投射映像71を投射するための設定処理として、基準透視変換行列生成部100、投射映像生成部110、150および映像合成部130は、カメラ20の撮像結果に対して調整処理を行ったうえで、投射対象物B(51)に適合させるための幾何変換に必要な情報の生成を行う。これにより、投射対象物B(51)が移動して、投射レンズ11からの距離が時間と共に変化しうる投射対象物B(51)に対しても、投射対象物B(51)と投射映像71との間の位置ずれを軽減することができる。
 (5)本実施の形態1によれば、カメラ20を用いて、投射対象物A(50)、B(51)およびこの投射対象物A(50)、B(51)へ投射する投射映像70、71の位置を特定し、両者の位置の差分が小さくなるようにフィードバック処理を行うことで、投射対象物A(50)、B(51)に対して投射映像70、71を、位置ずれを軽減して投射することが可能となる。
 [実施の形態2]
 実施の形態2における投射型映像表示装置および映像表示方法について、図13を用いて説明する。本実施の形態2では、前記実施の形態1と異なる点を主に説明する。
 前記実施の形態1では、それぞれの基本的な処理を専用の電子回路等の機能モジュールで実現することを想定して説明したが、これらはパソコンのような汎用装置上のソフトウェアで実現しても構わない。本実施の形態2は、投射型映像表示装置の構成の一部をパソコンで実現する場合の一例である。
 <投射型映像表示装置>
 本実施の形態2における投射型映像表示装置について、図13を用いて説明する。図13は、本実施の形態2における投射型映像表示装置の構成の一例を示す図である。
 本実施の形態2における投射型映像表示装置は、プロジェクタ10と、カメラ20と、パソコン500と、キーボード/マウス509とで構成される。
 パソコン500は、一般的なパソコンとほぼ同一の構成であり、チップセット501、主記憶装置502、GPU503、映像出力インターフェース(I/F)504、内部バス505、ハードディスクインターフェース(HDDI/F)506、汎用周辺機器インターフェース(USBI/F)507、ハードディスク(HDD)508、CPU510、映像入力インターフェース(I/F)511等で構成される。
 パソコン500では、CPU510、主記憶装置502、チップセット501、GPU503等の基本的な演算処理部に対し、内部バス505や専用バス等を用いて映像入力インターフェース511、映像出力インターフェース504、ハードディスクインターフェース506、汎用周辺機器インターフェース507等を介して、プロジェクタ10、カメラ20、ハードディスク508、キーボード/マウス509等が接続されている。
 このパソコン500では、前記実施の形態1における、基準透視変換行列生成部100、投射映像生成部110、150、映像合成部130、基準マーカー生成部140、および、映像入力部170と同様の処理を、ソフトウェア処理で実施することができる。すなわち、このソフトウェア処理では、投射型映像表示装置における映像表示方法の映像入力ステップおよび表示制御ステップの処理を行う。例えば、映像入力ステップは映像入力インターフェース511における動作であり、表示制御ステップはチップセット501、主記憶装置502、GPU503およびCPU510における動作である。また、カメラ20では、撮像ステップの動作が行われる。
 プロジェクタ10で、投射対象物A(50)、B(51)に投射する投射映像70、71としては、映像入力インターフェース511から入力する場合に限らず、ハードディスク508に格納された動画やCPU510やGPU503で描画したグラフィックス等が考えられる。映像が、ハードディスク508に格納されている場合やCPU510で生成される場合等は、CPU510やハードディスク508の性能さえ満足していれば、プロジェクタ10で投射する投射対象物の個数に上限は存在しないことになる。
 <実施の形態2の効果>
 以上説明したように、本実施の形態2における投射型映像表示装置および映像表示方法によれば、投射型映像表示装置の一部をパソコン500で実現する場合においても、前記実施の形態1と同様の効果を得ることができる。
 より詳細に、本実施の形態2によれば、投射型映像表示装置における調整処理をソフトウェア処理で実施することができる。すなわち、投射型映像表示装置における映像表示方法の表示制御ステップでは、投射対象物A(50)に投射映像70を投射し、投射対象物B(51)に投射映像71を投射するための設定処理として、パソコン500は、カメラ20の撮像結果に基づいて、投射対象物A(50)に対する映像投射位置の調整処理と、投射対象物B(51)に対する映像投射位置の調整処理とをそれぞれ行う。これにより、投射対象物A(50)、B(51)と投射映像70、71との間の位置ずれを軽減することができる。
 [実施の形態3]
 実施の形態3における投射型映像表示装置および映像表示方法について、図14を用いて説明する。本実施の形態3では、前記実施の形態2と異なる点を主に説明する。
 前記実施の形態2では、プロジェクタ10、カメラ20、パソコン500は異なる筐体であり、これらの間をケーブルや無線等で接続している場合を想定していたが、これらは一つの筐体内に格納しても構わない。本実施の形態3は、投射型映像表示装置の構成の全てを一つの筐体内に格納する場合の一例である。
 <投射型映像表示装置>
 本実施の形態3における投射型映像表示装置について、図14を用いて説明する。図14は、本実施の形態3における投射型映像表示装置の構成の一例を示す図である。
 本実施の形態3における投射型映像表示装置であるプロジェクタ18において、映像投射部19は図13のプロジェクタ10に相当する機能を持ち、映像撮像部29は図13のカメラ20に相当する機能を持ち、その他の部分は図13のパソコン500に相当する機能を持つ。ただし、本実施の形態3における投射型映像表示装置は一般的なプロジェクタ18を想定し、キーボード/マウス509については、操作パネル515に置き換えている。操作パネル515は、液晶等のモニタ表示とスイッチ類から構成されるが、単にスイッチ類のみであっても構わない。
 <実施の形態3の効果>
 以上説明したように、本実施の形態3における投射型映像表示装置および映像表示方法によれば、投射型映像表示装置であるプロジェクタ18の構成の全てを一つの筐体内に格納する場合においても、前記実施の形態1および2と同様の効果を得ることができる。
 [実施の形態4]
 実施の形態4における投射型映像表示装置および映像表示方法について、図15~図27を用いて説明する。本実施の形態4では、前記実施の形態1~3と異なる点を主に説明する。
 前記実施の形態1~3では、投射位置のずれを1台のカメラを用いて補正していたが、本実施の形態4では複数台のカメラを用いる方法について説明する。
 <投射型映像表示装置>
 本実施の形態4における投射型映像表示装置について、図15を用いて説明する。図15は、本実施の形態4における投射型映像表示装置の構成の一例を示す図である。
 本実施の形態4における投射型映像表示装置は、プロジェクタ10と、複数(図15では2つの例を図示)のカメラ20、21と、複数(図15では2つの例を図示)の基準透視変換行列生成部100a、102bと、複数(図15では2つの例を図示)の投射映像生成部120、121と、映像合成部130と、基準マーカー生成部140と、映像入力部170とで構成される。
 基準透視変換行列生成部100a、100bには、それぞれ、基準透視変換行列生成部101、マーカー位置算出部102、および、投射基準面マーカー検出部103の各処理部が含まれる。投射映像生成部120、121には、それぞれ、マーカー位置補正部125、透視変換部115a、115b、映像透視変換行列生成部116、マーカー位置算出部117a、117b、マーカー検出部118a、118b、および、透視変換部119の各処理部が含まれる。基準透視変換行列生成部100a、100bおよび投射映像生成部120、121における各構成部の動作は前記実施の形態1と同様である。
 本実施の形態4における投射型映像表示装置では、2台のカメラ20、21を用いて投射位置のずれを補正している。
 <カメラ、プロジェクタ、投射基準面の位置関係>
 図16は、前述したカメラ20、21、プロジェクタ10、投射基準面の位置関係の一例を示す図である。本実施の形態4では、図16に示すように、プロジェクタ10の上側にカメラ20を、下側にカメラ21を設置している。ここでは、カメラ20の光軸とプロジェクタ10の光軸との間の距離と、カメラ21の光軸とプロジェクタ10の光軸との間の距離とが等しくなるように、カメラ20、21を設置しているものとする。それぞれのカメラ20、21は、基準透視変換行列生成部100a、100bに接続されており、図17のように調整用スクリーン60を用いて、基準透視変換行列を算出する。図17は、投射基準面40に調整用スクリーン60を設置した状態の一例を示す図である。基準透視変換行列の算出方法については、前記実施の形態1で説明した方法と同じであるため、ここではその詳細を説明しないが、カメラ20とカメラ21とでは、プロジェクタ10や調整用スクリーン60に対する位置関係が異なるため、基準透視変換行列も異なるものとなる点に注意する必要がある。
 次に、投射基準面40上に存在しない投射対象物B(51)に対し、上側のカメラ20を用いて投射位置を決定して、映像を投射した場合の例を図18、図19に示す。図18は、投射対象物B(51)をカメラ20で撮像する様子の一例を示す図である。図19は、投射対象物B(51)へプロジェクタ10で映像を投射する様子の一例を示す図である。図18に示すように、投射対象物B(51)は、カメラ20からは、投射基準面40上の位置56に存在するように見えることになる。ここで、56tは、位置56に存在する投射面に相当する四角形の右上隅の点である。この状態で、何も補正を行わずにプロジェクタ10によって投射対象物B(51)へ映像を投射すると、図19の位置92に、投射対象物B(51)からずれて投射されることになる。
 同様に、投射基準面40上に存在しない投射対象物B(51)に対し、下側のカメラ21を用いて投射位置を決定し、映像を投射した例を図20、図21に示す。図20は、投射対象物B(51)をカメラ21で撮像する様子の一例を示す図である。図21は、投射対象物B(51)へプロジェクタ10で映像を投射する様子の一例を示す図である。図20に示すように、投射対象物B(51)は、カメラ21からは、投射基準面40上の位置57に存在するように見えることになる。ここで、57tは、位置57に存在する投射面に相当する四角形の右上隅の点である。この状態で、何も補正を行わずにプロジェクタ10によって投射対象物B(51)へ映像を投射すると、図21の位置93に、投射対象物B(51)からずれて投射されることになる。
 このように、プロジェクタ10と光軸が一致しないカメラ20またはカメラ21を用いて、投射対象物B(51)への投射位置を算出すると、実際の投射対象物B(51)からずれた位置に映像が投射されてしまうことになる。
 ここで、理想的なケースとしてプロジェクタ10の光軸とカメラの光軸とが完全に一致している場合を考える。これを図22に示す。図22は、投射対象物B(51)をカメラ付きプロジェクタ10aのカメラで撮像する様子の一例を示す図である。この図22において、10aは、プロジェクタおよびプロジェクタと完全に光軸が一致しているカメラを含むカメラ付きプロジェクタである。この場合、カメラ付きプロジェクタ10aに搭載されたカメラで撮像すると、投射対象物B(51)は投射基準面40上の位置58に存在するように見えることになる。ここで、58tは、位置58に存在する投射面に相当する四角形の右上隅の点である。この状態で、カメラ付きプロジェクタ10aに搭載されたプロジェクタで何も補正を行わずに投射対象物B(51)へ映像を投射すると、図22の位置94に、投射対象物B(51)に合致して正しく投射されることになる。
 このようにプロジェクタとカメラとの光軸が完全に揃っていれば、投射対象物の距離によらず、位置ずれ無しに表示が可能である。プロジェクタとカメラとの光軸がずれている場合であっても、仮想的にプロジェクタ10の位置にカメラがあると仮定した場合の投射対象物B(51)の投射基準面40における位置58の4隅の座標を求めることができれば、投射対象物B(51)へ位置ずれ無しに映像を投射することが可能となる。
 この座標を求める方法について、図18、図20、図22における、四角形の右上隅の点56t、57t、58tの位置関係を1枚の図面に重ねたて図示した図23を用いて説明する。図23は、カメラ20、21の位置に応じた投射対象物B(51)の映り方の一例を示す図である。この図23において、点56tはカメラ20を用いた場合に得られる投射対象物B(51)の右上隅の投射基準面40上の像の位置、点57tはカメラ21を用いた場合に得られる投射対象物B(51)の右上隅の投射基準面40上の像の位置、点58tはプロジェクタ10の位置にカメラを置いた場合に得られる投射対象物B(51)の右上隅の投射基準面40上の像の位置である。
 図23では、カメラ20と点56tを結ぶ直線と、プロジェクタ10と点58tとを結ぶ直線とが点68で交差しており、点68の両端に相似形の三角形が2個形成されている。同様のことが、点57tに関しても言えることから、点56tと点58tとの距離と、点57tと点58tとの距離との比は、カメラ20とプロジェクタ10との光軸間の距離と、カメラ21とプロジェクタ10との光軸間の距離との比に等しいことになる。今回の例では、カメラ20とプロジェクタ10との光軸間の距離と、カメラ21とプロジェクタ10との光軸間の距離とは等しいので、点56tと点57tとのちょうど中央に点58tが存在することになり、点56tと点57tとの座標から、点58tの座標を一意に求めることが可能である。
 ここでは、4隅の代表として、右上隅を用いて説明したが、他の3つの隅(左上隅、右下隅、左下隅)についても同様のことが言える。
 <投射映像生成部の動作>
 前述した座標を求める方法を使って、図15の構成ではプロジェクタ10の位置にカメラ20、21が置かれた場合の投射対象物B(51)の投射基準面40上の像の位置58の4隅の座標を求め、これを用いて映像透視変換行列81を算出し、透視変換を実施する。
 図15において、120は投射対象物A(50)へ投射するための映像を生成する投射映像生成部であり、121は投射対象物B(51)へ投射するための映像を生成する投射映像生成部である。両者の構造は、マーカー検出の条件が異なる以外(詳細は前記実施の形態1参照)は同一であり、また投射映像生成部の個数は2個に限定されるものではない。
 本実施の形態4は、投射対象物B(51)に対する説明なので、説明対象の投射映像生成部は投射映像生成部121のことである。図15において、カメラ20、21から入力された映像は、マーカー検出部118a、118b、マーカー位置算出部117a、117bに入力され、それぞれのカメラ20、21のカメラ座標系における4つのマーカー座標(=投射対象物Bの4隅の座標)が算出される。これを、基準透視変換行列を用いた透視変換部115a、115bでプロジェクタ座標系に変換する。
 マーカー位置補正部125では、カメラ20から得られた投射対象物B(51)の4隅のマーカー位置と、カメラ21から得られた投射対象物B(51)の4隅のマーカー位置とについて、それぞれの隅毎にY座標の平均値を求めることで、プロジェクタ10の位置にカメラ20、21が置かれたと仮定した場合の投射対象物B(51)の4隅のマーカー位置を算出する。この4隅の座標を用いて、映像透視変換行列生成部116において、映像透視変換行列81を作成し、さらに、透視変換部119で投射対象物B(51)への投射映像71に対して透視変換を行い、変換後の投射映像を得る。
 それぞれの投射映像生成部120、121によって生成された変換後の投射映像は、映像合成部130によって合成され、プロジェクタ10によって投射される。このようにすることで、プロジェクタ10と投射対象物の距離に依存せずに、正しく映像を投射することが可能となる。
 <投射型映像表示装置の外観>
 本実施の形態4における投射型映像表示装置は、プロジェクタ10の内部にカメラ20、21を内蔵し、図24、図25に示すような構造で実現できる。図24は、投射レンズ11の上下にカメラ20、21を配置したプロジェクタ10の外観の一例を示す図である。この図24の例では、ここまで説明してきたように、プロジェクタ10の投射レンズ11の上下にカメラ20とカメラ21とを光軸間の距離が等しくなるように配置している。プロジェクタ10の投射レンズ11、カメラ20、21は光軸の水平位置が一致するように配置されており、マーカー位置補正部125は、それぞれのカメラ20、21から得られたマーカー位置について、垂直方向に平均化して映像透視変換行列生成部116に使用するマーカー座標を算出している。
 図25は、投射レンズ11の左右にカメラ20、21を配置したプロジェクタ10の外観の一例を示す図である。この図25の例では、プロジェクタ10の投射レンズ11の左右にカメラ20とカメラ21とを光軸間の距離が等しくなるように配置している。プロジェクタ10、カメラ20、21は光軸の垂直位置が一致するように配置されており、マーカー位置補正部125は、それぞれのカメラ20、21から得られたマーカー位置について、水平方向に平均化して映像透視変換行列生成部116で使用するマーカー座標を算出している。
 すなわち、図24、図25のような構造における投射映像生成部121の調整処理は、カメラ20によって取得した投射対象物B(51)のマーカー位置と、カメラ21によって取得した投射対象物B(51)のマーカー位置とに対して、あらかじめ定義された1:1の比率による重み付けの平均化処理演算を施すことによって得られるマーカー座標を用いた演算処理を行う。
 なお、図24、図25の構成では、カメラ20、21の光軸の中央にプロジェクタ10の光軸が一致するように、カメラ20、21とプロジェクタ10の投射レンズ11とを配置しているが、本実施の形態4はこれに限定されるものではない。例えば、投射レンズ11は、必ずしもカメラ20、21の中央に存在している必要は無い。この例を、図26に示す。
 図26は、投射レンズ11の左右にカメラ20、21を異なる距離で配置したプロジェクタ10の外観の一例を示す図である。この図26の例では、カメラ20と投射レンズ11との光軸間の距離をa、カメラ21と投射レンズ11との光軸間の距離をb=2×aとした場合のプロジェクタ10の外観を示している。この構成において、プロジェクタ10や投射基準面40の関係を上から見た図を図27に示す。図27は、カメラ20、21の位置に応じた投射対象物B(51)の映り方の一例を示す図である。この図27に示すように、投射レンズ11がカメラ20、21の中央に配置されていない場合であっても、カメラ20から得られた投射対象物B(51)の投射基準面40上における座標85と、カメラ21から得られた投射対象物B(51)の投射基準面40上における座標86とを、a’:b’=a:bの比率に従って分割することで、プロジェクタ10の投射レンズ11の位置にカメラ20、21を置いたと仮定した場合の投射対象物B(51)の投射基準面40上における座標87を得ることが可能となる。これを用いて映像透視変換行列81を作成することで、投射対象物B(51)とプロジェクタ10との距離によらず、正しい位置に映像を投射することが可能となる。
 すなわち、図26、図27のような構造における投射映像生成部121の調整処理は、カメラ20によって取得した投射対象物B(51)の座標85と、カメラ21によって取得した投射対象物B(51)の座標86とに対して、あらかじめ定義されたa:bの比率による重み付け演算を施すことによって得られる座標87を用いた演算処理を行う。
 <変形例>
 また、本実施の形態4の構成は、前記実施の形態2、3において図13、図14を用いて説明したのと同様に、ソフトウェア処理で実現することも可能である。この場合には、図13中のカメラ20や図14中の映像撮像部29は複数個搭載することになる。
 <実施の形態4の効果>
 以上説明したように、本実施の形態4における投射型映像表示装置および映像表示方法によれば、複数台のカメラ20、21を用いてカメラ20、21とプロジェクタ10との光軸ずれの影響を相殺し、適切な透視変換行列を生成する手法を用いて、前記実施の形態1~3と同様の効果を得ることができる。より詳細に、本実施の形態4において、前記実施の形態1~3と異なる効果は、以下の通りである。
 (1)カメラ20、21は、複数台であり、投射レンズ11から映像が照射される側の空間の投射レンズ11の光軸上からプロジェクタ10を見た場合に、カメラ20、21が投射レンズ11を挟む位置関係に配置される。これにより、プロジェクタ10とカメラ20、21との光軸が一致していない場合であっても、複数台のカメラ20、21を用いて、カメラ20、21とプロジェクタ10との光軸ずれの影響を相殺し、適切な透視変換行列を生成することができる。
 (2)基準透視変換行列生成部100a、100b、投射映像生成部120、121および映像合成部130による調整処理は、カメラ20によって取得した投射対象物B(51)の位置情報と、カメラ21によって取得した投射対象物B(51)の位置情報とを用いて算出した位置情報を用いた演算処理である。これにより、カメラ20、21を用いてカメラ20、21とプロジェクタ10との光軸ずれの影響を相殺し、投射対象物B(51)と投射映像71との間の位置ずれを軽減することができる。
 (3)基準透視変換行列生成部100a、100b、投射映像生成部120、121および映像合成部130による調整処理は、カメラ20によって取得した投射対象物B(51)の位置情報と、カメラ21によって取得した投射対象物B(51)の位置情報とに対して、あらかじめ定義された比率による重み付け演算を施すことによって得られる位置情報を用いた演算処理である。例えば、あらかじめ定義された比率による重み付けは、1:1の平均化処理である。また、あらかじめ定義された比率による重み付けは、a:bの比率による処理である。このように、調整処理にあらかじめ定義された比率による重み付け演算を施すことにより、投射対象物B(51)と投射映像71との間の位置ずれを軽減することができる。
 (4)投射型映像表示装置は、プロジェクタ10の投射レンズ11と同一の筐体に複数のカメラ20、21が搭載されている。これにより、同一の筐体内において、調整処理で使用する映像を取得することができる。
 (5)複数台のカメラ20、21と投射レンズ11とは、同一直線状に配置されている。カメラ20と投射レンズ11との中心距離と、カメラ21と投射レンズ11との中心距離とが等しい。これにより、複数台のカメラ20、21を用いた場合でも、カメラ20、21とプロジェクタ10との光軸ずれの影響を相殺することができる。
 以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
 また、上記実施の形態は、本発明を分かり易く説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施の形態の構成の一部を他の実施の形態の構成に置き換えることが可能であり、また、ある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 また、上記の各構成は、それらの一部又は全部が、ハードウェアで構成されても、プロセッサでプログラムが実行されることにより実現されるように構成されてもよい。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
10:プロジェクタ、11:投射レンズ、12:表示素子、13:照明光学系、14:光源、15:反射鏡、18:プロジェクタ、20:カメラ、21:カメラ、40:投射基準面、50:投射対象物A、51:投射対象物B、60:調整用スクリーン、70:投射対象物Aへの投射映像、71:投射対象物Bへの投射映像、80:基準透視変換行列、81:映像透視変換行列、100、100a、100b:基準透視変換行列生成部、101:基準透視変換行列生成部、102:マーカー位置算出部、103:投射基準面マーカー検出部、110:投射映像生成部、111:マーカー位置補正部、113:映像投射位置算出部、114:投射映像識別部、115、115a、115b:透視変換部、116:映像透視変換行列生成部:117、117a、117b:マーカー位置算出部、118、118a、118b:マーカー検出部、119:透視変換部、120:投射映像生成部、121:投射映像生成部、125:マーカー位置補正部、130:映像合成部、140:基準マーカー生成部、150:投射映像生成部、500:パソコン。

Claims (12)

  1.  投射レンズからの距離が異なる複数の映像投射対象面に対して映像を投射する投射型映像表示装置であって、
     光源と、
     前記光源からの光を変調する表示素子と、
     前記表示素子からの光を投射する投射レンズと、
     映像入力部と、
     前記映像入力部で入力された映像に基づいて前記表示素子を制御する表示制御部と、
     前記複数の映像投射対象面を撮像可能な一つまたは複数の撮像部と、
     を備え、
     前記複数の映像投射対象面のうち、第1の映像投射対象面に前記映像入力部に入力された第1の映像を投射し、第2の映像投射対象面に前記映像入力部に入力された第2の映像を投射するための設定処理として、前記表示制御部は、前記撮像部の撮像結果に基づいて、前記第1の映像投射対象面に対する映像投射位置の調整処理と、前記第2の映像投射対象面に対する映像投射位置の調整処理とをそれぞれ行う、投射型映像表示装置。
  2.  請求項1に記載の投射型映像表示装置であって、
     前記撮像部は複数であって、
     前記投射レンズから映像が照射される側の空間の前記投射レンズの光軸上から前記投射型映像表示装置を見た場合に、前記複数の撮像部が前記投射レンズを挟む位置関係に配置される、投射型映像表示装置。
  3.  請求項1に記載の投射型映像表示装置であって、
     前記撮像部は一つであって、
     前記調整処理は、前記撮像部によって取得した映像投射対象面の位置と、前記撮像部によって取得した前記投射型映像表示装置の投射映像の位置との差分が小さくなるように制御するフィードバック処理を含む、投射型映像表示装置。
  4.  請求項2に記載の投射型映像表示装置であって、
     前記複数の撮像部は、少なくとも第1の撮像部と第2の撮像部とを含み、
     前記調整処理は、前記第1の撮像部によって取得した映像投射対象面の第1の位置情報と、前記第2の撮像部によって取得した映像投射対象面の第2の位置情報とを用いて算出した第3の位置情報を用いた演算処理である、投射型映像表示装置。
  5.  請求項2に記載の投射型映像表示装置であって、
     前記複数の撮像部は、少なくとも第1の撮像部と第2の撮像部とを含み、
     前記調整処理は、前記第1の撮像部によって取得した映像投射対象面の第1の位置情報と、前記第2の撮像部によって取得した映像投射対象面の第2の位置情報とに対して、あらかじめ定義された比率による重み付け演算を施すことによって得られる第3の位置情報を用いた演算処理である、投射型映像表示装置。
  6.  請求項1に記載の投射型映像表示装置であって、
     前記映像投射対象面の位置の検出処理は、前記映像投射対象面上に存在するマーカーを前記撮像部によって取得することで行い、
     前記マーカーは、人間に見ることのできない波長の光を発生する光源であり、
     前記撮像部は、前記光源が発生する光を感知することが可能である、投射型映像表示装置。
  7.  請求項2に記載の投射型映像表示装置であって、
     前記投射型映像表示装置の投射レンズと同一の筐体に前記複数の撮像部が搭載されている、投射型映像表示装置。
  8.  請求項7に記載の投射型映像表示装置であって、
     前記複数の撮像部と前記投射レンズとは同一直線状に配置されている、投射型映像表示装置。
  9.  投射レンズからの距離が時間と共に変化しうる映像投射対象面に対して映像を投射する投射型映像表示装置であって、
     光源と、
     前記光源からの光を変調する表示素子と、
     前記表示素子からの光を投射する投射レンズと、
     映像入力部と、
     前記映像入力部で入力された映像に基づいて前記表示素子を制御する表示制御部と、
     前記映像投射対象面を撮像可能な一つまたは複数の撮像部と、
     を備え、
     前記映像投射対象面に前記映像入力部に入力された映像を投射するための設定処理として、前記表示制御部は、前記撮像部の撮像結果に対して調整処理を行ったうえで、前記映像投射対象面に適合させるための幾何変換に必要な情報の生成を行う、投射型映像表示装置。
  10.  請求項9に記載の投射型映像表示装置であって、
     前記撮像部は一つであって、
     前記調整処理は、前記撮像部によって取得した映像投射対象面の位置と、前記撮像部によって取得した前記投射型映像表示装置の投射映像の位置との差分が小さくなるように制御するフィードバック処理を含む、投射型映像表示装置。
  11.  請求項9に記載の投射型映像表示装置であって、
     前記撮像部は複数であって、少なくとも第1の撮像部と第2の撮像部とを含み、
     前記調整処理は、前記第1の撮像部によって取得した映像投射対象面の第1の位置情報と、前記第2の撮像部によって取得した映像投射対象面の第2の位置情報とを用いて算出した第3の位置情報を用いた演算処理である、投射型映像表示装置。
  12.  投射型映像表示装置における調整処理をソフトウェア処理で実施する映像表示方法であって、
     映像入力ステップと、
     前記映像入力ステップで入力された映像に基づいて表示素子を制御する表示制御ステップと、
     複数の映像投射対象面を撮像可能な一つまたは複数の撮像ステップと、
     を備え、
     前記表示制御ステップでは、前記複数の映像投射対象面のうち、第1の映像投射対象面に前記映像入力ステップで入力された第1の映像を投射し、第2の映像投射対象面に前記映像入力ステップで入力された第2の映像を投射するための設定処理として、前記撮像ステップの撮像結果に基づいて、前記第1の映像投射対象面に対する映像投射位置の調整処理と、前記第2の映像投射対象面に対する映像投射位置の調整処理とをそれぞれ行う、映像表示方法。
PCT/JP2015/066163 2015-06-04 2015-06-04 投射型映像表示装置および映像表示方法 WO2016194191A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/066163 WO2016194191A1 (ja) 2015-06-04 2015-06-04 投射型映像表示装置および映像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/066163 WO2016194191A1 (ja) 2015-06-04 2015-06-04 投射型映像表示装置および映像表示方法

Publications (1)

Publication Number Publication Date
WO2016194191A1 true WO2016194191A1 (ja) 2016-12-08

Family

ID=57441369

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/066163 WO2016194191A1 (ja) 2015-06-04 2015-06-04 投射型映像表示装置および映像表示方法

Country Status (1)

Country Link
WO (1) WO2016194191A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110191326A (zh) * 2019-05-29 2019-08-30 北京小鸟听听科技有限公司 一种投影系统分辨率扩展方法、装置和投影系统
JP2019215811A (ja) * 2018-06-14 2019-12-19 パナソニックIpマネジメント株式会社 投影システム、画像処理装置および投影方法
CN115314689A (zh) * 2022-08-05 2022-11-08 深圳海翼智新科技有限公司 投影校正方法、装置、投影仪和计算机程序产品
CN115842905A (zh) * 2021-09-21 2023-03-24 精工爱普生株式会社 投射方法以及投射系统
WO2023088304A1 (zh) * 2021-11-16 2023-05-25 海信视像科技股份有限公司 一种投影设备和投影区域修正方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002062842A (ja) * 2000-08-11 2002-02-28 Nec Corp 投射映像補正システム及びその方法
JP2003131319A (ja) * 2001-10-25 2003-05-09 Seiko Epson Corp 光送受装置
JP2005229415A (ja) * 2004-02-13 2005-08-25 Nec Viewtechnology Ltd 複数のカメラを備えたプロジェクタ
JP2007053784A (ja) * 2006-09-22 2007-03-01 Seiko Epson Corp 投写型画像表示装置及び平面被投写体
JP2011244044A (ja) * 2010-05-14 2011-12-01 Canon Inc 画像投射装置
JP2012134731A (ja) * 2010-12-21 2012-07-12 Panasonic Corp 投影システム、および投影システムにおける投影面の検出方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002062842A (ja) * 2000-08-11 2002-02-28 Nec Corp 投射映像補正システム及びその方法
JP2003131319A (ja) * 2001-10-25 2003-05-09 Seiko Epson Corp 光送受装置
JP2005229415A (ja) * 2004-02-13 2005-08-25 Nec Viewtechnology Ltd 複数のカメラを備えたプロジェクタ
JP2007053784A (ja) * 2006-09-22 2007-03-01 Seiko Epson Corp 投写型画像表示装置及び平面被投写体
JP2011244044A (ja) * 2010-05-14 2011-12-01 Canon Inc 画像投射装置
JP2012134731A (ja) * 2010-12-21 2012-07-12 Panasonic Corp 投影システム、および投影システムにおける投影面の検出方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019215811A (ja) * 2018-06-14 2019-12-19 パナソニックIpマネジメント株式会社 投影システム、画像処理装置および投影方法
JP7145432B2 (ja) 2018-06-14 2022-10-03 パナソニックIpマネジメント株式会社 投影システム、画像処理装置および投影方法
CN110191326A (zh) * 2019-05-29 2019-08-30 北京小鸟听听科技有限公司 一种投影系统分辨率扩展方法、装置和投影系统
CN115842905A (zh) * 2021-09-21 2023-03-24 精工爱普生株式会社 投射方法以及投射系统
CN115842905B (zh) * 2021-09-21 2024-05-28 精工爱普生株式会社 投射方法以及投射系统
WO2023088304A1 (zh) * 2021-11-16 2023-05-25 海信视像科技股份有限公司 一种投影设备和投影区域修正方法
CN115314689A (zh) * 2022-08-05 2022-11-08 深圳海翼智新科技有限公司 投影校正方法、装置、投影仪和计算机程序产品

Similar Documents

Publication Publication Date Title
JP4495041B2 (ja) ピンホール投影により表示面上のレーザポイントと関連付けられるプロジェクタ画素を求める方法
TWI253006B (en) Image processing system, projector, information storage medium, and image processing method
WO2016194191A1 (ja) 投射型映像表示装置および映像表示方法
JP3714163B2 (ja) 映像表示システム
JP5266954B2 (ja) 投写型表示装置および表示方法
US9348212B2 (en) Image projection system and image projection method
JP5266953B2 (ja) 投写型表示装置および表示方法
JP4006601B2 (ja) 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP3879858B2 (ja) 画像処理システム、プロジェクタおよび画像処理方法
JP7258572B2 (ja) 映像表示装置および方法
JP2005033703A (ja) 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP4572377B2 (ja) 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
US11061312B2 (en) Projection apparatus and projection method
CN110784693A (zh) 投影机校正方法与使用此方法的投影系统
JP2021158627A (ja) プロジェクターの制御方法、プロジェクター、及び投射システム
JP2007094036A (ja) 投影装置、投影方法及びプログラム
Sugimoto et al. Directionally decomposing structured light for projector calibration
JP3757979B2 (ja) 映像表示システム
JP2006074805A (ja) マルチプロジェクション映像表示装置
JP6221287B2 (ja) プロジェクター及びプロジェクターの制御方法
JP2011199717A (ja) 投写型表示装置および画像表示方法
JP5309828B2 (ja) プロジェクタ
JP5309827B2 (ja) プロジェクタ
JP2021177218A (ja) 画像投射システムの制御方法、及び画像投射システム
WO2022044807A1 (ja) 情報処理装置および方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15894224

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15894224

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP