WO2018042582A1 - 投射型映像表示装置および投射映像の調整方法 - Google Patents

投射型映像表示装置および投射映像の調整方法 Download PDF

Info

Publication number
WO2018042582A1
WO2018042582A1 PCT/JP2016/075594 JP2016075594W WO2018042582A1 WO 2018042582 A1 WO2018042582 A1 WO 2018042582A1 JP 2016075594 W JP2016075594 W JP 2016075594W WO 2018042582 A1 WO2018042582 A1 WO 2018042582A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection
video
unit
image
conversion
Prior art date
Application number
PCT/JP2016/075594
Other languages
English (en)
French (fr)
Inventor
田中 和彦
中嶋 満雄
樋口 晴彦
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Priority to US16/319,667 priority Critical patent/US11178369B2/en
Priority to JP2018536606A priority patent/JP6749402B2/ja
Priority to PCT/JP2016/075594 priority patent/WO2018042582A1/ja
Priority to CN201680088913.0A priority patent/CN109644248B/zh
Publication of WO2018042582A1 publication Critical patent/WO2018042582A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Definitions

  • the present invention relates to a projection-type image display device and a projection image adjustment method, and more particularly to a technique effective for correcting trapezoidal correction distortion that occurs when a projector and a screen are not facing each other.
  • An image display device that displays a large screen image at a low cost, a so-called projector, is widely used in presentation venues and educational sites. In order to display a projector image without geometric distortion, it is required to place the projector and the screen so as to face each other.
  • the screen is installed so that the upper side of the screen is close to the projector and the lower side is far, and a square image is projected from the projector, the upper side of the square is projected shorter than the lower side. , Displayed on the screen in a distorted trapezoidal shape.
  • Trapezoidal distortion can display an image in a correct shape by applying a geometric correction in the opposite direction to the geometric transformation corresponding to the trapezoidal distortion to an image projected in advance so as to cancel the distortion.
  • geometric correction in other words, geometric transformation is called perspective transformation or projective transformation, and can be realized by matrix calculation.
  • matrix calculation In order to calculate this matrix, it is necessary to acquire information on the shape and position of the projection object by some technique.
  • Patent Document 1 One technique for realizing this is described in Patent Document 1.
  • the orientation of the screen is acquired by photographing a known pattern drawn in advance on the screen to be projected with a camera, and the image is corrected accordingly, thereby correcting the keystone. It is carried out.
  • the pattern drawn on the screen is also tilted, so that the projected image is tilted.
  • An object of the present invention is to provide a technique capable of correcting distortion of a projected image more suitably.
  • a typical projection type video display device includes a video conversion unit, a video projection unit, an imaging unit, and a calculation unit.
  • the video conversion unit performs video conversion on a video input from the outside.
  • the video projection unit projects the video image converted by the video conversion unit onto the video projection surface.
  • the imaging unit acquires an image obtained by capturing the projection range and the correction object projected by the video projection unit.
  • the arithmetic unit performs arithmetic processing on the image captured by the imaging unit.
  • the calculation unit generates correction data from the projection range of the video projection unit captured by the imaging unit and the image of the correction object.
  • the video conversion unit performs video conversion based on the correction data generated by the calculation unit so that the projection range of the projected video of the video projection unit is rectangular.
  • the calculation unit has a detection unit and a transformation matrix calculation unit.
  • the detection unit includes first coordinate data indicating the coordinates of the four corner portions of the projection range and the coordinates of the four corner portions of the correction object from the projection range and the correction object image captured by the imaging unit, respectively. 2 coordinate data are respectively calculated.
  • the transformation matrix calculation unit calculates third coordinate data indicating the coordinates of the four corner portions in which the correction object image is rectangular, and the correspondence between the calculated third coordinate data and the second coordinate data. Based on the above, a conversion matrix serving as correction data is calculated.
  • the video conversion unit performs perspective conversion on the first coordinate data calculated by the detection unit using the conversion matrix calculated by the conversion matrix calculation unit, and converts the video so that the projection range of the projected video is rectangular. To do.
  • Projected image in the projection type video display device can be easily corrected in a short time.
  • FIG. 4 is an explanatory diagram showing an example of a wall surface and a card viewed from a camera position in an example of projection by the projector of FIG.
  • FIG. 4 is an explanatory diagram showing an example viewed from a position facing a wall surface in an example of projection by the projector of FIG. 3. It is explanatory drawing which shows the other example of FIG. FIG.
  • FIG. 7 is an explanatory diagram illustrating an example of a wall surface and a card viewed from a camera position in an example of projection by the projector of FIG. 6.
  • FIG. 7 is an explanatory diagram showing an example viewed from a position facing a wall surface in an example of projection by the projector of FIG. 6. It is explanatory drawing which showed the example of a process in each coordinate system.
  • 3 is a flowchart illustrating an example of conversion matrix M calculation processing by a conversion matrix calculation circuit included in the projector of FIG. 2.
  • 10 is an explanatory diagram illustrating an example of a configuration of a projector according to Embodiment 2.
  • the constituent elements are not necessarily indispensable unless otherwise specified and apparently essential in principle. Needless to say.
  • the shape of the component is substantially the case unless it is clearly specified and the case where it is clearly not apparent in principle. And the like are included.
  • vertical when simply expressed as “vertical”, it does not mean strictly a “vertical” state, but includes a range included in the concept of “substantially vertical”. is doing.
  • horizontal when simply expressed as “horizontal”, it does not mean only a strictly “horizontal” state but a range included in the concept of “substantially horizontal”.
  • Projector 10 corrects trapezoidal distortion using rectangular card 1.
  • the rectangular card 1 held in front of the camera 30 built in the projector 10 is photographed, and its orientation is adjusted.
  • the trapezoidal correction distortion can be adjusted intuitively by changing the geometric transformation matrix of the projector 10 according to the posture of the card 1 photographed by the camera 30.
  • the rectangular card 1 can be any rectangular object such as a business card or A4 copy paper, it can be easily obtained even on the go.
  • FIG. 1 is an explanatory diagram showing an example of the appearance of the projector 10 according to the present embodiment.
  • the projector 10 is a projection-type image display device that projects an image on a screen or the like.
  • a projection lens 13 is provided on the front surface which is one side surface of the projector 10.
  • FIG. 1 shows an example in which the main body of the camera 30 is built in the housing of the projector 10 and the lens of the camera 30 is exposed on the front surface of the projector 10.
  • the camera 30 serving as the imaging unit has an angle of view that can cover the video projection range of the projector 10.
  • the structure of the projector 10 is not limited to this.
  • the camera 30 may not be built in the projector 10.
  • FIG. 2 is an explanatory diagram showing an example of the configuration of the projector 10 of FIG.
  • the projector 10 includes a light source 11, a light modulation device 12, a lens 13, a geometric conversion circuit 20, a camera 30, a quadrangle detection circuit 31, a conversion matrix calculation circuit 32, a control microcomputer 41, and a timing generation circuit 40.
  • the input video input from the outside is subjected to geometric transformation by the geometric transformation circuit 20 serving as a video transformation unit, and then output to the light modulation device 12 as a projection video.
  • the input video input to the projector 10 is video data output from, for example, a personal computer connected to the projector 10.
  • the light modulation device 12 is an element that modulates light from the light source 11 in accordance with the projected image output from the geometric conversion circuit 20, and for example, a liquid crystal panel or DMD (Digital Mirror Device) is used.
  • the light source 11 generates illumination light for projection.
  • Illumination light from the light source 11 is modulated by the light modulation device 12, output from the projector 10 through the lens 13, and then irradiated to the wall surface 2 or the screen as a projection target.
  • the light source 11, the light modulation device 12, and the lens 13 constitute a video projection unit.
  • a general projector includes a plurality of light sources 11 and light modulation devices 12 for colorizing an image, and uses a special mirror or the like to combine light or bend an optical path.
  • a general projector includes a plurality of light sources 11 and light modulation devices 12 for colorizing an image, and uses a special mirror or the like to combine light or bend an optical path.
  • it is also effective for such projectors.
  • the input video is composed of a plurality of color component images. Therefore, it is assumed that the geometric conversion circuit 20 performs processing in parallel for the number of color components.
  • the transformation matrix M used by the geometric transformation circuit 20 uses a common matrix for each color component.
  • the geometric conversion circuit 20 is a circuit for correcting a geometric distortion caused by the projector 10 and the wall surface 2 not facing each other, that is, a so-called trapezoidal distortion. This geometric transformation is performed by multiplication of a 3 ⁇ 3 matrix in homogeneous coordinates. Details of this calculation will be described later.
  • the transformation matrix M used in the geometric transformation circuit 20 is obtained by detecting a quadrangular area from a quadrilateral detection circuit 31 serving as a detection unit for an image photographed by the camera 30, and obtaining four vertices of the quadrilateral obtained.
  • the conversion matrix calculation circuit 32 calculates using reference points such as coordinates.
  • the quadrangle detection circuit 31 and the conversion matrix calculation circuit 32 constitute an arithmetic unit.
  • the quadrangle detection circuit 31, the transformation matrix calculation circuit 32, and the geometric transformation circuit 20 are configured to use dedicated circuits, respectively. These may be, for example, a CPU (Central Processing Unit) or a GPU (Graphics). Processing may be performed by software using Processing (Unit).
  • CPU Central Processing Unit
  • GPU Graphics
  • Processing may be performed by software using Processing (Unit).
  • the control microcomputer 41 controls the projector 10.
  • the timing generation circuit 40 generates clock signals such as a vertical synchronization signal and a horizontal synchronization signal that are timing signals for displaying an image.
  • FIG. 3 is an explanatory diagram showing an example of video projection by the projector 10 of FIG.
  • FIG. 3 shows an example in which the projector 10 projects an image on the wall surface 2, and is a view of the projector 10, the wall surface 2, and an arrangement state of a card 1 described later as viewed from directly above.
  • the projector 10 is arranged at an angle with respect to the wall surface 2 that is the projection surface. In other words, the projector 10 is arranged not to face the projection surface but to be oblique to the projection surface. Yes.
  • the card 1 between the projector 10 and the wall surface 2 is a card having a rectangular shape such as a rectangle having an aspect ratio of a: b and serves as a correction object.
  • the card 1 does not need to be a dedicated card, and may be, for example, a business card or A4 copy paper.
  • the card 1 is used by being held in the shooting range of the camera 30 by the user.
  • the wall surface 2 is a flat wall surface, and the projector projection range 3 is a maximum area in which an image projected by the projector 10 can be projected. If the projector 10 and the wall surface 2 are fixed, the projector projection range 3 is uniquely determined.
  • FIG. 4 is an explanatory diagram showing an example in which the wall surface 2 and the card 1 are viewed from the camera position in the example of the projection by the projector 10 of FIG. Therefore, FIG. 4 is a view as seen from the camera viewpoint CP shown in FIG.
  • FIG. 5 is an explanatory diagram showing an example of the projection by the projector 10 of FIG. 3 as seen from the position facing the wall surface 2. Therefore, FIG. 5 is a diagram viewed from the front viewpoint FP shown in FIG.
  • the corrected image is projected onto the actual image area 4 shown in FIGS.
  • the real video area 4 is included in the projector projection range 3, and the area not included in the real video area 4 in the projector projection range 3 is processed as a black video area.
  • the projector projection range 3 appears to be almost rectangular regardless of the positional relationship between the wall surface 2 and the projector 10 from the camera viewpoint CP. Become. This is because the geometric distortion that occurs when the projector 10 projects an image on the wall surface 2 and the geometric distortion that occurs when the image on the wall surface 2 is captured by the camera 30 cancel each other.
  • the card 1 can be seen from the position of the camera 30 as a quadrangle with trapezoidal distortion depending on the orientation of the card 1 with respect to the camera 30. However, in the examples of FIGS. 3 to 5, it is assumed that the card 1 is placed in a direction facing the camera 30. For this reason, the card 1 also looks rectangular from the camera position.
  • the outer frame of the wall surface 2 in FIG. 4 and FIG. 5 assumes the case where a rectangle is drawn on the wall surface 2 so that the orientation of the wall surface 2 is shown in the drawing for easy understanding. It shows how this rectangle looks.
  • trapezoidal distortion occurs in the projector projection range 3, as shown in FIG.
  • trapezoidal distortion also occurs in the card 1.
  • the transformation matrix calculation circuit 32 calculates a transformation matrix M, which is a geometric transformation matrix, based on the shape of the card 1 when viewed from the camera viewpoint CP, and the geometric transformation circuit 20 uses this transformation matrix M to convert the input video. A geometric transformation is performed on the result, and the result is projected. The conversion matrix M becomes correction data.
  • the card 1 is not distorted when viewed from the camera viewpoint CP, and looks rectangular. For this reason, the geometric conversion from the input video to the projection video is only a scaling process for resolution conversion, and the shape does not change.
  • the real video area 4 is an area indicated by a dotted line
  • the projector projection range 3 is an area indicated by a solid line.
  • FIG. 6 is an explanatory diagram showing another example of FIG. In FIG. 6, the card 1 is held parallel to the wall surface 2.
  • FIG. 6 shows an example in which the projector 10 projects an image on the wall surface 2 as in FIG. 3, and is a view of the arrangement status of the projector 10, the wall surface 2, and the card 1 as viewed from directly above. .
  • FIG. 7 is an explanatory diagram showing an example in which the wall surface 2 and the card 1 are viewed from the camera position in the example of the projection by the projector 10 of FIG. Therefore, FIG. 7 is a view as seen from the camera viewpoint CP shown in FIG.
  • FIG. 8 is an explanatory diagram showing an example of the projection by the projector 10 of FIG. 6 as seen from the position facing the wall surface 2. Therefore, FIG. 8 is a view as seen from the front viewpoint FP shown in FIG.
  • the projector 10 calculates the transformation matrix M based on the trapezoidal distortion shape when the card 1 is photographed by the camera 30, and uses this to perform geometric transformation on the input video by the geometric transformation circuit 20. And the obtained image is projected onto the wall surface 2.
  • the image is deformed based on a transformation called perspective transformation.
  • perspective transformation By performing perspective transformation, an object in the vicinity is displayed large as in the real world, and an object in the distance is displayed small.
  • the 3 ⁇ 3 matrix in Equation 1 is a transformation matrix that defines perspective transformation.
  • This transformation matrix can be specified by obtaining eight variables a00 to a21 which are matrix elements. In order to obtain eight unknowns, eight equations are required. For this purpose, it is only necessary to know four sets of (xi, yi) and (xo, yo). That is, it is possible to obtain a transformation matrix if it is known to which coordinates of the four points on the video before perspective transformation are transformed. Here, the transformation matrix M is calculated using this.
  • FIG. 9 is an explanatory view showing an example of processing in each coordinate system.
  • FIG. 9 shows three coordinate systems required in the process of calculating the transformation matrix M, respectively.
  • Each coordinate system is a two-dimensional XY coordinate system in which the X coordinate increases toward the right and the Y coordinate increases toward the bottom.
  • the coordinate system shown in FIG. 9A is a camera coordinate system.
  • This camera coordinate system is a coordinate system for representing the entire image captured by the camera 30.
  • the resolution of the camera image is (cx, cy)
  • the coordinates of the upper left pixel are (0, 0)
  • the coordinates of the lower right pixel are (cx-1, cy-1).
  • the coordinate systems shown in FIGS. 9B and 9C are front-view coordinate systems, respectively.
  • the front view coordinate system is a coordinate system when the wall surface 2 is viewed from the front. It has the same meaning as the coordinate system on the wall 2. Since there is no reference length or reference point on the wall surface 2, the origin and scale can be determined freely.
  • the coordinate system shown in FIG. 9D is an input video coordinate system.
  • the input video coordinate system is a coordinate system in the input video. If the resolution of the input video is (bx, by), the coordinates of the upper left pixel are (0,0), and the coordinates of the lower right pixel are (bx-1, by-1).
  • FIG. 10 is a flowchart showing an example of the calculation process of the conversion matrix M by the conversion matrix calculation circuit 32 included in the projector 10 of FIG.
  • a solid white image (rectangle) is projected from the projector 10 over the entire projection range. This is photographed by the camera 30, and after the quadrangle detection circuit 31 extracts a quadrangle corresponding to the projector projection range 3, the coordinates of the four corners in the camera coordinate system serving as the first coordinate data are obtained (step S101). That is, in this case, the coordinates of the four corners of the projector projection range 3 are used as reference points for the projector projection range 3. This corresponds to obtaining coordinates of four vertices with circles in FIG. This operation may be performed only once when the projector 10 is installed.
  • the quadrangle detection circuit 31 extracts the area of the card 1 included in the captured video of the camera 30, and obtains the coordinates of the four corners in the camera coordinate system as the second coordinate data (step S102). That is, in this case, the coordinates of the four corners of the card 1 are used as the reference points of the card 1.
  • a front view coordinate system that is a new coordinate system to be the third coordinate data is defined (step S103).
  • the card 1 is represented as a rectangle having an aspect ratio a: b.
  • This coordinate system is a virtual coordinate system, and the origin position and scale can be freely defined.
  • the upper left corner of the card 1 is defined as the origin (0, 0), and the width of the card 1 is defined as the length 1.
  • the height of the card 1 is represented by a / b.
  • the four vertices of the card 1 in the front view coordinate shape correspond to the diamond marks in FIG. 9B.
  • the perspective transformation matrix between two coordinate systems can be derived if there are four coordinate points in the coordinate system before and after the transformation. That is, a perspective transformation matrix from the camera coordinate system to the front view coordinate system is calculated from the coordinates of the four vertices of the card 1 obtained in the process of step S102 and the process of step S103 (step S104).
  • step S105 By performing perspective transformation on the four vertex coordinates of the projector projection range 3 in the camera coordinate system obtained in the process of step S101 using the transformation matrix obtained in the process of step S104, in the front view coordinate system.
  • the coordinates of the four vertices of the projector projection range 3 can be obtained (step S105).
  • the purpose of the process shown in FIG. 10 is to make the image of the projector 10 into a rectangle with the original aspect ratio (A: B) when the card 1 looks like a rectangle with the aspect ratio a: b from the viewpoint facing the wall 2. Is to be projected.
  • the real image area 4 may be a rectangle having an aspect ratio A: B in the front view coordinate system. Since the coordinates of the four corners of the projector projection range 3 are known from the processing of step S105, it is possible to determine the coordinates of the four corners by defining a rectangle with an aspect ratio A: B included therein. Yes (step S106). This corresponds to obtaining the coordinates of the four vertices marked with a triangle in FIG.
  • the input video coordinate system which is a coordinate system with the upper left corner of the input video as the origin (0, 0).
  • the coordinates of the four vertices of the input image are obtained from the definition of the coordinate system described above (step S107). This corresponds to four vertices with circles in FIG.
  • the input video 5 is a quadrangle having the four points obtained in the process of step S105 as a vertex
  • the quadrangle having the four points obtained in the process of step S107 is a quadrangle. Since the correspondence between the coordinates of the four points is known, the perspective transformation matrix of the input video coordinate system is calculated from the front view coordinate system using this (step S108).
  • step S109 When the coordinates of the four vertices obtained by the process of step S106 are converted using the perspective transformation matrix obtained by the process of step S108, the input image after performing keystone correction according to the shape of the card 1 in the camera image The coordinates in the input video coordinate system of the four vertices of 5 can be obtained (step S109). This corresponds to the four vertices marked with triangles in FIG.
  • step S110 From the coordinates of the four vertices of the input video 5 before the keystone correction obtained in the process of step S107 and the coordinates of the four vertices of the input video 5 after the keystone correction obtained in the process of step S109, in the input video coordinate system.
  • a transformation matrix M for trapezoidal correction is obtained (step S110).
  • the geometric transformation circuit 20 applies the transformation matrix M to perform geometric correction, that is, correction of trapezoidal distortion (step S111).
  • the keystone correction of the projected image can be adjusted simply by holding the card 1 in front of the projector 10.
  • the rectangle of the actual video area 4 is defined in accordance with the coordinate axis based on the rectangle of the card 1 in the process of step S106 of FIG. For this reason, when the card 1 is not completely horizontal but is held tilted, the actual video area 4 is also tilted accordingly.
  • the tilt of the card 1 does not affect the tilt of the projected image.
  • the inclination of the projector 10 is acquired using a gravity sensor 50 built in the projector 10.
  • the projected image can be corrected to be horizontal by taking the inclination of the projector 10 into consideration even when the card 1 is not completely horizontal. Therefore, it is possible to improve usability.
  • FIG. 11 is an explanatory diagram showing an example of the configuration of the projector 10 according to the second embodiment.
  • the projector 10 shown in FIG. 11 is different from the projector shown in FIG. 2 in the first embodiment in that a gravity sensor 50 is newly added.
  • Other configurations are the same as those of the first embodiment shown in FIG.
  • the gravity sensor 50 which is an inclination sensor detects the inclination of the projector 10.
  • the gravity sensor 50 is a device that can detect the direction in which gravity works, for example, in the same manner as an acceleration sensor used in a smartphone or the like. By using the gravity sensor 50, it is possible to detect how much the projector 10 is inclined with respect to the horizontal plane.
  • FIG. 12 is an explanatory diagram showing an example when the projector 10 is placed inclined with respect to the horizontal plane.
  • FIG. 13 is an explanatory diagram showing an example of a camera image by the camera 30 included in the projector 10 of FIG.
  • the projector 10 is placed so as to have an angle with respect to the vertical axis as shown in FIG.
  • the gravity sensor 50 By providing the gravity sensor 50, the angle ⁇ formed by the central axis of the projector 10 and the vertical direction can be obtained.
  • a horizontal line 80 is a line indicating an actual horizontal direction and is not shown in an actual camera image.
  • the geometric correction of the projected image of the projector 10 is performed in a state where the influence of the inclination ⁇ of the card 1 is removed. Since the tilt angle ⁇ of the projector 10 itself acts in the opposite direction both during shooting by the camera 30 and during image projection by the projector 10, it is finally canceled out. Therefore, when calculating the transformation matrix M, only the inclination angle ⁇ of the card 1 needs to be considered without considering the influence of the angle ⁇ .
  • the value of ⁇ + ⁇ which is the tilt angle of the card 1 in the camera coordinate system, can be obtained.
  • can be obtained from the detection value of the gravity sensor 50, the value of the angle ⁇ can be obtained by performing subtraction between them.
  • FIG. 14 is an explanatory view showing an example of processing in each coordinate system.
  • FIG. 15 is a flowchart illustrating an example of conversion matrix M calculation processing by the conversion matrix calculation circuit 32 included in the projector 10 of FIG.
  • FIG. 14 shows three coordinate systems required in the process of calculating the transformation matrix M in the same manner as in the embodiment shown in FIG. 9, and FIG. 14 (a) shows the camera coordinate system, and FIG. b) and FIG. 14C show a front view coordinate system, respectively.
  • FIG. 14D shows an input video coordinate system.
  • the card 1 is photographed in a state inclined by ⁇ + ⁇ , and the angle ⁇ is calculated from the photographed image and the measured value of the gravity sensor as described above. (Step S201).
  • the front view coordinate system is defined by using this ⁇ so that the card 1 has an aspect ratio a: b and becomes a rectangle inclined by the angle ⁇ .
  • the same idea as in the first embodiment is applied to the scale.
  • the transformation matrix M is obtained by performing the same processing as in FIG. 10 of the first embodiment. By performing perspective transformation using this transformation matrix M, it is possible to perform trapezoidal correction of the projected video.
  • the projected video is converted so that the tilt of the projected video is linked to the tilt of the card 1.
  • the tilt of the projected image can be easily adjusted by the user operating the card.
  • the inclination of the card 1 does not affect the inclination of the projected image. For this reason, there is no need to keep the card 1 strictly level, and it has become an easy-to-use system in the case where the video is always projected horizontally.
  • a projector 10 having a mechanism for switching between the two will be described.
  • mode switching is added to an operation menu (not shown) that the projector 10 projects in the projected video, and the process of FIG. 10 (first mode) of the first embodiment and the process of FIG. 15 of the second embodiment ( The second mode) can be selected.
  • the configuration of the projector 10 is the same as that of the projector 10 shown in FIG. 11 of the second embodiment.
  • the mode in which the video after video conversion is kept horizontal and the mode in which the video after video conversion is interlocked with the inclination of the card as the operation object for correction can be selected according to the user's preference. As a result, it is possible to provide a projector 10 that is more user-friendly.
  • FIG. 16 is an explanatory diagram showing an example of installation in the projector 10 according to the modification of the third embodiment.
  • FIG. 17 is an explanatory diagram showing another example of FIG. FIG. 16 shows an example when the projector 10 is installed horizontally, and FIG. 17 shows an example when the projector 10 is installed vertically.
  • the above-described operation menu mode switching can be automatically performed using, for example, the gravity sensor 50 of FIG. As shown in FIG. 16, when the projector 10 is installed sideways and an image is projected onto a vertical screen, the inclination of the rotation direction of the card 1 as shown in FIG. 15 of the second embodiment. It is convenient that the projected image is always projected horizontally without considering the above. That is, when the projector 10 projects an image on a vertical screen, the control microcomputer 41 performs control for selecting the second mode.
  • Whether the usage pattern of the projector 10 corresponds to FIG. 16 or FIG. 17 can be determined by determining the installation posture of the projector 10 based on the detection result of the gravity sensor 50 of FIG.
  • the control microcomputer 41 performs control for selecting the second mode.
  • the second mode may not be forcibly selected, and control may be performed so that the mode selected in advance by the user's preference via the menu is used. .
  • the mode in which the image after the image conversion is kept horizontal and the image after the image conversion are displayed.
  • FIG. 18 is an explanatory diagram showing an example of the lens cap 15 according to the fourth embodiment.
  • a lens cap 15 shown in FIG. 18 is attached to the lens 13 included in the projector 10.
  • the lens cap 15 is attached when the projector 10 is not used to protect the lens surface of the lens 13.
  • a white rectangular label 19 used as a substitute for the card 1 in FIG. 3 is attached to the back side of the lens cap 15. Even when the card 1 is not found, by holding the lens cap 15 in front of the camera 30 as a substitute, it has the same function as the card 1 and can perform geometric correction.
  • FIG. 19 is an explanatory diagram showing another example of FIG.
  • the lens cap 15 shown in FIG. 19 is different from the lens cap 15 shown in FIG. 18 in that a special pattern such as a two-dimensional barcode 16 is printed on a rectangular label 19 on the back side of the lens cap 15.
  • the geometric correction using the camera 30 is automatically performed. You can switch to mode.
  • the trapezoidal correction of the projected image shown in the first to third embodiments can be automatically performed.
  • the determination as to whether or not the two-dimensional barcode 16 that is a correction processing pattern exists is performed by, for example, the quadrangle detection circuit 31 of FIG. Alternatively, the control microcomputer 41 may make a determination.
  • the two-dimensional barcode 16 is printed on the label 19, but the two-dimensional barcode 16 may be printed on the card 1 in the first to third embodiments, for example.
  • the LCD screen of the smartphone will be in an all-white state and used as a substitute for the card 1. Then, the liquid crystal screen is held in front of the camera 30 in FIG.
  • Embodiments 1 to 4 described above information on the aspect ratio of the card 1 is necessary, but the aspect ratio of the smartphone screen varies depending on the model. Therefore, the process proceeds assuming a standard aspect ratio, such as 16: 9.
  • FIG. 20 is an explanatory diagram illustrating an example of display on the liquid crystal screen 17 included in the smartphone 18 according to the fifth embodiment.
  • a two-dimensional barcode 16 may be displayed on the liquid crystal screen 17 of the smartphone 18.
  • This two-dimensional barcode 16 is the same as the two-dimensional barcode 16 of FIG. 19 in the fourth embodiment. Then, the information of the aspect ratio of the screen is notified to the projector 10 by the combination of the two-dimensional barcode 16 displayed on the liquid crystal screen 17.
  • the projector 10 in FIG. 2 decodes the two-dimensional barcode 16 appearing in the camera image by, for example, the control microcomputer 41 in FIG. 2 to acquire the aspect ratio information, and the conversion matrix M in FIG. Used for calculation.
  • the projection image correction process can be easily performed in a short time.
  • a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. .

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

より好適に投射映像の歪みを補正する。外部から入力される映像に対して映像変換を行う映像変換部と、映像変換部で映像変換した映像を映像投射面に投射する映像投射部と、映像投射部が投射する投射映像の投射範囲および補正用物体を撮影した画像を取得する撮像部と、撮像部が撮影した画像をもちいた演算処理を行う演算部と、を有し、演算部は、撮像部が撮影した映像投射部の投射範囲および補正用物体の画像から補正データを生成し、映像変換部は、演算部が生成する補正データに基づいて、映像投射部による投射映像の投射範囲が映像投射面上で矩形となるように映像変換を行う。

Description

投射型映像表示装置および投射映像の調整方法
 本発明は、投射型映像表示装置および投射映像の調整方法に関し、特に、プロジェクタとスクリーンが正対していない際に発生する台形補正歪みの補正に有効な技術に関する。
 安価に大画面の映像表示を行う映像表示装置、いわゆるプロジェクタは、プレゼン会場や教育現場などにて広く用いられている。プロジェクタの映像を幾何的な歪みなしに表示するには、プロジェクタとスクリーンが正対するように置くことが求められる。
 しかしながら、プロジェクタを使用する際には、スクリーンの正面に視聴者がいるため、斜め方向からしか投射できないといったケースが存在する。この場合には、台形歪みと呼ばれる幾何的な歪みが発生する。
 例えばスクリーンの上辺がプロジェクタに近く、下辺が遠くになるようにスクリーンが設置された場合に、プロジェクタから正方形の映像を投映すると、正方形の上辺が下辺よりも短く投映されるため、矩形の画像は、台形に歪んだ状態でスクリーン上に表示される。
 実際には、上下方向だけでなく、左右方向にも同様の現象が発生する。そのため、プロジェクタから長方形の映像を投射した場合には、平行な辺のない歪んだ四角形として投映されうることになる。このように、平行な辺が存在しない場合も含めて、慣習的にこれらの歪みを台形歪みと総称する。
 台形歪みは、歪を打ち消すようにあらかじめ投射する映像に台形歪みに相当する幾何変換とは逆方向の幾何補正を掛けておくことで、映像を正しい形状に表示することが可能となる。
 この幾何補正、言い換えれば幾何変換は、透視変換または射影変換と呼ばれ、行列計算によって実現することが可能である。この行列を算出するためには、なんらかの技術によって投映対象物の形状や位置の情報を取得する必要がある。
 これを実現するための1つの技術が、特許文献1に記載されている。この特許文献1の技術においては、投射対象であるスクリーン上にあらかじめ描かれた既知のパターンをカメラにて撮影することによってスクリーンの向きを取得し、これに合わせて映像を補正することで台形補正を行っている。
特開2007-53784号公報
 しなしながら、上記した特許文献1の技術では、スクリーン上に描かれたパターンを利用して変換行列を算出する。そのため、そのパターンが描かれた特殊なスクリーンがなければ、投射画像の補正を行うことができないという問題がある。
 また、上述のように、あらかじめパターンが描画された特殊なスクリーンが必要であるので、客先にプロジェクタを持参して壁に投射するといった用途には不向きであり、利便性が損なわれる恐れがある。
 さらに、パターンが描画された特殊なスクリーンの場合、通常の映像投射時にもこのパターンが見えてしまい、視聴の妨げとなる恐れがある。これを防ぐために、赤外線吸収インクなど人間の目に見えない特殊なインクでパターンを描くことも可能であるが、その場合には、赤外線光源や赤外線カメラなどが必要になり、コストが増大するという問題がある。
 また、スクリーンが傾いて設置されている場合、スクリーン上に描かれたパターンも傾いているため、投射される映像も傾いてしまうという問題がある。
 本発明の目的はより好適に投射映像の歪みを補正することのできる技術を提供することにある。
 本発明の前記ならびにその他の目的と新規な特徴については、本明細書の記述および添付図面から明らかになるであろう。
 本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。
 すなわち、代表的な投射型映像表示装置は、映像変換部、映像投射部、撮像部、および演算部を有する。映像変換部は、外部から入力される映像に対して映像変換を行う。映像投射部は、記映像変換部が映像変換を行った映像を映像投射面に投射する。
 撮像部は、映像投射部が投射する投射範囲および補正用物体を撮影した画像を取得する。演算部は、撮像部が撮影した画像を演算処理する。
 また、演算部は、撮像部が撮影した映像投射部の投射範囲および補正用物体の画像から補正データを生成する。映像変換部は、演算部が生成する補正データに基づいて、映像投射部の投射映像の投射範囲が矩形となるように映像変換を行う。
 特に、演算部は、検出部および変換行列算出部を有する。検出部は、撮像部が撮影した投射範囲および補正用物体の画像から投射範囲の4つのコーナ部の座標をそれぞれ示す第1の座標データと補正用物体の4つのコーナ部の座標をそれぞれ示す第2の座標データとをそれぞれ算出する。
 変換行列算出部は、補正用物体の画像が矩形となる4つのコーナ部の座標をそれぞれ示す第3の座標データを算出し、および算出した第3の座標データと第2の座標データとの対応に基づいて、補正データとなる変換行列を算出する。
 そして、映像変換部は、変換行列算出部が算出した変換行列を用いて、検出部が算出した第1の座標データに対する透視変換を行い、投射映像の投射範囲が矩形となるように映像を変換する。
 本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。
 投射型映像表示装置における投射画像を容易に短時間で補正することができる。
実施の形態によるプロジェクタにおける外観の一例を示す説明図である。 図1のプロジェクタにおける構成の一例を示す説明図である。 図1のプロジェクタによる映像を投射の一例を示す説明図である。 図3のプロジェクタによる投射の一例において、壁面およびカードをカメラ位置から見た一例を示す説明図である。 図3のプロジェクタによる投射の一例において、壁面に正対する位置から見た一例を示す説明図である。 図3の他の例を示す説明図である。 図6のプロジェクタによる投射の一例において、壁面およびカードをカメラ位置から見た一例を示す説明図である。 図6のプロジェクタによる投射の一例において、壁面に正対する位置から見た一例を示す説明図である。 各座標系における処理例を示した説明図である。 図2のプロジェクタが有する変換行列算出回路による変換行列Mの算出処理の一例を示すフローチャートである。 実施の形態2におけるプロジェクタによる構成の一例を示す説明図である。 プロジェクタが水平面に対して傾いて置かれた場合の一例を示す説明図である。 図12のプロジェクタが有するカメラによるカメラ映像の一例を示す説明図である。 各座標系における処理例を示した説明図である。 図13のプロジェクタが有する変換行列算出回路による変換行列Mの算出処理の一例を示すフローチャートである。 実施の形態3によるプロジェクタにおける設置の一例を示す説明図である。 図16の他の例を示す説明図である。 実施の形態4によるレンズキャップの一例を示す説明図である。 図18の他の例を示す説明図である。 実施の形態5によるスマートフォンが有する液晶画面における表示の一例を示す説明図である。
 以下の実施の形態においては便宜上その必要があるときは、複数のセクションまたは実施の形態に分割して説明するが、特に明示した場合を除き、それらはお互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。
 また、以下の実施の形態において、要素の数等(個数、数値、量、範囲等を含む)に言及する場合、特に明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではなく、特定の数以上でも以下でもよい。
 さらに、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。
 同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは特に明示した場合および原理的に明らかにそうではないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。このことは、上記数値および範囲についても同様である。例えば、以下の実施の形態において、単に「鉛直」と表現した場合、厳密に「鉛直」な状態のみを意味するのではなく、「略鉛直」という概念に含まれる範囲を含んでいることを意味している。同様に、単に「水平」と表現した場合、厳密に「水平」な状態のみを意味するのではなく、「略水平」という概念に含まれる範囲を含んでいることを意味している。
 また、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。なお、図面をわかりやすくするために平面図であってもハッチングを付す場合がある。
 (実施の形態1)
 〈概要〉
 本実施の形態1によるプロジェクタ10は、矩形のカード1を利用して台形歪みを補正する。プロジェクタ10に内蔵されたカメラ30の前にかざした矩形のカード1を撮影し、その向きを調整する。カメラ30にて撮影したカード1の姿勢に応じて、プロジェクタ10の幾何変換行列を変更することによって、直感的に台形補正歪みを調整することが可能である。
 特に、水平方向と垂直方向の台形歪みが混在している際に、直感的に操作できることのメリットが大きくなる。矩形のカード1としては、名刺やA4のコピー用紙など、長方形の物体であれば何でも使用可能なため、外出先などでも簡単に入手することができる。
 以下、実施の形態を詳細に説明する。
 〈プロジェクタの外観例〉
 図1は、本実施の形態によるプロジェクタ10における外観の一例を示す説明図である。
 プロジェクタ10は、スクリーンなどに映像を投射する投射型映像表示装置である。このプロジェクタ10の筐体のある1つの側面である前面には、投射用のレンズ13が設けられている。
 同じく、プロジェクタ10の前面には、レンズ13の上方にカメラ30が設けられている。図1では、カメラ30の本体は、プロジェクタ10の筐体内に内蔵されており、該カメラ30のレンズがプロジェクタ10の前面に露出している例を示している。
 また、撮像部であるカメラ30は、プロジェクタ10による映像投射範囲をカバーできるだけの画角を持っているものとする。ただし、プロジェクタ10の構造は、これに限定されるものではなく、例えばカメラ30がプロジェクタ10に内蔵されていなくともよい。
 〈プロジェクタの構成例〉
 図2は、図1のプロジェクタ10における構成の一例を示す説明図である。
 プロジェクタ10は、光源11、光変調デバイス12、レンズ13、幾何変換回路20、カメラ30、四角形検出回路31、変換行列算出回路32、制御マイコン41、およびタイミング生成回路40を有する。
 外部から入力される入力映像は、映像変換部となる幾何変換回路20によって幾何変換された後、投射映像として光変調デバイス12に出力する。プロジェクタ10に入力される入力映像は、例えばプロジェクタ10に接続されるパーソナルコンピュータなどから出力される映像データである。
 光変調デバイス12は、幾何変換回路20から出力される投射映像に応じて光源11からの光を変調する素子であり、例えば液晶パネルあるいはDMD(Digital Mirror Device)などが用いられる。光源11は、投射用の照明光を発生する。
 光源11からの照明光は、光変調デバイス12によって変調され、レンズ13を通してプロジェクタ10から出力された後、投射対象である壁面2またはスクリーンなどに照射される。これら光源11、光変調デバイス12、およびレンズ13によって、映像投射部が構成される。
 図2には記載していないが、一般的なプロジェクタでは、映像のカラー化のために光源11や光変調デバイス12を複数個搭載し、特殊なミラーなどを用いて光の合成や光路の折り曲げを行うものもあるが、そのようなプロジェクタに対しても有効である。
 カラー画像を扱う場合、入力映像は、複数の色成分画像から構成されている。よって、幾何変換回路20は、色成分の数だけ並列に処理するものとする。また、幾何変換回路20が使用する変換行列Mは、各色成分で共通の行列を用いる。
 ここで、幾何変換回路20は、プロジェクタ10と壁面2とが正対していないことによって生じる幾何歪み、いわゆる台形歪みの補正を行うための回路である。この幾何変換は、同次座標における3×3行列の乗算によって行われる。この演算の詳細については、後述する。
 幾何変換回路20にて使用する変換行列Mは、カメラ30によって撮影された画像に対して、検出部となる四角形検出回路31が四角形の領域を検出して、そこで得られた四角形の4頂点の座標などの基準点を用いて、変換行列算出回路32が算出する。また、四角形検出回路31および変換行列算出回路32により、演算部が構成される。
 なお、本実施の形態では、四角形検出回路31や変換行列算出回路32、および幾何変換回路20が、それぞれ専用回路を用いる構成としているが、これらは、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)などを用いてソフトウェアによって処理しても構わない。
 制御マイコン41は、プロジェクタ10における制御を司る。タイミング生成回路40は、画像を表示する際のタイミング信号である垂直同期信号および水平同期信号などのクロック信号を生成する。
 〈カードを用いたプロジェクタの投射例および補正例〉
 図3は、図1のプロジェクタ10による映像投射の一例を示す説明図である。この図3は、プロジェクタ10が壁面2に映像を投射する例を示しており、プロジェクタ10、壁面2、および後述するカード1の配置状況を真上から見た図である。
 図3に示す例では、プロジェクタ10が投射面である壁面2に対してある角度をつけて、言い換えれば投射面に正対するのではなく、投射面に対して斜め方向となるように配置されている。
 プロジェクタ10と壁面2とに間にあるカード1は、縦横比a:bの長方形などの矩形の形状をしたカードであり、補正用物体となる。このカード1は、専用のカードである必要はなく、例えば名刺やA4のコピー用紙などであってもよい。カード1は、使用者が手に持ってカメラ30の撮影範囲内にかざして使用する。
 壁面2は、平面の壁面であり、プロジェクタ投射範囲3は、プロジェクタ10が投射する映像の投射可能な最大領域である。プロジェクタ10と壁面2とが固定されていれば、プロジェクタ投射範囲3は一意に定まる。
 図4は、図3のプロジェクタ10による投射の一例において、壁面2およびカード1をカメラ位置から見た一例を示す説明図である。よって、図4は、図3に示すカメラ視点CPから見た図である。
 図5は、図3のプロジェクタ10による投射の一例において、壁面2に正対する位置から見た一例を示す説明図である。よって、図5は、図3に示す正面視点FPから見た図である。
 プロジェクタ10の映像を幾何変換によって補正した場合、補正後の映像は、図4および図5に示す実映像領域4に投射される。実映像領域4は、プロジェクタ投射範囲3内に包含され、プロジェクタ投射範囲3内において実映像領域4に含まれない領域は、黒色の映像領域として処理する。
 カメラ30とプロジェクタ10のレンズ13とが十分に近ければ、カメラ視点CPからは図4に示すように、プロジェクタ投射範囲3が、壁面2とプロジェクタ10の位置関係によらずほぼ長方形に見えることになる。これは、プロジェクタ10が映像を壁面2に投射する際に発生する幾何歪みと、壁面2上の映像をカメラ30で撮影するときの幾何歪みが互いに相殺し合うためである。
 カード1については、カメラ30に対するカード1の向きに応じて台形歪みが加わった四角形としてカメラ30の位置から見えることになる。ただし、図3~図5の例では、カード1がカメラ30に正対する向きに置かれているものとする。このため、カメラ位置からはカード1も長方形に見えることになる。
 図4および図5における壁面2の外枠は、壁面2の向きを図中に示して把握しやすくするために、壁面2に長方形が描かれている場合を想定して、それぞれからの視点からこの長方形がどのように見えるかを示している。
 一方、壁面2に正対する位置、すなわち正面視点FPから見ると、図5に示すようにプロジェクタ投射範囲3には台形歪みが発生し、歪んだ四角形として見えることになる。この例では、説明を簡単にするために水平方向の台形歪みのみが発生しているケースを想定しているが、垂直方向の台形歪みが同時に発生している場合であっても、有効である。壁面2に正対する位置から見ると、カード1にも台形歪みが発生することになる。
 変換行列算出回路32は、カメラ視点CPから見た際のカード1の形状に基づいて、幾何変換行列である変換行列Mを算出し、幾何変換回路20がこの変換行列Mを用いて入力映像に対して幾何変換を行い、その結果を投射する。変換行列Mは、補正データとなる。
 図3の位置関係では、カメラ視点CPから見たときにカード1には歪みが発生せず、長方形に見える。このため、入力映像から投射映像への幾何変換は、解像度変換のためのスケーリング処理のみとなり、形状は変化しない。
 そのため、図4、図5のどちらにおいても、プロジェクタ投射範囲3全体に映像が投射されることになる。すなわち、壁面2上で映像が表示される領域である実映像領域4とプロジェクタ投射範囲3は完全に一致する。なお、図4および図5では、両者が重ならないように少しずらして描いているが、実際には完全に重なっている。
 なお、図4および図5において、実映像領域4は、点線にて示す領域であり、プロジェクタ投射範囲3は、実線にて示す領域である。
 続いて、カード1が壁面2と平行になるようにかざした場合について考える。
 図6は、図3の他の例を示す説明図である。この図6では、カード1が壁面2と平行になるようにかざされている。なお、図6は、図3と同様にプロジェクタ10が壁面2に映像を投射している例を示しており、プロジェクタ10、壁面2、およびカード1の配置状況を真上から見た図である。
 図7は、図6のプロジェクタ10による投射の一例において、壁面2およびカード1をカメラ位置から見た一例を示す説明図である。よって、図7は、図6に示すカメラ視点CPから見た図である。
 図8は、図6のプロジェクタ10による投射の一例において、壁面2に正対する位置から見た一例を示す説明図である。よって、図8は、図6に示す正面視点FPから見た図である。
 図7において、カード1は、カメラ30と正対していないために台形歪みが発生して見えることになる。この場合には、この歪みの形状をカメラ30の撮影画像から特定し、これに基づいて変換行列Mを算出し、この行列による幾何変換を入力映像に対して適用する。これにより、入力映像は、実映像領域4の範囲に変換されることになる。
 正面視点FPから見ると、カード1は、カード本来の縦横比(a:b)を維持した長方形に見える、これと同様に、図8に示すように、実映像領域4は、プロジェクタ本来の縦横比、すなわち台形歪みが発生しないようにプロジェクタを設置した際の縦横比=A:Bの長方形として投射することが可能となる。
 以上のように、プロジェクタ10は、カメラ30によりカード1を撮影した際の台形歪み形状に基づいて、変換行列Mを算出し、これを用いて幾何変換回路20によって入力映像に対して幾何変換を行い、得られた映像を壁面2へ投射する。
 このようにすることによって、カード1の向きを変えるとそれに連動して、あたかも壁を動かしているかのように、壁面2上に投射された映像を変形させて台形歪みを調整することが可能となる。
 この技術では、壁面2とカード1が平行になったときに、壁面2に正対した視点位置FPから見たときのプロジェクタ投射映像の台形歪みがなくなるため、直感的な調整が可能となる。
 〈変換行列Mの算出処理例〉
 続いて、変換行列算出回路32がカメラ30が撮影したカード1の形状に基づいて、変換行列Mを算出する技術について説明する。
 プロジェクタ10による映像投射やカメラ30による撮影では、透視変換と呼ばれる変換に基づいて画像が変形されることになる。透視変換を行うことによって、実世界と同様に近くにある物体は大きく、遠くにある物体は小さく表示される。
 透視変換によって、ある座標系の点(xi,yi)が、別の座標系の点(xo,yo)に変換されるとき、両者の間には式1の関係が成り立っている。
Figure JPOXMLDOC01-appb-M000001
 この式は同次座標で書かれており、xoとyoは、以下に示す式2a、式2bによって求めることができる。
Figure JPOXMLDOC01-appb-M000002
 式1の中の3×3行列が透視変換を規定する変換行列である。この変換行列は、行列の要素であるa00~a21までの8個の変数を求めることにより特定することができる。8個の未知数を求めるには、8本の方程式が必要であり、そのためには、(xi,yi)と(xo,yo)との組を4つ知ることができればよい。すなわち、透視変換前の映像上の4点の座標が、それぞれどの座標に変換されるかが判れば変換行列を求めることが可能である。ここでは、これを用いて、変換行列Mを算出する。
 続いて、透視変換の変換行列Mを算出する技術について、図9および図10を用いて説明する。
 図9は、各座標系における処理例を示した説明図である。この図9は、変換行列Mを算出する過程で必要となる3つの座標系をそれぞれ表している。各座標系は、右に行くにつれてX座標が、下に行くにつれてY座標が増加する二次元のXY座標系である。
 以下、各座標系について示す。
 まず、図9(a)に示す座標系は、カメラ座標系である。このカメラ座標系は、カメラ30によって撮影された映像全体を表すための座標系である。カメラ画像の解像度を(cx,cy)とすると、左上画素の座標は(0,0)、右下画素の座標は(cx-1,cy-1)となる。
 図9(b)および図9(c)に示す座標系は、それぞれ正面視座標系である。正面視座標系は、壁面2を正面から見たときの座標系である。壁面2上の座標系と同じ意味合いを持つ。壁面2上には、基準となる長さや基準点が存在しないため、原点や縮尺は自由に決定することが可能である。
 図9(d)に示す座標系は、入力映像座標系である。入力映像座標系は、入力映像における座標系である。入力映像の解像度を(bx,by)とすると、左上画素の座標は(0,0)、右下画素の座標は(bx-1,by-1)となる。
 図9に示すこれらの座標系および図10のフローチャートを用いて、変換行列Mの算出処理について順次説明していく。
 図10は、図2のプロジェクタ10が有する変換行列算出回路32による変換行列Mの算出処理の一例を示すフローチャートである。
 まず、プロジェクタ10から投射範囲全域に全白のベタ画像(長方形)を投射する。これをカメラ30で撮影して、四角形検出回路31により、プロジェクタ投射範囲3に相当する四角形を抽出後、第1の座標データとなるカメラ座標系における4隅の座標を求める(ステップS101)。すなわち、この場合は、プロジェクタ投射範囲3の4隅の座標をプロジェクタ投射範囲3の基準点としている。これは、図9(a)において、丸印の付いた4つの頂点の座標を求めることに相当する。この作業はプロジェクタ10の設置時に一度だけ行えばよい。
 続いて、四角形検出回路31は、カメラ30の撮影映像中に含まれるカード1の領域を抽出して、第2の座標データとなるカメラ座標系における4隅の座標を求める(ステップS102)。すなわち、この場合は、カード1の4隅の座標をカード1の基準点としている。
 これは、図9(a)において、菱形印が付いた4つの頂点の座標を求めることに相当する。基準点となるこれらの座標は、カード1の姿勢が変わると変化するため、カード1を操作している時には、定期的に求める必要がある。
 そして、カード1の縦横比a:bを基準として、第3の座標データとなる新しい座標系である正面視座標系を規定する(ステップS103)。この座標系では、カード1が縦横比a:bの長方形として表現される。本座標系は、仮想的な座標系であり、原点位置や縮尺は、自由に規定可能である。
 ここでは、カード1の左上を原点(0,0)とし、カード1の横幅を長さ1と規定する。この場合カード1の高さはa/bで表される。正面視座標形におけるカード1の4つの頂点は、図9(b)の菱形印に対応する。
 前述したように、2つの座標系間の透視変換行列は、変換前後の座標系における4点の座標があれば導出することができる。すなわち、ステップS102の処理およびステップS103の処理にて求めたカード1の4頂点の座標から、カメラ座標系から正面視座標系への透視変換行列を算出する(ステップS104)。
 ステップS101の処理にて求めたカメラ座標系におけるプロジェクタ投射範囲3の4つの頂点座標に対して、ステップS104の処理にて求めた変換行列を用いて透視変換を行うことにより、正面視座標系におけるプロジェクタ投射範囲3の4つの頂点の座標を得ることができる(ステップS105)。
 図10に示す処理の目的は、壁面2に正対した視点から、カード1が縦横比a:bの長方形に見えるときにプロジェクタ10の映像がプロジェクタ本来の縦横比(A:B)の長方形に投射されることである。
 これを実現するには、正面視座標系において実映像領域4が縦横比A:Bの長方形となればよい。ステップS105の処理よりプロジェクタ投射範囲3の4隅の座標が既知となっているため、これに包含される縦横比A:Bの長方形を規定して、その4隅の座標を求めることが可能である(ステップS106)。これは、図9(c)において、三角印の付いた4頂点の座標を求めることに相当する。
 続いて、入力映像の左上を原点(0,0)とした座標系である入力映像座標系について考える。この座標系では、入力映像の4頂点の座標は、前述の座標系の定義から求まる(ステップS107)。これは、図9(d)において、丸印の付いた4頂点に対応する。
 入力映像5は、正面視座標系ではステップS105の処理にて求めた4点を頂点とする四角形となり、入力映像座標系ではステップS107の処理にて求めた4点を頂点とする四角形となる。4点の座標の対応関係が判明しているので、これを用いて、正面視座標系から入力映像座標系の透視変換行列を算出する(ステップS108)。
 ステップS108の処理にて求めた透視変換行列を用いて、ステップS106の処理により求めた4頂点の座標を変換すると、カメラ映像中のカード1の形状に応じた台形補正を行った後の入力映像5の4頂点の入力映像座標系における座標を求めることができる(ステップS109)。これは、図9(d)において、三角印の付いた4頂点に対応する。
 そして、ステップS107の処理にて求めた台形補正前の入力映像5の4頂点の座標およびステップS109の処理にて求めた台形補正後の入力映像5の4頂点の座標から、入力映像座標系における台形補正のための変換行列Mを求める(ステップS110)。
 以上の処理により、カメラ画像中のカード1の向きに応じた台形補正を行うための変換行列Mが求まる。幾何変換回路20は、変換行列Mを適用して幾何学補正、すなわち台形歪みの補正を行う(ステップS111)。
 以上により、プロジェクタ10の前にカード1をかざすだけで、投射映像の台形補正の調整を行うことができる。
 これにより、パターンが印刷された特殊なスクリーンなどを用いることなく、短時間で容易に投射映像の補正処理を実現することができる。また、パターンが印刷された特殊なスクリーンなどが不要となるので、利便性を向上することができる。
 (実施の形態2)
 〈概要〉
 前記実施の形態1では、図10のステップS106の処理にてカード1の長方形を基準とした座標軸に合わせて、実映像領域4の長方形を規定していた。そのため、カード1が完全に水平ではなく、傾いて保持されている場合には、実映像領域4もそれに合わせて傾いてしまうことになる。
 これは、利用者がカードの操作により投射映像の傾きも調整したい場合には便利な機能である反面、映像を常に水平を保って投射したい場合には、カード1の僅かな傾きが、映像を傾きに結びつくため不便なことがある。
 よって、本実施の形態2においては、カード1の傾きが投射映像の傾きに影響しない技術について説明する。プロジェクタ10の傾きは、プロジェクタ10に内蔵された重力センサ50を用いて取得する。幾何変換行列算出時には、プロジェクタ10の傾きを考慮することにより、カード1が完全に水平になっていない場合であっても、投射映像が水平になるように補正することができるそれにより、カード1を厳密に水平に保つ必要がなく、より使い勝手を向上させることが可能となる。
 〈プロジェクタの構成例〉
 図11は、本実施の形態2におけるプロジェクタ10による構成の一例を示す説明図である。
 図11に示すプロジェクタ10が前記実施の形態1の図2のプロジェクタと異なるところは、重力センサ50が新たに追加されている点である。その他の構成については、前記実施の形態1の図2と同様であるので説明は省略する。
 傾きセンサである重力センサ50は、プロジェクタ10の傾きを検知する。この重力センサ50は、例えばスマートフォンなどに使われている加速度センサと同様に重力の働く向きを検知可能なデバイスである。この重力センサ50を用いることにより、プロジェクタ10が水平面に対してどの程度傾いているかを検出することができる。
 〈カードを用いたプロジェクタの投射例および補正例〉
 図12は、プロジェクタ10が水平面に対して傾いて置かれた場合の一例を示す説明図である。図13は、図12のプロジェクタ10が有するカメラ30によるカメラ映像の一例を示す説明図である。
 プロジェクタ10は、図12に示すように、鉛直軸に対してある角度が付くように置かれている。重力センサ50を設けることにより、プロジェクタ10の中心軸が鉛直方向となす角θを求めることが可能となる。
 ここで、カード1が実際の水平方向から角αだけ傾けて保持されている場合を考えると、カメラ30の映像は、図13のようになる。この図13において、水平線80は、実際の水平方向を示した線であり、実際のカメラ映像には写っていない。
 ここでは、重力センサ50の検出結果を用いて、カード1の傾きαによる影響を取り除いた状態でプロジェクタ10の投射映像の幾何補正を行う。プロジェクタ10それ自体の傾き角θについては、カメラ30による撮影時とプロジェクタ10による映像投射時の両方に逆方向に作用するため、最終的に相殺される。そのため、変換行列Mを算出する際には、角θの影響は考慮せず、カード1の傾き角αのみを考慮すればよいことになる。
 図13に示すカメラ映像からは、カメラ座標系におけるカード1の傾き角であるα+θの値を求めることが可能である。一方、重力センサ50の検出値からはθを求めることができるので、両者の間で減算を行うことで角度αの値を求めることができる。これらの処理は、例えば変換行列算出回路32が行う。
 〈変換行列Mの算出処理例〉
 この角度αを考慮して変換行列Mを求める際の処理について、図14および図15を用いて説明する。
 図14は、各座標系における処理例を示した説明図である。図15は、図13のプロジェクタ10が有する変換行列算出回路32による変換行列Mの算出処理の一例を示すフローチャートである。
 図14は、前記実施の形態図9と同様に変換行列Mを算出する過程で必要となる3つの座標系をそれぞれ表しており、図14(a)は、カメラ座標系を示し、図14(b)、図14(c)は、正面視座標系をそれぞれ示す。図14(d)は、入力映像座標系を示す。
 ここでは、基本的な流れが前記実施の形態1の図9および図10と共通であるため、相違がある部分のみを説明する。
 まず、図14(a)に示すカメラ画像座標系において、カード1は、α+θだけ傾いた状態により撮影されることになり、前述のように撮影画像と重力センサの測定値から角度αを算出することが可能となる(ステップS201)。
 また、ステップS203の処理においては、このαを用いてカード1が縦横比a:bであり、角度αだけ傾いた長方形となるように正面視座標系を規定する。縮尺については、実施の形態1と同じ考え方を適用する。
 その他の処理については、実施の形態1の図10と同様の処理を行うことにより、変換行列Mを求める。この変換行列Mを用いて透視変換を実行することにより、投射映像の台形補正を行うことができる。
 以上により、カード1が傾いている場合であっても、投射映像の補正処理を行うことができるので、より利便性を高めることができる。
 (実施の形態3)
 〈概要〉
 前記実施の形態1では、投射映像の傾きがカード1の傾きに連動するように投射映像を変換する。これにより使用者がカードを操作することにより、投射映像の傾きを簡単に調整できるようになっていた。
 一方、前記実施の形態2では、カード1の傾きが投射映像の傾きに影響を与えない。そのため、カード1を厳密に水平に保つ必要性がなく、映像を常に水平に投射したいケースでは使い勝手の良いシステムとなっていた。
 本実施の形態3においては、両者を切り換える機構を有するプロジェクタ10について説明する。まず、プロジェクタ10が投射映像中に投射する図示しない操作メニューにモード切り替えを追加し、前記実施の形態1の図10の処理(第1のモード)および前記実施の形態2の図15の処理(第2のモード)をそれぞれ選択することができるようにする。これは、ユーザの好みにより、前記実施の形態1の図10の処理および前記実施の形態2の図15の処理のいずれを行うかを手動で選択できるようにしたものである。なお、プロジェクタ10の構成は、前記実施の形態2の図11に示すプロジェクタ10と同様である。これらのモード変更は制御マイコン41が各回路を制御することにより実現すればよい。
 以上により、映像変換後の映像を水平に保つモードと、映像変換後の映像を補正用操作物体であるカードの傾きと連動させるモードとを、ユーザの好みによって選択することができる。
これにより、一層使い勝手のよいプロジェクタ10を提供することができる。
 次に、本実施の形態3の変形例として、上述の第1のモードと第2のモードの選択を自動的に変更する例について説明する。
 〈プロジェクタの設置例〉
 図16は、本実施の形態3の変形例によるプロジェクタ10における設置の一例を示す説明図である。図17は、図16の他の例を示す説明図である。図16は、プロジェクタ10を横向きに設置した際の例を示しており、図17は、プロジェクタ10を縦向きに設置した際の例を示している。
 本実施の形態3の変形例では、上述した操作メニューのモードの切り替えは、例えば図11の重力センサ50を用いて自動的に行うことが可能である。図16に示すように、プロジェクタ10を横向きに設置して、鉛直なスクリーンに対して映像を投射する場合には、前記実施の形態2の図15に示したようにカード1の回転方向の傾きを考慮せずに、常に投射映像が水平になるように投射されると便利である。すなわち、プロジェクタ10が鉛直なスクリーンに対して映像を投射する場合には、制御マイコン41は第2のモードを選択する制御を行う。
 一方、図17に示すように、プロジェクタ10を縦向きに置き、上方から机などの水平な面に対して映像を投射する場合には、前記実施の形態2にて示したような重力センサ50を利用した処理が意味を持たないことなる。その場合には、前記実施の形態1の図10による処理を行うのが妥当である。すなわち、プロジェクタ10が水平な面に対して映像を投射する場合には、制御マイコン41は第1のモードを選択する制御を行う。
 プロジェクタ10の使用形態が図16または図17のいずれに該当するかは、図11の重力センサ50の検出結果によって、プロジェクタ10の設置姿勢を判断することにより判別できる。
 制御マイコン41は、図11の重力センサ50の検出結果に基づいて、変換行列算出回路32における変換行列算出の処理を第1のモード(図10の処理)もしくは第2のモード(図15の処理)のいずれかの処理を選択して使用するように制御する。これにより、モード切り替えの自動化を実現することができる。
 なお、上述の例では、プロジェクタ10が鉛直なスクリーンに対して映像を投射する場合には、制御マイコン41は第2のモードを選択する制御を行う、と説明した。しかしながら、プロジェクタ10が鉛直なスクリーンに対して映像を投射する場合について、第2のモードの強制選択とせず、あらかじめメニューを介してユーザの好みにより選択されたモードとなるように制御してもよい。
 以上により、プロジェクタ10が縦向きに設置された場合と、横向きのいずれに設置された場合とのいずれの場合であっても、映像変換後の映像を水平に保つモードと、映像変換後の映像を補正用操作物体であるカードの傾きと連動させるモードとを好適に選択することができる。これにより、一層使い勝手のよいプロジェクタ10を提供することができる。
 (実施の形態4)
 〈概要〉
 前記実施の形態1~3では、上述したようにカード1として名刺やA4用紙のようなものを想定したが、これらのものがプロジェクタ10を使用する際に近くに見あたらないケースも発生しうる。
 〈レンズキャップの構成例〉
 本実施の形態4においては、このような場合に備えて、プロジェクタ10の付属品によって、カード1に相当する機能を実現する技術について説明する。
 図18は、本実施の形態4によるレンズキャップ15の一例を示す説明図である。
 図18に示すレンズキャップ15は、プロジェクタ10が有するレンズ13に装着するものであり、例えばプロジェクタ10が使用されていない場合などに装着して、該レンズ13のレンズ面を保護する。
 このレンズキャップ15の裏側には、図3のカード1の代用として使用される白い長方形のラベル19が貼り付けられている。カード1が見あたらない場合でも、その代用品としてレンズキャップ15をカメラ30の前にかざすことにより、カード1と同等の機能を有することになり、幾何補正を行うことができる。
 続いて、レンズキャップ15の他の例について説明する。図19は、図18の他の例を示す説明図である。
 〈レンズキャップの他の構成例〉
 図19に示すレンズキャップ15が、図18のレンズキャップ15と異なる点は、レンズキャップ15の裏側の長方形のラベル19に二次元バーコード16などの特殊なパターンが印刷されているところである。
 このように、ラベル19に二次元バーコード16を印刷することによって、カメラ映像に特殊なパターン、すなわち二次元バーコード16が存在する場合には、自動的にカメラ30を用いた幾何補正を行うモードに切り替えることができる。二次元バーコード16が存在する場合には、自動的に前記実施の形態1~3に示した投射映像の台形補正を行うことができる。
 補正処理パターンである二次元バーコード16が存在するか否かの判定は、例えば図2の四角形検出回路31などが行う。あるいは、制御マイコン41が判定するようにしてもよい。
 なお、ここでは、ラベル19に二次元バーコード16を印刷する構成としたが、例えば前記実施の形態1~3におけるカード1に二次元バーコード16を印刷するようにしてもよい。
 その場合、カード1に二次元バーコード16が存在する際には、自動的にカメラを用いた幾何補正を行うモードに切り替えることができる。
 以上により、カード1などがない場合であっても、容易に投射映像を補正することができるので、投射映像の補正処理をより簡単に短時間で行うことができる。
 (実施の形態5)
 〈概要〉
 本実施の形態5においては、カード1の代用としてスマートフォンなどを用いる技術について説明する。
 この場合、スマートフォンが有する液晶画面を全白状態にして、カード1の代用とする。そして、その液晶画面を図2のカメラ30の前にかざすことにより、カード1の代用として投射映像の補正処理を行う。
 上述した実施の形態1~4では、カード1の縦横比の情報が必要であったが、スマートフォンの画面の縦横比は機種毎異なる。よって、例えば16:9などのように、標準的な縦横比を仮定して処理を進める。
 〈液晶画面の表示例〉
 図20は、本実施の形態5によるスマートフォン18が有する液晶画面17における表示の一例を示す説明図である。
 その他にも、図20に示すように、スマートフォン18の液晶画面17に二次元バーコード16を表示するようにしてもよい。この二次元バーコード16は、前記実施の形態4の図19の二次元バーコード16と同様である。そして、液晶画面17に表示した二次元バーコード16の組み合わせによって、画面の縦横比の情報をプロジェクタ10に通知する。
 この場合、図2のプロジェクタ10は、カメラ映像中に現れた二次元バーコード16を例えば図2の制御マイコン41などがデコードして縦横比の情報を取得して、図2の変換行列Mの算出に利用する。
 以上によっても、カード1などがない場合であっても投射映像を補正することができるので、投射映像の補正処理を簡単に短時間で行うことができる。
 以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
 なお、本発明は上記した実施の形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
 また、ある実施の形態の構成の一部を他の実施の形態の構成に置き換えることが可能であり、また、ある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加、削除、置換をすることが可能である。
1 カード
10 プロジェクタ
11 光源
12 光変調デバイス
13 投射用レンズ
13 レンズ
14 制御マイコン
15 レンズキャップ
16 二次元バーコード
19 ラベル
17 液晶画面
18 スマートフォン
20 幾何変換回路
30 カメラ
31 四角形検出回路
32 変換行列算出回路
40 タイミング生成回路
41 制御マイコン
50 重力センサ

Claims (11)

  1.  映像を投射する投射型映像表示装置であって、
     外部から入力される映像に対して映像変換を行う映像変換部と、
     前記映像変換部にて映像変換した前記映像を映像投射面に投射する映像投射部と、
     前記映像投射部が投射する投射映像の投射範囲および補正用物体を撮影した画像を取得する撮像部と、
     前記撮像部が撮影した前記画像を用いた演算処理を行う演算部と、
     を有し、
     前記演算部は、前記撮像部が撮影した前記映像投射部の投射範囲および前記補正用物体の画像から補正データを生成し、
     前記映像変換部は、前記演算部が生成する前記補正データに基づいて、前記映像投射部による投射映像の投射範囲が映像投射面上で矩形となるように映像変換を行う、投射型映像表示装置。
  2.  請求項1記載の投射型映像表示装置において、
     前記演算部は、
     前記撮像部が撮影した画像に基づいて、前記投射範囲における基準点となる座標および前記補正用物体の画像の基準点となる座標を算出し、これらの座標を用いた演算処理を行い、前記補正データとなる変換行列を算出し、
     前記映像変換部は、前記変換行列を用いた変換処理により前記投射映像の投射範囲が矩形となるように映像を変換する、投射型映像表示装置。
  3.  請求項1記載の投射型映像表示装置において、
     前記演算部は、
     前記撮像部が撮影した前記投射範囲および前記補正用物体の画像から前記投射範囲の4つのコーナ部の座標をそれぞれ示す第1の座標データと前記補正用物体の4つのコーナ部の座標をそれぞれ示す第2の座標データとをそれぞれ算出する検出部と、
     前記補正用物体の画像が矩形となる4つのコーナ部の座標をそれぞれ示す第3の座標データを算出し、および算出した前記第3の座標データと前記第2の座標データとの対応に基づいて、前記補正データとなる変換行列を算出する変換行列算出部と、
     を有し、
     前記映像変換部は、前記変換行列算出部が算出した前記変換行列を用いて、前記検出部が算出した前記第1の座標データに対する透視変換を行い、前記投射映像の投射範囲が矩形となるように映像を変換する、投射型映像表示装置。
  4.  請求項1~3のいずれか1項に記載の投射型映像表示装置において、
     前記投射型映像表示装置の傾きを検出する傾きセンサを有し、
     前記演算部は、前記傾きセンサの検出結果を用いて、前記映像変換部による映像変換後の矩形の前記投射映像の投射範囲の下辺が水平となるように、前記補正データを生成する、投射型映像表示装置。
  5.  請求項1記載の投射型映像表示装置において、
     前記投射型映像表示装置の傾きを検出する傾きセンサと、
     前記演算部と前記映像変換部とを制御する制御部を備え、
     前記制御部は、
    前記演算部が前記映像変換部による変換処理がなされた後の前記投射映像の投射範囲の矩形が前記補正用物体の傾きと連動して傾くように前記補正データを生成するように前記演算部と前記映像変換部とを制御する第1のモードと、
    前記傾きセンサの傾き検出結果を用いて、前記演算部が前記映像変換部による変換処理がなされた後の前記投射映像の投射範囲の矩形の下辺が水平となるように前記補正データを生成するように前記演算部と前記映像変換部とを制御する第2のモードと、
    を切り替え可能とする、投射型映像表示装置。
  6.  請求項1記載の投射型映像表示装置において、
     前記補正用物体は、長方形状のカードである、投射型映像表示装置。
  7.  請求項6記載の投射型映像表示装置において、
     前記カードは、前記映像投射部が有するレンズを保護するレンズキャップに設けられる、投射型映像表示装置。
  8.  請求項7記載の投射型映像表示装置において、
     前記演算部と前記映像変換部とを制御する制御部を備え、
     前記制御部は、前記撮像部が撮影した前記カードの画像に所定の補正処理パターンがあるか否かを判定し、前記所定の補正処理パターンがある場合に前記映像変換を行うように、前記演算部と前記映像変換部とを制御する、投射型映像表示装置。
  9.  外部から入力される映像に対して映像変換を行う映像変換部と、前記映像変換部で映像変換した前記映像を映像投射面に投射する映像投射部と、前記映像投射部が投射する投射範囲および補正用物体を撮影した画像を取得する撮像部と、前記撮像部が撮影した前記画像を演算処理する演算部と、を有する投射型映像表示装置による投射映像の調整方法であって、
     前記撮像部が、前記映像投射部が投射する投射範囲および補正用物体の画像を撮影するステップと、
     前記演算部が、前記撮像部が撮影した前記投射範囲および前記補正用物体の画像から補正データを生成するステップと、
     前記映像変換部が、前記演算部が生成する前記補正データに基づいて、前記映像投射部の投射映像の投射範囲が矩形となるように映像変換を行うステップと、
     を有する、投射映像の調整方法。
  10.  請求項9記載の投射映像の調整方法において、
     前記補正データを生成するステップでは、前記撮像部が撮影した画像にもとづいて、前記投射範囲における基準点となる座標および前記補正用物体の画像の基準点となる座標を算出し、これらの座標を用いた演算処理を行い、前記補正データとなる変換行列を算出し、
    前記映像変換を行うステップでは、前記変換行列を用いた変換処理により前記投射映像の投射範囲が矩形となるように映像を変換する、投射映像の調整方法。
  11.  請求項9記載の投射映像の調整方法において、
     前記補正データを生成するステップは、
     前記撮像部が取得した前記投射範囲および前記補正用物体の画像から前記投射範囲の4つのコーナ部の座標をそれぞれ示す第1の座標データと前記補正用物体の4つのコーナ部の座標をそれぞれ示す第2の座標データとを算出するステップと、
     前記補正用物体の画像が矩形となる4つのコーナ部の座標をそれぞれ示す第3の座標データを算出するステップと、
     前記第2の座標データと前記第3の座標データとの対応に基づいて、補正データとなる変換行列を算出するステップと、
     を有し、
     前記映像変換を行うステップは、前記変換行列を用いて、前記投射範囲における前記第1の座標データに対する透視変換を行い、前記投射映像の投射範囲が矩形となるように調整する、投射映像の調整方法。
PCT/JP2016/075594 2016-09-01 2016-09-01 投射型映像表示装置および投射映像の調整方法 WO2018042582A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/319,667 US11178369B2 (en) 2016-09-01 2016-09-01 Projection type video-image display apparatus and projected video-image adjusting method
JP2018536606A JP6749402B2 (ja) 2016-09-01 2016-09-01 投射型映像表示装置および投射映像の調整方法
PCT/JP2016/075594 WO2018042582A1 (ja) 2016-09-01 2016-09-01 投射型映像表示装置および投射映像の調整方法
CN201680088913.0A CN109644248B (zh) 2016-09-01 2016-09-01 投射型影像显示装置和投射影像的调整方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/075594 WO2018042582A1 (ja) 2016-09-01 2016-09-01 投射型映像表示装置および投射映像の調整方法

Publications (1)

Publication Number Publication Date
WO2018042582A1 true WO2018042582A1 (ja) 2018-03-08

Family

ID=61301762

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/075594 WO2018042582A1 (ja) 2016-09-01 2016-09-01 投射型映像表示装置および投射映像の調整方法

Country Status (4)

Country Link
US (1) US11178369B2 (ja)
JP (1) JP6749402B2 (ja)
CN (1) CN109644248B (ja)
WO (1) WO2018042582A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110738273A (zh) * 2019-10-23 2020-01-31 成都极米科技股份有限公司 图像特征点的匹配方法、装置、设备及存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11178369B2 (en) * 2016-09-01 2021-11-16 Maxell, Ltd. Projection type video-image display apparatus and projected video-image adjusting method
CN114449236B (zh) * 2020-10-30 2024-04-09 扬智科技股份有限公司 投影装置与其投影画面校正方法
CN114007054B (zh) * 2022-01-04 2022-04-12 宁波均联智行科技股份有限公司 车载屏幕画面投影矫正的方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003289485A (ja) * 2002-03-27 2003-10-10 Seiko Epson Corp 投写型画像表示装置及び平面被投写体
JP2005136699A (ja) * 2003-10-30 2005-05-26 Sharp Corp 投射型表示装置の台形歪み自動補正方法
JP2006101140A (ja) * 2004-09-29 2006-04-13 Sanyo Electric Co Ltd 投写型映像表示装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6456339B1 (en) * 1998-07-31 2002-09-24 Massachusetts Institute Of Technology Super-resolution display
US6840627B2 (en) * 2003-01-21 2005-01-11 Hewlett-Packard Development Company, L.P. Interactive display device
JP2005223393A (ja) * 2004-02-03 2005-08-18 Casio Comput Co Ltd 投影装置、投影方法、及び投影プログラム
US20080062266A1 (en) * 2006-09-12 2008-03-13 Mediatek Inc. Image test board
JP4428371B2 (ja) 2006-09-22 2010-03-10 セイコーエプソン株式会社 投写型画像表示装置及び平面被投写体
JP2011154345A (ja) * 2009-12-28 2011-08-11 Sanyo Electric Co Ltd 投写型映像表示装置及び画像調整方法
JP6176114B2 (ja) * 2011-09-15 2017-08-09 日本電気株式会社 投影像自動補正システム、投影像自動補正方法およびプログラム
JP2013145372A (ja) * 2011-12-14 2013-07-25 Panasonic Corp 撮像装置
US9600736B2 (en) * 2015-06-29 2017-03-21 International Business Machines Corporation Pose detection using depth camera
CN105607395A (zh) * 2016-03-08 2016-05-25 苏州佳世达光电有限公司 投影装置及其校正方法
US10412353B2 (en) * 2016-04-18 2019-09-10 Sony Interactive Entertainment Inc. Processing apparatus and image projecting method
US11178369B2 (en) * 2016-09-01 2021-11-16 Maxell, Ltd. Projection type video-image display apparatus and projected video-image adjusting method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003289485A (ja) * 2002-03-27 2003-10-10 Seiko Epson Corp 投写型画像表示装置及び平面被投写体
JP2005136699A (ja) * 2003-10-30 2005-05-26 Sharp Corp 投射型表示装置の台形歪み自動補正方法
JP2006101140A (ja) * 2004-09-29 2006-04-13 Sanyo Electric Co Ltd 投写型映像表示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110738273A (zh) * 2019-10-23 2020-01-31 成都极米科技股份有限公司 图像特征点的匹配方法、装置、设备及存储介质

Also Published As

Publication number Publication date
JP6749402B2 (ja) 2020-09-02
US20200413014A1 (en) 2020-12-31
CN109644248A (zh) 2019-04-16
CN109644248B (zh) 2021-03-19
JPWO2018042582A1 (ja) 2019-04-11
US11178369B2 (en) 2021-11-16

Similar Documents

Publication Publication Date Title
KR100571175B1 (ko) 화상 처리 시스템, 프로젝터, 정보 기억 매체 및 화상처리 방법
Sukthankar et al. Smarter presentations: Exploiting homography in camera-projector systems
US7537350B2 (en) Image processing system, projector, program, information storage medium, and image processing method
CN110099266B (zh) 投影机画面校正方法、装置及投影机
TWI298416B (en) Projector and image correction method
JP5910157B2 (ja) 画像投射装置
TWI235944B (en) Image processing system, projector and image processing method
JP5257616B2 (ja) プロジェクター、プログラム、情報記憶媒体および台形歪み補正方法
JP6749402B2 (ja) 投射型映像表示装置および投射映像の調整方法
WO2018173739A1 (ja) プロジェクターおよびプロジェクターの制御方法
WO2017169186A1 (ja) 画像投影システムおよび補正方法
JP2013192098A (ja) 投映システム、投映方法、プログラムおよび記録媒体
JP2004274283A (ja) 投影システム、及び投影装置、画像供給装置、プログラム
US20210289182A1 (en) Method of controlling projector and projector
JP2017072795A (ja) プロジェクター、及び、プロジェクターの制御方法。
KR20130043300A (ko) 프로젝터를 통해 투사되는 영상을 보정하기 위한 장치 및 방법
JP5561503B2 (ja) プロジェクター、プログラム、情報記憶媒体および台形歪み補正方法
WO2017179111A1 (ja) 表示システムおよび情報処理方法
JP2015139087A (ja) 投影装置
JP6221287B2 (ja) プロジェクター及びプロジェクターの制御方法
CN114339179B (zh) 投影校正方法、装置、存储介质以及投影设备
JP2011199717A (ja) 投写型表示装置および画像表示方法
JP2022147145A (ja) プロジェクタ、投影システム、補正値修正方法及びプログラム
JP2010288062A (ja) プロジェクター、プログラム、情報記憶媒体および画像投写方法
TWI783600B (zh) 影像校正系統及其方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16915143

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018536606

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16915143

Country of ref document: EP

Kind code of ref document: A1