WO2012172655A1 - プロジェクタおよびその制御方法 - Google Patents

プロジェクタおよびその制御方法 Download PDF

Info

Publication number
WO2012172655A1
WO2012172655A1 PCT/JP2011/063689 JP2011063689W WO2012172655A1 WO 2012172655 A1 WO2012172655 A1 WO 2012172655A1 JP 2011063689 W JP2011063689 W JP 2011063689W WO 2012172655 A1 WO2012172655 A1 WO 2012172655A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
projection
video signal
unit
projector
Prior art date
Application number
PCT/JP2011/063689
Other languages
English (en)
French (fr)
Inventor
拓也 上田
浩省 池田
Original Assignee
Necディスプレイソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necディスプレイソリューションズ株式会社 filed Critical Necディスプレイソリューションズ株式会社
Priority to PCT/JP2011/063689 priority Critical patent/WO2012172655A1/ja
Publication of WO2012172655A1 publication Critical patent/WO2012172655A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Definitions

  • the present invention relates to a projector and a control method thereof.
  • a usage form in which an image is projected using a projector on a projection surface such as a whiteboard that can be written by a user, and the contents of a discussion corresponding to the projected image is written on the projection surface is common.
  • a usage mode there are cases where it is desired to leave the image projected on the projection surface and the written content together as a minutes.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2006-053313 discloses a projector that includes a camera and shoots the projection surface using the camera in a state where an image is projected onto the projection surface. According to this projector, it is possible to generate a minutes image including the image projected on the projection surface and the written content by photographing the projection surface on which the image is projected and written.
  • the photographed image photographed as the minutes image includes a high-intensity region 22 (hereinafter referred to as a hot spot) in which the light from the projector lamp is reflected by the projection surface 20. 22) may occur.
  • a hot spot in which the light from the projector lamp is reflected by the projection surface 20. 22
  • the projector disclosed in Patent Document 1 has a problem that the generated minutes image may be difficult for the user to see.
  • An object of the present invention is to provide a projector capable of generating a minutes image that is easy for a user to view and a control method therefor.
  • the projector of the present invention provides: A projection unit that projects an image according to an input video signal onto a projection surface on which a user can write; A photographing unit for photographing the projection surface and outputting image data of the photographed image; A storage unit; When a predetermined event occurs, an image corresponding to the projected video signal is stored in the storage unit, and after the projection unit interrupts projection of the image, the projection unit is caused to shoot the projection plane.
  • a captured image processing unit that generates a minutes image by combining an image corresponding to the video signal stored in the storage unit with a captured image of the captured image.
  • a projector control method includes: A projector control method comprising: Project an image according to the input video signal onto a projection surface that the user can write, When a predetermined event occurs, an image corresponding to the projected video signal is stored, and after the projection of the image is interrupted, the projection plane is shot, and the stored video is captured in the shot image. A minutes image is generated by combining images according to the signal.
  • FIG. 1 It is a figure which shows an example of the image process which the picked-up image process part shown in FIG. 1 performs. It is a figure which shows an example of the image process which the picked-up image process part in the 2nd Embodiment of this invention performs. It is a figure which shows another example of the image process which the picked-up image process part in the 2nd Embodiment of this invention performs. It is a figure which shows an example of the projection state of the projector in the 3rd Embodiment of this invention. It is a figure which shows an example of the picked-up image in the 4th Embodiment of this invention.
  • the projector 10 projects an image (hereinafter referred to as an input image) corresponding to a video signal given from an external video signal source onto the projection plane 20.
  • the projection surface 20 is a white board or the like that can be directly written by the user.
  • FIG. 4 is a block diagram illustrating a configuration of the projector 10 according to the present embodiment.
  • the 4 includes a video signal input unit 110, a frame memory unit 120, a video signal processing unit 130, a display unit 140, a light source 141, a projection lens 142, a photographing unit 150, and a storage unit 160.
  • the video signal processing unit 130, the display unit 140, the light source 141, and the projection lens 142 constitute a projection unit.
  • a video signal given from an external video signal source is input to the video signal input unit 110.
  • the video signal input unit 110 outputs a video signal input from an external video signal source to the frame memory unit 120, the video signal processing unit 130, and the captured image processing unit 180.
  • the frame memory unit 120 stores an image corresponding to the video signal output from the video signal input unit 110 for each frame.
  • the video signal processing unit 130 performs predetermined processing for converting the video signal output from the video signal input unit 110 into a video signal suitable for display on the display unit 140, for example, scaling processing or frequency conversion processing. Do.
  • the scaling process is a process of converting the resolution of the image corresponding to the video signal to an appropriate resolution when the resolution of the image corresponding to the video signal is different from the resolution of the display unit 140.
  • the frequency conversion process is a process of converting the frequency of the video signal to an appropriate frequency when the frequency of the video signal is different from the drive frequency of the display unit 140.
  • the video signal processing unit 130 stores an image corresponding to the video signal subjected to the above-described predetermined processing in the frame memory unit 120 and outputs the video signal to the display unit 140. The image stored in the frame memory unit 120 is used when the above-described predetermined processing is performed.
  • the display unit 140 is, for example, a transmissive liquid crystal panel having a general configuration, and displays a video corresponding to the video signal output from the video signal processing unit 130.
  • the light source 141 outputs light that illuminates the display unit 140.
  • the projection lens 142 enlarges and projects the light output from the light source 141 and modulated in accordance with the display on the display unit 140 onto the projection plane 20.
  • the photographing unit 150 photographs the projection surface 20 and outputs image data of the photographed image to the photographed image processing unit 180.
  • writing since writing may be performed not only in the area where the image according to the video signal on the projection surface 20 is projected, but also over the entire projection surface 20, the photographing unit 150 photographs substantially the entire projection surface 20. To do.
  • the storage unit 160 stores various data.
  • the input unit 170 receives an operation input and outputs a signal corresponding to the input operation to the captured image processing unit 180.
  • the photographed image processing unit 180 When a predetermined event occurs, the photographed image processing unit 180 generates a minutes image including the image projected on the projection surface 20 and the written content, and stores it in the storage unit 160. In the following, it is assumed that the captured image processing unit 180 generates a minutes image when a trigger signal is output from the input unit 170 in response to an input requesting generation of a minutes image.
  • the captured image processing unit 180 outputs the image data indicating the minutes image as a video signal output.
  • the unit 190 is instructed.
  • the image signal output unit 190 When the video signal output unit 190 receives an instruction to output the minutes image from the captured image processing unit 180, the image signal output unit 190 acquires image data indicating the minutes image from the storage unit 160 and outputs the image data to the outside.
  • the projector 10 projects the image 21 shown in FIG. 1 on the projection surface 20 as an image corresponding to the video signal.
  • the writing shown in FIG. 1 it is assumed that the projector 10 projects the image 21 shown in FIG. 1 on the projection surface 20 as an image corresponding to the video signal.
  • the projection of an image using the projector 10 is performed in a dark environment, such as turning off indoor lighting.
  • the strobe of the photographing unit 150 may be caused to emit light.
  • This strobe light may cause a hot spot in the captured image of the captured image 150.
  • the projector 10 is disposed obliquely with respect to the projection plane 20, and the angle between the optical axis of the projection lens 142 of the projector 10 and the projection plane 20 is vertical. In some cases, so-called oblique projection is performed.
  • FIG. 5 is a diagram showing a state in which the projector 10 performs oblique projection. 5 shows that the projector 10 is arranged obliquely downward to the right with respect to the projection plane 20, and the angle between the projection optical axis of the projection lens 142 and the projection plane 20 is the horizontal plane and the projection optical axis perpendicular to the horizontal plane. It shows a non-vertical state on a vertical plane including.
  • the image 21 corresponding to the video signal is projected in a substantially rectangular shape as viewed from the user 1 at the position facing the projection plane 20, so that the image 21 corresponding to the video signal is projected in a substantially rectangular shape.
  • Keystone correction is performed. That is, as shown in FIG. 5, the projector 10 has a substantially rectangular image in a projection area 23 that is an area on the projection plane 20 where the light from the lamp 141 is projected as viewed from the position facing the projection plane 20. An image 21 corresponding to the signal is projected.
  • trapezoidal distortion occurs in the projection area 23. Since trapezoidal distortion correction when oblique projection is performed is well known to those skilled in the art, detailed description thereof is omitted.
  • the captured image processing unit 180 displays an image corresponding to the video signal projected on the projection surface 20.
  • 21 (hereinafter referred to as an input image) is stored in the storage unit 160 (step S102).
  • the image 21 corresponding to the video signal output from the video signal input unit 110 when the trigger signal is output may be stored as it is, or stored in the frame memory unit 120. It may be an image. However, in the case of oblique projection, the image stored in the frame memory unit 120 may be an image that has been subjected to trapezoidal distortion correction by the video signal processing unit 130.
  • the trapezoidal distortion correction is temporarily performed. It is memorized after canceling. In order to temporarily cancel the trapezoidal distortion correction, it is necessary to rewrite the image stored in the frame memory unit 120, which may cause a delay of one frame. However, a delay of several frames is usually not a problem.
  • the image stored in the frame memory unit 120 may be an image obtained by converting the resolution according to the resolution of the display unit 140 by the video signal processing unit 130. In this case, the image after resolution conversion may be stored. The image stored in the frame memory unit 120 is rewritten as needed in accordance with input of a video signal, display processing on the display unit 140, and the like.
  • the timing for stopping the rewriting of the image to the frame memory unit 120 is such that the rewriting of the image for one frame is completed after the output of the trigger signal is detected so that images of different frames are not mixed in the frame memory unit 120. It is desirable that the rewriting of the image of the next frame is started from the time point. Note that when a plurality of frames of images can be stored, such as when a plurality of frame memory units 120 are provided, the above-described process of stopping rewriting of images in the frame memory units 120 is not necessary.
  • the photographed image processing unit 180 projects a test image indicating a region on which the image 21 corresponding to the video signal is projected on the projection plane 20 instead of the image 21 corresponding to the video signal to the video signal processing unit 130.
  • the test image include a white frame indicating the outermost periphery of the image 21 corresponding to the video signal.
  • the area other than the white frame is, for example, a black image.
  • the test image is not only a white frame indicating the outermost periphery of the image 21 corresponding to the video signal, but also an image (cross) that is a combination of vertical and horizontal lines arranged at predetermined intervals in the vertical and horizontal directions. Hatch) may be used.
  • the cross-hatch image can also be used when correcting the keystone distortion.
  • the photographed image processing unit 180 causes the photographing unit 150 to photograph the projection surface 20.
  • the test image is a white frame, there are few brightly displayed portions, so that the influence of the hot spot can be suppressed.
  • FIG. 7 is a diagram showing a photographed image 30-1 of the photographing unit 150.
  • the image 21 corresponding to the video signal is set so that the image 21 corresponding to the video signal is substantially rectangular when viewed from the user 1.
  • a trapezoidal distortion correction is performed for. Therefore, as shown in FIG.
  • the captured image processing unit 180 identifies the image display area 32 and the writing area 33 in the captured image 30-1 (step S103).
  • the captured image processing unit 180 specifies the image display area 32 based on the test image 31 of the captured image 30-1.
  • the captured image processing unit 180 specifies, as the writing region 33, a substantially rectangular region that has a substantially uniform luminance, color, and the like, in the periphery of the image display region 32 in the captured image 30-1, for example. To do.
  • the captured image processing unit 180 extends (part of) a straight line in the captured image 30-1 that is a peripheral portion of the image display area 32 and has continuous edges with large changes in luminance, color, and the like.
  • a substantially rectangular area obtained by the above is specified as the writing area 33.
  • the writing area 33 does not necessarily have a quadrangular shape.
  • the captured image processing unit 180 temporarily interrupts projection onto the projection plane 20.
  • the display on the display unit 140 is an all-black image
  • the light source 141 is turned off, or the optical path from the light source 141 to the projection surface 20 is changed.
  • FIG. 8 is a diagram showing a photographed image 30-2 of the photographing unit 150.
  • the photographed image 30-2 since the projection from the projector 10 is interrupted, only the writing area 33 is photographed.
  • the projection from the projector 10 is interrupted, and since the image is taken from an oblique direction with respect to the projection plane 20, in the photographed image 30-2, the light of the light source 141 or the photographing unit 150 A hot spot caused by the light of the strobe does not occur, and the image is easy for the user to see.
  • the captured image processing unit 180 generates a writing image composed of the image display area 32 and the writing area 33 in the captured image of the capturing unit 150 based on the captured image 30-2.
  • Obtain (step S104) Since the image display area 32 is usually in the writing area 33, the image in the area surrounded by the writing area 33 in the captured image becomes the writing image.
  • the photographing conditions such as the angle and distance between the photographing unit 150 and the projection surface 20 are the same in the photographed image 30-1 and the photographed image 30-2, the image display area 32 and the writing area 33 are In the same position. Therefore, the captured image processing unit 180 can generate a written image from the captured image 30-2 based on the image display area 32 and the writing area 33 specified from the captured image 30-1.
  • the captured image processing unit 180 specifies the image display area 32 and the writing area 33 based on the captured image 30-1, and writes based on the captured image 30-2.
  • the present invention is not limited to this.
  • the captured image processing unit 180 stops projecting the image 21 according to the video signal and projects the test image 31 in a state where the test image 31 is projected.
  • the image display area 32 and the writing area 33 may be specified based on the captured image, and a written image may be generated. By doing so, it is possible to shoot only once and reduce the processing amount.
  • the projection of the image 21 corresponding to the video signal is interrupted, and the image display area 32 and the writing area 33 are specified based on the captured image 30 captured with the test image 31 projected, and the written image is A description will be given assuming that generation has been performed.
  • the writing image generation processing by the photographed image processing unit 180 will be specifically described.
  • the captured image processing unit 180 is configured such that the vertical or horizontal resolution of the writing area 33 in the captured image 30 is the same as the resolution of the display unit 140, and the aspect of the image display area 32 in the captured image 30 is Corrections such as resolution conversion and trapezoidal distortion correction are performed on the captured image 30 so that the aspect of the image 21 corresponding to the video signal is substantially the same. That is, when the resolution of the display unit 140 is, for example, 1024 ⁇ 768, the captured image processing unit 180 has a horizontal resolution of the writing area 33 in the captured image 30 of 1024 or less and a vertical resolution of 768. In the following, the captured image 30 is corrected so that the maximum resolution is obtained.
  • the captured image processing unit 180 sets the horizontal resolution to 1024 which is the maximum value and the vertical resolution to 768 or less.
  • the captured image processing unit 180 corrects the captured image 30 so that the image display area 32 in the captured image 30 is substantially rectangular and has substantially the same aspect as the image 21 corresponding to the video signal.
  • the captured image processing unit 180 is configured so that the left and right and upper and lower sides of the image display area 32 in the captured image 30 are parallel to each other, and at least one of the left and right sides intersects with the upper and lower sides at right angles.
  • the aspect of the image display area 32 is substantially the same as the aspect of the image 21 corresponding to the video signal, and the vertical or horizontal resolution of the writing area 33 in the captured image 30 is the display unit.
  • the captured image 30 may be corrected so as not to be larger than the vertical or horizontal resolution of 140.
  • the projection lens 142 and the imaging lens (not shown in FIG. 4) of the photographing unit 150 are configured as the same lens, the angle between the projection (imaging) lens and the projection plane 20 or the projection plane.
  • the projection area 23 on the projection plane 20 and the image display area 32 on the captured image 30 have similar shapes.
  • the projection area 23 is substantially rectangular in the captured image, and the image 21 corresponding to the video signal is projected on the entire surface of the projection area 23, so that the image display area 32 also has a substantially rectangular shape.
  • the image 21 corresponding to the video signal is displayed in a part of the projection area 23 in the captured image 30, and the image display area 32 has a trapezoidal distortion shape.
  • the trapezoidal shape in the captured image 30 is a trapezoidal shape having the same distortion rate and distorted in the opposite direction to the trapezoidal shape of the image projected on the projection surface 20 before performing the trapezoidal distortion correction. Accordingly, the trapezoidal shape in the captured image can be corrected to a rectangle by performing the trapezoidal distortion correction in the reverse direction, which has the same distortion rate as the trapezoidal distortion correction performed on the image displayed on the display unit 140.
  • the configuration in which the projection lens 142 and the imaging lens are the same lens has been described as an example.
  • the projection optical axes of the projection lens 142 and the imaging lens are parallel, and the projection of both lenses is performed.
  • the distance between the optical axes is sufficiently small with respect to the distance between the projection lens 142 and the projection surface 20, the image display area 32 in the captured image 30 is corrected to a substantially rectangular shape even if the distortion factor of the trapezoidal distortion is calculated to be the same. be able to.
  • the photographed image processing unit 180 corrects the photographed image 30 described above, and then acquires an image of an area surrounded by the writing area 33 as a written image. Since the image display area 32 is usually in the writing area 33, a writing image composed of the image display area 32 and the writing area 33 is acquired by acquiring an image of the area surrounded by the writing area 33. can do.
  • the captured image processing unit 180 converts the resolution of the input image so that the shape of the input image stored in the storage unit 160 is the same as the shape of the image display area 32 in the written image. Further, as shown in FIG. 9, the captured image processing unit 180 generates a minutes image by synthesizing the input image subjected to resolution conversion in the image display area 32 in the written image (step S105), 160 (step S106). If the aspect of the written image is different from 1024 ⁇ 768, for example, if the horizontal resolution is 1024, and the vertical resolution is 768 or less, the image processing unit 180 may, for example, Etc. are added to the missing part so that the aspect of the written image corresponds to 1024 ⁇ 768. However, the aspect of the written image does not necessarily have to be 1024 ⁇ 768.
  • the minutes image stored in the storage unit 160 can be projected onto the projection surface 20 and can also be output to the outside of the projector 10 via the video signal output unit 190. For example, it can be output as a video signal to another display device, or can be output as image data to a USB (Universal Serial Bus) memory or the like.
  • the minutes image is displayed using the display device by setting the resolution of the minutes image to be the same as the resolution of the display device. Sometimes resolution conversion becomes unnecessary, and deterioration of image quality can be prevented. Therefore, it is desirable to generate the minutes image in accordance with the resolution of the display device that reproduces the minutes image.
  • the projector 10 stores the image corresponding to the video signal projected when the predetermined event occurs in the storage unit 160 and interrupts the projection of the image corresponding to the video signal.
  • the photographing unit 150 photographs the projection surface 20, and the image corresponding to the video signal stored in the storage unit 160 is combined with the image display area in the photographed image to generate a minutes image.
  • a hot spot due to the light of the lamp 141 does not occur in a photographed image photographed after the projection of the image according to the video signal is interrupted. Therefore, by generating the minutes image using the photographed image, it is possible to generate a minutes image that is easy for the user to see.
  • the projector 10 of the present embodiment generates a minutes image after performing trapezoidal distortion correction on the captured image so that the image display area is substantially rectangular.
  • the image display area in the minutes image is substantially rectangular, so that the minutes that are easy for the user to see It can be an image.
  • trapezoidal distortion correction is performed on the image 21 corresponding to the video signal so that the image 21 corresponding to the video signal is projected on the projection surface 20 in a substantially rectangular state. Therefore, even when the writing area 33 is not rectangular, a minutes image with suppressed trapezoidal distortion can be generated by performing trapezoidal distortion correction on the captured image so that the image display area 32 is substantially rectangular. it can.
  • the projector 20 according to the second embodiment of the present invention is different from the projector 10 according to the first embodiment in that the captured image processing unit 180 is changed to a captured image processing unit 210. Since other configurations and operations are the same as those in the first embodiment, description thereof will be omitted.
  • the photographed image processing unit 180 corrected the photographed image 30 so that the image display area 32 in the photographed image 30 is substantially rectangular, whereas the photographed image processing unit 210 has the writing area 33 in the photographed image substantially omitted.
  • the captured image 30 is corrected so as to be rectangular.
  • the captured image processing unit 210 for example, so that the left and right and upper and lower sides of the writing area 33 in the captured image 30 are parallel to each other, and at least one of the left and right sides and the upper and lower sides. And the vertical or horizontal resolution of the writing area 33 so that the image display area 32 in the captured image 30 has the same aspect as that of the image corresponding to the video signal. After the resolution conversion and the trapezoidal distortion correction are performed on the photographed image 30 so as not to become larger than the vertical or horizontal resolution of the display unit 140, a written image is acquired.
  • the correction of the captured image 30 as described above causes the image display area 32 in the captured image 30 to be displayed in the image display area 32.
  • Trapezoidal distortion occurs.
  • the captured image processing unit 210 performs a trapezoidal operation on the input image so that the shape of the input image stored in the storage unit 160 is the same as the shape of the image display area 32, as shown in FIG. Perform distortion correction and resolution conversion.
  • the captured image processing unit 210 generates a minutes image by synthesizing the input image subjected to the trapezoidal distortion correction and the resolution conversion in the image display area 32 in the written image.
  • a minutes image in which the area corresponding to the writing area 33 is substantially rectangular is generated.
  • the aspect of the image display area 32 is, for example, the distance from the central point of the image display area 32 to any one of the upper and lower sides of the image display area 32 and to any one of the left and right sides of the image display area 32. It can be determined based on distance. Further, the aspect of the image display area 32 can be obtained based on, for example, the distance between the upper and lower sides of the image display area 32 and the distance between the left and right sides of the image display area 32.
  • the captured image processing unit 210 performs trapezoidal distortion correction and resolution conversion on the input image so that the shape of the input image is the same as the shape of the image display area 32 in the written image, and then combines with the written image. To generate a minutes image.
  • the trapezoidal distortion correction for the input image is not performed, and only the resolution conversion is performed, and then the composition with the written image may be performed.
  • the captured image processing unit 210 combines the input image and the written image to generate a minutes image. As a result, as shown in FIG. 11, a minutes image in which the area corresponding to the writing area 33 is rectangular is generated.
  • the trapezoidal distortion is generated in the image display area 32 in the written image
  • the input image is rectangular, and therefore, in the minutes image, as indicated by the dotted line in FIG.
  • a partial displacement occurs between the image display area 32 and the input image.
  • the trapezoidal distortion correction is roughly performed at the time of projection by the projector 10, the positional deviation becomes small and hardly causes a problem, and the positional deviation becomes small as the keystone distortion correction is accurately performed at the time of projection. .
  • the photographed image processing unit 210 identifies the writing area 33 using the same method as in the first embodiment, but the writing area 33 so that the shape thereof is substantially rectangular. Is identified. However, when the writing area 33 cannot be specified, the captured image processing unit 210 performs a trapezoid for the captured image 30 so that the image display area 32 in the captured image 30 is substantially rectangular, as in the first embodiment. Perform distortion correction. In this case, for example, the captured image processing unit 210 regards the entire captured image 30 of the imaging unit 150 as the writing area 33, acquires the written image, and generates a minutes image. In this minutes image, the area corresponding to the writing area 33 is trapezoidally distorted, so it is desirable to add a black image or the like to make it substantially rectangular.
  • the user may be able to set which of the image display area 32 and the writing area 33 is to be used to correct the captured image 30.
  • the projector 20 generates a minutes image after correcting the captured image 30 so that the writing area 33 in the captured image 30 is substantially rectangular.
  • the area corresponding to the writing area 33 in the minutes image is substantially rectangular, and a minutes image that is easy to see for the user can be generated.
  • the projector 30 of the third embodiment of the present invention uses the captured image processing unit 180 or the captured image processing unit 210 for captured image processing.
  • the point which changed to the part 310 differs. Since other configurations and operations are the same as those in the first and second embodiments, description thereof will be omitted.
  • the photographed image processing unit 180 in the first embodiment and the photographed image processing unit 210 in the second embodiment specify the image display area 32 based on the test image included in the photographed image 30 of the photographing unit 150, and for example, An area having substantially uniform brightness, color, etc. was specified as the writing area 33.
  • the photographed image processing unit 310 uses a remote controller connected to the projector 30, a pointer such as a mouse, or an area designated by the user via the input unit 170 as an image display area 32 and a writing area 33 in the photographed image 30. As specified.
  • the captured image processing unit 310 causes the video signal processing unit 130 to replace the captured image captured by the capturing unit 150 during the projection of the image 21 corresponding to the video signal with the image 21 corresponding to the video signal. Projecting onto the projection surface 20.
  • the captured image processing unit 310 accepts designation of an area corresponding to the image 21 and an area corresponding to the projection plane 20 according to the video signal in the captured image projected on the projection plane 20 via a pointer or the like. .
  • Each area is designated by designating the coordinates of the end of each area.
  • FIG. 12 is a diagram illustrating an example of a projected image of the projector 30 according to the present embodiment.
  • the captured image processing unit 310 causes the video signal processing unit 130 to project a ⁇ mark at a point designated as an area corresponding to the image 21 corresponding to the video signal, for example.
  • a cross is projected at a point designated as an area corresponding to.
  • the color and shape of the marker 23 projected at a designated point may be different for each region.
  • the shape of the marker 23 is preferably a shape that is easy to specify and determine the position, such as a cross shape or a shape with a sharp tip (arrow).
  • a straight line connecting the designated points may be projected.
  • the color or shape of the marker 23 to be projected at a designated point is different for each region, or a straight line connecting the designated points is projected, so that the user can change each region. It becomes easy to specify.
  • the captured image processing unit 310 sets the designated area to the image projection area 32, respectively.
  • the writing area 33 is specified.
  • the coordinate conversion for converting the coordinates on the projection image designated by the user into the coordinates on the captured image is performed by the projector 30.
  • the captured image processing unit 310 can identify each region based on the conversion result in the coordinate conversion unit.
  • the projector 30 of the present embodiment specifies the image projection area 32 and the writing area 33 in the captured image based on the input from the user.
  • the projector 40 according to the fourth embodiment of the present invention is different from the third embodiment in that the captured image processing unit 310 is changed to a captured image processing unit 410.
  • Other configurations and operations are the same as those in the first to third embodiments, and thus description thereof is omitted.
  • the captured image processing unit 310 in the third embodiment specifies the image projection area 32 and the writing area 33 based on an input from the user via a pointer or the like.
  • the captured image processing unit 410 of the present embodiment specifies the image projection area 32 and the writing area 33 based on the marker written on the projection plane 20 by the user.
  • the captured image processing unit 410 has a region where the image 21 corresponding to the video signal is projected and a marker indicating the projection surface 20 in a state where the image 21 corresponding to the video signal is projected on the projection surface 20.
  • the photographing unit 150 performs photographing.
  • FIG. 13 is a diagram illustrating an example of a photographed image 30-3 of the photographing unit 150.
  • the captured image 30-3 includes a region 35 on which the image 21 corresponding to the video signal is projected and markers 35 indicating the four corners of the projection surface 20.
  • the color and shape of the marker indicating the area where the image 21 corresponding to the video signal is projected and the marker indicating the projection surface 20 may be different.
  • the shape of the marker 35 is preferably a shape that is easy to specify and determine a position, such as a cross shape or a shape with a sharp tip (arrow).
  • the photographed image processing unit 410 identifies the image display area 32 and the writing area 33 based on the markers included in the photographed image 30-3.
  • the area where the image 21 corresponding to the video signal is projected and the shape of the marker 35 indicating the four corners of the projection surface 20 are the same.
  • the captured image processing unit 410 specifies the inner area as the image display area 32 and the outer area as the writing area 33.
  • the projector 40 takes an image of the projection surface 20 on which the marker 21 indicating the projection surface 20 and the area where the image 21 is projected according to the video signal is written, and uses the projected image as a marker. Based on this, the image display area 32 and the writing area 33 are specified.
  • the description is given using an example in which the captured image is corrected so that the resolution of the written image that is the basis of the minutes image is the same as the resolution of the display unit 140.
  • the trapezoidal distortion correction and resolution conversion may be performed on the captured image so that the resolution of the input image remains the same and the resolution of the image display area 32 is the same as the resolution of the input image. That is, the resolution of the generated minutes image can be set as appropriate, and the resolution of the written image and the resolution of the input image may be converted based on the resolution of the minutes image.
  • the image display area 32 and the writing area 33 are specified.
  • the present invention is not limited to this.
  • a test image indicating the projection area 23 on the projection surface 20 may be further projected, and an area corresponding to the projection area 23 in the photographed image may be specified based on the test image.
  • an image having a brightness of about several lumens is projected on the projection plane 20.
  • an area corresponding to the projection area 23 in the captured image may be specified.
  • it can be used as data for specifying the image display area 32 and the writing area 33.
  • the specified area may be corrected to have the same color and brightness as the writing area 33. By performing such correction, the color and brightness of the writing area 33 in the minutes image are made uniform, so that the minutes image can be easily seen by the user.
  • the user may be able to set the color and brightness of the test image as appropriate.
  • the color and reflectance of the projection surface 20 there is a color or brightness of a test image in which the image display area 32 can be easily detected. Therefore, the detection accuracy of the image display area 32 can be increased by the user appropriately setting the color and brightness of the test image according to the projection plane.
  • an example is used in which when the trigger signal is output from the input unit 170, the image display area 32 and the writing area 33 are specified and the minutes image is generated.
  • the projection conditions such as the angle and the distance between the projection optical axis of the projector and the projection surface 20 are the same, once the image display area 32 and the writing area 33 are specified, the image display area 32 is used unless the projection conditions change. And the writing area 33 does not change.
  • the image display area 32 and the writing area 33 may be appropriately specified at the time of starting the projector, after adjusting the installation of the projector, or before turning off the power of the projector. In this case, when the trigger signal is output, processing for specifying the image display area 32, the writing area 33, and the like is not necessary.
  • the optical axis of the projection lens 142 and the optical axis of the photographing lens of the photographing unit 150 are parallel from the viewpoint of keystone distortion correction.
  • the relative position between the projection lens 142 and the imaging lens, the optical axis of the projection lens 142, and the optical axis of the imaging lens are previously determined.
  • the distance between the projection lens 142 or the imaging lens and the projection plane 20 and the angle between the projection lens 142 or the imaging lens and the projection plane 20 are measured using a distance measuring device or the like. By measuring, the trapezoidal distortion can be accurately corrected using a general technique for correcting the trapezoidal distortion.
  • the photographing lens of the photographing unit 150 has a zoom function for enlarging and reducing the photographing region, and moves the photographing lens in a direction perpendicular to the optical axis of the photographing lens. It is desirable to have a lens shift function.
  • the photographing lens of the photographing unit 150 has a zoom function, for example, it is possible to prevent an area outside the projection surface 20 from becoming larger than necessary in a photographed image.
  • the photographing lens of the photographing unit 150 has a lens shift function, the photographing region can be moved up, down, left, and right without changing the angle of the optical axis of the photographing lens.
  • the photographing lens of the photographing unit 150 has a lens shift function, for example, by projecting a photographed image photographed by the photographing unit 150 on the projection surface 20, while viewing the image projected on the projection surface 20, The imaging area of the imaging unit 150 can be adjusted.
  • the video signal is supplied from an external video signal source.
  • the present invention is not limited to this.
  • the minutes image is generated in the same manner. Can do.
  • an image corresponding to the video signal stored in the storage unit 160 or the like is projected on the projection surface 20, it is necessary to store the projected image in the storage unit 160 when the trigger signal is output.
  • information for identifying the projected image can be stored in the storage unit 160 or the like, and a minutes image can be generated based on the stored identification information.
  • a minutes image may be generated by switching an input video signal or the like as an event.
  • information for switching the input terminal to which the video signal is input or for determining the video signal (the resolution of the video signal is 1024 ⁇ 768, 640 ⁇ 480, the synchronization signal A minutes image may be generated by using a change in information indicating frequency as an event.
  • a minutes image may be generated using a change in the image projected on the projection surface 20 as an event.
  • the captured image processing unit monitors the frame memory unit 120, compares the values of the coordinates (the same place on the image) of the already stored image and the newly stored image, and compares the values. If the result of (2) indicates a change, a minutes image may be generated.
  • the minutes image is generated using the change of the image projected on the projection surface 20 as an event, it is desirable that two or more frame memory units 120 are provided and images of two frames or more can be stored. For example, when images for two frames are stored using the two frame memory units 120, the images stored in the frame memory unit 120 are alternately updated.
  • one frame memory unit 120 stores an even frame image
  • the other frame memory unit 120 stores an odd frame image.
  • the captured image processing unit monitors each frame memory unit 120, and when a change between an image already stored in one of the frame memory units 120 and a newly stored image is detected, An image one frame before is acquired from a frame memory 120 different from the frame memory unit 120 in which the image change is detected, and is stored in the storage unit 160.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Abstract

 本発明のプロジェクタは、入力された映像信号に応じた画像をユーザが書込可能な投写面に投写する投写部と、前記投写面の撮影を行い、撮影画像の画像データを出力する撮影部と、記憶部と、所定のイベントが発生すると、投写されていた前記映像信号に応じた画像を前記記憶部に記憶させ、前記投写部に前記画像の投写を中断させた後に、前記投写面を前記撮影部に撮影させ、該撮影による撮影画像に前記記憶部に記憶されている前記映像信号に応じた画像を合成した議事録画像を生成する撮影画像処理部と、を有する。

Description

プロジェクタおよびその制御方法
 本発明は、プロジェクタおよびその制御方法に関する。
 会議などにおいて、ユーザが書込可能なホワイトボードなどの投写面にプロジェクタを用いて画像を投写し、投写された画像に応じたディスカッションの内容などを投写面に書き込むという利用形態が一般的となっている。このような利用形態においては、投写面に投写された画像と書き込まれた内容とを一緒に議事録として残しておきたい場合がある。
 そこで、特許文献1(特開2006-053313号公報)には、カメラを備え、画像を投写面に投写した状態でカメラを用いて投写面の撮影を行うプロジェクタが開示されている。このプロジェクタによれば、画像の投写および書き込みが行われた投写面を撮影することで、投写面に投写された画像と書き込まれた内容とを含む議事録画像を生成することができる。
特開2006-053313号公報
 上述したように、特許文献1に開示のプロジェクタにおいては、画像が投写面に投写された状態でカメラによる撮影が行われる。
 ここで、例えば、図1に示すように、投写面20に画像21が投写されているとする。また、画像21が投写された状態で、図2に示すように、投写面20上に、画像21の「A」が投写されている位置に、×印が書き込まれ、×印の右側に「B」が書き込まれ、「B」の右側に「C」が書き込まれたとする。
 投写面20の撮影を行う場合、議事録画像として撮影される撮影画像には、図3に示すように、プロジェクタのランプの光が投写面20で反射した高輝度の領域22(以下、ホットスポット22と称する)が生じることがある。ホットスポット22が生じた領域では、書き込まれた内容などをユーザが判別できなくなってしまう。したがって、特許文献1に開示のプロジェクタにおいては、生成される議事録画像がユーザにとって見にくいものとなるおそれがあるという問題がある。
 本発明の目的は、ユーザにとって見やすい議事録画像を生成することができるプロジェクタおよびその制御方法を提供することにある。
 上記目的を達成するために本発明のプロジェクタは、
 入力された映像信号に応じた画像をユーザが書込可能な投写面に投写する投写部と、
 前記投写面の撮影を行い、撮影画像の画像データを出力する撮影部と、
 記憶部と、
 所定のイベントが発生すると、投写されていた前記映像信号に応じた画像を前記記憶部に記憶させ、前記投写部に前記画像の投写を中断させた後に、前記投写面を前記撮影部に撮影させ、該撮影による撮影画像に前記記憶部に記憶されている前記映像信号に応じた画像を合成した議事録画像を生成する撮影画像処理部と、を有する。
 上記目的を達成するために本発明のプロジェクタの制御方法は、
 プロジェクタの制御方法であって、
 入力された映像信号に応じた画像をユーザが書込可能な投写面に投写し、
 所定のイベントが発生すると、投写されていた前記映像信号に応じた画像を記憶し、前記画像の投写を中断した後に、前記投写面を撮影し、該撮影による撮影画像に前記記憶している映像信号に応じた画像を合成した議事録画像を生成する。
 本発明によれば、ユーザにとって見やすい議事録画像を生成することができる。
投写面に投写される画像の一例を示す図である。 投写面への書込状態の一例を示す図である。 関連するプロジェクタにおける問題点を説明するために図である。 本発明の第1の実施形態のプロジェクタの構成を示すブロック図である。 図1に示すプロジェクタの投写状態の一例を示す図である。 図1に示すプロジェクタの動作の一例を示すフローチャートである。 図1に示す撮影部の撮影画像の一例を示す図である。 図1に示す撮影部の撮影画像の他の一例を示す図である。 図1に示す撮影画像処理部が行う画像処理の一例を示す図である。 本発明の第2の実施形態における撮影画像処理部が行う画像処理の一例を示す図である。 本発明の第2の実施形態における撮影画像処理部が行う画像処理の他の一例を示す図である。 本発明の第3の実施形態におけるプロジェクタの投写状態の一例を示す図である。 本発明の第4の実施形態における撮影画像の一例を示す図である。
 以下に、本発明を実施するための形態について図面を参照して説明する。
 (第1の実施形態)
 本発明の第1の実施形態のプロジェクタ10は、外部の映像信号源から与えられた映像信号に応じた画像(以下、入力画像と称する)を投写面20に投写する。なお、投写面20は、ユーザが直接、書込可能なホワイトボードなどである。
 図4は、本実施形態のプロジェクタ10の構成を示すブロック図である。
 図4に示すプロジェクタ10は、映像信号入力部110と、フレームメモリ部120と、映像信号処理部130と、表示部140と、光源141と、投写レンズ142と、撮影部150と、記憶部160と、入力部170と、撮影画像処理部180と、映像信号出力部190と、を有する。なお、映像信号処理部130、表示部140、光源141、および、投写レンズ142は、投写部を構成する。
 外部の映像信号源から与えられた映像信号が映像信号入力部110に入力される。
 映像信号入力部110は、外部の映像信号源から入力された映像信号をフレームメモリ部120、映像信号処理部130、および、撮影画像処理部180に出力する。
 フレームメモリ部120は、映像信号入力部110から出力された映像信号に応じた画像を1フレーム毎に記憶する。
 映像信号処理部130は、映像信号入力部110から出力された映像信号を表示部140で表示するのに適した映像信号に変換するための所定の処理、例えば、スケーリング処理や周波数変換処理などを行う。スケーリング処理は、映像信号に応じた画像の解像度が表示部140の解像度と異なる場合に、映像信号に応じた画像の解像度を適切な解像度に変換する処理である。周波数変換処理は、映像信号の周波数が表示部140の駆動周波数と異なる場合に、映像信号の周波数を適切な周波数に変換する処理である。映像信号処理部130は、上述した所定の処理を施した映像信号に応じた画像をフレームメモリ部120に記憶させるとともに、その映像信号を表示部140に出力する。なお、フレームメモリ部120に記憶されている画像は、上述した所定の処理が行われる際などに用いられる。
 表示部140は、例えば、一般的な構成を有する透過型の液晶パネルであり、映像信号処理部130から出力された映像信号に応じた映像を表示する。
 光源141は、表示部140を照明する光を出力する。
 投写レンズ142は、光源141から出力され、表示部140の表示に応じて変調された光を拡大して投写面20に投写する。
 撮影部150は、投写面20を撮影し、撮影画像の画像データを撮影画像処理部180に出力する。ここで、投写面20上の映像信号に応じた画像が投写される領域だけでなく、投写面20全体にわたって書き込みが行われることがあるので、撮影部150は、投写面20の略全体を撮影する。
 記憶部160は、種々のデータを記憶する。
 入力部170は、操作入力を受け付け、入力された操作に応じた信号を撮影画像処理部180に出力する。
 撮影画像処理部180は、所定のイベントが発生すると、投写面20に投写されている画像および書き込まれた内容を含む議事録画像を生成し、記憶部160に記憶させる。以下では、撮影画像処理部180は、議事録画像の生成を要求する旨の入力に応じて入力部170からトリガ信号が出力されると、議事録画像を生成するものとする。
 また、撮影画像処理部180は、記憶部160に記憶されている議事録画像の出力を要求する旨が入力部170に入力されると、その議事録画像を示す画像データの出力を映像信号出力部190に指示する。
 映像信号出力部190は、撮影画像処理部180から議事録画像の出力の指示を受けると、その議事録画像を示す画像データを記憶部160から取得し、外部へと出力する。
 次に、本実施形態のプロジェクタ10の動作について説明する。
 なお、以下では、プロジェクタ10は、映像信号に応じた画像として、図1に示す画像21を投写面20に投写するものとする。また、以下では、投写面20に、図2に示す書き込みが行われたものとする。
 通常、プロジェクタ10を用いた画像の投写は、室内の照明を落とすなど、暗い環境で行われる。そのため投写面20の撮影を行う際には、撮影部150のストロボを発光させることがある。このストロボの光によっても、撮影画像150の撮影画像にホットスポットが生じることがある。ストロボの光に起因するホットスポットの発生を防止するために、プロジェクタ10が投写面20に対して斜め方向に配置され、プロジェクタ10の投写レンズ142の光軸と投写面20との角度が垂直ではない状態での投写、いわゆる斜め投写が行われることがある。
 図5は、プロジェクタ10が斜め投写を行う状態を示す図である。なお、図5は、プロジェクタ10が投写面20に対して右斜め下方向に配置され、投写レンズ142の投写光軸と投写面20との角度が、水平面、および、水平面に垂直な投写光軸を含む垂直面において垂直でない状態を示している。
 斜め投写の場合には、一般に、投写面20に正対する位置にいるユーザ1からみて、映像信号に応じた画像21が略矩形に投写されるように、映像信号に応じた画像21に対して台形歪補正が行われる。すなわち、図5に示すように、プロジェクタ10は、投写面20に正対する位置からみて、ランプ141からの光が投写される投写面20上の領域である投写領域23内に、略矩形の映像信号に応じた画像21を投写する。ここで、図5に示すように、投写領域23には台形歪みが生じている。なお、斜め投写が行われる場合の台形歪補正については当業者にとってよく知られているため、詳細な説明を省略する。
 以下では、斜め投写中に議事録画像を生成する際のプロジェクタ10の動作について、図6に示すフローチャートを参照して説明する。
 議事録画像を生成する旨の入力に応じた入力部170からのトリガ信号の出力を検出すると(ステップS101)、撮影画像処理部180は、投写面20に投写されていた映像信号に応じた画像21(以下、入力画像と称する)を記憶部160に記憶させる(ステップS102)。なお、記憶部160に記憶させる入力画像は、トリガ信号の出力時に映像信号入力部110から出力されていた映像信号に応じた画像21をそのまま記憶させてもよいし、フレームメモリ部120に記憶されている画像でもよい。ただし、斜め投写の場合には、フレームメモリ部120に記憶されている画像は、映像信号処理部130が台形歪補正を行った画像であることがあるので、この場合は、台形歪補正を一時的に解除してから記憶させる。台形歪補正を一時的に解除する場合は、フレームメモリ部120に記憶されている画像の書き換えが必要となり、1フレーム分の遅延が発生する場合がある。ただし、通常、数フレーム分の遅延は問題とならない。また、フレームメモリ部120に記憶されている画像は、映像信号処理部130が表示部140の解像度に応じて解像度変換を行った画像である場合がある。この場合は、解像度変換後の画像を記憶させてもよい。また、フレームメモリ部120に記憶されている画像は、映像信号の入力や表示部140への表示処理などに応じて、随時書き換えが行われているので、フレームメモリ部120に記憶されている画像を入力画像として記憶部160に記憶させる場合には、画像の記憶が終了するまで、フレームメモリ部120への画像の書き換えを停止することが望ましい。フレームメモリ部120への画像の書き換えを停止するタイミングは、フレームメモリ部120に異なるフレームの画像が混在しないように、トリガ信号の出力が検出された後、1フレーム分の画像の書き換えが終了した時点から次のフレームの画像の書き換えが開始される前であることが望ましい。なお、複数のフレームメモリ部120を備える場合など、複数フレーム分の画像を記憶できる場合には、上述した、フレームメモリ部120への画像の書き換えの停止といった処理は不要となる。
 次に、撮影画像処理部180は、映像信号処理部130に、映像信号に応じた画像21に代えて、映像信号に応じた画像21が投写される領域を示すテスト画像を投写面20に投写させる。なお、テスト画像としては、例えば、映像信号に応じた画像21の最外周を示す白枠などがある。白枠以外の領域は、例えば、黒画像などとする。また、テスト画像は、例えば、映像信号に応じた画像21の最外周を示す白枠だけでなく、縦方向および横方向に所定の間隔で配置された縦線および横線の組み合わせからなる画像(クロスハッチ)などでもよい。クロスハッチの画像は、台形歪補正の際に利用することもできる。
 次に、撮影画像処理部180は、撮影部150に投写面20を撮影させる。ここで、テスト画像を白枠としておけば、明るく表示される部分が少ないので、ホットスポットの影響を抑えることができる。図7は、撮影部150の撮影画像30-1を示す図である。ここで、上述したように、投写面20に対して斜め投写が行われているため、映像信号に応じた画像21がユーザ1から見て略矩形となるように、映像信号に応じた画像21に対する台形歪補正が行われている。そのため、図7に示すように、投写面20に対して斜め方向から撮影された撮影画像30-1においては、テスト画像31に示される、撮影画像における映像信号に応じた画像21に対応する領域である画像表示領域32には台形歪が生じている。また、撮影画像30-1においては、撮影画像における投写面20に対応する領域である書込領域33にも台形歪が生じている。一方、撮影画像30-1においては、撮影画像における投写領域23に対応する領域34は略矩形となる。
 再び、図6を参照すると、撮影画像処理部180は、撮影画像30-1における画像表示領域32および書込領域33を特定する(ステップS103)。なお、撮影画像処理部180は、撮影画像30-1のテスト画像31に基づき画像表示領域32を特定する。また、撮影画像処理部180は、例えば、撮影画像30-1における、画像表示領域32の周辺部であって、輝度、色などが略一様である略四角形の領域を書込領域33として特定する。また、撮影画像処理部180は、例えば、撮影画像30-1における、画像表示領域32の周辺部であって、輝度、色などの変化の大きいエッジが連続する直線(の一部)を延長するなどして得られる略四角形の領域を書込領域33として特定する。ただし、本実施形態においては、書込領域33は、必ずしも四角形である必要はない。
 次に、撮影画像処理部180は、投写面20への投写を一時的に中断させる。なお、投写面20への投写を一時的に中断する方法としては、例えば、表示部140の表示を全黒画像とする、光源141を消灯する、あるいは、光源141から投写面20までの光路の途中に遮光板を設け、その遮光板を閉じるなどの方法がある。
 次に、撮影画像処理部180は、撮影部150に投写面20を撮影させる。図8は、撮影部150の撮影画像30-2を示す図である。図8に示すように、撮影画像30-2においては、プロジェクタ10からの投写は中断されているので、書込領域33だけが撮影されている。ここで、プロジェクタ10からの投写は中断されており、また、投写面20に対して斜め方向から撮影されているため、撮影画像30-2においては、光源141の光、あるいは、撮影部150のストロボの光に起因するホットスポットが生じることがなく、ユーザにとって見やすい画像となる。
 再び、図6を参照すると、撮影画像処理部180は、撮影部150の撮影画像における画像表示領域32および書込領域33の画像からなる書込画像を、撮影画像30-2に基づき生成して取得する(ステップS104)。なお、通常、画像表示領域32は、書込領域33内にあるので、撮影画像における書込領域33により囲まれる領域の画像が書込画像となる。ここで、撮影画像30-1と撮影画像30-2とでは、撮影部150と投写面20との角度や距離などの撮影条件は同じであるため、画像表示領域32および書込領域33は、同じ位置にある。したがって、撮影画像処理部180は、撮影画像30-1から特定した画像表示領域32および書込領域33に基づき、撮影画像30-2から書込画像を生成することができる。
 なお、ステップS103およびステップS104の処理においては、撮影画像処理部180は、撮影画像30-1に基づき、画像表示領域32および書込領域33を特定し、撮影画像30-2に基づき、書込画像を生成する例を用いて説明したが、これに限られるものではない。例えば、テスト画像31が議事録画像においてユーザにとって見にくくならない場合には、撮影画像処理部180は、映像信号に応じた画像21の投写を中断し、テスト画像31を投写させた状態で撮影部150に撮影を行わせ、その撮影画像に基づき、画像表示領域32および書込領域33を特定するとともに、書込画像を生成してもよい。こうすることで、撮影が1回で済み、処理量を低減することができる。
 以下では、映像信号に応じた画像21の投写を中断し、テスト画像31を投写させた状態で撮影された撮影画像30に基づき、画像表示領域32および書込領域33の特定と書込画像の生成とが行われたものとして説明する。
 撮影画像処理部180による書込画像の生成処理について具体的に説明する。
 撮影画像処理部180は、撮影画像30における書込領域33の縦方向または横方向の解像度が表示部140の解像度と同じになるように、かつ、撮影画像30における画像表示領域32のアスペクトが、映像信号に応じた画像21のアスペクトと略同じとなるように、撮影画像30に対する解像度変換および台形歪補正などの補正を行う。つまり、撮影画像処理部180は、表示部140の解像度が、例えば、1024×768である場合には、撮影画像30における書込領域33の横方向の解像度が1024以下、縦方向の解像度が768以下で最大解像度となるように、撮影画像30に対する補正を行う。例えば、撮影画像30における書込領域33が横長の場合、撮影画像処理部180は、横方向の解像度を最大値である1024とし、縦方向の解像度は768以下とする。また、撮影画像処理部180は、撮影画像30における画像表示領域32が、略矩形で、映像信号に応じた画像21のアスペクトと略同じになるように、撮影画像30に対する補正を行う。
 また、撮影画像処理部180は、撮影画像30における画像表示領域32の左右および上下の辺がそれぞれ平行となるように、かつ、少なくとも左右の辺のいずれかと上下の辺のいずれかが直角に交わるように、かつ、画像表示領域32のアスペクトが映像信号に応じた画像21のアスペクトと略同じになるように、かつ、撮影画像30における書込領域33の縦方向または横方向の解像度が表示部140の縦方向または横方向の解像度より大きくならないように、撮影画像30に対して補正を行ってもよい。
 なお、解像度を縮小あるいは拡大させる解像度変換に関する技術は、当業者にとってよく知られているので、詳細な説明を省略する。また、上述したように、台形歪を補正する台形歪補正に関する技術は当業者にとってよく知られており、この技術に基づき逆補正を行うことで、撮影画像30に対する台形歪補正を行うことができる。
 ここで、一般に、投写レンズ142と撮影部150の撮像レンズ(図4においては不図示)とを同一のレンズとして構成した場合には、投写(撮像)レンズと投写面20との角度や投写面20の形状に関係なく、投写面20における投写領域23と撮影画像30における画像表示領域32とは相似の形状となる。つまり、斜め投写時に歪補正が行われない場合には、撮影画像において、投写領域23が略矩形となり、その投写領域23の全面に映像信号に応じた画像21が投写されるので、画像表示領域32も略矩形となる。また、斜め投写時に歪補正が行われる場合には、撮影画像30において、投写領域23の一部に映像信号に応じた画像21が表示され、画像表示領域32は台形歪のある形状となる。この場合、撮影画像30における台形形状は、台形歪補正を行う前に投写面20に投写されていた画像の台形形状と、歪率が等しく、逆方向に歪んだ台形形状となる。従って、撮影画像における台形形状は、表示部140に表示する画像に対して行った台形歪補正と、歪率が等しく、逆方向の台形歪補正を行うことにより矩形に補正することができる。
 なお、説明の簡略化のため、投写レンズ142と撮像レンズとを同一のレンズとした構成を例として説明したが、投写レンズ142と撮像レンズとの投写光軸が平行であり、両レンズの投写光軸の間隔が投写レンズ142と投写面20との距離に対し十分小さい場合には、台形歪の歪率は同じとして計算しても、撮影画像30における画像表示領域32を略矩形に補正することができる。
 撮影画像処理部180は、上述した撮影画像30に対する補正を行った後、書込領域33に囲まれる領域の画像を書込画像として取得する。なお、通常、画像表示領域32は書込領域33内にあるので、書込領域33に囲まれる領域の画像を取得することで、画像表示領域32および書込領域33からなる書込画像を取得することができる。
 次に、撮影画像処理部180は、記憶部160に記憶されている入力画像の形状が、書込画像における画像表示領域32と同じ形状になるように、入力画像の解像度変換を行う。さらに、撮影画像処理部180は、図9に示すように、書込画像における画像表示領域32に、解像度変換を行った入力画像を合成して議事録画像を生成し(ステップS105)、記憶部160に記憶させる(ステップS106)。なお、書込画像のアスペクトが、1024×768と異なる場合、例えば、横方向の解像度を1024とすると、縦方向の解像度が768以下となる場合には、画像処理部180は、例えば、黒画像などを足りない部分に追加して、書込画像のアスペクトが、1024×768に対応するアスペクトとなるようにする。ただし、必ずしも、書込画像のアスペクトが、1024×768となるようにする必要はない。
 記憶部160に記憶された議事録画像は、投写面20に投写することが可能であり、また、映像信号出力部190を介してプロジェクタ10の外部に出力することも可能である。例えば、映像信号として他の表示装置に出力したり、画像データとしてUSB(Universal Serial Bus)メモリなどに出力したりすることが可能である。なお、議事録画像を他の表示装置を用いて表示する場合には、議事録画像の解像度を、その表示装置の解像度と同じにすることで、その表示装置を用いて議事録画像を表示するときに解像度変換が不要となり、画質の劣化を防止することが可能となる。したがって、議事録画像を再生する表示装置の解像度にあわせて議事録画像を生成することが望ましい。
 このように本実施形態のプロジェクタ10は、所定のイベントの発生時に投写されていた映像信号に応じた画像を記憶部160に記憶させるとともに、映像信号に応じた画像の投写を中断させた後に、撮影部150に投写面20の撮影を行わせ、撮影画像における画像表示領域に、記憶部160に記憶されている映像信号に応じた画像を合成して議事録画像を生成する。
 映像信号に応じた画像の投写を中断させた後に撮影された撮影画像には、ランプ141の光によるホットスポットが生じることがない。そのため、その撮影画像を用いて議事録画像を生成することで、ユーザにとって見やすい議事録画像を生成することができる。
 また、本実施形態のプロジェクタ10は、画像表示領域が略矩形となるように撮影画像に台形歪補正を行った後に、議事録画像を生成する。
 そのため、例えば、撮影部150のストロボの光に起因するホットスポットの発生を防ぐために斜め投写が行われた場合にも、議事録画像における画像表示領域は略矩形となるので、ユーザにとって見やすい議事録画像とすることができる。
 なお、本実施形態においては、映像信号に応じた画像21が投写面20上で略矩形の状態で投写されるように、映像信号に応じた画像21に対する台形歪補正が行われる。そのため、書込領域33が四角形状ではない場合でも、画像表示領域32が略矩形となるように撮影画像に対する台形歪補正を行うことで、台形歪が抑えられた議事録画像を生成することができる。
 (第2の実施形態)
 本発明の第2の実施形態のプロジェクタ20は、第1の実施形態のプロジェクタ10と比較して、撮影画像処理部180を撮影画像処理部210に変更した点が異なる。なお、その他の構成および動作については、第1の実施形態と同様であるので、説明を省略する。
 撮影画像処理部180は、撮影画像30における画像表示領域32が略矩形となるように撮影画像30に対する補正を行ったのに対し、撮影画像処理部210は、撮影画像における書込領域33が略矩形となるように撮影画像30に対する補正を行う。
 具体的には、撮影画像処理部210は、例えば、撮影画像30における書込領域33の左右および上下の辺がそれぞれ平行となるように、かつ、少なくとも左右の辺のいずれかと上下の辺のいずれかが直角に交わるように、かつ、撮影画像30における画像表示領域32のアスペクトが映像信号に応じた画像のアスペクトと同じになるように、かつ、書込領域33の縦方向または横方向の解像度が表示部140の縦方向または横方向の解像度より大きくならないように、撮影画像30に対する解像度変換および台形歪補正を行った後に、書込画像を取得する。
 なお、映像信号に応じた画像21の投写時に台形歪補正が正確に行われていない場合には、上述したような撮影画像30に対する補正を行うと、撮影画像30における画像表示領域32には、台形歪が生じる。この場合、撮影画像処理部210は、図10に示すように、記憶部160に記憶されている入力画像の形状が、画像表示領域32の形状と同じになるように、入力画像に対して台形歪補正および解像度変換を行う。その後、撮影画像処理部210は、図10に示すように、書込画像における画像表示領域32に、台形歪補正および解像度変換を行った入力画像を合成して議事録画像を生成する。その結果、図10に示すように、書込領域33に対応する領域が略矩形となる議事録画像が生成される。
 なお、画像表示領域32のアスペクトは、例えば、画像表示領域32の中央の地点から、画像表示領域32の上下のいずれか一辺までの距離、および、画像表示領域32の左右のいずれか一辺までの距離に基づき求めることができる。また、画像表示領域32のアスペクトは、例えば、画像表示領域32の上下の辺の距離、および、画像表示領域32の左右の辺の距離に基づき求めることができる。
 映像信号に応じた画像21を投写面20に投写する場合、映像信号に応じた画像21に対する台形歪補正が正確に行われていれば、第1および第2の実施形態において、結果的に同じ議事録画像が生成される。しかし、投写される画像に台形歪が残っている場合、第1の実施形態においては、図9に示すように、書込領域33に対応する領域に台形歪が生じた議事録画像が生成される。
 そこで、本実施形態においては、撮影画像30における書込領域33が略矩形となるように撮影画像30に対する補正を行うことで、書込領域33に対応する領域が略矩形の議事録画像を生成することができる。ただし、上述したような撮影画像30に対する補正を行うことで、書込画像における画像表示領域32は台形状に歪む。そこで、撮影画像処理部210は、入力画像の形状が書込画像における画像表示領域32の形状と同じになるように、入力画像に対する台形歪補正および解像度変換を行った後に書込画像との合成を行い、議事録画像を生成する。
 なお、入力画像に対する台形歪補正を行わず、解像度変換のみを行った後に、書込画像との合成を行ってもよい。図11に示すように、撮影画像30における書込領域33が略矩形となるように撮影画像30に対する補正が行われているので、書込画像における画像表示領域32には台形歪みが生じている。また、入力画像は、図11に示すように、解像度変換のみが行われ、略矩形のままである。撮影画像処理部210は、この入力画像と書込画像との合成を行って議事録画像を生成する。その結果、図11に示すように、書込領域33に対応する領域が矩形となる議事録画像が生成される。ここで、上述したように、書込画像における画像表示領域32には台形歪みが生じているのに対し、入力画像は矩形であるので、議事録画像において、図11の点線に示されるように、画像表示領域32と入力画像との間に部分的な位置ずれが発生する。しかし、プロジェクタ10の投写時におおまかに台形歪補正が行われていれば、その位置ずれは小さくなり、ほとんど問題とならず、また、投写時に台形歪補正を正確に行うほど、位置ずれは小さくなる。
 なお、本実施形態においては、撮影画像処理部210は、第1の実施形態と同様の方法を用いて書込領域33を特定するが、その形状が略四角形となるように、書込領域33を特定する。ただし、書込領域33を特定できない場合には、撮影画像処理部210は、第1の実施形態と同様に、撮影画像30における画像表示領域32が略矩形となるように、撮影画像30に対する台形歪補正を行う。この場合、撮影画像処理部210は、例えば、撮影部150の撮影画像30全体を書込領域33と見なして書込画像を取得し、議事録画像を生成する。この議事録画像においては、書込領域33に対応する領域は台形歪みが生じるので、黒画像などを付加し、略矩形となるようにすることが望ましい。
 また、画像表示領域32または書込領域33のうち、いずれの領域に基づいて撮影画像30に対する補正を行うかを、ユーザが設定できるようにしてもよい。
 このように本実施形態のプロジェクタ20は、撮影画像30における書込領域33が略矩形となるように撮影画像30に対する補正を行った後に、議事録画像を生成する。
 そのため、議事録画像における書込領域33に対応する領域が略矩形となり、ユーザにとって見やすい議事録画像を生成することができる。
 (第3の実施形態)
 本発明の第3の実施形態のプロジェクタ30は、第1の実施形態のプロジェクタ10または第2の実施形態のプロジェクタ20と比較して、撮影画像処理部180または撮影画像処理部210を撮影画像処理部310に変更した点が異なる。なお、その他の構成および動作については、第1および第2の実施形態と同様であるので、説明を省略する。
 第1の実施形態における撮影画像処理部180および第2の実施形態における撮影画像処理部210は、撮影部150の撮影画像30に含まれるテスト画像に基づき画像表示領域32を特定し、また、例えば、輝度、色などが略一様である領域を書込領域33として特定した。一方、撮影画像処理部310は、プロジェクタ30に接続されたリモコン、マウスなどのポインタ、あるいは、入力部170を介してユーザが指定した領域を、撮影画像30における画像表示領域32および書込領域33として特定する。
 具体的には、撮影画像処理部310は、映像信号処理部130に、映像信号に応じた画像21の投写中に撮影部150が撮影した撮影画像を、映像信号に応じた画像21に代わって投写面20に投写させる。次に、撮影画像処理部310は、ポインタなどを介して、投写面20に投写されている撮影画像における映像信号に応じた画像21に対応する領域および投写面20に対応する領域の指定を受け付ける。なお、各領域の指定は、各領域の端部の座標などを指定することで行われる。
 図12は、本実施形態のプロジェクタ30の投写画像の一例を示す図である。
 図12に示すように、撮影画像処理部310は、映像信号処理部130に、例えば、映像信号に応じた画像21に対応する領域として指定された地点には▲印を投写させ、投写面20に対応する領域として指定された地点には×印を投写させる。なお、領域毎に、指定された地点に投写させるマーカー23の色や形状を異なるものとしてもよい。ただし、マーカー23の形状は十字形状や先端が尖った形状(矢印)など、位置の指定、判別がしやすい形状がよい。また、指定された地点同士を接続する直線などを投写するようにしてもよい。このように、領域毎に、指定された地点に投写させるマーカー23の色や形状を異なるものとしたり、指定された地点同士を接続する直線などを投写したりすることで、ユーザが各領域を指定しやすくなる。
 撮影画像処理部310は、映像信号に応じた画像21に対応する領域および投写面20に対応する領域の指定を終了する旨が入力されると、指定された領域をそれぞれ、画像投写領域32、書込領域33として特定する。
 なお、撮影部150の撮影画像の解像度と表示部140の解像度とが異なる場合には、例えば、プロジェクタ30に、ユーザが指定した投写画像上の座標を、撮影画像上の座標に変換する座標変換部を設けることで、撮影画像処理部310は、座標変換部に変換結果に基づき、各領域を特定することができる。
 このように本実施形態のプロジェクタ30は、ユーザからの入力に基づき、撮影画像における画像投写領域32および書込領域33を特定する。
 そのため、画像投写領域32および書込領域33を特定するための撮影画像の解析などが不要となり、撮影画像処理部310の処理量を低減することができる。
 (第4の実施形態)
 本発明の第4の実施形態のプロジェクタ40は、第3の実施形態と比較して、撮影画像処理部310を撮影画像処理部410に変更した点が異なる。なお、その他の構成および動作については、第1ないし第3の実施形態と同様であるので、説明を省略する。
 第3の実施形態における撮影画像処理部310は、ポインタなどを介したユーザからの入力に基づき、画像投写領域32および書込領域33を特定した。一方、本実施形態の撮影画像処理部410は、ユーザが投写面20に書き込んだマーカーに基づき、画像投写領域32および書込領域33を特定する。
 具体的には、撮影画像処理部410は、投写面20に映像信号に応じた画像21が投写された状態で、映像信号に応じた画像21が投写される領域および投写面20を示すマーカーが投写面20に書き込まれた後に、撮影部150に撮影を行わせる。図13は、撮影部150の撮影画像30-3の一例を示す図である。図13に示すように、映像信号に応じた画像21が投写される領域および投写面20の四隅を示すマーカー35が撮影画像30-3に含まれる。なお、映像信号に応じた画像21が投写される領域を示すマーカーと、投写面20を示すマーカーとで、色や形状を異なるものとしてもよい。ただし、マーカー35の形状は十字形状や先端が尖った形状(矢印)など、位置の指定、判別がしやすい形状がよい。
 撮影画像処理部410は、撮影画像30-3に含まれるマーカーに基づき、画像表示領域32および書込領域33を特定する。ここで、図13においては、映像信号に応じた画像21が投写される領域および投写面20の四隅を示すマーカー35の形状が同じである。この場合、通常、画像表示領域32は書込領域33内にあるので、撮影画像処理部410は、内側の領域を画像表示領域32として特定し、外側の領域を書込領域33として特定する。
 このように、本実施形態のプロジェクタ40は、映像信号に応じた画像21が投写される領域および投写面20を示すマーカー35が書き込まれた投写面20を撮影し、撮影画像に含まれるマーカーに基づき、画像表示領域32および書込領域33を特定する。
 そのため、テスト画像を投写面20に投写したり、ポインタなどを介した画像表示領域32および書込領域33のユーザからの指定を受け付けたりする必要がなくなるので、撮影画像処理部410の処理量を低減することができる。
 なお、上述した第1ないし第4の実施形態においては、議事録画像の元となる書込画像の解像度が表示部140の解像度と同じになるように撮影画像に対する補正を行う例を用いて説明したが、これに限られるものではない。例えば、入力画像の解像度をそのままとし、画像表示領域32の解像度が入力画像の解像度と同じになるように、撮影画像に対する台形歪補正および解像度変換を行ってもよい。つまり、生成される議事録画像の解像度は、適宜、設定可能であり、議事録画像の解像度に基づき、書込画像の解像度、および、入力画像の解像度を変換するようにしてもよい。
 また、上述した第1ないし第4の実施形態においては、画像表示領域32および書込領域33を特定する例を用いて説明したが、これに限られるものではない。例えば、投写面20における投写領域23を示すテスト画像をさらに投写し、そのテスト画像に基づき撮影画像における投写領域23に対応する領域も特定するようにしてもよい。なお、一般に、プロジェクタを用いて投写を行う場合に、表示部140に黒画像を表示しても、投写面20には数ルーメン程度の明るさの画像が投写される。この輝度差を検出することで、撮影画像における投写領域23に対応する領域を特定してもよい。撮影画像における投写領域23に対応する領域を特定することで、画像表示領域32および書込領域33を特定する際のデータとして利用することができる。例えば、投写領域23に対応する領域を書込領域33として誤って特定することを防止することができる。また、例えば、撮影画像における投写領域23に対応する領域を特定することで、その特定した領域を書込領域33と同じ色や輝度となるように補正してもよい。このような補正を行うことで、議事録画像における書込領域33の色や輝度が一様となるため、ユーザにとって見やすい議事録画像とすることができる。
 また、上述した第1ないし第4の実施形態においては、テスト画像の色や輝度をユーザが適宜、設定することができるようにしてもよい。投写面20の色や反射率により、画像表示領域32を検出しやすいテスト画像の色あるいは輝度がある。そのため、ユーザが投写面に合わせてテスト画像の色や輝度を適宜、設定することで、画像表示領域32の検出精度を上げることができる。
 また、上述した第1ないし第4の実施形態においては、入力部170からトリガ信号が出力されると、画像表示領域32および書込領域33を特定し、議事録画像を生成する例を用いて説明したが、これに限られるものではない。プロジェクタの投写光軸と投写面20との角度や距離などの投写条件が同じであれば、画像表示領域32および書込領域33を一度特定すれば、投写条件が変わらない限り、画像表示領域32および書込領域33が変わることはない。そのため、例えば、プロジェクタの起動時、プロジェクタの設置調整後、あるいは、プロジェクタの電源の遮断する前などに、適宜、画像表示領域32および書込領域33を特定するようにしてもよい。この場合、トリガ信号の出力時に、画像表示領域32、書込領域33などを特定するための処理は不要となる。
 また、上述した第1ないし第4の実施形態においては、投写レンズ142の光軸と撮影部150の撮影レンズの光軸とは、台形歪補正の観点から、平行であることが望ましい。ただし、投写レンズ142の光軸と撮影レンズの光軸とが平行でない場合であっても、予め、投写レンズ142と撮像レンズとの相対位置、投写レンズ142の光軸と撮像レンズの光軸との角度を設定または検出しておき、さらに、投写レンズ142または撮像レンズと投写面20との距離、および、投写レンズ142または撮像レンズと投写面20との角度を、測距装置などを用いて測定することで、一般的な台形歪補正の技術を用いて、正確に台形歪を補正することができる。
 また、上述した第1ないし第4の実施形態においては、撮影部150の撮影レンズは、撮影領域を拡大、縮小するズーム機能、また、撮影レンズの光軸に対し垂直方向に撮影レンズを移動するレンズシフト機能などを備えていることが望ましい。撮影部150の撮影レンズがズーム機能を備えることにより、例えば、撮影画像において、投写面20の外側の領域が必要以上に大きくなることなどを防止することができる。また、撮影部150の撮影レンズがレンズシフト機能を備えることにより、撮影レンズの光軸の角度を変えずに、撮影領域を上下左右へ移動することが可能となる。そのため、撮影画像において、書込領域33がなるべく広くなるように撮影することができ、議事録画像の画質を向上させることができる。なお、撮影部150の撮影レンズがレンズシフト機能を備える場合には、例えば、撮影部150が撮影した撮影画像を投写面20に投写することで、投写面20に投写された画像を見ながら、撮影部150の撮影領域を調整することができる。
 また、上述した第1ないし第4の実施形態においては、映像信号が外部の映像信号源から供給される例を用いて説明したが、これに限られるものではない。例えば、USBコネクタなどで接続された外部記憶媒体、あるいは、記憶部160に記憶されている映像信号に応じた画像を投写面20に投写する場合にも、同様にして議事録画像を生成することができる。なお、記憶部160などに記憶されている映像信号に応じた画像を投写面20に投写している場合には、トリガ信号の出力時に、投写されている画像を記憶部160で記憶する必要はなく、投写されている画像を識別する情報を記憶部160などで記憶し、記憶した識別情報に基づいて、議事録画像を生成することができる。
 また、上述した第1ないし第4の実施形態においては、入力される映像信号の切り替えなどをイベントとして、議事録画像を生成するようにしてもよい。例えば、映像信号が入力される入力端子の切り替え、あるいは、映像信号に判別を行うための情報(映像信号の解像度が、1024×768であるか、640×480であるか、また、同期信号の周波数、などを示す情報)の変化をイベントとして、議事録画像を生成するようにしてもよい。
 また、投写面20に投写する画像の変化をイベントとして、議事録画像を生成するようにしてもよい。例えば、撮影画像処理部は、フレームメモリ部120を監視し、既に記憶されている画像と新しく記憶される画像との一致した座標(画像上の同じ場所)の値をフレーム間で比較し、比較の結果が変化を示すものである場合には、議事録画像を生成するようにしてもよい。ただし、投写面20に投写する画像の変化をイベントとして、議事録画像を生成する場合には、フレームメモリ部120が2つ以上設けられ、2フレーム分以上の画像を記憶できることが望ましい。例えば、2つのフレームメモリ部120を用いて、2フレーム分の画像を記憶する場合、フレームメモリ部120に記憶される画像の更新は交互に行われる。つまり、一方のフレームメモリ部120は、偶数フレームの画像を記憶し、他方のフレームメモリ部120は、奇数フレームの画像を記憶する状態となる。この状態で、撮影画像処理部は、各フレームメモリ部120を監視し、いずれかのフレームメモリ部120に、既に記憶されている画像と新しく記憶される画像との変化が検出された場合に、画像変化が検出されたフレームメモリ部120とは別のフレームメモリ120から1フレーム前の画像を取得して、記憶部160に記憶させる。
 以上、実施形態を参照して本願発明を説明したが、本発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解し得る様々な変更をすることができる。

Claims (10)

  1.  入力された映像信号に応じた画像をユーザが書込可能な投写面に投写する投写部と、
     前記投写面の撮影を行い、撮影画像の画像データを出力する撮影部と、
     記憶部と、
     所定のイベントが発生すると、投写されていた前記映像信号に応じた画像を前記記憶部に記憶させ、前記投写部に前記画像の投写を中断させた後に、前記投写面を前記撮影部に撮影させ、該撮影による撮影画像に前記記憶部に記憶されている前記映像信号に応じた画像を合成した議事録画像を生成する撮影画像処理部と、を有することを特徴とするプロジェクタ。
  2.  請求項1記載のプロジェクタにおいて、
     前記撮影画像処理部は、前記撮影部の撮影画像における前記映像信号に応じた画像が投写される領域である画像表示領域を特定し、該特定した画像表示領域に前記記憶部に記憶されている前記映像信号に応じた画像を合成して前記議事録画像を生成することを特徴とするプロジェクタ。
  3.  請求項2記載のプロジェクタにおいて、
     前記撮影画像処理部は、前記投写部に前記映像信号に応じた画像が投写される領域を示すテスト画像を投写させた後、前記撮影部に撮影を行わせ、該撮影による撮影画像におけるテスト画像に基づき、前記画像表示領域を特定することを特徴とするプロジェクタ。
  4.  請求項3の記載のプロジェクタにおいて、
     前記投写部は、前記テスト画像の色および輝度の少なくとも一方を変更可能に前記投写面に投写することを特徴とするプロジェクタ。
  5.  請求項3記載のプロジェクタにおいて、
     前記撮影画像処理部は、前記撮影部の撮影画像に含まれる、前記投写面に書き込まれた、前記映像信号に応じた画像が投写される領域を示すマーカーに基づき、前記画像表示領域を特定することを特徴とするプロジェクタ。
  6.  請求項3記載のプロジェクタにおいて、
     前記撮影画像処理部は、前記撮影部の撮影画像における前記画像表示領域の指定を受け付け、該指定された領域を前記画像表示領域として特定することを特徴とするプロジェクタ。
  7.  請求項2から6のいずれか1項に記載のプロジェクタにおいて、
     前記撮影画像処理部は、前記画像表示領域が略矩形形状となるように前記撮影画像を補正し、前記記憶部に記憶されている前記映像信号に応じた画像の形状が前記画像表示領域の形状に一致するように前記映像信号に応じた画像を補正した後に、前記議事録画像を生成することを特徴とするプロジェクタ。
  8.  請求項2から6のいずれか1項に記載のプロジェクタにおいて、
     前記撮影画像処理部は、前記撮影画像における前記投写面に対応する領域である書込領域が略矩形形状となるように前記撮影画像を補正した後に、前記議事録画像を生成することを特徴とするプロジェクタ。
  9.  請求項1から7のいずれか1項に記載のプロジェクタにおいて、
     前記撮影画像処理部は、前記議事録画像の生成を要求する旨が入力されると、前記所定のイベントが発生したとすることを特徴とするプロジェクタ。
  10.  プロジェクタの制御方法であって、
     入力された映像信号に応じた画像をユーザが書込可能な投写面に投写し、
     所定のイベントが発生すると、投写されていた前記映像信号に応じた画像を記憶し、前記画像の投写を中断した後に、前記投写面を撮影し、該撮影による撮影画像に前記記憶している映像信号に応じた画像を合成した議事録画像を生成することを特徴とするプロジェクタの制御方法。
     
     
PCT/JP2011/063689 2011-06-15 2011-06-15 プロジェクタおよびその制御方法 WO2012172655A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/063689 WO2012172655A1 (ja) 2011-06-15 2011-06-15 プロジェクタおよびその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/063689 WO2012172655A1 (ja) 2011-06-15 2011-06-15 プロジェクタおよびその制御方法

Publications (1)

Publication Number Publication Date
WO2012172655A1 true WO2012172655A1 (ja) 2012-12-20

Family

ID=47356682

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/063689 WO2012172655A1 (ja) 2011-06-15 2011-06-15 プロジェクタおよびその制御方法

Country Status (1)

Country Link
WO (1) WO2012172655A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015220503A (ja) * 2014-05-14 2015-12-07 コニカミノルタ株式会社 画像処理装置、投影および撮影の方法、ならびにコンピュータプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004239967A (ja) * 2003-02-03 2004-08-26 Seiko Epson Corp プロジェクタ
JP2006108813A (ja) * 2004-09-30 2006-04-20 Fuji Xerox Co Ltd 画像処理システムおよび画像処理方法および画像処理プログラム
JP2008072388A (ja) * 2006-09-13 2008-03-27 Ricoh Co Ltd 画像処理装置、画像処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004239967A (ja) * 2003-02-03 2004-08-26 Seiko Epson Corp プロジェクタ
JP2006108813A (ja) * 2004-09-30 2006-04-20 Fuji Xerox Co Ltd 画像処理システムおよび画像処理方法および画像処理プログラム
JP2008072388A (ja) * 2006-09-13 2008-03-27 Ricoh Co Ltd 画像処理装置、画像処理方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015220503A (ja) * 2014-05-14 2015-12-07 コニカミノルタ株式会社 画像処理装置、投影および撮影の方法、ならびにコンピュータプログラム

Similar Documents

Publication Publication Date Title
JP3846592B2 (ja) 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP3879858B2 (ja) 画像処理システム、プロジェクタおよび画像処理方法
JP3844076B2 (ja) 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP3925521B2 (ja) スクリーンの一部の辺を用いたキーストーン補正
TWI249351B (en) Image processing system, projector, and image processing method
JP3994290B2 (ja) 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
US7524070B2 (en) Projection control system, projector and projection control method
CN102365866B (zh) 多投影显示系统和屏幕形成方法
JP2008211354A (ja) プロジェクタ、プログラムおよび情報記憶媒体
JP5471830B2 (ja) 光変調装置の位置調整方法、光変調装置の位置調整量算出装置、及びプロジェクター
US8670038B2 (en) Projection display device and method of controlling the same
JP4831219B2 (ja) プロジェクタおよびプロジェクタの制御方法
JP4428371B2 (ja) 投写型画像表示装置及び平面被投写体
JP5187480B2 (ja) プロジェクタ、プログラム、情報記憶媒体および画像生成方法
WO2012172655A1 (ja) プロジェクタおよびその制御方法
JP2009212757A (ja) 画像表示システム
WO2020162051A1 (ja) 投射型映像表示システム
JP2010130481A (ja) 画像投射装置
JP2010288062A (ja) プロジェクター、プログラム、情報記憶媒体および画像投写方法
JP5093517B2 (ja) プロジェクタ、プログラム、情報記憶媒体および画像生成方法
JP2008211353A (ja) プロジェクタ、プログラム、情報記憶媒体および画像歪み補正方法
JP2021189289A (ja) 表示システムの制御方法、及び、表示システム
JP2021061510A (ja) 投影制御装置及び方法、プログラム、記憶媒体
JP2004229195A (ja) 液晶プロジェクタにおけるコンバージェンスずれ補正方法および液晶プロジェクタ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11867785

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11867785

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP