WO2013186993A1 - 投射型投影装置、光防眩方法、および光防眩用プログラム - Google Patents

投射型投影装置、光防眩方法、および光防眩用プログラム Download PDF

Info

Publication number
WO2013186993A1
WO2013186993A1 PCT/JP2013/003222 JP2013003222W WO2013186993A1 WO 2013186993 A1 WO2013186993 A1 WO 2013186993A1 JP 2013003222 W JP2013003222 W JP 2013003222W WO 2013186993 A1 WO2013186993 A1 WO 2013186993A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
head
glare
projection
detected
Prior art date
Application number
PCT/JP2013/003222
Other languages
English (en)
French (fr)
Inventor
亮磨 大網
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Publication of WO2013186993A1 publication Critical patent/WO2013186993A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor

Definitions

  • the present invention relates to a projection type projection device, a light anti-glare method, and a light anti-glare program for reducing the glare of light projected when an image is projected.
  • Non-Patent Document 1 describes a projector system that adjusts light of a projector so that a speaker does not dazzle even when standing in front of the projector.
  • the projector system described in Non-Patent Document 1 detects a speaker's face area from an image including a screen and the speaker, and displays a mask image superimposed on the detected area.
  • Non-Patent Document 2 describes a person detection method that improves the accuracy of detecting a person in a high illumination environment.
  • brightness adjustment is performed between a projected image and a captured image obtained by capturing the projected image with a camera, and a difference image is created between the images after brightness adjustment, thereby Is detected.
  • the projected slide is an important material for the viewer. Therefore, it is desirable that the range in which the projected light is reduced is as close as possible to the user's head. Therefore, it is desirable to appropriately recognize the head of the presenter and reduce the light at that portion.
  • Non-Patent Document 1 In the system described in Non-Patent Document 1, the slide is superimposed on the face of the presenter, so there is a problem that face detection does not operate correctly and the anti-glare function does not work well. Further, the system described in Non-Patent Document 1 has a problem that when a face is originally placed in a slide, even the face is detected and the anti-glare function is erroneously activated.
  • Non-Patent Document 2 by using the person detection method described in Non-Patent Document 2, the risk of detecting a face included in a slide is reduced.
  • the projected slide is an animation, or when the brightness of the projected slide changes, a difference image may not be accurately created.
  • the person detection method described in Non-Patent Document 2 there is a possibility that a face included in the slide is erroneously determined.
  • both the system described in Non-Patent Document 1 and the person detection method described in Non-Patent Document 2 have a high possibility of causing an erroneous determination when a pattern similar to a face exists in a slide.
  • the present invention is a projection type projection that can accurately reduce the glare of light projected on a person when the person is present in the image projection direction. It is an object to provide an apparatus, a light anti-glare method, and a light anti-glare program.
  • a projection type projection apparatus includes a head detection unit that detects a head region of a moving body from a captured image that is an image obtained by capturing both a projection image projected from the projection unit and the moving body, and a detection from the captured image.
  • a head detection verification unit that verifies whether the image of the head region that is included is an image included in the projection image, and a case where the image of the head region detected from the captured image is determined not to be included in the projection image
  • an anti-glare processing means for performing a process of reducing glare on each pixel of the projection image corresponding to the head region.
  • the anti-glare method detects a head region of a moving body from a captured image that is an image obtained by capturing both a projected image projected from a projection unit and the moving body, and detects the head region detected from the captured image. If the image of the head region detected from the captured image is determined to be an image that is not included in the projection image, the projection image corresponding to the head region is verified. Each pixel is characterized by reducing glare.
  • An anti-glare program includes a head detection process for detecting a head region of a moving body from a captured image, which is an image obtained by capturing both a projection image projected from a projection unit and the moving body on a computer.
  • a head detection verification process for verifying whether the image of the head region detected from the image is an image included in the projection image, and an image in which the image of the head region detected from the captured image is not included in the projection image; When it is determined, each pixel of the projection image corresponding to the head region is subjected to an anti-glare process for performing a process of reducing glare.
  • the glare of light projected on the person can be accurately reduced.
  • FIG. FIG. 1 is a block diagram showing a configuration example of a first embodiment of a projection type projection apparatus according to the present invention.
  • the projection type projection apparatus of this embodiment includes a geometric correction unit 101, a head detection unit 104, a head detection verification unit 106, and an anti-glare processing unit 105.
  • the geometric correction unit 101 inputs an image captured by the camera (hereinafter referred to as a camera image) and matches the shape of a slide image (hereinafter referred to as a slide image) projected on the screen by the projection type projector. Geometrically correct the camera image.
  • the geometric correction unit 101 geometrically corrects the camera image captured by the camera into a rectangle according to the shape of the slide image.
  • the camera image geometrically corrected by the geometric correction unit 101 may be referred to as a geometrically corrected image.
  • the geometric correction method for example, a widely known general method such as a method using a projective transformation matrix is used.
  • the camera image is an image of a slide image projected on the screen.
  • the camera image means an image obtained by photographing the presenter together with the slide image.
  • it when it is described as a camera image, it means an image in which a slide image is taken or an image in which both a slide image and a presenter are taken.
  • the presenter photographed as a camera image is an object that moves while projecting a slide image
  • the presenter may be referred to as a moving body in the following description.
  • the slide video is sometimes referred to as the background
  • the presenter present before the slide video is sometimes referred to as the foreground.
  • the head detection means 104 detects the head region of the moving object from the camera image.
  • the head detection unit 104 may detect the head by pattern recognition using a template or a feature amount describing a head pattern viewed from various directions of 360 degrees.
  • region from the image containing a person etc. is widely known, detailed description is abbreviate
  • the head detection verification means 106 verifies whether the detected image of the head region is an image included in the slide image.
  • Various methods can be used as the verification method. Hereinafter, three specific verification methods will be exemplified, but the verification method is not limited to the following three methods.
  • the first verification method is a method of verifying whether a pattern similar to the detected head region exists in the slide image. This method is a method for reducing erroneous detection of an area similar to the head in a slide image.
  • FIG. 2 is an explanatory diagram showing an example of the relationship between the slide image and the camera image.
  • a region a1 of the slide image S1 illustrated in FIG. 2 includes a round image similar to the head. Therefore, there is a possibility that the area a2 of the camera image C1 is detected as the head area.
  • the head detection verification means 106 calculates the similarity between the detected head region pattern (region a2) and the image pattern (region a1) at the same position (region) of the slide image. If is greater than a certain value, it is determined that the pattern is originally on the slide.
  • a method for evaluating whether the two are similar for example, normalized correlation can be used.
  • the similarity evaluation method is not limited to the method using normalized correlation. Any other method may be used as long as the degree of similarity between the two can be evaluated.
  • the head detection verification unit 106 may determine the similarity between the two by setting a search window in consideration of some positional deviation and calculating the maximum value of the correlation.
  • the head detection verification unit 106 has a high similarity between the head region detected from the camera image and the slide image corresponding to the head region (for example, the similarity satisfies a predetermined criterion). ),
  • the image of the head region may be determined as an image included in the slide image.
  • the second verification method is a method of verifying whether or not there is an area that can be determined as the head in the original slide image. This method is a method of reducing false detection of a person appearing in a slide including a moving image.
  • FIG. 3 is an explanatory diagram showing another example of the relationship between the slide image and the camera image.
  • An area a3 of the slide image S2 illustrated in FIG. 3 includes an image including a person. Therefore, there is a possibility that the area a4 of the camera image C2 is detected as the head area.
  • the detected head region may not necessarily have the same pattern in the camera image and the slide image due to the delay due to camera capture.
  • the head detection verification means 106 performs head detection processing in the vicinity of the slide image region (region a3) corresponding to the same position (region) as the position (region a4) in the camera image where the head region is detected. It is determined whether there is an image that can be determined as the head in the slide image.
  • the head detection verification means 106 determines whether or not a head exists near the rectangular area on the slide image corresponding to the area determined by the coordinates (x0, y0) and (x1, y1).
  • the search range of the head on the slide image is only in the vicinity of the rectangle determined by (x0, y0) and (x1, y1). The amount can be reduced.
  • the head detection verification unit 106 performs the head detection process on the slide image area corresponding to the head area detected from the camera image, and the head can be detected from the slide image area.
  • the image of the head region may be determined as an image included in the slide image.
  • the method of the head detection process performed by the head detection verification unit 106 may be the same as or different from the method of the head detection unit 104 detecting the head.
  • the region on which the anti-glare processing has been performed is an area in which head detection has been erroneously performed. It is a method of verifying whether or not.
  • luminance of a slide image is mentioned as an example of the anti-glare process performed by the anti-glare process means 105 mentioned later, in the following description, an anti-glare process is described as a brightness reduction process. There is also.
  • an image obtained by applying an anti-glare process to each pixel of the slide image is referred to as an anti-glare slide image
  • an image obtained by photographing the anti-glare slide image is referred to as an anti-glare camera image.
  • an anti-glare camera image a portion corresponding to each pixel of the slide image subjected to the anti-glare processing is described as an anti-glare portion, and is specified by the anti-glare processing applied to each pixel of the slide image.
  • the anti-glare content is referred to as a brightness reduction pattern.
  • the head detection means 104 determines that the area where the luminance reduction processing has been performed is the head, and the region (anti-glare) Part) may remain.
  • FIG. 4 is an explanatory diagram showing an example of the camera image after the anti-glare processing is performed.
  • the glare-proof portion (region a ⁇ b> 5) remains due to the failure of head detection, and the head-detection unit 104 continues to erroneously detect the glare-proof portion. Indicates that it remains.
  • the luminance reduction pattern is often an ellipse or a circle, there is a property that an anti-glare portion is easily erroneously detected as a head region.
  • the head detection verification means 106 evaluates the similarity between the anti-glare part and the luminance reduction pattern. Specifically, the head detection verification unit 106 evaluates the uniformity of pixels in the anti-glare part.
  • the luminance of pixels included in the region is uniformly dark.
  • the luminance distribution of pixels in the region does not become flat.
  • the head and the face have a more complicated pattern compared to the region where the glare-proofing process is mistakenly performed. Therefore, the similarity between this region (anti-glare portion) photographed by the camera and the original luminance reduction pattern is low.
  • the area where the anti-glare process has been mistakenly performed has a high similarity to the original luminance reduction pattern because the original luminance reduction pattern is directly captured by the camera.
  • FIG. 5 is an explanatory view showing an example in which a slide image subjected to anti-glare processing is taken.
  • a camera image C3 illustrated in FIG. 5 is an image in which an antiglare process is performed on the head region.
  • the camera image C4 is an image in which an anti-glare process is performed on an area other than the head area (that is, an erroneous area). Note that the anti-glare processing performed for the camera image C3 and the camera image C4 illustrated in FIG. 5 is omitted.
  • the image is an image that has been subjected to anti-glare processing on the slide image itself. . That is, as illustrated in the area a8 of the camera image C4, the area on which the antiglare process has been performed is directly projected, and thus is photographed in a flat pattern state. Therefore, the variance of the pixel values in this region is small. That is, it can be said that the uniformity in this case is high.
  • the head detection verification means 106 may evaluate the uniformity by calculating the variance of the pixel values of the pixels included in the target region. For example, when the dispersion of pixel values is sufficiently small, it can be determined that the region is a flat region because the variation in pixel values is low. On the other hand, when the variance of the pixel values is larger than a predetermined reference, the variation of the pixel values is large, so that it can be determined as the head region.
  • the head detection verification means 106 performs frequency conversion such as FFT (Fast Fourier Transform) on the pixels in the region, detects that the components other than the DC component are almost zero, and is flat. May be evaluated.
  • FFT Fast Fourier Transform
  • the head detection verification means 106 may evaluate the uniformity (flatness) by evaluating the similarity to a flat pattern such as a circle having a constant luminance value. Further, the head detection verification unit 106 may evaluate the uniformity (flatness) by evaluating the similarity between the anti-glare part and the luminance reduction pattern. Evaluating the similarity between the antiglare part and the luminance reduction pattern is synonymous with evaluating the uniformity (flatness) of the antiglare part.
  • the head detection verification means 106 uses the same method as the method for calculating the similarity between the pattern of the head region and the image pattern at the same position (region) of the slide image in the first verification method. You may evaluate the similarity of a part and a brightness reduction pattern. The evaluation method of similarity is arbitrary.
  • the head detection verification unit 106 determines that the head region is determined when each pixel included in the anti-glare part of the anti-glare camera image is not uniform (that is, the pixel value distribution of each pixel is not uniform).
  • the image of the determined part may be determined as an image included in the slide image.
  • the head detection verification unit 106 uses the at least one verification method among the first verification method, the second verification method, and the third verification method described above to detect an image of the detected head region. It may be verified whether the image is included in the slide image. Then, the head detection verifying means 106 outputs only the head area determined as the verification result that the detected head area is not included in the original slide image to the anti-glare processing means 105.
  • the first, second, and third verification methods described above have different processing loads. Specifically, the processing is light in the order of the third verification method, the first verification method, and the second verification method. Therefore, the head detection verification means 106 starts from the light processing method (specifically, in the order of the third verification method, the first verification method, and the second verification method). It is preferable to verify whether the image is an image included in the slide image.
  • the head detection verification means 106 prioritizes the first verification method over the second verification method, and prioritizes the third verification method over the first verification method. It is preferable to verify whether or not the partial area image is included in the slide image.
  • FIG. 6 is a flowchart showing an example of processing for verifying the detected head region.
  • the head detection verification means 106 verifies whether or not the detected image of the head region is an image included in the slide image, using a third verification method.
  • the head detection verification means 106 when the head detection verification means 106 receives the head detection result, it evaluates the likelihood of the luminance reduction pattern of the head detection result (step S11). If it is determined that the head detection result is a luminance reduction pattern (Yes in step S12), the head detection verification unit 106 ends the process without performing the luminance reduction process. In this case, since the anti-glare processing has already been performed by mistake, the head detection verification unit 106 instructs the anti-glare processing unit 105 to be described later to cancel the anti-glare processing.
  • the head detection verification unit 106 uses the first verification method to detect the detected image of the head region. It is verified whether the image is included in the slide image.
  • the head detection verification means 106 evaluates the similarity between the head detection area and the corresponding slide image (step S13). When the similarity between the head detection area and the corresponding slide image is high (Yes in step S14), the head detection verification unit 106 determines that the detected image of the head area is an image included in the slide image, The process ends without performing the luminance reduction process.
  • the head detection verification unit 106 uses the second verification method to detect the detected image of the head region. Verifies whether or not is an image included in the slide image.
  • the head detection verification means 106 performs head detection processing on the slide image at a position corresponding to the head detection area (step S15).
  • the head detection verification unit 106 determines that the detected image of the head region is an image included in the slide image, and does not perform the luminance reduction process. The process ends.
  • the head detection verification unit 106 notifies the anti-glare processing unit 105 of information indicating the detected head region, and the anti-glare processing is performed. Is executed.
  • the head detection verification unit 106 includes: Of the second verification method and the third verification method, at least one verification process may be performed.
  • the anti-glare processing unit 105 When the detected image of the head region is an image that is not included in the slide image, the anti-glare processing unit 105 performs a process of reducing glare on each pixel of the slide image corresponding to the head region. Specifically, the anti-glare processing unit 105 performs a process of reducing the luminance of each pixel of the slide image corresponding to the head region.
  • the anti-glare processing means 105 may, for example, reduce the luminance value of the pixels included in the head region uniformly (for example, the luminance value to 0), and a pattern such as an ellipse or a circle whose luminance gradually increases as the distance from the center increases. Luminance may be reduced by placing a figure over the head region. Moreover, the area
  • the geometric correction means 101, the head detection means 104, the head detection verification means 106, and the anti-glare processing means 105 are realized by a CPU of a computer that operates according to a program (light anti-glare program).
  • the program is stored in a storage unit (not shown) of the projection type projection apparatus, and the CPU reads the program and, according to the program, the geometric correction unit 101, the head detection unit 104, the head detection verification unit 106, and The anti-glare processing unit 105 may operate.
  • each of the geometric correction unit 101, the head detection unit 104, the head detection verification unit 106, and the anti-glare processing unit 105 may be realized by dedicated hardware.
  • FIG. 7 is a flowchart showing an operation example of the projection type projection apparatus of the present embodiment.
  • Geometric correction unit 101 corrects the camera image (step S21).
  • the head detecting means 104 detects the head area of the moving body from the camera image (step S22).
  • the head detection verification unit 106 verifies whether the detected image of the head region is an image included in the slide image (step S23).
  • the head detection verification unit 106 may verify the head region detected based on, for example, the flowchart illustrated in FIG.
  • the anti-glare processing unit 105 reduces glare in each pixel of the slide image corresponding to the head region. Is performed (step S25).
  • the anti-glare processing unit 105 ends the process without performing the anti-glare process.
  • the head detection unit 104 detects the head region of the moving body from the camera image
  • the head detection verification unit 106 detects the image of the head region detected from the camera image. Verifies whether or not is an image included in the slide image. Then, when it is determined that the image of the head area detected from the camera image is not included in the slide image, the anti-glare processing unit 105 is dazzled by each pixel of the slide image corresponding to the head area. The process which reduces is performed. Therefore, when projecting an image by projecting light with high illuminance, if there is a person in the projection direction of the image, the glare of the light projected onto the person can be accurately reduced.
  • FIG. FIG. 8 is a block diagram showing a configuration example of the second embodiment of the projection type projection apparatus according to the present invention.
  • symbol same as FIG. 1 is attached
  • subjected and description is abbreviate
  • the projection type projection apparatus of this embodiment includes a geometric correction unit 101, a difference image generation unit 102, a foreground extraction unit 103, a head detection unit 104a, a head detection verification unit 106, and an anti-glare processing unit 105. It has.
  • the difference image generation means 102 generates a difference image from the difference value between the pixel value of each pixel in the camera image and the pixel value of each corresponding pixel in the slide image.
  • the pixel value of the corresponding pixel differs between the captured image (that is, the camera image) and the slide image.
  • the difference image generation unit 102 may perform correction to bring the pixel value of the pixel in the camera image closer to the pixel value of the pixel in the slide image. Then, the difference image generation unit 102 calculates the difference between the pixel value of each pixel in the camera image after correcting the pixel value (hereinafter referred to as a pixel value corrected image) and the pixel value of each corresponding pixel in the slide image. A difference image may be generated from the value. in this way. By using the pixel value corrected image, it is possible to improve the accuracy of comparing both images.
  • the foreground extraction unit 103 extracts a foreground region indicating the foreground from the difference image generated by the difference image generation unit 102.
  • Foreground extraction means 103 may generate a mask image for masking the background portion based on a threshold value determined for each pixel, for example. Then, the foreground extraction unit 103 may extract a foreground region indicating the foreground from the mask image.
  • the method by which the foreground extraction unit 103 extracts the foreground region is not limited to the method of generating a mask image.
  • the head detection means 104a detects the head area of the moving object from the area corresponding to the foreground extracted by the foreground extraction means 103 in the camera image.
  • the head detection unit 104a may detect the head region using the same method as the head detection unit 104 in the first embodiment.
  • the operations of the geometric correction unit 101, the head detection verification unit 106, and the anti-glare processing unit 105 are the same as those in the first embodiment.
  • the geometric correction means 101, the difference image generation means 102, the foreground extraction means 103, the head detection means 104a, the head detection verification means 106, and the anti-glare processing means 105 are a program (for light anti-glare processing). This is realized by a CPU of a computer that operates according to a program.
  • the head detection unit 104 detects the head region of the moving object from the entire camera image.
  • the head detection unit 104a detects the head of the moving object from the foreground region. Detect subregions. Therefore, according to the present embodiment, in addition to the effects of the first embodiment, the accuracy of detecting the head region can be further increased.
  • FIG. The projection type projection apparatus of the present embodiment is an apparatus that detects a moving body (presenter) without analyzing an image captured by a camera.
  • FIG. 9 is a block diagram showing an embodiment of a projection type projection apparatus that performs an anti-glare process on a slide image and projects the slide image.
  • symbol same as FIG. 1 is attached
  • subjected and description is abbreviate
  • the projection type projection apparatus of this embodiment includes a moving body detection unit 201, a foreground extraction unit 203, a head detection unit 204, and an anti-glare processing unit 105.
  • the operation of the anti-glare processing means 105 is the same as that in the first embodiment.
  • the moving body detection means 201 detects a moving body. Specifically, the moving body detection unit 201 detects a moving body that exists between a slide image and a projector on which the slide image is projected. Hereinafter, a specific example of a method in which the moving body detection unit 201 detects a moving body will be described. However, the method by which the moving body detection unit 201 detects the moving body is not limited to the following contents.
  • the moving body detection means 201 may detect a moving body by irradiating a white screen in a subliminal manner.
  • the moving body detecting unit 201 projects a white screen at a speed (for example, about one frame) that cannot be perceived by humans while projecting a slide, and captures a video with the camera in synchronization therewith. Good.
  • the moving body detection means 201 may detect a moving body using an infrared sensor.
  • the moving body detection unit 201 may detect the moving body by detecting an obstacle to be blocked using an infrared sensor.
  • the moving body detection means 201 may detect a moving body using an infrared camera. For example, when far infrared rays are used, the moving body detection unit 201 may detect the position of the moving body (presenter) by detecting the heat of a person. Moreover, when near infrared rays are used, the moving body detection means 201 irradiates near infrared rays that are invisible to human eyes. And the moving body detection means 201 may image
  • the moving body detection unit 201 performs detection processing on some areas instead of processing the entire screen to be detected as in the method described above, and synthesizes the detection results for the respective areas. You may do it.
  • the mobile object detection unit 201 projects a white image only on a part of the line (or part of the area) of the screen at a certain time, and determines whether or not a mobile object exists in that part. May be. At this time, the moving body detection unit 201 sequentially performs this process on different areas. If the entire area can be covered during several frames, the moving body detection means 201 can detect the position of the moving body by combining the results during the several frames.
  • the moving body detection unit 201 may detect the moving body by performing a scan process for each horizontal line and combining the results, for example. At this time, the scanning width is arbitrary. By widening the width, it becomes possible to detect the moving object efficiently. On the other hand, by narrowing the width, the detection process can be made inconspicuous for the viewer of the slide. Considering these points, the width may be determined.
  • the moving body detection unit 201 may detect the position of the moving body by projecting a white image in a subliminal manner on a randomly selected area and combining the detection results of each area.
  • the moving body detection unit 201 transmits information indicating the position and form of the moving body (hereinafter, also referred to as moving body information) to the foreground extraction unit 203 as a result of such processing.
  • the foreground extraction means 203 generates foreground information from the moving body information. Since the foreground position and the like can be specified by the moving body information, the foreground extraction unit 203 specifies, for example, the foreground from the position of the moving body detected by the moving body detection unit 201, and uses the information indicating the position as the foreground information. May be generated as
  • the foreground extraction means 203 may geometrically correct the area in the range indicated by the moving body information in accordance with the shape of the slide image. Specifically, the foreground extraction unit 203 may perform geometric correction on the moving body information using a method similar to the method corrected by the geometric correction unit 101 in the first embodiment.
  • the head detection means 204 detects the head region of the moving object from the foreground information.
  • the head detecting unit 204 detects the head region of the moving body based on the detection result acquired according to the moving body detecting unit 201. Therefore, the head detection unit 204 may perform a head region detection process according to the moving body detection unit 201.
  • region from the information obtained by irradiating scan data or a white screen is known widely, detailed description is abbreviate
  • the moving body detection means 201, foreground extraction means 203, head detection means 204, and anti-glare processing means 105 are realized by a CPU of a computer that operates according to a program (light anti-glare program).
  • the program is stored in a storage unit (not shown) of the projection type projection apparatus, and the CPU reads the program, and according to the program, the moving body detection unit 201, the foreground extraction unit 203, the head detection unit 204, and the prevention unit.
  • the glare processing means 105 may operate.
  • the moving object detection unit 201, the foreground extraction unit 203, the head detection unit 204, and the anti-glare processing unit 105 may each be realized by dedicated hardware.
  • FIG. 10 is a flowchart showing an operation example of the projection type projection apparatus of the present embodiment.
  • the moving body detection unit 201 detects the moving body and transmits the moving body information to the foreground extraction unit 203 (step S31).
  • the foreground extraction means 203 generates foreground information from the moving body information (step S32). At this time, the foreground extraction means 203 may geometrically correct the moving body information.
  • the head detecting unit 204 detects the head region of the moving body from the foreground information (step S33).
  • the glare-proof process means 105 performs the process which reduces glare to each pixel of the slide image corresponding to the detected head area
  • the moving body detecting unit 201 detects the moving body
  • the head detecting unit 204 detects the head region in the detected moving body.
  • the glare-proof process means 105 performs the process which reduces glare to each pixel of the slide image corresponding to the head area
  • the projection type projector according to the present embodiment when a person is present in the image projection direction when projecting an image by projecting light with high illuminance, the light projected on the person The glare can be accurately reduced.
  • FIG. 11 is a block diagram showing an outline of a projection type projection apparatus according to the present invention.
  • a projection type projection apparatus according to the present invention is a captured image (for example, a camera) that is an image of a projection image (for example, a slide image) projected from a projection means (for example, a projector) and a moving body (for example, a person).
  • Head detection means 81 for example, head detection means 104) for detecting the head area of the moving body from the image), and verification whether the image of the head area detected from the captured image is an image included in the projection image
  • the head detection verification means 82 for example, the head detection verification means 106
  • Anti-glare processing means 83 for example, anti-glare processing means 105) that performs processing for reducing glare on each pixel of the corresponding projection image is provided.
  • the head detection verification unit 82 uses the first verification method for verifying whether or not the similarity between the head region detected from the captured image and the projection image corresponding to the head region is high. Whether or not the head can be detected from the projected image area when the head detection process is performed on the projected image area corresponding to the head area detected from the captured image.
  • the second verification method to be verified or an anti-glare shot image obtained by shooting an anti-glare projection image in which each pixel of the projection image corresponding to the head region is subjected to anti-glare processing
  • the pixels are not uniform by the third verification method for verifying whether the pixels included in the anti-glare part corresponding to the pixels of the projected image subjected to the anti-glare process in FIG. (For example, when the variance of pixel values is sufficiently small) and On condition that corresponds to the case of at least one of the case where the cross-sectional image of the head region may be determined that the image contained in the projected image.
  • the head detection verification means 82 gives priority to the first verification method over the second verification method, and prioritizes the third verification method over the first verification method. It may be verified whether the image of the region is an image included in the projection image.
  • Head detection means for detecting a head region of the moving body from a captured image that is an image obtained by capturing both the projection image projected from the projection means and the moving body, and a head detected from the captured image
  • the head detection verification unit that verifies whether the image of the region is an image included in the projection image
  • a projection type projection apparatus comprising: an anti-glare processing unit that performs a process of reducing glare on each pixel of the projection image corresponding to the head region.
  • the head detection verification means uses the first verification method to verify whether or not the similarity between the head region detected from the captured image and the projection image corresponding to the head region is high. The head was detected from the projected image area when the head detection process was performed on the projected image area corresponding to the head area detected from the captured image.
  • the head can be detected by the second verification method for verifying whether or not, or an anti-glare projection image in which each pixel of the projection image corresponding to the head region has been subjected to anti-glare processing was photographed
  • the third verification method for verifying whether or not each pixel included in the anti-glare portion that is a portion corresponding to each pixel of the projection image subjected to the anti-glare processing in the anti-glare photographed image is not uniform. Less of the cases where the pixels are not uniform In condition that corresponds to the case of one projection type projector according to Supplementary Note 1, wherein the image of the head region is determined to image included in the projected image.
  • the head detection verifying unit prioritizes the first verification method over the second verification method, and prioritizes the third verification method over the first verification method.
  • the projection type projection device according to attachment 2 wherein the image of the partial area is verified as an image included in the projection image.
  • the head detection verification means uses the first verification method to verify whether or not the similarity between the head region detected from the captured image and the projection image corresponding to the head region is high.
  • the projection type projection apparatus according to supplementary note 1, wherein when it is determined that the image has high characteristics, the image of the head region is determined to be an image included in the projection image.
  • the head detection verification means can detect the head from the projected image area when the head detection process is performed on the projected image area corresponding to the head area detected from the captured image.
  • the projection type projection apparatus according to supplementary note 1 or supplementary note 4, wherein when it is determined that the head can be detected by the second verification method for verifying whether the image has been detected, the image of the head region is determined to be an image included in the projection image .
  • the head detection verification means performed the said glare-proof process in the glare-proof photography image which image
  • each pixel is not uniform by the third verification method for verifying whether each pixel included in the anti-glare part that is a part corresponding to each pixel of the projected image is non-uniform.
  • the projection type projector according to appendix 1, appendix 4, or appendix 5 that determines that the image of the region is an image included in the projection image.
  • a head region of the moving body is detected from a captured image that is an image obtained by capturing both the projected image projected from the projection unit and the moving body, and the image of the head region detected from the captured image is It is verified whether or not the image is included in the projection image, and when it is determined that the image of the head region detected from the captured image is an image not included in the projection image, the projection image corresponding to the head region is An anti-glare method characterized by reducing glare in each pixel.
  • each pixel is not uniform by the third verification method for verifying whether each pixel included in the glare-proof portion that is a portion corresponding to each pixel of the projection image subjected to the glare process is not uniform.
  • the first verification method is prioritized over the second verification method, and the third verification method is prioritized over the first verification method.
  • the anti-glare method according to appendix 8 which verifies whether the image is included in the image.
  • Head detection processing for detecting a head region of the moving body from a captured image, which is an image obtained by capturing the projected image projected from the projection means and the moving body on a computer, detected from the captured image
  • a head detection verification process for verifying whether an image of the head region is an image included in the projection image, and an image of the head region detected from the captured image is determined to be an image not included in the projection image
  • a light anti-glare program for executing an anti-glare process for performing a process of reducing glare on each pixel of the projection image corresponding to the head region.
  • the 1st verification method which verifies whether the similarity of the head region detected from the picked-up image and the projection image corresponding to the said head region is high in a head detection verification process to a computer Or when the head detection process is performed on the region of the projection image corresponding to the head region detected from the photographed image, the head is removed from the region of the projection image.
  • the similarity is determined by the first verification method for verifying whether the similarity between the head region detected from the captured image and the projection image corresponding to the head region is high. 14.
  • Supplementary Note 17 In the head detection verification process, when the head detection process is performed on the projected image area corresponding to the head area detected from the captured image, the head can be detected from the projected image area. Supplementary note 13 or Supplementary note 16 according to Supplementary note 13 or 16, wherein when determining that the head has been detected by the second verification method for verifying whether the image has been detected, the image of the head region is determined to be an image included in the projection image program.
  • the anti-glare processing is performed in the anti-glare captured image obtained by capturing the anti-glare projection image in which each pixel of the projection image corresponding to the head region is subjected to the anti-glare processing.
  • the third verification method that verifies whether each pixel included in the anti-glare part that is a part corresponding to each pixel of the projected image is not uniform.
  • the anti-glare program according to supplementary note 13, supplementary note 16, or supplementary note 17, which causes an image of a region to be determined as an image included in a projection image.
  • the present invention is preferably applied to a projection type projection apparatus that reduces glare of light projected when an image is projected.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

本発明の投射型投影装置において、頭部検出手段(81)は、投影手段から投影される投影画像と移動体とを共に撮影した画像である撮影画像から移動体の頭部領域を検出する。頭部検出検証手段(82)は、撮影画像から検出された頭部領域の画像が投影画像に含まれる画像か否か検証する。そして、防眩処理手段(83)は、撮影画像から検出された頭部領域の画像が投影画像に含まれない画像と判断された場合に、その頭部領域に対応する投影画像の各画素に眩しさを低減させる処理を行う。

Description

投射型投影装置、光防眩方法、および光防眩用プログラム
 本発明は、画像を投影する際に投射される光の眩しさを低減させる投射型投影装置、光防眩方法、および光防眩用プログラムに関する。
 スクリーンに画像を投影するプロジェクタを用いてプレゼンテーションを行う場合、プレゼンタは、投影される画像の前に立って説明する機会が多くなる。この場合、プロジェクタから投影される光がプレゼンタの目に直接照射されることになるため、プレゼンタは、その光を非常に眩しく感じることが多い。そのため、プレゼンタが感じる眩しさを緩和するように画像を投影する方法が各種知られている。
 非特許文献1には、話者がプロジェクタの前に立っても眩しくないようにプロジェクタの光を調整するプロジェクタシステムが記載されている。非特許文献1に記載されたプロジェクタシステムは、スクリーンと話者を含む画像から話者の顔領域を検出し、検出した領域にマスク画像を重畳して表示する。
 非特許文献2には、高照度の環境で人物を検出する精度を高める人物検出方法が記載されている。非特許文献2に記載された方法では、投影画像と、その投影画像をカメラで撮影した撮影画像との間で輝度調整を行い、輝度調整後の画像間で差分画像を作成することにより、人物を検出する。
玉置純也、村上和人、「眩しくないプロジェクタシステムの提案」、情報処理学会研究報告、CVIM-163、情報処理学会、2008年5月1日、p.43-46 玉置純也、村上和人、「高照度環境における顔検出とその応用」、映像情報メディア学会技術報告、33(34)、2009年8月27日、p.53-54
 プレゼンタの眩しさを軽減させるためには、プレゼンタに投射される光を軽減することが有効である。一方、投影されるスライドは、視聴者にとって重要な資料である。そのため、投射される光を軽減する範囲は、できるだけ利用者の頭部周辺であることが望ましい。そのため、プレゼンタの頭部を適切に認識して、その部分の光を軽減することが望まれる。
 非特許文献1に記載されたシステムでは、スライドがプレゼンタの顔に重畳されるため、顔検出が正しく動作せず、うまく防眩機能が働かないという問題がある。また、非特許文献1に記載されたシステムでは、スライド中にもともと顔が載っている場合、その顔までも検出し、誤って防眩機能が働いてしまうという問題がある。
 一方、非特許文献2に記載された人物検出方法を用いることで、スライドに含まれる顔を検出するリスクは低減する。しかし、投影されるスライドがアニメーションの場合や、投影されるスライドの明るさが変化する場合などには、差分画像が正確に作成できないことがある。この場合、非特許文献2に記載された人物検出方法では、スライドに含まれる顔を誤判定する恐れがある。
 また、非特許文献1に記載されたシステムでも、非特許文献2に記載された人物検出方法でも、顔に似た模様がスライド中に存在する場合に、誤判定を起こす可能性が高い。
 そこで、本発明は、高照度の光を投射して画像を投影する際、画像の投影方向に人物が存在する場合に、その人物に投射される光の眩しさを精度よく低減できる投射型投影装置、光防眩方法、および光防眩用プログラムを提供することを目的とする。
 本発明による投射型投影装置は、投影手段から投影される投影画像と移動体とを共に撮影した画像である撮影画像から移動体の頭部領域を検出する頭部検出手段と、撮影画像から検出された頭部領域の画像が投影画像に含まれる画像か否か検証する頭部検出検証手段と、撮影画像から検出された頭部領域の画像が投影画像に含まれない画像と判断された場合に、その頭部領域に対応する投影画像の各画素に眩しさを低減させる処理を行う防眩処理手段とを備えたことを特徴とする。
 本発明による光防眩方法は、投影手段から投影される投影画像と移動体とを共に撮影した画像である撮影画像から移動体の頭部領域を検出し、撮影画像から検出された頭部領域の画像が投影画像に含まれる画像か否か検証し、撮影画像から検出された頭部領域の画像が投影画像に含まれない画像と判断された場合に、その頭部領域に対応する投影画像の各画素に眩しさを低減させることを特徴とする。
 本発明による光防眩用プログラムは、コンピュータに、投影手段から投影される投影画像と移動体とを共に撮影した画像である撮影画像から移動体の頭部領域を検出する頭部検出処理、撮影画像から検出された頭部領域の画像が投影画像に含まれる画像か否か検証する頭部検出検証処理、および、撮影画像から検出された頭部領域の画像が投影画像に含まれない画像と判断された場合に、その頭部領域に対応する投影画像の各画素に眩しさを低減させる処理を行う防眩処理を実行させることを特徴とする。
 本発明によれば、高照度の光を投射して画像を投影する際、画像の投影方向に人物が存在する場合に、その人物に投射される光の眩しさを精度よく低減できる。
本発明による投射型投影装置の第1の実施形態の構成例を示すブロック図である。 スライド画像とカメラ画像との関係の例を示す説明図である。 スライド画像とカメラ画像との関係の他の例を示す説明図である。 防眩処理が行われた後のカメラ画像の例を示す説明図である。 防眩処理が行われたスライド画像を撮影した例を示す説明図である。 検出された頭部領域を検証する処理の例を示すフローチャートである。 第1の実施形態の投射型投影装置の動作例を示すフローチャートである。 本発明による投射型投影装置の第2の実施形態の構成例を示すブロック図である。 スライド画像に防眩処理を行って投影する投射型投影装置の一実施形態を示すブロック図である。 第3の実施形態の投射型投影装置の動作例を示すフローチャートである。 本発明による投射型投影装置の概要を示すブロック図である。
 以下、本発明の実施形態を図面を参照して説明する。
実施形態1.
 図1は、本発明による投射型投影装置の第1の実施形態の構成例を示すブロック図である。本実施形態の投射型投影装置は、幾何補正手段101と、頭部検出手段104と、頭部検出検証手段106と、防眩処理手段105とを備えている。
 幾何補正手段101は、カメラが撮影した画像(以下、カメラ画像と記す。)を入力し、投射型投影装置がスクリーンに投影するスライドの画像(以下、スライド画像と記す。)の形状に合わせてカメラ画像を幾何補正する。
 具体的には、プロジェクタが長方形のスライド画像を投影している場合、幾何補正手段101は、カメラが撮影したカメラ画像をスライド画像の形状に合わせて長方形に幾何補正する。以下、幾何補正手段101が幾何補正したカメラ画像を幾何補正画像と記すこともある。幾何補正の方法は、例えば、射影変換行列を利用する方法など、広く知られた一般的な方法が用いられる。
 ここで、カメラ画像は、スクリーンに投影されたスライド画像を撮影した画像である。また、スクリーンに投影されるスライド画像の前にプレゼンタが立って説明をするような場合、スライド画像とプロジェクタとの間にプレゼンタが存在することになる。この場合、カメラ画像とは、スライド画像とともにプレゼンタを撮影した画像を意味する。本実施形態では、カメラ画像と記した場合、スライド画像が撮影された画像、またはスライド画像とプレゼンタとが共に撮影された画像を意味する。
 また、カメラ画像として撮影されるプレゼンタは、スライド画像を投影している間移動する物体であることから、以下の説明では、プレゼンタのことを移動体と記すこともある。また、スライドの視聴者からの観点から、スライド映像のことを背景と記し、スライド映像の前に存在するプレゼンタのことを前景と記すこともある。
 頭部検出手段104は、カメラ画像から移動体の頭部領域を検出する。頭部検出手段104は、例えば、360度の様々な方向から見た頭部のパターンを記述するテンプレートや特徴量を用いて、パターン認識により頭部を検出してもよい。なお、人物等を含む画像から頭部領域を検出する方法は広く知られているため、ここでは詳細な説明は省略する。
 頭部検出検証手段106は、検出された頭部領域の画像がスライド画像に含まれる画像か否か検証する。検証方法には、様々な方法を用いることが可能である。以下、具体的な検証方法を3つ例示するが、検証方法は、以下の3つの方法に限定されない。
 第1の検証方法は、検出された頭部領域と類似するパターンがスライド画像中に存在するか否か検証する方法である。この方法は、スライド画像中で頭部に似た領域の誤検知を低減させる方法である。
 図2は、スライド画像とカメラ画像との関係の例を示す説明図である。図2に例示するスライド画像S1の領域a1には、頭部に似た丸い画像が含まれる。そのため、カメラ画像C1の領域a2が頭部領域として検知される可能性がある。
 そこで、頭部検出検証手段106は、検出された頭部領域のパターン(領域a2)と、スライド画像の同じ位置(領域)の画像パターン(領域a1)との類似度を算出し、この類似度がある一定値以上の場合には、もともとスライドにあるパターンであると判定する。両者が類似しているかを評価する方法として、例えば、正規化相関を用いることができる。ただし、類似度の評価方法は、正規化相関を用いる方法に限定されない。両者の類似度が評価できる方法であれば、他の方法であってもよい。
 なお、カメラ画像から検出された頭部領域と、その頭部領域に対応するスライド画像の位置は、完全に一致させなくてもよい。頭部検出検証手段106は、多少の位置ずれを考慮して探索ウィンドウを設定し、相関の最大値を算出することにより両者の類似度を判断してもよい。
 このように、頭部検出検証手段106は、カメラ画像から検出された頭部領域と、その頭部領域に対応するスライド画像との類似性が高い(例えば、類似度が予め定めた基準を満たす)場合、その頭部領域の画像がスライド画像に含まれる画像と判断してもよい。
 第2の検証方法は、もとのスライド画像中に頭部と判定され得る領域が存在するか否か検証する方法である。この方法は、特に動画を含むスライド中に登場する人物が誤検知されることを低減させる方法である。
 図3は、スライド画像とカメラ画像との関係の他の例を示す説明図である。図3に例示するスライド画像S2の領域a3には、人物を含む画像が含まれる。そのため、カメラ画像C2の領域a4が頭部領域として検知される可能性がある。
 なお、第1の検証方法を用いることで、図3に例示する画像の場合でも誤検知を低減させることは可能である。一方、スライド画像に人物を含む動画が含まれている場合、カメラキャプチャによる遅延等の影響で、カメラ画像とスライド画像において、検知された頭部領域が必ずしも同じようなパターンにならない場合がある。
 そこで、頭部検出検証手段106は、頭部領域が検出されたカメラ画像中の位置(領域a4)と同じ位置(領域)に対応するスライド画像の領域(領域a3)付近で頭部検出処理を行い、スライド画像中に頭部と判定され得る画像が存在するか否か判定する。
 例えば、カメラ画像において検出された頭部領域を表す矩形の左上の座標が(x0, y0)、右下の座標が(x1,y1)であるとする。この場合、頭部検出検証手段106は、座標(x0,y0)および(x1,y1)で定まる領域に対応するスライド画像上の矩形領域付近に、頭部が存在するか否かを判断する。
 スライド画像全体に対して頭部検出処理を行う場合、演算量が増加してしまう。一方、本実施形態では、スライド画像上での頭部の探索範囲は、(x0,y0)および(x1,y1)で定まる矩形の近傍付近のみになるため、検証に要する頭部検出処理の演算量を低減させることができる。
 このように、頭部検出検証手段106は、カメラ画像から検出された頭部領域に対応するスライド画像の領域に対して頭部検出処理を行い、スライド画像の領域から頭部が検出できた場合、その頭部領域の画像がスライド画像に含まれる画像と判断してもよい。
 なお、頭部検出検証手段106が行う頭部検出処理の方法は、頭部検出手段104が頭部を検出する方法と同一であってもよく、異なっていてもよい。
 第3の検証方法は、後述する防眩処理手段105によって防眩処理が行われたスライド画像が投影された場合に、その防眩処理が行われた領域が誤って頭部検出がなされた領域か否かを検証する方法である。なお、後述する防眩処理手段105によって行われる防眩処理の一例として、スライド画像の輝度を低減させる処理が挙げられることから、以下の説明では、防眩処理のことを輝度低減処理と記すこともある。
 また、スライド画像の各画素に防眩処理が施された画像のことを防眩スライド画像と記し、防眩スライド画像を撮影した画像のことを防眩カメラ画像と記す。また、防眩カメラ画像において、防眩処理が施されたスライド画像の各画素に対応する部分のことを防眩部分と記し、スライド画像の各画素に対して施される防眩処理により特定される防眩内容を輝度低減パターンと記す。
 誤って頭部が検知され、後述する防眩処理手段105によって輝度低減処理が行われると、輝度低減処理が行われた領域を頭部検出手段104が頭部と判断し、その領域(防眩部分)が残り続けることがある。
 図4は、防眩処理が行われた後のカメラ画像の例を示す説明図である。図4に示す例は、頭部検出の失敗により防眩部分(領域a5)が残り、その防眩部分を頭部検出手段104が誤検知し続けた結果、この防眩部分(領域a6)が残り続けていることを示す。図4に例示するように、輝度低減パターンは、楕円や円形のことが多いため、防眩部分が頭部領域と誤検知されやすいという性質がある。
 そこで、第3の検証方法では、このような状態を避けるため、頭部検出検証手段106は、防眩部分と輝度低減パターンとの類似性を評価する。具体的には、頭部検出検証手段106は、防眩部分の画素の一様性を評価する。
 基本的に、誤って防眩処理が行われた領域(すなわち、頭部領域ではない領域)では、その領域に含まれる画素の輝度は、一様に暗くなる。一方、頭部領域に対して防眩処理が行われた場合、その領域の画素の輝度の分布は、平坦にならない。
 具体的には、頭部領域に防眩処理が行われた場合、その領域は、誤って防眩処理が行われた領域と比べて、頭部や顔の複雑な模様が加わっている。そのため、カメラによって撮影されたこの領域(防眩部分)と、もともとの輝度低減パターンとの類似性は低くなる。一方、誤って防眩処理が行われた領域は、もともとの輝度低減パターンがそのままカメラで撮影されるため、もとの輝度低減パターンと高い類似性を有する。
 図5は、防眩処理が行われたスライド画像を撮影した例を示す説明図である。図5に例示するカメラ画像C3は、頭部領域に防眩処理が行われた画像である。一方、カメラ画像C4は、頭部領域以外の領域(すなわち、誤った領域)に防眩処理が行われた画像である。なお、図5に例示するカメラ画像C3およびカメラ画像C4について行われた防眩処理は省略している。
 頭部領域に防眩処理が行われたスライド画像が投影されると、実際の人物の頭部に輝度低減パターンが重畳される。そのため、カメラ画像C3の領域a7に例示するように、防眩処理が行われた領域は、人物の顔のパターンが残存した状態で撮影される。したがって、この領域における画素の値の分散は大きくなる。すなわち、この場合の一様性は低いと言える。
 一方、頭部領域以外の領域(すなわち、誤った領域)に防眩処理が行われたスライド画像が投影されると、その画像は、スライド画像に対して防眩処理を行った画像そのものである。すなわち、カメラ画像C4の領域a8に例示するように、防眩処理が行われた領域は、直接投影されるため、平坦なパターンの状態で撮影される。したがって、この領域における画素の値の分散は小さくなる。すなわち、この場合の一様性は高いと言える。
 そこで、頭部検出検証手段106は、対象とする領域に含まれる画素の画素値の分散を計算することで、一様性を評価してもよい。例えば、画素値の分散が十分小さい場合、画素値の変動が低いことから、平坦な領域であると判断できる。一方、画素値の分散が予め定めた基準よりも大きい場合、画素値の変動も大きいことから、頭部領域であると判断できる。
 また、頭部検出検証手段106は、分散以外にも、FFT(Fast Fourier Transform)などの周波数変換を領域中の画素に対して行い、直流成分以外がほぼ0になることを検出して平坦性を評価してもよい。
 なお、上記説明では、防眩処理が行われた領域中の画素の一様性(平坦性)を評価して、正しく防眩処理が行われたか否かを判断することにより、頭部領域の画像がスライド画像に含まれる画像か否かを判断する方法を説明した。
 頭部検出検証手段106は、他にも、輝度値が一定の円のような平坦なパターンとの類似性を評価することによって、一様性(平坦性)を評価してもよい。また、頭部検出検証手段106は、防眩部分と輝度低減パターンとの類似性を評価することによって、一様性(平坦性)を評価してもよい。防眩部分と輝度低減パターンとの類似性を評価することは、防眩部分の一様性(平坦性)を評価することと同義である。
 頭部検出検証手段106は、第1の検証方法において、頭部領域のパターンとスライド画像の同じ位置(領域)の画像パターンとの類似度を算出する方法と同様の方法を用いて、防眩部分と輝度低減パターンとの類似性を評価してもよい。類似性の評価方法は任意である。
 このように、頭部検出検証手段106は、防眩カメラ画像の防眩部分に含まれる各画素が一様でない(すなわち、各画素の画素値の分布が一様でない)場合、頭部領域と判断された部分の画像がスライド画像に含まれる画像と判断してもよい。
 頭部検出検証手段106は、上述する第1の検証方法、第2の検証方法、第3の検証方法のうち、少なくとも1つ以上の検証方法を用いて、検出された頭部領域の画像がスライド画像に含まれる画像か否か検証すればよい。そして、頭部検出検証手段106は、検証結果として、頭検出された頭部領域がもとのスライド画像に含まれないと判定された頭部領域のみを防眩処理手段105へ出力する。
 なお、上述する第1の検証方法、第2の検証方法、第3の検証方法では、それぞれ、処理負荷が異なる。具体的には、第3の検証方法、第1の検証方法、第2の検証方法の順に処理が軽い。そこで、頭部検出検証手段106は、処理の軽い方法から(具体的には、第3の検証方法、第1の検証方法、第2の検証方法の順で)、検出された頭部領域の画像がスライド画像に含まれる画像か否か検証することが好ましい。
 言い換えると、頭部検出検証手段106は、第2の検証方法よりも第1の検証方法を優先し、かつ、第1の検証方法よりも第3の検証方法を優先して、検出された頭部領域の画像がスライド画像に含まれる画像か否か検証することが好ましい。
 図6は、検出された頭部領域を検証する処理の例を示すフローチャートである。まず、頭部検出検証手段106は、第3の検証方法を用いて、検出された頭部領域の画像がスライド画像に含まれる画像か否か検証する。
 具体的には、頭部検出検証手段106は、頭部検知結果を受け取ると、その頭部検知結果の輝度低減パターンらしさを評価する(ステップS11)。頭部検知結果が輝度低減パターンであると判断されると(ステップS12におけるYes)、頭部検出検証手段106は、輝度低減処理を行なわずに処理を終了する。なお、この場合、既に誤って防眩処理が行われているため、頭部検出検証手段106は、後述する防眩処理手段105に対して、防眩処理を解除する処理を指示する。
 一方、頭部検知結果が輝度低減パターンではないと判断されると(ステップS12におけるNo)、頭部検出検証手段106は、第1の検証方法を用いて、検出された頭部領域の画像がスライド画像に含まれる画像か否か検証する。
 具体的には、頭部検出検証手段106は、頭部検知領域と対応するスライド画像との類似性を評価する(ステップS13)。頭部検知領域と対応するスライド画像との類似性が高い場合(ステップS14におけるYes)、頭部検出検証手段106は、検出された頭部領域の画像がスライド画像に含まれる画像と判断し、輝度低減処理を行なわずに処理を終了する。
 一方、頭部検知領域と対応するスライド画像との類似性が低い場合(ステップS14におけるNo)、頭部検出検証手段106は、第2の検証方法を用いて、検出された頭部領域の画像がスライド画像に含まれる画像か否か検証する。
 具体的には、頭部検出検証手段106は、頭部検知領域に対応する位置のスライド画像に対して頭部検知処理を行う(ステップS15)。スライド画像から頭部が検知された場合(ステップS16におけるYes)、頭部検出検証手段106は、検出された頭部領域の画像がスライド画像に含まれる画像と判断し、輝度低減処理を行なわずに処理を終了する。
 一方、スライド画像から頭部が検知されなかった場合(ステップS16におけるNo)、頭部検出検証手段106は、検出された頭部領域を示す情報を防眩処理手段105に通知し、防眩処理を実行させる。
 なお、図6に例示するフローチャートでは、第1の検証方法、第2の検証方法および第3の検証方法の全てを考慮しているが、頭部検出検証手段106は、第1の検証方法と第2の検証方法と第3の検証方法のうち、少なくとも一つの検証処理を行えばよい。
 防眩処理手段105は、検出された頭部領域の画像がスライド画像に含まれない画像である場合に、その頭部領域に対応するスライド画像の各画素に眩しさを低減させる処理を行う。具体的には、防眩処理手段105は、頭部領域に対応するスライド画像の各画素の輝度を低減させる処理を行う。
 防眩処理手段105は、例えば、頭部領域に含まれる画素の輝度値を一律に(例えば輝度値を0に)低減させてもよく、中心から離れるにつれて輝度が漸増する楕円や円などのパターン図形を頭部領域にかぶせることにより輝度を低減させてもよい。また、輝度を低減させる領域は、頭部領域に一致させる必要はなく、頭部領域中心付近の長方形領域であってもよい。また、頭部検出手段104が頭部の向きまで検知している場合、防眩処理手段105は、頭部前方の目が存在する可能性が高い領域の輝度を低減させてもよい。
 幾何補正手段101と、頭部検出手段104と、頭部検出検証手段106と、防眩処理手段105とは、プログラム(光防眩用プログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、投射型投影装置の記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、幾何補正手段101、頭部検出手段104、頭部検出検証手段106および防眩処理手段105として動作してもよい。また、幾何補正手段101と、頭部検出手段104と、頭部検出検証手段106と、防眩処理手段105とは、それぞれが専用のハードウェアで実現されていてもよい。
 次に、本実施形態の投射型投影装置の動作を説明する。図7は、本実施形態の投射型投影装置の動作例を示すフローチャートである。
 幾何補正手段101は、カメラ画像を幾何補正する(ステップS21)。頭部検出手段104は、カメラ画像から移動体の頭部領域を検出する(ステップS22)。頭部検出検証手段106は、検出された頭部領域の画像がスライド画像に含まれる画像か否か検証する(ステップS23)。頭部検出検証手段106は、例えば、図6に例示するフローチャートに基づいて検出された頭部領域を検証してもよい。
 検出された頭部領域の画像がスライド画像に含まれない画像である場合(ステップS24におけるYes)、防眩処理手段105は、その頭部領域に対応するスライド画像の各画素に眩しさを低減させる処理を行う(ステップS25)。一方、検出された頭部領域の画像がスライド画像に含まれる画像である場合(ステップS24におけるNo)、防眩処理手段105は、防眩処理を行わずに処理を終了する。
 以上のように、本実施形態によれば、頭部検出手段104がカメラ画像から移動体の頭部領域を検出し、頭部検出検証手段106が、カメラ画像から検出された頭部領域の画像がスライド画像に含まれる画像か否か検証する。そして、カメラ画像から検出された頭部領域の画像がスライド画像に含まれない画像と判断された場合に、防眩処理手段105が、その頭部領域に対応するスライド画像の各画素に眩しさを低減させる処理を行う。よって、高照度の光を投射して画像を投影する際に、画像の投影方向に人物が存在する場合、その人物に投射される光の眩しさを精度よく低減できる。
 すなわち、本実施形態では、例えば、顔や頭部を検知して防眩のための黒い領域を重畳する前に、もとのスライド中に検知された顔や頭部と同じようなパターンがあるかどうかを検証する。そして、十分に似たパターンがスライド中に存在する場合には防眩処理を行わないようにする。そのため、頭部と検知され易い画像がスライド中に含まれている場合であっても、防眩処理を適切に行うことが可能になる。
実施形態2.
 図8は、本発明による投射型投影装置の第2の実施形態の構成例を示すブロック図である。なお、第1の実施形態と同様の構成については、図1と同一の符号を付し、説明を省略する。本実施形態の投射型投影装置は、幾何補正手段101と、差分画像生成手段102と、前景抽出手段103と、頭部検出手段104aと、頭部検出検証手段106と、防眩処理手段105とを備えている。
 差分画像生成手段102は、カメラ画像における各画素の画素値と、スライド画像における対応する各画素の画素値との差分値から差分画像を生成する。なお、一般に、スライド画像をカメラで撮影した場合、撮影された画像(すなわち、カメラ画像)とスライド画像とでは、対応する画素の画素値が異なってしまう。
 そこで、差分画像生成手段102は、カメラ画像における画素の画素値をスライド画像における画素の画素値に近づける補正を行ってもよい。そして、差分画像生成手段102は、画素値を補正した後のカメラ画像(以下、画素値補正画像と記す。)における各画素の画素値と、スライド画像における対応する各画素の画素値との差分値から差分画像を生成してもよい。このように。画素値補正画像を利用することで、両画像を比較する精度を高めることができる。
 前景抽出手段103は、差分画像生成手段102が生成した差分画像から前景を示す前景領域を抽出する。前景抽出手段103は、例えば、画素ごとに定められる閾値に基づいて、背景部分をマスクするためのマスク画像を生成してもよい。そして、前景抽出手段103は、そのマスク画像から前景を示す前景領域を抽出してもよい。ただし、前景抽出手段103が前景領域を抽出する方法は、マスク画像を生成する方法に限定されない。
 頭部検出手段104aは、カメラ画像内で前景抽出手段103が抽出した前景に対応する領域から移動体の頭部領域を検出する。頭部検出手段104aは、第1の実施形態において頭部検出手段104と同様の方法を用いて頭部領域を検出してもよい。
 なお、幾何補正手段101、頭部検出検証手段106および防眩処理手段105の動作は、第1の実施形態と同様である。また、幾何補正手段101と、差分画像生成手段102と、前景抽出手段103と、頭部検出手段104aと、頭部検出検証手段106と、防眩処理手段105とは、プログラム(光防眩用プログラム)に従って動作するコンピュータのCPUによって実現される。
 第1の実施形態では、頭部検出手段104がカメラ画像全体の中から移動体の頭部領域を検出していたが、本実施形態では、頭部検出手段104aが前景領域から移動体の頭部領域を検出する。そのため、本実施形態によれば、第1の実施形態の効果に加え、頭部領域を検出する精度をより高めることができる。
実施形態3.
 本実施形態の投射型投影装置は、カメラで撮影した画像の解析を行わずに移動体(プレゼンタ)を検出する装置である。図9は、スライド画像に防眩処理を行って投影する投射型投影装置の一実施形態を示すブロック図である。なお、第1の実施形態と同様の構成については、図1と同一の符号を付し、説明を省略する。本実施形態の投射型投影装置は、移動体検知手段201と、前景抽出手段203と、頭部検出手段204と、防眩処理手段105とを備えている。防眩処理手段105の動作は、第1の実施形態と同様である。
 移動体検知手段201は、移動体を検知する。具体的には、移動体検知手段201は、スライド画像と、そのスライド画像が投影されるプロジェクタとの間に存在する移動体を検知する。以下、移動体検知手段201が移動体を検知する方法の具体例を説明する。ただし、移動体検知手段201が移動体を検知する方法は、下記内容に限定されない。
 移動体検知手段201は、サブリミナル的に白い画面を照射して移動体を検知してもよい。この場合、移動体検知手段201は、スライドを投影している合間に、人間が知覚できないスピード(例えば、1フレーム程度)で白い画面を投影し、それと同期して映像をカメラで撮影してもよい。
 また、移動体検知手段201は、赤外線センサを用いて移動体を検知してもよい。この場合、移動体検知手段201は、遮られる障害物を赤外線センサを用いて検知することにより移動体を検知してもよい。
 また、移動体検知手段201は、赤外線カメラを用いて移動体を検知してもよい。例えば、遠赤外線が用いられる場合、移動体検知手段201は、人物の熱を検知して移動体(プレゼンタ)の位置を検知してもよい。また、近赤外線が用いられる場合、移動体検知手段201は、人間の目に見えない近赤外を照射する。そして、移動体検知手段201は、赤外線領域を撮影可能なカメラでこれを撮影し、撮影された障害物を移動体として検出してもよい。これは、背景のスライドを白とびさせて、人物のみ撮影する原理である。
 また、移動体検知手段201は、上述する方法のように、検知対象とする画面全体に対して処理を行う代わりに、一部の領域に対する検知処理を行い、それぞれの領域に対する検知結果を合成するようにしてもよい。
 具体的には、移動体検知手段201は、ある時刻において、画面の一部のライン(または一部の領域)のみ白い画像を投影し、その部分に移動体が存在するか否かを判定してもよい。このとき、移動体検知手段201は、この処理を異なる領域に対して順次行う。そして、数フレームの間に領域全体をカバーできれば、移動体検知手段201は、この数フレームの間の結果を合成することで、移動体の位置を検知することが可能になる。
 移動体検知手段201は、例えば、水平ラインごとにスキャン処理を行い、その結果を合成することで、移動体を検知してもよい。このとき、スキャンする幅は任意である。幅を広くすることで、効率的に移動体を検知することが可能になる。一方、幅を狭くすることで、スライドの視聴者に対して検知処理を目立たなくすることが可能になる。これらの点を考慮し、幅を定めておけばよい。
 また、移動体検知手段201は、ランダムに選択された領域に対して白い画像をサブリミナル的に投影し、各領域の検知結果を合成することで移動体の位置を検知してもよい。
 このような処理の結果を、移動体検知手段201は、移動体の位置や形態を示す情報(以下、移動体情報と記すこともある。)を、前景抽出手段203に送信する。
 前景抽出手段203は、移動体情報から前景情報を生成する。移動体情報により前景の位置等を特定可能であるため、前景抽出手段203は、例えば、移動体検知手段201によって検知された移動体の位置から前景を特定し、その位置を示す情報を前景情報として生成してもよい。
 また、前景抽出手段203は、スライド画像の形状に合わせて移動体情報が示す範囲の領域を幾何補正してもよい。具体的には、前景抽出手段203は、第1の実施形態において幾何補正手段101が補正する方法と同様の方法を用いて移動体情報を幾何補正すればよい。
 頭部検出手段204は、前景情報から移動体の頭部領域を検出する。頭部検出手段204は、移動体検知手段201に応じて取得される検知結果に基づいて、移動体の頭部領域を検知する。そのため、頭部検出手段204は、移動体検知手段201に応じた頭部領域の検出処理を行えばよい。なお、スキャンデータや白い画面を照射したことにより得られる情報から頭部領域を検出する方法は広く知られているため、詳細な説明は省略する
 移動体検知手段201と、前景抽出手段203と、頭部検出手段204と、防眩処理手段105とは、プログラム(光防眩用プログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、投射型投影装置の記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、移動体検知手段201、前景抽出手段203、頭部検出手段204および防眩処理手段105として動作してもよい。また、移動体検知手段201と、前景抽出手段203と、頭部検出手段204と、防眩処理手段105とは、それぞれが専用のハードウェアで実現されていてもよい。
 次に、本実施形態の投射型投影装置の動作を説明する。図10は、本実施形態の投射型投影装置の動作例を示すフローチャートである。
 移動体検知手段201は、移動体を検知し、移動体情報を前景抽出手段203に送信する(ステップS31)。前景抽出手段203は、移動体情報から前景情報を生成する(ステップS32)。このとき、前景抽出手段203は、移動体情報を幾何補正してもよい。
 頭部検出手段204は、前景情報から移動体の頭部領域を検出する(ステップS33)。そして、防眩処理手段105は、検出された頭部領域に対応するスライド画像の各画素に眩しさを低減させる処理を行う(ステップS34)。
 以上のように、本実施形態によれば、移動体検知手段201が移動体を検知し、頭部検出手段204が、検知された移動体における頭部領域を検出する。そして、防眩処理手段105が、その頭部領域に対応するスライド画像の各画素に眩しさを低減させる処理を行う。
 よって、本実施形態による投射型投影装置を用いた場合も、高照度の光を投射して画像を投影する際に、画像の投影方向に人物が存在する場合、その人物に投射される光の眩しさを精度よく低減できる。
 次に、本発明の概要を説明する。図11は、本発明による投射型投影装置の概要を示すブロック図である。本発明による投射型投影装置は、投影手段(例えば、プロジェクタ)から投影される投影画像(例えば、スライド画像)と移動体(例えば、人物)とを共に撮影した画像である撮影画像(例えば、カメラ画像)から移動体の頭部領域を検出する頭部検出手段81(例えば、頭部検出手段104)と、撮影画像から検出された頭部領域の画像が投影画像に含まれる画像か否か検証する頭部検出検証手段82(例えば、頭部検出検証手段106)と、撮影画像から検出された頭部領域の画像が投影画像に含まれない画像と判断された場合に、その頭部領域に対応する投影画像の各画素に眩しさを低減させる処理を行う防眩処理手段83(例えば、防眩処理手段105)とを備えている。
 そのような構成により、高照度の光を投射して画像を投影する際、画像の投影方向に人物が存在する場合に、その人物に投射される光の眩しさを精度よく低減できる。
 また、頭部検出検証手段82は、撮影画像から検出された頭部領域とその頭部領域に対応する投影画像との類似性が高いか否かを検証する第1の検証方法により類似性が高いと判断した場合、または、撮影画像から検出された頭部領域に対応する投影画像の領域に対して頭部検出処理を行ったときに投影画像の領域から頭部が検出できたか否かを検証する第2の検証方法により頭部が検出できたと判断した場合、または、頭部領域に対応する投影画像の各画素に防眩処理が施された防眩投影画像を撮影した防眩撮影画像において防眩処理が施された投影画像の各画素に対応する部分である防眩部分に含まれる各画素が一様でないか否かを検証する第3の検証方法により当該各画素が一様でない(例えば、画素値の分散が十分小さい場合)と判断した場合のうちの少なくとも1つの場合に該当することを条件に、前記頭部領域の画像が投影画像に含まれる画像と判断してもよい。
 また、頭部検出検証手段82は、第2の検証方法よりも第1の検証方法を優先し、かつ、第1の検証方法よりも第3の検証方法を優先して、検出された頭部領域の画像が投影画像に含まれる画像か否か検証してもよい。
 なお、上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)投影手段から投影される投影画像と移動体とを共に撮影した画像である撮影画像から前記移動体の頭部領域を検出する頭部検出手段と、撮影画像から検出された頭部領域の画像が前記投影画像に含まれる画像か否か検証する頭部検出検証手段と、撮影画像から検出された頭部領域の画像が前記投影画像に含まれない画像と判断された場合に、当該頭部領域に対応する前記投影画像の各画素に眩しさを低減させる処理を行う防眩処理手段とを備えたことを特徴とする投射型投影装置。
(付記2)頭部検出検証手段は、撮影画像から検出された頭部領域と当該頭部領域に対応する投影画像との類似性が高いか否かを検証する第1の検証方法により当該類似性が高いと判断した場合、または、撮影画像から検出された頭部領域に対応する投影画像の領域に対して頭部検出処理を行ったときに当該投影画像の領域から頭部が検出できたか否かを検証する第2の検証方法により当該頭部が検出できたと判断した場合、または、頭部領域に対応する投影画像の各画素に防眩処理が施された防眩投影画像を撮影した防眩撮影画像において当該防眩処理が施された投影画像の各画素に対応する部分である防眩部分に含まれる各画素が一様でないか否かを検証する第3の検証方法により当該各画素が一様でないと判断した場合のうちの少なくとも1つの場合に該当することを条件に、前記頭部領域の画像が投影画像に含まれる画像と判断する付記1記載の投射型投影装置。
(付記3)頭部検出検証手段は、第2の検証方法よりも第1の検証方法を優先し、かつ、第1の検証方法よりも第3の検証方法を優先して、検出された頭部領域の画像が投影画像に含まれる画像か否か検証する付記2記載の投射型投影装置。
(付記4)頭部検出検証手段は、撮影画像から検出された頭部領域と当該頭部領域に対応する投影画像との類似性が高いか否かを検証する第1の検証方法により当該類似性が高いと判断した場合、前記頭部領域の画像が投影画像に含まれる画像と判断する付記1記載の投射型投影装置。
(付記5)頭部検出検証手段は、撮影画像から検出された頭部領域に対応する投影画像の領域に対して頭部検出処理を行ったときに当該投影画像の領域から頭部が検出できたか否かを検証する第2の検証方法により当該頭部が検出できたと判断した場合、前記頭部領域の画像が投影画像に含まれる画像と判断する付記1または付記4記載の投射型投影装置。
(付記6)頭部検出検証手段は、頭部領域に対応する投影画像の各画素に防眩処理が施された防眩投影画像を撮影した防眩撮影画像において当該防眩処理が施された投影画像の各画素に対応する部分である防眩部分に含まれる各画素が一様でないか否かを検証する第3の検証方法により当該各画素が一様でないと判断した場合、前記頭部領域の画像が投影画像に含まれる画像と判断する付記1、付記4または付記5記載の投射型投影装置。
(付記7)投影手段から投影される投影画像と移動体とを共に撮影した画像である撮影画像から前記移動体の頭部領域を検出し、撮影画像から検出された頭部領域の画像が前記投影画像に含まれる画像か否か検証し、撮影画像から検出された頭部領域の画像が前記投影画像に含まれない画像と判断された場合に、当該頭部領域に対応する前記投影画像の各画素に眩しさを低減させることを特徴とする光防眩方法。
(付記8)撮影画像から検出された頭部領域と当該頭部領域に対応する投影画像との類似性が高いか否かを検証する第1の検証方法により当該類似性が高いと判断した場合、または、撮影画像から検出された頭部領域に対応する投影画像の領域に対して頭部検出処理を行ったときに当該投影画像の領域から頭部が検出できたか否かを検証する第2の検証方法により当該頭部が検出できたと判断した場合、または、頭部領域に対応する投影画像の各画素に防眩処理が施された防眩投影画像を撮影した防眩撮影画像において当該防眩処理が施された投影画像の各画素に対応する部分である防眩部分に含まれる各画素が一様でないか否かを検証する第3の検証方法により当該各画素が一様でないと判断した場合のうちの少なくとも1つの場合に該当することを条件に、前記頭部領域の画像が投影画像に含まれる画像と判断する付記7記載の光防眩方法。
(付記9)第2の検証方法よりも第1の検証方法を優先し、かつ、第1の検証方法よりも第3の検証方法を優先して、検出された頭部領域の画像が投影画像に含まれる画像か否か検証する付記8記載の光防眩方法。
(付記10)撮影画像から検出された頭部領域と当該頭部領域に対応する投影画像との類似性が高いか否かを検証する第1の検証方法により当該類似性が高いと判断した場合、前記頭部領域の画像が投影画像に含まれる画像と判断する付記7記載の光防眩方法。
(付記11)撮影画像から検出された頭部領域に対応する投影画像の領域に対して頭部検出処理を行ったときに当該投影画像の領域から頭部が検出できたか否かを検証する第2の検証方法により当該頭部が検出できたと判断した場合、前記頭部領域の画像が投影画像に含まれる画像と判断する付記7または付記10記載の光防眩方法。
(付記12)頭部領域に対応する投影画像の各画素に防眩処理が施された防眩投影画像を撮影した防眩撮影画像において当該防眩処理が施された投影画像の各画素に対応する部分である防眩部分に含まれる各画素が一様でないか否かを検証する第3の検証方法により当該各画素が一様でないと判断した場合、前記頭部領域の画像が投影画像に含まれる画像と判断する付記7、付記10または付記11記載の光防眩方法。
(付記13)コンピュータに、投影手段から投影される投影画像と移動体とを共に撮影した画像である撮影画像から前記移動体の頭部領域を検出する頭部検出処理、撮影画像から検出された頭部領域の画像が前記投影画像に含まれる画像か否か検証する頭部検出検証処理、および、撮影画像から検出された頭部領域の画像が前記投影画像に含まれない画像と判断された場合に、当該頭部領域に対応する前記投影画像の各画素に眩しさを低減させる処理を行う防眩処理を実行させるための光防眩用プログラム。
(付記14)コンピュータに、頭部検出検証処理で、撮影画像から検出された頭部領域と当該頭部領域に対応する投影画像との類似性が高いか否かを検証する第1の検証方法により当該類似性が高いと判断した場合、または、撮影画像から検出された頭部領域に対応する投影画像の領域に対して頭部検出処理を行ったときに当該投影画像の領域から頭部が検出できたか否かを検証する第2の検証方法により当該頭部が検出できたと判断した場合、または、頭部領域に対応する投影画像の各画素に防眩処理が施された防眩投影画像を撮影した防眩撮影画像において当該防眩処理が施された投影画像の各画素に対応する部分である防眩部分に含まれる各画素が一様でないか否かを検証する第3の検証方法により当該各画素が一様でないと判断した場合のうちの少なくとも1つの場合に該当することを条件に、前記頭部領域の画像が投影画像に含まれる画像と判断させる付記13記載の光防眩用プログラム。
(付記15)頭部検出検証処理で、第2の検証方法よりも第1の検証方法を優先し、かつ、第1の検証方法よりも第3の検証方法を優先して、検出された頭部領域の画像が投影画像に含まれる画像か否か検証させる付記14記載の光防眩用プログラム。
(付記16)頭部検出検証処理で、撮影画像から検出された頭部領域と当該頭部領域に対応する投影画像との類似性が高いか否かを検証する第1の検証方法により当該類似性が高いと判断した場合、前記頭部領域の画像が投影画像に含まれる画像と判断させる付記13記載の光防眩用プログラム。
(付記17)頭部検出検証処理で、撮影画像から検出された頭部領域に対応する投影画像の領域に対して頭部検出処理を行ったときに当該投影画像の領域から頭部が検出できたか否かを検証する第2の検証方法により当該頭部が検出できたと判断した場合、前記頭部領域の画像が投影画像に含まれる画像と判断させる付記13または付記16記載の光防眩用プログラム。
(付記18)頭部検出検証処理で、頭部領域に対応する投影画像の各画素に防眩処理が施された防眩投影画像を撮影した防眩撮影画像において当該防眩処理が施された投影画像の各画素に対応する部分である防眩部分に含まれる各画素が一様でないか否かを検証する第3の検証方法により当該各画素が一様でないと判断した場合、前記頭部領域の画像が投影画像に含まれる画像と判断させる付記13、付記16または付記17記載の光防眩用プログラム。
 以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2012年6月15日に出願された日本特許出願2012-135399を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、画像を投影する際に投射される光の眩しさを低減させる投射型投影装置に好適に適用される。
 101 幾何補正手段
 102 差分画像生成手段
 103 前景抽出手段
 104,104a 頭部検出手段
 105 防眩処理手段
 106 頭部検出検証手段
 S1,S2 スライド画像
 C1,C2,C3,C4 カメラ画像
 201 移動体検知手段
 203 前景抽出手段
 204 頭部検出手段

Claims (7)

  1.  投影手段から投影される投影画像と移動体とを共に撮影した画像である撮影画像から前記移動体の頭部領域を検出する頭部検出手段と、
     撮影画像から検出された頭部領域の画像が前記投影画像に含まれる画像か否か検証する頭部検出検証手段と、
     撮影画像から検出された頭部領域の画像が前記投影画像に含まれない画像と判断された場合に、当該頭部領域に対応する前記投影画像の各画素に眩しさを低減させる処理を行う防眩処理手段とを備えた
     ことを特徴とする投射型投影装置。
  2.  頭部検出検証手段は、撮影画像から検出された頭部領域と当該頭部領域に対応する投影画像との類似性が高いか否かを検証する第1の検証方法により当該類似性が高いと判断した場合、または、撮影画像から検出された頭部領域に対応する投影画像の領域に対して頭部検出処理を行ったときに当該投影画像の領域から頭部が検出できたか否かを検証する第2の検証方法により当該頭部が検出できたと判断した場合、または、頭部領域に対応する投影画像の各画素に防眩処理が施された防眩投影画像を撮影した防眩撮影画像において当該防眩処理が施された投影画像の各画素に対応する部分である防眩部分に含まれる各画素が一様でないか否かを検証する第3の検証方法により当該各画素が一様でないと判断した場合のうちの少なくとも1つの場合に該当することを条件に、前記頭部領域の画像が投影画像に含まれる画像と判断する
     請求項1記載の投射型投影装置。
  3.  頭部検出検証手段は、第2の検証方法よりも第1の検証方法を優先し、かつ、第1の検証方法よりも第3の検証方法を優先して、検出された頭部領域の画像が投影画像に含まれる画像か否か検証する
     請求項2記載の投射型投影装置。
  4.  投影手段から投影される投影画像と移動体とを共に撮影した画像である撮影画像から前記移動体の頭部領域を検出し、
     撮影画像から検出された頭部領域の画像が前記投影画像に含まれる画像か否か検証し、
     撮影画像から検出された頭部領域の画像が前記投影画像に含まれない画像と判断された場合に、当該頭部領域に対応する前記投影画像の各画素に眩しさを低減させる
     ことを特徴とする光防眩方法。
  5.  撮影画像から検出された頭部領域と当該頭部領域に対応する投影画像との類似性が高いか否かを検証する第1の検証方法により当該類似性が高いと判断した場合、または、撮影画像から検出された頭部領域に対応する投影画像の領域に対して頭部検出処理を行ったときに当該投影画像の領域から頭部が検出できたか否かを検証する第2の検証方法により当該頭部が検出できたと判断した場合、または、頭部領域に対応する投影画像の各画素に防眩処理が施された防眩投影画像を撮影した防眩撮影画像において当該防眩処理が施された投影画像の各画素に対応する部分である防眩部分に含まれる各画素が一様でないか否かを検証する第3の検証方法により当該各画素が一様でないと判断した場合のうちの少なくとも1つの場合に該当することを条件に、前記頭部領域の画像が投影画像に含まれる画像と判断する
     請求項4記載の光防眩方法。
  6.  コンピュータに、
     投影手段から投影される投影画像と移動体とを共に撮影した画像である撮影画像から前記移動体の頭部領域を検出する頭部検出処理、
     撮影画像から検出された頭部領域の画像が前記投影画像に含まれる画像か否か検証する頭部検出検証処理、および、
     撮影画像から検出された頭部領域の画像が前記投影画像に含まれない画像と判断された場合に、当該頭部領域に対応する前記投影画像の各画素に眩しさを低減させる処理を行う防眩処理
     を実行させるための光防眩用プログラム。
  7.  コンピュータに、
     頭部検出検証処理で、撮影画像から検出された頭部領域と当該頭部領域に対応する投影画像との類似性が高いか否かを検証する第1の検証方法により当該類似性が高いと判断した場合、または、撮影画像から検出された頭部領域に対応する投影画像の領域に対して頭部検出処理を行ったときに当該投影画像の領域から頭部が検出できたか否かを検証する第2の検証方法により当該頭部が検出できたと判断した場合、または、頭部領域に対応する投影画像の各画素に防眩処理が施された防眩投影画像を撮影した防眩撮影画像において当該防眩処理が施された投影画像の各画素に対応する部分である防眩部分に含まれる各画素が一様でないか否かを検証する第3の検証方法により当該各画素が一様でないと判断した場合のうちの少なくとも1つの場合に該当することを条件に、前記頭部領域の画像が投影画像に含まれる画像と判断させる
     請求項6記載の光防眩用プログラム。
PCT/JP2013/003222 2012-06-15 2013-05-21 投射型投影装置、光防眩方法、および光防眩用プログラム WO2013186993A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-135399 2012-06-15
JP2012135399 2012-06-15

Publications (1)

Publication Number Publication Date
WO2013186993A1 true WO2013186993A1 (ja) 2013-12-19

Family

ID=49757842

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/003222 WO2013186993A1 (ja) 2012-06-15 2013-05-21 投射型投影装置、光防眩方法、および光防眩用プログラム

Country Status (1)

Country Link
WO (1) WO2013186993A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104954713A (zh) * 2015-06-16 2015-09-30 苏州佳世达光电有限公司 一种护眼投影方法及拼接投影装置
WO2020250739A1 (ja) * 2019-06-14 2020-12-17 富士フイルム株式会社 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000305481A (ja) * 1999-04-21 2000-11-02 Seiko Epson Corp 投写型表示装置及び情報記憶媒体
JP2003084746A (ja) * 2001-09-11 2003-03-19 Nec Viewtechnology Ltd プレゼンテーションシステム
JP2004254145A (ja) * 2003-02-21 2004-09-09 Hitachi Ltd 投射型表示装置
JP2005109540A (ja) * 2003-09-26 2005-04-21 Nec Viewtechnology Ltd 投影表示装置
JP2006030369A (ja) * 2004-07-13 2006-02-02 Seiko Epson Corp プロジェクタ
JP2008148089A (ja) * 2006-12-12 2008-06-26 Nikon Corp 投影装置およびカメラ
JP2013125181A (ja) * 2011-12-15 2013-06-24 Nikon Corp 投影装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000305481A (ja) * 1999-04-21 2000-11-02 Seiko Epson Corp 投写型表示装置及び情報記憶媒体
JP2003084746A (ja) * 2001-09-11 2003-03-19 Nec Viewtechnology Ltd プレゼンテーションシステム
JP2004254145A (ja) * 2003-02-21 2004-09-09 Hitachi Ltd 投射型表示装置
JP2005109540A (ja) * 2003-09-26 2005-04-21 Nec Viewtechnology Ltd 投影表示装置
JP2006030369A (ja) * 2004-07-13 2006-02-02 Seiko Epson Corp プロジェクタ
JP2008148089A (ja) * 2006-12-12 2008-06-26 Nikon Corp 投影装置およびカメラ
JP2013125181A (ja) * 2011-12-15 2013-06-24 Nikon Corp 投影装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104954713A (zh) * 2015-06-16 2015-09-30 苏州佳世达光电有限公司 一种护眼投影方法及拼接投影装置
WO2020250739A1 (ja) * 2019-06-14 2020-12-17 富士フイルム株式会社 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム

Similar Documents

Publication Publication Date Title
US10306141B2 (en) Image processing apparatus and method therefor
JP3630015B2 (ja) 投写型表示装置及び情報記憶媒体
US10134118B2 (en) Information processing apparatus and method of obtaining information about a projection surface on which a target is projected
JP2013257686A5 (ja)
US8754977B2 (en) Second camera for finding focal target in poorly exposed region of frame taken by first camera
WO2010050206A1 (ja) なりすまし検知システム、なりすまし検知方法及びなりすまし検知プログラム
US9781396B2 (en) Projector and adjustment method using a plurality of patterns having different lightness values
JP2009031334A (ja) プロジェクタ及びプロジェクタの投射方法
US8434879B2 (en) Control device and projection-type video-image display device
US9973687B2 (en) Capturing apparatus and method for capturing images without moire pattern
US20130308835A1 (en) Mobile Communication Device with Image Recognition and Method of Operation Therefor
JP5179223B2 (ja) 撮像装置及び撮像プログラム
JP6412386B2 (ja) 画像処理装置およびその制御方法、プログラムならびに記録媒体
US20180220113A1 (en) Projection display system, information processing apparatus, information processing method, and storage medium therefor
KR101674099B1 (ko) 얼굴 인증을 위한 영상 생성 장치 및 그 방법
WO2017215246A1 (zh) 输入设备识别方法和系统、输入指令识别方法和系统
WO2013186994A1 (ja) 投射型投影装置、光防眩方法、および光防眩用プログラム
JP7001966B2 (ja) 画像処理装置および方法
WO2017141730A1 (ja) 画像処理装置および方法、並びにプログラム
JP2010034820A (ja) プロジェクタ、プロジェクタの制御方法、及び、制御プログラム
WO2013088657A1 (ja) 投射型投影装置、光防眩方法、および光防眩用プログラム
WO2013186993A1 (ja) 投射型投影装置、光防眩方法、および光防眩用プログラム
WO2014069018A1 (en) Electronic device and information processing method
US20180182115A1 (en) Projection control device, projection control method, and non-transitory storage medium
KR20150101343A (ko) 영상 투사 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13804583

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13804583

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP