WO2012053445A1 - 映像表示スクリーンおよびこれを用いた映像表示システム - Google Patents

映像表示スクリーンおよびこれを用いた映像表示システム Download PDF

Info

Publication number
WO2012053445A1
WO2012053445A1 PCT/JP2011/073679 JP2011073679W WO2012053445A1 WO 2012053445 A1 WO2012053445 A1 WO 2012053445A1 JP 2011073679 W JP2011073679 W JP 2011073679W WO 2012053445 A1 WO2012053445 A1 WO 2012053445A1
Authority
WO
WIPO (PCT)
Prior art keywords
infrared
image
camera
light
light emitting
Prior art date
Application number
PCT/JP2011/073679
Other languages
English (en)
French (fr)
Inventor
合志 清一
越前 功
Original Assignee
シャープ株式会社
大学共同利用機関法人情報・システム研究機構
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社, 大学共同利用機関法人情報・システム研究機構 filed Critical シャープ株式会社
Publication of WO2012053445A1 publication Critical patent/WO2012053445A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/26Projecting separately subsidiary matter simultaneously with main image
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector

Definitions

  • the present invention relates to a technique for preventing an act of re-shooting image content such as a movie displayed on a screen or an image display panel with an image recording apparatus such as a video camera.
  • photographing devices such as digital image display devices and digital cameras have been widely used and high image quality has been promoted, and it has become possible to view high-quality content at low cost.
  • photographing content such as images and moving images displayed on a screen or display with a photographing device such as a digital video camera and distributing the photographed content illegally (re-photographing act).
  • the distribution of pirated DVDs illegally photographed in this way is against copyright protection, and the economic loss is very large, so countermeasures are urgently required.
  • the facility ID (information of the facility being screened) and the device ID (information of the device being screened) are added to the image content (original image content) before display by using a digital watermark (watermark).
  • a method for identifying a facility or device in which re-imaging has been performed by detecting the ID from the image content that has been embedded, re-photographed, and distributed (image content that has been re-captured).
  • infrared rays are not recognized by human eyes, but are detected in the same manner as visible light in a content recording apparatus (specifically, for example, a video camera) including a CCD, a CMOS image sensor, or the like. This utilizes the difference between human visual characteristics and camera imaging characteristics.
  • FIG. 14 (a) shows an example of an image obtained when an image is displayed with a camera when infrared rays are irradiated from the screen to the spectator seat together with the image display.
  • the image captured by the camera includes infrared interference image A as white.
  • the recaptured video can be deteriorated and the use value of the recaptured image can be eliminated, it is an effective method as a means for preventing voyeurism in a movie theater or the like. it is conceivable that.
  • FIG. 14B shows an example of an image obtained when an image including infrared rays as a disturbing image is taken with a camera to which an infrared ray removal filter is attached. As shown in this figure, the interference image by infrared rays is removed by the action of the infrared ray removing filter, and the photographed image keeps the value as the content.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for easily detecting a person who wants to re-photograph by removing the invisible light from an image including the invisible light. To do.
  • an image display screen disclosed below includes an image display unit that displays an image, an invisible light emitting unit that irradiates an observer with light other than visible light together with the image, and A non-visible light detection unit that detects light other than the visible light reflected from the imaging device of the observer.
  • the invisible light emitting section has a plurality of light emitting areas, and among the plurality of light emitting areas, light emitting areas contributing to detection by the invisible light detecting section are arranged at equal intervals.
  • the light other than visible light is light that is not included in the visible light wavelength band from 380 nm to 780 nm, and specifically, infrared light or ultraviolet light.
  • Such light other than visible light is not recognized by human eyes, but is detected in the same manner as visible light in a photographing apparatus (specifically, for example, a video camera) including a CCD, a CMOS image sensor, or the like. .
  • light other than visible light that is not recognized by human eyes but recorded as a visible image is captured by a video camera or the like during a period in which the image is displayed on the image display unit. It is possible to irradiate an observer together with an image. As a result, when the observer has a video camera for voyeurism, light other than visible light is added to the captured image content as an image that prevents the original image (re-shooting prevention signal). As a result, the display quality of the retaken image can be deteriorated. Since the light emitted from the light emitting unit is not visible light, only the original video appears to be displayed on the video display unit to human eyes.
  • the light emitting regions contributing to detection by the invisible light detecting unit are arranged at equal intervals, so that in the invisible light detecting unit, the light emitted from the invisible light emitting unit Among these, it is possible to effectively detect the component that is specularly reflected by the photographing device of the observer.
  • the above configuration it is possible to degrade the display quality of the video re-captured by the imaging device possessed by the observer without degrading the display quality of the video. Further, when the observer tries to re-image while removing the invisible light emitted from the video display screen, the invisible light reflected from the imaging device of the observer can be easily detected. Therefore, the effect of suppressing the re-shooting action can be obtained.
  • FIG. 1 is a block diagram showing a functional configuration of a voyeurism prevention video display system according to an embodiment of the present invention.
  • FIG. 2 is a schematic diagram showing a schematic configuration of a video display system for preventing voyeurism according to an embodiment of the present invention.
  • FIG. 3 is a schematic diagram for explaining a method for adding a disturbing image to a voyeur camera and a method for detecting the voyeur camera in the system shown in FIG.
  • FIG. 4 is a schematic diagram showing a schematic configuration of a voyeurism prevention video display system according to an embodiment of the present invention.
  • FIG. 5 (a) and (b) are schematic diagrams showing a preferred arrangement example of the infrared LEDs in the infrared light emitting unit.
  • FIG. 6 is a schematic diagram for explaining a preferable arrangement interval of the infrared LEDs in the infrared light emitting unit.
  • FIG. 7 is a schematic diagram illustrating an example of an infrared light emitting unit including a movable light emitting region.
  • FIG. 8 is a schematic view showing another example of an infrared light emitting unit having a movable light emitting region.
  • FIG. 9 is a block diagram showing a functional configuration of the image processing unit provided in the infrared detection unit in the video display system for preventing voyeurism according to the embodiment of the present invention.
  • 10A is a diagram showing a comparison between an image before processing and an image after processing when binarization processing is performed with a gradation value of 80.
  • FIG. 10A is a diagram showing a comparison between an image before processing and an image after processing when binarization processing is performed with a gradation value of 80.
  • FIG. 12 is a schematic diagram illustrating another configuration example of the video display system for preventing voyeurism according to the present invention.
  • FIG. 13 is a rear view showing a schematic configuration of a screen in still another configuration example of the video display system for preventing voyeurism according to the present invention.
  • FIG. 14 is a schematic diagram showing an example of an image obtained when an image is displayed with a camera when infrared rays are irradiated from the screen to the spectator seat together with the image display.
  • (B) is a schematic diagram showing an example of an image obtained when an image including infrared rays as a disturbing image is taken with a camera to which an infrared ray removal filter is attached.
  • FIG. 15 is a schematic diagram showing a positional relationship among the light source A, the camera B, and the reflector C in one method for estimating the position of the voyeur camera.
  • FIG. 16 is a block diagram showing a flow of processing performed in one method for estimating the position of the voyeur camera.
  • FIG. 17 is a block diagram illustrating a functional configuration of the image processing unit provided in the infrared detection unit in the video display system for preventing voyeurism when another method for estimating the position of the voyeur camera is performed.
  • FIG. 18 is a schematic diagram for explaining a first method of position estimation of the voyeur camera performed in the image processing unit shown in FIG.
  • FIG. 19 is a schematic diagram for explaining a first method of position estimation of the voyeur camera performed in the image processing unit shown in FIG.
  • FIG. 20 is a schematic diagram for explaining a second method of position estimation of the voyeur camera performed in the image processing unit shown in FIG.
  • FIG. 21 is a schematic diagram for explaining a second method of position estimation of the voyeur camera performed in the image processing unit shown in FIG.
  • FIG. 18 is a schematic diagram for explaining a first method of position estimation of the voyeur camera performed in the image processing unit shown in FIG.
  • FIG. 19 is a schematic diagram for explaining a first method of position estimation of
  • FIG. 22 is a schematic diagram for explaining a third method of position estimation of the voyeur camera performed in the image processing unit shown in FIG.
  • FIG. 23 is a schematic diagram for explaining a third method of position estimation of the voyeur camera performed in the image processing unit shown in FIG.
  • FIG. 24 is a schematic diagram showing a first modification of the method shown in FIG.
  • FIG. 25 is a schematic diagram showing a second modification of the method shown in FIG.
  • FIG. 26 is a flowchart showing a flow of image processing performed in the image processing unit shown in FIG.
  • FIG. 27 shows a case where a specular reflector is not detected in a part of continuous plural image frames, and (b) shows a case where the position of the specular reflector slightly shifts with time in continuous plural image frames.
  • FIG. 28 is a block diagram illustrating a configuration of an image processing unit in the video display system according to the third embodiment.
  • FIG. 29 is a flowchart illustrating the flow of image processing performed in the image processing unit of the video display system according to the third embodiment.
  • An image display screen includes an image display unit that displays an image, an invisible light emitting unit that irradiates an observer with light other than visible light together with the image, and imaging that the observer has A non-visible light detecting unit that detects light other than the visible light reflected from the device, the non-visible light emitting unit having a plurality of light emitting regions, and detecting the invisible light among the plurality of light emitting regions.
  • the light emitting regions contributing to detection by the unit are arranged at equal intervals.
  • the invisible light detection unit it is possible to effectively detect the component that is specularly reflected by the imaging device of the observer out of the light emitted from the invisible light emitting unit.
  • the light emitting regions contributing to detection by the invisible light detection unit are preferably arranged in a square lattice shape.
  • the reflection part of the imaging device of the observer is square, the length of one side of the reflection part is d, and the arrangement interval of the light emitting areas in the square lattice is ls, Is more preferable.
  • the reflection part of the imaging device possessed by the observer is circular, the diameter of the reflection part is d, and the arrangement interval of the light emitting regions in the square lattice is ls, It is also preferable that
  • the plurality of light emitting regions may be arranged in a triangular lattice shape.
  • the reflection part of the imaging device of the observer is a square
  • the length of one side of the reflection part is d
  • the arrangement interval of the light emitting areas in the triangular lattice is lt.
  • the reflection part of the imaging device of the observer is circular
  • the diameter of the reflection part is d
  • the arrangement interval of the light emitting regions in the triangular lattice is lt. It is also preferable that
  • the invisible light emitting unit may have a movable member in which the light emitting region is arranged.
  • the number of light emitting regions can be reduced.
  • the movable member may be configured to be capable of reciprocating in either the vertical direction or the horizontal direction with respect to the video display unit.
  • the movable member may be configured to be rotatable.
  • an image display screen includes an image display unit that displays an image, and invisible light emission that irradiates an observer with light other than visible light along with the image. And a non-visible light detection unit that detects light other than the visible light reflected from the imaging device of the observer.
  • the video display screen includes a non-visible light detection unit that detects light other than visible light reflected from an imaging device of an observer who views the video display screen in a theater or the like. preferable.
  • the voyeur disturbs the video.
  • a non-visible light removal filter infrared removal filter
  • the invisible light removal filter reflects a lot of invisible light.
  • the invisible light detection unit detects the reflected light from the photographing device for voyeurism with a relatively strong intensity. Therefore, the presence of the imaging device can be easily confirmed by providing the invisible light detection unit.
  • the display quality of the video recaptured by the imaging device possessed by the observer is deteriorated without degrading the display quality of the video displayed on the video display unit. Can do. Furthermore, when the observer tries to re-shoot while removing the invisible light irradiated from the image display screen, the invisible light reflected from the imaging device of the observer is easily detected by the invisible light detector. Can be detected. Therefore, it is possible to further improve the effect of preventing the re-shooting action.
  • the light other than the visible light may be infrared rays
  • the invisible light detection unit may be an infrared detection unit that detects infrared rays.
  • the light other than visible light is infrared, it is not visible to humans without adversely affecting the human body, and can be perceived as an image that interferes with the image by a photographing device such as a video camera.
  • a photographing device such as a video camera.
  • an infrared detection unit for example, an infrared camera, a photodiode, or the like can be used to easily detect reflected light from a photographing apparatus such as a video camera.
  • the infrared detection unit may be an infrared camera.
  • the infrared detection unit is an infrared camera
  • an image corresponding to the intensity of the detected infrared can be obtained.
  • the term “infrared camera” as used herein means a camera capable of detecting at least light in the infrared region. That is, the infrared camera includes a camera that can detect only light in the infrared region and can form image data by detecting light in the infrared region + visible region.
  • the infrared detection unit may detect reflected light from a member that blocks infrared rays.
  • the member that blocks infrared rays is a member that has a function of preventing transmission of infrared rays.
  • This infrared blocking member is provided in front of the photographing apparatus (camera for voyeurism) possessed by the observer, so that the infrared image is removed from the image on the image display screen for displaying the image including the infrared image so that only the image is displayed. It can be taken.
  • such a member that blocks infrared rays include an infrared reflection filter and an infrared absorption filter. If such a filter is provided on the front face of the camera for re-imaging, it reflects a large amount of infrared light. Therefore, the infrared detection unit determines that there is reflected light when infrared light having an intensity equal to or higher than a threshold value is received. Thus, it is possible to selectively detect the reflected light from the member that blocks the infrared rays.
  • the invisible light emitting unit may be repeatedly turned on and off during a period in which the video is displayed on the video display unit.
  • the display quality of a picked-up image can be reduced significantly.
  • a video display system generates a display image based on any one of the above video display screens and a digital video signal, and the display image is displayed as the video. And an image forming unit that projects onto a display screen.
  • the video display system of the present embodiment it is possible to degrade the display quality of the video re-captured by the imaging device possessed by the observer without degrading the display quality of the video displayed on the video display unit. Furthermore, when the observer tries to re-shoot while removing the invisible light irradiated from the image display screen, the invisible light reflected from the imaging device of the observer is easily detected by the invisible light detector. Can be detected. Therefore, it is possible to further improve the effect of preventing the re-shooting action.
  • the light other than visible light is light that is not included in the visible light wavelength band from 380 nm to 780 nm, and specifically, infrared light or ultraviolet light.
  • Such light other than visible light is not recognized by human eyes, but is detected in the same manner as visible light in a photographing apparatus (specifically, for example, a video camera) including a CCD, a CMOS image sensor, or the like. .
  • light other than visible light that is not recognized by human eyes but recorded as a visible image is captured by a video camera or the like during a period in which the image is displayed on the image display unit. It is possible to irradiate an observer together with an image. As a result, when the observer has a video camera for voyeurism, light other than visible light is added to the captured image content as an image that prevents the original image (re-shooting prevention signal). As a result, the display quality of the retaken image can be deteriorated. Since the light emitted from the light emitting unit is not visible light, only the original video appears to be displayed on the video display unit to human eyes.
  • CCD and CMOS image sensors that are image sensors such as digital cameras and digital video cameras used for re-imaging use the elements themselves.
  • wavelengths other than the visible light region such as infrared rays and ultraviolet rays are also detected as images.
  • a video is displayed on a screen of a movie theater or the like, it is re-photographed by a video camera or the like by simultaneously irradiating light with a wavelength that is difficult for humans to perceive as a re-shooting prevention signal from the image display surface.
  • the re-shooting prevention signal can be incorporated into the image content as a perceptible signal.
  • the image based on the re-shooting prevention signal appears as noise that interferes with the original video, so that the quality of the re-taken image content can be degraded.
  • a filter such as an infrared blocking filter is arranged in front of the lens of the video camera, only light of a specific wavelength (for example, visible light) is selectively transmitted, and other light (for example, infrared or ultraviolet light) Light other than visible light) can be blocked.
  • a filter such as an infrared blocking filter
  • the above filter that selectively transmits only visible light and blocks light other than visible light has an action of reflecting a lot of light other than visible light. Therefore, by providing a camera or the like that detects light other than visible light in a theater that can display an image including a re-shooting prevention signal, a video camera equipped with a filter that blocks visible light can be easily provided. Can be detected.
  • a video display system for showing a video such as a movie in a movie theater or a theater based on digital image content
  • a video display system of the present embodiment when image content such as a movie being screened in a theater is shot with a digital video camera or the like, the display quality of the shot image content is deteriorated to a level that cannot be viewed. In this way, it is possible to prevent illegal distribution of image content after re-shooting.
  • the video display system of this embodiment is equipped with an infrared camera for detecting infrared rays reflected from a digital video camera equipped with an infrared filter, etc., to avoid image quality deterioration due to infrared rays. It is also possible to detect the presence of a camera trying to voyeur.
  • the video display system is a video display system for preventing voyeurism (voyeurism detection system) having functions for preventing voyeurism and detecting a voyeur.
  • FIG. 2 shows a schematic configuration of the video display system 1 according to the present embodiment.
  • the video display system 1 includes a video player 201, a projector 202 (image forming unit), a screen 203 (video display unit), an infrared light emitting unit 204 (invisible light emitting unit, light emission control unit), and an infrared camera (invisible light).
  • Detecting unit, infrared detecting unit) 205 In the present embodiment, the screen 203, the infrared light emitting unit 204, and the infrared camera 205 constitute an image display screen.
  • the video player 201 temporarily stores the image content captured from the outside, performs a decoding process to enable image formation, and transmits the processed digital video signal to the projector 202.
  • the configuration of the video player 201 the configuration of a conventionally known digital video playback device can be applied.
  • the image content reproduced by the video player 201 is generally an image content (moving image content) composed of a plurality of image frames.
  • the invention is not necessarily limited to this. That is, the image content may be a still image content.
  • the projector 202 forms a display image on the built-in display element based on the digital video signal transmitted from the video player 201, and further forms the formed image on the screen 203 using the built-in projection optical system. Project.
  • the configuration of the projector 202 the configuration of a conventionally known front projection type image display device can be applied.
  • the screen 203 displays an image projected from the projector 202.
  • the infrared light emitting unit 204 is disposed on the back side of the screen 203, and emits infrared light to the front side during a period in which an image is displayed on the screen 203.
  • the back side of the screen 203 is the side opposite to the surface on which the image is displayed (the surface facing the observer or the spectator seat), and the front side of the screen 203 displays the image. It is the side to be done (the side where the observer is).
  • the infrared camera 205 mainly detects light in the infrared region having a wavelength of 780 nm or more to form an image.
  • the infrared camera 205 is provided to detect infrared rays reflected by an infrared filter or the like attached to a voyeur video camera among infrared rays emitted from the infrared light emitting unit 204.
  • the infrared camera 205 is not limited to one that can detect only light in the infrared region, and forms image data by detecting light in the infrared region + visible region as in the night shot function of a video camera. It may be possible. That is, the infrared camera 205 here refers to a camera that can detect at least light in the infrared region.
  • the screen 203 has the same configuration as a conventional general screen for displaying images in a movie theater.
  • a white paint is applied to the surface of a curtain having a large number of small holes (holes of about 1 mm) to form an image display surface 203a.
  • the infrared light emitting unit 204 is disposed on the back side of the screen 203 as described above. Further, in the present embodiment, the infrared light emitting unit 204 is disposed at a position corresponding to the substantially central portion of the image display area 203 a of the screen 203. As shown in FIG. 2, the infrared light emitting unit 204 has nine infrared light emitting regions 214 in total of 3 vertical ⁇ 3 horizontal. Note that the number of the infrared light emitting regions 214 illustrated here is merely an example, and it is possible to provide more light emitting regions. Each infrared light emitting region 214 is provided with an infrared LED.
  • infrared LEDs examples are those that emit light in the wavelength band near 780 nm (this is referred to as 780 nm LED), those that emit light in the wavelength band near 850 nm (this is referred to as 850 nm LED), etc. Is mentioned. Moreover, it is preferable that the infrared rays irradiated from the infrared light emitting unit 204 are close to parallel light. Thereby, the intensity
  • the infrared light emitted from the infrared light emitting unit 204 passes through the acoustic hole provided in the screen 203 and is irradiated toward the observer (audience seat). Is done.
  • the light emitted from the infrared LED may include light in the visible light region close to the infrared region. Therefore, a visible light cut filter may be disposed on the light irradiation surface of the infrared light emitting unit 204.
  • the visible light cut filter used here may be a conventionally known filter.
  • a 780 nm LED emits light in a wavelength band closer to the visible light region, it is desirable to use it with a visible light cut filter. Thereby, it is possible to realize an infrared light emitting unit that is detected by a content recording device such as a video camera but is not visually recognized by a person in the audience seat.
  • the infrared camera 205 is emitted from a light emitting region (infrared LED) 214 of an infrared light emitting unit 204 (not shown in FIG. 4) and is provided with an infrared removal filter 131 provided in a camera for voyeurism.
  • the infrared light reflected by the mirror is detected.
  • a light emitting region infrared LED
  • FIG. 5 (a) and 5 (b) show preferred arrangement examples of the light emitting region 214 in the infrared light emitting unit 204.
  • FIG. 5A the plurality of light emitting regions 214 may be arranged in a square lattice, or may be arranged in a triangular lattice as shown in FIG. In any of these examples, the plurality of light emitting regions 214 are arranged at equal intervals. Note that the arrangement of the light emitting regions 214 in the infrared light emitting unit 204 is not limited to a square lattice shape and a triangular lattice shape, and may take other various arrangement forms. The arrangement of the infrared light emitting unit 204 is not limited to the back side of the screen.
  • the arrangement interval of the light emitting regions 214 in the infrared light emitting unit 204 depends on the size of the infrared removing filter that is the detection target.
  • the shape of a filter available as a commercially available infrared filter is generally square or circular.
  • the arrangement of the square lattice and the triangular lattice of the light emitting region 214 when the length of one side of the square filter and the diameter of the circular filter are d respectively.
  • FIG. 6 is a diagram showing the positional relationship between the light emitting region 214 and the infrared camera 205 in the infrared light emitting unit 204 and the infrared removing filter 131 provided in the camera for voyeurism.
  • a case is assumed in which reflected light is detected by the infrared camera 205 (point O shown in FIG. 6) via specular reflection by the infrared ray removing filter 131 of length d (line segment QP shown in FIG. 6).
  • the incident angle and the reflection angle of infrared light are the same angle with respect to the line segment QP, and therefore, at least one light emitting area 214 is arranged in the 2d length area (line segment SR). Is required.
  • At least one light emitting region 214 can be arranged in a square region having a side length 2d (or a circular region having a diameter 2d).
  • the arrangement interval can be determined based on a circular area having a diameter of 2d. good.
  • the square lattice arrangement interval ls (or the triangular lattice arrangement interval lt) may be set to be equal to or less than the length of one side of a square (or a regular triangle) inscribed in a circle having a diameter of 2d. From the above, it is preferable that each of the square lattice arrangement interval ls and the triangular lattice arrangement interval lt satisfy the following.
  • the voyeur may arrange a voyeur camera so that the video frame is projected on the shooting screen and is photographed with little distortion.
  • the infrared ray removal filter of the camera for voyeurism is assumed that the normal vector of the filter surface faces the central portion of the video display screen. Therefore, when the infrared camera 205 is installed at the center position on the back surface of the video display screen, it is preferable to arrange the light emitting area 214 in a certain range centered on the infrared camera 205 according to the above-described arrangement interval.
  • the size of the area (the number of infrared LEDs) in which the light emitting area 214 is arranged can be arbitrarily determined according to the size of the video display screen and the shooting environment.
  • the light emitting regions 214 are arranged in a certain range centering on each infrared camera 205 according to the above-described arrangement interval for the same reason as described above. .
  • the infrared light emitting unit 204 in which a plurality of infrared light emitting regions (infrared LEDs) 214 are fixed is shown.
  • the infrared light emitting unit 204 can be configured by a movable infrared LED. is there.
  • FIG. 7 and FIG. 8 show an embodiment of an infrared light emitting unit 204 constituted by a movable infrared LED.
  • the infrared light emitting unit 204 is configured as a scanner type unit in which a plurality of infrared light emitting regions (infrared LEDs) 214 are arranged in a line in the horizontal direction at equal intervals.
  • This scanner-type infrared light emitting unit 204 is configured to reciprocate in the vertical direction of the screen 203. According to this configuration, the same effect as that obtained when a plurality of infrared LEDs are arranged in the movable region 401 of the infrared light emitting unit 204 can be obtained.
  • the scanner-type infrared light emitting unit 204 is reciprocally movable in the vertical direction, but may be configured to scan in the horizontal direction.
  • the infrared light emitting unit 204 is configured as a rotary unit in which a plurality of infrared light emitting regions (infrared LEDs) 214 are arranged in a line at equal intervals.
  • the center of the rotary infrared light emitting unit 204 is rotatably supported by a support member 206. Therefore, when the infrared light emitting unit 204 shown in FIG. 8 rotates around the support point of the support member 206, the same effect as that obtained when a plurality of infrared LEDs are arranged in the region 402 indicated by the broken line in FIG. .
  • the infrared light emitting unit 204 configured by movable infrared LEDs as shown in FIGS. 7 and 8, the required number of infrared LEDs can be reduced. Thereby, the effect that power consumption is suppressed and maintenance becomes easy can be obtained.
  • FIG. 1 is a functional block diagram showing the configuration of each device in the video display system 1.
  • the content display unit 110 includes a content storage unit 111, a decoder 112, and a content output unit 113.
  • the content storage unit 111 is for temporarily storing image content such as movies taken from outside.
  • the content storage unit 111 is realized by a hard disk drive or a large-capacity memory.
  • the content storage unit is not limited to the above, and may function as a buffer during playback and display of image content, such as a cache or a high-speed memory.
  • the decoder 112 decodes the image content stored in the content storage unit 111 into a format that conforms to the display standard of the projector 202.
  • the content output unit 113 forms a display image from the decoded image content (digital video signal) and displays it on the image display surface (image display area) 203 a of the screen 203.
  • the content storage unit 111 and the decoder 112 are in the video player 201.
  • the content output unit 113 is realized as the projector 202 and the screen 203.
  • the same configuration as that of a known video display system can be applied.
  • the re-shooting prevention signal output unit 120 includes a content analysis unit 121 (image analysis unit), a signal control unit 122 (light emission control unit), a signal output pattern storage unit 123 (light emission control unit), and a signal generation unit 124 (light emission). Part).
  • the content analysis unit 121 analyzes the spatial feature amount and the temporal feature amount of the image content (digital video signal) extracted from the content display unit 110.
  • the brightness (gradation value) of each pixel is analyzed for each frame of the image content composed of a plurality of image frames.
  • image information regarding spatial features and temporal features such as which region and how bright at which time point (which frame) is obtained.
  • the digital video signal transmitted to the content analysis unit 121 is a video signal processed by the decoder 112.
  • the signal control unit 122 controls the light emission intensity in the infrared light emitting unit 204 when a specific image frame is displayed based on the image information obtained by the content analysis unit 121. At this time, the emission intensity is controlled with reference to information stored in the signal output pattern storage unit 123.
  • the signal output pattern storage unit 123 stores the intensity of infrared light (re-shooting prevention signal) output from the signal generation unit 124, the ON / OFF pattern of signal generation, and the like. Specifically, the average gradation value of each pixel in the image frame and the light emission intensity of the infrared light emitting unit 204 at that time (substantially proportional to the current value of the infrared LED) are stored in association with each other. Thereby, the signal control unit 122 can control the light emission state of the infrared LED in the signal generation unit 124 while referring to the signal generation pattern stored in the signal output pattern storage unit 123.
  • the signal generator 124 turns ON / OFF the output of infrared light, which is a re-shooting prevention signal, and changes its intensity in response to an instruction from the signal controller 122.
  • the content analysis unit 121, the signal control unit 122, and the signal output pattern storage unit 123 are in the video player 201.
  • the signal generator 124 corresponds to the infrared light emitting unit 204.
  • the infrared light emission intensity and light emission in the infrared light emitting unit 204 are matched to the properties of the image content.
  • the pattern can be controlled. Further, it is possible to control so that infrared rays having different emission intensities are emitted from the respective light emitting regions 214 of the infrared light emitting unit 204.
  • the infrared light emitting unit 204 emits light with a predetermined light emission intensity and light emission pattern. Control may be performed. Thereby, the processing amount in the re-shooting prevention signal output unit 120 can be reduced.
  • the light emission control unit is attached to the infrared light emitting unit 204, and the image content is displayed regardless of the content of the image content during the period when the image is displayed on the screen 203. What is necessary is just to output infrared rays with a fixed light emission intensity and light emission pattern.
  • the video display system 1 Since the video display system 1 according to the present embodiment has the above-described configuration, infrared light can be emitted along with video from the image display surface of the screen 203 toward the observer (FIG. 3). reference). Since human eyes do not recognize infrared light, even if an image including infrared light is projected on a screen, it is recognized as an image that is not different from a normal image.
  • the video camera 130 (130a / 130b) used for re-photographing has a CCD or CMOS image sensor for detecting infrared light as a light receiving element. Therefore, when an image including infrared light is captured, the infrared light irradiated from the screen is also captured as an image that can be visually recognized by humans.
  • a light emitting unit using an infrared LED as a light source is used as a light emitting unit that emits light other than visible light.
  • the present invention is not limited to this configuration.
  • a light source that emits infrared light an infrared light source other than an LED may be used.
  • light other than visible light it is not limited to infrared rays with a wavelength of 780 nm or more, but may be ultraviolet rays with a wavelength of 380 nm or less.
  • the video display system 1 since ultraviolet rays are harmful to the human body, when the video display system 1 is used in a public facility such as a movie theater, it is preferable to use a light emitting unit that emits infrared light.
  • the invisible light detection unit uses an ultraviolet light detection unit instead of the infrared detection unit 140.
  • a specific example of the ultraviolet ray detection unit is an ultraviolet ray camera.
  • FIG. 3 schematically shows a method for adding a disturbing image to a voyeur camera and a method for detecting the voyeur camera in the video display system 1.
  • the infrared camera 205 is provided on the upper portion of the screen 203, but here, a configuration in which the infrared camera 205 is provided on the back surface of the screen 203 is shown.
  • one infrared light emitting unit 204 is provided at the center of the screen 203, but here two infrared light emitting units are provided at the upper and lower parts of the screen, respectively. Shows the configuration. In the present invention, these configurations are not particularly limited, and can be appropriately changed according to circumstances.
  • FIG. 3 shows a voyeur camera (imaging device) 130 (130a / 130b) used by a person (also referred to as an observer or a re-photographer) who wants to re-image the video displayed on the screen 203.
  • the camera 130a is a video camera to which an infrared filter (a member that blocks invisible light (particularly infrared)) 131 is attached. This is a normal video camera without an infrared filter.
  • the infrared ray b is emitted from the infrared light emitting unit 204 as a re-shooting prevention signal.
  • Infrared rays b emitted from the infrared light emitting unit 204 pass through an acoustic hole provided in the screen 203 and are irradiated toward an observer (audience seat).
  • the display image a and the infrared ray b are incident on the light receiving unit (lens) of the camera. Since the light receiving element of the camera 130b has a light receiving sensitivity to visible light and infrared light, an image caused by infrared rays is included as a disturbing image A in the recorded image content as shown in FIG. included. Thereby, in the video display system 1, since the display quality of the retaken image can be deteriorated and the utility value can be reduced, it is possible to prevent the video camera from being shot for the purpose of illegal distribution of video content. .
  • the display image a passes through the infrared ray removal filter 131 and enters the light receiving unit. Since most of the light is reflected by the infrared ray removing filter 131, it hardly enters the light receiving portion. Therefore, as shown in FIG. 14B, the recorded image content does not include the disturbing image, and the image is visible to some extent.
  • the image display system 1 of the present embodiment is provided with an infrared detection unit 140.
  • the infrared detection unit 140 includes a wide-angle lens 141, an infrared light receiving unit 142, an image processing unit 143, and the like.
  • the wide-angle lens 141 is for enabling the infrared light receiving unit 142 to receive reflected light from a wide range.
  • the wide-angle lens 141 has an angle of view of 63 degrees or more.
  • the infrared light receiving unit 142 includes a CCD or CMOS image sensor as a light receiving element.
  • This light receiving element has light receiving sensitivity not only for the visible region but also for light having wavelengths in the ultraviolet and infrared regions.
  • an optical filter such as a visible light cut filter is provided on the light receiving surface of the light receiving element, and after removing light of wavelengths in the ultraviolet region and the visible region by this optical filter, the light receiving element takes in the element. An image is formed based on the acquired data.
  • the filter may be a filter that allows only light of a specific wavelength to pass, or may be a filter that removes only a specific wavelength.
  • the image processing unit 143 performs processing on the image captured by the infrared light receiving unit 142 in order to more reliably recognize the video camera for voyeurism. Details of the image processing performed here will be described later.
  • the infrared detection unit 140 is realized by the infrared camera 205.
  • the image processing unit 143 may be realized by a dedicated image processing apparatus such as a PC separate from the infrared camera 205.
  • an infrared removal filter 131 is attached to the camera 130a to remove an interference image due to infrared rays.
  • the reflected light (reflected infrared ray c) obtained by reflecting the infrared ray b emitted from the infrared light emitting unit 204 by the infrared ray removing filter 131 can be detected.
  • examples of the infrared filter 131 that can be detected by the infrared detector 140 include an infrared reflection filter and an infrared absorption filter. Since these filters have high infrared reflectance, the presence of the camera 130 can be easily detected by the infrared detection unit 140 when these filters are attached to the camera 130 for voyeurism.
  • the infrared reflection filter when comparing the infrared reflection filter and the infrared absorption filter, the infrared reflection filter has a higher infrared reflectance, but even when the infrared absorption filter is used, a higher reflectance can be obtained compared to metal or the like. Therefore, it can be detected by the infrared detector 140.
  • the infrared reflectance of a curved lens such as a video camera lens is generally lower than that of an infrared filter, but it is curved glass (for example, glass cup) or curved metal (for example, Higher than the reflectivity of rod-like metal such as screwdrivers and eyeglass frames. Therefore, according to the image processing method in the image processing unit 143, the infrared detection unit 140 can detect a lens of a normal video camera that is not provided with an infrared removal filter.
  • the infrared detection unit 140 is provided on the same plane as the screen or on the screen side to be sneak shot such as the back side of the screen, and the light receiving surface faces so that the reflected light from the observer side can be received efficiently. Preferably it is.
  • infrared rays are irradiated toward an observer (audience seat) through an acoustic hole provided in the screen 203 is illustrated.
  • irradiation with infrared rays does not necessarily require the use of acoustic holes.
  • a hole for allowing infrared rays to pass therethrough may be provided exclusively, or a hole provided for other uses than for acoustic use may be used.
  • the infrared image data obtained by the infrared light receiving unit 142 in the infrared detection unit 140 is input to the image processing unit 143 for each frame as image data composed of a plurality of frames.
  • Each frame image data has gradation data corresponding to a plurality of pixels arranged vertically and horizontally.
  • the gradation data of each pixel is data of gradation values (for example, 0 to 255 gradations) corresponding to the intensity of infrared light received by the pixel.
  • gradation values for example, 0 to 255 gradations
  • FIG. 9 shows a configuration in which the image processing unit 143 is divided for each function.
  • the image processing unit 143 includes a flicker removal filter 151 (frame removal unit), a difference processing unit 152, a noise removal filter 153, a binarization processing unit 154, an area measurement unit 155, and a camera.
  • a determination unit 156 determination unit is provided.
  • the flicker removal filter 151 is a circuit that performs processing for discriminating frame image data in which all pixels display black (0 gradation) in each frame image data and deleting the discriminated black display image data. By performing such processing, for example, when the infrared light emitting unit 204 is blinking, the image data when the infrared light emitting unit 204 is turned off is removed, and only the image data when the infrared light emitting unit 204 is turned on is removed. Can leave.
  • the flicker removal filter 151 may remove a frame in which all pixels display black by calculating a time average of gradation values of each pixel in a plurality of frame image data.
  • the difference processing unit 152 is a circuit that compares reference image data stored in advance with transmitted image data and calculates a difference between the two data.
  • reference image data 152a used here for example, the infrared light emitting unit 204 of the video display system 1 is operated in a theater when there is no spectator. Image data.
  • the difference processing unit 152 can exclude a portion having a motion in the image data by taking a difference between a plurality of frames.
  • the voyeurism is performed with the camera fixed, it is possible to increase the detection accuracy of the filter attached to the camera by specifying a stationary position by the processing.
  • the noise removal filter 153 is a circuit that removes a white display pixel as noise when a white display composed of one pixel or a few pixels less than a certain number is present in a region in which several peripheral pixels are black display. is there.
  • this filter circuit infrared rays with a certain number or more (for example, 1 pixel, 2 pixels, etc.) of pixels within a plurality of pixels (for example, 3 ⁇ 3 pixels, 5 ⁇ 5 pixels) centering on the own pixel are not less than a threshold value. If detected, the pixel is left as data with infrared detection (for example, white display data).
  • the relevant pixel is used as data without infrared detection (that is, gradation value 0). Output).
  • the binarization processing unit 154 provides a threshold value for the gradation data, and converts the gradation data into white display data (that is, gradation value 255) for pixels whose gradation data is equal to or greater than the threshold value. For pixels whose data is less than the threshold value, this is a circuit that performs processing for converting the gradation data into black display data (that is, gradation value 0).
  • the area measurement unit 155 is a circuit that measures the number of pixels included in the white display area in the image data that has been binarized by the binarization processing unit 154. This processing is performed, for example, by measuring the boundary between a black display pixel and a white display pixel and counting the number of pixels included in the boundary.
  • the camera determination unit 156 determines whether or not the white display area is greater than or equal to a predetermined area (more than the number of pixels) by the area measurement unit 155, and determines that there is a voyeur camera if the area is greater than or equal to the predetermined area. .
  • the flicker removal filter 151 deletes all pixel black display data and averages a plurality of video frames as necessary. Thus, only the frame image data in which black display and white display are mixed is obtained (step S101 shown in FIG. 26). Note that when the infrared light emitted from the infrared light emitting unit 204 is always on, the processing by the flicker removal filter 151 is not necessarily performed. Note that flicker removal processing is also performed on the reference image data 152a as in step S101 (step S102).
  • the difference calculation unit 152 performs a difference calculation process on the frame image data from which all pixel black display data has been deleted with the reference image data 152a (step S103).
  • the reflected infrared light from equipment or the like installed in advance in the theater is removed, and the image data reflecting the infrared intensity only by the reflected light caused by the audience is obtained.
  • motion detection may be performed on the image data from which flicker has been removed by the processing in step S101, and a reflective object accompanied by motion may be detected as a noise component (step S104).
  • step S105 the noise removal filter 153, among pixels having a high infrared intensity equal to or higher than the threshold, only one pixel is isolated and converted to black display gradation data (step S105).
  • the noise component of the reflector accompanying the motion is also removed here.
  • a pixel whose gradation value is equal to or greater than the threshold value is converted into a gradation value 255, and a pixel whose gradation value is less than the threshold value is converted into a gradation value 0 (step S106).
  • the threshold value here may be 80 gradations, 250 gradations, etc. as shown in FIG. 10 below.
  • the threshold value is preferably set to a value in the range of 100 to 250 gradations, for example.
  • the area measuring unit 155 measures the area (number of pixels) of the white display area in the binarized image data (step S107). Then, the camera determination unit 156 determines whether or not the white display area has a predetermined area or more (number of pixels or more). If the area is more than the predetermined area, it is determined that there is a voyeur camera (step S108). ).
  • the camera determination unit 156 determines that there is a voyeur camera, an alarm or the like can be issued.
  • the monitor may be able to easily estimate the voyeur camera position.
  • the above method it is possible to automatically detect a person who performs a voyeur of a movie in a movie theater or the like.
  • automatic detection for example, when the presence of an infrared filter is confirmed by the above image processing, an alarm is sounded in a room where a theater manager (or a supervisor) is present. Can inform the existence of a voyeur. Thereby, the administrator can easily know the existence of the voyeur without checking the camera.
  • the image processing unit 143 does not necessarily include all the processing circuits as illustrated in FIG. 9, and includes one or a plurality of processing circuits among the processing circuits illustrated in FIG. 9. In this case, the camera for voyeurism can be properly detected.
  • the binarization processing by the binarization processing unit 154 is performed on the frame image data, as shown in FIG. 10, equipment other than a camera such as a video camera with an infrared filter 131 attached and a metal, as shown in FIG. Can be distinguished from each other.
  • FIG. 10A shows a comparison between the original image data (original) and the image data after binarization when binarization processing is performed using the gradation value 80 as a threshold value.
  • FIG. 10B shows a comparison between the original image data (original) and the binarized image data when the binarization process is performed using the gradation value 250 as a threshold value. Show.
  • the original image data shown in FIG. 10 includes a convex lens (magnifying glass) A, a metal (screwdriver) B, an infrared transmission filter C, an infrared absorption filter D, and a room equipped with the video display system 1. This is obtained when the infrared reflection filter E is placed and the infrared light emitting unit 204 is always turned on to take a picture with the infrared camera 205.
  • the data of the reflected light from the convex lens (magnifying glass) A, metal (screwdriver) B, infrared transmission filter C, infrared absorption filter D, and infrared reflection filter E are sequentially shown from the left side. Show. A and B are reflections on a curved surface, and C to E are reflections on a plane.
  • the area measurement unit 155 measures the area of the white display region, and then the camera determination unit 156 determines that the white display region is greater than or equal to a predetermined area (the number of pixels or more). It is preferable to perform a process of determining whether or not. By performing this process, it is possible to distinguish between the infrared filter (D and E) and other articles such as the convex lens A and the metal B.
  • the infrared transmission filter C has a small infrared removal effect, but if it is provided on the lens of the video camera, it can be determined in the same manner as the infrared removal filter.
  • the determination performed by the camera determination unit 156 in the image processing unit 143 may change the area threshold according to the distance from the screen 203. This will be described below with reference to FIG.
  • the shooting area is shared by a plurality of infrared cameras according to the size of the distance L from the screen 203 to the spectator seat
  • a method will be described in which the screen 203 is divided into four shooting areas from the lower part and the camera 130a for voyeurism is detected by four infrared cameras. These four imaging areas are designated as R1, R2, R3, and R4 in order from the bottom.
  • the distance from the screen 203 to the spectator seat is L1
  • the distance from the screen 203 to the spectator seat is L2
  • the distance from the screen 203 to the spectator seat is L2
  • the distance from the screen 203 to the spectator seat is L3
  • the distance from the screen 203 to the spectator seat is L4.
  • L1, L2, L3, and L4 satisfy L4> L3> L2> L1.
  • the camera determination unit 156 changes the threshold value T of the area for determining that there is a camera for voyeurism as T1 to T4 according to the distance L. Accordingly, the camera determination unit 156 can accurately determine whether or not infrared reflected light having a size corresponding to the infrared removal filter is detected for each region to be imaged by the infrared camera 205.
  • the image frame after processing in which the infrared diffuse reflection part and the reflection part with movement are excluded by the difference calculation process in step S103, the motion detection process in step S104, and the noise removal process in step S105 is an infrared filter.
  • the image includes a stationary infrared specular reflection area.
  • step S101 to step S108 is generally executed for each predetermined number of image frames. Therefore, for example, as shown in FIG. 27A, a specular reflector may not be detected for some reason in a part of a plurality of temporally continuous image frames after the area measurement processing in step S107. is there. In the example of FIG. 27A, a white display region corresponding to a specular reflector is not detected in the second image frame among the four consecutive image frames. Such a situation is caused when the specular reflected light from the camera is not detected by the infrared camera due to, for example, a slight shift in the orientation of the camera for voyeurism when the image frame is captured.
  • the position of the specular reflector may be slightly shifted over the plurality of image frames due to the movement of the body of the voyeur.
  • the specular reflector may be detected by being divided into different small areas in the plurality of image frames.
  • the camera determination unit 156 performs the following processing on a plurality of temporally continuous image frames after the area measurement processing in step S107. It is preferable.
  • the camera determination unit 156 determines that there is a camera for voyeurism (a white display area having a predetermined area or more) among a plurality of continuous image frames.
  • the number C1 of image frames to be discriminated and the number C2 of image frames to be discriminated that there is no specular reflector are counted.
  • the camera determination unit 156 determines that there is a voyeur camera if the C1 is larger than the C2.
  • the condition that C1 is sufficiently larger (exceeding the predetermined number of frames) than C2 may be a condition for determining that there is a voyeur camera.
  • the camera determination unit 156 determines the center of gravity of a white display area that is a predetermined area or more representing a voyeur camera in each of a plurality of consecutive image frames. Determine. If the moving distance of the center of gravity of the area is equal to or less than a certain value over the plurality of image frames, it is determined that a camera for voyeurism exists at the position of the area.
  • the camera determination unit 156 determines the center of gravity of the small region in each of a plurality of consecutive image frames. If the distance between the centroids of the small areas is equal to or smaller than a certain value over the plurality of image frames, it is determined that a camera for voyeurism exists at the position of the aggregate of the small areas. Alternatively, the camera determination unit 156 performs expansion processing on each of the small regions and combines the regions, and then determines whether or not there is a white display region that is equal to or larger than a predetermined area that represents a voyeur camera.
  • the camera determination unit 156 performs expansion processing on each of the small regions and combines the regions, and then determines whether or not there is a white display region that is equal to or larger than a predetermined area that represents a voyeur camera.
  • the infrared camera 205 used in the present embodiment may be capable of adjusting its focal position. In this case, first, search the entire theater by widening the light reception range and detect reflected light that seems to be a voyeur camera. The presence or absence of a camera can be detected. In the case of an infrared camera capable of adjusting the focal position, it is preferable to change the threshold value of the area when the determination by the camera determination unit 156 is performed, for example, as shown in FIG.
  • an auxiliary infrared camera may be provided in a place different from the screen installation surface such as the side of the theater.
  • This auxiliary camera is provided on the assumption that the infrared light reflected by the infrared removing filter 131 is further reflected by the screen 203 or the like.
  • the place where the auxiliary camera is provided is preferably a place where the reflected light from the screen 203 can be captured.
  • the object reflected light is composed of two reflection components, specular reflection and diffuse reflection.
  • specular reflection is a complete reflection of light by a mirror or the like, and is a reflection component in which the incident angle and the reflection angle are the same angle with respect to the reflection surface.
  • the diffuse reflection is a reflection of light from a non-flat surface, and is a reflection component in which an incident angle and a reflection angle are different from the reflection surface. This diffuse reflection is also called irregular reflection.
  • the specular reflection component and the diffuse reflection component are first separated. Then, by updating the parameters associated with each component so as to minimize the evaluation function, the light source position (specifically, the relative position between the light source and the reflecting surface, which corresponds to the position of the voyeur camera in the present invention).
  • FIG. 15 is a schematic diagram showing the positional relationship between the light source A, the camera B, and the reflector C in the present method.
  • the light source A corresponds to the infrared light emitting unit 204
  • the camera B corresponds to the infrared camera 205
  • the reflector C corresponds to the infrared removing filter 131 attached to the video camera 130.
  • FIG. 16 is a block diagram showing the flow of each process performed in this method.
  • the processing shown in this block diagram can be executed by, for example, the area measurement unit 155 in the image processing unit 143 shown in FIG. That is, the area measuring unit 155 also has a function of a position estimating unit that estimates the position of the video camera 130 in the hall.
  • the image data used for position estimation performed by this method is frame image data (infrared image data) transmitted from the infrared light receiving unit 142. That is, the image data is not subjected to image processing in each of the blocks 151 to 154 in the image processing unit 143. An example of such image data is shown in FIG.
  • the area measuring unit 155 first identifies a pixel (peak point) where the intensity of the specular reflected light is maximum based on the input infrared image data, and the light source direction ⁇ from the peak point. (See FIG. 15) is estimated (see Step 1). In the image data of FIG. 16B, the peak point is displayed in white.
  • Step. 2 the distance from the specular reflection peak to the light source (referred to as the light source based on the ease with which the diffuse reflection model is applied to the brightness distribution in the diffuse reflection region (the gray portion in the image data in FIG. 16C)). Depth R (refer to FIG. 15) and diffuse reflection characteristics are estimated.
  • R and ⁇ represent the relative positions of the camera and the reflector C. Here, they are expressed as “light source direction ⁇ ” and “light source depth R” for convenience.
  • Step. 3 Based on the diffuse reflection characteristic estimated in 2, the specular reflection component is separated and the specular reflection characteristic is estimated.
  • Step. 4 a virtual reflection image is created based on the light source direction ⁇ , the depth R, the diffuse reflection characteristic, and the specular reflection characteristic estimated in the steps so far. Then, the difference (energy function) between the obtained virtual reflection image and the actual image is calculated, and the above step. 1 to 4 iterations are performed.
  • Step. 5 the light source direction ⁇ and the light source depth R at the time of function convergence are determined as the estimated position of the reflector C.
  • the estimated position of the reflector C is obtained as the position of the voyeur camera.
  • the reflection on the surface of an optical filter such as an infrared ray removal filter attached to a voyeur camera has a specular reflection component of 100% and does not include a diffuse reflection component.
  • the reflector C has both specular reflection characteristics and diffuse reflection characteristics, and the light source depth R is estimated based on the diffuse reflection characteristics.
  • a specular reflector such as an optical filter
  • an accurate value of the light source depth R cannot be obtained.
  • the method (2) can be given as a method for estimating the position of the reflecting object even for a specular reflecting object such as an optical filter.
  • a specific example of the method (2) will be described.
  • FIG. 17 shows a functional configuration in the image processing unit 143 when this method is adopted.
  • blocks having the same functions as those in the image processing unit 143 shown in FIG. 10 are assigned the same member numbers.
  • the image processing unit 143 shown in FIG. 17 includes an image distortion correction unit 157 provided between the flicker removal filter 151 and the difference processing unit 152.
  • the area measuring unit 155 is provided with an in-house structure information storage unit 155a for storing in-house structure information used as reference data when the position of the voyeur camera is estimated.
  • a camera control unit 144 is provided outside the image processing unit 143. Note that the order of the noise removal filter 153 and the binarization processing unit 154 may be reversed. That is, either noise removal or binarization processing may be performed first.
  • the image distortion correction unit 157 performs a process called distortion correction (distortion) correction.
  • the in-house structure information storage unit 155a stores in-house structure information (information on a facility such as a movie theater in which the video display system 1 is provided) required for performing various position estimation methods described later. .
  • This hall structure information is information based on image data obtained by photographing the hall in advance before the screening.
  • the camera control unit 144 performs control of the infrared camera 205 such as change of the shooting position and enlargement / reduction processing based on the determination result in the camera determination unit 156.
  • Position estimation is performed at. That is, the area measuring unit 155 also has a function of a position estimating unit that estimates the position of the video camera 130 in the hall.
  • Step. 1 based on the input binarized image data, a pixel (peak point) where the intensity of reflected light is maximum is specified, and the light source direction ⁇ (see FIG. 15) is estimated from the peak point.
  • the peak point is A.
  • Step. 2 the obtained light source direction ⁇ is applied to the in-house structure model stored in the in-house structure information storage unit 155 a, and a candidate area that is highly likely to have a voyeur camera is selected.
  • B indicates candidate regions selected by applying to the hall structure model.
  • the light source depth R is determined depending on whether or not the height from the floor to the optical axis of the infrared camera 205 is less than the threshold value d.
  • one or a plurality of reflective markers such as motion capture reflective markers (manufactured by Measurement Planet) are arranged in advance in a predetermined position in the hall. Then, image data obtained by operating the video display system 1 in the absence of a spectator is acquired, and the relative position of each reflective marker in the hall is stored in the hall structure information storage unit 155a as the hall structure information.
  • FIG. 21 shows an example of the hall structure information obtained when the reflective marker 300 is arranged for each spectator seat.
  • the position where the reflection marker is present (the position indicated by ⁇ in FIG. 21) has a higher intensity of reflected light than other positions.
  • the building structure information as shown in FIG. 21 is obtained.
  • the position of the infrared rays removal filter 131 attached to the camera for voyeurism is specified using this building structure information.
  • the area measuring unit 155 based on the binarized image data obtained from the image data acquired by the infrared camera in the absence of a spectator, creates in-house structure information as shown in FIG. It memorize
  • Step. 2 based on the binarized image data (see FIG. 20B) obtained from the image data acquired by the infrared camera in the presence of the audience, the reflection not included in the building structure information shown in FIG. 21.
  • the light peak 301 is identified as the infrared filter 131 attached to the voyeur camera.
  • the image data shown in (b) of FIG. 20 is applied to the hall structure information of FIG. 21, and it is determined from which spectator seat the detected reflected light peak 301 is obtained.
  • the position of a specular reflector such as an optical filter can be estimated by the above processing. Note that the accuracy of position estimation can be increased as the number of the reflective markers 300 arranged in the hall increases, but there is no particular limitation, and the reflective markers 300 may be arranged only in the four corners of the hall.
  • an infrared light source such as an infrared LED may be arranged at a predetermined position in the hall. And if it blinks at a different blinking speed for each light source at each position, the position of the infrared removal filter 131 can be specified in correspondence with the light emission pattern of each light source.
  • the blinking speed of the light source can be adjusted by the power source and the pulse generation circuit. It is preferable that the blinking frequency of the light source is around 10 Hz in order to obtain the most remarkable interference effect.
  • movie theaters are structured so that the entire screen can be viewed from any spectator seat, and designed so that there is no overlap in the line of sight between one seat and the other. Therefore, in this method, the position of the voyeur camera is specified from the coordinates of the image data obtained by the infrared camera 205 in consideration of such a movie theater structure.
  • image data (see FIG. 22A) acquired by a camera (not limited to an infrared camera) in the absence of a spectator is divided into regions by image processing (FIG. 22). 22 (b)). Then, as shown in FIG. 22 (b), each pixel is specified by XY coordinates, and a correspondence table indicating which seat (A1, A2,%) Corresponds to which coordinate pixel is created. Store in the hall structure information storage unit 155a.
  • a correspondence table creation method a brightness distribution and a hue distribution are obtained from image data (see (a) of FIG. 22) acquired by a camera (not limited to an infrared camera) in the absence of a spectator. A hue range is determined and divided into a spectator seat area and other areas. Next, the brightness distribution and the hue distribution are obtained for the audience seat area, the brightness / hue range is determined again from the distribution, the individual audience seats are divided, and the area is divided (see FIG. 22B). Create Furthermore, by labeling the divided individual areas, a correspondence table is created that can determine which spectator seat is at an arbitrary coordinate on the image or an area other than the spectator seat.
  • the area measuring unit 155 estimates the position of the voyeur camera based on the image data (see (a) of FIG. 23) acquired by the infrared camera in the presence of the audience.
  • the image data used for position estimation performed by this method may be image data (infrared image data) directly transmitted from the infrared light receiving unit 142 or binarization processing in the image processing unit 143. Alternatively, the image data may be processed.
  • Step. 1 the coordinates of the peak A of the reflected light detected in the input image data are specified.
  • Step. 2 the seat corresponding to the peak A is specified using the correspondence table between the coordinates and the seats stored in the hall structure information storage unit 155a.
  • the voyeur camera is located at the seat number B4.
  • the peak area of the detected reflected light is large, or when the reflected light peak is detected from the middle point of the seat, an area including a plurality of seats may be output as the estimated position.
  • FIGS. 24A and 24B are schematic views for explaining a first modification of specific example 3.
  • FIGS. 25A and 25B are schematic diagrams for explaining a second modification of the third specific example.
  • FIG. 24B shows image data in which the infrared camera input image in such a case is associated with the coordinates of the seat and the pixel.
  • Step 2 the seat corresponding to the peak A of the reflected light is identified using the correspondence table between the coordinates and the seats stored in the hall structure information storage unit 155a (S2-2).
  • the size of the reflected light that corresponds to the voyeur camera changes depending on the distance between the screen and the seat, and the size of the reflected light that is determined to be “with a voyeur camera” Different depending on the position.
  • the threshold value of the size of reflected light is set to 7 ⁇ 7 pixels or more, and In the column and the D column, the threshold value of the reflected light size is set to 5 ⁇ 5 pixels or more, and in the rear column (the E column and the F column), the threshold value of the reflected light size is set to 3 ⁇ 3 pixels or more.
  • Step. 2 the seat corresponding to the peak of the reflected light is identified using the correspondence table between the coordinates and the seats stored in the building structure information storage unit 155b shown in FIG. Furthermore, based on each threshold value stored in the hall structure information storage unit 155b, if reflected light having a size that satisfies the threshold value corresponding to each position is detected, it is determined that “there is a voyeur camera”.
  • the configuration in which one infrared camera 205 having a wide-angle lens that can capture the entire audience seat of the theater is attached to the front of the camera is described as an example.
  • the present invention is not limited to this. That is, in the present invention, the configuration of the infrared camera (infrared detector) is not particularly limited as long as it can capture the entire audience seat in the theater.
  • FIG. 12 shows another configuration example of the video display system of the present invention.
  • the video display screen of the video display system 1b shown in FIG. 12 includes a screen 203 (video display unit), five infrared light emitting units 204a to 204e (invisible light emitting unit), and three infrared cameras 205a to 205c ( Invisible light detection unit, infrared detection unit).
  • the video display screen of the video display system 1b differs from the video display screen of the video display system 1 shown in FIG. 1 in the configuration and arrangement position of the infrared light emitting units, and the number of infrared cameras is also different.
  • the video display screen of the video display system 1 shown in FIG. 1 has a configuration in which a plurality of light emitting areas 214 are provided in one infrared light emitting unit 204, but the video display system 1b has one infrared light emitting.
  • One infrared light emitting region is provided for the unit. In this way, five infrared light emitting units are provided, and each unit shares an irradiation area, so that it is possible to irradiate infrared rays with a predetermined intensity or more to every corner of the theater.
  • the intensity of infrared light emitted from the five infrared light emitting units 204a to 204e may be different from each other. Further, each of the infrared light emitting units 204a to 204e may be repeatedly turned on and off at the same cycle or different cycles.
  • an infrared camera 205a is installed at the top of the screen 203
  • an infrared camera 205b is installed on the right side of the screen 203
  • an infrared camera 205c is installed on the left side of the screen 203.
  • the third embodiment differs from the first and second embodiments in that an infrared light emitting unit that generates infrared light as noise that interferes with the original image, and an infrared light emitting that generates infrared light for detecting a voyeur camera.
  • the unit has a different configuration.
  • FIG. 13 is a rear view showing a schematic configuration of the screen 203b in the video display system according to the third embodiment.
  • the screen 203b according to the present embodiment detects a plurality of noise infrared light sources 304a that generate infrared rays as noise that interferes with the original image and a voyeur camera on the back side thereof.
  • the noise infrared light source 304a is, for example, an infrared LED with an output of 1.4 W.
  • the camera detection infrared light source 304b is, for example, a bullet-type infrared LED with an output of 0.14W.
  • an infrared camera 305 is disposed at the approximate center of the back surface of the screen 203b.
  • the wavelengths of the noise infrared light source 304a and the camera detection infrared light source 304b are, for example, about 870 to 940 nm.
  • the infrared camera 305 is preferably equipped with a visible range cut filter (short wavelength cut filter with a cutoff wavelength of 870 nm).
  • the camera detection infrared light source 304b has a total of 36 pieces of 6 in the vertical direction and 6 in the horizontal direction, with the infrared camera 305 substantially at the center, arranged at equal intervals in a square lattice shape.
  • two substrates 306 are provided on the rear surface of the screen 203b in order to attach the camera detection infrared light source 304b.
  • the two substrates 306 are arranged above and below the infrared camera 305, and are provided with a plurality of holes through which the camera detection infrared light source 304b passes. That is, the camera detection infrared light source 304b is supported in a square lattice pattern on the back surface of the screen 203b by two substrates 306.
  • the noise infrared light source 304a is provided in a total of nine in three columns and three rows.
  • the noise infrared light source 304 a is also supported by the substrate 306. Note that the noise infrared light source 304a has a larger output and generates a larger amount of heat than the camera detection infrared light source 304b, and therefore, a cooling fan is preferably provided on the back surface.
  • the infrared light emitted from the infrared light source 304a for noise and the infrared light source 304b for camera detection is emitted to the observer side through an acoustic hole provided in the screen 203b.
  • the arrangement interval ls of the square lattices May be set to, for example, 70 mm in accordance with the above-described equation (1).
  • the example shown in FIG. 13 is merely an example, and the number of infrared light sources and infrared cameras may be arbitrarily set according to the screen size and the like.
  • the infrared light source 304b for camera detection is arranged in a square lattice shape is shown, but as described in the first embodiment, a configuration in which the infrared light source 304b is arranged in a triangular lattice shape may be adopted.
  • the camera detection infrared light source 304b may be provided in a movable unit such as a scanner unit or a rotary unit. Further, if the noise infrared light source 304a is not extremely large, the noise infrared light source 304a can also be provided in the movable unit.
  • the infrared light source for noise 304a and the infrared light source for camera detection 304b can be controlled independently. It is preferable that the camera detection infrared light source 304b emits light at a timing when the noise infrared light source 304a does not emit light.
  • the infrared camera 305 detects reflected light in accordance with the timing at which the camera detection infrared light source 304b emits light. As described in the first embodiment, the infrared detection unit 140 receives reflected light from the voyeur camera and performs image processing.
  • the image processing unit 143 includes a labeling processing unit 255 instead of the area measuring unit 155. Then, as shown in FIG. 29, a labeling process (step S207) is performed instead of step S107.
  • the camera determination unit 156 determines the presence or absence of a voyeur camera by pattern matching processing.
  • the labeling process is a process of attaching the same label number to the connected white display pixels in the binarized image data.
  • the minimum coordinate and the maximum coordinate of the area formed by the connected white display pixels are obtained.
  • the minimum coordinate is a coordinate closest to the origin of the coordinate axis in an area formed by connected white display pixels.
  • the maximum coordinate means a coordinate farthest from the coordinate axis origin in the region.
  • the area measuring unit 155 assumes a rectangle having a diagonal line connecting the minimum coordinate and the maximum coordinate, and extracts grayscale data of a region corresponding to the rectangle from the infrared image data transmitted from the infrared light receiving unit 142. .
  • the pattern matching process is a process for comparing the result of the labeling process performed in step S207 with the template image.
  • the template image one or a plurality of rectangular images representing reflection from the infrared removal filter of the voyeur camera are prepared in advance.
  • the camera determination unit 156 performs pattern matching calculation on the grayscale data of the rectangular area extracted by the labeling process and the data of the template image, thereby reflecting the reflection from the infrared removal filter of the voyeur camera in the area. It is determined whether there is an image to represent.
  • an operation when pattern matching the grayscale data of the rectangular region extracted by the labeling process with the template image for example, a method for obtaining the sum of absolute values of luminance differences, a method for obtaining the sum of squares of luminance differences, Alternatively, there is a method using a normalized cross-correlation function, but the method is not limited thereto. Also, here, an example has been described in which an area from which grayscale data is extracted (that is, an area to be subjected to pattern matching processing to be described later) and a template image are rectangular. It is possible to set it as the area
  • a mask image for removing the determination unnecessary region from the image data is created, and the product of the image subjected to the binarization process and the mask image is taken before the labeling process in step S207. It is also preferable.
  • the determination unnecessary area refers to, for example, an area in which a voyeur camera cannot exist in a shooting area by an infrared camera.
  • the gradation value of the determination unnecessary area may be set to 0, for example.
  • the display quality of the shot image can be deteriorated. Therefore, if the present invention is used in a movie theater or the like, it is possible to prevent video content sneak shots and illegal distribution thereof.
  • the present invention it is possible to easily detect a person who intends to voyeur video content. Therefore, if the present invention is used in a movie theater or the like, it is possible to prevent sneak shots of video content.
  • the present invention can be used industrially as a video display screen and a video display system that can prevent voyeur video content and illegal distribution.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Overhead Projectors And Projection Screens (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

 再撮防止用の妨害画像としての非可視光を含む映像から該非可視光を除去して再撮しようとする者を容易に検出する。映像表示システム(1)は、映像を表示するスクリーン(203)と、映像とともに赤外線を観察者に対して照射する赤外線発光ユニット(204)と、観察者が有するビデオカメラ(特に、ビデオカメラに取り付けられた赤外線除去フィルタ)から反射された赤外線を検知する赤外線カメラ(205)とを備えている。赤外線発光ユニット(204)は、等間隔に配置された発光領域(214)を有している。

Description

映像表示スクリーンおよびこれを用いた映像表示システム
 本発明は、スクリーンや画像表示パネルに表示された映画などの画像コンテンツをビデオカメラなどの画像記録装置で再撮影する行為を防ぐための技術に関する。
 近年、デジタル画像表示装置やデジタルカメラ等の撮影装置の普及および高画質化が進み、低コストで高画質のコンテンツを視聴することが可能となっている。しかし一方で、スクリーンやディスプレイに表示された画像、動画像などのコンテンツをデジタルビデオカメラ等の撮影装置で撮影し、撮影したコンテンツを違法に流通させる行為(再撮影行為)が問題視されている。このように不正に撮影された海賊版DVDの流通は、著作権の保護に反するとともに、経済的な損失も非常に大きいため、対策が急がれている。
 この問題の対策として、電子透かし(watermark)により、表示前の画像コンテンツ(オリジナルの画像コンテンツ)に施設ID(上映されている施設の情報)や機器ID(上映している機器の情報)などを埋め込み、再撮され流通された後の画像コンテンツ(再撮された画像コンテンツ)から当該IDを検出することで、再撮が行われた施設や機器を特定する方法が提案されている。
 また、上記の方法とは異なる手段で再撮行為を防止する試みとして、映像表示とともに赤外線をスクリーンから観客席に対して照射するという方法が提案されている(例えば、特開2008-176195号公報、および特開2002-341449号公報を参照)。この方法は、赤外線は、人間の眼には認識されないが、CCD、CMOSイメージセンサなどを備えたコンテンツ記録装置(具体的には、例えば、ビデオカメラ)では可視光と同様に検出されるという、人間の視覚特性とカメラの撮像特性のとの違いを利用したものである。この技術によれば、映像を見ている観察者には、映像表示のみが視認される一方、盗撮用のカメラには、赤外線が映像を妨害する画像として記録されることになる。図14の(a)には、映像表示とともに赤外線をスクリーンから観客席に対して照射した場合に、その映像をカメラで撮影したときに得られる画像の一例を示す。この図に示すように、カメラで撮影した画像には、赤外線が白い妨害画像Aとして含まれることになる。
 このように、上記の方法によれば、再撮された映像を劣化させ、再撮画像の利用価値をなくすことができるため、映画館などでの盗撮を防止する手段として効果的な方法であると考えられる。
 しかしながら、上記の赤外線を使用した再撮行為の妨害方法では、例えば、赤外線除去フィルタなどのように赤外波長の光をほとんど透過させないフィルタをカメラの全面に配置することで、映像を妨害する効果が著しく低下してしまうという問題がある。上記のようなフィルタを使用したカメラで赤外線を含む表示映像を撮影した場合、得られる映像には赤外線に起因した映像がほとんど含まれず、再撮画像の利用価値をなくすことができない。図14の(b)には、赤外線が妨害画像として含まれる映像を、赤外線除去フィルタが取り付けられたカメラで撮影した場合に得られる画像の一例を示す。この図に示すように、赤外線除去フィルタの作用によって、赤外線による妨害画像が取り除かれ、撮影された画像がコンテンツとしての価値を保ち続けることになる。
 本発明は、上記の問題点に鑑みてなされたものであり、非可視光を含む映像から該非可視光を除去して再撮しようとする者を容易に検出する技術を提供することを目的とする。
 上記の課題を解決するために、以下に開示する映像表示スクリーンは、映像を表示する映像表示部と、映像とともに可視光以外の光を観察者に対して照射する非可視光発光部と、上記観察者が有する撮影装置から反射された上記可視光以外の光を検知する非可視光検知部とを備える。また、前記非可視光発光部は複数の発光領域を有し、前記複数の発光領域のうち前記非可視光検知部による検知に寄与する発光領域が等間隔に配置されている。
 ここで、可視光以外の光とは、380nmから780nmまでの可視光波長帯に含まれない光のことであり、具体的には、赤外光または紫外光のことである。このような可視光以外の光は、人間の眼には認識されないが、CCD、CMOSイメージセンサなどを備えた撮影装置(具体的には、例えば、ビデオカメラ)では可視光と同様に検出される。
 上記の構成によれば、映像表示部に映像が表示されている期間中に、人間の眼には認識されないが、ビデオカメラなどの撮影装置には可視画像として記録される可視光以外の光を映像とともに観察者に対して照射することができる。これにより、観察者が盗撮用のビデオカメラを所持していた場合には、撮影された画像コンテンツ中には、可視光以外の光がオリジナルの映像を妨害する画像(再撮防止信号)として付加されることになり、再撮された画像の表示品質を劣化させることができる。なお、発光部から照射される光は可視光ではないので、人間の目には、オリジナルの映像のみが映像表示部に表示されているように見える。
 また、複数の発光領域のうち前記非可視光検知部による検知に寄与する発光領域が等間隔に配置されていることにより、非可視光検知部において、非可視光発光部から照射された光のうち、観察者が有する撮影装置で鏡面反射された成分を効果的に検知することができる。
 上記の構成によれば、映像の表示品質を落とすことなく、観察者が有する撮影装置によって再撮された映像の表示品質を劣化させることができる。さらに、観察者が映像表示スクリーンから照射される非可視光を除去しながら再撮を試みた場合には、観察者の撮影装置から反射される非可視光を容易に検知することができる。したがって、再撮行為を抑制するという効果が得られる。
図1は、本発明の一実施の形態にかかる盗撮防止用映像表示システムの機能構成を示すブロック図である。 図2は、本発明の一実施の形態にかかる盗撮防止用映像表示システムの概略構成を示す模式図である。 図3は、図1に示すシステムにおいて、盗撮用のカメラに妨害画像を加える方法、および、盗撮用のカメラを検知する方法を説明するための模式図である。 図4は、図1は、本発明の一実施の形態にかかる盗撮防止用映像表示システムの概略構成を示す模式図である。 図5において、(a)および(b)は、赤外線発光ユニットにおける赤外LEDの好ましい配置例を示す模式図である。 図6は、赤外線発光ユニットにおける赤外LEDの好ましい配置間隔を説明するための模式図である。 図7は、可動式の発光領域を備えた赤外線発光ユニットの一例を示す模式図である。 図8は、可動式の発光領域を備えた赤外線発光ユニットの他の例を示す模式図である。 図9は、本発明の一実施の形態にかかる盗撮防止用映像表示システム内の赤外線検知部に備えられた画像処理部の機能構成を示すブロック図である。 図10において、(a)は、階調値80で2値化処理を行ったときの処理前の画像と処理後の画像を比較して示す図である。(b)は、階調値250で2値化処理を行ったときの処理前の画像と処理後の画像を比較して示す図である。 図11は、スクリーンから観客席までの距離Lと、カメラ判定部においてカメラの有無を判定するための面積の閾値Tとの関係を説明するための模式図である。 図12は、本発明の盗撮防止用映像表示システムの他の構成例を示す模式図である。 図13は、本発明の盗撮防止用映像表示システムのさらに他の構成例における、スクリーンの概略構成を示す背面図である。 図14において、(a)は、映像表示とともに赤外線をスクリーンから観客席に対して照射した場合に、その映像をカメラで撮影したときに得られる画像の一例を示す模式図である。(b)は、赤外線が妨害画像として含まれる映像を、赤外線除去フィルタが取り付けられたカメラで撮影した場合に得られる画像の一例を示す模式図である。 図15は、盗撮カメラの位置推定の一つの方法において、光源A、カメラB、および、反射物Cの位置関係を示す模式図である。 図16は、盗撮カメラの位置推定の一つの方法において行われる処理の流れを示すブロック図である。 図17は、盗撮カメラの位置推定の他の方法を行う場合における盗撮防止用映像表示システム内の赤外線検知部に備えられた画像処理部の機能構成を示すブロック図である。 図18は、図17に示す画像処理部内において行われる盗撮カメラの位置推定の第1の方法を説明するための模式図である。 図19は、図17に示す画像処理部内において行われる盗撮カメラの位置推定の第1の方法を説明するための模式図である。 図20は、図17に示す画像処理部内において行われる盗撮カメラの位置推定の第2の方法を説明するための模式図である。 図21は、図17に示す画像処理部内において行われる盗撮カメラの位置推定の第2の方法を説明するための模式図である。 図22は、図17に示す画像処理部内において行われる盗撮カメラの位置推定の第3の方法を説明するための模式図である。 図23は、図17に示す画像処理部内において行われる盗撮カメラの位置推定の第3の方法を説明するための模式図である。 図24は、図23に示す方法の第1の変形例を示す模式図である。 図25は、図23に示す方法の第2の変形例を示す模式図である。 図26は、図9に示す画像処理部内において行われる画像処理の流れを示すフローチャートである。 図27において、(a)は、連続する複数画像フレームの一部において鏡面反射物が検知されない場合、(b)は、連続する複数画像フレームにおいて鏡面反射物の位置が時間毎に微少にずれる場合、(c)は、連続する複数画像フレームにおいて、鏡面反射物が互いに異なる小領域の集合として検知されている場合、をそれぞれ表す模式図である。 図28は、第3の実施形態にかかる映像表示システムにおける画像処理部の構成を示すブロック図である。 図29は、第3の実施形態にかかる映像表示システムの画像処理部内において行われる画像処理の流れを示すフローチャートである。
 本発明の一実施形態にかかる映像表示スクリーンは、映像を表示する映像表示部と、映像とともに可視光以外の光を観察者に対して照射する非可視光発光部と、上記観察者が有する撮影装置から反射された上記可視光以外の光を検知する非可視光検知部とを備え、前記非可視光発光部は複数の発光領域を有し、前記複数の発光領域のうち前記非可視光検知部による検知に寄与する発光領域は等間隔に配置されている。
 この構成により、非可視光検知部において、非可視光発光部から照射された光のうち、観察者が有する撮影装置で鏡面反射された成分を効果的に検知することができる。
 前記非可視光検知部による検知に寄与する発光領域は、正方格子状に配置されていることが好ましい。この場合、前記観察者が有する撮影装置の反射部が正方形であり、前記反射部の一辺の長さをd、前記正方格子における発光領域の配置間隔をlsとすると、
Figure JPOXMLDOC01-appb-M000005
が成り立つことがより好ましい。あるいは、前記観察者が有する撮影装置の反射部が円形であり、前記反射部の直径をd、前記正方格子における発光領域の配置間隔をlsとすると、
Figure JPOXMLDOC01-appb-M000006
が成り立つことも好ましい。
 あるいは、前記複数の発光領域が三角格子状に配置された構成としても良い。この場合、前記観察者が有する撮影装置の反射部が正方形であり、前記反射部の一辺の長さをd、前記三角格子における発光領域の配置間隔をltとすると、
Figure JPOXMLDOC01-appb-M000007
が成り立つことが好ましい。あるいは、前記観察者が有する撮影装置の反射部が円形であり、前記反射部の直径の長さをd、前記三角格子における発光領域の配置間隔をltとすると、
Figure JPOXMLDOC01-appb-M000008
が成り立つことも好ましい。
 前記非可視光発光部が、前記発光領域が配置された可動式部材を有する構成としても良い。この場合、発光領域の数を減らすことができる。例えば、前記可動式部材が、映像表示部に対して垂直方向および水平方向のいずれか一方に往復移動可能に設けられた構成としても良い。あるいは、前記可動式部材が、回転可能に設けられた構成としても良い。
 本発明の一実施形態にかかる映像表示スクリーンは、上記の課題を解決するために、映像を表示する映像表示部と、映像とともに可視光以外の光を観察者に対して照射する非可視光発光部と、上記観察者が有する撮影装置から反射された上記可視光以外の光を検知する非可視光検知部とを備えている。
 さらに、上記の映像表示スクリーンには、映像表示スクリーンを劇場内などで観賞する観察者が有する撮影装置から反射された可視光以外の光を検知する非可視光検知部が備えられていることが好ましい。
 このように、映像とともにその映像を妨害するための非可視光が観察者に対して照射されるような映像表示スクリーンを備えた劇場において盗撮を試みる場合には、盗撮者は、映像を妨害するための非可視光(再撮防止信号)を除去するために、赤外線反射フィルタまたは赤外線吸収フィルタなどの非可視光除去フィルタ(赤外線除去フィルタ)をカメラの前面に設けることが想定される。上記非可視光除去フィルタは、多くの非可視光を反射する。そのため、上記非可視光検知部には、盗撮用の撮影装置からの反射光が比較的強い強度で検知される。したがって、上記非可視光検知部が設けられていることで、撮影装置の存在を容易に確認することができる。
 このように、本実施形態の映像表示スクリーンによれば、映像表示部に表示される映像の表示品質を落とすことなく、観察者が有する撮影装置によって再撮された映像の表示品質を劣化させることができる。さらに、観察者が映像表示スクリーンから照射される非可視光を除去しながら再撮を試みた場合には、非可視光検知部によって、観察者の撮影装置から反射される非可視光を容易に検知することができる。したがって、再撮行為を防止する効果をより向上させることができる。
 本実施形態の映像表示スクリーンにおいて、上記可視光以外の光は、赤外線であり、上記非可視光検知部は、赤外線を検知する赤外線検知部であってもよい。
 可視光以外の光が赤外線であれば、人体に悪影響を与えることなく、人間には視認不可能であり、かつ、ビデオカメラなどの撮影装置には映像を妨害する画像として感知させることができる。また、赤外線検知部として、例えば、赤外線カメラ、フォトダイオードなどを用いることで、ビデオカメラなどの撮影装置からの反射光を容易に検出することができる。
 本実施形態の映像表示スクリーンにおいて、上記赤外線検知部は、赤外線カメラであってもよい。
 上記の構成によれば、赤外線検知部が赤外線カメラであることにより、検知した赤外線の強度に応じた画像を得ることができる。なお、ここでいう赤外線カメラとは、少なくとも赤外領域の光を検知することが可能なもののことを意味する。すなわち、赤外線カメラには、赤外領域の光のみを検知することができるもの以外に、赤外領域+可視領域の光を検知して画像データを形成することができるものなども含まれる。
 本実施形態の映像表示スクリーンにおいて、上記赤外線検知部は、赤外線を遮断する部材からの反射光を検知するものであってもよい。
 ここで、赤外線を遮断する部材とは、赤外線の透過を防ぐ機能を有する部材である。この赤外線を遮断する部材は、上記観察者が有する撮影装置(盗撮用のカメラ)の前面に設けることで、赤外線を含む映像表示を行う映像表示スクリーンの映像から、赤外線を除去して映像のみを撮影することができるものである。
 このような赤外線を遮断する部材として具体的には、赤外線反射フィルタまたは赤外線吸収フィルタなどが挙げられる。このようなフィルタを再撮用のカメラの前面に設けていると、赤外線を多く反射するため、上記赤外線検知部は、閾値以上の強度の赤外光を受光した場合に反射光ありと判定することで、上記の赤外線を遮断する部材からの反射光を選択的に検知することができる。
 本実施形態の映像表示スクリーンにおいて、上記非可視光発光部は、上記映像表示部に映像が表示されている期間中、点灯と消灯とを繰り返してもよい。
 上記の構成によれば、映像表示部から可視光以外の光が点滅しながら発せられる。これにより、非可視光発光部からの光が、ビデオカメラなどの撮影装置で撮影した画像中に点滅しながら入り込むことになる。このように、本来の映像とは異なる光が点滅しながら表示されると、人間の視角にはより目立って認識される。したがって、上記の構成によれば、撮影画像の表示品質をより大きく低下させることができる。
 本発明の一実施形態にかかる映像表示システムは、上記の課題を解決するために、上記の何れかの映像表示スクリーンと、デジタル映像信号に基づいて表示画像を生成し、該表示画像を上記映像表示スクリーンに投射する画像形成部とを有する。
 本実施形態の映像表示システムによれば、映像表示部に表示される映像の表示品質を落とすことなく、観察者が有する撮影装置によって再撮された映像の表示品質を劣化させることができる。さらに、観察者が映像表示スクリーンから照射される非可視光を除去しながら再撮を試みた場合には、非可視光検知部によって、観察者の撮影装置から反射される非可視光を容易に検知することができる。したがって、再撮行為を防止する効果をより向上させることができる。
 ここで、可視光以外の光とは、380nmから780nmまでの可視光波長帯に含まれない光のことであり、具体的には、赤外光または紫外光のことである。このような可視光以外の光は、人間の眼には認識されないが、CCD、CMOSイメージセンサなどを備えた撮影装置(具体的には、例えば、ビデオカメラ)では可視光と同様に検出される。
 上記の構成によれば、映像表示部に映像が表示されている期間中に、人間の眼には認識されないが、ビデオカメラなどの撮影装置には可視画像として記録される可視光以外の光を映像とともに観察者に対して照射することができる。これにより、観察者が盗撮用のビデオカメラを所持していた場合には、撮影された画像コンテンツ中には、可視光以外の光がオリジナルの映像を妨害する画像(再撮防止信号)として付加されることになり、再撮された画像の表示品質を劣化させることができる。なお、発光部から照射される光は可視光ではないので、人間の目には、オリジナルの映像のみが映像表示部に表示されているように見える。
 [第1の実施形態]
 以下、本発明のより具体的な実施形態について、図面を参照しながら説明する。なお、ここで説明する具体例は本発明の一例であり、本発明はこれに限定されるものではない。
 人間の視覚には赤外線や紫外線などの可視光以外の光は認知されないのに対して、再撮に用いられるデジタルカメラおよびデジタルビデオカメラなどの撮像素子であるCCDおよびCMOSイメージセンサでは、素子そのものの特性や製品の仕様により、赤外線や紫外線などの可視光領域以外の波長も映像として検知される。そして、映画館などのスクリーンにおいて映像を表示しているときに、画像表示面から人間による知覚が困難な波長の光を再撮防止信号として同時に照射することで、ビデオカメラなどによって再撮された画像コンテンツ中に上記再撮防止信号を知覚可能な信号として取り込むことが可能になる。これにより、ビデオカメラが取り込んだ画像コンテンツを再生した場合には、再撮防止信号に基づく画像がオリジナルの映像を妨害するノイズとして見えるため、再撮された画像コンテンツの品質を劣化させることができる。
 しかしながら、赤外線遮断フィルタなどのフィルタをビデオカメラのレンズの前面に配置すると、特定の波長の光(例えば、可視光)のみを選択的に透過し、それ以外の光(例えば、赤外線や紫外線などの可視光以外の光)については遮断することができる。このようなフィルタは、市販品として入手可能である。
 そのため、ビデオカメラに赤外線遮断フィルタなどを取り付けた状態で、上記の再撮防止信号が含まれる映像表示を撮影した場合には、再撮防止信号がカメラから遮断され、再撮防止信号がほとんど含まれず品質の劣化が生じない映像が入手されてしまうことになる。
 可視光のみを選択的に透過し、可視光以外の光を遮断する上記のようなフィルタは、可視光以外の光を多く反射する作用がある。したがって、再撮防止信号が含まれる映像を表示することのできる劇場内において、可視光以外の光を検知するカメラなどを設けることにより、可視光を遮断するフィルタが取り付けられたビデオカメラを容易に検知することができる。
 本実施の形態では、デジタル画像コンテンツを基にして、映画館や劇場などにおいて映画などの映像を上映する映像表示システムについて説明する。本実施の形態の映像表示システムでは、劇場で上映されている映画などの画像コンテンツがデジタルビデオカメラなどによって撮影された場合に、撮影された画像コンテンツの表示品質を視聴不可能な程度に劣化させることで、再撮後の画像コンテンツが不正に流通することを防ぐことができる。
 さらに、本実施の形態の映像表示システムには、赤外線除去フィルタなどを取り付けたデジタルビデオカメラから反射された赤外線を検知するための赤外線カメラが備えられており、赤外線による画像品質の劣化を回避しながら盗撮を行おうとするカメラの存在を検知することもできる。
 つまり、本実施の形態の映像表示システムは、盗撮を防止し、かつ、盗撮者を検知するための機能を有している盗撮防止用の映像表示システム(盗撮検知システム)である。
 (映像表示システムの概略構成について)
 図2には、本実施の形態にかかる映像表示システム1の概略構成を示す。映像表示システム1は、映像再生機201、プロジェクタ202(画像形成部)、スクリーン203(映像表示部)、赤外線発光ユニット204(非可視光発光部、発光制御部)、および赤外線カメラ(非可視光検知部、赤外線検知部)205で構成されている。なお、本実施形態では、スクリーン203、赤外線発光ユニット204、および赤外線カメラ205が、映像表示スクリーンを構成する。
 映像再生機201は、外部から取り込んだ画像コンテンツを一旦格納した後、画像形成を可能にするためのデコード処理を行い、処理後のデジタル映像信号をプロジェクタ202へ送信する。映像再生機201の構成については、従来公知のデジタル映像再生装置の構成を適用することができる。なお、本実施の形態のような映像表示システム1では、映像再生機201によって再生される画像コンテンツは、複数の画像フレームで構成されている画像コンテンツ(動画コンテンツ)が一般的であるが、本発明では必ずしもこれに限定はされない。つまり、画像コンテンツは、静止画像のコンテンツであってもよい。
 プロジェクタ202は、映像再生機201から送信されたデジタル映像信号に基づいて、内蔵された表示素子において表示画像を形成し、さらに形成された画像を、内蔵された投射光学系を用いてスクリーン203に投射させる。プロジェクタ202の構成については、従来公知の前面投射型の画像表示装置の構成を適用することができる。
 スクリーン203は、プロジェクタ202から投射された画像を表示する。
 赤外線発光ユニット204は、スクリーン203の背面側に配置されており、スクリーン203に映像が表示されている期間中、赤外光を前面側に発光する。ここで、スクリーン203の背面側とは、画像が表示される面(観察者または観客席と対向している面)とは反対側のことであり、スクリーン203の前面側とは、画像が表示される側(観察者がいる側)のことである。
 赤外線カメラ205は、波長780nm以上の赤外領域の光を主に検知して画像を形成する。赤外線カメラ205は、上記の赤外線発光ユニット204から照射された赤外線のうち、盗撮用のビデオカメラに取り付けられた赤外線除去フィルタなどによって反射された赤外線を検知するために設けられている。
 なお、赤外線カメラ205は、赤外領域の光のみを検知することができるものに限定されず、ビデオカメラのナイトショット機能のように赤外領域+可視領域の光を検知して画像データを形成することができるものであってもよい。すなわち、ここでいう赤外線カメラ205とは、少なくとも赤外領域の光を検知することが可能なカメラのことをいう。
 ここで、スクリーン203および赤外線発光ユニット204の具体的な構成について、以下に説明する。
 スクリーン203は、映画館において映像を表示する従来の一般的なスクリーンと同様の構成である。なお、従来の一般的なスクリーンは、多数の小さな穴(1mm程度の穴)を有する幕の表面に白い塗料が塗布されて、画像表示面203aが形成されている。
 また、赤外線発光ユニット204は、上記のようにスクリーン203の背面側に配置されている。さらに、本実施の形態では、赤外線発光ユニット204は、スクリーン203の画像表示領域203aのほぼ中央部に対応する位置に配置されている。図2に示すように、赤外線発光ユニット204には、縦3個×横3個の計9個の赤外光発光領域214が存在する。なお、ここに図示した赤外光発光領域214の個数はあくまでも一例であって、より多くの発光領域を設けることも可能である。各赤外光発光領域214には、赤外LEDが設けられている。赤外LEDとしては、例えば、波長780nm付近の波長帯の光を発するもの(これを780nmのLEDとする)、波長850nm付近の波長帯の光を発するもの(これを850nmのLEDとする)などが挙げられる。また、赤外線発光ユニット204から照射される赤外線は平行光に近いことが好ましい。これにより、赤外線の強度を強くすることができる。
 上記の構成により、図3に示すように、赤外線発光ユニット204から発せられた赤外光は、スクリーン203に設けられた音響用の穴を通過して、観察者(観客席)に向かって照射される。
 なお、赤外LEDから照射される光には、赤外領域に近い可視光領域の光が含まれることがある。そのため、赤外線発光ユニット204の光照射面に、可視光カットフィルタを配置してもよい。ここで使用する可視光カットフィルタは、従来公知のものでよい。特に、780nmのLEDは、より可視光領域に近い波長帯の光を発するため、可視光カットフィルタとともに利用することが望ましい。これにより、ビデオカメラなどのコンテンツ記録装置では検知されるが、観客席にいる人の目には視認されない赤外線発光ユニットを実現することができる。
 (赤外線発光ユニットにおける発光領域の配置について)
 ここで、赤外線発光ユニット204における発光領域(赤外LED)214の好ましい配置例について説明する。
 図4に示すように、赤外線カメラ205は、赤外線発光ユニット204(図4には図示せず)の発光領域(赤外LED)214から出射され、盗撮用のカメラに設けられた赤外線除去フィルタ131で鏡面反射された赤外光を検知する。赤外線カメラ205において鏡面反射光を安定的に検知するためには、赤外線発光ユニット204において複数の発光領域214を等間隔に配置することが好ましい。なお、本発明の実施形態においては、赤外線カメラ205は、1台であっても良いし、複数台配置されていても良いが、ここでは、説明の便宜上、赤外線カメラ205は1台であるものとする。
 図5(a)および図5(b)に、赤外線発光ユニット204における発光領域214の好ましい配置例を示す。すなわち、図5(a)に示すように、複数の発光領域214を正方格子状に配置しても良いし、図5(b)に示すように三角格子状に配置しても良い。これらのいずれの例においても、複数の発光領域214は等間隔に配置されている。なお、赤外線発光ユニット204における発光領域214の配置は、正方格子状および三角格子状に限定されず、その他の様々な配置態様をとり得る。また赤外線発光ユニット204の配置は、スクリーンの裏側に限らなくてもよい。
 赤外線発光ユニット204における発光領域214の配置間隔は、検知対象物である赤外線除去フィルタのサイズに依存する。市販の赤外線除去フィルタとして入手可能なフィルタの形状は、一般的に、正方形または円形である。ここで、これらの代表的な2つのフィルタ形状(正方形、円形)について、正方形フィルタの一辺の長さおよび円形フィルタの直径をそれぞれdとした場合の、発光領域214の正方格子および三角格子の配置間隔lsおよびlt(図5(a)および図5(b)参照)について考察する。
 図6は、赤外線発光ユニット204における発光領域214および赤外線カメラ205と、盗撮用のカメラに設けられた赤外線除去フィルタ131との位置関係を表した図である。長さdの赤外線除去フィルタ131(図6に示す線分QP)による鏡面反射を経由して、赤外線カメラ205(図6に示す点O)で反射光を検知する場合を想定する。鏡面反射の場合は赤外光の入射角と反射角とは線分QPに対して同じ角度となるので、長さ2dの領域(線分SR)内に少なくとも1つの発光領域214を配置することが必要となる。これを、一辺の長さdの正方形フィルタと直径dの円形フィルタの場合にあてはめると、一辺の長さ2dの正方形領域(または直径2dの円形領域)に少なくとも1つの発光領域214を配置できるように、正方格子の配置間隔ls(または三角格子の配置間隔lt)を決定する必要がある。盗撮者が赤外線除去フィルタ131を盗撮用のカメラに取り付ける際に、赤外線除去フィルタ131をその中心周りで任意に回転させる可能性を考慮すると、直径2dの円形領域に基づいて配置間隔を決定すれば良い。したがって、正方格子の配置間隔ls(または三角格子の配置間隔lt)は、それぞれ直径2dの円に内接する正方形(または正三角形)の一辺の長さ以下にすれば良い。以上より、正方格子の配置間隔lsおよび三角格子の配置間隔ltのそれぞれは、以下を満たすことが好ましい。
Figure JPOXMLDOC01-appb-M000009
Figure JPOXMLDOC01-appb-M000010
 なお、盗撮者は、映像フレームが撮影画面に大きく映るように、かつ、歪みの少ない状態で撮影されるように、盗撮用のカメラを配置すると考えられる。この場合、盗撮用のカメラの赤外線除去フィルタは、フィルタ面の法線ベクトルが、映像表示スクリーンの中心部分に向くと想定される。したがって、赤外線カメラ205を映像表示スクリーンの裏面の中央位置に設置した場合、発光領域214を、赤外線カメラ205を中心とした一定の範囲に、上述の配置間隔にしたがって配置することが好ましい。発光領域214を配置する領域の大きさ(赤外LEDの個数)については、映像表示スクリーンのサイズや撮影環境に応じて任意に決定することができる。また、複数の赤外線カメラ205を設置する場合も、上述したものと同じ理由により、それぞれの赤外線カメラ205を中心とした一定の範囲に、上述の配置間隔にしたがって発光領域214を配置することが好ましい。
 また、図2の例では、複数の赤外線発光領域(赤外LED)214が固定された赤外線発光ユニット204を示したが、可動式の赤外LEDによって赤外線発光ユニット204を構成することも可能である。
 ここで、図7および図8に、可動式の赤外LEDによって構成される赤外線発光ユニット204の実施例を示す。図7に示す例では、複数の赤外線発光領域(赤外LED)214を水平方向一列に等間隔に並べて配置したスキャナ式ユニットとして、赤外線発光ユニット204が構成されている。このスキャナ式の赤外線発光ユニット204は、スクリーン203の垂直方向に往復移動可能に構成されている。この構成によれば、赤外線発光ユニット204の可動領域401に複数の赤外LEDを配置した場合と同じ効果が得られる。なお、図7ではスキャナ式の赤外線発光ユニット204が垂直方向に往復移動可能としたが、水平方向にスキャンする構造としても良い。
 図8に示す例では、複数の赤外線発光領域(赤外LED)214を一列に等間隔に並べて配置した回転式ユニットとして、赤外線発光ユニット204が構成されている。この回転式の赤外線発光ユニット204は、その中央部が支持部材206によって回転可能に支持されている。したがって、図8に示す赤外線発光ユニット204は、支持部材206の支持点を中心に回転した場合、図8に破線で示す領域402内に複数の赤外LEDを配置した場合と同じ効果が得られる。以上のとおり、図7および図8に示したような、可動式の赤外LEDによって構成される赤外線発光ユニット204によれば、赤外LEDの必要個数が少なくて済む。これにより、消費電力が抑制され、かつ、メンテナンスも容易となるという効果が得られる。
 (映像表示システム1内の各機能について)
 続いて、映像表示システム1において、映像を表示するための構成、再撮された画像の品質を劣化させるための構成、および、盗撮用のカメラを検知するための構成についてそれぞれ説明する。図1は、映像表示システム1内の各装置の構成を示す機能ブロック図である。
 図1に示すように、映像表示システム1内には、スクリーン203に映像を表示するためのコンテンツ表示部110と、再撮された画像の表示品質を劣化させるための再撮防止信号出力部120と、盗撮用のカメラを検知するための赤外線検知部140とが含まれている。
 コンテンツ表示部110には、コンテンツ格納部111、デコーダ112、および、コンテンツ出力部113が含まれている。
 コンテンツ格納部111は、外部から取り込んだ映画などの画像コンテンツを一時的に格納するためのものである。この場合、コンテンツ格納部111は、ハードディスクドライブや大容量メモリなどで実現される。但し、本発明では、コンテンツ格納部は上記のようなものに限定はされず、キャッシュや高速メモリなどといった、画像コンテンツの再生および表示中のバッファとして機能するものであってもよい。デコーダ112は、コンテンツ格納部111に格納された画像コンテンツを、プロジェクタ202の表示規格に適合するフォーマットにデコード処理する。コンテンツ出力部113は、デコード処理された画像コンテンツ(デジタル映像信号)から表示画像を形成し、スクリーン203の画像表示面(画像表示領域)203aに表示する。
 本実施の形態においては、コンテンツ表示部110内の各ブロックのうち、コンテンツ格納部111およびデコーダ112は、映像再生機201内にある。また、コンテンツ出力部113は、プロジェクタ202およびスクリーン203として実現される。
 上記したコンテンツ表示部110については、公知の映像表示システムと同様の構成を適用することができる。
 再撮防止信号出力部120には、コンテンツ解析部121(画像解析部)、信号制御部122(発光制御部)、信号出力パターン格納部123(発光制御部)、および、信号発生部124(発光部)が含まれている。
 コンテンツ解析部121は、コンテンツ表示部110から取り出した画像コンテンツ(デジタル映像信号)の空間的特徴量および時間的特徴量を解析する。すなわち、複数の画像フレームで構成されている画像コンテンツについて、フレームごとに各画素の明るさ(階調値)を解析する。これにより、一連の映像において、どの時点(どのフレーム)でどの領域がどの程度の明るさであるかという空間的特徴量および時間的特徴量に関する画像情報が得られる。なお、コンテンツ解析部121に送信されるデジタル映像信号は、デコーダ112において処理された映像信号である。
 信号制御部122では、コンテンツ解析部121で得られた画像情報に基づいて、ある特定の画像フレームが表示されている時点での、赤外線発光ユニット204における発光強度を制御する。このとき、発光強度の制御は、信号出力パターン格納部123に格納されている情報を参照しながら行われる。
 なお、信号出力パターン格納部123には、信号発生部124が出力する赤外光(再撮防止信号)の強度や信号発生のON/OFFパターンなどが格納されている。具体的には、画像フレームにおける各画素の平均階調値と、そのときの赤外線発光ユニット204の発光強度(赤外LEDの電流値とほぼ比例)とが対応付けて格納されている。これにより、信号制御部122では、信号出力パターン格納部123に格納されている信号発生パターンを参照しながら、信号発生部124における赤外LEDの発光状態を制御することができる。
 信号発生部124は、信号制御部122からの指示に応じて再撮防止信号である赤外光の出力のON/OFFを行うとともに、その強度を変化させる。
 本実施の形態においては、再撮防止信号出力部120内の各ブロックのうち、コンテンツ解析部121、信号制御部122、および、信号出力パターン格納部123は、映像再生機201内にある。また、信号発生部124は、赤外線発光ユニット204に相当する。
 上記のように、コンテンツ解析部121、信号制御部122、および、信号出力パターン格納部123が設けられていることにより、画像コンテンツの性質に合わせて、赤外線発光ユニット204における赤外線の発光強度や発光パターンを制御することができる。また、赤外線発光ユニット204の各発光領域214からそれぞれ異なる発光強度の赤外線が照射されるように制御することもできる。
 但し、本発明では、画像コンテンツの性質に合わせた発光強度および発光パターン(点灯と消灯の周期)の変更は必ずしも必要ではなく、予め決められた発光強度および発光パターンで赤外線発光ユニット204における発光の制御を行ってもよい。これにより、再撮防止信号出力部120における処理量を軽減させることができる。このように、発光の制御を予め決められたパターンで行う場合には、赤外線発光ユニット204に発光制御部を取り付け、スクリーン203に映像が表示されている期間中、画像コンテンツの内容とは無関係に一定の発光強度および発光パターンで赤外線を出力させればよい。
 本実施の形態の映像表示システム1は、上記のような構成を有していることによって、スクリーン203の画像表示面から観察者に向かって映像とともに赤外光を照射することができる(図3参照)。人間の目は赤外光を認識しないため、赤外光を含む映像がスクリーンに映し出されても、通常の映像と何ら変わることのない映像が表示されているように認識される。これに対して、再撮に使用されるビデオカメラ130(130a・130b)は、赤外光も検知するCCDまたはCMOSイメージセンサを受光素子として有している。そのため、赤外光を含む映像を撮影すると、スクリーンから照射された赤外光も人間が視認可能な画像として取り込まれる。
 なお、本実施の形態の映像表示システム1では、可視光以外の光を発する発光部として、赤外LEDを光源とする発光ユニットを用いているが、本発明はこの構成に限定されない。赤外光を発する光源として、LED以外の赤外光源を使用してもよい。また、可視光以外の光としては、波長780nm以上の赤外線に限定はされず、波長380nm以下の紫外線であってもよい。但し、紫外線は人体に対して有害であるため、映画館などの公共の施設で映像表示システム1を使用する場合には、赤外光を発する発光部を用いることが好ましい。また、発光ユニットから照射される可視光以外の光が紫外線の場合には、非可視光検知部は、赤外線検知部140の代わりに、紫外線検知部が用いられる。紫外線検知部の具体例としては、紫外線カメラなどが挙げられる。
 図3には、映像表示システム1において、盗撮用のカメラに妨害画像を加える方法、および、盗撮用のカメラを検知する方法を模式的に示す。なお、図2に示す映像表示システム1では、赤外線カメラ205がスクリーン203の上部に設けられていたが、ここでは、赤外線カメラ205がスクリーン203の背面に設けられている構成を示す。また、図2に示す映像表示システム1では、赤外線発光ユニット204はスクリーン203の中央部に1つ設けられていたが、ここでは、2つの赤外線発光ユニットが、スクリーンの上部と下部にそれぞれ設けられている構成を示す。本発明では、これらの構成について特に限定はされず、場合に応じて適宜変更することができる。
 また、図3では、スクリーン203に表示された映像を再撮しようとする者(観察者または再撮行為者とも呼ぶ)が用いる盗撮用のカメラ(撮影装置)130(130a・130b)を示す。図3に示す2台の盗撮用のカメラ130a・130bのうち、カメラ130aは、赤外線除去フィルタ(非可視光(特に赤外線)を遮断する部材)131が取り付けられたビデオカメラであり、カメラ130bは、赤外線除去フィルタが取り付けられていない通常のビデオカメラである。
 まず、盗撮用のカメラに妨害映像を加える方法について説明する。
 映像表示システム1では、スクリーン203に表示画像aが映し出されている期間中、同時に、赤外線発光ユニット204から赤外線bが再撮防止信号として発せられる。赤外線発光ユニット204から発せられた赤外線bは、スクリーン203に設けられた音響用の穴を通過して、観察者(観客席)に向かって照射される。
 そして、カメラ130bを使用して画像コンテンツの再撮を行った場合には、カメラの受光部(レンズ)に、表示画像aおよび赤外線bが入射する。カメラ130bの受光素子は、可視光および赤外光に受光感度を有するため、図14の(a)に示すように、記録された画像コンテンツ内には、赤外線に起因した画像が妨害画像Aとして含まれる。これにより、映像表示システム1では、再撮された画像の表示品質を劣化させ、利用価値を低下させることができるため、映像コンテンツの不正流通を目的とするビデオカメラの撮影を防止することができる。
 一方、赤外線除去フィルタ131が取り付けられたカメラ130aを使用して画像コンテンツの再撮を行った場合には、表示画像aについては赤外線除去フィルタ131を通過して受光部に入射するが、赤外線bについては赤外線除去フィルタ131によって大部分が反射されるため受光部にはほとんど入射しない。そのため、図14の(b)に示すように、記録された画像コンテンツ内には妨害画像が含まれず、ある程度の視認可能な画像となる。
 このように、再撮行為者が、ビデオカメラに赤外線除去フィルタなどを取り付け、赤外領域の光を遮断して撮影を行った場合には、赤外線発光ユニット204から発せられる再撮防止信号の効果が低減してしまう。そこで、このようなビデオカメラの存在を検知するために、本実施の形態の映像表示システム1には、赤外線検知部140が設けられている。
 (赤外線検知部について)
 以下に、赤外線検知部140の構成について説明する。
 赤外線検知部140には、広角レンズ141、赤外線受光部142、および、画像処理部143などが含まれている。
 広角レンズ141は、赤外線受光部142が広範囲からの反射光を受光できるようにするためのものである。通常、広角レンズ141は、画角が63度以上である。この広角レンズ141が設けられていることにより、劇場内の全ての観客席からの反射光を受光することができる。
 赤外線受光部142は、CCDまたはCMOSイメージセンサを受光素子として備えている。この受光素子は、可視領域だけではなく、紫外および赤外領域の波長の光に対しても受光感度を有する。そのため、受光素子の受光面には可視光カットフィルタなどの光学フィルタが設けられており、この光学フィルタによって紫外領域および可視領域の波長の光を除去した後、受光素子に取り込まれ、当該素子が取得したデータに基づいて画像を形成する。なお、前記のフィルタは特定の波長の光のみ通過させるフィルタであってもよく、また、特定の波長のみを除去するフィルタであってもよい。
 画像処理部143は、盗撮用のビデオカメラをより確実に認識するために、赤外線受光部142によって取り込まれた画像に対して処理を施す。ここで行われる画像処理の詳細については、後述する。
 本実施の形態においては、赤外線検知部140は赤外線カメラ205で実現される。なお、画像処理部143については、赤外線カメラ205とは別体のPCなどの専用の画像処理装置で実現してもよい。
 本実施の形態の映像表示システム1は、上記のような赤外線検知部140を有していることによって、図3に示すように、赤外線による妨害画像を除去するために赤外線除去フィルタ131をカメラ130aに取り付けた場合に、赤外線発光ユニット204から照射された赤外線bが赤外線除去フィルタ131によって反射されて得られる反射光(反射された赤外線c)を検知することができる。
 なお、赤外線検知部140において検知することが可能な赤外線除去フィルタ131としては、例えば、赤外線反射フィルタまたは赤外線吸収フィルタなどがある。これらのフィルタは、赤外線の反射率が高いため、盗撮用のカメラ130にこれらのフィルタが取り付けられていた場合に、赤外線検知部140によって容易にカメラ130の存在を検知することができる。
 また、赤外線反射フィルタと赤外線吸収フィルタとを比較すると、赤外線反射フィルタのほうがより赤外線の反射率が高いが、赤外線吸収フィルタを使用した場合にも、金属などと比較して高い反射率が得られるため、赤外線検知部140によって検知することができる。
 なお、ビデオカメラのレンズのような曲面レンズの赤外線の反射率は、一般的に、赤外線除去フィルタの反射率よりも低いが、曲面状のガラス(例えば、ガラスコップ)や曲面状の金属(例えば、ねじ回し(screwdriver)やメガネのフレーム等のような棒状の金属)の反射率よりは高い。そのため、画像処理部143における画像処理の方法によれば、赤外線除去フィルタが設けられていない通常のビデオカメラのレンズについても、赤外線検知部140における検知が可能となる。なお、赤外線検知部140は、スクリーンと同じ平面上またはスクリーンの裏側等の盗撮される画面側に設けられており、観察者側からの反射光を効率良く受光できるようにその受光面が向いていることが好ましい。
 なお、上記の説明においては、スクリーン203に設けられた音響用の穴を通して、観察者(観客席)に向かって赤外線が照射される構成を例示した。しかし、赤外線の照射は、必ずしも音響用の穴を利用しなくても良い。例えば、赤外線を通過させる穴を専用に設けても良いし、音響用以外の他の用途に設けられた穴を利用しても良い。
 (画像処理部での画像処理方法について)
 続いて、画像処理部143において行われる画像処理の具体例を説明する。但し、この方法は本発明の一例であり、本発明はこれに限定されない。
 赤外線検知部140(赤外線カメラ205)内の赤外線受光部142で得られた赤外線画像データは、複数のフレームからなる画像データとしてフレームごとに画像処理部143に入力される。各フレーム画像データは、縦横に配列した複数の画素に対応した階調データを有している。各画素の階調データは、当該画素において受光した赤外線の強度に対応した階調値(例えば、0~255階調)のデータである。ここでは、受光した赤外線強度がゼロの場合に0階調(これを便宜上、黒表示と呼ぶ)となり、受光した赤外線強度が最大の場合に255階調(これを便宜上、白表示と呼ぶ)となる。
 図9には、画像処理部143内を機能ごとに分割した構成を示す。図9に示すように、画像処理部143内には、フリッカ除去フィルタ151(フレーム除去部)、差分処理部152、ノイズ除去フィルタ153、2値化処理部154、面積計測部155、および、カメラ判定部156(判定部)が設けられている。
 フリッカ除去フィルタ151は、各フレーム画像データにおいて全画素が黒表示(0階調)のフレーム画像データを判別し、判別された黒表示の画像データを削除するという処理を行う回路である。このような処理を行うことによって、例えば、赤外線発光ユニット204が点滅をしている場合などに、赤外線発光ユニット204が消灯状態の場合の画像データを除去し、点灯状態の場合の画像データのみを残すことができる。
 また、別の方法として、フリッカ除去フィルタ151において、複数のフレーム画像データにおける各画素の階調値の時間平均を算出するという方法で全画素が黒表示のフレームを除去してもよい。
 差分処理部152は、予め保存されたリファレンス画像データと送信された画像データとを比較し、2つのデータ間の差分をとる回路である。なお、ここで使用されるリファレンス画像データ152aとしては、例えば、観客がいない場合の劇場内において映像表示システム1の赤外線発光ユニット204を作動させ、このときに赤外線カメラ205で撮影された1フレーム分の画像データが挙げられる。
 また、差分処理部152では、複数のフレーム間の差分をとることで、画像データ内の動きのある箇所を排除することができる。通常、盗撮行為はカメラを固定して行うため、当該処理により静止している箇所を特定することで、カメラに取り付けられたフィルタの検知精度を上げることが可能になる。
 ノイズ除去フィルタ153は、周辺の数画素が黒表示である領域内に1画素または一定数未満の数画素からなる白表示が存在する場合には、当該白表示の画素をノイズとして除去する回路である。このフィルタ回路では、自画素を中心とする複数画素(例えば、3×3画素、5×5画素)内に、一定数以上(例えば、1画素、2画素など)の画素が閾値以上の赤外線を検知した場合に、当該自画素を赤外線検知ありのデータ(例えば、白表示のデータ)として残す。自画素を中心とする複数画素内に、閾値以上の赤外線を検知した画素の数が一定数未満であった場合には、当該自画素を赤外線検知なしのデータとする(すなわち、階調値0と出力する)。
 2値化処理部154は、階調データに閾値を設け、階調データが閾値以上の画素については、その階調データを白表示のデータ(すなわち、階調値255)に変換し、階調データが閾値未満の画素については、その階調データを黒表示のデータ(すなわち、階調値0)に変換するという処理を行う回路である。
 面積計測部155は、2値化処理部154によって2値化処理が行われた画像データ内において、白表示の領域内に含まれる画素数を計測する回路である。ここでの処理は、例えば、黒表示の画素と白表示の画素との境界を測定し、この境界内に含まれる画素数をカウントすることによって行う。
 カメラ判定部156は、面積計測部155によって白表示の領域が所定の面積以上(画素数以上)であるか否かを判別し、所定の面積以上の場合に、盗撮用のカメラありと判定する。
 ここで、上記の構成を有する画像処理部143内において行われる画像処理の流れを、図26に示すフローチャートを参照しながら説明する。
 まず、赤外線受光部142から送信されたフレーム画像データ(赤外線画像データ)は、フリッカ除去フィルタ151において、全画素黒表示のデータが削除され、必要に応じて複数の映像フレームの平均がとられて、黒表示と白表示とが混在したフレーム画像データのみのデータとなる(図26に示すステップS101)。なお、赤外線発光ユニット204から照射される赤外線が常時点灯している場合には、フリッカ除去フィルタ151による処理は必ずしも行う必要はない。なお、リファレンス画像データ152aに対しても、ステップS101と同様に、フリッカ除去処理が行われる(ステップS102)。
 次に、全画素黒表示のデータが削除されたフレーム画像データは、差分処理部152において、リファレンス画像データ152aとの間で差分算出処理が行われる(ステップS103)。この処理によって得られる画像データでは、劇場内に予め設置されている備品などからの赤外線の反射光が除去され、観客に起因した反射光のみによる赤外線強度を反映させた画像データが得られる。また、ステップS101の処理によってフリッカが除去された画像データに対して動き検出を行い、動きを伴う反射物をノイズ成分として検出しても良い(ステップS104)。
 次に、ノイズ除去フィルタ153において、閾値以上の高い赤外線強度を有する画素のうち、1画素のみが孤立して存在しているものについては、黒表示の階調データに変換する(ステップS105)。なお、ステップS104において動き検出処理を行った場合は、動きを伴う反射物のノイズ成分も、ここで除去される。
 次に、2値化処理部154において、階調値が閾値以上の画素を階調値255に変換し、階調値が閾値未満の画素を階調値0に変換する処理を行う(ステップS106)。ここでの閾値は、例えば、以下の図10に示すように80階調、250階調などとすることができる。また、弱い反射光をノイズとして除去する場合には、上記閾値は、例えば、100階調~250階調の範囲内の値とするのがよい。
 最後に、面積計測部155が、2値化処理された画像データにおいて、白表示の領域の面積(画素数)を計測する(ステップS107)。そして、カメラ判定部156において、白表示の領域が所定の面積以上(画素数以上)であるか否かを判別し、所定の面積以上の場合に、盗撮用のカメラありと判定する(ステップS108)。なお、ここで、カメラ判定部156が盗撮用カメラありと判定した場合には、警報などを発することができる。また、警報と同時に2値化前の撮影画像を管理室などのモニタに表示することにより、監視員が盗撮カメラ位置を容易に推定できるようにしてもよい。
 上記の方法によれば、映画館などにおいて映画の盗撮を行う者を自動で検出することが可能となる。なお、上記のように自動検出を行う場合には、例えば、上記の画像処理によって、赤外線除去フィルタの存在が確認されたら、劇場の管理者(または監視員)がいる部屋で警報を鳴らすなどして盗撮者の存在を知らせることができる。これにより、管理者がカメラを確認することなく、盗撮者の存在を容易に知ることができる。
 なお、上記した画像処理の方法は一例であり、本発明はこれに限定されない。すなわち、画像処理部143内には、図9に示すような各処理回路が必ずしも全て設けられている必要はなく、図9に示す各処理回路のうちの一つあるいは複数の処理回路が設けられている場合にも、盗撮用のカメラの検知を適切に行うことができる。
 例えば、フレーム画像データに対して2値化処理部154による2値化処理を行うのみでも、図10に示すように、赤外線除去フィルタ131が取り付けられたビデオカメラと、金属などのカメラ以外の備品とを見分けることが可能である。
 図10の(a)には、階調値80を閾値として2値化処理を行った場合の、元の画像データ(オリジナル)と、2値化処理後の画像データとを比較して示す。また、図10の(b)には、階調値250を閾値として2値化処理を行った場合の、元の画像データ(オリジナル)と、2値化処理後の画像データとを比較して示す。
 なお、図10に示すオリジナルの画像データは、映像表示システム1を備えた部屋に、凸レンズ(虫メガネ)A、金属(ねじ回し)B、赤外透過フィルタC、赤外吸収フィルタD、および、赤外反射フィルタEを置き、赤外線発光ユニット204を常時点灯状態として、赤外線カメラ205で撮影したときに得られたものである。図10の各図では、左側から順に凸レンズ(虫メガネ)A、金属(ねじ回し)B、赤外透過フィルタC、赤外吸収フィルタD、および、赤外反射フィルタEからの反射光のデータを示す。なお、AおよびBは曲面での反射、C~Eは平面での反射である。
 図10の(a)に示すように、閾値80で2値化処理を行うと、A~Eの全ての物品において、白表示が存在することがわかる。しかし、白表示の面積(画素数)は、各物品で異なっている。そのため、閾値80で2値化処理を行う場合には、面積計測部155によって白表示領域の面積を計測し、その後、カメラ判定部156が、白表示の領域が所定の面積以上(画素数以上)であるか否かを判別するという処理を行うことが好ましい。この処理を行うことによって、赤外線除去フィルタ(DおよびE)と、凸レンズAおよび金属Bなどのそれ以外の物品とを判別することなできる。
 なお、赤外透過フィルタCについては、赤外除去効果は小さいが、仮にビデオカメラのレンズに設けられていた場合には、赤外線除去フィルタと同様に判別することができる。
 また、図10の(b)に示すように、閾値250で2値化処理を行うと、Eのみに白表示が存在することがわかる。したがって、閾値250で2値化処理を行えば、赤外線除去効果のより高い赤外反射フィルタEと、それ以外の物品A~Dとを判別することができることが確認された。
 また、画像処理部143内のカメラ判定部156で行う判定は、スクリーン203からの距離に応じて、面積の閾値を変更してもよい。これについて、図11を参照しながら以下に説明する。
 ここでは、スクリーン203から観客席までの距離Lの大きさによって撮影領域を複数の赤外線カメラで分担する場合を例に挙げて説明する。図11に示す例では、スクリーン203を下段部分から4つの撮影領域に分割して、4台の赤外線カメラで盗撮用のカメラ130aを検知する方法について説明する。この4つの撮影領域を下から順にR1,R2,R3,R4とする。
 図11に示すように、撮影領域R1では、スクリーン203から観客席までの距離はL1であり、撮影領域R2では、スクリーン203から観客席までの距離はL2であり、撮影領域R3では、スクリーン203から観客席までの距離はL3であり、撮影領域R4では、スクリーン203から観客席までの距離はL4である。ここで、L1,L2,L3,L4は、L4>L3>L2>L1となっている。
 赤外線カメラ205は、スクリーン203とほぼ同じ面上に設置されているため、赤外線カメラ205で観客席を撮影すると、距離Lが大きくなるほど、カメラ130aに備えられた赤外線除去フィルタ131の面積は小さくなる。したがって、カメラ判定部156では、図11に示すように、盗撮用のカメラありと判定する面積の閾値Tを距離Lに応じてT1~T4のように変更する。これにより、カメラ判定部156では、赤外線除去フィルタに相当する大きさの赤外線の反射光が検知された否かを、赤外線カメラ205が撮影対象とする領域ごとに的確に判定することができる。
 カメラ判定部156による、図26のステップ108におけるカメラ判定処理について、以下のようなバリエーションが考えられる。すなわち、ステップS103の差分算出処理、ステップS104の動き検出処理、およびステップS105のノイズ除去処理によって、赤外線拡散反射箇所や、動きを伴う反射物箇所を排除した処理後の画像フレームは、赤外線除去フィルタ131を有する盗撮用のカメラが存在する場合、静止した赤外線鏡面反射領域を含む画像となっている。
 なお、ステップS101~ステップS108の処理は、一般的に、一定枚数の画像フレーム毎に実行される。したがって、例えば図27(a)に示すように、ステップS107による面積計測処理を経た後の、時間的に連続する複数の画像フレームの一部において、何らかの理由で鏡面反射物が検知不可な場合がある。図27(a)の例では、連続する4つの画像フレームのうち、第2番目の画像フレームにおいて、鏡面反射物に相当する白表示の領域が検知されていない。このような状況は、当該画像フレームが撮影された際に、盗撮用のカメラの向きが微妙にずれる等して、当該カメラからの鏡面反射光が赤外線カメラで検知されなかったこと等によって生じる。
 また、例えば図27(b)に示すように、盗撮者の身体の動き等により、鏡面反射物の位置が、前記複数の画像フレームにわたって微少にずれる場合もある。あるいは、例えば図27(c)に示すように、鏡面反射物が、前記複数の画像フレームにおいて、互いに異なる小領域に分割されて検知される場合もある。
 そこで、カメラ判定部156は、これらの場合に適切に対処するために、ステップS107による面積計測処理を経た後の、時間的に連続する複数の画像フレームに対して、以下のような処理を行うことが好ましい。
 まず、図27(a)に示した場合に対処するために、カメラ判定部156は、連続した複数の画像フレームのうち、盗撮用のカメラ(所定の面積以上の白表示の領域)が存在すると判別される画像フレームの数C1と、鏡面反射物が存在しないと判別される画像フレームの数C2とをそれぞれカウントする。そして、カメラ判定部156は、前記のC1の方がC2よりも大きければ、盗撮用のカメラが存在すると判定する。なお、この際に、前記のC1の方がC2よりも十分に(所定フレーム数を超えて)大きいことを、盗撮用のカメラが存在すると判定する条件としても良い。
 また、図27(b)に示した場合に対処するために、カメラ判定部156は、連続した複数の画像フレームのそれぞれにおいて、盗撮用のカメラを表す所定の面積以上の白表示の領域の重心を判定する。そして、前記複数の画像フレームにわたって、前記領域の重心の移動距離が一定値以下であれば、当該領域の位置に、盗撮用のカメラが存在すると判定する。
 また、図27(c)に示した場合に対処するために、カメラ判定部156は、連続した複数の画像フレームのそれぞれにおいて、前記小領域の重心を判定する。そして、前記複数の画像フレームにわたって、前記小領域の重心間の距離が一定値以下であれば、当該小領域の集合体の位置に、盗撮用のカメラが存在すると判定する。あるいは、カメラ判定部156が、前記小領域のそれぞれに膨張処理を施して領域結合してから、盗撮用のカメラを表す所定の面積以上の白表示の領域が存在するか否かを判定するようにしても良い。
 なお、本実施の形態で使用される赤外線カメラ205は、その焦点位置を調節することができるものであってもよい。この場合、まず受光範囲を広くして劇場全体をサーチし、盗撮カメラと思われる反射光を検知した場合には、その後、その位置に対して焦点を当てて拡大することにより、より確実に盗撮カメラの有無を検知することができる。このような焦点位置を調整できる赤外線カメラの場合には、カメラ判定部156で判定を行うときの面積の閾値は、焦点距離に応じて例えば図11に示すように変更することが好ましい。
 また、劇場の側面などのスクリーン設置面とは異なる場所に、補助用の赤外線カメラ(補助カメラ)が設けられていてもよい。この補助カメラは、赤外線除去フィルタ131によって反射された赤外線が、さらに、スクリーン203などによって反射されることを想定して設けられている。このような補助カメラが設けられていることによって、より確実に盗撮用のカメラの有無を検知することができる。補助カメラを設ける場所としては、スクリーン203からの反射光を捉えることができる場所が好ましい。
 (盗撮カメラの位置推定方法について)
 さらに、本実施形態の映像表示システムでは、カメラ判定部156が盗撮用カメラありと判定した場合に、判定結果と同時に館内の盗撮カメラの位置を推定し、当該位置を判定結果とともに出力することも可能である。この盗撮カメラの位置を推定する方法について、以下に説明する。
 具体的には、(1)撮影画像内での白領域の位置や当該領域の二値化前の明るさ分布に基づいて館内の盗撮カメラの位置を推定する方法や、(2)予め館内の構造を記憶しておき、記憶した館内構造情報(施設内の位置情報)に基づいて、検出された赤外線画像データ内の反射光の相対位置を検出し、盗撮カメラの位置を推定する方法などが挙げられる。
 まず、上記(1)の方法の一例としては、参考文献1:原、Tan、西野、中澤、池内著、「単一画像からの光源位置・色と表面反射特性の推定」、情報処理学会論文誌、Vol.44、No.SIG9(CVIM7)、94-104頁(July 2003)に記載された手法を用いて、盗撮カメラの位置を推定する方法が挙げられる。
 この手法では、物体反射光が、鏡面反射と拡散反射という2つの反射成分から構成されることを前提としている。ここで鏡面反射とは、鏡などによる完全な光の反射であり、入射角と反射角とが反射面に対して同じ角度となる反射成分である。一方、拡散反射とは、平坦ではない表面からの光の反射であり、入射角と反射角とが反射面に対して異なる角度となる反射成分である。この拡散反射は、乱反射とも呼ばれる。
 これら2つの反射成分の性質は大きく異なるため、本手法では、まず鏡面反射成分と拡散反射成分との分離を行う。そして、各成分に付随するパラメータを評価関数が最小になるように更新させることで、光源位置(具体的には、光源と反射面との相対位置、本発明では、盗撮カメラの位置に相当)の推定を行う。
 具体的な光源位置の推定方法について、図15、11を参照しながら以下に説明する。なお、この方法は、上記参考文献1の「2.2 提案手法の概要」に記載された技術に基づいている。図15は、本方法における光源A、カメラB、および、反射物Cの位置関係を示す模式図である。この図を本発明の映像表示システムに適用すると、光源Aが赤外線発光ユニット204に、カメラBが赤外線カメラ205に、反射物Cがビデオカメラ130に取り付けられた赤外線除去フィルタ131にそれぞれ相当する。
 また、図16は、本方法において行われる各処理の流れを示すブロック図である。このブロック図に示す処理は、例えば、図9に示す画像処理部143内の面積計測部155において実行することができる。つまり、面積計測部155は、ビデオカメラ130の館内における位置を推定する位置推定部の機能も有している。なお、この方法で行われる位置推定に使用される画像データは、赤外線受光部142から送信されたフレーム画像データ(赤外線画像データ)である。すなわち、画像処理部143内の各ブロック151~154において画像処理が行われていない画像データである。このような画像データの一例を、図16の(a)に示す。
 図16に示すように、面積計測部155では、まず、入力された赤外線画像データに基づいて、鏡面反射光の強度が最大となる画素(ピーク点)を特定し、該ピーク点から光源方向θ(図15参照)を推定する(Step.1参照)。図16の(b)の画像データでは、上記ピーク点を白で表示している。
 次に、Step.2において、拡散反射領域における明るさ分布(図16の(c)の画像データにおける灰色の部分)に対する拡散反射モデルのあてはまりやすさを基準にして、鏡面反射ピークから光源までの距離(これを光源奥行きR(図15参照)とする)と拡散反射特性を推定する。
 光源AおよびカメラBの位置は既知であるため、上記のようにRおよびθを規定し、該Rおよびθを求めることで、反射物Cの位置を推定することができる。なお、図15に示すように、上記Rおよびθはカメラと反射物Cとの相対位置を表すものであるが、ここでは便宜上、「光源方向θ」および「光源奥行きR」と表現する。
 続くStep.3において、Step.2で推定した拡散反射特性に基づいて、鏡面反射成分を分離し、鏡面反射特性を推定する。次に、Step.4において、これまでの各ステップにおいて推定した光源方向θ、奥行きR、拡散反射特性、および鏡面反射特性に基づいて、仮想反射画像を作成する。そして、得られた仮想反射画像と実画像との差分(エネルギー関数)を算出し、当該エネルギー関数が収束するまで拡散・反射領域の分離度合いを調整しながら、上記のStep.1~4の反復処理を行う。そして、Step.5において、関数収束時の光源方向θおよび光源奥行きRを反射物Cの推定位置として決定する。
 以上のような方法により、反射物Cの推定位置が盗撮用カメラの位置として求められる。
 ところで、盗撮用カメラに取り付けられる赤外線除去フィルタのような光学フィルタの表面での反射は、鏡面反射成分が100%であり、拡散反射成分は含まれない。しかしながら、上述した(1)の方法では、反射物Cが鏡面反射特性および拡散反射特性の両方を有することが前提となっており、拡散反射特性に基づいて光源奥行きRを推定するため、反射物が光学フィルタのような鏡面反射物の場合には、光源奥行きRの正確な値を求めることができない。
 そこで、光学フィルタのような鏡面反射物に対しても、反射物の位置を推定することができる方法として、上記(2)の方法を挙げることができる。以下には、上記(2)の方法の具体例について説明する。
 図17には、この方法を採用する場合の画像処理部143内の機能構成を示す。この図において、図10に示す画像処理部143内の構成と同じ機能を有するブロックについては、同じ部材番号を付している。
 図17に示す画像処理部143には、図10に示す画像処理部143内の構成に加えて、画像歪み補正部157が、フリッカ除去フィルタ151と差分処理部152との間に設けられている。また、面積計測部155において、盗撮カメラの位置推定を行う場合に参照データとして使用される館内構造情報を記憶する館内構造情報記憶部155aが設けられている。さらに、画像処理部143の外部には、カメラ制御部144が設けられている。なお、ノイズ除去フィルタ153と2値化処理部154は、その順序が逆になっていてもよい。すなわち、ノイズ除去と2値化処理は、どちらの処理を先に行ってもよい。
 画像歪み補正部157は、歪曲収差(ディストーション)補正という処理を行う。
 館内構造情報記憶部155aには、後述する様々な位置推定方法を行うために必要とされる館内構造情報(映像表示システム1が設けられている映画館などの施設に関する情報)が記憶されている。この館内構造情報は、上映前に予め館内を撮影して得られた画像データに基づく情報である。
 カメラ制御部144は、カメラ判定部156における判定結果に基づいて、撮影位置の変更や拡大・縮小処理などという赤外線カメラ205の制御を行う。
 続いて、図17に示す画像処理部143において行われる盗撮用カメラの位置推定の方法の具体例1~3について説明する。
 まず、具体例1(第1の方法)について、図18,14を参照しながら説明する。
 この方法では、図18に示すように、2値化処理部154において2値化処理の行われた画像データ(例えば、図18の(a)の画像データ)に基づいて、面積計測部155内で位置推定が行われる。つまり、面積計測部155は、ビデオカメラ130の館内における位置を推定する位置推定部の機能も有している。
 最初に、Step.1において、入力された2値化画像データに基づいて、反射光の強度が最大となる画素(ピーク点)を特定し、該ピーク点から光源方向θ(図15参照)を推定する。図18の(a)の画像データでは、上記ピーク点をAとする。
 次に、Step.2において、得られた光源方向θを館内構造情報記憶部155aに記憶されている館内構造モデルに当てはめ、盗撮用カメラが存在する可能性の高い候補領域を選定する。図18の(b)では、館内構造モデルに当てはめて選定された候補領域をBで示す。
 最後に、Step.3において、床から赤外線カメラ205の光軸までの高さが閾値d未満であるか否かによって、光源奥行きRを決定している。
 続いて、具体例2(第2の方法)について、図20,16を参照しながら説明する。
 この方法では、モーションキャプチャー用反射マーカー(計測プラネット社製)などの反射マーカーを、館内の所定位置に、1個ないし複数個予め配置しておく。そして、映像表示システム1を観客がいない状態で作動させて得られる画像データを取得し、各反射マーカーの館内における相対位置を館内構造情報として館内構造情報記憶部155aに記憶しておく。
 図21には、観客席ごとに反射マーカー300をそれぞれ配置した場合に得られる館内構造情報の一例を示す。反射マーカーが存在する位置(図21において○で示す位置)は、他の位置と比較して反射光の強度が高くなる。そして、最小二乗法などを用いて、この反射光の高い箇所(図21において○で示す箇所)をより多く通過するように直線でつなぐことによって、図21に示すような館内構造情報が得られる。そして、この館内構造情報を用いて、盗撮用カメラに取り付けられた赤外線除去フィルタ131の位置を特定する。
 すなわち、図20に示すように、まず、Step.1において、観客がいない状態で赤外線カメラが取得した画像データから得られた2値化画像データに基づいて、面積計測部155において、図21に示すような館内構造情報を作成し、館内構造情報記憶部155aに記憶する。
 続いて、Step.2において、観客がいる状態で赤外線カメラが取得した画像データから得られた2値化画像データ(図20の(b)参照)に基づいて、図21に示す館内構造情報には含まれない反射光のピーク301を、盗撮カメラに取り付けられた赤外線除去フィルタ131であると識別する。さらに、図20の(b)に示す画像データを図21の館内構造情報に当てはめ、検出された反射光のピーク301が、どの観客席から得られたものであるかを判定する。
 以上のような処理により、光学フィルタのような鏡面反射物の位置を推定することができる。なお、館内に配置する反射マーカー300の数は、多いほど位置推定の精度を高くすることができるが、特に限定はされず、館内の四隅のみに反射マーカー300を配置してもよい。
 なお、上記の反射マーカー300の代わりに、赤外LEDなどの赤外線発光光源を館内の所定の位置に配置してもよい。そして、各位置の光源ごとに異なる点滅スピードで点滅するようにすれば、各光源の発光パターンと対応させて、赤外線除去フィルタ131の位置を特定することができる。なお、光源の点滅スピードは、電源とパルス発生回路とによって調節することができる。光源の点滅周波数を10Hz前後とすることが、最も顕著な妨害効果を得る上では好ましい。
 続いて、具体例3(第3の方法)について、図22,18を参照しながら説明する。
 通常、映画館は任意の観客席からスクリーン全面が視聴できる構造になっており、ある席と他の席との視線の重なりがないように設計されている。そこで、本方法では、このような映画館の構造を考慮し、赤外線カメラ205によって得られる画像データの座標から、盗撮カメラの位置を特定する。
 この方法では、まず、図22に示すように、観客がいない状態でカメラ(赤外線カメラに限定されない)が取得した画像データ(図22の(a)参照)を、画像処理により領域分割する(図22の(b)参照)。そして、図22の(b)に示すように、各画素をXY座標によって特定し、どの座席(A1、A2・・・)がどの座標の画素に対応しているかという対応表を作成して、館内構造情報記憶部155aに記憶する。
 対応表の作成方法の一例として、観客がいない状態でカメラ(赤外線カメラに限定されない)が取得した画像データ(図22の(a)参照)から明度分布と色相分布を求め、当該分布から明度・色相範囲を決定して、観客席領域とそれ以外の領域に分割する。次に、観客席領域について、明度分布及び色相分布を求め、当該分布から明度・色相範囲を改めて決定して、個々の観客席を分割し、領域分割した画像(図22の(b)参照)を作成する。さらに、分割した個々の領域をラベリングすることで、画像上の任意の座標がどの観客席上にあるか、あるいは、観客席以外の領域にあるか判定可能な対応表が作成される。
 そして、図23に示すように、観客がいる状態で赤外線カメラが取得した画像データ(図23の(a)参照)に基づいて、面積計測部155において盗撮用カメラの位置推定が行われる。なお、この方法で行われる位置推定に使用される画像データは、赤外線受光部142から直接送信された画像データ(赤外線画像データ)であってもよいし、画像処理部143内で2値化処理の行われた画像データであってもよい。
 すなわち、図23のStep.1において、入力された画像データ内で検出された反射光のピークAの座標を特定する。次に、Step.2において、館内構造情報記憶部155aに記憶された座標と座席との対応表を用いて、上記ピークAがどの座席に該当するかを特定する。
 例えば、ピークAの座標が(X,Y)=(63,21)であった場合、座席番号B4に盗撮用カメラが位置していると推定することができる。なお、検出された反射光のピーク領域が大きい場合や、座席の中間地点から反射光ピークが検出された場合には、複数の座席を含む領域を推定位置として出力してもよい。
 また、具体例3の変形例として、次のような方法も可能である。図24の(a)および(b)には、具体例3の第1の変形例について説明する模式図を示す。また、図25の(a)および(b)には、具体例3の第2の変形例について説明する模式図を示す。
 第1の変形例では、図24の(a)に示すように、Step.2における対応表を用いた座席の推定工程の際に、まず、検出された反射光が観客席の領域に存在するか否かを判定し(S2-1)、観客席以外の領域に存在すると判定された場合(S2-1においてNoの場合)には、盗撮用カメラに該当する反射物はないと判定する。図24の(b)には、このような場合の赤外カメラ入力画像と、座席と画素の座標とを対応させた画像データを示す。
 一方、反射光の座標が観客席領域にあると判定された場合(S2-1においてYesの場合)には、図23のStep.2と同様に、館内構造情報記憶部155aに記憶された座標と座席との対応表を用いて、反射光のピークAがどの座席に該当するかを特定する(S2-2)。
 第2の変形例では、盗撮カメラに該当する反射光のサイズは、スクリーンと座席との距離に依存して変わることを利用して、「盗撮カメラあり」と判定する反射光のサイズを、座席の位置によって異ならせる。
 すなわち、同じ大きさの赤外線除去フィルタであっても、検出される反射光の大きさは、図25の(a)の左側に示すように、スクリーンに近い座席ほど大きくなり(例えば、Aで示す反射光)、スクリーンから遠い座席ほど小さくなる(例えば、Bで示す反射光)。これに基づいて、例えば、図25の(a)の右側に示すように、前列(A列およびB列)では、反射光のサイズのしきい値を7×7画素以上とし、中列(C列およびD列)では、反射光のサイズのしきい値を5×5画素以上とし、後列(E列およびF列)では、反射光のサイズのしきい値を3×3画素以上とする。
 この場合、図23のStep.2では、図25の(b)に示す館内構造情報記憶部155bに記憶された座標と座席との対応表を用いて、反射光のピークがどの座席に該当するかを特定する。さらに、館内構造情報記憶部155bに記憶された各しきい値に基づき、各位置に対応するしきい値を満たすサイズの反射光が検出された場合に、「盗撮カメラあり」と判定する。
 [第2の実施形態]
 上記した実施の形態では、劇場の観客席全体を捉えることのできる広角レンズがカメラの前面に取り付けられた赤外線カメラ205を1台備える構成を例に挙げたが、本発明はこれに限定されない。つまり、本発明では、赤外線カメラ(赤外線検知部)は、劇場の観客席全体を捉えることのできる構成であれば、その構成は特に限定はされない。
 図12には、本発明の映像表示システムの他の構成例を示す。図12に示す映像表示システム1bの映像表示スクリーンは、スクリーン203(映像表示部)と、5台の赤外線発光ユニット204a~204e(非可視光発光部)と、3台の赤外線カメラ205a~205c(非可視光検知部、赤外線検知部)とで構成されている。
 映像表示システム1bの映像表示スクリーンは、図1に示す映像表示システム1の映像表示スクリーンとは、赤外線発光ユニットの構成および配置位置が異なっており、また、赤外線カメラの台数も異なっている。
 すなわち、映像表示システム1bでは、5台の赤外線発光ユニット204a~204eがスクリーンの上端部に沿って並んで配置されている。また、図1に示す映像表示システム1の映像表示スクリーンでは、一つの赤外線発光ユニット204内に複数の発光領域214が設けられている構成であったが、映像表示システム1bでは、1つの赤外線発光ユニットに対して、1つの赤外光発光領域が設けられている。このように5台の赤外線発光ユニットが設けられており、各ユニットが照射領域をそれぞれ分担することで、劇場内の隅々まで所定以上の強度で赤外線を照射することができる。そのため、盗撮者がどの位置でスクリーン上の映像を撮影しても、赤外線除去フィルタが設けられていないビデオカメラであれば、撮影された画像コンテンツ内に妨害画像を含めることができる。なお、5台の赤外線発光ユニット204a~204eから照射される赤外線の発光強度は、それぞれ異なっていてもよい。また、各赤外線発光ユニット204a~204eがそれぞれ同じ周期、または、異なる周期で点灯と消灯を繰り返してもよい、
 また、映像表示システム1bには、スクリーン203の上部に赤外線カメラ205aが、スクリーン203の向かって右側に赤外線カメラ205bが、スクリーン203の向かって左側に赤外線カメラ205cが、それぞれ設置されている。このように3台の赤外線カメラが設けられていることで、劇場内のそれぞれの領域を分担して監視することができる。そのため、図1に示す映像表示システム1のように、赤外線カメラに広角レンズ141を設けることなく、劇場内のあらゆる観客席における、赤外線除去フィルタを使用したビデオカメラによる盗撮行為を検知することができる。
 [第3の実施形態]
 本発明のさらに他の実施形態について以下に説明する。第3の実施形態では、第1および第2の実施形態とは異なり、オリジナルの映像を妨害するノイズとしての赤外線を発生する赤外線発光ユニットと、盗撮カメラを検知するための赤外線を発生する赤外線発光ユニットとが異なる構成を有する。
 図13は、第3の実施形態にかかる映像表示システムにおけるスクリーン203bの概略構成を示す背面図である。図13に示すように、本実施形態にかかるスクリーン203bは、その背面側に、オリジナルの映像を妨害するノイズとしての赤外線を発生する複数のノイズ用赤外光源304aと、盗撮カメラを検知するための赤外線を発生する複数のカメラ検知用赤外光源304bとを備えている。
 ノイズ用赤外光源304aは、例えば、出力1.4Wの赤外LEDである。カメラ検知用赤外光源304bは、例えば、出力0.14Wの砲弾型赤外LEDである。図13の例においては、スクリーン203bの裏面のほぼ中央に、赤外カメラ305が配置されている。ノイズ用赤外光源304aおよびカメラ検知用赤外光源304bの波長は例えば870~940nm程度である。赤外カメラ305には、可視域カットフィルタ(カットオフ波長870nmの短波長カットフィルタ)を装着することが好ましい。
 図13の例においては、カメラ検知用赤外光源304bは、赤外カメラ305をほぼ中心として、縦6個、横6個の合計36個が、正方格子状に等間隔に配置されている。なお、図13の例では、スクリーン203bの裏面に、カメラ検知用赤外光源304bを取り付けるために、2枚の基板306が設けられている。2枚の基板306は、赤外カメラ305を挟んで上下に配置され、カメラ検知用赤外光源304bを貫通させる孔が複数設けられている。すなわち、カメラ検知用赤外光源304bは、2枚の基板306によって、スクリーン203bの裏面に、正方格子状に支持されている。
 図13の例においては、ノイズ用赤外光源304aは、縦3列、横3行の合計9個が設けられている。ノイズ用赤外光源304aも、基板306によって支持される。なお、ノイズ用赤外光源304aは、カメラ検知用赤外光源304bに比較すると出力が大きく、発熱量が大きいので、背面に冷却ファンが設けられていることが好ましい。
 ノイズ用赤外光源304aおよびカメラ検知用赤外光源304bから出射された赤外光は、スクリーン203bに設けられている音響用の孔を通して、観察者側へ出射される。
 ここで、検知対象とする盗撮カメラの赤外線除去フィルタの形状を、一辺の長さdが50mmの正方形フィルタ、または、直径dが50mmの円形フィルタであるものと想定すると、正方格子の配置間隔lsは、前述の式(1)に従い、例えば70mmとすれば良い。
 なお、図13に示した例は、あくまでも一実施例であり、赤外光源および赤外カメラの数は、スクリーンサイズ等に応じて任意に設定すれば良い。また、ここでは、カメラ検知用赤外光源304bが正方格子状に配置された例を示したが、第1の実施形態において説明したように、三角格子状に配置された構成としても良い。あるいは、第1の実施形態において説明したように、カメラ検知用赤外光源304bが、スキャナ式ユニットや回転式ユニット等の可動式ユニットに設けられていても良い。また、ノイズ用赤外光源304aが極端に大型でなければ、ノイズ用赤外光源304aも可動式ユニットに設けることも可能である。
 ノイズ用赤外光源304aとカメラ検知用赤外光源304bとは独立して制御可能である。ノイズ用赤外光源304aが発光していないタイミングで、カメラ検知用赤外光源304bが発光することが好ましい。赤外カメラ305は、カメラ検知用赤外光源304bが発光するタイミングに合わせて、反射光の検知を行う。赤外線検知部140は、第1の実施形態において説明したとおり、盗撮カメラからの反射光を受光し、画像処理を行う。
 [第4の実施形態]
 本発明のさらに他の実施形態について、説明する。この第4の実施形態にかかる映像表示システムにおいては、図28に示すように、画像処理部143が、面積計測部155の代わりに、ラベリング処理部255を備えている。そして、図29に示すように、ステップS107の代わりに、ラベリング処理(ステップS207)を行う。
 続くステップS108においては、カメラ判定部156は、パターンマッチング処理によって盗撮用カメラの有無を判定する。
 ここにおけるラベリング処理とは、2値化処理された画像データにおいて、連結している白表示の画素に同じラベル番号を付ける処理である。この処理によって、連結している白表示の画素で形成された領域の最小座標と最大座標とが得られる。最小座標とは、連結している白表示の画素で形成された領域のうち、座標軸原点に最も近い座標をいう。最大座標とは、前記領域のうち、座標軸原点から最も遠い座標をいう。面積計測部155は、最小座標と最大座標とを結ぶ線を対角線とする長方形を想定し、この長方形に対応する領域のグレースケールデータを、赤外線受光部142から送信された赤外線画像データから抽出する。
 そして、パターンマッチング処理とは、ステップS207で行われたラベリング処理の結果をテンプレート画像と対比する処理である。テンプレート画像としては、盗撮用カメラの赤外線除去フィルタからの反射を表す長方形の画像が、1つまたは複数、予め準備されている。カメラ判定部156が、ラベリング処理で抽出された長方形領域のグレースケールデータと、前記のテンプレート画像のデータとをパターンマッチング演算することにより、当該領域内に盗撮用カメラの赤外線除去フィルタからの反射を表す画像が存在するか否かが判断される。
 なお、テンプレート画像を、ラベリング処理で抽出された長方形領域のグレースケールデータとパターンマッチングさせる際の演算としては、例えば、輝度差の絶対値の総和を求める方法、輝度差の二乗和を求める方法、または、正規化相互相関関数による方法、などがあるが、これらにのみ限定されない。また、ここでは、グレースケールデータを抽出する領域(すなわち後述するパターンマッチング処理の対象となる領域)およびテンプレート画像が長方形である例を説明したが、これに限定されず、円形または三角形等の所定の形状の領域とすることが可能である。
 なお、リファレンス画像データに基づいて、判断不要領域を画像データから取り除くためのマスク画像を作成し、ステップS207のラベリング処理の前に、2値化処理を経た画像と前記マスク画像との積をとることも好ましい。判断不要領域とは、例えば、赤外線カメラによる撮影領域のうち、盗撮用カメラが存在し得ない領域等をいう。マスク画像においては、判断不要領域の階調値を例えば0とすれば良い。
 本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、ここで開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 本発明によれば、画面に表示されたデジタル映像をビデオカメラで撮影した場合に、撮影された画像の表示品質を劣化させることができる。したがって、本発明を映画館などで利用すれば、映像コンテンツの盗撮およびその不正流通を防止することができる。
 また、本発明によれば、映像コンテンツの盗撮を行おうとする者を容易に検知することができる。したがって、本発明を映画館などで利用すれば、映像コンテンツの盗撮行為を予防することができる。
 本発明は、映像コンテンツの盗撮および不正流通を防止できる映像表示スクリーンおよび映像表示システムとして、産業上の利用が可能である。

Claims (15)

  1.  映像を表示する映像表示部と、
     映像とともに可視光以外の光を観察者に対して照射する非可視光発光部と、
     上記観察者が有する撮影装置から反射された上記可視光以外の光を検知する非可視光検知部とを備え、
     前記非可視光発光部は複数の発光領域を有し、前記複数の発光領域のうち前記非可視光検知部による検知に寄与する発光領域が等間隔に配置されている、映像表示スクリーン。
  2.  前記非可視光検知部による検知に寄与する発光領域が正方格子状に配置されている、請求項1に記載の映像表示スクリーン。
  3.  前記観察者が有する撮影装置の反射部が正方形であり、
     前記正方形の一辺の長さをd、前記正方格子における発光領域の配置間隔をlsとすると、
    Figure JPOXMLDOC01-appb-M000001
    が成り立つ、請求項2に記載の映像表示スクリーン。
  4.  前記観察者が有する撮影装置の反射部が円形であり、
     前記円形の反射部の直径の長さをd、前記正方格子における発光領域の配置間隔をlsとすると、
    Figure JPOXMLDOC01-appb-M000002
    が成り立つ、請求項2に記載の映像表示スクリーン。
  5.  前記非可視光検知部による検知に寄与する発光領域が三角格子状に配置されている、請求項1に記載の映像表示スクリーン。
  6.  前記観察者が有する撮影装置の反射部が正方形であり、
     前記反射部の一辺の長さをd、前記三角格子における発光領域の配置間隔をltとすると、
    Figure JPOXMLDOC01-appb-M000003
    が成り立つ、請求項5に記載の映像表示スクリーン。
  7.  前記観察者が有する撮影装置の反射部が円形であり、
     前記円形の反射部の直径をd、前記三角格子における発光領域の配置間隔をltとすると、
    Figure JPOXMLDOC01-appb-M000004
    が成り立つ、請求項5に記載の映像表示スクリーン。
  8.  前記非可視光発光部は、前記発光領域が配置された可動式部材を有する、請求項1~7のいずれか一項に記載の映像表示スクリーン。
  9.  前記可動式部材が、映像表示部に対して垂直方向および水平方向のいずれか一方に往復移動可能に設けられた、請求項8に記載の映像表示スクリーン。
  10.  前記可動式部材が、回転可能に設けられた、請求項8に記載の映像表示スクリーン。
  11.  上記可視光以外の光は、赤外線であり、
     上記非可視光検知部は、赤外線を検知する赤外線検知部である、請求項1~10のいずれか一項に記載の映像表示スクリーン。
  12.  上記赤外線検知部は、赤外線カメラである、請求項11に記載の映像表示スクリーン。
  13.  上記赤外線検知部は、赤外線を遮断する部材からの反射光を検知する、請求項11または12に記載の映像表示スクリーン。
  14.  上記非可視光発光部は、上記映像表示部に映像が表示されている期間中、点灯と消灯とを繰り返す、請求項1~13のいずれか一項に記載の映像表示スクリーン。
  15.  請求項1~14のいずれか一項に記載の映像表示スクリーンと、
     デジタル映像信号に基づいて表示画像を生成し、該表示画像を上記映像表示スクリーンに投射する画像形成部とを有する、映像表示システム。
PCT/JP2011/073679 2010-10-18 2011-10-14 映像表示スクリーンおよびこれを用いた映像表示システム WO2012053445A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-233835 2010-10-18
JP2010233835A JP2012088447A (ja) 2010-10-18 2010-10-18 映像表示スクリーン、映像表示システム、及び盗撮用カメラの検出方法

Publications (1)

Publication Number Publication Date
WO2012053445A1 true WO2012053445A1 (ja) 2012-04-26

Family

ID=45975158

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/073679 WO2012053445A1 (ja) 2010-10-18 2011-10-14 映像表示スクリーンおよびこれを用いた映像表示システム

Country Status (2)

Country Link
JP (1) JP2012088447A (ja)
WO (1) WO2012053445A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112383755A (zh) * 2020-11-13 2021-02-19 深圳市幕工坊科技有限公司 一种投影幕防偷拍系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002197562A (ja) * 2001-01-30 2002-07-12 Masanobu Kujirada カメラ等検知装置及び方法
JP2006258651A (ja) * 2005-03-17 2006-09-28 Fuji Photo Film Co Ltd 不特定撮像装置の検出方法および装置
JP2009282270A (ja) * 2008-05-22 2009-12-03 Nippon Hoso Kyokai <Nhk> 盗撮防止装置
JP2010128037A (ja) * 2008-11-26 2010-06-10 Nippon Hoso Kyokai <Nhk> 投影スクリーン
WO2011105564A1 (ja) * 2010-02-25 2011-09-01 シャープ株式会社 映像表示スクリーン、映像表示システム、及び盗撮用カメラの検出方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3468228B2 (ja) * 2001-05-16 2003-11-17 ソニー株式会社 撮像妨害方法及びシステム
JP2010231748A (ja) * 2009-03-26 2010-10-14 Isafe:Kk 盗撮防止装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002197562A (ja) * 2001-01-30 2002-07-12 Masanobu Kujirada カメラ等検知装置及び方法
JP2006258651A (ja) * 2005-03-17 2006-09-28 Fuji Photo Film Co Ltd 不特定撮像装置の検出方法および装置
JP2009282270A (ja) * 2008-05-22 2009-12-03 Nippon Hoso Kyokai <Nhk> 盗撮防止装置
JP2010128037A (ja) * 2008-11-26 2010-06-10 Nippon Hoso Kyokai <Nhk> 投影スクリーン
WO2011105564A1 (ja) * 2010-02-25 2011-09-01 シャープ株式会社 映像表示スクリーン、映像表示システム、及び盗撮用カメラの検出方法
JP2011197635A (ja) * 2010-02-25 2011-10-06 Sharp Corp 映像表示スクリーン、映像表示システム、及び盗撮用カメラの検出方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112383755A (zh) * 2020-11-13 2021-02-19 深圳市幕工坊科技有限公司 一种投影幕防偷拍系统

Also Published As

Publication number Publication date
JP2012088447A (ja) 2012-05-10

Similar Documents

Publication Publication Date Title
WO2011105564A1 (ja) 映像表示スクリーン、映像表示システム、及び盗撮用カメラの検出方法
US9482779B2 (en) Device and methods for detecting a camera
JP5255122B2 (ja) カメラを検出するためのシステム及び方法
Truong et al. Preventing camera recording by designing a capture-resistant environment
JP3518528B2 (ja) 撮像妨害方法及びシステム
EP2116047B1 (en) Digital cinema anti-camcording method and apparatus based on image frame post-sampling
US20120128330A1 (en) System and method for video recording device detection
US20070103552A1 (en) Systems and methods for disabling recording features of cameras
US6785402B2 (en) Head tracking and color video acquisition via near infrared luminance keying
WO2011002059A1 (ja) 映像表示装置、映像表示方法、映像表示スクリーン、及び液晶表示装置
JP3468228B2 (ja) 撮像妨害方法及びシステム
CN106998422A (zh) 一种自动识别偷拍镜头的装置和方法
WO2016133735A1 (en) Fire detection apparatus utilizing a camera
US20090268942A1 (en) Methods and apparatus for detection of motion picture piracy for piracy prevention
US20070013778A1 (en) Movie antipirating
JP2011180172A (ja) 撮像防止装置、撮像防止方法および映像表示システム
Patel et al. Blindspot: Creating capture-resistant spaces
JP2006258651A (ja) 不特定撮像装置の検出方法および装置
WO2012053445A1 (ja) 映像表示スクリーンおよびこれを用いた映像表示システム
EP2525345A1 (en) Video display device
JP2010231748A (ja) 盗撮防止装置
JP2010128037A (ja) 投影スクリーン
WO2012117906A1 (ja) 映像表示スクリーン、映像表示システム、および撮影装置検出方法
WO2012108318A1 (ja) 映像表示スクリーンおよびこれを備えた映像表示システム
WO2012065241A1 (en) System and method for video recording device detection

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11834285

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11834285

Country of ref document: EP

Kind code of ref document: A1