WO2006006642A1 - Image producing system and image producing method - Google Patents

Image producing system and image producing method Download PDF

Info

Publication number
WO2006006642A1
WO2006006642A1 PCT/JP2005/012982 JP2005012982W WO2006006642A1 WO 2006006642 A1 WO2006006642 A1 WO 2006006642A1 JP 2005012982 W JP2005012982 W JP 2005012982W WO 2006006642 A1 WO2006006642 A1 WO 2006006642A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
floor
size
sound
floor surface
Prior art date
Application number
PCT/JP2005/012982
Other languages
French (fr)
Japanese (ja)
Inventor
Kazunobu Azuma
Original Assignee
Yugenkaisha Azu Geijyutu Kagaku Kenkyusho
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yugenkaisha Azu Geijyutu Kagaku Kenkyusho filed Critical Yugenkaisha Azu Geijyutu Kagaku Kenkyusho
Priority to JP2006529104A priority Critical patent/JP4833067B2/en
Publication of WO2006006642A1 publication Critical patent/WO2006006642A1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J5/00Auxiliaries for producing special effects on stages, or in circuses or arenas
    • A63J5/02Arrangements for making stage effects; Auxiliary stage appliances
    • A63J5/021Mixing live action with images projected on translucent screens

Definitions

  • Patent Document 1 Japanese Patent Application Laid-Open No. 9-1 1 7 5 8 5 9
  • Patent Document 3 Japanese Patent Laid-Open No. 2 0 0 1-0 0 0 5 7 8 Disclosure of Invention
  • the video output device 2 2 includes a projector 2 2 a (projector) and a rear transmission screen 2 2 b.
  • the rear transmission screen 22 b has a plane size that is substantially the same as the floor surface 20 a, and is arranged in the vicinity of the lower side of the floor 20 in parallel with the floor 20.
  • the projector 2 2 a is arranged at a position below the rear transmission screen 2 2 b, receives a video signal from the computer 38, and projects the image on the rear transmission screen 2 2 b. Yes. From the audience 6 walking on the floor surface 20 a, it appears that the image projected on the rear transmission screen 22 b is projected on the floor surface 20 a.
  • the acoustic device 30, the blower 32, and the illuminating lamp 34 shown in FIG. 2 are arranged at arbitrary positions in the entrance passage 4.
  • the blower 3 2 and the illuminating lamp 3 4 can be manually adjusted by means of the equipment adjuster 28, such as the output size.
  • the judging means 40 is that the size of the range L in which the back of the left foot is in contact with the floor 20 a, and the range L is the left foot detected in the left half of the floor 20 a. Based on supplementary information 48 a, select the typical shape of the sole of the foot that most closely matches such conditions, and determine that this is the shape of the sole of the left foot of Audience 6. ing.
  • the device control means 50 operates the blower 3 2 and the illumination lamp 3 4 based on the device control program 48 h of the storage means 48.
  • the device control means 50 operates the blower 3 2 and the illuminating lamp 3 4 based on any one of the operation methods selected from a plurality of operation methods in the device control program 48 h. Therefore, which operation method is used is set by the production setting means 54, as will be described later.
  • the image effect means 4 6 Based on the position, size, and shape of the soles of the spectators 6 in contact with the floor surface 20 a, the image effect means 4 6, It is determined on the composite image received from the generating means 42, and a change is made to the pixels in the vicinity of the contour line so that the light refraction direction changes and appears to be distorted. However, it is assumed that it is set to give a video effect that spreads and changes in a ripple pattern over time. .
  • the sound device 30 outputs a sound effect as if the foot of the spectator 6 touched the floor surface 20 a and the foot of the spectator 6 touched the puddle. Is output corresponding to the size of the soles of the audience 6 .
  • the interval between the time when the blower 3 2 and the lighting lamp 3 4 operate Is twice as long, and the sound of thunderbolts output from the acoustic device 30 is echoed. 2 It feels like walking in a storm.
  • a new additional video generated by the video generation means 42 is synthesized by the video synthesis means 44, so that the production by the video is possible. The effect can be improved.
  • the video effect means 46 has a contour of the sole shape corresponding to the position, size and shape where the sole contacted on the floor 20a. In addition to defining the line, a change is made to the pixel near the contour line of the sole shape so that the light refraction direction changes and appears distorted. Since the image effect is such that the ripples spread and change, it is possible to produce an image as if the spectator 6 is walking on the surface of a lake or the like.
  • the update means 5 6 allows the sound generation program 4 8 e, the sound material 4 8 f, the sound effect program 4 8 g, and the equipment control program 4 8 of the storage means 4 8 through the communication means 60 and the public line 58. Since the content can be changed to a new one from the outside, the video material 4 8 c displayed on the floor 2 0 a and the processing performed on such video 4 8 c can be changed. The sound effect output from the audio device 30 can be changed, and the operation of the blower 32 and the lighting lamp 34 can be changed.
  • the illuminating lamp 3 4 is lit, extinguished, or blinking according to the position, size and shape of the floor of the spectator 6 on the floor 20 a where the soles of the spectators 6 are in contact. It is also possible that the interval of blinking of the lighting lamps 3 4 and the brightness when the lamps are lit change.
  • a sensor other than a light transmission type sensor such as an area sensor may be used as the detection device.
  • a pressure sensitive element or the like may be arranged on the floor 20 a to detect the position, size and shape of the sole of the audience 6.
  • the determination means 40 of the computer 3 8 may omit the processing operation for determining the shape of the sole of the audience 6 by referring to the supplementary information 4 8 a of the storage means 48. it can.
  • each of the video generation means 4 2 and the video effect means 4 6 corresponds to the position, size and shape of the sole of the audience 6 on the floor surface 20 a in contact with each other. It was designed to generate a video for attached calorie or to process the video effect on the composite video, but either the position, size or shape of the sole of the audience 6 touching the floor 20 Based on the above, it may be so arranged that an additional video is generated or a video effect is processed on the synthesized video. In addition, based on one of the combination of the position and size of the sole of the audience 6, the combination of position and shape, or the combination of size and shape, or the video effect on the composite image The process may be performed.
  • the video effect that the video effect means 4 6 gives to the video material 4 8 c etc. corresponds to the position, size, and shape of the sole of the audience 6 on the floor 20 0 a, Part of the image may be deformed as seen through a fisheye lens, or deformed as if stretched in a certain direction, and the contents of the image effect program 4 8 d may be changed. This makes it possible to give various video effects.
  • FIG. 3 is a plan view schematically showing the soles L and R of the foot of the spectator 6 on the floor surface 20 a shown in FIG. 2 and an image projected on the floor surface 20 a.

Abstract

An image producing system which enables the audience to feel the reality of an image by acquiring an integrated feeling with the image displayed on a floor surface or the tread of a stairway step or the like. The system comprises an image output device (22) for displaying an image on a floor surface (20a) or the tread of a stairway step or the like based on a received image signal, detection units (24, 26) that detect, when a moving body (6) moving on the a floor surface (20a) or the tread is present thereon, the position or/and the size of the contact portion of the moving body (6) on the floor surface (20a) or the tread, and a production control device (38) that holds an image material (48c) and sends to the image output device (22) an image signal obtained by performing processing, corresponding to the position or/and the size of the contact portion of the moving body (6) detected by the detection units (24, 26), on this image material (48c).

Description

映像演出システム及び映像演出方法  Video production system and video production method
,技術分野 ,Technical field
本発明は、 床面や階段等の踏み面に対して、 プロジェクタやテレビモニタ等の映像出力 装置により映像を映し出す際に、 床面や踏み面に接触した移動体の接触部分の位置や大き さ等に応じて映像をリアルタイムで変化させる映像演出システム及び映像演出方法に関す るものである。 背景技術  In the present invention, the position and size of the contact portion of a moving body that touches the floor surface or the tread surface when the image is projected on the floor surface or the tread surface of the stairs by a video output device such as a projector or a TV monitor. The present invention relates to a video production system and a video production method that change video in real time according to the above. Background art
近時において、 プロジェクタやテレビモニタ等の映像出力装置による映像演出が、 アミ ズメントスペースや店舗等で行なわれている。 そして、 このような映像演出の一形態 として、 観客が歩き回ることができる床面や階段の踏み面等に、 所定の映像を映し出すよ うにしたものがあった。  Recently, video production by video output devices such as projectors and TV monitors has been performed in amusement spaces and stores. As one form of such an image production, there was a technique in which a predetermined image was projected on a floor surface or a tread surface of a stairs where a spectator can walk around.
このように、 映像を床面等に映し出す方法としては、 プロジェクタを天井に固定して、 このプロジェクタから出力される映像を床面等に投影する方法があつた。  As described above, as a method of projecting an image on the floor surface or the like, there is a method of fixing the projector to the ceiling and projecting the image output from the projector onto the floor surface or the like.
また、 このように、 天井側から映像を投影する方法とは異なる別の方法として、 テレビ モニタ等を床に埋め込んで、 床面から映像を出力する方法があった。 このように、 テレビ モニタ等により床面から映像を出力する場合には、 この床面上に観客等の荷重が加わるた め、 床材として透光性を有する強化ガラス等の保護部林を用い、 この保護部林の下側にテ レビモニタ等を埋め込んだ埋込み型表示装置を利用する必要があった (例えば、 特許文献 1又は特許文献 2参照) 。  In addition, as a method different from the method of projecting images from the ceiling side, there was a method of embedding a TV monitor or the like on the floor and outputting the images from the floor. In this way, when video is output from the floor using a TV monitor or the like, the load on the floor is applied to the floor, so a protective forest made of tempered glass with translucency is used as the flooring. Therefore, it was necessary to use an embedded display device in which a television monitor or the like was embedded under the protection forest (for example, see Patent Document 1 or Patent Document 2).
上記のようなプロジェクタ、 又は特許文献 1や特許文献 2のテレビモニタのような埋込 み型表示装置を用いて映像を床面等に映し出すようにすれば、 観客は単に映像を離れた位 置から見るだけでなく、 映し出された映像上で動き回ることができるため、 観客は現実と は異なる空間に居るような臨場感を得ることができた。  If an image is projected on the floor using a projector as described above or an embedded display device such as the TV monitor of Patent Document 1 or Patent Document 2, the audience can simply place the image at a distance. In addition to being able to see it, it was possible to move around on the projected image, so the audience was able to get a sense of being in a space different from reality.
また、 従来において、 上記のようなプロジェクタ、 又は前記特許文献 1や特許文献 2の ような埋込み型表示装置を用いて、 映像を単に床面に映し出すだけでなく、 床面に映した 映像をアトラクションゲームの演出に利用したものがあった (例えば、 特許文献 3参照) この特許文献 3のアトラクションゲームは、 模擬一本橋といわれる、 床面上から若干の 高さを有する水平の細い橋を踏み外さないように歩くゲームであって、 プレーヤーが模擬 〜本橋から踏み外して床面に足を着けるとレーザーセンサにより検出さ るようになって いるものであった。 そして、 模擬一本橋があたかも高い所にあるように見せるために、 床 面に深い谷底の映像を映し出すようになっていた。 Further, conventionally, using the projector as described above or the embedded display device as in Patent Document 1 and Patent Document 2, the image is not only displayed on the floor surface but also the image displayed on the floor surface is an attraction. There was what was used for the production of the game (for example, see Patent Document 3) The attraction game of this Patent Document 3 is said to be a simulated one bridge. It is a game that walks so as not to step on a horizontal thin bridge with a height, and it is detected by a laser sensor when a player steps off the main bridge and puts his foot on the floor . And, in order to make the simulated one-bridge look as if it was at a high place, a deep valley bottom image was projected on the floor.
特許文献 1 特開平 9一 1 7 5 8 5 9号公報  Patent Document 1 Japanese Patent Application Laid-Open No. 9-1 1 7 5 8 5 9
特許文献 2 特開 2 0 0 2— 0 2 3 6 7 4号公報  Patent Document 2 Japanese Patent Application Laid-Open No. 2 0 0 2— 0 2 3 6 7 4
特許文献 3 特開 2 0 0 1— 0 0 0 5 7 8号公報 発明の開示  Patent Document 3 Japanese Patent Laid-Open No. 2 0 0 1-0 0 0 5 7 8 Disclosure of Invention
発明が解決しょうとする課題  Problems to be solved by the invention
し力 しながら、 上記のようなプロジェクタ、 又は前記特許文献 1や特許文献 2のような 埋込み型表示装置を用いだ映像演出は、 予め用意された所定の映像素材を床面に映し出し ているだけにすぎず、 床面や踏み面に接触した移動体の接触部分の位置や大きさ等に応じ て映像をリアルタイムで変化させることができないので、 観客は映像と自己の動作との一 体感を得ることができな'レ、ために、 現実感に欠けるという問題があつた。  However, the video effect using the projector as described above or the embedded display device as in Patent Document 1 or Patent Document 2 is simply displaying a predetermined video material prepared in advance on the floor surface. Since the video cannot be changed in real time depending on the position and size of the contact part of the moving object that touches the floor or tread surface, the audience gets a sense of unity between the video and its own movement. Because I couldn't do it, there was a problem of lack of reality.
また、 前記特許文献 3のアトラクションゲームのように、 映像演出として床面に映し出 した谷底等の映像は、 模擬一本橋又は床面上におけるプレーヤーの足の位置や大きさ等に 対応して変化するようにはなっていないため、 上記のようなプロジェクタ、 又は前記特許 文献 1や特許文献 2のような埋込み型表示装置による映像演出と同様に、 プレーヤ一は映 像との一体感を得ることができないために、 現実感に欠けるという問題があった。  In addition, as in the attraction game of Patent Document 3, the image of the valley floor and the like projected on the floor as a video effect changes in accordance with the position and size of the player's feet on the simulated bridge or on the floor. Therefore, the player can obtain a sense of unity with the image as in the case of the video production by the projector as described above or the embedded display device as in Patent Document 1 and Patent Document 2. There was a problem of lack of realism because it was not possible.
そこで本発明は、 上記問題点に鑑みて、 観客が床面や階段等の踏み面に映し出される映 像との一体感を得ることにより映像の現実感を感じることができる映像演出システム及び 映像演出方法を提供することを課題とするものである。 課題を解決するための手段  Therefore, in view of the above problems, the present invention provides a video presentation system and a video presentation that allow a spectator to feel a sense of reality by obtaining a sense of unity with a video projected on a tread such as a floor surface or a staircase. It is an object to provide a method. Means for solving the problem
上記課題を解決するために、 本発明による映像演出システムは、  In order to solve the above-mentioned problem, a video production system according to the present invention includes:
受信した映像信号に基づいて床面又は階段等の踏み面に映像を映し出す映像出力装置と 前記床面又は踏み面上にこの上を移動する移動体が載っている場合に、 床面又は踏み面 上における移動体の接触部分の位置又は Z及び大きさを検出する検出装置と、  When a video output device for projecting an image on a floor surface or a tread surface such as a staircase based on the received video signal and a moving body moving on the floor surface or the tread surface are mounted, the floor surface or the tread surface A detection device for detecting the position or Z and size of the contact portion of the moving body on the top;
映像素材を保持し、 この映像素材に前記検出装置が検出した前記移動体の接触部分の位 置又は z及び大きさに対応する加工処理を施した映像信号を前記映像出力装置に送信する 演出制御装置とを備えていることを特徴とするものである。 また、 上記課題を解決するために、 本発明による映像演出システムは、 An image material is held, and the position of the contact portion of the moving body detected by the detection device is detected on the image material. Or an effect control device that transmits to the video output device a video signal that has been subjected to processing corresponding to the position or z and size. In addition, in order to solve the above-mentioned problem,
受信した映像信号に基づいて床面又は階段等の踏み面に映像を映し出す映像出力装置と 前記床面又は踏み面上にこの上を移動する移動体が载つている場合に、 床面又は踏み面 上における移動体の接触部分の位置及び大きさを検出する検出装置と、  When a video output device that projects an image on a floor surface or a tread surface such as a stairs based on a received video signal and a moving body that moves on the floor surface or the tread surface are mounted, the floor surface or the tread surface A detection device for detecting the position and size of the contact portion of the moving body on the top;
前記検出装置が検出した前記移動体の接触部分の位置又は Z及び大きさに対応する映像 を生成して前記映像出力装置に送信する演出制御装置とを備えていることを特徴とするも のである。 また、 上記課題を解決するために、 本発明による映像演出方法は、 .  And an effect control device that generates an image corresponding to the position or Z and size of the contact portion of the moving object detected by the detection device and transmits the generated image to the image output device. . In addition, in order to solve the above-described problem, a video presentation method according to the present invention is:
床面又は階段等の踏み面に映像を映し出す映像出力装置と、  An image output device for projecting an image on the floor or a tread such as a staircase,
前記床面又は踏み面上にこの上を移動する移動体が載っている場合に、 床面又は踏み面 上における移動体の接触部分の位置及び大きさを検出する検出装置とを用い、  When a moving body moving on the floor surface or the tread surface is mounted on the floor surface or the tread surface, and using a detection device that detects the position and size of the contact portion of the moving body on the floor surface or the tread surface,
前記映像出力装置により映し出される映像に、 前記検出装置が検出した前記移動体の接 触部分の位置及び大きさに対応して、 コンピュータにより自動的に加工処理を施すように したことを特徴とするものである。 発明の効果  The video displayed by the video output device is automatically processed by a computer in accordance with the position and size of the contact portion of the moving body detected by the detection device. Is. The invention's effect
このような本発明の映像演出システム及び映像演出方法によれば、 観客の動作と床面や 階段等の踏み面に映し出される映像とが相互に作用するため、 観客は、 このような映像と の一体感を得ることにより映像の現実感を感じることができる。 発明を実施するための最良の形態  According to the video presentation system and the video presentation method of the present invention, since the motion of the audience and the video projected on the tread such as the floor or the stairs interact, the audience can A sense of unity can give you a sense of reality. BEST MODE FOR CARRYING OUT THE INVENTION
以下、 本発明に係る映像演出システム及び映像演出方法の実施の形態について、 図面に 基づいて具体的に説明する。  Hereinafter, embodiments of a video effect system and a video effect method according to the present invention will be specifically described with reference to the drawings.
図 1ないし図 1 0は、 本発明の一実施の形態に係る映像演出システム 2及ぴ映像演出方 法について説明するために参照する図である。 12982 図 1に示すように、 本実施の形態に係る映像演出システム 2は、 アミューズメントスぺ —ス等の入場用通路 4に構築される。 この入場用通路 4は、 入場する観客 6 (移動体に相 当) の進行方向途中に配置される 2つのゲート 8 , 1 0に挟まれており、 観客 6はゲート 8側から入.つてきて、 入場用通路 4の床 2 0の上を歩いてゲート 1 0側から退出するよう になっている。 FIG. 1 to FIG. 10 are diagrams which are referred to for explaining the video effect system 2 and the video effect method according to the embodiment of the present invention. 12982 As shown in FIG. 1, the video production system 2 according to the present embodiment is constructed in an entrance passage 4 such as an amusement space. This entrance passage 4 is sandwiched between two gates 8 and 10 arranged in the traveling direction of the spectator 6 (corresponding to the moving body) to enter, and the spectator 6 enters from the gate 8 side. Then, walk on the floor 20 of the entrance passage 4 and exit from the gate 10 side.
また、 この入場用通路 4の床 2 0は、 その幅方向に所定の長さを有しており、 この長さ は二人の観客 6が横に並んで歩くことができないような長さになっている。 したがって、 複数の観客 6が入場する場合は、 必然的に進行方向に一列になって進行するようになって レヽる。  The floor 20 of the entrance passage 4 has a predetermined length in the width direction, and this length is such that two spectators 6 cannot walk side by side. It has become. Therefore, if multiple spectators 6 enter, it will inevitably progress in a line in the direction of travel.
ゲート 8から入場用通路 4へ入ってきた観客 6は、 ゲート 1 0から退出するまでの間、 映像演出システム 2により入場用通路 4内で行なわれる後述の映像演出による現象を、 現 実感を伴なつて体験することができる。  The spectator 6 who entered the entrance passage 4 from the gate 8 has an actual feeling of the phenomenon caused by the video presentation described later in the entrance passage 4 by the video production system 2 until the exit from the gate 10. You can experience it.
図 2に示すように、 入場用通路 4に構築される映像演出システム 2は、 床 2 0、 映像出 力装置 2 2、 機器調節器 2 8、 音響装置 3 0、 送風機 3 2 (空調機に相当) 、 照明灯 3 4 、 及びコンピュータ 3 8 (演出制御装置に相当) を備えている。  As shown in Fig. 2, the video production system 2 constructed in the entrance passage 4 is composed of a floor 20, a video output device 2 2, an equipment controller 28, an audio device 30, a blower 3 2 ( Equivalent), lighting lamp 3 4, and computer 3 8 (corresponding to the production control device).
また、 映像演出システム 2は、 図 3に示すように、 エリアセンサー 2 4 ( 2 4 a , 2 4 b ) 、 2 6 ( 2 6 a , 2 6 b ) (検出装置に相当) を備えている。 このエリアセンサー 2 4, 2 6についての詳細な説明は後述するが、 エリアセンサー 2 4とエリアセンサー 2 6 とは、 互いに直角の向きに配置されている。 図 2において、 エリアセンサー 2 6 a , 2 6 bは、 観客 6を挟んで紙面の奥側と手前側に配置されるため図示しないことにして、 エリ ァセンサー 2 4 a , 2 4 bだけを図示することにする。  In addition, as shown in FIG. 3, the video production system 2 includes area sensors 2 4 (2 4 a, 2 4 b) and 2 6 (2 6 a, 2 6 b) (corresponding to a detection device). . The area sensors 2 4 and 2 6 will be described in detail later, but the area sensor 2 4 and the area sensor 2 6 are arranged at right angles to each other. In FIG. 2, the area sensors 2 6 a and 2 6 b are arranged on the back side and the front side of the paper with the spectator 6 in between, so they are not shown and only the area sensors 2 4 a and 2 4 b are shown. I will do it.
図 2に示す床 2 0は、 透光性を有すると共に、 この床 2 0の上側の床面 2 0 a上を観客 6が歩行しても破損したり傷付いたりすることがないように一定の強度及び硬さを有して いる。 このような床 2 0としては、 透明な強化ガラスや、 透明で一定の強度及び硬さを有 する合成樹脂材等を用いることができる。  The floor 20 shown in FIG. 2 has translucency and is constant so that it will not be damaged or damaged even if the spectator 6 walks on the floor surface 20 a above the floor 20 a. It has the strength and hardness. As such a floor 20, transparent tempered glass, a transparent synthetic resin material having a certain strength and hardness, or the like can be used.
映像出力装置 2 2は、 プロジェクター 2 2 a (投影機) と背面透過型スクリーン 2 2 b で構成される。 背面透過型スクリーン 2 2 bは、 その平面の大きさが床面 2 0 aとほぼ同 じ大きさであって、 床 2 0の下側の近傍に、 床 2 0と平行に配置される。 プロジェクター 2 2 aは、 背面透過型スクリーン 2 2 bより下方の位置に配置され、 コンピュータ 3 8か ら映像信号を受信して、 その映像を背面透過型スクリーン 2 2 bに投影するようになって いる。 床面 2 0 a上を歩行する観客 6からは、 背面透過型スクリーン 2 2 bに投影された 映像が床面 2 0 aに映し出されたように見える。 The video output device 2 2 includes a projector 2 2 a (projector) and a rear transmission screen 2 2 b. The rear transmission screen 22 b has a plane size that is substantially the same as the floor surface 20 a, and is arranged in the vicinity of the lower side of the floor 20 in parallel with the floor 20. The projector 2 2 a is arranged at a position below the rear transmission screen 2 2 b, receives a video signal from the computer 38, and projects the image on the rear transmission screen 2 2 b. Yes. From the audience 6 walking on the floor surface 20 a, it appears that the image projected on the rear transmission screen 22 b is projected on the floor surface 20 a.
エリアセンサー 2 4は、 投光器 2 4 aと受光器 2 4 bを備えている光透過型センサーで ある。 この投光器 2 4 aと受光器2 4 bのそれぞれは、 その長さ方向が床 2 0の幅方向の 長さとほぼ同じ長さを有する略角棒形状になっている。 そして、 投光器 2 4 aと受光器 2 4 bのそれぞれは、 その長さ方向が床 2 0の幅方向と一致するように向けられ、 床 2 0の 長さ方向の長さ範囲を挟んで互いに向き合うように配置される。 The area sensor 2 4 is a light transmission type sensor provided with a projector 2 4 a and a light receiver 2 4 b. Each of the projector 2 4 a and the light receiver 2 4 b has a substantially square bar shape whose length direction is substantially the same as the length of the floor 20 in the width direction. Each of the projector 2 4 a and the light receiver 2 4 b is oriented so that its length direction coincides with the width direction of the floor 20, and sandwiches the length range of the floor 20 in the length direction. Arranged to face each other.
図示しないが、 エリアセンサー 2 4の投光器 2 4 aには、 その長さ方向に複数の発光素 子が数ミリ程度の一定間隔で一列に並んで設けられている。 そして、 受光器 2 4 bには、 投光器 2 4 aの発光素子のそれぞれに対応して、 複数の受光素子が発光素子と同じ間隔で 一列に並んで設けられている。  Although not shown, the light emitters 24 a of the area sensor 24 are provided with a plurality of light emitting elements arranged in a line at regular intervals of about several millimeters in the length direction. The light receiver 2 4 b is provided with a plurality of light receiving elements arranged in a line at the same intervals as the light emitting elements corresponding to the light emitting elements of the projector 24 4 a.
したがって、 互いに対応する投光器 2 4 aの発光素子と受光器 2 4 bの受光素子を結ぶ 光軸のそれぞれは、 図 3に示すように、 床 2 0の長さ方向を向いて、 互いの光軸は床 2 0 の幅方向に一定間隔を有して平行に並ぶようになっている。  Therefore, the optical axes connecting the light emitting elements of the projectors 2 4 a and the light receiving elements of the light receivers 2 4 b that correspond to each other face each other in the length direction of the floor 20 as shown in FIG. The shafts are arranged in parallel at regular intervals in the width direction of the floor 20.
また、 エリアセンサ一 2 6は、 図 3に示すように、 投光器 2 6 aと受光器 2 6 bを備え ており、 投光器 2 6 aと受光器 2 6 bのそれぞれは、 その長さ方向が床 2 0の長さ方向に 向けられている。 そして、 投光器 2 6 aと受光器 2 6 bのそれぞれは、 床 2 0の長さ方向 の長さとほぼ同じ長さを有し、 床 2 0の幅方向の長さ範囲を挟んで互いに向き合うように 配置されている。  As shown in Fig. 3, the area sensor 1 26 includes a projector 2 6 a and a light receiver 2 6 b. The length direction of each of the projector 2 6 a and the light receiver 2 6 b is It is oriented in the length direction of floor 20. Each of the projectors 26 a and the receivers 26 b has a length substantially the same as the length of the floor 20, and faces each other across the length range of the floor 20 in the width direction. Is arranged.
投光器 2 6 aと受光器 2 6 bのそれぞれは、 エリアセンサー 2 4の投光器 2 4 a及び受 光器 2 4 bと同様に構成されており、 互いに対応する投光器 2 6 aの発光素子と受光器 2 6 bの受光素子を結ぶ複数の光軸のそれぞれは、 床 2 0の幅方向を向いて、 これらは、 床 2 0の長さ方向に並んで、 互いに平行になっている。  Each of the projector 2 6 a and the receiver 2 6 b is configured in the same manner as the projector 2 4 a and the receiver 2 4 b of the area sensor 2 4. Each of the plurality of optical axes connecting the light receiving elements of the unit 26 b faces the width direction of the floor 20, and these are aligned in the length direction of the floor 20 and parallel to each other.
このようなエリアセンサー 2 6の複数の光軸は、 ェリァセンサー 2 4の光軸と同様に、 互いに隣り合う光軸同士が一定間隔を有するように並んでいるが、 この間隔は、 エリアセ ンサー 2 4の間隔と同じくらいになっていてもよいし、 エリアセンサー 2 4の間隔と異な つていてもかまわない。  The plurality of optical axes of the area sensor 26 are arranged in such a manner that the optical axes adjacent to each other have a constant interval, similarly to the optical axis of the carrier sensor 24. The interval may be the same as the interval, or it may be different from the interval of the area sensor 24.
また、 エリァセンサー 2 4及びエリアセンサー 2 6のそれぞれの複数の光軸と床面 2 0 aとの髙さ方向の間隔は、 床面 2 0 a上を観客 6が歩行している場合に、 この観客 6の足 の裏が床面 2 0 aに接触する瞬間と、 観客 6の足の裏の範囲を通過する光軸が遮蔽される 瞬間とが、 ほぼ同時であるとみなせる程度に狭くなつている。 このため、 エリアセンサー 2 4及びエリアセンサー 2 6は、 この観客 6の足の裏が床面 2 0 aに接触した瞬間を検出 することができるようになっている。 In addition, the distance between the plurality of optical axes of the area sensor 24 and the area sensor 26 and the height direction of the floor surface 20 a is as follows when the spectator 6 is walking on the floor surface 20 a. The moment when the sole of the spectator 6 touches the floor 20 0 a and the optical axis passing through the range of the sole of the spectator 6 is blocked. The moment is so narrow that it can be regarded as almost the same time. For this reason, the area sensor 24 and the area sensor 26 can detect the moment when the soles of the spectators 6 contact the floor 20a.
また、 図 2に示す音響装置 3 0、 送風機 3 2及び照明灯 3 4は、 入場用通路 4の任意の 位置に配置されている。 送風機 3 2及び照明灯 3 4は、 その出力の大きさ等を機器調節器 2 8により手動で調節することができるようになつている。  Further, the acoustic device 30, the blower 32, and the illuminating lamp 34 shown in FIG. 2 are arranged at arbitrary positions in the entrance passage 4. The blower 3 2 and the illuminating lamp 3 4 can be manually adjusted by means of the equipment adjuster 28, such as the output size.
コンピュータ 3 8は、 映像出力装置 2 2、 エリアセンサー 2 4, 2 6及び音響装置 3 0 を直接制御し、 また、 機器調節器 2 8を介して送風機 3 2及び照明灯 3 4を制御するよう になっている。  The computer 3 8 directly controls the video output device 2 2, the area sensors 2 4 and 2 6, and the audio device 3 0, and controls the blower 3 2 and the illuminating lamp 3 4 via the equipment adjuster 28. It has become.
図 4は、 コンピュータ 3 8の構成を示すブロック図である。 コンピュータ 3 8は、 判定 手段 4 0、 映像生成手段 4 2、 映像合成手段 4 4、 映像効果手段 4 6、 記憶手段 4 8、 機 器制御手段 5 0、 音響制御手段 5 2、 演出設定手段 5 4、 操作手段 5 5、 更新手段 5 6、 及び公衆回線 5 8に接続された通信手段 6 0を備えている。  FIG. 4 is a block diagram showing the configuration of the computer 38. The computer 38 includes a determination unit 40, a video generation unit 42, a video synthesis unit 44, a video effect unit 46, a storage unit 48, a device control unit 50, an acoustic control unit 52, and an effect setting unit 5 4. Operation means 5 5, update means 5 6, and communication means 60 connected to the public line 58.
そして、 コンピュータ 3 8は、 記億手段 4 8に補足情報 4 8 a、 映像生成プログラム 4 8 b、 映像素材 4 8 c、 映像効果プログラム 4 8 d、 音生成プログラム 4 8 e、 音素材 4 8 f 、 音効果プログラム 4 8 g、 及び機器制御プログラム 4 8 hを記憶するようになって いる。  The computer 3 8 includes the information 4 8 a, the video generation program 4 8 b, the video material 4 8 c, the video effect program 4 8 d, the sound generation program 4 8 e, and the sound material 4 8. f, sound effect program 48g, and device control program 48h are stored.
映像生成プログラム 4 8 b及び映像効果プログラム 4 8 dは、 映像に対して後述するよ うな加工処理を行なうための映像加工用プログラムであり、 音生成プログラム 4 8 e及ぴ 音効果プログラム 4 8 gは、 後述するように、 音響装置 3 0に効果音を出力させるための 効果音用プログラムである。  The video generation program 4 8 b and the video effect program 4 8 d are video processing programs for performing processing as will be described later on the video. The sound generation program 4 8 e and the sound effect program 4 8 g As described later, this is a sound effect program for causing the audio device 30 to output a sound effect.
記憶手段 4 8の補足情報 4 8 aには、 エリアセンサー 2 4, 2 6の各光軸と床面 2 0 a 上における位置との対応関係、 床面 2 0 a上の実際の位置と映像出力装置 2 2によって映 し出される映像上の位置との対応関係、 及び観客 6が床面 2 0 a上を歩行する方向として 予め定められている進行方向が記憶されている。  The supplementary information 4 8 a of the storage means 4 8 includes the correspondence between each optical axis of the area sensors 2 4 and 2 6 and the position on the floor 20 0 a, and the actual position and image on the floor 20 0 a. The correspondence relationship with the position on the image displayed by the output device 22 and the traveling direction predetermined as the direction in which the spectator 6 walks on the floor 20a are stored.
また、 補足情報 4 8 aには、 床面 2 0 a上を歩行すると想定される観客 6について、 そ の接触部分としての足の裏の典型的な形状が記憶されている。 この足の裏の典型的な形状 は、 所定の大きさごとに左足のものと右足のものが記億されている。 また、 このような足 の裏の典型的な形状は、 例えばウォーキングシューズのように、 つま先側とかかと側の形 状が繋がって一体的になっているものと、 ハイヒールのように、 つま先側とかかと側の形 状が互いに分離しているものとでは、 区別して記憶されている。 Further, in the supplementary information 48 a, the typical shape of the sole of the foot as the contact portion is stored for the audience 6 who is assumed to walk on the floor 20 a. The typical shape of the sole of the foot is recorded for the left foot and the right foot for each predetermined size. In addition, the typical shape of the sole of such a foot is, for example, a toe side and a heel side shape connected like a walking shoe, or a toe side like a high heel. Heel side shape They are stored separately from those that are separated from each other.
また、 映像生成プログラム 4 8 bは、 映像生成手段 4 2の動作内容を規定するプロダラ ムである。 映像素材 4 8 cは、 撮影した動画のデータ情報であって、 映像生成手段 4 2、 映像合成手段 4 4及び映像効果手段 4 6による加工処理の対象となるものであり、 記憶手 段 4 8には、 複数の映像素材 4 8 cが記億されている。 また、 映像効果プログラム 4 8 d は、 映像効果手段 4 6の動作内容を規定するプログラムである。  The video generation program 48 b is a program that defines the operation content of the video generation means 42. The video material 4 8 c is data information of the captured video, and is subject to processing by the video generation means 4 2, the video composition means 4 4, and the video effect means 4 6, and the storage means 4 8 There are a number of video materials 48c recorded. The video effect program 48 d is a program that defines the operation content of the video effect means 46.
また、 音生成プログラム 4 8 e及び音効果プログラム 4 8 gは、 音響制御手段5 2が音 響装置 3 0にどのような効果音を出力させるのかについて規定するプログラムである。 ま た、 音素材 4 8 f は、 録音された音のデータ情報であり、 記憶手段 4 8には、 複数の音素 材 4 8 fが記憶されている。 このような音素材 4 8 f には、 音楽のようなものも含まれる 判定手段 4 0は、 ェリァセンサー 2 4, 2 6による検出情報を取得すると共に、 記憶手 段 4 8の補足情報 4 8 aを参照することにより、 床面 2 0 a上を歩行する観客 6の両足の それぞれについて、 床面 2 0 aに接触した足の裏の位置、 大きさ及び形状を以下のように 判断するようになっている。 Also, the sound generator 4 8 e and sound effect program 4 8 g is a program that defines about what to output any sound effect to the sound control unit 5 2 Gaoto sound device 3 0. The sound material 48 f is recorded sound data information, and the storage means 48 stores a plurality of sound materials 48 f. Such sound material 4 8 f also includes music, etc. The judging means 40 obtains the detection information from the carrier sensors 2 4 and 2 6 and supplements the information 4 8 a stored in the memory means 4 8 a. For each of the legs of the spectator 6 walking on the floor surface 20 a, the position, size and shape of the sole of the foot in contact with the floor surface 20 a are determined as follows: It has become.
足の裏 (靴底) のつま先側とかかと側が一体的になっているウォーキングシューズ等を 履いた観客 6が床面 2 0 a上を進行方向に進んで、 図 5に示すように、 最初に左足 (一の 部位に相当) を踏み出し、 左足の裏が床面 2 0 a上に接触したとする。 ここで、 この左足 の裏が床面 2 0 aに接触した範囲を符号 Lで表し、 右足の裏が接触した範囲は符号 Rで表 すこととする。 また、 図 5中の縦方向及び横方向の各矢印は、 エリアセンサー 2 4, 2 6 の光軸である。  A spectator 6 wearing walking shoes, etc., where the toes and heels of the soles (sole) of the soles are integrated, proceeds in the direction of travel on the floor 20 0 a, and as shown in FIG. Assume that the left foot (corresponding to one part) is stepped on and the back of the left foot touches the floor 20a. Here, the range in which the back of the left foot is in contact with the floor 20a is represented by L, and the range in which the back of the right foot is in contact is represented by R. In addition, the vertical and horizontal arrows in FIG. 5 are the optical axes of the area sensors 2 4 and 2 6.
エリアセンサ一 2 4の複数の光軸は、 床面 2 0 aの長さ方向 (観客 6の進行方向と反対 方向) を向き、 エリアセンサ一 2 6の複数の光軸は、 床面 2 0 aの幅方向 (図中、 横右方 向) を向いているので、 左足の裏が床面 2 0 aに接触した範囲 Lに対応し、 それぞれの検 出方向の一定の範囲で光軸が遮蔽されるため、 左足の裏が床面 2 0 aに接触した範囲しの 大きさを検出することができる。  The multiple optical axes of the area sensor 1 2 4 are directed in the length direction of the floor surface 20 a (the direction opposite to the traveling direction of the spectator 6), and the multiple optical axes of the area sensor 1 2 6 are the floor surface 2 0 Since it faces the width direction of a (horizontal right direction in the figure), it corresponds to the range L where the back of the left foot is in contact with the floor 20 a, and the optical axis is in a certain range in each detection direction. Since it is shielded, it is possible to detect the size of the area where the back of the left foot is in contact with the floor 20a.
また、 図 1に示すように、 床面 2 0 aは一定の幅になっているので、 観客 6の左足はそ の進行方向における床面 2 0 aの左側半分の位置で検出されることになるため (図 3参照 ) 、 床面 2 0 aの左側半分に対応するエリアセンサ一 2 4の光軸が遮蔽されたことにより 、 図 4の補足情報 4 8 aを参照し、 遮蔽された光軸と床面 2 0 aの幅方向の位置を比較し て、 左足の裏が床面 2 0 aに接触した範囲 Lの位置、 及び床面 2 0 aに接触したのが左足 であることを検出することができる。 Also, as shown in FIG. 1, since the floor 20 a has a constant width, the left foot of the spectator 6 is detected at the left half position of the floor 20 a in the traveling direction. (See Fig. 3) Because the optical axis of the area sensor 24 corresponding to the left half of the floor 20a is shielded, see the supplementary information 48a in Fig. 4 to see the shielded light. Compare the width position of the shaft and floor 20 a Thus, it is possible to detect the position of the range L where the back of the left foot is in contact with the floor surface 20a and that the left foot is in contact with the floor surface 20a.
また、 判定手段 4 0は、 左足の裏が床面 2 0 aに接触した範囲 Lの大きさ、 及ぴこの範 囲 Lが床面 2 0 aの左側半分で検出された左足であることに基づき、 補足情報 4 8 aを参 照して、 このような条件に最も近似する足の裏の典型的な形状を選択し、 これが観客 6の 左足の裏の形状であると判断するようになっている。  Further, the judging means 40 is that the size of the range L in which the back of the left foot is in contact with the floor 20 a, and the range L is the left foot detected in the left half of the floor 20 a. Based on supplementary information 48 a, select the typical shape of the sole of the foot that most closely matches such conditions, and determine that this is the shape of the sole of the left foot of Audience 6. ing.
また、 図示しないが、 観客 6の足の裏が、 ハイヒールのように、 つま先側とかかと側の 形状が互いに分離しているものである場合には、 つま先側とかかと側の形状の間でェリァ センサー 2 4又はエリアセンサー 2 6の光軸が遮蔽されないため、 図 5に示すようなつま 先側とかかと側が一体的になっているウォーキングシューズ等と区別することができる。 したがって、 観客 6の足の裏としてハイヒール等をエリアセンサー 2 4 , 2 6が検出し た場合には、 判定手段 4 0は、 補足情報 4 8 aを参照し、 このような条件に最も近似する 足の裏の典型的な形状として、 つま先側とかかと側の形状が互いに分離しているものを選 択し、 これが観客 6の足の裏であると判断することができるようになつている。  Although not shown, if the soles of the toes and the heel are separated from each other like the high heel, the area between the toes and the heel is not shown. Since the optical axis of the sensor 24 or the area sensor 26 is not shielded, it can be distinguished from walking shoes or the like in which the toe side and the heel side are integrated as shown in FIG. Therefore, when the area sensors 2 4 and 2 6 detect high heels etc. as the soles of the spectators 6, the judging means 40 refers to the supplementary information 4 8 a and most closely approximates such a condition. As the typical shape of the sole of the foot, a shape in which the toe side and the heel side are separated from each other is selected, so that it can be judged that this is the sole of the spectator 6's foot.
また、 図 5に示すように、 観客 6が左足の次に踏み出す右足 (他の部位に相当) につい て、 この右足の裏が床面 2 0 aに接触したときには、 この右足の裏が床面 2 0 aに接触す る範囲 Rの形状は、 一般的に左足の裏が床面 2 0 aに接触する範囲 Lの形状と対称のはず であるから、 この右足の裏の接触する範囲 Rの形状を推定することができる。 そして、 こ のように推定した右足の裏の接触する範囲 の形状は、 実際の右足の裏の接触する範囲 R の位置と大きさ、 及び補足情報 4 8 aを参照して補正することができる。  In addition, as shown in Fig. 5, when the back of the right foot touches the floor surface 20 0 a on the right foot (corresponding to other parts) that the spectator 6 steps after the left foot, the back of the right foot is the floor surface. The shape of the range R in contact with 20 a should generally be symmetric with the shape of the range L in which the back of the left foot contacts the floor 20 a. The shape can be estimated. The estimated shape of the contact area of the right foot sole can be corrected by referring to the position and size of the actual contact area R of the right foot sole and supplementary information 48a. .
また、 図 6に示すように、 左足の次に右足を踏み出したときに、 右足の裏の接触する範 囲 Rのかかと側の一部が、 左足の裏の接触する範囲 Lと床面 2 0 aの長さ方向で重なった ような場合であっても、 判定手段 4 0は、 右足の裏の接触する範囲 Rの位置、 大きさ及ぴ 形状を判断することができるようになつている。  In addition, as shown in Fig. 6, when the right foot is stepped on after the left foot, the heel side part of the contact area R of the right foot is in contact with the contact area L of the left foot and the floor 20 Even in the case where they overlap in the length direction of a, the determination means 40 can determine the position, size and shape of the range R in contact with the sole of the right foot.
すなわち、 右足を踏み出したときに、 床面 2 0 a上の遮蔽物を床面 2 0の長さ方向の各 位置において検出するエリアセンサー 2 6に関して、 右足の裏の接触する範囲 Rのつま先 がわの部分は、 左足の裏の接触する範囲 Lが遮蔽する光軸とは別の光軸を新たに遮蔽する ようになるため、 これを検出することができる。 また、 遮蔽物を床面 2 0の幅方向の各位 置において検出するエリアセンサー 2 4は、 右足の裏の接触する範囲 Rを、 左足の裏の接 触する範囲 Lとは別個に新たに検出することができる。 2 したがって、 エリアセンサー 2 4及びエリアセンサー 2 6の新たに遮蔽された光軸の位 置と範囲、 及び左足の裏の接触する範囲 Lから推定される右足の裏の接触する範囲 Rの大 きさと形状に基づいて、 この右足の裏の接触する範囲 Rの位置、 大きさ及び形状を判断 ( 推定) することができるようになつている。 That is, when the right foot is stepped on, for the area sensor 26 that detects the shield on the floor surface 20 a at each position in the longitudinal direction of the floor surface 20, This part can be detected because a new optical axis other than the optical axis shielded by the area L in contact with the back of the left foot is shielded. In addition, the area sensor 24 that detects the shield at each position in the width direction of the floor 20 newly detects the area R that contacts the back of the right foot separately from the area L that contacts the back of the left foot. can do. 2 Therefore, the position and range of the newly shielded optical axis of area sensor 2 4 and area sensor 2 6, and the contact range L of the right foot estimated from the contact range L of the left foot sole is large. The position, size, and shape of the area R in contact with the sole of the right foot can be determined (estimated) based on the shape and shape.
また、 図 6に示す右足を踏み出した場合とは別に、 図 7に示すように、 左足の次に右足 を踏み出した場合に、 右足の裏の接触する範囲 Rのかかと側の一部が、 左足の裏の接触す る範囲 Lと床面 2 0の長さ方向及ぴ幅方向の両方において重なったような場合や、 図 8に 示すように、 右足の裏の接触する範囲 Rの全部が、 左足の裏の接触する範囲 Lと床面 2 0 の長さ方向において重なったような場合でも、 エリアセンサー 2 4及びエリアセンサー 2 6の新たに遮蔽された光軸の位置と範囲、 及び左足の裏の接触する範囲 Lから推定される 右足の裏の接触する範囲 Rの大きさと形状に基づいて、 この右足の裏の接触する範囲 の 位置、 大きさ及び形状を判断 (推定) するようになつている。  In addition to stepping on the right foot shown in Fig. 6, as shown in Fig. 7, when stepping on the right foot next to the left foot, part of the heel side of the contact area R on the back of the right foot is If the area L that touches the back of the floor overlaps with both the length and width of the floor 20 or if the area R that touches the back of the right foot, as shown in Figure 8, Even if it overlaps in the length direction of the floor surface 20 with the contact area L of the left foot, the position and range of the newly shielded optical axis of the area sensor 24 and area sensor 26, and the left foot Based on the size and shape of the contact area R of the right foot, estimated from the contact area L of the back, the position, size and shape of the contact area of the back of the right foot are judged (estimated). ing.
図 4に示すように、 判定手段 4 0は、 このように判断した観客 6の足の裏の位置、 大き さ及び形状の情報を、 映像生成手段 4 2、 映像効果手段 4 6、 機器制御手段 5 0及び音響 制御手段 5 2のそれぞれに出力するようになっている。  As shown in FIG. 4, the determination means 40 is the information on the position, size and shape of the soles of the spectators 6 determined as described above, the image generation means 42, the image effect means 46, and the device control means. This is output to each of 50 and acoustic control means 52.
なお、 判定手段 4 0の処理動作についての以上の説明は、 観客 6が左足の次に右足を踏 み出したような場合に基づいているが、 右足の次に左足を踏み出すような逆の場合であつ ても、 判定手段 4 0の処理動作は同様に行なわれる。  In addition, the above explanation about the processing operation of the judgment means 40 is based on the case where the spectator 6 steps the right foot next to the left foot, but the reverse case where the left foot is stepped next to the right foot. Even so, the processing operation of the determining means 40 is performed in the same manner.
また、 図 5ないし図 8に示すように、 判定手段 4 0の処理動作についての以上の説明は 、 主として観客 6の足の裏の形状が、 つま先側とかかと側が一体的になっている場合に基 づいているものであるが、 観客 6の足の裏の形状が、 つま先側とかかと側の形状がハイヒ ールのように互いに分離しているものである場合であっても、 判定手段 4 0の処理動作は 同様に行なわれる。  Further, as shown in FIGS. 5 to 8, the above description of the processing operation of the judging means 40 is mainly performed when the shape of the sole of the spectator 6 is integrated with the toe side and the heel side. Even if the shape of the soles of the spectators 6 is based on the toe side and the heel side are separated from each other as in the case of high-health, the judging means 4 The 0 processing operation is performed in the same way.
次に、 図 4に示すように、 映像生成手段 4 2は、 映像生成プログラム 4 8 bに基づいて 、 付加用映像を新たに生成するようになっている。 映像生成手段 4 2が生成した付加用映 像は、 映像合成手段 4 4に一定時間出力されるようになっている。  Next, as shown in FIG. 4, the video generation means 42 newly generates additional video based on the video generation program 48b. The additional video generated by the video generation means 42 is output to the video composition means 44 for a certain period of time.
このように、 映像生成手段 4 2の動作は、 記憶手段 4 8の映像生成プログラム 4 8 bに 基づいて行なわれるようになっているが、 映像生成プログラム 4 8 bは、 この映像生成プ ログラム 4 8 bが有する複数のテーマの中から選択された、 いずれかのテーマに沿って、 映像生成手段 4 2に付加用映像を生成させるような内容になっている。 映像生成手段 4 2が、 映像生成プログラム 4 8 bに基づいて、 どのようなテーマに沿つ た付加用映像を生成するのかについては、 後述するように、 演出設定手段 5 4が設定する ようになっており、 また、 この演出設定手段 5 4は、 映像生成手段 4 2に付加用映像を生 成させないよう設定することもできるようになつている。 映像生成手段 4 2は、 このよう な付加用映像を生成させない設定にされている場合には、 付加用映像を生成せず、 映像合 成手段 4 4に対して何も出力しない。 As described above, the operation of the video generation means 4 2 is performed based on the video generation program 4 8 b of the storage means 4 8, and the video generation program 4 8 b The content is such that the video generation means 42 generates additional video along any one of the themes selected from the plurality of themes of 8b. As will be described later, the production setting means 5 4 sets the video generation means 4 2 to generate the additional video according to the theme based on the video generation program 4 8 b. The production setting means 54 can also be set so that the video generation means 42 does not generate additional video. If the video generation means 42 is set not to generate such additional video, the video generation means 42 does not generate additional video and outputs nothing to the video synthesis means 44.
映像合成手段 4 4は、 映像素材 4 8 cに対する加工処理として、 映像生成手段 4 2から 受信した付加用映像を、 時間の経過に合わせて記憶手段 4 8から継続的に読み出している いずれかの映像素材 4 8 cに重ね合せて合成するようになっている。 そして、 この付加用 映像と映像素材 4 8 cとが合成された合成映像は、 映像効果手段 4 6に出力されるように なっている。  The video synthesizing means 4 4 continuously reads the additional video received from the video generating means 4 2 from the storage means 4 8 as time passes as the processing for the video material 4 8 c. It is designed to be superimposed on video material 4 8 c. Then, the synthesized video obtained by synthesizing the additional video and the video material 48 c is output to the video effect means 46.
ここで、 映像生成手段 4 2が、 演出設定手段 5 4の設定により、 付加用映像を生成しな い場合には、 映像合成手段 4 4は、 記憶手段 4 8から読み出したいずれかの映像素材 4 8 cを、 そのまま映像効果手段 4 6に出力するようになる。 このように、 付加用映像が合成 されない映像素材 4 8 cについても、 映像合成手段 4 4から出力された後は、 合成映像と いうこととする。  Here, when the video generation means 4 2 does not generate the additional video according to the setting of the production setting means 5 4, the video composition means 4 4 selects any of the video materials read from the storage means 4 8. 4 8 c is output to the video effect means 46 as it is. As described above, the video material 48 c in which the additional video is not synthesized is also referred to as a synthesized video after being output from the video synthesis means 44.
また、 演出設定手段 5 4により、 映像生成手段 4 2から映像合成手段 4 4に、 付加用映 像が出力されるように設定されている場合であっても、 後述するように、 映像合成手段 4 4が映像素材 4 8 cを読み出さないように設定されていることがある。 このような場合に は、 映像合成手段 4 4は、 映像生成手段 4 2から受信した付加用映像を、 そのまま映像効 果手段 4 6に出力するようになる。 このように、 映像素材 4 8 cが読み出されないために 、 映像素材 4 8 cに合成されない付加用映像についても、 映像合成手段 4 4から出力され た後は、 合成映像ということとする。  Further, even if the production setting means 5 4 is set so that the additional image is output from the video generation means 4 2 to the video synthesis means 4 4, as will be described later, the video synthesis means 4 4 may be set not to read video material 4 8 c. In such a case, the video composition unit 44 outputs the additional video received from the video generation unit 42 to the video effect unit 46 as it is. As described above, since the video material 48 c is not read out, the additional video that is not synthesized with the video material 48 c is also referred to as a synthesized video after being output from the video synthesis means 44.
映像効果手段 4 6は、 映像合成手段 4 4から出力された合成映像に対する加工処理とし て、 この合成映像に映像効果プログラム 4 8 dに基づく所定の映像効果を与えて、 この映 像信号をプロジェクタ 2 2 aに送信するようになっている。  The video effect means 4 6 applies a predetermined video effect based on the video effect program 48 d to the composite video as a processing for the composite video output from the video composite means 44, and outputs the video signal to the projector. 2 2 Sends to a.
ここで、 映像効果手段 4 6は、 記憶手段 4 8の映像効果プログラム 4 8 dに基づいて動 作するようになっているが、 映像効果プログラム 4 8 dは、 映像効果手段 4 6に様々な種 類の映像効果の処理を行なわせることができるような内容になっており、 映像効果手段 4 6は、 このような映像効果プログラム 4 8 dにより処理することができる複数の映像効果 の中から、 いずれかの選択された映像効果の処理を行なうようになっている。 Here, the video effect means 4 6 operates based on the video effect program 4 8 d of the storage means 4 8, but the video effect program 4 8 d is different from the video effect means 4 6. The video effect means 46 has a plurality of video effects that can be processed by such a video effect program 48 d. One of the selected video effects is processed.
映像効果手段 4 6が、 映像効果プログラム 4 8 dに基づいて、 いずれの映像効果の処理 を行なうのかについては、 後述するように、 演出設定手段 5 4が設定するようになってお り、. また、 この演出設定手段 5 4は、 映像効果手段 4 6による映像効果の処理が行なわれ ないよう設定することもできるようになつている。 映像効果手段 4 6は、 このような映像 効果を行なわない設定にされている場合には、 受信した合成映像を、 そのままプロジェク タ 2 2 aに送信するようになっている。  As will be described later, the effect setting means 5 4 sets which of the image effects is processed by the image effect means 4 6 based on the image effect program 48 d. Further, the effect setting means 54 can be set so that the video effect processing by the video effect means 46 is not performed. When the video effect means 46 is set not to perform such a video effect, the received composite video is directly transmitted to the projector 2 2a.
また、 機器制御手段 5 0は、 判定手段 4 0から観客 6の足の裏の位置、 大きさ及び形状 の情報を受信すると、 機器制御プログラム 4 8 hに基づレ、て、 図 2に示す機器調節器 2 8 に対し、 送風機 3 2及ぴ照明灯 3 4の動作を制御するための信号を出力するようになって レ、る。  Also, when the device control means 50 receives information on the position, size and shape of the soles of the spectators 6 from the judgment means 40, it is shown in FIG. 2 based on the device control program 48 h. A signal for controlling the operation of the blower 3 2 and the lighting lamp 3 4 is output to the equipment controller 2 8.
ここで、 図 4に示すように、 機器制御手段 5 0は、 記億手段 4 8の機器制御プログラム 4 8 hに基づいて、 送風機 3 2及び照明灯 3 4を動作させるようになっているが、 この機 器制御手段 5 0は、 機器制御プログラム 4 8 h中の複数の動作方法の中から選択された、 いずれかの動作方法に基づいて、 送風機 3 2及び照明灯 3 4を動作させるようになつてお り、 いずれの動作方法に基づくかについては、 後述するように、 演出設定手段 5 4が設定 するようになつている。  Here, as shown in FIG. 4, the device control means 50 operates the blower 3 2 and the illumination lamp 3 4 based on the device control program 48 h of the storage means 48. The device control means 50 operates the blower 3 2 and the illuminating lamp 3 4 based on any one of the operation methods selected from a plurality of operation methods in the device control program 48 h. Therefore, which operation method is used is set by the production setting means 54, as will be described later.
また、 コンピュータ 3 8の音響制御手段 5 2は、 判定手段 4 0から観客 6の足の裏の位 置、 大きさ及び形状の情報を受信すると、 音生成プログラム 4 8 e、 音素材 4 8 f及び音 効果プログラム 4 8 gに基づき、 図 2に示す音響装置 3 0から効果音を出力させるように なっている。  When the sound control means 5 2 of the computer 3 8 receives information on the position, size and shape of the sole of the audience 6 from the judgment means 40, the sound generation program 4 8 e, the sound material 4 8 f Based on the sound effect program 48g, the sound device 30 shown in Fig. 2 outputs sound effects.
図 4の音生成プログラム 4 8 eは、 音響制御手段 5 2が新たに効果音を生成する際に、 この効果音を生成する動作内容を規定するプログラムである。 また、 音効果プログラム 4 8 gは、 音生成プログラム 4 8 eに基づいて生成された音や音素材 4 8 f を、 音響制御手 段 5 2に、 どのような場合に、 どのようにして出力させるかを規定するプログラムである 例えば、 音響制御手段 5 2が、 判定手段 4 0から特定の情報を受信した場合に、 音生成 プログラム 4 8 eに基づいて生成された音や音素材 4 8 f に対して、 エコー (残響効果) 等の特殊な効果を与えて出力させるようになつている。  The sound generation program 4 8 e in FIG. 4 is a program that defines the operation content for generating the sound effect when the sound control means 52 generates a new sound effect. In addition, the sound effect program 4 8 g outputs the sound and sound material 4 8 f generated based on the sound generation program 4 8 e to the acoustic control device 52 in any case and how. For example, when the sound control means 5 2 receives specific information from the judgment means 40, the sound or sound material generated based on the sound generation program 4 8 e 4 8 f On the other hand, special effects such as echo (reverberation effect) are given and output.
また、 音響制御手段 5 2が、 音生成プログラム 4 8 e、 音素材 4 8 f及ぴ音効果プログ ラム 4 8 gに基づいて、 音響装置 3 0にどのような効果音を出力させるかについては、 後 述するように、 演出設定手段 5 4が設定するようになっている。 In addition, the sound control means 5 2 includes a sound generation program 4 8 e, a sound material 4 8 f, and a sound effect program. As will be described later, the effect setting means 54 sets the sound effect output from the sound device 30 based on the ram 48g.
更新手段 5 6は、 公衆回線 5 8に接続された通信手段 6 0が、 この公衆回線 5 8を通じ て、 記憶手段 4 8の補足情報 4 8 a、 映像生成プログラム 4 8 b、 映像効果プログラム 4 8 d、 音生成プログラム 4 8 e、 音効果プログラム 4 8 g、 又は機器制御プログラム 4 8 hのいずれかについて、 新しい内容のデータを外部から受信した場合に、 記憶手段 4 8の 対応する内容を、 受信した新しい内容のものに変更するようになっている。  The update means 5 6 is configured such that the communication means 60 connected to the public line 58 is connected through the public line 58 to the supplementary information 4 8 a of the storage means 4 8, the video generation program 4 8 b, and the video effect program 4. 8d, sound generation program 4 8 e, sound effect program 4 8 g, or device control program 4 8 h, when new data is received from outside, the corresponding contents of storage means 4 8 The new contents received are changed.
また、 更新手段 5 6は、 通信手段 6 0が公衆回線 5 8を通じて、 映像素材 4 8 c又は音 素材 4 8 f のデータを受信した場合には、 この受信した映像素材 4 8 c又は音素材 4 8 f のデータを、 すでに記憶手段 4 8に記憶されている映像素材 4 8 c又は音素材 4 8 f と一 緒に、 追加して記憶させるようになつている。  In addition, when the communication unit 60 receives the data of the video material 48c or the sound material 48f through the public line 58, the update unit 56 transmits the received video material 48c or sound material. The data of 48 8 f is additionally stored together with the video material 48 8 c or the sound material 48 8 f already stored in the storage means 48.
演出設定手段 5 4は、 この演出設定手段 5 4に接続された操作手段 5 5からの入力操作 に基づいて、 判定手段 4 0、 映像生成手段 4 2、 映像合成手段 4 4、 映像効果手段 4 6、 機器制御手段 5 0、 及び音響制御手段 5 2のそれぞれの動作内容を、 以下のように設定す るようになっている。  Based on the input operation from the operation means 5 5 connected to the effect setting means 54, the effect setting means 54 is based on the judging means 40, the image generating means 42, the image synthesizing means 44, the image effect means 4 6. The operation contents of the device control means 50 and the sound control means 52 are set as follows.
操作手段 5 5からの入力操作が、 判定手段 4 0の設定を変更するものであった場合には 、 演出設定手段 5 4は、 この入力操作に基づいて、 判定手段 4 0が動作するような設定、 又は動作しないような設定にすることができるようになつている。 判定手段 4 0は、 動作 しないように設定されると、 エリアセンサー 2 4, 2 6からの検出情報の取得を行なわず 、 また、 映像生成手段 4 2、 映像効果手段 4 6、 機器制御手段 5 0及び音響制御手段への 信号出力を行なわなくなる。  When the input operation from the operation means 5 5 is to change the setting of the determination means 40, the effect setting means 5 4 is configured so that the determination means 40 operates based on this input operation. It can be set or set so that it does not work. If the determination means 40 is set not to operate, the detection information is not acquired from the area sensors 24, 26, and the video generation means 42, the video effect means 46, the device control means 5 0 and no signal output to sound control means.
操作手段 5 5からの入力操作が、 映像生成手段 4 2の設定を変更するものであった場合 には、 演出設定手段 5 4はこの入力操作に基づいて、 映像生成手段 4 2が、 映像生成プロ グラム 4 8 aのいずれのテーマに沿って付加用映像を生成するのかについて設定するよう になっている。 また、 映像生成手段 4 2に付加用映像を生成させるか、 又は生成させない ようにするかについても設定することができるようになっている。  If the input operation from the operation means 5 5 is to change the setting of the video generation means 4 2, the production setting means 5 4 uses the input operation to generate the video generation means 4 2. The program 4 8 a is set according to which theme to generate additional video. In addition, it is possible to set whether the video generation means 42 is to generate additional video or not.
操作手段 5 5からの入力操作が、 映像合成手段 4 4の設定を変更するものであった場合 には、 演出設定手段 5 4は、 この入力操作に基づいて、 映像合成手段 4 4が記憶手段 4 8 の複数の映像素材 4 8 cの中から、 いずれのものを読み出すかについて設定するようにな つている。 また、 映像合成手段 4 4が、 いずれの映像素材 4 8 cについても読み出さない よう設定することもできるようになつている。 When the input operation from the operation means 5 5 is to change the setting of the video composition means 4 4, the effect setting means 5 4 is based on this input operation, and the video composition means 4 4 stores the storage means. It is configured to select which of the 4 8 video materials 4 8 c is to be read. Also, the video composition means 4 4 does not read any video material 4 8 c It can also be set as follows.
操作手段 5 5からの入力操作が、 映像効果手段 4 6の設定を変更するものであった場合 には、 演出設定手段 5 4は、 この入力操作に基づいて、 映像効果手段 4 6が、 映像効果プ ログラム 4 8 dにより、 合成映像に対してどのような映像効果を与えるのかについて設定 するようになつている。 また、 映像効果手段 4 6に映像効果の処理を行なわせる力、 又は このような処理を行なわせないようにするかについても設定することができるようになつ ている。  When the input operation from the operation means 5 5 is to change the setting of the video effect means 4 6, the effect setting means 5 4 determines that the video effect means 4 6 The effect program 4 8 d sets what kind of image effect is given to the composite image. In addition, it is possible to set the power to cause the video effect means 46 to perform the video effect processing, or whether to prevent such processing.
操作手段 5 5からの入力操作が、 機器制御手段 5 0の設定を変更するものであった場合 には、 演出設定手段 5 4は、 この入力操作に基づいて、 機器制御手段 5 0が、 送風機 3 2 及ぴ照明灯 3 4に、 機器制御プログラム 4 8 hのいずれの動作方法で動作させるのかにつ いて設定するようになっている。 また、 送風機 3 2及び照明灯 3 4のそれぞれについて、 動作を行なわせるかどうかについても設定することができるようになつている。  When the input operation from the operation means 5 5 is to change the setting of the device control means 50, the production setting means 5 4 is configured so that the device control means 50 is based on this input operation. 3 2 and the lighting lamp 3 4 are set for which operation method of the equipment control program 4 8 h. In addition, it is possible to set whether or not to operate each of the blower 3 2 and the illumination lamp 3 4.
操作手段 5 5からの入力操作が、 音響制御手段 5 2の設定を変更するものであった場合 には、 演出設定手段 5 4は、 この入力操作に基づいて、 音響制御手段 5 2が、 音響装置 3 0に、 どのような場合に、 どのような効果音を出力させるのかについて設定するようにな つている。 また、 音響制御手段 5 2に、 音響装置 3 0から効果音を全く出力させないよう 設定することもできるようになっている。  When the input operation from the operation means 5 5 is to change the setting of the sound control means 52, the production setting means 5 4 is controlled by the sound control means 52 according to the input operation. The device 30 is configured to set what kind of sound effect is output under what circumstances. Further, the sound control means 52 can be set so that no sound effect is output from the sound device 30 at all.
また、 演出設定手段 5 4は、 通信手段 6 0を介して公衆回線 5 8に接続されており、 通 信手段 6 0が、 公衆回線 5 8を通じて外部から、 判定手段 4 0、 映像生成手段 4 2、 映像 合成手段 4 4、 映像効果手段 4 6、 機器制御手段 5 0、 又は音響制御手段 5 2のいずれか についての設定を変更する旨の信号を受信した場合には、 操作手段 5 5から入力操作が行 なわれたときと同様 、 判定手段 4 0、 映像生成手段 4 2、 映像合成手段 4 4、 映像効果 手段 4 6、 機器制御手段 5 0、 又は音響制御手段 5 2の設定を変更するようになっている 次に、 図 2に示す映像出力装置 2 2によって映像が映し出されている床面 2 0 a上を観 客 6が歩行しているときに、 この観客 6の歩行に対応して行なわれる映像への加工処理等 について、 図 9のフローチヤ一ト等に基づいて説明する。  Further, the production setting means 5 4 is connected to the public line 58 via the communication means 60, and the communication means 60 is externally determined through the public line 58, as the determination means 40, the video generation means 4 2.When receiving a signal to change the setting of any one of the video composition means 44, the video effect means 46, the device control means 50, or the sound control means 52, from the operation means 55 As with the input operation, the setting of the judging means 40, the image generating means 42, the image synthesizing means 44, the image effect means 46, the device control means 50, or the sound control means 52 is changed. Next, when the spectator 6 is walking on the floor 20 0 a on which the video is displayed by the video output device 2 2 shown in FIG. The processing to be performed on the image is performed based on the flowchart shown in Fig. 9 Akira to.
ここで、 図 4に示す判定手段 4 0、 映像生成手段 4 2、 映像合成手段 4 4、 映像効果手 段 4 6、 機器制御手段 5 0、 及び音響制御手段 5 2のそれぞれは、 演出設定手段 5 4によ り、 以下のように設定されているものとする。 すなわち、 演出設定手段 5 4の設定により、 判定手段 4 0は所定の動作を行なう設定に なっているものとする。 Here, each of the determination means 40, the image generation means 42, the image composition means 44, the image effect means 46, the device control means 50, and the sound control means 52 shown in FIG. According to 5-4, the following settings are assumed. That is, it is assumed that the determination means 40 is set to perform a predetermined operation by the setting of the effect setting means 54.
また、 映像生成手段 4 2は、 演出設定手段 5 4により映像生成プログラム 4 8 bの複数 のテーマの中から、 その一つである 「魚の影」 が選択され、 付加用映像として魚の影の静 止画像を生成するような設定になっているものとする。 · この付加用映像としての魚の影の静止画像は、 「魚の影」 のテーマに対応するような映 像生成プログラム 4 8 bの規定内容に基づき、 床面 2 0 a上における観客 6の足の位置、 大きさ及び形状に対応して生成されるようになっている。 具体的には、 図 1 0に示すよう に、 観客 6の足の裏が接触した床面 2 0 a上の位置を基準として、 この位置を向いて任意 の姿勢で泳ぐような魚の影の静止画俊が、 足の裏の位置から任意の方向であって、 この足 の裏の大きさ及び形状に対応するような所定の範囲内における任意の位置に生成されるよ うになっている。  Also, the video generation means 42 is selected by the effect setting means 54 as one of the themes of the video generation program 48 b, and “fish shadow” is selected as the additional video. It is assumed that the setting is such that a still image is generated. · The still image of the fish shadow as the additional video is based on the contents of the video generation program 4 8 b corresponding to the theme of “fish shadow”, and the foot of the audience 6 on the floor 20 a It is generated according to the position, size and shape. Specifically, as shown in Fig. 10, with the position on the floor 20 a where the sole of the spectator 6 is in contact as a reference, the shadow of a fish that swims in any posture facing this position Pictographs are generated in any direction from the position of the sole of the foot and at any position within a predetermined range corresponding to the size and shape of the sole of the foot.
また、 映像合成手段 4 4は、 記憶手段 4 8の複数の映像素材 4 8 cの中から、 特定の映 像素材 4 8 cを読み出すように設定されている。 この特定の映像素材 4 8 cは、 周囲の景 色が反射して映っている湖面をこの湖面の上空から撮影したものであって、 この湖面がわ ずかに揺らめいて見えるような様子の映像であるものとする。  The video composition means 44 is set so as to read out a specific video material 48c from the plurality of video materials 48c in the storage means 48. This particular video material 4 8 c is a picture of the lake surface reflected from the surrounding scenery reflected from above, and it looks like the surface of the lake appears to slightly shake. Suppose that
映像効果手段 4 6は、 床面 2 0 a上に接触した観客 6の足の裏の位置、 大きさ及び形状 に基づいて、 これに対応するような足の裏の形状の輪郭線を、 映像生成手段 4 2から受信 した合成映像上に定めると共に、 この輪郭線の近傍の画素に対して、 光の屈折方向が変わ つて歪んで見えるような変化を与え、 このような変化の対象となる画素が、 時間の経過と 共に波紋状に広がって移り変わっていくような映像効果を与えるように設定されているも のとする。 .  Based on the position, size, and shape of the soles of the spectators 6 in contact with the floor surface 20 a, the image effect means 4 6, It is determined on the composite image received from the generating means 42, and a change is made to the pixels in the vicinity of the contour line so that the light refraction direction changes and appears to be distorted. However, it is assumed that it is set to give a video effect that spreads and changes in a ripple pattern over time. .
機器制御手段 5 0は、 床面 2 0 a上における観客 6の足の裏の位置が、 予め定めた所定 の位置であった場合には、 足の裏の大きさに対応して定まる時間の間隔で一定の回数だけ 、 送風機 3 2を断続的に動作させると共に、 これに合わせて照明灯 3 4を点滅させるよう に設定されており、 また、 観客 6の足の裏の形状が、 つま先側とかかと側がハイヒールの ように互いに分離した形状である場合には、 これに対応して、 送風機 3 2及ぴ照明灯 3 4 の動作の間隔を 2倍にするように設定されているものとする。  When the position of the soles of the spectators 6 on the floor surface 20 a is a predetermined position, the device control means 50 has a time determined according to the size of the soles. The fan 3 2 is operated intermittently at a certain number of intervals, and the lamp 3 4 is set to flash in accordance with this, and the shape of the sole of the foot of the audience 6 is on the toe side. When the heel side has a shape separated from each other like high heels, the operation interval of the blower 3 2 and the lighting lamp 3 4 is set to be doubled accordingly. .
音響制御手段 5 2は、 音効果プログラム 4 8 gに基づいて、 判定手段 4 0力 ら、 床面 2 0 a上における観客 6の足の裏の位置、 大きさ及び形状についての情報を受信したときに 、 直ちに水溜りに足を踏み入れたときの音を音素材 4 8 f から読み出し、 これを出力する ように設定されているものとする。 Based on the sound effect program 48g, the sound control means 52 receives information on the position, size and shape of the soles of the spectators 6 on the floor 20a from the judgment means 40 force. sometimes Immediately tone for stepped into puddle read from the sound material 4 8 f, is assumed to be set to output.
また、 床面 2 0 a上における観客 6の足の裏の位置が、 所定の位置であったような場合 には、 音生成プログラム 4 8 eにより、 足の裏の大きさに対応して定まる長さの音であつ て落雷したときのような雷音を生成して、 これを出力するように設定されているものとす る。  Also, if the position of the soles of the audience 6 on the floor 20 0 a is a predetermined position, the sound generation program 4 8 e determines the size of the soles of the feet. It is assumed that it is set to output a lightning sound with a length of sound that appears to be a lightning strike.
そして、 音響制御手段 5 2は、 観客 6の足の裏の形状が、 つま先側とかかと側がハイヒ ールのように互いに分離した形状である場合には、 これに対応して、 音素材 4 8 fから読 み出した音に対して、 エコー (残響効果) を掛けるような設定になっているものとする。 映像合成手段 4 4により読み出される特定の映像素材 4 8 cは、 判定手段 4 0、 映像生 成手段 4 2及び映像効果手段 4 6が行なう処理動作 (図 9のステップ 1ないしステップ S 5 ) とは関係なく、 時間の経過に対応して映し出される動画として、 映像合成手段 4 4か ら出力された後、 映像効果手段 4 6を介して連続的に映像出力装置 2 2のプロジェクタ一 2 2 aに出力される (図 4参照) 。 図 9のステップ S 4及びステップ S 5の処理動作は、 このような連続的に出力されている映像素材 4 8 cの信号に対して行なわれる。  When the shape of the soles of the spectators 6 is separated from each other such as the toe side and the heel side like a high-heel, the sound control means 52 corresponds to this, and the sound material 4 8 It is assumed that the sound read from f is set to apply echo (reverberation effect). The specific video material 48c read out by the video synthesizing means 44 is the processing operation (step 1 to step S5 in FIG. 9) performed by the judging means 40, the video generating means 42, and the video effect means 46. Regardless of whether the video is projected according to the passage of time or not, it is output from the video composition means 4 4 and then continuously through the video effect means 4 6. (See Fig. 4). The processing operations in step S4 and step S5 in FIG. 9 are performed on the signals of the video material 48c that are continuously output.
図 2に示す床面 2 0 a上に観客 6がいないときには、'エリアセンサー 2 4, 2 6は何も 検出しないので、 図 9のステップ S 1ないしステップ S 5の処理動作は行なわれないため 、 映像生成手段 4 2による新たな付加用映像の生成、 映像合成手段 4 4による映像素材 4 8 cへの付加用映像の合成、 及び映像効果手段 4 6による映像効果の処理は全く行なわれ ない。  When there is no spectator 6 on the floor surface 20 0 a shown in FIG. 2, the area sensors 2 4 and 2 6 do not detect anything, so the processing operations in steps S 1 to S 5 in FIG. 9 are not performed. The video generation means 4 2 generates a new additional video, the video synthesis means 4 4 does not synthesize the additional video to the video material 4 8 c, and the video effect means 4 6 does not process the video effect at all. .
したがって、 図 2の床面 2 0 a上には、 映像素材 4 8 cそのものの内容に基づいて、 周 囲の景色が反射して映っている湖面が、 わずかに揺らめいて見えるような様子の映像が映 し出されている。  Therefore, on the floor surface 20a in Figure 2, based on the contents of the video material 48c itself, the image of the lake surface reflecting the surrounding scenery appears to slightly shake. Is projected.
このような状態のときに、 床面 2 0 a上に観客 6が入ってきて足が踏み入れられると、 エリアセンサー 2 4, 2 6がこれを検出し (図 9中、 ステップ S 1 ) 、 判定手段 4 0は、 エリアセンサー 2 4, 2 6から取得した検出情報に基づいて、 観客 6の足の裏が床面 2 0 aに接触している範囲の位置、 大きさ及び形状を判断するようになっている (ステップ S 2 ) 。 ' 次に、 このような観客 6の足の裏の位置、 大きさ及ぴ形状の情報に基づいて、 水中を泳 ぐ魚の影の付加用映像が、 映像生成手段 4 2により新たに生成される (ステップ S 3 ) 。 この付加用映像は、 映像合成手段 4 4により映像素材 4 8 cと合成されるようになってい る (ステップ S 4 ) 。 In this state, when the spectator 6 enters the floor 20a and the foot is stepped on, the area sensors 2 4 and 2 6 detect this (step S1 in FIG. 9) and judge. Means 40 determines the position, size and shape of the area in which the soles of the spectators 6 are in contact with the floor surface 20 a based on the detection information acquired from the area sensors 24 and 26. (Step S2). 'Next, based on the information on the position, size, and shape of the soles of the feet of the audience 6, a video for adding shadows of fish swimming underwater is newly generated by the video generation means 42. (Step S3). This additional video is synthesized with the video material 48 c by the video synthesizing means 44 (step S 4).
そして、 このような付加用映像と映像素材 4 8 cとの合成映像には、 映像効果手段 4 6 により、 観客 6の足の裏が接触した床面 2 0 a上の位置、 大きさ及び形状に対応する輪郭 線の近傍の画素に対し光の屈折方向が変わって歪んで見えるような変化が与えられると共 に、 このような変化の対象となる画素が、 時間の経過と共に波紋状に移り変わっていくよ うな映像効果が与えられるようになつている (ステップ S 5 ) 。  Then, for the composite image of the additional image and the image material 48c, the position, size and shape on the floor surface 20a where the soles of the audience 6 are in contact by the image effect means 46. In addition to the change in the light refraction direction that appears to be distorted for the pixels in the vicinity of the contour line corresponding to, the pixels that are subject to such changes change to ripples over time. (Step S5).
そして、 観客 6の床面 2 0 a上における歩行の 2歩目以降に対しては、 1歩目と同様に 、 ステップ S 1ないしステップ S 5が操り返し行なわれるようになつている。  For the second and subsequent steps of walking on the floor 20 a of the spectator 6, steps S1 to S5 are repeated as in the first step.
このようなステップ 1ないしステップ S 5の処理動作はリアルタイムで行なわれるため 、 床面 2 0 a上を歩行する観客 6にとつては、 図 1 0に示すように、 湖面上を歩行して、 湖面に接触した足の裏の位置に魚の影が寄って来たように見えると共に、 湖面に接触した 足の裏の位置、 大きさ及び形状に対応する波紋が生じて、 この波紋が図 1 0中の破線のよ うにして矢印方向に広がって見えるので、 寄って来た魚の影や湖面に映った景色が波紋で 歪んだように見える。  Since the processing operation of such step 1 to step S5 is performed in real time, for the spectator 6 walking on the floor 20a, as shown in FIG. 10, walking on the lake surface, It appears that the shadow of the fish has come to the position of the sole of the foot in contact with the lake surface, and a ripple corresponding to the position, size and shape of the sole of the foot in contact with the lake surface is generated, and this ripple is shown in FIG. Since it appears to spread in the direction of the arrow as shown by the dashed line inside, the shadow of the fish that came near and the scenery reflected on the lake surface appear to be distorted with ripples.
また、 判定手段 4 0による図 9中のステップ S 2の処理動作の直後には、 ステップ S 3 以降の処理動作とは別に、 図 4に示す機器制御手段 5 0及び音響制御手段 5 2の制御動作 によって、 図 2に示す音響装置 3 0、 送風機 3 2及び照明灯 3 4が、 観客 6の足の裏の位 置、 大きさ及び形状に基づいて所定の動作を行なうようになっている。  Further, immediately after the processing operation of step S2 in FIG. 9 by the determination means 40, the control of the device control means 50 and the acoustic control means 52 shown in FIG. By the operation, the acoustic device 30, the blower 32, and the illumination lamp 34 shown in FIG. 2 perform a predetermined operation based on the position, size, and shape of the sole of the audience 6.
すなわち、 音響装置 3 0は、 床面 2 0 a上に観客 6の足の裏が接触すると、 水溜りに足 を踏み入れたような効果音を出力するようになつており、 その音の大きさは観客6の足の 裏の大きさに対応して出力される。 In other words, the sound device 30 outputs a sound effect as if the foot of the spectator 6 touched the floor surface 20 a and the foot of the spectator 6 touched the puddle. Is output corresponding to the size of the soles of the audience 6 .
そして、 床面 2 0 a上における観客 6の足の裏が接触した位置が、 予め定められていた 所定の位置であった場合には、 観客 6の足の裏の大きさに対応する時間の間隔で、 送風機 3 2が断続的に動作して、 観客 6に風が吹き始めたように感じさせると共に、 照明灯 3 4 が点滅し、 また、 音響装置 3 0から落雷のような音が出力されるため、 雷雲の接近を擬似 的に感じさせるようになつている。  If the position where the sole of the spectator 6 touches the floor 20 a is a predetermined position, the time corresponding to the size of the sole of the spectator 6 At intervals, the blower 3 2 operates intermittently, causing the audience 6 to feel that the wind has begun to blow, and the illuminating light 3 4 flashes, and a sound like a lightning strike is output from the acoustic device 30. Therefore, the approach of the thundercloud is simulated.
また、 特に、 観客 6の足の裏の形状が、 つま先側とかかと側がハイヒールのように互い に分離した形状のものである場合には、 送風機 3 2と照明灯 3 4が動作する時間の間隔が 2倍の長さになると共に、 音響装置 3 0から出力される落雷の音にエコーが掛かるため、 2 擬似的に嵐の中を歩いているように感じさせるようになつている。 In particular, when the shape of the soles of the spectators 6 is such that the toe side and the heel side are separated from each other like high heels, the interval between the time when the blower 3 2 and the lighting lamp 3 4 operate Is twice as long, and the sound of thunderbolts output from the acoustic device 30 is echoed. 2 It feels like walking in a storm.
また、 図 4の演出設定手段 5 4により、 映像生成手段 4 2、 映像合成手段 4 4及び映像 効果手段 4 6のそれぞれについて、 上記と異なる処理動作を行なうように設定すれば、 映 像生成手段 4 2、 映像合成手段 4 及び映像効果手段 4 6に異なる内容の映像演出を行な わせることができる。  Further, if the production setting means 5 4 in FIG. 4 is set so that each of the video generation means 4 2, the video synthesis means 4 4 and the video effect means 4 6 performs processing operations different from the above, the image generation means 4 2. Video composition means 4 and video effect means 46 can be used to produce different video effects.
例えば、 映像合成手段 4 4については、 いずれの映像素材 4 8 cも読み出さないように 設定する。 また、 映像効果プログラム 4 8 dについては、 映像効果の処理動作を行なわな いように設定する。 すなわち、 図 9中のステップ S 5の処理動作を行なわせないようにす る。  For example, the video composition means 4 4 is set not to read any video material 4 8 c. Also, set the video effect program 48d so that no video effect processing is performed. That is, the processing operation in step S5 in FIG. 9 is not performed.
そして、 映像生成手段 4 2については、 演出設定手段 5 4により映像生成プログラム 4 8 bの複数のテーマの中から、 その一つである 「撥ね返り図形」 を選択することにより、 床面 2 0 aに観客 6の足の裏が接触した位置に対応して、 この位置から一定以上だけ離れ た任意の位置に、 付加用映像として幾何学的な任意の図形を発生させた後、 このような図 形が観客 6の足の位置に向かって移動して観客 6の足の裏の大きさ及び形状に対応して撥 ね返るような映像を、 映像生成手段 4 2に連続的に生成させるような設定になっているも のとする。  For the video generation means 42, the floor setting 20 4 is selected by selecting one of the rebound figures from the plurality of themes of the video generation program 48b by the production setting means 54. Corresponding to the position where the sole of the foot of the spectator 6 is in contact with a, an arbitrary geometric figure is generated as an additional image at an arbitrary position separated from this position by a certain distance. The image generation means 42 continuously generates an image whose shape moves toward the foot of the audience 6 and rebounds according to the size and shape of the sole of the audience 6 It is assumed that the settings are correct.
映像生成手段 4 2、 映像合成手段 4 4及び映像効果手段 4 6のそれぞれが、 このような 設定になっていれば、 床面 2 0 a上における観客 6の歩行に対応して、 図 9のステップ S 1ないしステップ S 4の処理動作が繰り返して行なわれるため、 観客 6は自分の歩行に合 わせて、 幾何図形が生成されたり撥ね返ったりする様子を見て楽しむことができる。 また、 映像生成手段 4 2の設定について、 演出設定手段 5 4により映像生成プログラム 4 8 bの複数のテーマの中から、 「撥ね返り図形」 のテーマが選択される代わりに、 これ と異なる 「付着図形」 のテーマが選択されてもよい。  If each of the image generation means 4 2, the image composition means 4 4, and the image effect means 4 6 has such a setting, it corresponds to the walking of the audience 6 on the floor surface 20 a, as shown in FIG. Since the processing operations from step S 1 to step S 4 are repeated, the spectator 6 can enjoy watching the generation of geometric figures and rebounding as they walk. Also, regarding the setting of the video generation means 4 2, a different “adhesion” is used instead of selecting the theme of “reflecting figure” from the multiple themes of the video generation program 4 8 b by the production setting means 5 4. The “graphic” theme may be selected.
この場合には、 映像生成手段 4 2は、 「撥ね返り図形」 のテーマが選択された場合と異 なり、 幾何学的な任意の図形が観客 6の足にぶっかったときに撥ね返らずに、 この観客 6 の足の裏の大きさ及び形状に対応して、 その外形を変化させながら付着するように見える 映像を連続的に生成するようになっている。 映像生成手段 4 2がこのような設定になって いる場合には、 床面 2 0 a上の観客 6は、 自分の歩行に合わせて生成された幾何図形が、 変形しながら自分の足に付着する様子を見て楽しむことができる。  In this case, the image generation means 42 does not rebound when an arbitrary geometric figure hits the audience 6, unlike the case where the theme of “rebound shape” is selected. Corresponding to the size and shape of the sole of the foot of the spectator 6, images that appear to adhere while changing the outer shape are continuously generated. When the image generation means 4 2 is set as described above, the audience 6 on the floor 2 0 a is attached to his / her feet while deforming the geometric figure generated according to his / her walking. You can enjoy watching it.
このような本実施の形態に係る映像演出システム 2及び映像演出方法によれば、 観客 6 の動作と床面 2 0 aに映し出される映像とが相互に作用するため、 観客 6は、 このような 映像との一体感を得ることにより映像の現実感を感じることができる。 According to the video production system 2 and the video production method according to the present embodiment, the audience 6 Since the movement of the screen and the image projected on the floor surface 20 a interact with each other, the audience 6 can feel the reality of the image by obtaining a sense of unity with such an image.
また、 映像出力装置 2 2を床 2 0の下側に酉己置したことにより、 天井側から映像を床面 2 0 aに投影するのと異なって、 観客 6の影が床面 2 0 aに映ることがないため、 床面 2 0 aに映し出される映像が観客 6の影に隠れて見えなくなるようなことを防止することが できる。 '  In addition, by placing the video output device 2 2 on the lower side of the floor 20, the shadow of the spectator 6 is different from the image projected on the floor 20 a from the ceiling side. Therefore, it is possible to prevent the image projected on the floor surface 20 a from being hidden by the shadow of the spectator 6 and becoming invisible. '
また、 コンピュータ 3 8の判定手段 4 0は、 床面 2 0 aにおける観客 6の足の裏の位置 、 大きさ、 及び記憶手段 4 8の補足情報 4 8 aから、 この観客 6の足の裏の形状を判定す るようになっているため、 観客 6の足の裏の位置、 大きさ及び形状に対応するように映像 素材 4 8 cの加工処理を行なって、 床面 2 0 aに映し出される映像に現実感を感じさせる ことができる。  Further, the judging means 40 of the computer 3 8 is the position of the sole of the spectator 6 on the floor surface 20 a, the size, and the supplementary information 4 8 a of the storage means 4 8. Therefore, the video material 4 8 c is processed to correspond to the position, size and shape of the sole of the foot of the spectator 6 and is displayed on the floor 2 0 a. The image can be made to feel real.
また、 映像素材 4 8 cに対する加工処理として、 映像生成手段 4 2により生成された新 たな付加用映像が、 映像合成手段 4 4により合成されるようになっているので、 映像によ る演出効果を向上させることができる。  In addition, as a processing for the video material 48c, a new additional video generated by the video generation means 42 is synthesized by the video synthesis means 44, so that the production by the video is possible. The effect can be improved.
また、 映像素材 4 8 c、 付加用映像、 又は付加用映像と映像素材 4 8 cとの合成映像に 対する加工処理として、 映像効果手段 4 6が所定の変化を与えるようになっているので、 映像による演出効果を向上させることができる。  In addition, as the video material 48c, additional video, or composite processing of the additional video and video material 48c, the video effect means 46 will give a predetermined change. It is possible to improve the production effect by the video.
また、 映像素材 4 8 cに対する加工処理として、 映像効果手段 4 6が、 足の裏が床面 2 0 a上において接触した位置、 大きさ及び形状に対応するような足の裏の形状の輪郭線を 定めると共に、 この足の裏の形状の輪郭線の近傍の画素に対して、 光の屈折方向が変わつ て歪んで見えるような変化を与えて、 このような変化の対象となる画素が波紋状に広がつ て移り変わつていくような映像効果を与えるようになっているので、 観客 6が湖面等の水 面上を歩いているような映像演出を行なうことができる。  Also, as a processing process for the video material 48c, the video effect means 46 has a contour of the sole shape corresponding to the position, size and shape where the sole contacted on the floor 20a. In addition to defining the line, a change is made to the pixel near the contour line of the sole shape so that the light refraction direction changes and appears distorted. Since the image effect is such that the ripples spread and change, it is possible to produce an image as if the spectator 6 is walking on the surface of a lake or the like.
また、 床面 2 0 aに映し出される映像素材 4 8 cに対して、 映像生成手段 4 2、 映像合 成手段 4 4及び映像効果手段 4 6が映像演出を行なうこと以外にも、 音響装置 3 0、 送風 機 3 2及び照明灯 3 4による演出が行なわれるため、 映像に現実感を感じさせる演出効果 をさらに向上させることができる。  In addition to the video production means 4 2, the video synthesis means 4 4 and the video effect means 4 6 performing video production on the video material 4 8 c projected on the floor 20 a, the audio device 3 0, because the production by the blower 3 2 and the illuminating lamp 3 4 is performed, it is possible to further improve the production effect of making the video feel realistic.
また、 更新手段 5 6により、 通信手段 6 0及び公衆回線 5 8を通じて、 記憶手段 4 8の 捕足情報 4 8 a、 映像生成プログラム 4 8 b、 映像素材4 8 c及び映像効果プログラム 4 8 dを、 外部から新たな内容のものに変更することができるので、 床面 2 0 aに様々な映 像素材 4 8 cを映し出したり、 このような映像 4 8 cに対して様々な加工処理を行なうこ とができる。 In addition, the update means 5 6 allows the communication means 60 and the public line 58 to be used to store information 4 8 a in the storage means 4 8 a, video generation program 4 8 b, video material 4 8 c, and video effect program 4 8 d. Can be changed to new ones from the outside, so that various images can be displayed on the floor 2 0 a. The image material 48c can be projected, and various kinds of processing can be performed on the image 48c.
また、 更新手段 5 6により、 通信手段 6 0及び公衆回線 5 8を通じて、 記憶手段 4 8の 音生成プログラム 4 8 e、 音素材 4 8 f 、 音効果プログラム 4 8 g及び機器制御プログラ ム 4 8めについても、 外部から新たな内容のものに変更することができるので、 床面 2 0 aに映し出される映像素材 4 8 cや、 このような映像 4 8 cに対して行なわれる加工処理 の変更に合わせて、 音響装置 3 0から出力される効果音を変更したり、 送風機 3 2や照明 灯 3 4の動作を変更したりすることができる。  Also, the update means 5 6 allows the sound generation program 4 8 e, the sound material 4 8 f, the sound effect program 4 8 g, and the equipment control program 4 8 of the storage means 4 8 through the communication means 60 and the public line 58. Since the content can be changed to a new one from the outside, the video material 4 8 c displayed on the floor 2 0 a and the processing performed on such video 4 8 c can be changed. The sound effect output from the audio device 30 can be changed, and the operation of the blower 32 and the lighting lamp 34 can be changed.
なお、 本実施の形態においては、 床面 2 0 aに映し出される映像に対して本発明を適用 した場合について説明したが、 階段等の踏み面に映し出される映像に対して本発明を適用 してもよレ、。 また、 床面や階段等の踏み面以外の足の踏み場に映し出される映像に対して も、 本発明を適用することができることはいうまでもない。  In the present embodiment, the case where the present invention is applied to an image projected on the floor 20 a has been described, but the present invention is applied to an image projected on a tread such as a staircase. Moyore. In addition, it goes without saying that the present invention can also be applied to an image projected on a foot step other than a step surface such as a floor surface or a staircase.
また、 本実施の形態において、 背面透過型スクリーン 2 2 bは、 床 2 0の下側の近傍に 平行に配置されるようなものを用いたが、 このような背面透過型スクリーン 2 2 bとは異 なる他の種類の背面透過型スクリーンとして、 株式会社きもと製の 「ディラッドスクリー ン (商品名) 」 のようにフィルム状になっていて、 図 2に示す床 2 0の床面 2 0 aとは反 対側の面に直接貼り付けることができるようになっているものを用いてもよい。  In the present embodiment, the rear transmissive screen 2 2 b is arranged in parallel near the lower side of the floor 20, but such a rear transmissive screen 2 2 b Is a different type of rear transmissive screen, and is in the form of a film such as “Dradd Screen (trade name)” manufactured by Kimoto Co., Ltd. A material that can be directly attached to the opposite surface may be used as a.
また、 本実施の形態では、 プロジェクター 2 2 aの映像が背面透過型スクリーン 2 2 b に映し出されるようになっていたが、 背面透過型スクリーン 2 2 bに代えて、 このような 背面透過型スクリーン 2 2 bと同様に機能するような薄い紙等を床 2 0の下側に平行に配 置し、 このような薄い紙等に映像を映し出すようになつていてもよい。  In this embodiment, the image of the projector 2 2 a is projected on the rear transmissive screen 2 2 b, but instead of the rear transmissive screen 2 2 b, such a rear transmissive screen is used. A thin paper or the like that functions in the same way as 2 2 b may be placed parallel to the lower side of the floor 20 so that an image is projected on such a thin paper.
また、 本実施の形態においては、 映像出力装置 2 2はプロジェクター 2 2 aと背面透過 型スクリーン 2 2 bを備えて、 これらが床 2 0の下側に配置されるようになっているが、 プロジェクタ 2 2 aを天井等に設けて、 床面 2 0 aに上側から映像を投影するようにして もよレ、。 このような場合には、 床 2 0は透明な材質以外のものを用いるようにする。 また、 本実施の形態において、 映像出力装置 2 2はプロジェクター 2 2 aと背面透過型 スクリーン 2 2 bを備えて、 これらが床 2 0の下側に配置されるようになっているが、 こ のようなプロジェクター 2 2 aと背面透過型スクリーン 2 2 bに代えて、 プラズマデイス プレイ等のモニタを床 2 0の下側に配置するようになっていてもよい。 In the present embodiment, the video output device 2 2 includes a projector 2 2 a and a rear transmission screen 2 2 b, which are arranged below the floor 20. You can install the projector 2 2 a on the ceiling and project the image from the upper side on the floor 20 a. In such a case, the floor 20 should be made of a material other than a transparent material. In the present embodiment, the video output device 22 includes a projector 2 2 a and a rear transmission screen 2 2 b, which are arranged below the floor 20. Instead of the projector 2 2 a and the rear transmission screen 2 2 b, a monitor such as a plasma display may be arranged below the floor 20.
また、 本実施の形態において、 映像演出システム 2は映像出力装置 2 2を 1台だけ備え るようになっていたが、 映像出力装置 2 2を複数備えるようになっていてもよい。 In this embodiment, the video production system 2 includes only one video output device 2 2. However, a plurality of video output devices 22 may be provided.
また、 本実施の形態では、 音響制御手段 5 2による音響装置 3 0の効果音の一例として 、 床面 2 0 a上における観客 6の足の裏が接触した位置が、 予め定められていた所定の位 置であった場合に、 音響装置 3 0から落雷のような音を発生させ、 この音の長さが観客 6 の足の裏に対応して定まり、 また、 観客 6の足の裏がつま先側とかかと側が互いに分離し た形状である場合に、 エコーが掛かるようになっていたが、 音響装置 3 0から出力される 効果音は、 このようなものに限られない。  In the present embodiment, as an example of the sound effect of the acoustic device 30 by the acoustic control means 52, the position where the soles of the spectators 6 are in contact with each other on the floor surface 20a is a predetermined predetermined value. The sound device 30 generates a sound like a lightning strike, and the length of this sound is determined according to the sole of the audience 6, and the sole of the audience 6 is An echo is applied when the toe side and the heel side are separated from each other. However, the sound effect output from the acoustic device 30 is not limited to this.
例えば、 音響装置 3 0は、 床面 2 0 a上における観客 6の足の裏が接触した位置が所定 の位置ゃ大きさであった場合に、 落雷以外の所定の音を発するようになっていてもよい。 また、 床面 2 0 a上における観客 6の足の裏の位置、 大きさ又は形状のいずれかに対応し て、 音量、 音程又は音質が変化するようになっていてもよい。  For example, the sound device 30 emits a predetermined sound other than lightning when the position where the soles of the spectators 6 touch on the floor surface 20 a is a predetermined position. May be. Further, the volume, pitch, or sound quality may be changed according to any of the position, size, or shape of the soles of the spectators 6 on the floor surface 20 a.
また、 本実施の形態では、 送風機 3 2及び照明灯 3 4の動作の一例として、 床面 2 0 a 上における観客 6の足の裏が接触した位置が、 予め定められていた所定の位置であった場 合に、 断続的に一定の回数だけ送風機 3 2を動作させると共に、 照明灯 3 4を点滅させる ようになっていたが、 送風機 3 2及び照明灯 3 4のそれぞれの動作は、 このようなものに 限られなレ、。  Further, in the present embodiment, as an example of the operation of the blower 3 2 and the illuminating lamp 3 4, the position where the soles of the spectators 6 are in contact with each other on the floor 20 a is a predetermined position. In such a case, the fan 3 2 was intermittently operated a certain number of times, and the lamp 3 4 was blinking. However, each operation of the fan 3 2 and the lamp 3 4 Les that are limited to such things.
例えば、 送風機 3 2及び照明灯 3 4の動作として、 床面 2 0 a上の観客 6の足の裏が第 1の所定の位置に接触した場合に、 送風機 3 2が送風を開始すると共に照明灯 3 4が点灯 して、 第 2の所定の位置に接触した場合に、 送風機 3 2が送風を停止すると共に照明灯 3 4が消灯するようになっていてもよい。  For example, as the operation of the blower 3 2 and the illuminating lamp 3 4, when the sole of the spectator 6 on the floor 20 0 a comes into contact with the first predetermined position, the blower 3 2 starts to blow and illuminates. When the lamp 34 is turned on and comes into contact with the second predetermined position, the blower 32 may stop blowing and the illumination lamp 34 may be turned off.
また、 送風機 3 2は、 床面 2 0 a上における観客 6の足の裏が接触した位置、 大きさ及 び形状のいずれかに対応して、 風の強さ等を変化させるようになっていてもよい。  Also, the blower 3 2 changes the strength of the wind in accordance with any one of the position, size and shape of the floor of the spectator 6 on the floor 20 a where the soles contact. May be.
また、 照明灯 3 4は、 床面 2 0 a上における観客 6の足の裏が接触した位置、 大きさ及 ぴ形状のいずれかに対応して、 点灯、 消灯若しくは点滅するようになっていてもよく、 ま た、 照明灯 3 4の点滅の間隔や、 点灯しているときの明るさが変化するようになっていて もよい。  In addition, the illuminating lamp 3 4 is lit, extinguished, or blinking according to the position, size and shape of the floor of the spectator 6 on the floor 20 a where the soles of the spectators 6 are in contact. It is also possible that the interval of blinking of the lighting lamps 3 4 and the brightness when the lamps are lit change.
また、 本実施の形態では、 床面 2 0 aに映し出される映像の演出を行なうことのほかに 、 音響装置 3 0、 送風機 3 2及び照明灯 3 4を備えていることにより演出効果を向上する ようになっているが、 このような音響装置 3 0、 送風機 3 2及び照明灯 3 4以外の他の動 力装置等を備えることにより、 床面 2 0 aに映し出される映像の演出効果を向上するよう にしてもよい。 - また、 本実施の形態では、 床面 2 0 a上における観客 6の足の裏の位置及び大きさを検 出する検出装置として、 エリアセンサー 2 4, 2 6を用いるように.なっていたが、 複数の 個別の光透過型センサーをエリアセンサー 2 4, 2 6と同様に機能するように、 間隔をお いて一列に並べて用いるようにしてもよい。 Further, in the present embodiment, in addition to performing an image projected on the floor surface 20 a, the sound effect is improved by providing the acoustic device 30, the blower 3 2, and the illumination lamp 3 4. However, it is possible to improve the visual effect of the image displayed on the floor 20 a by providing such a dynamic device other than the acoustic device 30, the blower 3 2, and the lamp 3 4. To do It may be. -In the present embodiment, the area sensors 24 and 26 are used as a detection device for detecting the position and size of the soles of the spectators 6 on the floor 20 a. However, a plurality of individual light transmission sensors may be arranged in a line at intervals so that they function in the same manner as the area sensors 24 and 26.
また、 検出装置として、 エリアセンサーのような光透過型センサー以外のセンサー等を 用いるようにしてもよい。 例えば、 床面 2 0 a上に感圧素子等を配置して、 観客 6の足の 裏の位置、 大きさ及び形状を検出するようになっていてもよい。 このような場合には、 コ ンピュータ 3 8の判定手段 4 0が記憶手段 4 8の補足情報 4 8 aを参照して、 観客 6の足 の裏の形状を判定する処理動作を省略することができる。  In addition, a sensor other than a light transmission type sensor such as an area sensor may be used as the detection device. For example, a pressure sensitive element or the like may be arranged on the floor 20 a to detect the position, size and shape of the sole of the audience 6. In such a case, the determination means 40 of the computer 3 8 may omit the processing operation for determining the shape of the sole of the audience 6 by referring to the supplementary information 4 8 a of the storage means 48. it can.
また、 本実施の形態において、 コンピュータ 3 8の記憶手段 4 8には、 補足情報 4 8 a として観客 6の足の裏の典型的な形状が記憶されていて、 この足の裏の典型的な形状は、 床面 2 0 a上における観客 6の足の裏の位置と大きさの組合せに対応するようになってい たが、 観客 6の足の裏の大きさだけに対応するようになっていてもよい。  In the present embodiment, the storage means 4 8 of the computer 3 8 stores the typical shape of the sole of the audience 6 as supplementary information 4 8 a, and the typical shape of the sole of the foot is stored. The shape corresponds to the combination of the position and size of the sole of the spectator 6 on the floor 20 0 a, but it corresponds to the size of the sole of the spectator 6 only. May be.
また、 本実施の形態では、 図 2に示すように、 入場用通路 4に映像演出システム 2が構 築され、 この映像演出システム 2の床面 2 0 aに映像が映し出されるようになつていたが 入場用通路 4以外の場所に映像演出システム 2が構築され、 その場所の床面 2 0 aに映像 が映し出されるようになっていてもよい。  Further, in the present embodiment, as shown in FIG. 2, the video production system 2 is constructed in the entrance passage 4, and the video is projected on the floor 20a of the video production system 2. However, the video production system 2 may be constructed in a place other than the entrance passage 4, and the video may be projected on the floor 20a of the place.
また、 本実施の形態では、 床面 2 0 aに映し出される映像は、 この床面 2 0 a上を歩行 する移動体としての観客 6と相互に作用するようになっていたが、 本発明の映像演出シス テムはこのようなものに限定されず、 人以外の物体が移動体であってもよい。  In the present embodiment, the image displayed on the floor surface 20a interacts with the audience 6 as a moving body walking on the floor surface 20a. The video production system is not limited to this, and an object other than a person may be a moving object.
例えば、 床面 2 0 a上に輪投げ競技用の標的を配置して、 この標的に向けて放り投げら れた輪投げ競技用の輪が床面 2 0 aに接触したときに、 床面 2 0 aに映し出されている映 像が、 この輪の位置、 大きさ及び形状に対応するよう加工処理されるようになっていても よい。 このような場合には、 観客 6に代わって輪投げようの輪が移動体になるため、 図 4 に示す記憶手段 4 8の補足情報 4 8 aには、 足の裏の典型的な形状の代わりに、 輪の形状 を記憶させておくようにする。  For example, when a ring-throwing target is placed on the floor surface 20 a and the ring-throwing ring thrown toward the target touches the floor surface 20 a, the floor surface 20 The image shown in a may be processed so as to correspond to the position, size and shape of the ring. In such a case, the ring tossed instead of the spectator 6 becomes a moving body, so the supplementary information 4 8 a of the storage means 4 8 shown in FIG. 4 is replaced with the typical shape of the sole of the foot. Also remember the shape of the ring.
また、 本実施の形態とは異なる他の実施の形態として、 室内競技のボウリングのレーン に映像演出システム 2を構築するようにしてもよい。 このような場合には、 レーンが、 本 実施の形態における床面 2 0に相当し、 また、 ボウリングの球が移動体に相当することに なる。 As another embodiment different from the present embodiment, the video production system 2 may be constructed in a bowling lane for indoor competition. In such a case, the lane corresponds to the floor 20 in the present embodiment, and the bowling ball corresponds to the moving body. Become.
また、 本実施の形態において、 映像生成手段 4 2及び映像効果手段 4 6のそれぞれは、 床面 2 0 a上における観客 6の足の裏が接触した位置、 大きさ及び形状に対応して、 付カロ 用映像を生成し、 又は合成映像に対する映像効果の処理を行なうようになっていたが、 床 面 2 0 a上における観客 6の足の裏が接触した位置、 大きさ又は形状のいずれかにのみ基 づいて、 付加用映像を生成し、 又は合成映像に対する映像効果の処理を行なうようになつ ていてもよい。 また、 観客 6の足の裏についての位置と大きさの組合せ、 位置と形状の組 合せ、 又は大きさと形状の組合せのいずれかに基づいて、 付加用映像を生成し、 又は合成 映像に対する映像効果の処理を行なうようになっていてもよい。  Further, in the present embodiment, each of the video generation means 4 2 and the video effect means 4 6 corresponds to the position, size and shape of the sole of the audience 6 on the floor surface 20 a in contact with each other. It was designed to generate a video for attached calorie or to process the video effect on the composite video, but either the position, size or shape of the sole of the audience 6 touching the floor 20 Based on the above, it may be so arranged that an additional video is generated or a video effect is processed on the synthesized video. In addition, based on one of the combination of the position and size of the sole of the audience 6, the combination of position and shape, or the combination of size and shape, or the video effect on the composite image The process may be performed.
また、 本実施の形態において、 映像効果手段 4 6は、 映像効果プログラム 4 8 dに基づ き、 床面 2 0 a上における観客 6の足の裏が接触した位置、 大きさ及び形状に対応して、 合成映像上の輪郭線の近傍の画素に対し光の屈折方向が変化して歪んで見えるような変化 を与えると共に、 このような変化の対象となる画素が、 時間の経過と共に波紋状に広がつ て移り変わっていくような映像効果を与えるようになっていたが、 映像効果手段 4 6が与 える映像効果は、 このようなものに限られず、 例えば、 変化の対象となる画素に対して光 の屈折方向が変化して歪んで見えるような変化と共に、 又はこのような変化に代えて、 明 度を所定量だけ変化させる映像効果を与えるようになつていてもよい。  In this embodiment, the video effect means 46 corresponds to the position, size, and shape of the soles of the spectators 6 on the floor 20 a based on the video effect program 48 d. As a result, the pixels in the vicinity of the contour line on the composite image change so that the direction of light refraction changes and appears distorted. However, the video effects provided by the video effect means 46 are not limited to this, for example, the pixels that are subject to change. On the other hand, a video effect may be provided in which the brightness is changed by a predetermined amount together with or in place of such a change that the light refraction direction changes and looks distorted.
また、 映像効果手段 4 6が、 映像素材 4 8 c等に対して与える映像効果は、 床面 2 0 a 上における観客 6の足の裏が接触した位置、 大きさ及び形状に対応して、 映像の一部が魚 眼レンズを通して見たように変形したり、 一定方向に引き伸したように変形したりするよ うなものであってもよく、 映像効果プログラム 4 8 dの内容を変更することにより、 様々 な映像効果を与えることができるようになる。  In addition, the video effect that the video effect means 4 6 gives to the video material 4 8 c etc. corresponds to the position, size, and shape of the sole of the audience 6 on the floor 20 0 a, Part of the image may be deformed as seen through a fisheye lens, or deformed as if stretched in a certain direction, and the contents of the image effect program 4 8 d may be changed. This makes it possible to give various video effects.
また、 本実施の形態において、 コンピュータ 3 8の更新手段 5 6は、 通信手段 6 0が公 衆回線 5 8を通じて、 映像素材 4 8 c又は音素材 4 8 f を受信した場合には、 この受信し た映像素材 4 8 c又は音素材 4 8 f を、 すでに記憶手段 4 8に記憶されている映像素材 4 8 c又は音素材 4 8 f と一緒に、 追加して記憶させるようになっていたが、 別の実施の形 態として、 受信した映像素材 4 8 c又は音素材 4 8 f を、 すでに記憶手段 4 8に記憶され ている映像素材 4 8 c又は音素材 4 8 f と入れ替えて、 更新するようになっていてもよい また、 本実施の形態において、 図 4に示す映像素材 4 8 cは、 そのデータ情報の全体が まとまったファイルとして、 記憶手段 4 8に記憶されるようになっていたが、 映像素材 4 8 cは、 このようなものに限られなレ、。 In the present embodiment, the updating means 5 6 of the computer 3 8 receives the video material 4 8 c or the sound material 4 8 f when the communication means 60 receives the video material 4 8 c or the sound material 4 8 f through the public line 5 8. The recorded video material 4 8 c or sound material 4 8 f was added and stored together with the video material 4 8 c or sound material 4 8 f already stored in the storage means 4 8. However, as another embodiment, the received video material 4 8 c or sound material 4 8 f is replaced with the video material 4 8 c or sound material 4 8 f already stored in the storage means 48, In the present embodiment, the video material 48c shown in FIG. 4 has the entire data information. As a unified file, it was stored in the storage means 48, but the video material 48c is not limited to this.
例えば、 映像演出システム 2の外部で撮影されたリアルタイムの映像が、 公衆回線 5 8 を介してコンピュータ 3 8に送信されるようになっていると共に、 ストリーミング技術等 により、 このような映像がコンピュータ 3 8の通信手段 6 0により継続的に受信され、 更 新手段 5 6を経て記憶手段 4 8に断片的な映像素材 4 8 cとしてー且バッファ (保持) さ れた後に、 映像合成手段 4 4によって順次読み出されるようになつていてもよい。 ここで 、 ストリーミング技術とは、 音声や動画などの情報を受信しながら同時に再生するような 技術をいう。  For example, real-time video captured outside the video production system 2 is transmitted to the computer 3 8 via the public line 5 8, and such video is transmitted to the computer 3 by streaming technology or the like. 8 is continuously received by the communication means 60, and after the update means 56, the storage means 48 is stored as a fragmentary video material 4 8c and buffered (held), and then the video composition means 4 4 May be read sequentially. Here, the streaming technology refers to a technology that simultaneously plays back information such as audio and video.
また、 本実施の形態において、 コンピュータ 3 8の通信手段 6 0は、 公衆回線 5 8に接 続されて信号受信するようになっているが、 このような信号の送受信を行なう通信回線は どのようなものであってもよく、 例えば、 インターネットを経由するものであってもよい 。 また、 通信手段 6 0は、 公衆回線 5 8のように双方向に送受信することができるような 通信回線から信号を受信するようになっているだけでなく、 放送等のように、 一方的に送 信されるような信号を受信することができるようになつていてもよレ、。  In the present embodiment, the communication means 60 of the computer 38 is connected to the public line 58 and receives signals. What is the communication line for transmitting and receiving such signals? For example, it may be via the Internet. In addition, the communication means 60 is not only configured to receive signals from a communication line that can be transmitted and received bidirectionally like the public line 58, but also unilaterally such as broadcasting. You may be able to receive signals that will be transmitted.
また、 本実施の形態においては、 コンピュータ 3 8とプロジェクター 2 2 aが別々の装 置として、 配置される場合について説明したが、 これらは一体的になっていてもよい。 図面の簡単な説明  Further, in the present embodiment, the case where the computer 38 and the projector 22a are arranged as separate devices has been described, but these may be integrated. Brief Description of Drawings
図 1  Figure 1
本発明の一実施の形態に係る映像演出システム 2が構築されている入場用通路 4を示す 斜視図である。  It is a perspective view showing entrance passage 4 in which picture direction system 2 concerning one embodiment of the present invention is constructed.
図 2  Figure 2
本発明の一実施の形態に係る映像演出システム 2の構成を示すプロック図である。 図 3  1 is a block diagram showing a configuration of a video effect system 2 according to an embodiment of the present invention. FIG. Fig 3
図 2に示す床 2 0の周囲に配置されるエリアセンサー 2 4 a, 2 4 b , 2 6 a , 2 6 b の配置される位置を示す斜視図である。  FIG. 3 is a perspective view showing positions where area sensors 2 4 a, 2 4 b, 2 6 a, 2 6 b arranged around a floor 20 shown in FIG. 2 are arranged.
図 4  Fig 4
図 2に示すコンピュータ 3 8の詳細な構成を示すブロック図である。  FIG. 3 is a block diagram showing a detailed configuration of a computer 38 shown in FIG.
図 5 図 3に示すェリァセンサー 2 4 a , 2 4 b間、 及びェリァセンサー 2 6 a, 2 6 b間の 光軸と、 床面 2 0 a上における観客 6の足の裏の位置及び大きさとの関係を示す平面図で ある。 Fig 5 Figure 3 shows the relationship between the optical axis between area sensors 2 4 a and 2 4 b and between area sensors 2 6 a and 2 6 b, and the position and size of the soles of the audience 6 on the floor 20 a FIG.
図 6  Fig 6
図 3に示すエリアセンサー 2 4 a , 2 4 b間、 及びエリアセンサー 2 6 a , 2 6 b間の' 光軸と、 床面 2 0 a上における観客 6の足の裏の位置及び大きさとの他の関係を示す平面 図である。  The optical axis between the area sensors 2 4 a and 2 4 b and between the area sensors 2 6 a and 2 6 b shown in FIG. 3 and the position and size of the soles of the spectators 6 on the floor 20 a It is a top view which shows the other relationship.
図 7  Fig 7
図 3に示すエリアセンサー 2 4 a , 2 4 b間、 及びエリアセンサー 2 6 a, 2 6 b間の 光軸と、 床面 2 0 a上における観客 6の足の裏の位置及び大きさとの他の関係を示す平面 図である。  The optical axis between the area sensors 2 4 a and 2 4 b and between the area sensors 2 6 a and 2 6 b shown in FIG. 3 and the position and size of the soles of the spectators 6 on the floor 20 a It is a top view which shows another relationship.
図 8  Fig 8
図 3に示すエリアセンサー 2 4 a, 2 4 b間、 及びエリアセンサー 2 6 a , 2 6 b間の 光軸と、 床面 2 0 a上における観客 6の足の裏の位置及ぴ大きさとの他の関係を示す平面 図である。  The optical axis between the area sensors 2 4 a and 2 4 b and the area sensors 2 6 a and 2 6 b shown in FIG. 3 and the position and size of the soles of the spectators 6 on the floor 20 a It is a top view which shows the other relationship.
図 9  Fig 9
図 2に示すコンピュータ 3 8の動作手順を示すフローチヤ一トである。  3 is a flowchart showing the operation procedure of the computer 38 shown in FIG.
図 1 0  Fig. 10
図 2に示す床面 2 0 a上における観客 6の足の裏 L, Rと、 床面 2 0 a上に映し出され る映像の概略を示す平面図である。 符号の説明  FIG. 3 is a plan view schematically showing the soles L and R of the foot of the spectator 6 on the floor surface 20 a shown in FIG. 2 and an image projected on the floor surface 20 a. Explanation of symbols
2 映像演出システム  2 Video production system
4 入場用通路  4 Entrance passage
6 観客  6 Audience
8, 1 0 ゲート  8, 1 0 gate
2 0 床  2 0 floor
2 0 a 床面  2 0 a Floor
2 2 映像出力装置  2 2 Video output device
2 2 a プロジェクター b 背面透過型スクリーン2 2 a projector b Rear transmissive screen
, 24 a , 24 b, 26, 2 6 a, 26 b エリアセンサー 機器調節器 , 24 a, 24 b, 26, 2 6 a, 26 b Area sensor Device adjuster
音響装置  Sound equipment
送風機  Blower
照明灯  Lighting
コンピュータ  Computer
判定手段  Judgment means
映像生成手段  Video generation means
映像合成手段  Video composition means
映像効果手段  Image effect means
記憶手段 Storage means
a 補足情報a Additional information
b 映像生成プログラムb Video generation program
c 映像素材 c Video material
d 映像効果プログラム d Picture effects program
e 音生成プログラム e Sound generator
f 音素材 f Sound material
g 音効果プログラム g Sound effect program
h 機器制御プログラム h Device control program
機器制御手段  Device control means
音響制御手段  Sound control means
演出設定装置  Production setting device
操作手段  Operation means
更新手段  Update means
公衆回線  Public line
通信手段  Communication means

Claims

請求の範囲 The scope of the claims
1 . 受信した映像信号に基づいて床面又は階段等の踏み面に映像を映し出す映像出力装 置と、 1. a video output device for projecting video on a floor surface or a tread surface such as stairs based on the received video signal;
前記床面又は踏み面上にこの上を移動する移動体が載っている場合に、 床面又は踏み面 上における移動体の接触部分の位置又は Z及び大きさを検出する検出装置と、  A detection device for detecting the position or Z and size of the contact portion of the moving body on the floor surface or the tread surface when a moving body moving on the floor surface or the tread surface is mounted on the floor surface or the tread surface;
映像素材を保持し、 この映像素材に前記検出装置が検出した前記移動体の接触部分の位 置又は/及び大きさに対応する加工処理を施した映像信号を前記映像出力装置に送信する 演出制御装置と  The video material is held, and the video signal processed by the video material processed according to the position or / and size of the contact portion of the moving body detected by the detection device is transmitted to the video output device. Equipment and
を備えていることを特徴とする映像演出システム。  A video production system characterized by comprising:
2 . 前記床面又は踏み面は透光性を有し、  2. The floor or tread is translucent,
前記映像出力装置は前記床面又は踏み面の下側に配置されるようにした請求項 1に記载 の映像演出システム。  2. The video effect system according to claim 1, wherein the video output device is arranged below the floor surface or the tread surface.
3 . 前記演出制御装置は、  3. The production control device
前記床面又は踏み面上における前記移動体の接触部分の典型的な形状を補足情報として 保持すると共に、  While holding the typical shape of the contact portion of the moving body on the floor surface or the tread surface as supplementary information,
前記検出装置が前記床面又は踏み面上に前記移動体の一の部位が接触したことを検出し た場合に、 この一の部位の接触部分の大きさ、 又はその位置と大きさに基づいて、 この接 触部分の形状が前記補足情報として保持する前記典型的な形状であると判断し、  When the detection device detects that one part of the moving body is in contact with the floor surface or the tread surface, based on the size of the contact part of the one part, or the position and size thereof. Determining that the shape of the contact portion is the typical shape held as the supplementary information;
前記加工処理は、 前記移動体の接触部分の位置又は/及び大きさだけでなく、 その形状 についても対応して行なわれるようにした請求項 1又は 2に記載の映像演出システム。  3. The video effect system according to claim 1, wherein the processing is performed not only for the position and / or size of the contact portion of the moving body but also for the shape thereof.
4 . 前記検出装置が、 前記床面又は踏み面上に前記移動体の前記一の部位が接触した後 に、 この一の部位と異なる他の部位が接触したことを検出した場合に、 一の部位について の床面又は踏み面上における接触部分の位置、 大きさ及び形状から、 他の部位についての 接触部分の位置、 大きさ及び形状を推定するようにした請求項 3に記載の映像演出システ ム。 4. When the detection device detects that another part different from the one part has contacted after the one part of the moving body has contacted the floor surface or the tread surface, 4. The video rendering system according to claim 3, wherein the position, size, and shape of the contact portion with respect to another portion are estimated from the position, size, and shape of the contact portion on the floor surface or the tread surface with respect to the portion. Mu.
5 . 前記演出制御装置により前記映像素材に施される前記加工処理は、 新たに生成した 付加用映像を合成して行なわれるようにした請求項 1ないし 4のいずれかに記載の映像演 出システム。  5. The video presentation system according to any one of claims 1 to 4, wherein the processing performed on the video material by the effect control device is performed by synthesizing a newly generated additional video. .
6 . 前記演出制御装置により前記映像素材に施される前記加工処理は、 この映像素材の 〜部又は全部を変化させて行なわれるようにした請求項 1ないし 4のいずれかに記載の映 像演出システム。 6. The processing performed on the video material by the effect control device is performed on the video material. 5. The image production system according to any one of claims 1 to 4, wherein the video production system is performed by changing all or part.
7 . 前記演出制御装置により前記映像素材に施される前記加工処理は、 この映像素材に 新たに生成した付加用映像を合成して合成映像にした後に、 この合成映像の一部又は全部 を変化させて行なうようにした請求項 1ないし 4のいずれかに記載の映像演出システム。 7. The processing performed on the video material by the effect control device is to change a part or all of the synthesized video after synthesizing a newly generated additional video to the video material to make a synthesized video. 5. The video production system according to claim 1, wherein the video production system is performed.
8 . 前記演出制御装置により前記映像素材に施される前記加工処理は、 この映像素材に おける前記移動体の接触部分の位置、 大きさ及び形状に対応する輪郭線の近傍の画素を変 化させると共に、 この変化の対象となる画素が時間の経過と共に波紋状に移り変わるよう にした請求項 3又は 4に記載の映像演出システム。 8. The processing applied to the video material by the effect control device changes pixels in the vicinity of the contour line corresponding to the position, size and shape of the contact portion of the moving body in the video material. 5. The video effect system according to claim 3 or 4, wherein a pixel to be changed is changed to a ripple shape as time passes.
9 . 前記演出制御装置により前記映像素材に施される前記加工処理は、 この映像素材に 新たに生成した付加用映像を合成して合成映像にした後に、 この合成映像における前記移 動体の接触部分の位置、 大きさ及び形状に対応する輪郭線の近傍の画素を変化させると共 に、 この変化の対象となる画素が波紋状に移り変わるようにした請求項 3又は 4に記載の 映像演出システム。  9. The processing applied to the video material by the effect control device is performed by synthesizing a newly generated additional video with the video material to form a composite video, and then a contact portion of the moving body in the composite video. 5. The video effect system according to claim 3 or 4, wherein a pixel in the vicinity of the contour line corresponding to the position, size, and shape of the image is changed, and the pixel to be changed is changed to a ripple shape.
1 0 . 音響装置を備え、 ' '  1 0. Equipped with sound device, ''
前記演出制御装置は、 前記検出装置が検出した前記移動体の接触部分の位置又は/及び 大きさに対応する効果音を前記音響装置から出力させるようにした請求項 1ないし 9のい ずれかに記載の映像演出システム。  10. The effect control device according to claim 1, wherein the sound device outputs a sound effect corresponding to a position or / and a size of a contact portion of the moving body detected by the detection device. The video production system described.
1 1 . 前記映像素材に対する加工処理は、 前記演出制御装置が保持する映像加工用プロ グラムに基づレ、て行なわれ、  1 1. The processing for the video material is performed based on a video processing program held by the production control device,
前記演出制御装置は、 通信手段を有すると共に、 この演出制御装置が保持する前記映像 素材又は前記映像加工用プログラムとは異なる別の映像素材又は映像加工用プログラムを 通信手段により受信した場合に、 保持している映像素材又は映像加ェ用プログラムを受信 したものに更新するようにした請求項 1ないし 1 0のいずれかに記載の映像演出システム  The production control device has communication means, and holds when the video material or the video processing program different from the video material or the video processing program held by the production control device is received by the communication means. The video production system according to any one of claims 1 to 10, wherein the video material or the video processing program is updated to the received one.
1 2 . 前記演出制御装置は、 1 2. The production control device
この演出制御装置が保持する音素材及び効果音用プログラムに基づレ、て前記音響装置に 効果音を出力させ、  Based on the sound material and sound effect program held by the effect control device, the sound device outputs the sound effect,
この演出制御装置が保持する前記音素材又は前記効果音用プログラムとは異なる別の音 素材又は効果音用プログラムを前記通信手段により受信した場合に、 保持している音素材 又は効果音用プログラムを受信したものに更新するようにした請求項 1 1に記載の映像演 出システム。 When the communication means receives a sound material or a sound effect program different from the sound material or the sound effect program held by the effect control device, the sound material held The video presentation system according to claim 11, wherein the video sound effect program is updated to the one received.
1 3 . 照明装置を備え、  1 3. With lighting device,
前記演出制御装置は、 前記検出装置が検出した前記移動体の接触部分の位置又は Z及び 大きさに対応して前記照明装置を点灯、 消灯若しくは点滅させ、 又は照明装置の明るさを 変化させるようにした請求項 1ないし 1 2のいずれかに記載の映像演出システム。  The effect control device turns on, turns off, or blinks the lighting device or changes the brightness of the lighting device in accordance with the position or Z and the size of the contact portion of the moving body detected by the detection device. The video production system according to any one of claims 1 to 12.
1 4 . 空調装置を備え、  1 4. Equipped with air conditioner,
前記演出制御装置は、 前記検出装置が検出した前記移動体の接触部分の位置又は/及び 大きさに対応して前記空調の動作を開始若しくは停止させ、 又は動作しているときの風量 を変化させるようにした請求項 1ないし 1 3のいずれかに記載の映像演出システム。 The production control device starts or stops the air conditioning operation corresponding to the position or / and the size of the contact portion of the moving body detected by the detection device, or changes the air volume during operation. The video production system according to any one of claims 1 to 13.
1 5 . 受信した映像信号に基づいて床面又は階段等の踏み面に映像を映し出す映像出力 装置と、 1 5. A video output device for projecting video on a floor surface or a tread surface such as stairs based on the received video signal;
前記床面又は踏み面上にこの上を移動する移動体が載っている場合に、 床面又は踏み面 上における移動体の接触部分の位置及び大きさを検出する検出装置と、  A detection device for detecting a position and a size of a contact portion of the moving body on the floor surface or the tread surface when a moving body moving on the floor surface or the tread surface is mounted on the floor surface or the tread surface;
前記検出装置が検出した前記移動体の接触部分の位置又は Z及び大きさに対応する映像 を生成して前記映像出力装置に送信する演出制御装置と  An effect control device that generates an image corresponding to the position or Z and size of the contact portion of the moving object detected by the detection device and transmits the generated image to the image output device
を備えていることを特徴とする映像演出システム。  A video production system characterized by comprising:
1 6 . 床面又は階段等の踏み面に映像を映し出す映像出力装置と、  1 6. A video output device for projecting video on the floor or a tread such as stairs;
前記床面又は踏み面上にこの上を移動する移動体が載っている場合に、 床面又は踏み面 上における移動体の接触部分の位置及び大きさを検出する検出装置とを用い、  When a moving body moving on the floor surface or the tread surface is mounted on the floor surface or the tread surface, and using a detection device that detects the position and size of the contact portion of the moving body on the floor surface or the tread surface,
前記映像出力装置により映し出される映像に、 前記検出装置が検出した前記移動体の接 触部分の位置及び大きさに対応して、 コンピュータにより自動的に加工処理を施すように したことを特 ί敷とする映像演出方法。  The computer automatically processes the video displayed by the video output device in accordance with the position and size of the contact portion of the moving body detected by the detection device. A video production method.
PCT/JP2005/012982 2004-07-13 2005-07-07 Image producing system and image producing method WO2006006642A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006529104A JP4833067B2 (en) 2004-07-13 2005-07-07 Video production system and video production method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-205624 2004-07-13
JP2004205624 2004-07-13

Publications (1)

Publication Number Publication Date
WO2006006642A1 true WO2006006642A1 (en) 2006-01-19

Family

ID=35783978

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/012982 WO2006006642A1 (en) 2004-07-13 2005-07-07 Image producing system and image producing method

Country Status (2)

Country Link
JP (1) JP4833067B2 (en)
WO (1) WO2006006642A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009188780A (en) * 2008-02-07 2009-08-20 Kuu-Kan Com Inc Video direction system and video direction method
CN102294123A (en) * 2011-07-29 2011-12-28 浙江大学 Stage effect control method and device based on infrared induction
CN103267524A (en) * 2013-04-24 2013-08-28 华中科技大学 Wearable personnel gait-detection indoor-positioning system and method therefor
RU2744287C1 (en) * 2018-05-04 2021-03-04 Лекиспорт Аг Stick handle and a stick with such a handle

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0448213A (en) * 1990-06-15 1992-02-18 Taikisha Ltd On-floor facility body with moving body position detecting function
JP2001170370A (en) * 1999-12-22 2001-06-26 Maruyasu Industries Co Ltd Production system
JP2001184519A (en) * 1999-12-24 2001-07-06 Toshiba Electronic Systems Co Ltd Simulator
JP2002032788A (en) * 2000-07-14 2002-01-31 Nippon Telegr & Teleph Corp <Ntt> Method and device for providing virtual reality and recording medium with virtual reality providing program recorded threreon
JP2002112287A (en) * 2000-09-28 2002-04-12 Takenaka Komuten Co Ltd Virtual reality exhibition system
JP2002199500A (en) * 2000-12-25 2002-07-12 Sony Corp Virtual sound image localizing processor, virtual sound image localization processing method and recording medium
JP2004110377A (en) * 2002-09-18 2004-04-08 Hitachi Ltd Information display method and system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11167636A (en) * 1997-12-03 1999-06-22 Toyota Motor Corp Line detecting device for vehicle
JP2002023674A (en) * 2000-01-21 2002-01-23 Zero Staff:Kk Tile type display device
JP2001216336A (en) * 2000-02-04 2001-08-10 Sony Corp Analysis system for moving state of user
JP2002062832A (en) * 2000-08-16 2002-02-28 Nippon Signal Co Ltd:The Floor embedment display device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0448213A (en) * 1990-06-15 1992-02-18 Taikisha Ltd On-floor facility body with moving body position detecting function
JP2001170370A (en) * 1999-12-22 2001-06-26 Maruyasu Industries Co Ltd Production system
JP2001184519A (en) * 1999-12-24 2001-07-06 Toshiba Electronic Systems Co Ltd Simulator
JP2002032788A (en) * 2000-07-14 2002-01-31 Nippon Telegr & Teleph Corp <Ntt> Method and device for providing virtual reality and recording medium with virtual reality providing program recorded threreon
JP2002112287A (en) * 2000-09-28 2002-04-12 Takenaka Komuten Co Ltd Virtual reality exhibition system
JP2002199500A (en) * 2000-12-25 2002-07-12 Sony Corp Virtual sound image localizing processor, virtual sound image localization processing method and recording medium
JP2004110377A (en) * 2002-09-18 2004-04-08 Hitachi Ltd Information display method and system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009188780A (en) * 2008-02-07 2009-08-20 Kuu-Kan Com Inc Video direction system and video direction method
CN102294123A (en) * 2011-07-29 2011-12-28 浙江大学 Stage effect control method and device based on infrared induction
CN103267524A (en) * 2013-04-24 2013-08-28 华中科技大学 Wearable personnel gait-detection indoor-positioning system and method therefor
RU2744287C1 (en) * 2018-05-04 2021-03-04 Лекиспорт Аг Stick handle and a stick with such a handle

Also Published As

Publication number Publication date
JP4833067B2 (en) 2011-12-07
JPWO2006006642A1 (en) 2008-05-01

Similar Documents

Publication Publication Date Title
JP4230999B2 (en) Video-operated interactive environment
US20090280916A1 (en) Mobile holographic simulator of bowling pins and virtual objects
US6554706B2 (en) Methods and apparatus of displaying and evaluating motion data in a motion game apparatus
JP5323413B2 (en) Additional data generation system
US20080316432A1 (en) Digital Image Projection System
JP2006505330A5 (en)
WO2012145726A1 (en) Large scale participatory entertainment systems for generating music or video responsive to movement detected at venue seating
WO2006006642A1 (en) Image producing system and image producing method
JP5651325B2 (en) Game device
Marner et al. Exploring interactivity and augmented reality in theater: A case study of Half Real
WO2013179992A1 (en) Stage device and stage facility
JP3758007B2 (en) Composite image display device, game device, and bowling game device
US11845002B2 (en) Interactive game system and method of operation for same
CN109675301A (en) A kind of immersion game system
JP2009104086A (en) Video display device, video signal processor, video display method and video signal processing program
JP2005292654A (en) Three-dimensional presentation apparatus, system, and method
JP6505481B2 (en) Dance equipment
CN207250092U (en) A kind of 5D theme parks
CN114205946B (en) Light control system
CN110180174A (en) A kind of 5D immersion movie themes park play system
CN114205946A (en) Light control system
JP2008272321A (en) Performance device and its performance method
JP6462441B2 (en) Dance equipment
JPH06304336A (en) Soccer simulation machine
JP2007185482A (en) Exercise supporting method and exercise equipment

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006529104

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 69(1) EPC (EPO FORM 1205A) DATED 31.08.07

122 Ep: pct application non-entry in european phase

Ref document number: 05760088

Country of ref document: EP

Kind code of ref document: A1

WWW Wipo information: withdrawn in national office

Ref document number: 5760088

Country of ref document: EP