JP2020014100A - Video system and video program - Google Patents

Video system and video program Download PDF

Info

Publication number
JP2020014100A
JP2020014100A JP2018134557A JP2018134557A JP2020014100A JP 2020014100 A JP2020014100 A JP 2020014100A JP 2018134557 A JP2018134557 A JP 2018134557A JP 2018134557 A JP2018134557 A JP 2018134557A JP 2020014100 A JP2020014100 A JP 2020014100A
Authority
JP
Japan
Prior art keywords
screen
real object
unit
image
virtual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018134557A
Other languages
Japanese (ja)
Other versions
JP6737309B2 (en
Inventor
篤樹 矢儀
Atsuki Yagi
篤樹 矢儀
空也 御所園
Kuya Goshozono
空也 御所園
小百合 松原
Sayuri Matsubara
小百合 松原
新 十文字
Arata Jumonji
新 十文字
雄一朗 室塚
Yuichiro Murozuka
雄一朗 室塚
聖子 浅沼
Seiko Asanuma
聖子 浅沼
宏樹 芦ヶ谷
Hiroki Ashigaya
宏樹 芦ヶ谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Games Co Ltd filed Critical Sega Games Co Ltd
Priority to JP2018134557A priority Critical patent/JP6737309B2/en
Priority to PCT/JP2019/027808 priority patent/WO2020017474A1/en
Publication of JP2020014100A publication Critical patent/JP2020014100A/en
Application granted granted Critical
Publication of JP6737309B2 publication Critical patent/JP6737309B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Abstract

To improve reality of a video displayed on a screen.SOLUTION: An imaging system 1 includes: forming means 40 for forming a screen by spraying a substance into a space; detecting means 42 for detecting positional information of a real object when the real object passes through the screen; generating means 66 for determining a position of a virtual object in a virtual space on the basis of the positional information detected by the detection means 42 to generate a video 14A including a virtual object arranged at the determined position; and control means 68 for controlling display of the video generated by the generation means 66 on the screen when the real object passes through the screen.SELECTED DRAWING: Figure 3

Description

本発明は、映像システム及び映像プログラムに関する。   The present invention relates to a video system and a video program.

従来から、流体等の物質によりスクリーンを形成し、当該スクリーン上に映像を表示する映像システムが知られている(例えば特許文献1や特許文献2参照。)。   2. Description of the Related Art Conventionally, an image system that forms a screen with a substance such as a fluid and displays an image on the screen has been known (for example, see Patent Literature 1 and Patent Literature 2).

特公平7−60298号公報Japanese Patent Publication No. 7-60298 実開平2−44731号公報Japanese Utility Model Laid-Open No. 2-44731

しかしながら、特許文献1や2の技術では、映像を見る視聴者は、ボール等の実物体をスクリーンに向かって投げたり移動させたりして、スクリーンを実物体が通過すると、スクリーンで遮られて当該実物体を視認することが難しく、また、映像にはその実物体が映し出されず、実物体と映像に連続性がないため、リアリティに欠けるという問題があった。   However, according to the techniques disclosed in Patent Documents 1 and 2, a viewer who views a video throws or moves a real object such as a ball toward a screen, and when the real object passes through the screen, the viewer is blocked by the screen. There is a problem in that it is difficult to visually recognize the real object, and the real object is not shown in the video, and the real object and the video have no continuity.

本発明はこのような課題に鑑みてなされたものであり、その目的は、スクリーン上に表示される映像のリアリティを向上する映像システムを提供することにある。   The present invention has been made in view of such a problem, and an object of the present invention is to provide an image system that improves the reality of an image displayed on a screen.

上記課題を解決するために、本発明の第一態様に係る映像システムは、物質を空間に散布してスクリーンを形成する形成手段と、前記スクリーンを実物体が通過するときの当該実物体の位置情報を検出する検出手段と、前記検出手段が検出した位置情報に基づいて、前記仮想物体の仮想空間内での位置を決定し、決定した位置に配置された仮想物体を含む映像を生成する生成手段と、前記スクリーンを前記実物体が通過したときに、前記生成手段が生成した前記映像を前記スクリーン上に表示制御する制御手段と、を備える。   In order to solve the above-mentioned problems, an image system according to a first aspect of the present invention includes a forming unit that scatters a substance into a space to form a screen, and a position of the real object when the real object passes through the screen. Detecting means for detecting information; and generating a video that includes determining a position of the virtual object in a virtual space based on the position information detected by the detecting means, and generating an image including the virtual object disposed at the determined position. Means, and control means for controlling display of the image generated by the generation means on the screen when the real object passes through the screen.

上記第一態様によれば、実物体の位置と仮想物体の位置との間に連続性を持たせることができる。したがって、第一態様によれば、スクリーン上に表示される映像のリアリティを向上することができる。   According to the first aspect, continuity can be provided between the position of the real object and the position of the virtual object. Therefore, according to the first aspect, the reality of the image displayed on the screen can be improved.

本発明によれば、スクリーン上に表示される映像のリアリティを向上することができる。   ADVANTAGE OF THE INVENTION According to this invention, the reality of the image | video displayed on a screen can be improved.

本発明の第一実施形態に係る映像システムの全体構成の一例を示す図である。It is a figure showing an example of the whole picture system composition concerning a first embodiment of the present invention. 図1に示す端末装置のハードウェア構成の一例を概略的に示す図である。FIG. 2 is a diagram schematically illustrating an example of a hardware configuration of the terminal device illustrated in FIG. 1. 本発明の第一実施形態に係る映像システムの機能手段の一例を概略的に示すブロック図である。It is a block diagram showing roughly an example of functional means of a picture system concerning a first embodiment of the present invention. 本発明の第一実施形態に係る映像システムの処理の流れを示すフローチャートである。It is a flow chart which shows a flow of processing of a picture system concerning a first embodiment of the present invention. (A)は、プレイヤが第一実物体(テニスボール)を打って、当該第一実物体がスクリーンに向かっているときの映像の様子を示す図である。(B)は、(A)から続いて、第一実物体がスクリーンを通過したときの映像等の様子を示す図である。(C)は、(B)から続いて、第一実物体がスクリーンから遠ざかっているときの映像等の様子を示す図である。(A) is a diagram showing a state of an image when a player hits a first real object (tennis ball) and the first real object is facing a screen. (B) is a diagram showing a state of a video or the like when the first real object passes through the screen, following (A). (C) is a diagram showing a state of a video and the like when the first real object is moving away from the screen, following from (B). (A)は、(C)から続いて、対戦キャラクタが第一仮想物体を打つことに応じて射出された第二実物体がスクリーンに向かっているときの映像等の様子を示す図である。(B)は、(A)から続いて、第二実物体がスクリーンを通過する直前のときの映像等の様子を示す図である。(C)は、(B)から続いて、第二実物体がスクリーンを通過したときの映像等の様子を示す図である。(A) is a diagram showing, from (C), a state of an image or the like when the second real object ejected in response to the opponent character hitting the first virtual object is facing the screen. (B) is a diagram showing a state of a video and the like immediately before the second real object passes through the screen, following (A). (C) is a diagram showing a state of a video or the like when the second real object passes through the screen, following (B). 仮想空間内の対戦キャラクタや第二仮想物体の位置と、実際の射出手段の位置関係を示す概念図である。FIG. 7 is a conceptual diagram showing a positional relationship between a battle character and a second virtual object in a virtual space and an actual ejection unit. 本発明の第二実施形態に係る映像システムの全体構成の一例を示す図である。It is a figure showing an example of the whole picture system composition concerning a second embodiment of the present invention. (A)は、プレイヤPが第一実物体としてのカタナを振り下ろして、カタナの一部がスクリーンを通過したときの第一仮想物体の様子を示す図である。(B)は、(A)から続いて、第一実物体の半分以上がスクリーンを通過したときの第一仮想物体の様子を示す図である。(C)は、(B)から続いて、スクリーンからプレイヤに向かって人工の手が突出するときの様子を示す図である。(A) is a diagram showing a state of a first virtual object when a player P swings down a katana as a first real object and a part of the katana passes through a screen. (B) is a diagram showing a state of the first virtual object when more than half of the first real object has passed through the screen, following FIG. (C) is a diagram showing a state where the artificial hand projects from the screen toward the player, following (B). (A)は、プレイヤがゴルフゲームをプレイしている際の映像の様子を示す図である。(B)は、プレイヤが野球ゲームをプレイしている際の映像の様子を示す図である。(A) is a figure showing a picture situation when a player is playing a golf game. (B) is a figure showing a picture situation when a player is playing a baseball game. 変形例に係る映像システムの全体構成の一例を示す図である。FIG. 14 is a diagram illustrating an example of an overall configuration of a video system according to a modification.

以下、添付図面を参照しながら本発明の複数の実施形態について説明する。説明の理解を容易にするため、各図面において同一の構成要素及びステップに対しては可能な限り同一の符号を付して、重複する説明は省略する。   Hereinafter, a plurality of embodiments of the present invention will be described with reference to the accompanying drawings. To facilitate understanding of the description, the same constituent elements and steps in each drawing are denoted by the same reference numerals as much as possible, and redundant description is omitted.

−−−第一実施形態−−−
まず、本発明の第一実施形態に係る映像システムについて説明する。この映像システムは、物質を空間に散布してスクリーンを形成して、そのスクリーンに映像を表示するシステムに関する。物質としては、スクリーンを実物体が通過することが可能なものであれば特に限定されず、例えば、液体や気体等の流体、紙片、木片、砂等の粉末や、LED等を含む発光素子等が挙げられる。また、散布の方法も特に限定されないが、物質を落下や噴出することで散布したり、物質に対して送風することで散布したり、物質に磁力や静電気等の外力を加えることで散布してもよい。以下、第一実施形態では、映像システムが、流体を噴出することで散布する場合を説明する。また、第一実施形態では、映像システムが表示する映像が、ゲームに係る映像である場合を説明するが、他の映像、例えばお化け屋敷やアトラクション等に係る映像であってもよい。
--- First embodiment ---
First, an image system according to the first embodiment of the present invention will be described. This image system relates to a system in which a substance is dispersed in space to form a screen and an image is displayed on the screen. The substance is not particularly limited as long as a real object can pass through the screen. Examples of the substance include fluids such as liquids and gases, paper chips, wood chips, powders such as sand, and light-emitting elements including LEDs and the like. Is mentioned. Also, the method of spraying is not particularly limited, but spraying by dropping or ejecting a substance, spraying by blowing on a substance, or spraying by applying external force such as magnetic force or static electricity to the substance. Is also good. Hereinafter, in the first embodiment, a case will be described in which the imaging system scatters by ejecting a fluid. Further, in the first embodiment, a case will be described in which the video displayed by the video system is a video related to a game, but may be another video, for example, a video related to a haunted house or an attraction.

<全体構成>
図1は、本発明の第一実施形態に係る映像システム1の全体構成の一例を示す図である。
<Overall configuration>
FIG. 1 is a diagram illustrating an example of an overall configuration of a video system 1 according to the first embodiment of the present invention.

図1に示すように、第一実施形態に係る映像システム1は、物質散布装置10と、検出装置12と、投影装置14と、射出装置16と、移動機構18と、回収ネット20と、回収穴22と、抵抗部材24と、端末装置30と、を備える。   As shown in FIG. 1, the imaging system 1 according to the first embodiment includes a substance spraying device 10, a detection device 12, a projection device 14, an ejection device 16, a moving mechanism 18, a collection net 20, A hole 22, a resistance member 24, and a terminal device 30 are provided.

物質散布装置10は、ノズルを備え、不図示の供給源から供給される物質M(例えば水等の流体)をノズルから下方の空間に噴出することで、物質Mを空間に散布してスクリーン10Aを形成する装置である。   The material spraying device 10 includes a nozzle, and sprays the material M (for example, a fluid such as water) supplied from a supply source (not shown) from the nozzle to a space below, thereby spraying the material M to the space and the screen 10A. Is an apparatus for forming

検出装置12は、第一実物体O1の位置情報等を検出する装置である。検出装置12としては、例えば位置センサやカメラ等が挙げられる。第一実施形態では、検出装置12がカメラである場合を説明する。第一実物体O1は、映像システム1のユーザ(第一実施形態ではプレイヤP)が動かす物体である。このような第一実物体O1としては、例えばボールや銃弾、剣、杖等が挙げられる。第一実施形態では、第一実物体O1が、プレイヤPがラケットで打つことで動かす(飛ぶ)テニスボールである場合を例として説明する。
また、検出装置12は、第一検出装置12Aと、第二検出装置12Bと、を備える。第一検出装置12Aは、第一実物体O1がスクリーン10Aを通過するときの当該第一実物体O1の位置情報等を検出する装置である。第二検出装置12Bは、スクリーン10Aの手前に位置する第一実物体O1の位置情報等を検出する。なお、上記「手前」とは、スクリーン10Aを基準として、プレイヤP側を意味する。
また、検出装置12は、第一検出装置12A及び/又は第二検出装置12Bにより、スクリーン10Aを通過するときの第一実物体O1の方向情報を検出する。なお、端末装置30が、検出装置12から検出された情報に基づいて、第一実物体O1の方向情報を検出してもよい。また、検出装置12は、第一実物体O1の形状情報や速度情報を検出してもよい。また、上記「方向情報」には、第一実物体O1の移動している方向情報だけでなく、第一実物体O1の形状情報と組み合わせて第一実物体O1の向いている方向情報を含んでいてもよい。
The detection device 12 is a device that detects position information and the like of the first real object O1. Examples of the detection device 12 include a position sensor and a camera. In the first embodiment, a case where the detection device 12 is a camera will be described. The first real object O1 is an object that is moved by the user of the video system 1 (the player P in the first embodiment). Examples of such a first real object O1 include a ball, a bullet, a sword, a staff, and the like. In the first embodiment, a case where the first real object O1 is a tennis ball that the player P moves (flies) by hitting with a racket will be described as an example.
The detection device 12 includes a first detection device 12A and a second detection device 12B. The first detection device 12A is a device that detects position information and the like of the first real object O1 when the first real object O1 passes through the screen 10A. The second detection device 12B detects position information and the like of the first real object O1 located in front of the screen 10A. Note that the “front side” means the player P side with respect to the screen 10A.
In addition, the detection device 12 detects, using the first detection device 12A and / or the second detection device 12B, direction information of the first real object O1 when passing through the screen 10A. Note that the terminal device 30 may detect the direction information of the first real object O1 based on the information detected from the detection device 12. Further, the detection device 12 may detect shape information and speed information of the first real object O1. The “direction information” includes not only the moving direction information of the first real object O1 but also the direction information of the first real object O1 in combination with the shape information of the first real object O1. You may go out.

投影装置14は、プロジェクタ等で構成されるスクリーン10Aに映像14Aを投影する装置である。この映像14Aは、プレイヤPの位置を視点位置に設定した仮想空間を2次元映像として投影した映像であり、プレイヤPの対戦相手となる対戦キャラクタCを含む。また、映像14Aは、第一実物体O1がスクリーン10Aを通過した後に表示される第一仮想物体O2を含む。この第一仮想物体O2は、第一実物体O1に係るものであっても、第一実物体O1に係らないものであってもよい。ただし、第一実物体O1との連続性を保つという観点からは、第一仮想物体O2は、第一実物体O1を模したものであることが好ましい。また、第一仮想物体O2は、第一実物体O1と同一の種類であってもよいし、異なる種類であってもよい。第一仮想物体O2の種類が第一実物体O1と異なる場合、例えば、第一実物体O1がテニスボールで、第一仮想物体O2がバナナやメロン、ココナッツ等であってもよい。ただし、第一実物体O1との種類の連続性を保つという観点からは、第一仮想物体O2は、第一実物体O1と同一の種類(この場合はボール)であることが好ましい。同様に、第一仮想物体O2は、第一実物体O1と同一の形状であってもよいし、異なる形状であってもよい。ただし、第一実物体O1との形状の連続性を保つという観点からは、第一仮想物体O2は、第一実物体O1と同一の形状であることが好ましい。また、第一仮想物体O2は、第一実物体O1と同一の色であってもよいし、異なる色であってもよい。ただし、第一実物体O1との色の連続性を保つという観点からは、第一仮想物体O2は、第一実物体O1と同一の色であることが好ましい。同様に、第一仮想物体O2は、プレイヤPに提供されるゲームに係るものであっても、ゲームに係らないものであってもよい。   The projection device 14 is a device that projects an image 14A on a screen 10A configured by a projector or the like. The image 14A is an image obtained by projecting a virtual space in which the position of the player P is set as a viewpoint position as a two-dimensional image, and includes an opponent character C who is an opponent of the player P. The image 14A also includes a first virtual object O2 displayed after the first real object O1 has passed through the screen 10A. The first virtual object O2 may be related to the first real object O1 or may not be related to the first real object O1. However, from the viewpoint of maintaining continuity with the first real object O1, it is preferable that the first virtual object O2 imitates the first real object O1. Further, the first virtual object O2 may be of the same type as the first real object O1, or may be of a different type. When the type of the first virtual object O2 is different from the first real object O1, for example, the first real object O1 may be a tennis ball, and the first virtual object O2 may be a banana, a melon, a coconut, or the like. However, from the viewpoint of maintaining the continuity of the type with the first real object O1, the first virtual object O2 is preferably of the same type (ball in this case) as the first real object O1. Similarly, the first virtual object O2 may have the same shape as the first real object O1, or may have a different shape. However, from the viewpoint of maintaining the continuity of the shape with the first real object O1, the first virtual object O2 preferably has the same shape as the first real object O1. Further, the first virtual object O2 may be the same color as the first real object O1, or may be a different color. However, from the viewpoint of maintaining color continuity with the first real object O1, the first virtual object O2 is preferably of the same color as the first real object O1. Similarly, the first virtual object O2 may be related to the game provided to the player P, or may not be related to the game.

射出装置16は、スクリーン10Aの奥行方向に設けられ、当該スクリーン10Aの手前方向に向けて、第一実物体O1と同一又は異なる第二実物体を射出する装置である。第二実物体としては、例えばボールが挙げられる。第一実施形態では、第二実物体は、第一実物体O1と同様にテニスボールである。なお、奥行方向とは、スクリーン10Aを基準としてプレイヤPとは反対側であって、プレイヤP側からスクリーン10Aに向かって移動する第一実物体O1の通過先を意味する。言い換えれば、奥行方向は、映像14Aを視聴する側の反対側であることを意味する。   The injection device 16 is a device that is provided in the depth direction of the screen 10A and emits a second real object that is the same as or different from the first real object O1 toward the front of the screen 10A. The second real object is, for example, a ball. In the first embodiment, the second real object is a tennis ball like the first real object O1. The depth direction is a side opposite to the player P with respect to the screen 10A, and means a destination of the first real object O1 moving from the player P toward the screen 10A. In other words, the depth direction means the side opposite to the side on which the video 14A is viewed.

移動機構18は、スクリーン10Aの任意の位置から第二実物体を射出するために射出装置16を移動する機構である。この移動機構18は、例えばレールや駆動部等で構成される。また、横方向のみではなく、図示しないが縦方向に移動するようにしてもよい   The moving mechanism 18 is a mechanism that moves the ejection device 16 to eject the second real object from an arbitrary position on the screen 10A. The moving mechanism 18 includes, for example, a rail and a driving unit. Further, not only the horizontal direction but also a vertical direction (not shown) may be used.

回収ネット20は、スクリーン10Aの奥行方向に飛ぶ第一実物体O1を受け止めるネットである。   The collection net 20 is a net that receives the first real object O1 flying in the depth direction of the screen 10A.

回収穴22は、回収ネット20で受け止められて下に落ちた第一実物体O1を回収するための穴である。なお、この回収穴22は、不図示の補充路を介して移動機構18に繋がり、回収穴22で回収された第一実物体O1が移動機構18を通って一カ所に集められ、そこに射出装置16を移動して補充するようにしてもよい。   The collection hole 22 is a hole for collecting the first real object O1 that has been received by the collection net 20 and has fallen. The collection hole 22 is connected to the moving mechanism 18 via a replenishing path (not shown), and the first real object O1 collected in the collection hole 22 is collected at one location through the moving mechanism 18 and injected there. The device 16 may be moved to replenish.

抵抗部材24は、第一実物体O1の奥行方向への移動に対して抵抗することで回収ネット20を保護する部材である。抵抗部材24としては、例えば、ゴムやクッション等の弾性体や繊維等が挙げられる。   The resistance member 24 is a member that protects the collection net 20 by resisting movement of the first real object O1 in the depth direction. Examples of the resistance member 24 include an elastic body such as rubber and a cushion, and a fiber.

端末装置30は、上述した物質散布装置10や、検出装置12、投影装置14、射出装置16、移動機構18等の各種装置に接続されており、各種装置の情報を与えて制御したり、各種装置から情報を取得したりする情報処理装置である。   The terminal device 30 is connected to various devices such as the substance spraying device 10 described above, the detection device 12, the projection device 14, the injection device 16, and the moving mechanism 18, and performs control by giving information of various devices. It is an information processing device that acquires information from the device.

<ハードウェア構成>
図2は、図1に示す端末装置30のハードウェア構成の一例を概略的に示す図である。
<Hardware configuration>
FIG. 2 is a diagram schematically showing an example of a hardware configuration of terminal device 30 shown in FIG.

図2に示すように、端末装置30は、制御装置32と、通信装置34と、記憶装置36と、を備える。制御装置32は、CPU(Central Processing Unit)32A及びメモリ32Bを主に備えて構成される。   As shown in FIG. 2, the terminal device 30 includes a control device 32, a communication device 34, and a storage device 36. The control device 32 mainly includes a CPU (Central Processing Unit) 32A and a memory 32B.

制御装置32では、CPU32Aがメモリ32B或いは記憶装置36等に格納された所定のプログラムを実行することにより、各種の機能手段として機能する。この機能手段の詳細については後述する。   In the control device 32, the CPU 32A functions as various functional units by executing a predetermined program stored in the memory 32B or the storage device 36 or the like. Details of this functional means will be described later.

通信装置34は、外部の装置と通信するための通信インターフェース等で構成される。通信装置34は、上述した物質散布装置10や、検出装置12、投影装置14、射出装置16、移動機構18等の各種装置に接続されており、例えば、検出装置12や射出装置16、移動機構18との間で各種の情報を送受信する。   The communication device 34 includes a communication interface for communicating with an external device. The communication device 34 is connected to various devices such as the substance dispersing device 10 described above, the detecting device 12, the projecting device 14, the ejecting device 16, and the moving mechanism 18, such as the detecting device 12, the ejecting device 16, and the moving mechanism. Various types of information are transmitted / received to / from the PC 18.

記憶装置36は、ハードディスク等で構成される。この記憶装置36は、制御装置32における処理の実行に必要な各種プログラムや各種の情報、及び処理結果の情報を記憶する。   The storage device 36 is configured by a hard disk or the like. The storage device 36 stores various programs and various types of information necessary for execution of processing in the control device 32, and information on processing results.

なお、端末装置30は、専用又は汎用のサーバ・コンピュータなどの情報処理装置を用いて実現することができる。また、端末装置30は、単一の情報処理装置より構成されるものであっても、通信ネットワーク上に分散した複数の情報処理装置より構成されるものであってもよい。また、図2は、端末装置30が有する主要なハードウェア構成の一部を示しているに過ぎず、端末装置30は、サーバが一般的に備える他の構成を備えることができる。また、複数の端末装置30のハードウェア構成も、例えば操作装置や表示装置等を備える他は、端末装置30と同様の構成を備えることができる。   The terminal device 30 can be realized by using an information processing device such as a dedicated or general-purpose server computer. Further, the terminal device 30 may be configured by a single information processing device or may be configured by a plurality of information processing devices distributed on a communication network. FIG. 2 shows only a part of the main hardware configuration of the terminal device 30. The terminal device 30 can have another configuration generally provided in a server. Also, the hardware configuration of the plurality of terminal devices 30 can have the same configuration as that of the terminal device 30 except that, for example, an operation device and a display device are provided.

<機能手段>
図3は、第一実施形態に係る映像システム1の機能手段の一例を概略的に示すブロック図である。
<Functional means>
FIG. 3 is a block diagram schematically illustrating an example of functional units of the video system 1 according to the first embodiment.

図3に示すように、映像システム1は、端末装置30の外部において、形成手段40と、検出手段42と、投影手段44と、射出手段46と、移動手段48と、抵抗手段50と、回収手段52等の機能手段を備える。また、映像システム1は、端末装置30の内部において、記憶手段60と、ゲーム手段62と、特定手段64と、生成手段66と、制御手段68等の機能手段を備える。なお、検出手段42の一部は、端末装置30の内部に設けられてもよい。   As shown in FIG. 3, the image system 1 includes a forming unit 40, a detecting unit 42, a projecting unit 44, an emitting unit 46, a moving unit 48, a resistance unit 50, and a collecting unit 40 outside the terminal device 30. It has functional means such as means 52. Further, the video system 1 includes functional units such as a storage unit 60, a game unit 62, a specifying unit 64, a generation unit 66, and a control unit 68 inside the terminal device 30. Note that a part of the detection unit 42 may be provided inside the terminal device 30.

形成手段40は、一種類の物質Mを空間に散布してスクリーン10Aを形成する機能手段である。このような形成手段40は、例えば上述の物質散布装置10により実現される。   The forming means 40 is a functional means for forming one screen 10A by dispersing one kind of substance M in a space. Such a forming means 40 is realized by, for example, the above-described substance spraying device 10.

検出手段42は、スクリーン10Aを第一実物体O1が通過するときの当該第一実物体O1の位置情報及び方向情報を検出する機能手段である。また、検出手段42は、第一実物体O1の形状情報、速度情報、回転速度情報、及び、回転方向情報のうち少なくとも何れか1つの情報を検出してもよい。このような検出手段42は、例えば上述の検出装置12又は検出装置12及びCPU32Aにより実現される。   The detecting means 42 is a functional means for detecting position information and direction information of the first real object O1 when the first real object O1 passes through the screen 10A. Further, the detecting unit 42 may detect at least one of the shape information, the speed information, the rotation speed information, and the rotation direction information of the first real object O1. Such detection means 42 is realized by, for example, the above-described detection device 12 or the detection device 12 and the CPU 32A.

投影手段44は、スクリーン10Aに映像14Aを投影する機能手段である。このような投影手段44は、例えば上述の投影装置14により実現される。   The projection unit 44 is a functional unit that projects the image 14A on the screen 10A. Such a projection unit 44 is realized by, for example, the projection device 14 described above.

射出手段46は、スクリーン10Aの奥行方向に設けられ、ゲームの進行に基づき、スクリーン10Aの手前方向に向けて、第一実物体O1と同一又は異なる第二実物体を射出する機能手段である。例えば、射出手段46は、対戦キャラクタCにサーブ権があるときや、対戦キャラクタCが第一仮想物体O2を打ち返すときに、第二実物体を射出する。このような射出手段46は、例えば上述の射出装置16により実現される。   The ejection unit 46 is a functional unit that is provided in the depth direction of the screen 10A and that emits a second real object that is the same as or different from the first real object O1 toward the front of the screen 10A based on the progress of the game. For example, the ejection unit 46 ejects the second real object when the opponent character C has a serving right or when the opponent character C strikes back the first virtual object O2. Such an injection means 46 is realized by, for example, the injection device 16 described above.

移動手段48は、射出手段46を移動する機能手段である。また、移動手段48は、射出手段46を移動する機能を有するとともに、又は、射出手段46を移動する代わりに、抵抗部材24を移動する機能を有していてもよい。このような移動手段48は、例えば上述の移動機構18により実現される。   The moving unit 48 is a functional unit that moves the injection unit 46. In addition, the moving unit 48 may have a function of moving the injection unit 46 or may have a function of moving the resistance member 24 instead of moving the injection unit 46. Such moving means 48 is realized by, for example, the moving mechanism 18 described above.

抵抗手段50は、第一実物体O1の奥行方向への移動に対して抵抗する部材である。このような抵抗手段50は、上述の抵抗部材24により実現される。なお、回収ネット20の強度が充分確保できる場合は、抵抗手段50を設けなくてもよい。   The resistance means 50 is a member that resists movement of the first real object O1 in the depth direction. Such a resistance means 50 is realized by the above-described resistance member 24. If the strength of the collection net 20 can be sufficiently secured, the resistance means 50 need not be provided.

回収手段52は、スクリーン10Aを通過した第一実物体O1を回収する機能手段である。このような回収手段52は、回収ネット20や回収穴22等により実現される。   The collection unit 52 is a functional unit that collects the first real object O1 that has passed through the screen 10A. Such a collecting means 52 is realized by the collecting net 20, the collecting hole 22, and the like.

記憶手段60は、映像データ60Aや制御パラメータ60B等を記憶する機能手段である。このような記憶手段60は、一又は複数の記憶装置36で実現される。映像データ60Aは、スクリーン10Aに映像14Aを表示するための映像データである。制御パラメータ60Bは、形成手段40や、検出手段42、投影手段44、射出手段46、移動手段48等を制御するための制御パラメータである。   The storage unit 60 is a functional unit that stores the video data 60A, the control parameters 60B, and the like. Such storage means 60 is realized by one or a plurality of storage devices 36. The video data 60A is video data for displaying the video 14A on the screen 10A. The control parameter 60B is a control parameter for controlling the forming unit 40, the detecting unit 42, the projecting unit 44, the emitting unit 46, the moving unit 48, and the like.

ゲーム手段62は、ゲームを進行してプレイヤPに提供する機能手段である。第一実施形態では、ゲーム手段62はテニスゲームを進行する。このようなゲーム手段62は、記憶装置36等に格納されたプログラムを制御装置32が実行することにより実現され、主にプレイヤPの動作を直接的または間接的に検出手段42や特定手段46などによって検出し、これに基づいて射出手段46や移動手段48、投影手段44などを動作させることでゲームを進行させる。   The game unit 62 is a functional unit that progresses the game and provides it to the player P. In the first embodiment, the game means 62 proceeds with a tennis game. Such a game means 62 is realized by the control device 32 executing a program stored in the storage device 36 or the like, and mainly directly or indirectly detects the operation of the player P directly or indirectly. The game is advanced by operating the ejection means 46, the movement means 48, the projection means 44, and the like based on this.

特定手段64は、検出手段42が検出した形状情報に基づき、第一実物体O1を特定する機能手段である。例えば、特定手段64は、検出手段42が検出した形状情報を、記憶手段60に予め記憶され、複数の第一実物体の識別情報毎に対応付けられている形状データと比較して、形状情報と一致する形状データに対応する識別情報を取得することで、第一実物体O1を特定する。このような、特定手段64は、記憶装置36等に格納されたプログラムを制御装置32が実行することにより実現される。なお、ゲーム手段62が提供するゲームがテニスゲームのように、一つのゲームに限定されているのであれば、第一実物体O1がテニスボールと推測できるので、特定手段64は大幅に省略可能である。   The specifying unit 64 is a functional unit that specifies the first real object O1 based on the shape information detected by the detecting unit 42. For example, the identification unit 64 compares the shape information detected by the detection unit 42 with shape data stored in advance in the storage unit 60 and associated with each of the plurality of pieces of identification information of the first real object. By acquiring the identification information corresponding to the shape data that matches the first real object O1, the first real object O1 is specified. Such a specifying unit 64 is realized by the control device 32 executing a program stored in the storage device 36 or the like. If the game provided by the game means 62 is limited to one game, such as a tennis game, the first real object O1 can be assumed to be a tennis ball, and the specifying means 64 can be largely omitted. is there.

生成手段66は、検出手段42が検出した各種情報に基づいて、第一仮想物体O2の仮想空間内での位置を決定し、決定した位置に配置された第一仮想物体O2や、対戦キャラクタC等を含む映像14Aを、映像データ60Aを適宜利用して生成する機能手段である。具体的には、生成手段66は、検出手段42が検出した位置情報が示す位置と略同一の位置を、映像14Aを構成する仮想空間内における第一仮想物体O2の位置として決定し、決定した位置に第一仮想物体O2を配置した状態の映像14Aを生成する。
また、生成手段66は、検出手段42が検出した方向情報に基づき、当該第一仮想物体O2の仮想空間内での移動方向を決定し、決定した移動方向に沿って第一仮想物体O2を移動させる。例えば、生成手段66は、検出手段42が検出した方向情報が示す方向と略同一方向を、第一仮想物体O2の移動方向と決定し、決定した移動方向に第一仮想物体O2を移動させる映像14Aを生成する。
また、生成手段66は、検出手段42が検出した速度情報に基づき、第一仮想物体O2の移動速度を決定し、決定した移動速度で第一仮想物体O2を仮想空間内で移動させる映像14Aを生成してもよい。例えば、生成手段66は、検出手段42が検出した速度情報が示す速度と略同一速度を、第一仮想物体O2の速度として決定し、決定した速度で第一仮想物体O2を仮想空間内で移動させる映像14Aを生成してもよい。また、生成手段66は、時間の経過とともに、第一仮想物体O2を減速させながら移動させてもよい。
また、生成手段66は、検出手段42が検出した第一実物体O1の回転速度情報又は回転方向情報に基づき、第一仮想物体O2の回転速度又は回転方向を決定し、決定した回転速度又は回転方向で回転する第一仮想物体O2を含む映像14Aを生成してもよい。例えば、生成手段66は、回転速度情報又は回転方向情報が示す回転速度又は回転方向と略同一の回転速度や回転方向で仮想空間内において回転する第一仮想物体O2を含む映像14Aを生成してもよい。
また、生成手段66は、特定手段64が特定した第一実物体O1に係る第一仮想物体O2の映像14Aを生成してもよい。
The generation unit 66 determines the position of the first virtual object O2 in the virtual space based on the various information detected by the detection unit 42, and the first virtual object O2 and the opponent character C arranged at the determined position. This is a functional means for generating the video 14A including the image data and the like by appropriately using the video data 60A. Specifically, the generation unit 66 determines and determines a position substantially the same as the position indicated by the position information detected by the detection unit 42 as the position of the first virtual object O2 in the virtual space configuring the video 14A. An image 14A in a state where the first virtual object O2 is arranged at the position is generated.
Further, the generation unit 66 determines a moving direction of the first virtual object O2 in the virtual space based on the direction information detected by the detecting unit 42, and moves the first virtual object O2 along the determined moving direction. Let it. For example, the generation unit 66 determines the direction substantially the same as the direction indicated by the direction information detected by the detection unit 42 as the moving direction of the first virtual object O2, and moves the first virtual object O2 in the determined moving direction. Generate 14A.
Further, the generating unit 66 determines the moving speed of the first virtual object O2 based on the speed information detected by the detecting unit 42, and generates the image 14A that moves the first virtual object O2 in the virtual space at the determined moving speed. May be generated. For example, the generation unit 66 determines a speed substantially equal to the speed indicated by the speed information detected by the detection unit 42 as the speed of the first virtual object O2, and moves the first virtual object O2 in the virtual space at the determined speed. An image 14A to be generated may be generated. Further, the generation unit 66 may move the first virtual object O2 while decelerating over time.
In addition, the generation unit 66 determines the rotation speed or the rotation direction of the first virtual object O2 based on the rotation speed information or the rotation direction information of the first real object O1 detected by the detection unit 42, and determines the determined rotation speed or rotation. The image 14A including the first virtual object O2 rotating in the direction may be generated. For example, the generation unit 66 generates the image 14A including the first virtual object O2 that rotates in the virtual space at the rotation speed or the rotation direction substantially the same as the rotation speed or the rotation direction indicated by the rotation speed information or the rotation direction information. Is also good.
Further, the generation unit 66 may generate the image 14A of the first virtual object O2 related to the first real object O1 specified by the specification unit 64.

また、生成手段66は、射出手段46に対する制御手段68の制御情報(例えば制御パラメータ60B)に基づき、第二仮想物体の仮想空間内での位置を決定し、決定した位置に第二仮想物体が配置された状態の映像14Aを生成し、制御手段68は、第二実物体がスクリーン10Aを通過するまで、生成手段66が生成した第二仮想物体を含む映像14Aをスクリーン10A上に表示制御する。
また、生成手段66は、射出手段46に対する制御手段68の制御情報(例えば制御パラメータ60B)に基づき、第二仮想物体の仮想空間内での方向や速度を決定し、決定した方向や速度で第二仮想物体を移動させてもよい。
また、第二実物体の種類はゲーム提供者には予め把握できるので、第二実物体に係る第二仮想物体を予め作成しておき、生成手段66は、その第二仮想物体を含む映像14Aを生成してもよい。
また、生成手段66は、ゲームの進行に応じた映像14Aを生成する。例えば、生成手段66は、ゲームの進行に応じて対戦キャラクタCを移動する映像14Aを生成する。
以上のような生成手段66は、記憶装置36等に格納されたプログラムを制御装置32が実行することにより実現される。
Further, the generation unit 66 determines the position of the second virtual object in the virtual space based on the control information (for example, the control parameter 60B) of the control unit 68 for the injection unit 46, and the second virtual object is located at the determined position. The control unit 68 controls the display of the image 14A including the second virtual object generated by the generation unit 66 on the screen 10A until the second real object passes through the screen 10A. .
Further, the generation unit 66 determines the direction and the speed of the second virtual object in the virtual space based on the control information (for example, the control parameter 60B) of the control unit 68 with respect to the injection unit 46, and determines the second direction and the speed in the determined direction and speed. The two virtual objects may be moved.
In addition, since the type of the second real object can be grasped in advance by the game provider, a second virtual object relating to the second real object is created in advance, and the generation unit 66 generates an image 14A including the second virtual object. May be generated.
Further, the generating means 66 generates the video 14A according to the progress of the game. For example, the generation unit 66 generates the video 14A that moves the opponent character C according to the progress of the game.
The generation unit 66 as described above is realized by the control device 32 executing a program stored in the storage device 36 or the like.

制御手段68は、制御パラメータ60Bに基づき、形成手段40や、検出手段42、投影手段44、射出手段46、移動手段48等を制御する。例えば、制御手段68は、第一実物体O1がスクリーン10Aを通過したときに、そのタイミングで投影手段44を制御し、生成手段66が生成した第一仮想物体O2を含む映像14Aをスクリーン10Aに表示(投影)させる。言い換えれば、制御手段68は、生成手段66が生成した第一仮想物体O2を含む映像14Aをスクリーン10Aに表示制御する。このような制御手段68は、記憶装置36等に格納されたプログラムを制御装置32が実行することにより実現される。なお、制御手段68は、第一実物体O1がスクリーン10Aを通過した後も第一実物体O1の仮想空間内での位置や方向、速度を決定し続け、例えば第一実物体O1がスクリーン10Aから所定距離以上に遠ざかっていくまでは、引き続き、投影手段44を制御し、第一仮想物体O2を含む映像14Aをスクリーン10Aに表示(投影)させてもよい。   The control unit 68 controls the forming unit 40, the detecting unit 42, the projecting unit 44, the emitting unit 46, the moving unit 48, and the like based on the control parameter 60B. For example, when the first real object O1 passes through the screen 10A, the control unit 68 controls the projection unit 44 at that timing, and displays the image 14A including the first virtual object O2 generated by the generation unit 66 on the screen 10A. Display (project). In other words, the control unit 68 controls the display of the image 14A including the first virtual object O2 generated by the generation unit 66 on the screen 10A. Such control means 68 is realized by the control device 32 executing a program stored in the storage device 36 or the like. Note that the control unit 68 continues to determine the position, direction, and speed of the first real object O1 in the virtual space even after the first real object O1 has passed through the screen 10A. Until moving away from the camera by more than a predetermined distance, the projection unit 44 may be controlled to display (project) the image 14A including the first virtual object O2 on the screen 10A.

また、制御手段68は、例えば、検出手段42が検出した各種情報や対戦キャラクタCの能力、ゲームの進行等に基づき、制御パラメータ60Bを調整することで、射出手段46による第二実物体の射出位置、射出速度又は射出方向を制御する。また、制御手段68は、制御パラメータ60Bを調整することで、射出量又は射出回数を制御してもよい。
また、制御手段68は、第一実物体O1の位置に基づき、形成手段40における物質Mを散布する量を制御してもよい。例えば、制御手段68は、テニスゲームでは、第一実物体O1がスクリーン10Aより手前方向に位置するときには、対戦キャラクタCを視認させるため、物質Mの量を多く制御する一方、第一実物体O1がスクリーン10Aより奥行方向に位置するときには、第一実物体O1を視認させるため、物質Mの量を少ない量に制御してもよい。逆に、制御手段68は、第一実物体O1がスクリーン10Aより手前方向に位置するときには、プレイヤPを第一実物体O1に集中させるため、物質Mの量を少なく制御する一方、第一実物体O1がスクリーン10Aより奥行方向に位置するときには、プレイヤPを映像14Aに集中させるため、物質Mの量を多く制御してもよい。
また、制御手段68は、ゲームの進行に基づき、形成手段40における物質Mを散布する量を制御してもよい。例えば、制御手段68は、ゲームの最初には、現実世界から仮想世界に入る感覚をプレイヤPに与えるため、物質Mの量を少なく制御し、ゲームの途中には、仮想世界への没入感をプレイヤPに与えるため、物質Mの量を多く制御し、ゲームの最後には、仮想世界から現実世界に戻る感覚をプレイヤPに与えるため、物質Mの量を少なく制御するようにしてもよい。
以上のような制御手段68は、記憶装置36等に格納されたプログラムを制御装置32が実行することにより実現される。なお、物質Mを散布する量を制御するかわりに、回収ネット20を強度の確保された布などのスクリーン面で構成することで、第一実物体O1の移動が無いゲームシーンでは物質Mの散布を止め、その背後にある回収ネット20に映像14Aを投影するようにしてもよい。その際、抵抗手段50や射出装置16は、映像14Aの投影範囲外に移動させておくことが望ましい。
Further, the control means 68 adjusts the control parameter 60B based on, for example, various information detected by the detection means 42, the ability of the opponent character C, the progress of the game, and the like, so that the ejection means 46 emits the second real object. Control the position, injection speed or injection direction. Further, the control means 68 may control the injection amount or the number of injections by adjusting the control parameter 60B.
Further, the control means 68 may control the amount of the substance M to be sprayed on the forming means 40 based on the position of the first real object O1. For example, in the tennis game, when the first real object O1 is located in front of the screen 10A in the tennis game, the control means 68 controls the amount of the substance M to be large so as to make the opponent character C visible, while controlling the first real object O1. When is located in the depth direction from the screen 10A, the amount of the substance M may be controlled to a small amount in order to make the first real object O1 visible. Conversely, when the first real object O1 is located in front of the screen 10A, the control means 68 controls the amount of the substance M to be small in order to concentrate the player P on the first real object O1, while controlling the first real object O1. When the body O1 is located in the depth direction from the screen 10A, the amount of the substance M may be controlled to be large in order to concentrate the player P on the image 14A.
Further, the control means 68 may control the amount of the substance M to be sprayed in the forming means 40 based on the progress of the game. For example, at the beginning of the game, the control means 68 controls the amount of the substance M to be small so as to give the player P a sense of entering the virtual world from the real world, and during the game, senses immersion in the virtual world. The amount of the substance M may be controlled to be large to give the player P, and the amount of the substance M may be controlled to be small at the end of the game so as to give the player P a feeling of returning from the virtual world to the real world.
The control means 68 as described above is realized by the control device 32 executing a program stored in the storage device 36 or the like. Note that, instead of controlling the amount of the substance M to be sprayed, the recovery net 20 is formed of a screen surface such as a cloth having a high strength, so that the substance M is sprayed in the game scene where the first real object O1 does not move. May be stopped, and the image 14A may be projected on the collection net 20 behind it. At this time, it is desirable that the resistance means 50 and the injection device 16 be moved out of the projection range of the image 14A.

<処理の流れ>
図4は、第一実施形態に係る映像システム1の処理の流れを示すフローチャートである。この処理は、ゲーム手段62がテニスゲームを開始し、制御手段68が形成手段40を制御して物質Mを空間に散布してスクリーン10Aを形成し、制御手段68が投影手段44を制御して、当該スクリーン10Aに、対戦キャラクタCを含む映像14Aを表示することで開始される。
<Process flow>
FIG. 4 is a flowchart illustrating a flow of processing of the video system 1 according to the first embodiment. In this process, the game means 62 starts the tennis game, the control means 68 controls the forming means 40 to spray the substance M into the space to form the screen 10A, and the control means 68 controls the projection means 44. The process is started by displaying the image 14A including the battle character C on the screen 10A.

また、図5(A)は、プレイヤPが第一実物体O1(テニスボール)を打って、当該第一実物体O1がスクリーン10Aに向かって飛んでいるときの映像14Aの様子を示す図である。   FIG. 5A is a diagram illustrating a state of the image 14A when the player P hits the first real object O1 (tennis ball) and the first real object O1 is flying toward the screen 10A. is there.

(ステップSP10)
ゲーム手段62は、スクリーン10Aの手前において、プレイヤPにより飛ばされた第一実物体O1(テニスボール)を検出手段42が検出したか否かを判定する。そして、当該判定が肯定判定された場合には処理はステップSP12の処理に移行し、当該判定が否定判定された場合には処理はステップSP10の処理に戻る。
(Step SP10)
The game means 62 determines whether or not the detection means 42 has detected the first real object O1 (tennis ball) that has been hit by the player P in front of the screen 10A. When the determination is affirmative, the process proceeds to step SP12, and when the determination is negative, the process returns to step SP10.

(ステップSP12)
検出手段42は、スクリーン10Aの手前に位置する第一実物体O1の位置情報を検出する。そして、処理は、ステップSP14の処理に移行する。
(Step SP12)
The detecting means 42 detects the position information of the first real object O1 located in front of the screen 10A. Then, the process proceeds to the process of step SP14.

(ステップSP14)
ゲーム手段62は、プレイヤPにより飛ばされた第一実物体O1がスクリーン10Aを通過することを検出手段42が検出したか否かを判定する。そして、当該判定が肯定判定された場合には処理はステップSP16の処理に移行し、当該判定が否定判定された場合には処理はステップSP14の処理に戻る。
(Step SP14)
The game means 62 determines whether or not the detection means 42 has detected that the first real object O1 that has been skipped by the player P passes through the screen 10A. When the determination is affirmative, the process proceeds to step SP16, and when the determination is negative, the process returns to step SP14.

(ステップSP16)
検出手段42は、スクリーン10Aを通過するときの第一実物体O1の位置情報を検出する。そして、処理は、ステップSP18の処理に移行する。
(Step SP16)
The detecting means 42 detects the position information of the first real object O1 when passing through the screen 10A. Then, the process proceeds to the process of step SP18.

(ステップSP18)
検出手段42は、スクリーン10Aを通過するときの第一実物体O1の方向情報を検出する。第一実施形態では、検出手段42は、スクリーン10Aの手前に位置する第一実物体O1の位置情報とスクリーン10Aを通過するときの第一実物体O1の位置情報の少なくとも2か所の位置情報を取得しておき、これに基づき、方向情報を検出する。そして、処理は、ステップSP20の処理に移行する。
(Step SP18)
The detecting means 42 detects direction information of the first real object O1 when passing through the screen 10A. In the first embodiment, the detecting means 42 detects at least two positions of the position information of the first real object O1 located in front of the screen 10A and the position information of the first real object O1 when passing through the screen 10A. Is acquired, and direction information is detected based on this. Then, the process proceeds to the process of step SP20.

(ステップSP20)
検出手段42は、スクリーン10Aを通過するときの第一実物体O1の速度情報を検出する。第一実施形態では、検出手段42は、スクリーン10Aの手前に位置する第一実物体O1の位置とスクリーン10Aを通過するときの第一実物体O1の位置までの移動時間を取得しておき、これに基づき、速度情報を検出する。そして、処理は、ステップSP22の処理に移行する。
(Step SP20)
The detecting means 42 detects speed information of the first real object O1 when passing through the screen 10A. In the first embodiment, the detection unit 42 acquires the position of the first real object O1 located in front of the screen 10A and the moving time to the position of the first real object O1 when passing through the screen 10A, Based on this, speed information is detected. Then, the process proceeds to the process of step SP22.

(ステップSP22)
生成手段66は、検出手段42が検出した位置情報に基づいて、第一仮想物体O2の仮想空間内での位置を決定し、決定した位置に配置された第一仮想物体O2を含む映像14Aを生成する。そして、制御手段68は、スクリーン10Aを第一実物体O1が通過したときに、生成された映像14Aをスクリーン10Aに表示制御する。
(Step SP22)
The generation unit 66 determines the position of the first virtual object O2 in the virtual space based on the position information detected by the detection unit 42, and generates the image 14A including the first virtual object O2 arranged at the determined position. Generate. Then, the control means 68 controls the display of the generated image 14A on the screen 10A when the first real object O1 passes through the screen 10A.

図5(B)は、図5(A)から続いて、第一実物体O1がスクリーン10Aを通過したときの映像14A等の様子を示す図である。   FIG. 5B is a diagram showing a state of the image 14A and the like when the first real object O1 passes through the screen 10A, following FIG. 5A.

図5(B)に示すように、第一実物体O1は、スクリーン10Aを通過したため当該スクリーン10Aに遮られてプレイヤPからは視認できないが、その代わり、第一実物体O1と同様の第一仮想物体O2が映像14A内に表示される。なお、第一仮想物体O2の周囲には、プレイヤPに応じて、具体的にはプレイヤPの属性や種類等に応じて、炎や氷等のエフェクト14Bが表示されてもよい。また、移動方向や移動速度に応じてエフェクト14Bが表示されてもよい。   As shown in FIG. 5B, the first real object O1 passes through the screen 10A and is blocked by the screen 10A and cannot be viewed from the player P. However, the first real object O1 is similar to the first real object O1. The virtual object O2 is displayed in the video 14A. Note that an effect 14B such as a flame or ice may be displayed around the first virtual object O2 according to the player P, specifically, according to the attribute and type of the player P. Further, the effect 14B may be displayed according to the moving direction and the moving speed.

図4に戻って、処理は、ステップSP24の処理に移行する。   Returning to FIG. 4, the process proceeds to step SP24.

(ステップSP24)
生成手段66は、検出手段42が検出した第一実物体O1の速度情報や方向情報に基づき、第一仮想物体O2(テニスボール)の速度や移動方向を決定する。そして、処理は、ステップSP26の処理に移行する。
(Step SP24)
The generating unit 66 determines the speed and moving direction of the first virtual object O2 (tennis ball) based on the speed information and direction information of the first real object O1 detected by the detecting unit 42. Then, the process proceeds to the process of step SP26.

(ステップSP26)
生成手段66は、決定した仮想物体Oの速度や移動方向に沿って、映像14A内の第一仮想物体O2を移動させる。これに伴い、スクリーン10Aに表示される第一仮想物体O2が移動する。
(Step SP26)
The generating unit 66 moves the first virtual object O2 in the video 14A along the determined speed and moving direction of the virtual object O. Accordingly, the first virtual object O2 displayed on the screen 10A moves.

図5(C)は、図5(B)から続いて、第一実物体O1がスクリーン10Aから遠ざかっているときの映像14A等の様子を示す図である。   FIG. 5C is a diagram showing a state of the image 14A and the like when the first real object O1 is moving away from the screen 10A, following FIG. 5B.

図5(C)に示すように、第一仮想物体O2は、対戦キャラクタCに向かって移動している様子が映像14A内に表示される。   As shown in FIG. 5C, a state in which the first virtual object O2 is moving toward the opponent character C is displayed in the video 14A.

図4に戻って、処理は、ステップSP28の処理に移行する。   Returning to FIG. 4, the process proceeds to step SP28.

(ステップSP28)
制御手段68は、移動手段48を制御して、ゲームの進行状況や第一仮想物体O2の位置、キャラクタCの能力パラメータ等に応じて、抵抗手段50を移動させる。ここで、テニスゲームにおいては、抵抗手段50は、ネットや障害物等の代わりとなり、第一実物体O1が抵抗手段50に当たると、跳ね返るか、下に落ちるようになっている。なお、抵抗手段50のサイズが大きい(スクリーン10Aや回収ネット20と同等のサイズ)場合には、抵抗手段50を移動させてなくてもよい。そして、処理は、ステップSP30の処理に移行する。
(Step SP28)
The control means 68 controls the movement means 48 to move the resistance means 50 according to the progress of the game, the position of the first virtual object O2, the ability parameters of the character C, and the like. Here, in the tennis game, the resistance means 50 substitutes for a net, an obstacle, or the like. When the first real object O1 hits the resistance means 50, the resistance means 50 rebounds or falls down. If the size of the resistance means 50 is large (equivalent to the size of the screen 10A or the collection net 20), the resistance means 50 may not be moved. Then, the process proceeds to the process of step SP30.

(ステップSP30)
回収手段52は、スクリーン10Aを通過した第一実物体O1を回収する。また、ゲーム手段62は、第一仮想物体O2(テニスボール)の速度や移動方向、抵抗手段50の位置等に基づき、第一仮想物体O2の着地点を算出する。そして、処理は、ステップSP32の処理に移行する。
(Step SP30)
The collecting means 52 collects the first real object O1 that has passed through the screen 10A. The game means 62 calculates the landing point of the first virtual object O2 based on the speed and the moving direction of the first virtual object O2 (tennis ball), the position of the resistance means 50, and the like. Then, the process proceeds to the process of step SP32.

(ステップSP32)
ゲーム手段62は、第一仮想物体O2の着地点に基づき、1セットのうち1回のゲームの勝敗が確定したか否かを判定する。そして、当該判定が肯定判定された場合には処理はステップSP34の処理に移行し、当該判定が否定判定された場合には処理はステップSP40の処理に移行する。
(Step SP32)
The game means 62 determines whether or not one game out of one set has been determined based on the landing point of the first virtual object O2. When the determination is affirmative, the process proceeds to step SP34, and when the determination is negative, the process proceeds to step SP40.

(ステップSP34)
ゲーム手段62は、勝敗結果に応じて、プレイヤPのスコア又は対戦キャラクタCのスコアを加算する。そして、処理は、ステップSP36の処理に移行する。
(Step SP34)
The game means 62 adds the score of the player P or the score of the opponent character C according to the result of the win or loss. Then, the process proceeds to the process of step SP36.

(ステップSP36)
ゲーム手段62は、プレイヤPのスコア及び対戦キャラクタCのスコアに基づき、試合(テニスゲーム)が終了したか否かを判定する。そして、当該判定が肯定判定された場合には図4に示す一連の処理が終了し、当該判定が否定判定された場合には処理はステップSP38の処理に移行する。
(Step SP36)
The game means 62 determines whether or not the match (tennis game) has ended based on the score of the player P and the score of the opponent character C. Then, when the determination is affirmative, the series of processes illustrated in FIG. 4 ends, and when the determination is negative, the process proceeds to step SP38.

(ステップSP38)
ゲーム手段62は、プレイヤPのスコア及び対戦キャラクタCのスコアに基づき、サーブ権を交代するか否かを判定する。そして、当該判定が肯定判定された場合には処理はステップSP40の処理に移行し、当該判定が否定判定された場合には処理はステップSP10の処理に戻る。
(Step SP38)
The game means 62 determines whether to change the serving right based on the score of the player P and the score of the opponent character C. When the determination is affirmative, the process proceeds to step SP40, and when the determination is negative, the process returns to step SP10.

(ステップSP40)
ステップSP32において、対戦キャラクタCが第一仮想物体O2(テニスボール)を打ち返し、ゲームが継続される場合、制御手段68は、射出手段46を制御して、スクリーン10Aの手前方向に向けて、第一実物体O1と同様の第二実物体を射出する。ここで、制御手段68は、検出手段42が検出した位置情報、速度情報、方向情報等に基づいて、射出手段46による第二実物体の射出位置、射出速度又は射出方向を制御してもよい。また、制御手段68は、対戦キャラクタCの能力に基づいて、射出手段46による第二実物体の射出位置、射出速度又は射出方向を制御してもよい。
なお、仮想空間内で対戦キャラクタCが第一仮想物体O2を打ち返した位置から視点方向にあるスクリーン面までの計算上の距離と、スクリーン10Aの背後に位置する射出手段46からスクリーン10Aまでの実際の距離は異なる。このため、例えば図7に示すように、射出手段46による第二実物体O4の射出位置や方向は、仮想空間で第一仮想物体O2が打ち返された物体として定義される第二仮想物体O3の計算上の移動軌跡L上であり、射出手段46からスクリーン10Aまでの実際の距離位置と、仮想空間内の第二仮想物体O2とスクリーン面までの計算上の距離が一致する距離となる位置と方向が射出位置と射出方向になるよう、制御手段68は射出手段46を制御する。また、第二仮想物体O2が仮想空間上でこの位置に到達したタイミングが射出タイミングとなるよう、制御手段68は射出手段46を制御する。なお、第二仮想物体O3の周囲には、対戦キャラクタCに応じて、具体的には対戦キャラクタCの属性や種類等に応じて、星等のエフェクト14Cが表示されてもよい。そして、処理は、ステップSP42の処理に移行する。
(Step SP40)
In step SP32, when the opponent character C strikes back the first virtual object O2 (tennis ball) and the game is continued, the control means 68 controls the injection means 46 to direct the first character to the front of the screen 10A. A second real object similar to one real object O1 is emitted. Here, the control means 68 may control the injection position, the injection speed, or the injection direction of the second real object by the injection means 46 based on the position information, speed information, direction information, and the like detected by the detection means 42. . Further, the control unit 68 may control the position, speed or direction of the second real object by the injection unit 46 based on the ability of the battle character C.
Note that the calculated distance from the position at which the opponent character C hits back the first virtual object O2 in the virtual space to the screen surface in the viewpoint direction and the actual distance from the ejection means 46 located behind the screen 10A to the screen 10A. Distances are different. For this reason, as shown in FIG. 7, for example, the emission position and direction of the second real object O4 by the emission means 46 are different from those of the second virtual object O3 defined as the object in which the first virtual object O2 is hit back in the virtual space. A position on the calculated movement trajectory L where the actual distance position from the injection means 46 to the screen 10A is equal to the calculated distance between the second virtual object O2 and the screen surface in the virtual space. The control unit 68 controls the injection unit 46 so that the direction is the injection position and the injection direction. Further, the control means 68 controls the emission means 46 such that the timing when the second virtual object O2 reaches this position in the virtual space is the emission timing. Note that an effect 14C such as a star may be displayed around the second virtual object O3 according to the opponent character C, specifically, according to the attribute and type of the opponent character C. Then, the process proceeds to the process of step SP42.

(ステップSP42)
生成手段66は、射出手段46から射出された第二実物体O4に係る第二仮想物体O3を含む映像14Aを生成する。この際、生成手段66は、射出手段46による第二実物体O4の射出位置及び射出方向に基づいて、映像14A内における第二仮想物体O3の仮想空間内での位置を決定する。続いて、制御手段68は、第二実物体がスクリーン10Aを通過するまで、投影手段44を利用して、生成手段66が生成した第二仮想物体O3を含む映像14Aをスクリーン10Aに表示制御する。なお、第二仮想物体O3は、第一仮想物体O2と同一又は異なってもよい。ただし、連続性を保つという観点から、第二仮想物体O3は、第一仮想物体O2と同一であることが好ましい。
(Step SP42)
The generating unit 66 generates an image 14A including the second virtual object O3 related to the second real object O4 emitted from the emitting unit 46. At this time, the generation unit 66 determines the position in the virtual space of the second virtual object O3 in the video 14A based on the emission position and the emission direction of the second real object O4 by the emission unit 46. Subsequently, the control unit 68 controls the display of the image 14A including the second virtual object O3 generated by the generation unit 66 on the screen 10A using the projection unit 44 until the second real object passes through the screen 10A. . Note that the second virtual object O3 may be the same as or different from the first virtual object O2. However, from the viewpoint of maintaining continuity, the second virtual object O3 is preferably the same as the first virtual object O2.

図6(A)は、図5(C)から続いて、対戦キャラクタCが第一仮想物体O2を打つことに応じて射出された第二実物体O4がスクリーン10Aに向かっているときの映像14A等の様子を示す図である。   FIG. 6A is a continuation of FIG. 5C, showing an image 14A when the second real object O4 ejected in response to the opponent character C hitting the first virtual object O2 faces the screen 10A. FIG.

図6(A)に示すように、第二実物体O4は、スクリーン10Aよりも奥行方向に位置するため、プレイヤPからは視認できないが、その代わり、第二実物体O4と同様の第二仮想物体O3が映像14A内に表示される。   As shown in FIG. 6A, the second real object O4 is located in the depth direction with respect to the screen 10A, and therefore cannot be visually recognized by the player P. Instead, the second virtual object O4 is similar to the second real object O4. The object O3 is displayed in the video 14A.

図4に戻って、処理は、ステップSP44の処理に移行する。   Returning to FIG. 4, the process proceeds to step SP44.

(ステップSP44)
生成手段66は、検出手段42が検出した射出速度等に基づき、映像14A内の第二仮想物体O3をスクリーン10Aに向かって移動させる。これに伴い、スクリーン10Aに表示される第二仮想物体O3が移動する。
(Step SP44)
The generation unit 66 moves the second virtual object O3 in the video 14A toward the screen 10A based on the ejection speed and the like detected by the detection unit 42. Along with this, the second virtual object O3 displayed on the screen 10A moves.

図6(B)は、図6(A)から続いて、第二実物体O4がスクリーン10Aを通過する直前のときの映像14A等の様子を示す図である。   FIG. 6B is a diagram showing a state of the image 14A and the like immediately before the second real object O4 passes through the screen 10A, following FIG. 6A.

図6(B)に示すように、第二仮想物体O3がプレイヤPに向かって移動している様子が映像14A内に表示される。   As shown in FIG. 6B, a state in which the second virtual object O3 is moving toward the player P is displayed in the video 14A.

図4に戻って、処理は、ステップSP46の処理に移行する。   Returning to FIG. 4, the process proceeds to step SP46.

(ステップSP46)
ゲーム手段62は、第二実物体O4がスクリーン10Aを通過することを検出手段42が検出したか否かを判定する。そして、当該判定が肯定判定された場合には処理はステップSP48の処理に移行し、当該判定が否定判定された場合には処理はステップSP46の処理に戻る。
(Step SP46)
The game means 62 determines whether or not the detection means 42 has detected that the second real object O4 passes through the screen 10A. When the determination is affirmative, the process proceeds to step SP48, and when the determination is negative, the process returns to step SP46.

(ステップSP48)
制御手段68は、映像14Aから第二仮想物体O3の表示を削除する。
(Step SP48)
The control means 68 deletes the display of the second virtual object O3 from the video 14A.

図6(C)は、図6(B)から続いて、第二実物体O4がスクリーン10Aを通過したときの映像14A等の様子を示す図である。   FIG. 6C is a diagram showing a state of the image 14A and the like when the second real object O4 passes through the screen 10A, following FIG. 6B.

図6(C)に示すように、第二実物体O4がスクリーン10Aを通過することで、映像14Aから第二仮想物体O3の表示がなくなり、その代わり、第二実物体O4がスクリーン10Aから飛び出してきてプレイヤPによって視認できるようになる。この際、第二実物体O4からの力が作用して物質Mが手前方向に飛び散ってもよい。   As shown in FIG. 6C, when the second real object O4 passes through the screen 10A, the display of the second virtual object O3 disappears from the image 14A, and instead, the second real object O4 jumps out of the screen 10A. And can be visually recognized by the player P. At this time, the force from the second real object O4 may act to cause the substance M to scatter toward the front.

図4に戻って、処理は、ステップSP50の処理に移行する。   Returning to FIG. 4, the process proceeds to step SP50.

(ステップSP50)
ゲーム手段62は、検出手段42が検出する第二実物体O4の位置情報等に基づき、プレイヤPが第二実物体O4を打ち返したか否かを判定することで、1セットのうち1回のゲームの勝敗が確定したか否かを判定する。具体的には、ゲーム手段62は、プレイヤPが第二実物体O4を打ち返さなかった場合には勝敗が確定したと肯定判定し、プレイヤPが第二実物体O4を打ち返した場合には勝敗が確定していないと否定判定する。そして、当該判定が肯定判定された場合には処理はステップSP52の処理に移行し、当該判定が否定判定された場合には処理はステップSP10の処理に戻る。なお、第二実物体O4が打ち返された場合にはその第二実物体O4は第一実物体O1とみなされてステップSP10以降の処理が進められる。
(Step SP50)
The game means 62 determines whether or not the player P has hit back the second real object O4 based on the position information and the like of the second real object O4 detected by the detection means 42, thereby performing one game of one set. It is determined whether or not winning or losing is determined. Specifically, when the player P does not return the second real object O4, the game means 62 makes an affirmative determination that the winning or losing is determined, and when the player P returns the second real object O4, the winning or losing is determined. A negative determination is made that the determination has not been made. If the determination is affirmative, the process proceeds to step SP52, and if the determination is negative, the process returns to step SP10. When the second real object O4 is hit back, the second real object O4 is regarded as the first real object O1, and the processing after step SP10 is performed.

(ステップSP52)
ゲーム手段62は、勝敗結果に応じて、プレイヤPのスコア又は対戦キャラクタCのスコアを加算する。そして、処理は、ステップSP54の処理に移行する。
(Step SP52)
The game means 62 adds the score of the player P or the score of the opponent character C according to the result of the win or loss. Then, the process proceeds to step SP54.

(ステップSP54)
ゲーム手段62は、プレイヤPのスコア及び対戦キャラクタCのスコアに基づき、試合(テニスゲーム)が終了したか否かを判定する。そして、当該判定が肯定判定された場合には図4に示す一連の処理が終了し、当該判定が否定判定された場合には処理はステップSP56の処理に移行する。
(Step SP54)
The game means 62 determines whether or not the match (tennis game) has ended based on the score of the player P and the score of the opponent character C. Then, when the determination is affirmative, the series of processes illustrated in FIG. 4 ends, and when the determination is negative, the process proceeds to step SP56.

(ステップSP56)
ゲーム手段62は、プレイヤPのスコア及び対戦キャラクタCのスコアに基づき、サーブ権を交代するか否かを判定する。そして、当該判定が肯定判定された場合には処理はステップSP40の処理に戻り、当該判定が否定判定された場合には処理はステップSP10の処理に戻る。ただし、ステップSP38でサーブ権が交代されているときには、上記判定が逆となる。すなわち、このようなときに、上記判定が肯定判定された場合には処理はステップSP10の処理に戻り、上記判定が否定判定された場合には処理はステップSP40の処理に戻る。
(Step SP56)
The game means 62 determines whether to change the serving right based on the score of the player P and the score of the opponent character C. When the determination is affirmative, the process returns to step SP40, and when the determination is negative, the process returns to step SP10. However, when the serving right has been changed in step SP38, the above determination is reversed. That is, in such a case, if the determination is affirmative, the process returns to step SP10, and if the determination is negative, the process returns to step SP40.

<効果>
以上、第一実施形態では、映像システム1が、物質Mを空間に散布してスクリーン10Aを形成する形成手段40と、スクリーン10Aを第一実物体O1が通過するときの当該第一実物体O1の位置情報を検出する検出手段42と、検出手段42が検出した位置情報に基づいて、仮想物体O2の仮想空間内での位置を決定し、決定した位置に配置された仮想物体O1を含む映像14Aを生成する生成手段66と、スクリーン10Aを第一実物体O1が通過したときに、生成手段66が生成した映像14Aをスクリーン10A上に表示制御する制御手段68と、を備える。
<Effect>
As described above, in the first embodiment, the imaging system 1 includes the forming unit 40 that scatters the substance M into the space to form the screen 10A, and the first real object O1 when the first real object O1 passes through the screen 10A. A position of the virtual object O2 in the virtual space is determined based on the position information detected by the detection unit 42, and an image including the virtual object O1 arranged at the determined position. A generating unit 66 for generating 14A and a control unit 68 for controlling the display of the image 14A generated by the generating unit 66 on the screen 10A when the first real object O1 passes through the screen 10A.

この構成によれば、第一実物体O1の位置と第一仮想物体O2の位置との間に連続性を持たせることができる。したがって、第一実施形態によれば、スクリーン10A上に表示される映像14Aのリアリティを向上することができる。   According to this configuration, continuity can be provided between the position of the first real object O1 and the position of the first virtual object O2. Therefore, according to the first embodiment, the reality of the video 14A displayed on the screen 10A can be improved.

また、第一実施形態では、検出手段42は更に、スクリーン10Aを通過するときの第一実物体O1の及び/又は速度情報を検出し、生成手段66は更に、検出手段42が検出した情報に基づき、映像内14Aの第一仮想物体O2を移動させる。   Further, in the first embodiment, the detecting unit 42 further detects the first real object O1 and / or speed information when passing through the screen 10A, and the generating unit 66 further detects the information detected by the detecting unit 42. Based on this, the first virtual object O2 in the image 14A is moved.

この構成によれば、第一実物体O1の方向と、第一仮想物体O2の移動方向との間に連続性を持たせることができる。したがって、第一実施形態によれば、スクリーン10A上に表示される映像14Aのリアリティをより向上することができる。また、この構成によれば、第一実物体O1の速度と、第一仮想物体O2の速度との間に連続性を持たせることができる。したがって、第一実施形態によれば、スクリーン10A上に表示される映像14Aのリアリティをより向上することができる。   According to this configuration, continuity can be provided between the direction of the first real object O1 and the moving direction of the first virtual object O2. Therefore, according to the first embodiment, the reality of the image 14A displayed on the screen 10A can be further improved. According to this configuration, continuity can be provided between the speed of the first real object O1 and the speed of the first virtual object O2. Therefore, according to the first embodiment, the reality of the image 14A displayed on the screen 10A can be further improved.

また、第一実施形態では、検出手段42は更に、第一実物体O1の回転速度情報及び/又は回転方向情報を検出し、生成手段66は、検出手段42が検出した情報に基づき、映像14A内の第一仮想物体O2を回転させる。   In the first embodiment, the detecting unit 42 further detects rotation speed information and / or rotation direction information of the first real object O1, and the generating unit 66 generates an image 14A based on the information detected by the detecting unit 42. Is rotated in the first virtual object O2.

この構成によれば、第一実物体O1の回転速度及び/又は回転方向と、第一仮想物体O2の回転速度及び/又は回転方向との間に連続性を持たせることができる。したがって、第一実施形態によれば、スクリーン10A上に表示される映像14Aのリアリティをより向上することができる。   According to this configuration, continuity can be provided between the rotation speed and / or rotation direction of the first real object O1 and the rotation speed and / or rotation direction of the first virtual object O2. Therefore, according to the first embodiment, the reality of the image 14A displayed on the screen 10A can be further improved.

また、第一実施形態では、検出手段42は更に、第一実物体O1の形状情報を検出し、検出手段42が検出した形状情報に基づいて第一実物体O1を特定する特定手段64を更に備え、生成手段66は、映像14Aとして、特定手段64が特定した第一実物体O1に係る仮想物体O2の映像を生成する。   In the first embodiment, the detecting unit 42 further detects the shape information of the first real object O1, and further includes the specifying unit 64 that specifies the first real object O1 based on the shape information detected by the detecting unit 42. The generating unit 66 generates, as the image 14A, an image of the virtual object O2 related to the first real object O1 specified by the specifying unit 64.

この構成によれば、第一実物体O1の種類と、第一仮想物体O2の種類との間に連続性を持たせることができる。したがって、第一実施形態によれば、スクリーン10A上に表示される映像14Aのリアリティをより向上することができる。   According to this configuration, continuity can be provided between the type of the first real object O1 and the type of the first virtual object O2. Therefore, according to the first embodiment, the reality of the image 14A displayed on the screen 10A can be further improved.

また、第一実施形態では、スクリーン10Aを通過した第一実物体O1を回収する回収手段52を更に備える。   In the first embodiment, the apparatus further includes a collecting unit 52 that collects the first real object O1 that has passed through the screen 10A.

この構成によれば、第一実物体O1を回収する手間を省くことができる。   According to this configuration, it is possible to save the trouble of collecting the first real object O1.

また、第一実施形態では、スクリーン10Aの奥行方向に設けられ、スクリーン10Aの手前方向に向けて第二実物体O4を射出する射出手段46を更に備える。   Further, in the first embodiment, an emission unit 46 is provided in the depth direction of the screen 10A and emits the second real object O4 toward the front of the screen 10A.

この構成によれば、スクリーン10Aから第二実物体O4が飛び出してくるので、プレイヤPに驚きや楽しさを与えることができる。また、この構成によれば、飛び出してきた第二実物体O4をプレイヤPが打ち返すことができるので、テニスゲームを続行することができる。   According to this configuration, since the second real object O4 protrudes from the screen 10A, the player P can be surprised and enjoyed. Further, according to this configuration, since the player P can hit back the second real object O4 that has jumped out, the tennis game can be continued.

また、第一実施形態では、制御手段68は、射出手段46による第二実物体O4の射出位置、射出速度及び射出方向の少なくとも何れか1つを制御する。   In the first embodiment, the control unit 68 controls at least one of the injection position, the injection speed, and the injection direction of the second real object O4 by the injection unit 46.

この構成によれば、例えばゲームの進行に応じて、第二実物体O4の射出位置、射出速度及び射出方向の少なくとも何れか1つを制御することができる。   According to this configuration, for example, according to the progress of the game, at least one of the ejection position, the ejection speed, and the ejection direction of the second real object O4 can be controlled.

また、第一実施形態では、制御手段68は、少なくとも検出手段42が検出した情報に基づき、第二実物体O4の射出位置、射出速度及び射出方向の少なくとも何れか1つを制御する。   In the first embodiment, the control unit 68 controls at least one of the ejection position, the ejection speed, and the ejection direction of the second real object O4 based on at least the information detected by the detection unit 42.

この構成によれば、第一実物体O1と第二実物体O4との間に連続性を持たせることができる。したがって、第一実施形態によれば、ゲームのリアリティを向上することができる。   According to this configuration, continuity can be provided between the first real object O1 and the second real object O4. Therefore, according to the first embodiment, the reality of the game can be improved.

また、第一実施形態では、生成手段66は、射出手段46に対する制御手段68の制御情報(制御パラメータ60B)に基づき、第二仮想物体O3の仮想空間内での位置を決定し、決定した位置に第二仮想物体O3が配置された状態の映像14Aを生成し、制御手段68は、第二実物体O4がスクリーン10Aを通過するまで、生成手段66が生成した第二仮想物体O3を含む映像14Aをスクリーン10A上に表示制御する。   In the first embodiment, the generation unit 66 determines the position of the second virtual object O3 in the virtual space based on the control information (control parameter 60B) of the control unit 68 for the injection unit 46, and determines the determined position. Generates a video 14A in a state where the second virtual object O3 is arranged, and the control means 68 controls the video including the second virtual object O3 generated by the generation means 66 until the second real object O4 passes through the screen 10A. 14A is displayed on the screen 10A.

この構成によれば、第二実物体O4の位置と第二仮想物体O3の位置との間に連続性を持たせることができる。したがって、第一実施形態によれば、スクリーン10A上に表示される映像14Aのリアリティをより向上することができる。   According to this configuration, continuity can be provided between the position of the second real object O4 and the position of the second virtual object O3. Therefore, according to the first embodiment, the reality of the image 14A displayed on the screen 10A can be further improved.

また、第一実施形態では、ゲームを進行するゲーム手段62を更に備え、生成手段66は、ゲームの進行に応じた映像14Aを生成する。   In the first embodiment, the game device further includes a game unit 62 that progresses the game, and the generation unit 66 generates the video 14A according to the progress of the game.

この構成によれば、映像14Aがゲームの進行に応じているので、スクリーン10A上に表示される映像14Aのリアリティをより向上することができる。   According to this configuration, since the video 14A corresponds to the progress of the game, the reality of the video 14A displayed on the screen 10A can be further improved.

また、第一実施形態では、制御手段68は、ゲームの進行に基づき、形成手段40における物質Mを散布する量を制御する。   In the first embodiment, the control unit 68 controls the amount of the substance M to be sprayed on the forming unit 40 based on the progress of the game.

この構成によれば、ゲームの進行に基づき、様々な雰囲気のスクリーン10Aや映像14AをプレイヤPに見せることができ、もってゲームの興趣性を高めることができる。   According to this configuration, based on the progress of the game, the screen 10A and the image 14A of various atmospheres can be shown to the player P, and thus the interest of the game can be enhanced.

−−−第二実施形態−−−
次に、本発明の第二実施形態に係る映像システムについて説明する。第二実施形態では、ゲームが格闘ゲームである点と、突出手段を更に備える点で、第一実施形態と異なる。その他の第二実施形態に係る映像システムの構成は、第一実施形態に係る映像システム1の構成と同様である。
--- Second embodiment ---
Next, an image system according to a second embodiment of the present invention will be described. The second embodiment is different from the first embodiment in that the game is a fighting game and that the game device further includes a projecting unit. Other configurations of the video system according to the second embodiment are the same as the configurations of the video system 1 according to the first embodiment.

図8は、本発明の第二実施形態に係る映像システム1Aの全体構成の一例を示す図である。   FIG. 8 is a diagram illustrating an example of the overall configuration of a video system 1A according to the second embodiment of the present invention.

図8に示すように、映像システム1Aは、第一実施形態と同様の構成を備える他、突出手段80を備える。突出手段80は、スクリーン10Aの奥行方向に設けられ、ゲームの進行に基づき、スクリーン10Aから物体、例えばゲームに係るゲーム物体を手前方向に突出する。ゲーム物体としては、例えば人工の顔や足、手の他、虫、水、血等が挙げられる。なお、ゲーム物体が水や血のような流体を想定している場合は、突出手段80は、物質Mを送風してスクリーン10Aからゲーム物体の代わりに物質Mを突出する送風機であってもよい。
なお、第二実施形態では、ゲームが格闘ゲームなので、例えばプレイヤPは第一実物体O1としてカタナを手に持っている。また、対戦キャラクタCとして侍やゾンビ等が映像14Aに表示される。この場合において、例えば、突出手段80は、プレイヤPが対戦キャラクタCを倒したときにゲーム物体を突出したり、プレイヤPが対戦キャラクタCをカタナで刺したときにゲーム物体を突出したり、プレイヤPがゲームをクリアしたときにゲーム物体を突出したりする。
As shown in FIG. 8, the video system 1 </ b> A has a configuration similar to that of the first embodiment, and further includes a projecting unit 80. The projecting means 80 is provided in the depth direction of the screen 10A, and projects an object, for example, a game object relating to the game, from the screen 10A toward the near side based on the progress of the game. Examples of the game object include an artificial face, feet, and hands, as well as insects, water, blood, and the like. When the game object is assumed to be a fluid such as water or blood, the projecting means 80 may be a blower that blows the material M and projects the material M from the screen 10A instead of the game object. .
In the second embodiment, since the game is a fighting game, for example, the player P is holding a katana as the first real object O1. In addition, a samurai, a zombie, or the like is displayed on the video 14A as the battle character C. In this case, for example, the protruding means 80 protrudes the game object when the player P defeats the opponent character C, protrudes the game object when the player P stabs the opponent character C with katakana, Protruding game objects when clearing the game.

図9(A)は、プレイヤPが第一実物体O1としてのカタナを振り下ろして、カタナの一部がスクリーン10Aを通過したときの第一仮想物体O2の様子を示す図である。   FIG. 9A is a diagram illustrating a state of the first virtual object O2 when the player P swings down the katana as the first real object O1 and a part of the katana passes through the screen 10A.

図9(A)に示すように、第一実物体O1の後端及び中央部はプレイヤPにとってそのまま視認可能であり、第一実物体O1の先端は第一仮想物体O2としてプレイヤPにとって視認可能である。したがって、第一実物体O1と第一仮想物体O2の間に連続性を持たせることができる。したがって、第二実施形態によれば、スクリーン10A上に表示される映像14Aのリアリティをより向上することができる。なお、ここで、対戦キャラクタCが剣で斬られたりガードしたりする場合には、その感覚を剣にフィードバックするために、制御手段68が抵抗手段50を第一実物体O1の移動先に移動制御してもよい。この場合、第一実物体O1が抵抗手段50によって抵抗され、対戦キャラクタCが実際にガードしている感覚をプレイヤPに与えることができる。   As shown in FIG. 9A, the rear end and the center of the first real object O1 can be visually recognized by the player P as it is, and the front end of the first real object O1 can be visually recognized by the player P as the first virtual object O2. It is. Therefore, continuity can be provided between the first real object O1 and the first virtual object O2. Therefore, according to the second embodiment, the reality of the image 14A displayed on the screen 10A can be further improved. Here, in the case where the opponent character C is cut or guarded by a sword, the control means 68 moves the resistance means 50 to the movement destination of the first real object O1 in order to feed back the sense to the sword. It may be controlled. In this case, the first real object O1 is resisted by the resistance means 50, and the player P can feel as if the opponent character C is actually guarding.

図9(B)は、図9(A)から続いて、第一実物体O1の半分以上がスクリーン10Aを通過したときの第一仮想物体O2の様子を示す図である。   FIG. 9B is a diagram showing a state of the first virtual object O2 when at least half of the first real object O1 passes through the screen 10A, following FIG. 9A.

図9(B)に示すように、第一実物体O1の後端はそのままプレイヤPにとってそのまま視認可能であり、第一実物体O1の先端及び中央部は第一仮想物体O2としてプレイヤPにとって視認可能である。また、映像14Aでは、第一実物体O1の先端が対戦キャラクタCに刺さった後に、対戦キャラクタCから噴き出る血Bが表示される。この血Bは、映像で表現するだけでなく、突出手段80が、物質Mを送風してスクリーン10Aから物質Mを突出させることでも表現してもよい。   As shown in FIG. 9B, the rear end of the first real object O1 is directly visible to the player P, and the front end and the center of the first real object O1 are visually recognized to the player P as the first virtual object O2. It is possible. In the video 14A, the blood B spouted from the opponent character C is displayed after the tip of the first real object O1 pierces the opponent character C. The blood B may be expressed not only by an image but also by the projecting means 80 blowing the substance M to project the substance M from the screen 10A.

図9(C)は、図9(B)から続いて、スクリーン10AからプレイヤPに向かって人工の手Hが突出するときの様子を示す図である。   FIG. 9C is a diagram illustrating a state where the artificial hand H projects from the screen 10A toward the player P, following FIG. 9B.

図9(C)に示すように、対戦キャラクタCを倒してゲームが進行すると、突出手段80が、スクリーン10Aからゲーム物体H(人工の手)を突出する。   As shown in FIG. 9C, when the opponent character C is defeated and the game proceeds, the projecting means 80 projects the game object H (artificial hand) from the screen 10A.

以上、第二実施形態では、映像システム1Aが、物質Mを空間に散布してスクリーン10Aを形成する形成手段40と、スクリーン上に映像14Aを表示制御する制御手段68と、映像14Aを視聴する側の反対側を奥行方向としたとき、スクリーン10Aの奥行方向に設けられ、スクリーン10Aからゲーム物体Hを手前方向に突出する突出手段80と、を備える。   As described above, in the second embodiment, the image system 1A includes the forming unit 40 that forms the screen 10A by dispersing the substance M in the space, the control unit 68 that controls the display of the image 14A on the screen, and views the image 14A. When the opposite side is defined as the depth direction, a projection means 80 is provided in the depth direction of the screen 10A and projects the game object H from the screen 10A in the front direction.

この構成によれば、スクリーン10Aからゲーム物体Hが突出してくるので、プレイヤPに驚きや楽しさを与えることができる。また、映像14Aのみでは実現できない迫力をプレイヤPに与えることができる。   According to this configuration, since the game object H projects from the screen 10A, the player P can be surprised and enjoyed. Further, it is possible to give the player P a powerful force that cannot be realized only by the image 14A.

−−−変形例−−−
なお、本発明は上記の具体例に限定されるものではない。すなわち、上記の具体例に、当業者が適宜設計変更を加えたものも、本発明の特徴を備えている限り、本発明の範囲に包含される。また、前述した実施形態及び後述する変形例が備える各要素は、技術的に可能な限りにおいて組み合わせることができ、これらを組み合わせたものも本発明の特徴を含む限り本発明の範囲に包含される。
−−− Modifications −−−
Note that the present invention is not limited to the above specific examples. That is, those in which a person skilled in the art appropriately changes the design to the above specific examples are also included in the scope of the present invention as long as they have the features of the present invention. In addition, each element included in the above-described embodiment and a modified example described later can be combined as far as technically possible, and a combination of these elements is included in the scope of the present invention as long as it includes the features of the present invention. .

例えば、上記第一実施形態では、形成手段40は、一種類の物質Mを散布する場合を説明したが、複数の種類の物質Mを散布してもよい。また、制御手段68は、ゲームの進行に応じて、形成手段40が散布する物質Mの種類を変更してもよい。例えば、制御手段68は、ゲームのフィールドが雨のときには物質Mを水に変更し、ゲームのフィールドが雪のときには物質Mを紙片に変更し、ゲームのフィールドが晴れのときには物質Mを砂に変更してもよい。また、形成手段40は、複数の色の物質Mを散布してもよい。例えば、形成手段40は、ゲームの進行に応じて、物質Mとして赤色に着色した流体を散布したり、青色に着色した流体を散布したり、緑色に着色した流体を散布してもよい。   For example, in the first embodiment, the case where the forming unit 40 sprays one type of the substance M has been described, but a plurality of types of the substance M may be sprayed. Further, the control means 68 may change the type of the substance M to be sprayed by the forming means 40 according to the progress of the game. For example, the control means 68 changes the substance M to water when the game field is rainy, changes the substance M to paper when the game field is snowy, and changes the substance M to sand when the game field is sunny. May be. Further, the forming means 40 may spray the substance M of a plurality of colors. For example, the forming unit 40 may spray a red-colored fluid, a blue-colored fluid, or a green-colored fluid as the substance M according to the progress of the game.

また、上記第一実施形態ではゲームがテニスゲームである場合を説明し、上記第二実施形態ではゲームが格闘ゲームである場合を説明したが、ゲームは、ゴルフゲームや野球ゲーム、アクションゲーム、ガンシューティング等であってもよい。   In the first embodiment, the case where the game is a tennis game is described, and in the second embodiment, the case where the game is a fighting game is described. However, the game is a golf game, a baseball game, an action game, a gun game, or the like. It may be shooting or the like.

図10(A)は、プレイヤPがゴルフゲームをプレイしている際の映像14Aの様子を示す図である。この場合、第一仮想物体O2はゴルフボールである。図10(B)は、プレイヤPが野球ゲームをプレイしている際の映像14Aの様子を示す図である。この場合、第一仮想物体O2は野球ボールである。野球の場合、対戦キャラクタCはピッチャーになり、ピッチャーの投げるボールが第二仮想物体O2となり、第二実物体O4がスクリーン10AからプレイヤPに向かって飛び出してくる。このとき、ピッチャーがボールを投げる位置やタイミング、球種などはゲームプログラムもしくは対戦プレイヤの操作指示によって決定される。このため、射出手段46による第二実物体の射出位置や方向は、第二仮想物体O2の計算上の移動軌跡上であり、射出手段46からスクリーン10Aまでの実際の距離位置と、仮想空間内の第二仮想物体O2とスクリーン面までの計算上の距離が一致する距離となる位置と方向が射出位置と射出方向になるよう、制御手段68は射出手段46を制御する。また、第二仮想物体O2が仮想空間上でこの位置に到達したタイミングが射出タイミングとなるよう、制御手段68は射出手段46を制御する。   FIG. 10A is a diagram illustrating a state of the image 14A when the player P is playing the golf game. In this case, the first virtual object O2 is a golf ball. FIG. 10B is a diagram illustrating a state of the video 14A when the player P is playing the baseball game. In this case, the first virtual object O2 is a baseball. In the case of baseball, the opponent character C becomes a pitcher, the ball thrown by the pitcher becomes the second virtual object O2, and the second real object O4 jumps out from the screen 10A toward the player P. At this time, the position, timing, pitch, and the like of the pitcher throwing the ball are determined by the game program or the operation instruction of the opponent player. Therefore, the emission position and direction of the second real object by the emission unit 46 are on the calculated movement trajectory of the second virtual object O2, and are different from the actual distance position from the emission unit 46 to the screen 10A in the virtual space. The control means 68 controls the emission means 46 so that the position and direction at which the calculated distance between the second virtual object O2 and the screen surface coincides with the emission position and the emission direction. Further, the control means 68 controls the emission means 46 such that the timing when the second virtual object O2 reaches this position in the virtual space is the emission timing.

また、上記第一実施形態では、プレイヤPが一人でゲームをプレイする場合を説明したが、遠隔にいるプレイヤ同士が同一のゲームをプレイしてもよい。   Further, in the first embodiment, the case where the player P plays the game alone has been described. However, remote players may play the same game.

図11は、変形例に係る映像システム1Bの全体構成の一例を示す図である。   FIG. 11 is a diagram illustrating an example of the overall configuration of a video system 1B according to a modification.

図11に示すように、映像システム1Bは、複数の映像システム1と、サーバ装置90と、を備えている。複数の映像システム1は、例えばプレイヤP1側の映像システム1と、プレイヤP2側の映像システム1を含む。一方の映像システム1の端末装置30Aの制御手段68と、他方の映像システム1の端末装置30Bの制御手段68と、サーバ装置90とは、イントラネットやインターネット等の通信ネットワークNTを介して、互いに通信可能に接続されている。   As shown in FIG. 11, the video system 1B includes a plurality of video systems 1 and a server device 90. The plurality of video systems 1 include, for example, the video system 1 on the player P1 side and the video system 1 on the player P2 side. The control means 68 of the terminal device 30A of the one video system 1, the control means 68 of the terminal device 30B of the other video system 1, and the server device 90 communicate with each other via a communication network NT such as an intranet or the Internet. Connected as possible.

端末装置30A及び端末装置30Bは、互いに設けられた場所から遠隔の地に位置し、互いに同一のゲームを提供する。そして、端末装置30Aの制御手段68は、サーバ装置30を介して、検出手段42が検出した情報を端末装置30Bに送信する。同様に、端末装置30Bの制御手段68は、サーバ装置30を介して、検出手段42が検出した情報を端末装置30Aに送信する。これにより、例えばプレイヤP1が第一実物体O1(野球ボール)を投げてスクリーン10Aを通過するときの第一実物体O1の位置情報や速度情報等が、端末装置30Aから端末装置30Bに送信される。そして、端末装置30Bでは、受信した情報に基づき、射出手段46による第二実物体O4の射出位置、射出速度又は射出方向を制御する。この構成によれば、例えば遠隔の地にいる有名なプレイヤP1と、よりリアリティに近い形で対戦することができる。   The terminal device 30A and the terminal device 30B are located in locations remote from each other, and provide the same game. Then, the control unit 68 of the terminal device 30A transmits the information detected by the detection unit 42 to the terminal device 30B via the server device 30. Similarly, the control unit 68 of the terminal device 30B transmits the information detected by the detection unit 42 to the terminal device 30A via the server device 30. Thereby, for example, position information and speed information of the first real object O1 when the player P1 throws the first real object O1 (baseball ball) and passes through the screen 10A are transmitted from the terminal device 30A to the terminal device 30B. You. Then, the terminal device 30B controls the injection position, the injection speed, or the injection direction of the second real object O4 by the injection means 46 based on the received information. According to this configuration, for example, it is possible to play against the famous player P1 in a remote place in a form closer to reality.

また、制御手段68は、スクリーン10Aを第一実物体O1が通過したときに、映像14Aを表示制御する場合を説明したが、スクリーン10Aを第一実物体O1が通過したときに、効果音を出力制御してもよい。スクリーン10Aを第一実物体O1が通過すると、プレイヤPにとっては、第一実物体O1の音も聞き難くなる場合がある。したがって、検出手段42が更に、スクリーン10Aを第一実物体O1が通過したときの第一実物体O1の音を検出し、生成手段66が、検出した音に基づき、効果音を生成し、制御手段68は、スクリーン10Aを第一実物体O1が通過したときに、生成された効果音を出力制御してもよい。   Also, the control unit 68 has described the case where the display of the image 14A is controlled when the first real object O1 passes through the screen 10A. However, when the first real object O1 passes through the screen 10A, the control unit 68 produces a sound effect. The output may be controlled. When the first real object O1 passes through the screen 10A, it may be difficult for the player P to hear the sound of the first real object O1. Therefore, the detecting means 42 further detects the sound of the first real object O1 when the first real object O1 passes through the screen 10A, and the generating means 66 generates a sound effect based on the detected sound, and performs control. The means 68 may control the output of the generated sound effect when the first real object O1 passes through the screen 10A.

また、検出手段42はプレイヤPの頭の向き情報を検出し、制御手段68は、頭の向き情報が向きに合わせて、表示制御する映像14Aを変化させてもよい。   Further, the detecting means 42 may detect the head direction information of the player P, and the control means 68 may change the image 14A to be displayed and controlled according to the head direction information.

また、第一実物体O1がカタナなどのように手に持つものであれば、第一実物体O1に振動部材を設けてもよい。この場合、制御手段68は、第一実物体O1がスクリーン10Aを通過したときや、対戦キャラクタCを斬ったとき、対戦キャラクタCを倒したときに振動部材を振動制御してもよい。   Further, if the first real object O1 is held by hand, such as katana, a vibration member may be provided on the first real object O1. In this case, the control means 68 may control the vibration of the vibration member when the first real object O1 passes through the screen 10A, when the opponent character C is cut, or when the opponent character C is defeated.

また、第一実物体O1に発光部材を設けてもよい。この場合、制御手段68は、第一実物体O1がスクリーン10Aを通過したときや、対戦キャラクタCを斬ったとき、対戦キャラクタCを倒したときに発光部材を発光制御してもよい。   Further, a light emitting member may be provided on the first real object O1. In this case, the control means 68 may control the light emission of the light emitting member when the first real object O1 passes through the screen 10A, when the opponent character C is cut, or when the opponent character C is defeated.

また、ゲームの進行に応じて、スクリーン10Aを形成する物質Mに冷却ガスを噴出して当該物質Mを凍らせる冷却部材を新たに設けてもよい。これにより、対戦キャラクタCを斬ったとき等にプレイヤPに爽快感を与えることができる。   In addition, as the game progresses, a cooling member may be newly provided for injecting a cooling gas to the material M forming the screen 10A to freeze the material M. This makes it possible to give the player P an exhilaration when the opponent character C is cut.

また、形成手段40は、奥行方向にスクリーン10Aを2つ以上形成し、制御手段68は、各スクリーン10Aに互いに異なる映像14Aを表示制御してもよい。この場合、プレイヤPは、各スクリーン10Aの映像14Aの様々な組み合わせを楽しむことができる。   The forming unit 40 may form two or more screens 10A in the depth direction, and the control unit 68 may control the display of different images 14A on each screen 10A. In this case, the player P can enjoy various combinations of the images 14A of each screen 10A.

1、1A、1B…映像システム
10A…スクリーン
40…形成手段
42…検出手段
66…生成手段
68…制御手段

1, 1A, 1B ... video system 10A ... screen 40 ... forming means 42 ... detecting means 66 ... generating means 68 ... control means

Claims (12)

物質を空間に散布してスクリーンを形成する形成手段と、
前記スクリーンを実物体が通過するときの当該実物体の位置情報を検出する検出手段と、
前記検出手段が検出した位置情報に基づいて、仮想物体の仮想空間内での位置を決定し、決定した前記位置に配置された前記仮想物体を含む映像を生成する生成手段と、
前記スクリーンを前記実物体が通過したときに、前記生成手段が生成した前記映像を前記スクリーン上に表示制御する制御手段と、
を備える映像システム。
Forming means for spraying a substance into a space to form a screen;
Detection means for detecting position information of the real object when the real object passes through the screen,
Based on the position information detected by the detection means, determine the position of the virtual object in the virtual space, generating means for generating an image including the virtual object placed at the determined position,
When the real object passes through the screen, control means for controlling the display of the image generated by the generation means on the screen,
An image system comprising:
前記検出手段は更に、前記スクリーンを通過するときの前記実物体の方向情報及び/又は速度情報を検出し、
前記生成手段は更に、前記検出手段が検出した情報に基づき、前記映像内の前記仮想物体を移動させる、
請求項1に記載の映像システム。
The detecting means further detects direction information and / or speed information of the real object when passing through the screen,
The generating unit further moves the virtual object in the video based on the information detected by the detecting unit,
The video system according to claim 1.
前記検出手段は更に、前記実物体の回転速度情報及び/又は回転方向情報を検出し、
前記生成手段は、前記検出手段が検出した情報に基づき、前記映像内の前記仮想物体を回転させる、
請求項1又は2に記載の映像システム。
The detecting means further detects rotation speed information and / or rotation direction information of the real object,
The generating unit rotates the virtual object in the video based on the information detected by the detecting unit.
The video system according to claim 1.
前記検出手段は更に、前記実物体の形状情報を検出し、
前記検出手段が検出した形状情報に基づいて前記実物体を特定する特定手段を更に備え、
前記生成手段は、前記映像として、前記特定した実物体に係る前記仮想物体の映像を生成する、
請求項1乃至3の何れか1項に記載の映像システム。
The detecting means further detects shape information of the real object,
The apparatus further includes a specifying unit that specifies the real object based on the shape information detected by the detection unit,
The generating means generates an image of the virtual object related to the specified real object as the image,
The video system according to claim 1.
前記スクリーンを通過した前記実物体を回収する回収手段、
を更に備える請求項1乃至4の何れか1項に記載の映像システム。
Collection means for collecting the real object that has passed through the screen,
The video system according to any one of claims 1 to 4, further comprising:
前記実物体を第一実物体とし、前記実物体の通過先を奥行方向としたとき、
前記スクリーンの奥行方向に設けられ、前記スクリーンの手前方向に向けて、前記第一実物体と同一又は異なる第二実物体を射出する射出手段、
を更に備える請求項1乃至5の何れか1項に記載の映像システム。
When the real object is the first real object and the destination of the real object is the depth direction,
An emission unit that is provided in a depth direction of the screen and emits a second real object that is the same as or different from the first real object, toward the front of the screen.
The video system according to any one of claims 1 to 5, further comprising:
前記制御手段は、前記射出手段による前記第二実物体の射出位置、射出速度及び射出方向の少なくとも何れか1つを制御する、
請求項6に記載の映像システム。
The control means controls at least one of an injection position, an injection speed, and an injection direction of the second real object by the injection means,
The video system according to claim 6.
前記制御手段は、少なくとも前記検出手段が検出した情報に基づき、前記第二実物体の射出位置、射出速度及び射出方向の少なくとも何れか1つを制御する、
請求項7に記載の映像システム。
The control unit controls at least one of an ejection position, an ejection speed, and an ejection direction of the second real object based on at least information detected by the detection unit.
The video system according to claim 7.
前記仮想物体を第一仮想物体としたとき、
前記生成手段は、前記射出手段に対する前記制御手段の制御情報に基づき、第二仮想物体の仮想空間内での位置を決定し、決定した位置に前記第二仮想物体が配置された状態の映像を生成し、
前記制御手段は、前記第二実物体が前記スクリーンを通過するまで、前記生成手段が生成した前記第二仮想物体を含む映像を前記スクリーン上に表示制御する、
請求項7又は8に記載の映像システム。
When the virtual object is a first virtual object,
The generation unit determines a position of the second virtual object in the virtual space based on control information of the control unit with respect to the emission unit, and displays an image of a state where the second virtual object is arranged at the determined position. Generate
The control unit controls display of an image including the second virtual object generated by the generation unit on the screen until the second real object passes through the screen,
The video system according to claim 7.
前記検出手段が設けられた場所から遠隔の地に位置する端末装置と、
前記制御手段及び前記端末装置と通信可能なサーバ装置と、
を更に備え、
前記制御手段は、前記サーバ装置を介して、前記検出手段が検出した情報を前記端末装置に送信する、
請求項1乃至9の何れか1項に記載の映像システム。
A terminal device located at a location remote from the location where the detection means is provided;
A server device capable of communicating with the control unit and the terminal device,
Further comprising
The control unit transmits information detected by the detection unit to the terminal device via the server device.
The video system according to claim 1.
物質を空間に散布してスクリーンを形成する形成手段と、
前記スクリーン上に映像を表示制御する制御手段と、
前記映像を視聴する側の反対側を奥行方向としたとき、前記スクリーンの奥行方向に設けられ、前記スクリーンから物体を手前方向に突出する突出手段と、
を備える映像システム。
Forming means for spraying a substance into a space to form a screen;
Control means for controlling the display of an image on the screen,
Projection means provided in the depth direction of the screen and projecting an object from the screen in the front direction, when the opposite side to the side on which the image is viewed is defined as the depth direction,
An image system comprising:
物質を空間に散布して形成されるスクリーンを実物体が通過するときの当該実物体の位置情報を検出する検出手段に接続可能なコンピュータを、
前記検出手段が検出した位置情報に基づいて、前記仮想物体の仮想空間内での位置を決定し、決定した前記位置に配置された前記仮想物体を含む映像を生成する生成手段、
前記スクリーンを前記実物体が通過したときに、前記生成手段が生成した前記映像を前記スクリーン上に表示制御する制御手段、
として機能させるための映像プログラム。


A computer connectable to detection means for detecting position information of the real object when the real object passes through a screen formed by scattering a substance in space,
Generating means for determining a position of the virtual object in the virtual space based on the position information detected by the detecting means, and generating an image including the virtual object arranged at the determined position;
Control means for controlling display of the image generated by the generation means on the screen when the real object passes through the screen;
Video program to function as.


JP2018134557A 2018-07-17 2018-07-17 Video system and video program Active JP6737309B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018134557A JP6737309B2 (en) 2018-07-17 2018-07-17 Video system and video program
PCT/JP2019/027808 WO2020017474A1 (en) 2018-07-17 2019-07-12 Video system and video program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018134557A JP6737309B2 (en) 2018-07-17 2018-07-17 Video system and video program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020087951A Division JP2020156093A (en) 2020-05-20 2020-05-20 Video system and video program

Publications (2)

Publication Number Publication Date
JP2020014100A true JP2020014100A (en) 2020-01-23
JP6737309B2 JP6737309B2 (en) 2020-08-05

Family

ID=69163697

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018134557A Active JP6737309B2 (en) 2018-07-17 2018-07-17 Video system and video program

Country Status (2)

Country Link
JP (1) JP6737309B2 (en)
WO (1) WO2020017474A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06134055A (en) * 1992-10-28 1994-05-17 Nippon Telegr & Teleph Corp <Ntt> Virtual experience system
JP2003299872A (en) * 2002-04-12 2003-10-21 Konami Co Ltd Game system and game method
JP2004097702A (en) * 2002-09-12 2004-04-02 Konami Co Ltd Game system
JP2008307091A (en) * 2007-06-12 2008-12-25 Akira Tomono Real object interference display device
WO2009141913A1 (en) * 2008-05-23 2009-11-26 ログイン株式会社 Game device
JP2011075737A (en) * 2009-09-30 2011-04-14 Casio Computer Co Ltd Rear projection type screen and rear projection type display device
US20160166912A1 (en) * 2014-12-12 2016-06-16 Roberto Caballero Paredes Tennis training device using virtual targets

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06134055A (en) * 1992-10-28 1994-05-17 Nippon Telegr & Teleph Corp <Ntt> Virtual experience system
JP2003299872A (en) * 2002-04-12 2003-10-21 Konami Co Ltd Game system and game method
JP2004097702A (en) * 2002-09-12 2004-04-02 Konami Co Ltd Game system
JP2008307091A (en) * 2007-06-12 2008-12-25 Akira Tomono Real object interference display device
WO2009141913A1 (en) * 2008-05-23 2009-11-26 ログイン株式会社 Game device
JP2011075737A (en) * 2009-09-30 2011-04-14 Casio Computer Co Ltd Rear projection type screen and rear projection type display device
US20160166912A1 (en) * 2014-12-12 2016-06-16 Roberto Caballero Paredes Tennis training device using virtual targets

Also Published As

Publication number Publication date
JP6737309B2 (en) 2020-08-05
WO2020017474A1 (en) 2020-01-23

Similar Documents

Publication Publication Date Title
US8292733B2 (en) Entertainment system providing dynamically augmented game surfaces for interactive fun and learning
JP4009433B2 (en) GAME DEVICE, GAME PROGRAM, AND GAME SYSTEM
KR101170147B1 (en) Virtual reality screen baseball system
US11040287B2 (en) Experience-oriented virtual baseball game apparatus and virtual baseball game control method using the same
KR102513743B1 (en) Immersive and Responsive Gameplay Range, Systems, and Methods
KR101055572B1 (en) Indoor baseball game device
US10850186B2 (en) Gaming apparatus and a method for operating a game
TW201726209A (en) Apparatus for base-ball practice, sensing device and sensing method used to the same and control method for the same
JP2008307091A (en) Real object interference display device
JP2004097662A (en) Soccer simulation game machine and its method
JP2012101026A (en) Program, information storage medium, game device, and server system
JP6737309B2 (en) Video system and video program
Adams Fundamentals of Sports Game Design
JP4320352B2 (en) GAME DEVICE, GAME CONTROL PROGRAM, AND RECORDING MEDIUM CONTAINING THE SAME
JP2020156093A (en) Video system and video program
KR20000055834A (en) Game apparatus for baseball pitching practice and medium for recording the method of the game
JP2010067002A (en) Information processing apparatus, method, and program
JPH11299947A (en) Virtual game device
KR101940717B1 (en) Screen baseball system using penetration type screen
KR20190096747A (en) Method and device for golf simulation using augmented reality
WO2021035186A1 (en) Multiplayer, multisport indoor game system and method
US983250A (en) Game apparatus.
KR20210042786A (en) Entertainment play use of 3D hologram
JP2010233751A (en) Program, information storage medium, and image generation system
KR20110119026A (en) Computer golf game system using burn golf club

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200521

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200521

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200601

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200629

R150 Certificate of patent or registration of utility model

Ref document number: 6737309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250