JPH1142366A - Game machine - Google Patents

Game machine

Info

Publication number
JPH1142366A
JPH1142366A JP19973097A JP19973097A JPH1142366A JP H1142366 A JPH1142366 A JP H1142366A JP 19973097 A JP19973097 A JP 19973097A JP 19973097 A JP19973097 A JP 19973097A JP H1142366 A JPH1142366 A JP H1142366A
Authority
JP
Japan
Prior art keywords
game
translucent surface
image
ball
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP19973097A
Other languages
Japanese (ja)
Inventor
Jiyunichi Rekimoto
純一 暦本
Nobuyuki Matsushita
伸行 松下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP19973097A priority Critical patent/JPH1142366A/en
Publication of JPH1142366A publication Critical patent/JPH1142366A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a game machine by which users can healthfully play using the whole body. SOLUTION: This machine is provided with an infrared LED panel 3 emitting infrared rays to the rear surface side of an opaque surface 2, a CCD camera 4 picking up the image of the infrared rays entering from the side of the surface 2, and a projector 5 projecting and displaying a picture (not including the infrared rays) to the surface 2. As the reflected light quantity of infrared rays varies when a user operates on the front surface side of the surface 2, a controller 6 detects the variation of the reflected light quantity based on the image pickup signal of the camera 4 as detected picture information and the input operation of the game machine 1 is performed by operation information obtained based on this picture information. Thereby, various games using a computer by which the users can healthfully play using the whole body are provided.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、インタラクティブ
な入出力が可能な表示システムを利用したゲーム装置に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a game apparatus using a display system capable of interactive input and output.

【0002】[0002]

【従来の技術】例えばコンピュータ装置などでは、様々
なプログラムやアプリケーションなどのもとで行うこと
ができる各種ゲームがある。このようなゲームは、一般
にユーザがコンピュータ装置のモニタ画面を見ながらマ
ウスやキーボードあるいは専用のジョイスティック等の
入力装置を操作することによって楽しむことができるよ
うになっている。
2. Description of the Related Art For example, in a computer device, there are various games that can be played under various programs and applications. Generally, such a game can be enjoyed by a user operating an input device such as a mouse, a keyboard, or a dedicated joystick while watching a monitor screen of a computer device.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記し
たようなコンピュータ装置等を利用したゲームは、一般
に屋内でしかも比較的小さいコンピュータ装置のモニタ
画面を凝視した状態で行われるため、長時間ゲームを行
った場合はユーザの目に負担がかかるという欠点が有っ
た。また、入力操作は、上記したようなマウスやキーボ
ード或はジョイスティックなどの入力装置を単に指先だ
けで操作するため、体を動かす機会があまりなく健康的
でない。
However, since a game using the above-described computer device is generally performed indoors while staring at a monitor screen of a relatively small computer device, the game is performed for a long time. In such a case, there is a disadvantage that a burden is imposed on the user's eyes. Further, the input operation is not healthy because there is not much opportunity to move the body because the input device such as the mouse, the keyboard or the joystick described above is operated only by the fingertip.

【0004】そこで本発明は、例えばユーザの目に負担
がかからない程度の比較的大画面のモニタ装置を用い
て、しかもユーザが健康的に全身を動かして行うことが
できるようなゲーム装置を比較的簡易な構成により提供
することを目的とする。
Accordingly, the present invention provides a game apparatus which uses a monitor device having a relatively large screen that does not impose a burden on the user's eyes and that allows the user to move the whole body in a healthy manner. It is intended to provide a simple configuration.

【0005】[0005]

【課題を解決するための手段】本発明は上記した課題を
考慮して、半透明面と、この半透明面側の方向から入射
する所定の波長帯域の光又は電磁波のみを像として捉え
る撮像手段と、この撮像手段から入力された撮像信号に
基づいて、半透明面に対して与えられた操作が反映され
る検出用画像情報を生成し、この検出用画像情報に基づ
いて識別した操作情報に基づいて所要の制御処理を実行
する制御処理手段と、撮像手段が撮像すべき光又は電磁
波の波長帯域を含まない可視光による画像を半透明面に
対して投影表示可能に設けられる投影表示手段とを備
え、制御処理手段は、操作情報に基づいて、所定の規則
に従って表示形態が変化するゲーム用画像を投影表示さ
せるための、投影表示手段に対する表示制御を実行可能
に構成されている。
SUMMARY OF THE INVENTION In view of the above-mentioned problems, the present invention has an image pickup means for capturing only a translucent surface and light or electromagnetic waves of a predetermined wavelength band incident from the direction of the translucent surface as an image. And generating, based on the imaging signal input from the imaging means, detection image information reflecting the operation given to the translucent surface, and generating the operation information identified based on the detection image information. Control processing means for performing a required control process based on the image processing means, and projection display means provided to be capable of projecting and displaying an image of visible light that does not include the wavelength band of light or electromagnetic waves to be imaged on a translucent surface The control processing means is configured to be able to execute display control on the projection display means for projecting and displaying a game image whose display form changes according to a predetermined rule based on the operation information.

【0006】上記構成においては、例えば半透明面に近
づいた物理的対象によって撮像手段に入射する光又は電
磁波の状態が変化するのであるが、本発明ではこのよう
な光又は電磁波の状態変化を画像情報として捉えること
になる。そして、このようにして得られる撮像情報を操
作情報としている。つまり、半透明面の付近において何
らかの物理的対象を近づけたり動かしたりすることによ
って操作情報を与えることができるようにしている。ま
た、この半透明面に対して投影表示手段から画像を投影
表示することができるようにしている。
In the above configuration, for example, the state of light or electromagnetic waves incident on the image pickup means changes depending on a physical object approaching a translucent surface. In the present invention, such a change in the state of light or electromagnetic waves is imaged. It will be caught as information. The imaging information thus obtained is used as operation information. That is, operation information can be provided by moving or moving some physical object near the translucent surface. Further, an image can be projected and displayed from the projection display means on the translucent surface.

【0007】[0007]

【発明の実施の形態】以下、本発明の実施の形態として
のゲーム装置について説明する。なお、以降の説明は次
の順序で行う。 <1、ゲーム装置の構成及び操作情報の検出動作> <2、ボールラリーゲーム> <3、射的ゲーム(第1例)> <4、射的ゲーム(第2例)> <5、他の実施の形態としてのゲーム装置の構成>
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a game device according to an embodiment of the present invention will be described. The following description will be made in the following order. <1, Detection Operation of Game Device Configuration and Operation Information><2, Ball Rally Game><3, Shooting Game (First Example)><4, Shooting Game (Second Example)><5. Configuration of game device as embodiment>

【0008】<1、ゲーム装置の構成及び操作情報の検
出動作>先ず、図1〜図6を参照して、本発明の実施の
形態としてのゲーム装置の構成例及び基本的な操作情報
の検出動作について説明する。図1は、本実施の形態と
してのゲーム装置の構成例を概念的に示したものであ
る。この図に示すゲーム装置1は、半透明面2、赤外線
発光ダイオード素子(LED:Light Emitted Diode
)パネル3、CCD(Charge Coupled Device) カメラ
4、プロジェクタ5、及び制御装置6を備えて構成され
る。赤外線LEDパネル3、CCDカメラ4、及びプロ
ジェクタ5は半透明面2の背面側に対して設けられる。
<1. Configuration of Game Apparatus and Operation of Detecting Operation Information> First, referring to FIGS. 1 to 6, a configuration example of a game apparatus according to an embodiment of the present invention and detection of basic operation information will be described. The operation will be described. FIG. 1 conceptually shows a configuration example of a game device according to the present embodiment. The game device 1 shown in FIG. 1 has a translucent surface 2 and an infrared light emitting diode (LED).
A) a panel 3, a CCD (Charge Coupled Device) camera 4, a projector 5, and a control device 6. The infrared LED panel 3, the CCD camera 4, and the projector 5 are provided on the back side of the translucent surface 2.

【0009】半透明面2は、例えば透明なガラス板に対
してトレーシングペーパーのような見え方をする半透明
膜を貼り合わせる、あるいは磨りガラスのような半透明
の性質を有するものを利用するなどして形成され、後述
するようにして当該ゲーム装置1における操作パネルと
表示パネルとの両者の機能を併せ持つ。赤外線LEDパ
ネル3は、例えばパネル面に対して多数の赤外線LED
が集合的に配列されることによって構成され、上記赤外
線LEDから発光出力される赤外線光が半透明面の背面
全体に対して照射されるように設けられる。上記赤外線
LEDは制御装置6によって定常的に赤外線を発光する
ように駆動される。なお、赤外線LEDパネル3として
は、発光出力される赤外線光が半透明面2全体に対して
照射されるのに充分な数の赤外線LEDが設けられれば
よい。また、後述するように、初期の赤外線画像に対す
る現在の赤外線画像の差分に基づいて半透明面2側から
反射してくる画像情報を得るようにされることから、半
透明面2全体に対して照射される赤外線光量が一律であ
るべき必要もない。従って赤外線LEDパネル3のサイ
ズは、半透明面2よりもはるかに小さいもので済ませる
ことができる。
As the translucent surface 2, for example, a translucent film such as tracing paper is attached to a transparent glass plate, or a translucent material such as ground glass is used. The game device 1 has both functions of an operation panel and a display panel as described later. The infrared LED panel 3 includes, for example, a large number of infrared LEDs on a panel surface.
Are collectively arranged, and provided so that infrared light emitted and output from the infrared LED is applied to the entire back surface of the translucent surface. The infrared LED is driven by the control device 6 so as to constantly emit infrared light. It should be noted that the infrared LED panel 3 may be provided with a sufficient number of infrared LEDs to emit the emitted infrared light to the entire translucent surface 2. Further, as described later, image information reflected from the translucent surface 2 side is obtained based on the difference between the current infrared image and the initial infrared image. There is no need for the amount of infrared light to be irradiated to be uniform. Therefore, the size of the infrared LED panel 3 can be much smaller than that of the translucent surface 2.

【0010】CCDカメラ4は、撮像素子としてCCD
を用いたカメラ装置であり、この場合には、半透明面2
に映る画像光として赤外線光の成分のみを撮像すること
により、半透明面2に対して行われた操作を画像情報と
して認識するために設けられる。このため、CCDカメ
ラ4の光学系の部位に対しては、赤外線領域の波長帯域
のみを透過する赤外線透過フィルタ4aが設けられる。
また、CCDカメラ4により撮影されるアングルとして
半透明面2全体が含まれるようにその配置位置が設定さ
れる。
The CCD camera 4 has a CCD as an image pickup device.
In this case, the translucent surface 2
It is provided to recognize an operation performed on the translucent surface 2 as image information by capturing only an infrared light component as image light reflected on the image. For this reason, an infrared transmission filter 4a that transmits only the wavelength band in the infrared region is provided for a portion of the optical system of the CCD camera 4.
In addition, the arrangement position is set so that the whole of the translucent surface 2 is included as an angle photographed by the CCD camera 4.

【0011】プロジェクタ5は、制御装置6から供給さ
れる画像情報に基づいて、可視光による画像光を半透明
面2の背面に対して投影表示する。例えばユーザは、半
透明面2に投影表示されたプロジェクタ5の画像を、半
透明面2の前面側から観察することができる。ここで、
プロジェクタ5の光学系には赤外線領域の波長を遮断す
る赤外線遮断フィルタ5aが設けられているが、これに
より、半透明面2に投影表示される画像光には赤外線が
含まれなくなるため、プロジェクタ5の投影画像は、C
CDカメラ4からは不可視となる。
The projector 5 projects and displays image light of visible light on the back surface of the translucent surface 2 based on the image information supplied from the control device 6. For example, the user can observe the image of the projector 5 projected and displayed on the translucent surface 2 from the front side of the translucent surface 2. here,
The optical system of the projector 5 is provided with an infrared cutoff filter 5a that cuts off wavelengths in the infrared region. Is the projected image of C
Invisible from the CD camera 4.

【0012】制御装置6は、例えばマイクロコンピュー
タを備えて構成され、CCDカメラ4から供給される撮
像信号から画像情報(映像データ)を得て、更にこの画
像情報をもとに操作情報を得る。そして、この操作情報
に基づいて、例えばプロジェクタ5により半透明面2に
表示させる画像に関する表示制御を実行する他、各種所
要の制御処理を行う。また、赤外線LEDパネル3の赤
外線LEDの発光駆動を行う。なお、上記赤外線LED
パネル3、CCDカメラ4及びプロジェクタ5の配置位
置は、それぞれが果たすべき役割が充分機能することを
考慮して設定されればよい。
The control device 6 includes, for example, a microcomputer, and obtains image information (video data) from an image pickup signal supplied from the CCD camera 4, and further obtains operation information based on the image information. Then, based on the operation information, for example, display control relating to an image to be displayed on the translucent surface 2 by the projector 5 is performed, and various necessary control processes are performed. Further, the infrared LED of the infrared LED panel 3 is driven to emit light. In addition, the infrared LED
The arrangement positions of the panel 3, the CCD camera 4, and the projector 5 may be set in consideration of the role that each should play.

【0013】図2は、上記制御装置6の内部構成例を示
すブロック図である。この図に示す制御装置6におい
て、LED駆動部10は、赤外線LEDパネル3に設け
られた複数の赤外線LEDを発光駆動するための回路部
位である。画像入力部11は、CCDカメラ4から供給
された撮像信号について所要の信号処理を施すことによ
って映像信号を生成して入力画像処理部12に供給す
る。つまり、画像入力部11では、半透明面2側からC
CDカメラ4を介して入射してきた赤外線光を映像情報
として出力する。
FIG. 2 is a block diagram showing an example of the internal configuration of the control device 6. In the control device 6 shown in this figure, the LED driving unit 10 is a circuit part for driving the emission of a plurality of infrared LEDs provided on the infrared LED panel 3. The image input unit 11 generates a video signal by performing required signal processing on the imaging signal supplied from the CCD camera 4 and supplies the video signal to the input image processing unit 12. That is, in the image input unit 11, C
The infrared light incident via the CD camera 4 is output as video information.

【0014】入力画像処理部12では、例えば画像入力
部11から供給された映像信号をデジタル信号による映
像信号データに変換する。入力画像処理部12において
は、この映像信号データに基づいて得られる「画像情報
(例えばフレーム単位の映像データ)」を利用して所要
の解析処理等を実行することで、半透明面2に対して行
われた操作情報を得るようにされる。ここで画像情報に
基づいて得られる操作情報としては、例えば、半透明面
2に対して操作を行っている操作体の画像上の位置(座
標)や画像の信号レベルなどが用いられる。この操作情
報はデータベース駆動部14に伝送される。また、上記
映像信号データは、画像合成部17に対しても供給可能
とされている。
The input image processing section 12 converts, for example, a video signal supplied from the image input section 11 into video signal data of a digital signal. The input image processing unit 12 performs a required analysis process or the like using “image information (eg, video data in units of frames)” obtained based on the video signal data, so that the translucent surface 2 The information of the operation performed is obtained. Here, as the operation information obtained based on the image information, for example, the position (coordinates) on the image of the operating tool operating the translucent surface 2 and the signal level of the image are used. This operation information is transmitted to the database driving unit 14. Further, the video signal data can be supplied to the image synthesizing unit 17.

【0015】しきい値制御部13は、入力画像処理部1
2にて実行される操作情報に関する処理に必要なしきい
値を設定して入力画像処理部12に伝送する。上記入力
画像処理部12では、しきい値制御部13において設定
されるしきい値を利用して画像情報について解析を行う
など所要の処理を実行することで操作情報を得る。ま
た、本実施の形態では後述するようにして入力画像デー
タのフレーム差分を算出することにより、現在の半透明
面2の画像状態(検出画像情報)を得るようにされる
が、フレーム差分演算に利用する基準値(基準画像入力
レベル)等の情報も、後述するようにして、しきい値制
御部13に格納されるものとする。
The threshold control unit 13 includes the input image processing unit 1
A threshold necessary for the processing related to the operation information executed in step 2 is set and transmitted to the input image processing unit 12. The input image processing unit 12 obtains operation information by executing required processing such as analyzing image information using a threshold value set by the threshold value control unit 13. In the present embodiment, the current image state (detected image information) of the translucent surface 2 is obtained by calculating the frame difference of the input image data as described later. It is also assumed that information such as a reference value (reference image input level) to be used is stored in the threshold control unit 13 as described later.

【0016】データベース駆動部14は、入力画像処理
部12により得られた操作情報を取り込み、この操作情
報に基づいて適宜所要の処理を実行する。この際、デー
タベース駆動部14が実行すべき制御処理に必要なプロ
グラムデータはデータベースメモリ15に格納されてお
り、データベース駆動部14は、このデータベースメモ
リ15に格納されたプログラムデータに基づいて所要の
制御処理を実行することになる。特に、本実施の形態で
は後述する各種ゲームの処理を実行するためのゲームプ
ログラムがデータベースメモリ15に格納されることに
なる。
The database driving unit 14 takes in the operation information obtained by the input image processing unit 12, and executes necessary processing as appropriate based on the operation information. At this time, the program data necessary for the control process to be executed by the database driving unit 14 is stored in the database memory 15, and the database driving unit 14 performs the required control based on the program data stored in the database memory 15. Processing will be executed. In particular, in the present embodiment, a game program for executing processing of various games described later is stored in the database memory 15.

【0017】画像生成部16は、データベース駆動部1
4の制御によって、必要な画像データ(デジタル信号に
よる映像信号データ)を生成して画像合成部17に出力
する。画像合成部17においては、必要があれば上記画
像生成部16から供給された映像信号データに対して、
入力画像処理部12から供給された映像信号データを合
成してRGB信号生成部18に対して出力する。RGB
信号生成部18では、上記画像合成部17から供給され
た映像信号データについて、例えばアナログによるRG
B信号に変換してプロジェクタ5に対して出力する。こ
れにより、プロジェクタ5からは、半透明面2に対して
行われる操作に応答した映像による画像光が半透明面2
に対して照射出力されることになる。
The image generating unit 16 includes the database driving unit 1
Under the control of (4), necessary image data (video signal data by digital signal) is generated and output to the image synthesizing unit 17. In the image synthesizing unit 17, if necessary, the video signal data supplied from the image generating unit 16 is
The video signal data supplied from the input image processing unit 12 is synthesized and output to the RGB signal generation unit 18. RGB
The signal generating unit 18 converts the video signal data supplied from the image
The signal is converted into a B signal and output to the projector 5. As a result, the image light of the video in response to the operation performed on the translucent surface 2 is output from the projector 5.
Is output.

【0018】上記したように、本実施の形態とされるゲ
ーム装置では、半透明面2が入力操作部として機能す
る。そこで、先ず上記構成による本実施の形態のゲーム
装置1における基本的な入力操作情報の検出方法につい
て説明する。上記した図1に示す半透明面2全体に対し
ては、その背面から赤外線LEDパネル3により赤外線
光が照射されるのであるが、この赤外線光は半透明面2
が半透明であることから、全ての赤外線光が半透明面2
を通過するのではなく、幾分かの赤外線光が半透明面2
の作用によって反射されることになる。そして、本実施
の形態においては半透明面2に対して何も操作が行われ
ていないとされる状態のもとで、半透明面2にて反射さ
れる赤外線光をCCDカメラ4により撮像し、これによ
り得られる映像信号データの初期レベルを「基準入力画
像レベル」として記憶する。この基準入力画像レベル
は、入力された映像信号データに基づいて例えば1フレ
ームにおける画素ごとの信号レベルを検出することによ
り行うようにすればよい。この検出処理は、入力画像処
理部12により行われるものとされる。このようにして
検出された基準入力画像レベルの情報はしきい値検出部
13に伝送され、ここで保持されることになる。
As described above, in the game device according to the present embodiment, the translucent surface 2 functions as an input operation unit. Therefore, first, a description will be given of a method of detecting basic input operation information in game device 1 of the present embodiment having the above configuration. The entirety of the translucent surface 2 shown in FIG. 1 is irradiated with infrared light from the back by the infrared LED panel 3.
Is translucent, so that all infrared light is translucent
Rather than passing through the translucent surface 2
Will be reflected by the action of In the present embodiment, under the condition that no operation is performed on the translucent surface 2, the infrared light reflected by the translucent surface 2 is imaged by the CCD camera 4. The initial level of the video signal data obtained by this is stored as "reference input image level". The reference input image level may be determined, for example, by detecting the signal level of each pixel in one frame based on the input video signal data. This detection processing is performed by the input image processing unit 12. The information on the reference input image level detected in this way is transmitted to the threshold value detection unit 13 and is held here.

【0019】上記基準入力画像レベルの検出処理は、例
えば図3のフローチャートに示すものとなる。この図に
示すように、先ず入力画像処理部12では、ステップS
101において、CCDカメラ4から画像入力部11を
介して供給された映像信号から得られる1フレーム分の
画像データに基づいて、上述のようにして画素ごとに信
号レベルを検出し、この検出結果を基準入力画像レベル
Lintとして得る。なお、具体的には画素ごとの輝度
信号成分のレベルを検出してこれを基準入力画像レベル
Lintとすることが考えられる。入力画像処理部12
は、続くステップS102において、上記基準入力画像
レベルLintをしきい値制御部13に伝送して記憶さ
せるように処理を実行する。
The process of detecting the reference input image level is, for example, as shown in the flowchart of FIG. As shown in this figure, first, in the input image processing unit 12, step S
At 101, a signal level is detected for each pixel as described above based on one frame of image data obtained from a video signal supplied from the CCD camera 4 via the image input unit 11, and the detection result is obtained. Obtained as the reference input image level Lint. Specifically, it is conceivable to detect the level of the luminance signal component for each pixel and use this as the reference input image level Lint. Input image processing unit 12
Performs a process to transmit the reference input image level Lint to the threshold control unit 13 and store it in the subsequent step S102.

【0020】なお、基準入力画像レベルLintを検出
してしきい値制御部13に記憶させる処理(上記図3に
示す処理動作)は、例えば当該ゲーム装置1の電源オン
時などに実行させたり、あるいは何らかのユーザの指示
によって必要なときに基準入力画像レベルLintを更
新させるように構成することが考えられる。
The process of detecting the reference input image level Lint and storing it in the threshold value control unit 13 (the processing operation shown in FIG. 3) can be executed, for example, when the power of the game apparatus 1 is turned on. Alternatively, a configuration may be considered in which the reference input image level Lint is updated when necessary by an instruction of a user.

【0021】上記のようにして基準入力画像レベルLi
ntの情報が保持された状態のもとで、操作情報として
扱われる画像情報は次のようにして得るようにされる。
図4は、操作情報のもととなる画像情報(以下、この
「画像情報」については特に「検出画像情報」という)
を得るための入力画像処理部12の処理動作を示すフロ
ーチャートである。この場合、入力画像処理部12は、
先ずステップS201において現在の入力画像レベルL
prsを検出する処理を実行する。ここでいう入力画像
レベルLprsは、現在においてCCDカメラ4により
撮像された、赤外線光に基づく半透明面2の画像につい
てのフレーム単位のデータであり、このフレーム単位の
画像データにおける画素ごとの信号レベルを検出して得
られる情報である。
As described above, the reference input image level Li
Under the state where the information of nt is held, the image information treated as the operation information is obtained as follows.
FIG. 4 shows image information serving as a source of operation information (hereinafter, this “image information” is particularly referred to as “detected image information”).
5 is a flowchart illustrating a processing operation of the input image processing unit 12 for obtaining the image data. In this case, the input image processing unit 12
First, in step S201, the current input image level L
A process for detecting prs is executed. The input image level Lprs here is frame-by-frame data of an image of the translucent surface 2 based on infrared light, which is currently captured by the CCD camera 4, and is a signal level for each pixel in the frame-based image data. This is information obtained by detecting.

【0022】続いて、入力画像処理部12はステップS
202において、基準入力画像レベルLintと上記現
在の入力画像レベルLprsの差分を演算する(L=L
prs−Lint)ことによって差分入力画像レベルL
を算出する。具体的には、基準入力画像レベルLint
と上記入力画像レベルLprsとして得られたデータ値
を、同一位置の画素ごとに差分を求めることによって差
分入力画像レベルLを得るようにされる。従って、差分
入力画像レベルLとしては、常に基準入力画像レベルL
intに対する現在の入力画像レベルLprsとの信号
レベル差が画素ごとに得られることになる。そして、入
力画像処理部12は、ステップS203に進み、上記差
分入力画像レベルLに基づいて、現在の検出画像情報
(フレーム単位で画素ごとのレベル情報を有する形式の
映像データ)を生成するようにされる。
Subsequently, the input image processing section 12 executes step S
In 202, the difference between the reference input image level Lint and the current input image level Lprs is calculated (L = L
prs-Lint) to obtain the difference input image level L
Is calculated. Specifically, the reference input image level Lint
And the data value obtained as the input image level Lprs is obtained for each pixel at the same position to obtain a difference input image level L. Therefore, the difference input image level L is always set to the reference input image level L
The signal level difference from int to the current input image level Lprs is obtained for each pixel. Then, the input image processing unit 12 proceeds to step S203, and generates current detected image information (video data in a format having level information for each pixel on a frame basis) based on the difference input image level L. Is done.

【0023】上記のごとき検出画像情報の検出動作を、
実際のユーザの半透明面2の前面側での動きと共に説明
する。例えばユーザは、半透明面2の前面側において赤
外線を反射可能な何らかの物体を利用して半透明面2の
前面側において操作を行うようにするのであるが、ここ
では、説明の簡単のためにユーザ自身の指や身体を用い
ることとする。ここで、例えば図1に示すように半透明
面2の前面側においてユーザが半透明面2から遠く離れ
た距離にいるときには、例えば半透明面2を通過してユ
ーザの身体に反射するとされる赤外線光量は少ないこと
から、そのほとんどが半透明面2の前面から背面を通過
して戻ることはない。このとき、上述した基準入力画像
レベルLintと上記現在の入力画像レベルLprsと
は同等であり、入力画像処理部12では、差分入力画像
レベルLとしてほぼ0であると検出することになる。つ
まり、差分入力画像レベルLに基づいて生成される検出
画像情報としては、初期状態と同様の変化の無いとされ
る状態が得られることになる。
The detecting operation of the detected image information as described above
This will be described together with the actual movement of the user on the front side of the translucent surface 2. For example, the user performs an operation on the front side of the translucent surface 2 using some object that can reflect infrared rays on the front side of the translucent surface 2. The user's own finger or body is used. Here, for example, when the user is far away from the translucent surface 2 on the front side of the translucent surface 2 as shown in FIG. Since the amount of infrared light is small, most of the light does not return from the front to the back of the translucent surface 2. At this time, the above-described reference input image level Lint is equal to the current input image level Lprs, and the input image processing unit 12 detects that the difference input image level L is almost 0. That is, as the detected image information generated based on the difference input image level L, a state in which there is no change similar to the initial state is obtained.

【0024】ここで、例えば上記の状態からユーザが徐
々に半透明面2に対して近づいていったとすると、半透
明面2を通過してユーザの身体に反射する赤外線光のう
ち、半透明面2を通過して背面側に到達する光量が次第
に増加していくことになる。この状態を、入力画像処理
部12からみた場合には、ユーザの身体に対応する画像
部分の基準入力画像レベルLintに対する現在の入力
画像レベルLprsのレベルが徐々に増加していく状態
として捉えられる。これに応じて、検出画像情報として
は算出される差分入力画像レベルLに応じて、半透明面
2に接近するユーザの姿が徐々に捉えられていくことに
なる。
Here, for example, if the user gradually approaches the translucent surface 2 from the above-described state, of the infrared light that passes through the translucent surface 2 and is reflected on the user's body, the translucent surface 2, the amount of light reaching the back side gradually increases. When viewed from the input image processing unit 12, this state is regarded as a state where the level of the current input image level Lprs with respect to the reference input image level Lint of the image portion corresponding to the user's body gradually increases. In response to this, the user's appearance approaching the translucent surface 2 is gradually captured according to the difference input image level L calculated as the detected image information.

【0025】そして、半透明面2に対して例えばユーザ
の体が非常に接近した状態(しきい値の設定にもよるが
例えば半透明面2から30cm以内)では、その人体に
反射した赤外線光がほとんど半透明面2を通過して背面
側に到達することになるので、その身体形状がより鮮明
な状態の検出画像情報が生成されることになる。
When the user's body is very close to the translucent surface 2 (for example, within 30 cm from the translucent surface 2 depending on the setting of the threshold value), the infrared light reflected on the human body Almost passes through the translucent surface 2 and reaches the back side, so that the detected image information in a state where the body shape is clearer is generated.

【0026】また、ここでユーザがその身体を半透明面
2からある程度距離を置いた状態で、例えば自身の指を
手前にかざして半透明面2の非常に近い位置においたと
する。この場合、半透明面2に近接するユーザの指は他
の身体部分よりも多くの赤外線光を反射するため、入力
画像処理部12において得られる画像情報としては、ユ
ーザの指にあたるに位置の画像領域のレベルが強く、そ
の背景となる部分においてユーザの身体部分にあたる位
置の画像領域のレベルは半透明面2からの距離に応じて
弱くなることになる。そして、例えばこの状態のもと
で、しきい値制御部13にて設定された所定のしきい値
と検出画像情報とを比較すれば、容易にユーザの指にあ
たる部分のみの画像を背景から分離させることが可能で
あり、同様にしきい値の設定によっては、半透明面2か
ら離れた距離にあるユーザの身体部分のみを抽出した画
像情報を得ることも可能である。このようなしきい値
は、前述のように実際に必要とされる条件に応じた値が
しきい値制御部13において設定されるものである。
Here, it is assumed that the user places his body at a certain distance from the translucent surface 2 and, for example, places his or her own finger toward the user and places the body very close to the translucent surface 2. In this case, since the user's finger near the translucent surface 2 reflects more infrared light than other body parts, the image information obtained in the input image processing unit 12 includes an image at a position corresponding to the user's finger. The level of the area is strong, and the level of the image area at the position corresponding to the body part of the user in the background becomes weaker according to the distance from the translucent surface 2. Then, for example, in this state, if a predetermined threshold value set by the threshold value control unit 13 is compared with the detected image information, the image of only the portion corresponding to the user's finger can be easily separated from the background. Similarly, depending on the setting of the threshold value, it is also possible to obtain image information in which only the body part of the user located at a distance from the translucent surface 2 is extracted. As described above, the threshold value is set in the threshold value control unit 13 in accordance with the actually required condition as described above.

【0027】このようにして、半透明面2の前面側の状
態を赤外線光に依る画像として検出する構成を採ること
により、本実施の形態ではこの半透明面2を例えばイン
タラクティブなインターフェイスのための入力操作部と
して機能させるようにしているため、次のような利点が
得られる。先ず、本実施の形態では半透明面2側からの
赤外線の反射光量によって得られる画像に基づいて操作
情報を得ることになるので、操作を行うための操作体と
しては、特に特殊なポインティングデバイスを必要とせ
ず、赤外線を反射する物体であればその種類は問わない
ことになる。つまり、操作体としては、上述のように人
体全体もしくはその一部や、その他の何らかの物体を問
題なく使用することができる。
As described above, by adopting a configuration in which the state of the front side of the translucent surface 2 is detected as an image based on infrared light, in the present embodiment, the translucent surface 2 is used, for example, for an interactive interface. The following advantages can be obtained by functioning as an input operation unit. First, in the present embodiment, operation information is obtained based on an image obtained by the amount of reflected infrared light from the translucent surface 2 side. Therefore, a special pointing device is particularly used as an operation body for performing an operation. Any kind of object that does not need it and reflects infrared rays can be used. That is, as described above, the whole or a part of the human body or any other object can be used without any problem as the operation body.

【0028】また、例えばタッチパネルなどでは操作パ
ネル面に対して指などの操作体を接触させる必要がある
が、本実施の形態の場合には操作体の位置や動きは赤外
線光の反射として検出されればよいことから、半透明面
2に操作体を接触させる必要性はなく、その前面の空間
において操作を行うような方法を採ることができる。
For example, in the case of a touch panel or the like, it is necessary to bring an operating body such as a finger into contact with the operation panel surface. In the case of the present embodiment, the position and movement of the operating body are detected as reflection of infrared light. Therefore, there is no need to bring the operating tool into contact with the translucent surface 2, and a method of performing an operation in the space in front of the operating tool can be adopted.

【0029】また、上述したように赤外線の反射光量
は、操作体の半透明面2に対する距離に応じて変化する
ために、例えば操作体の半透明面2からの距離を操作情
報として利用することも考えられる。
Further, as described above, since the amount of reflected infrared light changes in accordance with the distance of the operating tool to the translucent surface 2, for example, the distance of the operating tool from the translucent surface 2 is used as operation information. Is also conceivable.

【0030】更に、半透明面2は上述のように例えば透
明のガラス板などに対してトレーシングペーパーのよう
な半透明の薄膜を組み合わせたり、磨りガラスのような
ものを利用するなどの簡略な手段により構成可能とさ
れ、特にパネルに固有の駆動回路などは不要なので、低
コストで容易に大型化を実現することができ、この点で
大型化が困難なタッチパネルなどとは大きく異なる。そ
して、半透明面2側からの赤外線の反射光により得られ
る画像に基づいて操作情報を得ることで、画像認識さえ
可能であれば複数の操作体を同時に認識して所要の制御
を実行させることが可能である。つまり、複数の異なる
操作対象に対する同時操作が可能となるものであり、特
に半透明面2が大画面として構成される場合には半透明
面2上のいろいろな領域を利用して異なる種類の操作を
同時に行うことができることにもなるので非常に有効と
なる。
Further, as described above, the translucent surface 2 is formed by a simple method such as combining a transparent glass plate or the like with a translucent thin film such as tracing paper, or using a material such as ground glass. Since it can be configured by means and a driving circuit or the like unique to the panel is not required, the size can be easily increased at low cost, and in this point, it is greatly different from a touch panel or the like which is difficult to increase in size. Then, by obtaining operation information based on an image obtained by reflected light of infrared rays from the translucent surface 2 side, if image recognition is possible, a plurality of operation bodies can be simultaneously recognized and required control can be executed. Is possible. In other words, it is possible to perform simultaneous operations on a plurality of different operation targets. Particularly when the translucent surface 2 is configured as a large screen, different types of operations are performed using various regions on the translucent surface 2. Can be performed at the same time, which is very effective.

【0031】そして、半透明面2は画像表示パネルとし
ての機能も有することから、例えば後述するように操作
対象となるメニュー画面のようなものを表示させた上
で、ユーザがこのメニュー画面に対して指などにより操
作を行えるようにするなどの直接的な操作を実現するこ
とも容易に可能となる。このように、本実施の形態とし
てのゲーム装置1は、インタラクティブ表示システムを
利用しているため、その操作情報を入力するのに多くの
可能性が得られ、これまでには無かったようなインタラ
クティブな入出力環境を容易に構築することができる。
Since the translucent surface 2 also has a function as an image display panel, for example, after displaying a menu screen to be operated as will be described later, the user can display the menu screen on the menu screen. It is also possible to easily realize a direct operation such as an operation with a finger or the like. As described above, since the game apparatus 1 according to the present embodiment uses the interactive display system, there are many possibilities for inputting the operation information, and the interactive apparatus has not been provided before. A simple input / output environment can be easily constructed.

【0032】本実施の形態としてのゲーム装置1では、
例えばメニュー画面を表示させて、適宜所要の操作を行
うことにより、各種ゲームを実行するようにしている。
図5には、本実施の形態のゲーム装置1においてユーザ
がメニュー操作を行う場合が示されている。なお、以降
説明するメニュー画面に関する操作は、本実施の形態に
おける半透明面2に対する操作の形態及びこれに伴う半
透明面2に対する表示制御などの基本を成すものであ
る。また、図5においては半透明面2を前面側からみた
状態が示されている。
In the game device 1 according to the present embodiment,
For example, various games are executed by displaying a menu screen and performing necessary operations as appropriate.
FIG. 5 shows a case where the user performs a menu operation in game device 1 of the present embodiment. The operations related to the menu screen, which will be described below, form the basis of the mode of operation on the translucent surface 2 according to the present embodiment and the accompanying display control on the translucent surface 2. FIG. 5 shows a state in which the translucent surface 2 is viewed from the front side.

【0033】例えばこの図5に示すように、ユーザが半
透明面2の前面に近づいたとすると、先ず、制御装置6
では、このときに得られる検出画像情報に基づいてユー
ザが近づいた半透明面2上の位置を認識する。そして、
半透明面2上においてユーザが近づいたと認識された位
置に対して、図5のようにメニュー画面Mを表示するよ
うに表示制御を行う。このメニュー画面Mは当然のこと
としてプロジェクタ5から半透明面2に対して投影され
た画像である。
For example, as shown in FIG. 5, when the user approaches the front of the translucent surface 2, first, the control device 6
Then, the position on the translucent surface 2 to which the user has approached is recognized based on the detected image information obtained at this time. And
Display control is performed so that a menu screen M is displayed as shown in FIG. 5 at a position on the translucent surface 2 where the user is recognized as approaching. The menu screen M is an image projected on the translucent surface 2 from the projector 5 as a matter of course.

【0034】そして、ユーザ自身が位置している付近の
半透明面2上にメニュー画面Mが表示された状態のもと
で、例えばユーザは自身の指を用いて、メニュー画面M
において操作項目が表示されている任意の領域を指さす
ように指定したとする。このとき、ユーザの指先は、半
透明面2上から3cm〜30cm程度の範囲内の距離に
あるようにされる。
Then, in a state where the menu screen M is displayed on the translucent surface 2 near where the user himself is located, for example, the user uses his / her finger to make the menu screen M
It is assumed that the user designates an arbitrary area in which the operation item is displayed. At this time, the user's fingertip is located at a distance within a range of about 3 cm to 30 cm from the translucent surface 2.

【0035】これにより、例えばメニュー画面Mにおい
ては、ユーザが指し示した操作項目の領域が選択された
ことを示す何らかの指示表示(例えば選択領域に対する
カーソルの配置表示や所定の形態による強調表示など)
が行われることになる。この強調表示のための表示制御
は、検出画像情報に基づいてユーザの指が指し示してい
る領域の座標を検出することにより実現される。
Thus, for example, on the menu screen M, any instruction display indicating that the area of the operation item pointed to by the user has been selected (for example, display of a cursor with respect to the selected area or highlighting in a predetermined form).
Will be performed. The display control for the highlighting is realized by detecting the coordinates of the area indicated by the user's finger based on the detected image information.

【0036】ここでは、上記のようにして指示表示が開
始された状態から所定時間(例えば数秒程度)経過した
ときにエンター操作が行われたとみなすこととする。そ
して、ユーザがエンター操作を行った、つまり特定の操
作項目が強調表示された状態を所定時間以上維持させた
とすると、指定された操作項目に従った所要の制御動作
を実行することになる。例えば、指定された操作項目に
従って他の階層のメニュー画面を表示させたり、当該ゲ
ーム装置1に対して所望の動作を実行させたりすること
になる。あるいは、当該ゲーム装置1が何らかの外部機
器を制御可能に構成されており、メニュー画面Mがその
外部機器の動作についての操作制御を行うためのもので
あるとすれば、指定された操作項目に従って外部機器の
動作を制御することになる。なお、ユーザが半透明面2
の前面から離れていき、ユーザと半透明面2との間にあ
る程度以上の距離があいた場合には、それまで表示され
ていたメニュー画面Mは自動的に消去されるものとされ
る。
Here, it is assumed that the enter operation has been performed when a predetermined time (for example, about several seconds) has elapsed from the state where the instruction display was started as described above. Then, if the user performs an enter operation, that is, if a state where a specific operation item is highlighted is maintained for a predetermined time or more, a required control operation according to the specified operation item is executed. For example, a menu screen of another level is displayed according to the designated operation item, or a desired operation is performed on the game device 1. Alternatively, if the game apparatus 1 is configured to be able to control some external device, and the menu screen M is for controlling the operation of the operation of the external device, the external device may be controlled in accordance with the designated operation item. This will control the operation of the device. In addition, if the user sets the translucent
If the user moves away from the front of the user and there is a certain distance or more between the user and the translucent surface 2, the menu screen M that has been displayed up to that point is automatically deleted.

【0037】ここで、上記図5に示したメニュー操作を
行う場合の制御装置6の処理動作例のフローチャートを
図6に示す。この図6に示す処理動作は、主として制御
装置6内の入力画像処理部12が検出画像情報に基づい
て操作情報を認識すると共に、データベース駆動部14
がデータベースメモリ15に格納されたプログラムに従
って適宜処理動作を実行することにより実現される。
FIG. 6 shows a flowchart of an example of the processing operation of the control device 6 when the menu operation shown in FIG. 5 is performed. In the processing operation shown in FIG. 6, the input image processing unit 12 in the control device 6 mainly recognizes the operation information based on the detected image information, and the database driving unit 14
Is realized by appropriately executing a processing operation in accordance with a program stored in the database memory 15.

【0038】先ず、ステップS301において、現在の
検出画像情報から「接近体」が検出されるか否かについ
て判別を行う。ここで、「接近体」とは半透明面2に対
して所定の距離範囲まで接近した何らかの操作体(図5
ではユーザ自身の身体とされている)をいうものとされ
る。この「接近体」の検出は、例えば入力画像処理部1
2が検出画像情報と接近体の検出ように設定されたしき
い値(しきい値制御部13により設定される)を比較し
て、例えば検出画像情報のある領域において、このしき
い値以上の値が得られた場合には「接近体有り」と検出
し、しきい値以上の値が得られる領域がない場合には、
「接近体無し」と検出することになる。上記接近体検出
用のしきい値は、例えば通常、人体(ユーザ)が半透明
面2にある程度(例えば数十cm)近付いた時に検出画
像情報として得られる人体部分の画像レベルに基づいて
設定すれば良い。
First, in step S301, it is determined whether an "approaching object" is detected from the current detected image information. Here, the “approaching body” is any operating body (FIG. 5) that has approached the translucent surface 2 to a predetermined distance range.
Is the user's own body). The detection of the “approaching body” is performed by, for example, the input image processing unit 1.
2 compares the detected image information with a threshold value (set by the threshold value control unit 13) set to detect an approaching object, and, for example, in a certain area of the detected image information, If a value is obtained, it is detected as "approaching object", and if there is no area where a value equal to or greater than the threshold is obtained,
"No approaching body" will be detected. The threshold value for detecting the approaching body is usually set based on the image level of the human body part obtained as the detection image information when the human body (user) approaches the translucent surface 2 to some extent (for example, several tens of cm). Good.

【0039】上記ステップS301において接近体が検
出されなかった場合にはステップS308に進んで、現
在メニュー画面Mが表示中で有るか否かについての判別
が行われ、メニュー画面Mが表示されていない場合に
は、再度ステップS301の処理に移行するが、メニュ
ー画面Mが表示中の状態である場合にはステップS30
9に進み、メニュー画面Mを消去するするための制御処
理を実行する。このメニュー画面Mの消去処理は、例え
ばデータベース駆動部14が画像生成部16に対するメ
ニュー画面Mの画像データの生成処理を停止することで
実現される。
If no approaching object is detected in step S301, the flow advances to step S308 to determine whether or not the menu screen M is currently being displayed, and the menu screen M is not displayed. If the menu screen M is being displayed, the process returns to step S301.
Proceeding to 9, the control processing for deleting the menu screen M is executed. The process of deleting the menu screen M is realized, for example, by the database driving unit 14 stopping the process of generating the image data of the menu screen M for the image generating unit 16.

【0040】これに対して、ステップS301において
接近体が検出された場合には、ステップS302に進ん
で、半透明面2上における上記接近体の位置が検出され
る。この処理は、例えば検出画像情報における接近体の
部分が占有する領域の座標を検出することで可能とな
る。この場合、検出すべき座標としては接近体の領域の
所定の一地点であっても、所定規則に従って求められる
複数地点であってもよく、実際の使用環境等に応じて任
意に設定されれば良い。
On the other hand, if an approaching object is detected in step S301, the process proceeds to step S302, where the position of the approaching object on the translucent surface 2 is detected. This processing can be performed, for example, by detecting the coordinates of the area occupied by the approaching object portion in the detected image information. In this case, the coordinates to be detected may be a predetermined single point in the area of the approaching object, or a plurality of points determined according to a predetermined rule, and may be arbitrarily set according to the actual use environment and the like. good.

【0041】続くステップS303においては、上記ス
テップS302で検出された接近体の位置に応じた半透
明面2の領域に対してメニュー画面Mを表示させるため
の制御を実行する。この制御処理は、例えばデータベー
ス駆動部14がデータベースメモリ15に格納されてい
るメニュー画面表示用のプログラムに基づいて、画像生
成部16において所要の書類のメニュー画面Mの画像デ
ータが作成されるように制御を行うことになる。この
際、データベース駆動部14はステップS302にて検
出された接近体の位置に対応する表示領域に対して、例
えばメニュー画面Mの画像データをマッピングするよう
にして、表示用画像データを作成する。この結果、最終
的にプロジェクタ5から投影される画像としては、半透
明面2におけるユーザが近付いた位置に対してメニュー
画面Mが表示されたものとなる。
In the following step S303, control for displaying the menu screen M in the area of the translucent surface 2 corresponding to the position of the approaching object detected in the above step S302 is executed. This control processing is performed so that the image data of the menu screen M of the required document is created in the image generation unit 16 based on the menu screen display program stored in the database memory 15 by the database driving unit 14, for example. Control will be performed. At this time, the database driving unit 14 creates display image data by mapping, for example, the image data of the menu screen M to the display area corresponding to the position of the approaching object detected in step S302. As a result, as the image finally projected from the projector 5, the menu screen M is displayed at a position on the translucent surface 2 where the user approaches.

【0042】次に、ステップS304においては、現在
表示中のメニュー画面Mの操作項目とされる表示領域内
において、「操作体」が検出されたか否かについて判別
が行われる。ここで、「操作体」とは半透明面2の前面
において至近距離(しきい値の設定にもよるが3cm〜
30cm程度)にある物体のことをいうものとされる。
つまり、図5においてはメニュー画面Mを指し示す指が
対象となる。そして、この「検出体」の検出処理は、先
ず操作体検出用として、しきい値制御部13において設
定されたしきい値と、検出画像情報の画像レベルとを比
較することにより、操作体の有無を検出することが行わ
れる。このとき設定されるしきい値としては、半透明面
2の前面において至近距離にある物体を背景から分離し
て検出する必要上、前述した接近体検出用しきい値より
大きい値が設定される。そして、例えばしきい値と比較
した結果、操作体が検出されたとすれば、その操作体が
検出された検出画像情報上の座標位置を検出し、この検
出位置とメニュー画面Mが表示されている画像情報上の
位置が一致しているか否かを判別することで、現在表示
中のメニュー画面の表示領域内における操作体の有無を
検出することになる。
Next, in step S304, it is determined whether or not an "operating object" has been detected in a display area that is an operation item of the currently displayed menu screen M. Here, the “operation body” is a close distance (3 cm to 3 cm depending on the setting of the threshold) in front of the translucent surface 2.
(About 30 cm).
That is, in FIG. 5, the finger pointing to the menu screen M is targeted. The detection process of the “detection object” is performed by first comparing the threshold value set by the threshold value control unit 13 with the image level of the detected image information for the operation object detection. The presence or absence is detected. The threshold value set at this time is set to a value larger than the approaching object detection threshold value because it is necessary to detect an object at a close distance in front of the translucent surface 2 separately from the background. . Then, for example, if the operation tool is detected as a result of comparison with the threshold value, the coordinate position on the detected image information where the operation tool is detected is detected, and the detected position and the menu screen M are displayed. By determining whether or not the positions on the image information match, it is possible to detect the presence or absence of the operating tool in the display area of the currently displayed menu screen.

【0043】上記ステップS304においてメニュー画
面Mの操作項目とされる表示領域内において操作体が検
出されない場合とは、検出画像情報上に操作体が検出さ
れなかったか、或は検出画像情報上に操作体を検出した
としてもこの操作体の検出位置がメニュー画面Mの表示
領域内に対応する画像情報上の領域になかった場合とさ
れ、この場合にはステップS301に戻るようにされ
る。
If the operation tool is not detected in the display area of the menu screen M as the operation item in step S304, it means that the operation tool has not been detected on the detected image information, or the operation tool has not been detected on the detected image information. Even if the body is detected, it is determined that the detected position of the operation body is not in the area on the image information corresponding to the display area of the menu screen M, and in this case, the process returns to step S301.

【0044】これに対して、ステップS304において
メニュー画面Mの操作項目とされる表示領域内において
操作体が検出されたと判別された場合には、ステップS
305に進んで、操作体が検出された位置に対応するメ
ニュー画面Mの操作項目について指示表示が行われるよ
うな制御を実行してステップS306に進む。
On the other hand, if it is determined in step S304 that an operation tool has been detected in the display area of the menu screen M which is an operation item, the process proceeds to step S304.
Proceeding to 305, control is performed such that an instruction is displayed for an operation item on the menu screen M corresponding to the position where the operating tool is detected, and the flow proceeds to step S306.

【0045】ステップS306においては、ステップS
304にて検出された操作体の検出状態が所定時間以上
維持されるか否かについて検出を行うようにしている。
この検出処理は、入力画像処理部12において現在の検
出画像の状態遷移を監視することにより行われる。そし
て、例えば現在の検出画像情報上から操作体が検出され
なくなったり、或は検出画像情報上における操作体の検
出位置がステップS304にて検出されたメニュー画面
Mの操作項目とされる表示領域内から外れたことが検出
されたような場合には、ステップS301からの処理に
戻ることになる。
In step S306, step S
It is determined whether or not the detection state of the operating tool detected in 304 is maintained for a predetermined time or more.
This detection process is performed by monitoring the state transition of the current detected image in the input image processing unit 12. Then, for example, the operating tool is no longer detected from the current detected image information, or the detected position of the operating tool on the detected image information is displayed in the display area where the operation item of the menu screen M detected in step S304 is used. If it is detected that the deviation has occurred, the process returns to step S301.

【0046】また、ステップS306において、ステッ
プS304にて検出された操作体の検出状態が所定時間
以上維持されたと判別された場合には、エンター操作が
行われたものとしてステップS307に進む。ステップ
S307においては、メニュー画面M上において操作体
が検出された位置の操作項目に応じた所要の制御処理が
実行される。この処理はデータベース駆動部14がデー
タベースメモリ15に格納されたプログラムに従って実
行することになる。
If it is determined in step S306 that the detection state of the operating tool detected in step S304 has been maintained for a predetermined time or longer, it is determined that an enter operation has been performed, and the flow advances to step S307. In step S307, a required control process according to the operation item at the position where the operation tool is detected on the menu screen M is executed. This processing is executed by the database driving unit 14 according to the program stored in the database memory 15.

【0047】<2、ボールラリーゲーム>以下、これま
で説明してきたゲーム装置1の構成及び操作情報の検出
方法を踏まえて、本実施の形態とされるゲーム装置1に
よって実行可能とされる各種ゲームの具体例について説
明する。
<2. Ball Rally Game> Various games that can be executed by the game apparatus 1 according to the present embodiment based on the configuration of the game apparatus 1 and the method of detecting operation information described above. A specific example will be described.

【0048】図7は、本実施の形態とされるゲーム装置
1によってボールラリーゲームを実行させた場合に半透
明面2に表示される表示画面の一例が示されている。な
お、ここでは半透明面2の前面側から見た状態が示され
ている。このようなボールラリーゲームは、例えばユー
ザが半透明面2上に表示されたメニュー画面Mから所定
の項目を選択することで半透明面2に表示されるもので
ある。
FIG. 7 shows an example of a display screen displayed on the translucent surface 2 when a ball rally game is executed by the game apparatus 1 according to the present embodiment. Here, the state seen from the front side of the translucent surface 2 is shown. Such a ball rally game is displayed on the translucent surface 2 when the user selects a predetermined item from the menu screen M displayed on the translucent surface 2, for example.

【0049】この図7に示すボールラリーゲームは、半
透明面2上のゲーム領域(本実施の形態においては半透
明面2全体をゲーム領域とする)に表示された例えば所
定の速度で移動するボール21を1又はそれ以上のユー
ザが例えば半透明面2の前面において赤外線を反射可能
な何らかの操作体(例えばユーザ自身の腕など)によっ
てボール21を打ち返すような動作を行うことにより、
ゲーム領域に表示されたボール21があたかもユーザの
腕などで打ち返されたようにその移動方向を変化させる
ものである。
The ball rally game shown in FIG. 7 moves at a predetermined speed, for example, displayed in a game area on the translucent surface 2 (the entire translucent surface 2 is a game area in the present embodiment). By performing an operation of hitting the ball 21 by one or more users using, for example, some operation tool (for example, the user's own arm or the like) capable of reflecting infrared rays in front of the translucent surface 2,
The moving direction of the ball 21 displayed in the game area is changed as if the ball 21 was hit back with the user's arm or the like.

【0050】この場合のボール21の動き方としては、
例えばボール21とユーザの腕などが衝突したと見なさ
れた検出画像情報内の座標位置におけるユーザの腕とボ
ール21の衝突面、すなわち例えば図7に示したように
ユーザの腕がボール21と衝突したと見なした座標位置
におけるボール21の接線Sを反射面として反射された
ように、その移動方向を変化させることになる。
The way the ball 21 moves in this case is
For example, the collision surface between the user's arm and the ball 21 at the coordinate position in the detected image information in which it is considered that the ball 21 has collided with the user's arm, that is, the user's arm collides with the ball 21 as shown in FIG. The movement direction is changed as if the tangent S of the ball 21 at the coordinate position considered to have been reflected was reflected as a reflection surface.

【0051】なお、半透明面2上に表示されるボール2
1は、当然のこととしてプロジェクタ5から半透明面2
に対して投影された画像である。また、ボール21を打
ち返すときのユーザの腕などは、半透明面2から例えば
3cm〜30cm程度の範囲内の距離にあるようにされ
ればよく、この状態でゲーム装置1側においては、ユー
ザの腕が操作情報として検出されるように構成されれば
良い。
The ball 2 displayed on the translucent surface 2
1 is, of course, a semi-transparent surface 2
Is an image projected to. In addition, the user's arm or the like when hitting the ball 21 may be located at a distance within a range of, for example, about 3 cm to 30 cm from the translucent surface 2. What is necessary is just to be comprised so that an arm may be detected as operation information.

【0052】このボールラリーゲームは、例えば複数の
ユーザが半透明面2に表示されたボール21を打ち返す
ゲームであり、例えばボール21が見かけ上の地面に落
下したとされた場合にゲームオーバとなる。また、ボー
ル21がゲーム領域の外側からはみ出すような位置まで
移動した場合、例えばボール21がゲーム領域の上端
面、又は左右の端面位置まで移動した場合は、ボール2
1がこの上端面、又は左右の端面で反射されたようにそ
の移動方向を変化させる。そして、ボール21がゲーム
領域の下端面からはみ出すような位置まで移動した場
合、つまりボール21が見かけ上、地面に落下したとさ
れた場合、ゲームオーバーとする。なお、本実施の形態
においては、説明を簡単にするためボール21の移動速
度は予め設定された速度のまま移動することとするが、
例えば徐々にボール21の速度を速くしたり、ボール2
1がユーザの腕など接したと見なした時のユーザの腕な
どの速度に応じてボール21の速度を可変させるように
することも考えられる。
This ball rally game is a game in which a plurality of users hit back the ball 21 displayed on the translucent surface 2, for example, when the ball 21 is dropped on the apparent ground, the game is over. . When the ball 21 has moved to a position protruding from the outside of the game area, for example, when the ball 21 has moved to the upper end face or the left and right end face positions of the game area, the ball 2
The moving direction is changed so that 1 is reflected on the upper end face or the left and right end faces. Then, when the ball 21 moves to a position protruding from the lower end face of the game area, that is, when the ball 21 is apparently dropped on the ground, the game is over. In the present embodiment, for the sake of simplicity, the moving speed of the ball 21 moves at a preset speed.
For example, the speed of the ball 21 is gradually increased,
It is also conceivable to vary the speed of the ball 21 according to the speed of the user's arm or the like when 1 is considered to have touched the user's arm or the like.

【0053】図8は、上記したようなボールラリーゲー
ムを実行する場合の制御装置6の処理動作例を示したフ
ローチャートである。この図8に示す処理動作は、例え
ば図6に示した処理動作において、メニュー画面Mから
ボールラリーゲームの項目が選択された際に、制御装置
6の入力画像処理部12から供給される操作情報に基づ
いてデータベース駆動部14がデータベースメモリ15
に格納されたボールラリーゲームのプログラムに従って
適宜処理動作を実行することにより実現されるものであ
る。
FIG. 8 is a flowchart showing an example of the processing operation of the control device 6 when the above-described ball rally game is executed. The processing operation shown in FIG. 8 is, for example, operation information supplied from the input image processing unit 12 of the control device 6 when an item of the ball rally game is selected from the menu screen M in the processing operation shown in FIG. The database drive unit 14 is based on the
Is executed by appropriately executing processing operations in accordance with the ball rally game program stored in the game.

【0054】この場合は、先ずステップS400におい
て、ボールラリーゲームを実行させるための所定の操作
が行われたかどうか判別する。すなわち、例えば先に図
5に示したメニュー画面Mからボールラリーゲームの項
目が選択されたかどうか判別する。そして、ステップS
400において、ボールラリーゲームの項目が選択され
たと判別した場合は、ステップS401に進み、半透明
面2上のゲーム領域にゲーム画面として表示するボール
21の各種設定値を初期値に設定する。このステップS
401において設定されるボール21の設定値として
は、例えばゲーム領域内に最初に表示するボール21の
座標位置や移動方向、移動速度とされる。なお、これら
の設定値は、予め決められた値でもよく、またボールラ
リーゲームが実行されるごとにランダムに設定する値で
も良い。
In this case, first, in step S400, it is determined whether a predetermined operation for executing the ball rally game has been performed. That is, for example, it is determined whether or not the item of the ball rally game has been selected from the menu screen M shown in FIG. And step S
If it is determined in 400 that the item of the ball rally game has been selected, the process proceeds to step S401, and various setting values of the ball 21 displayed as a game screen in the game area on the translucent surface 2 are set to initial values. This step S
The set value of the ball 21 set in 401 is, for example, the coordinate position, the moving direction, and the moving speed of the ball 21 to be displayed first in the game area. Note that these set values may be predetermined values, or may be values set randomly each time the ball rally game is executed.

【0055】上記ステップS401の処理が実行された
後は、ステップS402において、半透明面2上のゲー
ム領域内に先にステップS401で設定した設定値(こ
の場合はボール21の座標位置)に基づいて、ボール2
1を表示するための表示制御を実行することになる。そ
して、ステップS403において、ボール21がゲーム
領域内か否か、すなわちボール21の座標位置がゲーム
領域内で有るか否かの判別を行う。ここで、ボール21
の座標位置がゲーム領域内でないと判別した場合は、ス
テップS408に進み、ゲームオーバであることを示す
所要の表示を行って制御処理を終了することになる。
After the process of step S401 is executed, in step S402, the game area on the translucent surface 2 is set on the basis of the set value previously set in step S401 (in this case, the coordinate position of the ball 21). And ball 2
The display control for displaying 1 is executed. Then, in step S403, it is determined whether or not the ball 21 is within the game area, that is, whether or not the coordinate position of the ball 21 is within the game area. Here, the ball 21
If it is determined that the coordinate position of is not within the game area, the process proceeds to step S408, a required display indicating that the game is over is performed, and the control process ends.

【0056】一方、ステップS403において、ボール
21の座標位置がゲーム領域内で有ると判別した場合
は、ステップS404に進む。ステップS404におい
ては、ゲーム領域内においてユーザの腕などとされる操
作体が検出されたかどうかの判別を行うようにされる。
ここで、例えばゲーム領域内に操作体を検出した場合は
ステップS405に進み、ステップS404で検出され
た操作体の座標位置がボール21の座標位置と一致して
いるかどうかの判別を行うようにされる。この操作体の
座標位置は、入力画像処理部12おいて検出される検出
画像情報に基づいて、入力画像処理部12からデータベ
ース駆動部14に対して供給される操作情報に基づいて
判別することになる。
On the other hand, if it is determined in step S403 that the coordinate position of the ball 21 is within the game area, the process proceeds to step S404. In step S404, it is determined whether or not an operating tool such as a user's arm has been detected in the game area.
Here, for example, when an operating tool is detected in the game area, the process proceeds to step S405, and it is determined whether or not the coordinate position of the operating tool detected in step S404 matches the coordinate position of the ball 21. You. The coordinate position of the operating tool is determined based on operation information supplied from the input image processing unit 12 to the database driving unit 14 based on the detected image information detected by the input image processing unit 12. Become.

【0057】この場合、入力画像処理部12において検
出される検出画像情報は、先に説明したように半透明面
2側からの赤外線の反射光により得られるため、ゲーム
領域内に複数の操作体が存在しても同時に認識すること
が可能とされる。つまり、複数のユーザが同時にゲーム
に参加していても、各ユーザが行った操作の操作情報を
同時に認識することが可能である。
In this case, since the detected image information detected by the input image processing section 12 is obtained by the reflected light of the infrared ray from the translucent surface 2 side as described above, a plurality of operating objects are provided in the game area. Can be recognized at the same time, even if exists. That is, even if a plurality of users are simultaneously participating in the game, it is possible to simultaneously recognize the operation information of the operation performed by each user.

【0058】そして、ステップS405において、ある
操作体の座標位置とボール21の例えば外形の座標が一
致したと判別した場合は、ステップS406に進み、そ
の座標位置におけるボール21の接線Sを求め、この接
線Sを反射面と仮想して反射したとみなしてボール21
の設定値を変更することになる。このとき変更されるボ
ール21の設定値としては、例えばボール21の移動方
向の値とされる。すなわち、操作体の座標位置とボール
21の座標位置が一致したと判別した場合は、上記図7
に示したようにボール21と操作体から得られる接線S
でボール21が反射したと見なして、先に設定されたボ
ール21の移動方向の設定値を、新たに反射後の設定値
に変更することになる。
If it is determined in step S405 that the coordinate position of a certain operating tool coincides with the coordinates of, for example, the outer shape of the ball 21, the flow advances to step S406 to determine the tangent S of the ball 21 at that coordinate position. Assuming that the tangent line S is assumed to be a reflection surface and is reflected, the ball 21
Will be changed. The set value of the ball 21 changed at this time is, for example, a value in the moving direction of the ball 21. That is, if it is determined that the coordinate position of the operating tool and the coordinate position of the ball 21 match, the above-described FIG.
The tangent S obtained from the ball 21 and the operating tool as shown in FIG.
It is considered that the ball 21 has been reflected at the time, and the set value of the moving direction of the ball 21 previously set is newly changed to the set value after the reflection.

【0059】続く、ステップS407においては、上記
ステップS406において変更された設定値に基づいて
ボール21を表示する新たな座標位置を演算することに
なる。また、ステップS404にゲーム領域内に操作体
が検出されなかった場合、又はステップS405におい
て操作体の座標位置がボール21の座標位置と一致しな
かった場合は、ボール21の設定値を変更することな
く、先に設定された設定値に基づいてボール21の座標
位置を演算することになる。
In step S407, a new coordinate position for displaying the ball 21 is calculated based on the set value changed in step S406. If the operation tool is not detected in the game area in step S404, or if the coordinate position of the operation tool does not match the coordinate position of the ball 21 in step S405, the set value of the ball 21 is changed. Instead, the coordinate position of the ball 21 is calculated based on the previously set value.

【0060】なお、ステップS407において新たなボ
ール21の座標位置を演算した際、ボール21の新たな
座標位置がゲーム領域の上端面又は左右の端面の座標と
一致した場合は、これらの端面でボール21が反射した
と見なして、先に設定されたボール21の移動方向の設
定値を変更することになる。
When the coordinate positions of the new ball 21 are calculated in step S407, if the new coordinate position of the ball 21 matches the coordinates of the upper end surface or the left and right end surfaces of the game area, the ball end position is calculated by using these end surfaces. Assuming that the ball 21 is reflected, the set value of the moving direction of the ball 21 previously set is changed.

【0061】上記ステップS407において、ボール2
1の新たな座標位置を演算した後、ステップS402に
戻って、再度ステップS402からの処理動作を実行す
るようにされる。これにより、上記図7に示したような
ボールラリーゲームの制御処理が実現されることにな
る。
In step S407, the ball 2
After calculating one new coordinate position, the process returns to step S402, and the processing operation from step S402 is executed again. Thereby, the control processing of the ball rally game as shown in FIG. 7 is realized.

【0062】<3、射的ゲーム(第1例)>図9は、本
実施の形態とされるゲーム装置1によって射的ゲームを
実行させた場合に半透明面2に表示される表示画面の一
例が示されている。なお、このような射的ゲームもまた
例えば図5に示したメニュー画面Mから所定の項目を選
択することで表示されるものである。
<3. Shooting Game (First Example)> FIG. 9 shows a display screen displayed on the translucent surface 2 when the shooting game is executed by the game apparatus 1 according to the present embodiment. An example is shown. Note that such a shooting game is also displayed, for example, by selecting a predetermined item from the menu screen M shown in FIG.

【0063】この図9に示す射的ゲームもまた、先に図
7において説明したボールラリーゲームと同様に例えば
半透明面2全体がゲーム領域とされており、このゲーム
領域内に例えばリンゴなどの標的23を頭上に乗せたよ
うな人物のゲーム画面22が表示される。そして、ユー
ザがこの標的23に目掛けて、例えば先端に吸盤などが
取り付けられた矢24を投げて楽しむものである。
In the shooting game shown in FIG. 9, the entire semi-transparent surface 2 is used as a game area, for example, similarly to the ball rally game described above with reference to FIG. A game screen 22 of a person with the target 23 placed overhead is displayed. Then, the user looks at the target 23 and enjoys throwing, for example, an arrow 24 having a suction cup or the like attached to the tip.

【0064】そして、例えば矢24が標的23に当たら
ず、他のゲーム領域に当たった場合はゲームオーバとす
ると共に、矢24が標的23に当たった場合は、矢24
が標的23に当たったことを示す何らかの表示をしてゲ
ームオーバとするようにされる。
For example, when the arrow 24 does not hit the target 23 and hits another game area, the game is over. When the arrow 24 hits the target 23, the game is over.
Is displayed, indicating that the player has hit the target 23, and the game is over.

【0065】図10は、上記したような射的ゲームを実
行する場合の制御装置6の処理動作例を示したフローチ
ャートである。この図10に示す処理動作もまた、例え
ば図6に示した処理動作において、メニュー画面Mから
射的ゲームの項目が選択された際に、制御装置6の入力
画像処理部12から供給される操作情報に基づいてデー
タベース駆動部14がデータベースメモリ15に格納さ
れた射的ゲームのプログラムに従って適宜処理動作を実
行することにより実現されるものである。
FIG. 10 is a flowchart showing an example of the processing operation of the control device 6 when the shooting game as described above is executed. The processing operation shown in FIG. 10 also includes, for example, an operation supplied from the input image processing unit 12 of the control device 6 when an item of the shooting game is selected from the menu screen M in the processing operation shown in FIG. This is realized by the database driving unit 14 appropriately executing a processing operation in accordance with a shooting game program stored in the database memory 15 based on the information.

【0066】この場合は、先ずステップS500におい
て、射的ゲームを実行させるための所定の操作が行われ
たかどうか判別する。ステップS500において、射的
ゲームを実行させるための所定の操作が行われたと判別
した場合、例えば先に図5に示したメニュー画面Mから
射的ゲームの項目が選択されたと判別した場合はステッ
プS501に進む。ステップS501においては、ゲー
ム領域内に射的ゲームのゲーム画面22を表示するため
の表示制御を実行することになる。この表示制御も上述
したようにデータベース駆動部14が射的ゲームのプロ
グラムに基づいて表示制御を行うことで実現される。
In this case, first, in step S500, it is determined whether or not a predetermined operation for executing the shooting game has been performed. If it is determined in step S500 that a predetermined operation for executing the shooting game has been performed, for example, if it is determined that the shooting game item has been previously selected from the menu screen M shown in FIG. Proceed to. In step S501, display control for displaying the game screen 22 of the shooting game in the game area is executed. This display control is also realized by the database drive unit 14 performing display control based on the shooting game program as described above.

【0067】ステップS502においては、ゲーム領域
内に例えば矢24などの操作体が検出されたかどうかの
判別を行っており、ゲーム領域内に矢24を検出した場
合はステップS503に進む。なお、ステップS502
における矢24の検出処理は、矢24が検出されるまで
行われるものとする。
In step S502, it is determined whether an operating tool such as an arrow 24 has been detected in the game area. If an arrow 24 has been detected in the game area, the flow advances to step S503. Step S502
Is detected until the arrow 24 is detected.

【0068】続くステップS503においては、ステッ
プS502で検出された矢24の座標位置がゲーム画面
22として表示されている標的23の座標位置と一致し
ているかどうかの判別を行う。そして、ステップS50
3において、矢24の座標位置が標的23の座標位置と
一致していないと判別した場合は、ゲームオーバとする
ための制御処理を実行することになる。
In the following step S503, it is determined whether or not the coordinate position of the arrow 24 detected in step S502 matches the coordinate position of the target 23 displayed as the game screen 22. Then, step S50
In 3, if it is determined that the coordinate position of the arrow 24 does not match the coordinate position of the target 23, a control process for making the game over is executed.

【0069】また、ステップS503において、矢24
の座標位置が標的23の座標位置と一致したと判別した
場合は、ステップS504に進んで、矢24が標的23
に当たったことを示す何らかの表示画面の表示制御を実
行した後、ゲームオーバとする制御処理を実行すること
になる。
In step S503, the arrow 24
If it is determined that the coordinate position of the target 23 coincides with the coordinate position of the target 23, the process proceeds to step S504, and the arrow 24 indicates the target 23.
After the display control of some display screen indicating that the game has hit is executed, a control process for game over is executed.

【0070】<4、射的ゲーム(第2例)>図11は、
さらに本実施の形態とされるゲーム装置1によって射的
ゲームを実行させた場合の表示画面の一例が示されてい
る。なお、このような射的ゲームもまた半透明面2上に
表示されたメニュー画面Mから所定の項目を選択するこ
とで表示されるものである。
<4. Shooting Game (Second Example)> FIG.
Further, an example of a display screen when a shooting game is executed by the game apparatus 1 according to the present embodiment is shown. Note that such a shooting game is also displayed by selecting a predetermined item from the menu screen M displayed on the translucent surface 2.

【0071】この図11に示す射的ゲームもまた、先に
説明したボールラリーゲームや射的ゲーム(第1例)と
同様に例えば半透明面2全体がゲーム領域とされてお
り、このゲーム領域内に例えば複数の標的26を有する
ゲーム画面25が表示されるものである。そして、上記
図9に示した射的ゲーム(第1例)同様に、ゲーム画面
25として表示された標的26に目掛けて何らかの操作
体(この場合はボール27)を投げることによって標的
26を撃破して楽しむものである。この場合も半透明面
2上のゲーム領域に表示されるゲーム画面としての標的
26は、プロジェクタ5から半透明面2に対して投影さ
れた画像である。また、標的26にボール27が当たっ
た場合は、その当たった標的26を消去し、最終的に全
ての標的26が撃破されて、ゲーム画面から消去される
ことでゲームオーバーとされる。
In the shooting game shown in FIG. 11 as well, similarly to the ball rally game and the shooting game (first example) described above, for example, the entire semi-transparent surface 2 is used as a game area. For example, a game screen 25 having a plurality of targets 26 is displayed therein. Then, similarly to the shooting game shown in FIG. 9 (first example), the target 26 is defeated by throwing any operation tool (the ball 27 in this case) toward the target 26 displayed as the game screen 25. And enjoy it. Also in this case, the target 26 as a game screen displayed in the game area on the translucent surface 2 is an image projected from the projector 5 onto the translucent surface 2. Further, when the ball 27 hits the target 26, the hit target 26 is erased, and finally all the targets 26 are destroyed and erased from the game screen, whereby the game is over.

【0072】このような射的ゲームを実行する場合もま
たメニュー画面Mから射的ゲーム(第2例)の項目が選
択された際に、制御装置6の入力画像処理部12から供
給される操作情報に基づいてデータベース駆動部14が
データベースメモリ15に格納された射的ゲームのプロ
グラムに従って適宜処理動作を実行することにより実現
される。この場合の制御装置6の処理動作は、上記図1
0に示した射的ゲーム(第1例)の処理動作に準じてい
るため、図10に示したフローチャートを参照しながら
説明する。この場合も上記ステップS500に示したよ
うに例えば半透明面2に表示されたメニュー画面Mから
射的ゲームの項目が選択されたと判別した場合は、半透
明面2上のゲーム領域内にゲーム画面25を表示するよ
うな表示制御を実行する(S501)。
When such a shooting game is executed, the operation supplied from the input image processing unit 12 of the control device 6 when the shooting game (second example) item is selected from the menu screen M is also performed. This is realized by the database driving unit 14 appropriately executing a processing operation in accordance with the shooting game program stored in the database memory 15 based on the information. The processing operation of the control device 6 in this case is described in FIG.
Since the processing operation is based on the processing operation of the shooting game (first example) shown in FIG. 0, it will be described with reference to the flowchart shown in FIG. Also in this case, as shown in step S500, for example, when it is determined that the item of the shooting game is selected from the menu screen M displayed on the translucent surface 2, the game screen is displayed in the game area on the translucent surface 2. The display control to display the number 25 is executed (S501).

【0073】そして、ステップS502に示したように
ゲーム領域内に操作体であるボール27が検出されたか
どうかの判別を行い、ゲーム領域内にボール27を検出
したと判別した場合は、このボール27の座標位置が標
的26の座標位置と一致しているかの判別を行う(S50
3)。そして、ボール27の座標位置が標的26の座標
位置と一致していれば、その座標位置に表示された標的
26の画像を消去するような表示制御を実行する。そし
て、ゲーム領域内に表示されている全ての標的26が消
去されたと判別した場合は、例えば全ての標的26が撃
破されたことを示す何らかの表示制御を実行した後、ゲ
ームオーバとするための表示制御を実行するようにすれ
ば良い。
Then, as shown in step S502, it is determined whether or not the ball 27 which is the operating body is detected in the game area. If it is determined that the ball 27 is detected in the game area, the ball 27 is detected. It is determined whether the coordinate position of the target 26 matches the coordinate position of the target 26 (S50).
3). Then, if the coordinate position of the ball 27 matches the coordinate position of the target 26, display control is executed to delete the image of the target 26 displayed at the coordinate position. When it is determined that all the targets 26 displayed in the game area have been deleted, for example, after performing some display control indicating that all the targets 26 have been destroyed, a display for game over is executed. What is necessary is just to perform control.

【0074】<5、他の実施の形態としてのゲーム装置
の構成>ところで、本実施の形態のゲーム装置として
は、図1に示す構成から赤外線LEDパネル3を省略す
ることも可能である。例えば、本発明に基づくゲーム装
置を屋外などの外光の強い環境で使用する場合は、日中
の自然光に含まれる赤外線が強いために、図1に示すよ
うな赤外線LEDパネル3から照射される赤外線光を操
作情報検出用の光源とする構成では、赤外線LEDパネ
ル3から照射される赤外線光の強度が自然光に含まれる
赤外線に対して相対的に弱まるので、場合によっては適
切な操作情報の検出が行われない(つまり操作情報を認
識可能な適正な検出画像情報が得られない)可能性があ
る。
<5. Configuration of Game Apparatus as Another Embodiment> As the game apparatus of the present embodiment, the infrared LED panel 3 can be omitted from the configuration shown in FIG. For example, when the game device according to the present invention is used in an environment with strong external light such as outdoors, the infrared light included in daylight natural light is strong, so that the infrared LED panel 3 as shown in FIG. In the configuration in which the infrared light is used as the light source for detecting the operation information, the intensity of the infrared light emitted from the infrared LED panel 3 is relatively weaker than the infrared light included in the natural light. May not be performed (that is, appropriate detected image information that can recognize the operation information may not be obtained).

【0075】そこで、このような場合には、赤外線LE
Dパネル3を省略し、その代わりに自然光に含まれる赤
外線光を操作情報検出用の光源として利用することがで
きる。この場合、検出画像情報を得るために必要な基準
入力画像レベルLintは、例えば接近体及び操作体等
の検出対象が無い(半透明面2に対して何の操作も行わ
れていない)とされる状態のもとで、その前面側から半
透明面2を透過してCCDカメラ4において撮像される
撮像信号から得た画像情報に基づいて検出するようにさ
れる。
Therefore, in such a case, the infrared ray LE
The D panel 3 is omitted, and instead, infrared light included in natural light can be used as a light source for detecting operation information. In this case, the reference input image level Lint required to obtain the detected image information is, for example, such that there is no detection target such as an approaching body or an operating body (no operation is performed on the translucent surface 2). In this state, the detection is performed based on image information obtained from an image pickup signal transmitted through the translucent surface 2 from the front side and imaged by the CCD camera 4.

【0076】そして、例えば半透明面2に対して何らか
の操作が行われるとすると、このときの半透明面2にお
ける接近体及び操作体などの部分をCCDカメラ4側か
らみた場合には、接近体及び操作体などにより自然光の
赤外線が遮られることから、これを自然光に含まれる赤
外線光の影として見ることができる。本実施の形態のい
制御装置6では、基準入力画像レベルLintに対し
て、画像レベルがより低くなる(暗くなる)ようにして
変化する画像情報を操作情報として扱うことになる。こ
の場合、図2に示す制御装置6の内部構成としては、赤
外線LEDパネル3が省略されたことに応じて、LED
駆動部10が設けられないことになる。
If any operation is performed on the translucent surface 2, for example, when the approaching body and the operating body on the translucent surface 2 are viewed from the CCD camera 4, the approaching body In addition, since the infrared rays of the natural light are blocked by the operating body and the like, this can be seen as a shadow of the infrared light included in the natural light. In the control device 6 according to the present embodiment, image information that changes so that the image level becomes lower (darker) than the reference input image level Lint is treated as operation information. In this case, the internal configuration of the control device 6 shown in FIG.
The drive unit 10 is not provided.

【0077】また、本実施の形態のゲーム装置として
は、図1に示す構成において、例えば赤外線LEDパネ
ル3の代わりにマイクロ波発生器を設け、また、CCD
カメラ4の代わりにマイクロ波受信器を設けて構成する
ことも考えられる。この場合、図2に示す制御装置6に
おいては、LED駆動部10(図1参照)の代わりに、
マイクロ波発生器を駆動するためのマイクロ波駆動回路
が備えられる。また、マイクロ波受信器から供給される
受信マイクロ波を入力して例えば所定形式のデータに変
換して出力する画像信号入力回路と、この画像信号入力
回路から供給されるマイクロ波の受信データを入力して
所要の処理を行うことにより、例えば検出画像情報を得
ると共にこの検出画像情報に基づいて操作情報を得る入
力データ処理回路が設けられる必要がある。画像信号入
力回路及び入力データ処理回路は、それぞれ図2に示す
画像入力部11及び入力画像処理部12に代わる機能回
路部である。また、操作情報検出用の媒体としてマイク
ロ波を利用するため、CCDカメラ4に備えられた赤外
線透過フィルタ4aや、プロジェクタ5に備えられた赤
外線遮断フィルタ5aは不要となる。
Further, as a game device of the present embodiment, in the configuration shown in FIG. 1, for example, a microwave generator is provided instead of the infrared LED panel 3, and
A configuration in which a microwave receiver is provided instead of the camera 4 is also conceivable. In this case, in the control device 6 shown in FIG. 2, instead of the LED drive unit 10 (see FIG. 1),
A microwave drive circuit for driving the microwave generator is provided. Also, an image signal input circuit that receives a microwave supplied from a microwave receiver, converts the received microwave into, for example, data in a predetermined format, and outputs the received signal. Then, it is necessary to provide an input data processing circuit which obtains detected image information and obtains operation information based on the detected image information by performing required processing. The image signal input circuit and the input data processing circuit are functional circuit units that replace the image input unit 11 and the input image processing unit 12 shown in FIG. 2, respectively. Further, since microwaves are used as a medium for detecting operation information, the infrared transmission filter 4a provided in the CCD camera 4 and the infrared cutoff filter 5a provided in the projector 5 become unnecessary.

【0078】このように、それが照射された物体に反射
する性質を有するマイクロ波のような媒体を操作情報の
検出に利用するように構成しても、これまで説明してき
た実施の形態(赤外線を操作情報の検出に利用した例)
と同様にして本発明としてのゲーム装置を構成すること
が可能である。
As described above, even if the medium such as a microwave having the property of reflecting the object irradiated with the medium is used for detecting the operation information, the embodiment described so far (infrared ray Example of using to detect operation information)
It is possible to configure the game device as the present invention in the same manner as described above.

【0079】なお、これまで説明した本発明のゲーム装
置で実行可能とされるゲームは、あくまでも一例であ
り、これに限定されることなく他にも各種考えられるも
のである。また、本実施の形態においては音声出力系の
説明は省略したが、各種ゲーム音声の出力を行うことは
可能である。また、本実施の形態においては、半透明面
2が垂直に設置された状態(壁面状)とした場合につい
て説明したきたが、本発明としての半透明面2の機能
(表示パネル機能及び操作パネル機能)を考慮すればこ
れに限定されることなく、水平に設置したり、あるいは
半透明面2を球面状などの曲面として形成することも可
能である。
The game that can be executed by the game device of the present invention described above is merely an example, and the present invention is not limited to this, and various other games can be considered. Although the description of the audio output system is omitted in the present embodiment, it is possible to output various game sounds. Further, in the present embodiment, the case where the translucent surface 2 is set vertically (wall shape) has been described, but the function of the translucent surface 2 (display panel function and operation panel) as the present invention is described. Considering (function), the present invention is not limited to this, and it is also possible to install horizontally or to form the translucent surface 2 as a curved surface such as a spherical surface.

【0080】[0080]

【発明の効果】以上、説明したように本発明は、所定の
波長帯域の光又は電磁波を反射するなどして、これに状
態変化(この状態変化が検出画像情報として反映され
る)を与えることのできる物体で有れば、操作を行うた
めの操作体として成立するものである。つまりユーザが
自身の腕やボールなどを使って自由度の高い入力操作を
行うことでができる。また、半透明面は低コストで容易
に大型化することが可能なため、この半透明面に投影表
示手段から各種ゲーム画面を投影することによって表示
パネルとして機能させた場合は、直接的な入力操作を行
うことが可能になり、よりリアリティのあるゲームを楽
しむことができる。
As described above, according to the present invention, the light or the electromagnetic wave of a predetermined wavelength band is reflected to give a state change (this state change is reflected as detected image information). If the object can be operated, the object is established as an operating body for performing an operation. That is, the user can perform an input operation with a high degree of freedom using his / her arm or ball. In addition, since the translucent surface can be easily enlarged at a low cost, if the game display screen functions as a display panel by projecting various game screens on the translucent surface, direct input is not possible. The operation can be performed, and a more realistic game can be enjoyed.

【0081】また、本発明の場合は例えばCRTなどの
表示デバイスにより表示される画像を直接見るのではな
く半透明面に投影表示された画像を例えば大画面で見る
ことになるため、長時間ゲームを行った場合でもユーザ
の目に特に負担をかけることがなく、しかもユーザが全
身を動かして健康的にゲームを行うことができる。
In the case of the present invention, an image projected and displayed on a translucent surface is viewed on a large screen, for example, instead of directly viewing an image displayed on a display device such as a CRT. When the game is performed, the user does not particularly burden the eyes, and the user can play the game healthy by moving his / her whole body.

【0082】そして、例えばCRTや液晶ディスプレイ
などの表示デバイスや、タッチパネル、トラックパッド
などを併用して本発明と同等の効果を有するゲーム装置
を得ようとした場合には、その構成も複雑になってコス
トも相当にかかるなどの問題があるが、本発明では上述
のごとき効果を得るのにあたり、単なる半透明面と、こ
の半透明面に対して行われた操作を検出するための撮像
装置と、上記半透明面に対してゲーム用画像等を表示す
る投影表示装置等が備えられればよく、より簡略な構成
によってこれを実現することができる。
When a game device having the same effect as the present invention is obtained by using a display device such as a CRT or a liquid crystal display, a touch panel, a track pad, or the like in combination, the configuration becomes complicated. However, in the present invention, in order to obtain the above-described effects, a simple translucent surface and an imaging device for detecting an operation performed on the translucent surface are required. A projection display device or the like for displaying a game image or the like on the translucent surface may be provided, and this can be realized with a simpler configuration.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態としてのゲーム装置の構成
例を示す概念図である。
FIG. 1 is a conceptual diagram showing a configuration example of a game device as an embodiment of the present invention.

【図2】本発明の実施の形態としてのゲーム装置に備え
られる制御装置の内部構成を示す図である。
FIG. 2 is a diagram showing an internal configuration of a control device provided in the game device according to the embodiment of the present invention.

【図3】基準入力画像レベルを検出及び保持するための
処理動作を示すフローチャートである。
FIG. 3 is a flowchart illustrating a processing operation for detecting and holding a reference input image level.

【図4】検出画像情報を生成するための処理動作を示す
フローチャートである。
FIG. 4 is a flowchart illustrating a processing operation for generating detected image information.

【図5】本実施の形態のゲーム装置における基本的な操
作例を示す説明図である。
FIG. 5 is an explanatory diagram showing a basic operation example in the game device of the embodiment.

【図6】図5に示す操作を実現するための処理動作を示
すフローチャートである。
FIG. 6 is a flowchart showing a processing operation for realizing the operation shown in FIG. 5;

【図7】本実施の形態のゲーム装置においてボールラリ
ーゲームを実行させた時の表面画像を示した図である。
FIG. 7 is a diagram showing a front surface image when a ball rally game is executed in the game device of the present embodiment.

【図8】図7に示したボールラリーゲームを実行するた
めの処理動作を示すフローチャートである。
8 is a flowchart showing a processing operation for executing the ball rally game shown in FIG.

【図9】本実施の形態のゲーム装置において射的ゲーム
を実行させた時の表面画像を示した図である。
FIG. 9 is a diagram showing a surface image when a shooting game is executed in the game device of the present embodiment.

【図10】図9に示した射的ゲームを実行するための処
理動作を示すフローチャートである。
FIG. 10 is a flowchart showing a processing operation for executing the shooting game shown in FIG. 9;

【図11】本実施の形態のゲーム装置において射的ゲー
ムを実行させた時の表面画像を示した図である。
FIG. 11 is a diagram showing a surface image when a shooting game is executed in the game device of the present embodiment.

【符号の説明】[Explanation of symbols]

1 ゲーム装置、2 半透明面、3 赤外線LEDパネ
ル、4 CCDカメラ、5 プロジェクタ、6 制御装
置、10 LED駆動部、11 画像入力部、12 入
力画像処理部、13 しきい値制御部、14 データベ
ース駆動部、15 データベースメモリ、16 画像生
成部、17 画像合成部、18 RGB信号生成部、2
1 27 ボール、22 25 ゲーム画面、23 2
6 標的、24 矢
1 game device, 2 translucent surface, 3 infrared LED panel, 4 CCD camera, 5 projector, 6 control device, 10 LED drive unit, 11 image input unit, 12 input image processing unit, 13 threshold control unit, 14 database Drive unit, 15 database memory, 16 image generation unit, 17 image synthesis unit, 18 RGB signal generation unit, 2
127 balls, 22 25 Game screen, 23 2
6 targets, 24 arrows

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 半透明面と、 上記半透明面側の方向から入射する所定の波長帯域の光
又は電磁波のみを像として捉える撮像手段と、 上記撮像手段から入力された撮像信号に基づいて、上記
半透明面に対して与えられた操作が反映される検出用画
像情報を生成し、この検出用画像情報に基づいて識別し
た操作情報に基づいて所要の制御処理を実行する制御処
理手段と、 上記撮像手段が撮像すべき光又は電磁波の波長帯域を含
まない可視光による画像を上記半透明面に対して投影表
示可能に設けられる投影表示手段とを備え、 上記制御処理手段は、上記操作情報に基づいて、所定の
規則に従って表示形態が変化するゲーム用画像を投影表
示させるための、上記投影表示手段に対する表示制御を
実行可能に構成されていることを特徴とするゲーム装
置。
1. A translucent surface, an imaging unit that captures only light or an electromagnetic wave of a predetermined wavelength band incident from a direction on the translucent surface side as an image, and an imaging signal input from the imaging unit, Control processing means for generating detection image information in which the operation given to the translucent surface is reflected, and performing a required control process based on the operation information identified based on the detection image information, Projection display means provided so as to be capable of projecting and displaying an image of visible light not containing the wavelength band of light or electromagnetic waves to be imaged by the imaging means on the translucent surface, wherein the control processing means A display control for the projection display means for projecting and displaying a game image whose display form changes in accordance with a predetermined rule based on a game rule. Location.
【請求項2】 上記撮像手段が受像すべき所定の波長帯
域の光又は電磁波を上記半透明面に対して輻射する輻射
手段を備えていることを特徴とする請求項1に記載のゲ
ーム装置。
2. The game device according to claim 1, further comprising a radiating unit that radiates light or an electromagnetic wave in a predetermined wavelength band to be received by the imaging unit to the translucent surface.
JP19973097A 1997-07-25 1997-07-25 Game machine Withdrawn JPH1142366A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19973097A JPH1142366A (en) 1997-07-25 1997-07-25 Game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19973097A JPH1142366A (en) 1997-07-25 1997-07-25 Game machine

Publications (1)

Publication Number Publication Date
JPH1142366A true JPH1142366A (en) 1999-02-16

Family

ID=16412674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19973097A Withdrawn JPH1142366A (en) 1997-07-25 1997-07-25 Game machine

Country Status (1)

Country Link
JP (1) JPH1142366A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7444201B2 (en) * 2003-06-06 2008-10-28 Siemens Aktiengesellschaft Machine tool or production machine with a display unit for visually displaying operating sequences
JP2009295031A (en) * 2008-06-06 2009-12-17 Canon Inc Image projection device and its control method
JP2012064201A (en) * 2010-08-19 2012-03-29 Semiconductor Energy Lab Co Ltd Input-output device and driving method for input-output device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7444201B2 (en) * 2003-06-06 2008-10-28 Siemens Aktiengesellschaft Machine tool or production machine with a display unit for visually displaying operating sequences
JP2009295031A (en) * 2008-06-06 2009-12-17 Canon Inc Image projection device and its control method
JP2012064201A (en) * 2010-08-19 2012-03-29 Semiconductor Energy Lab Co Ltd Input-output device and driving method for input-output device
JP2016173829A (en) * 2010-08-19 2016-09-29 株式会社半導体エネルギー研究所 Method for manufacturing input-output device, and input-output device

Similar Documents

Publication Publication Date Title
US9235292B2 (en) Interactive projector system and method
US10831278B2 (en) Display with built in 3D sensing capability and gesture control of tv
US6414672B2 (en) Information input apparatus
US10635386B2 (en) Systems and methods for providing audio to a user based on gaze input
JP4883460B2 (en) Method and system enabling depth and direction detection when interfacing with a computer program
US10055191B2 (en) Systems and methods for providing audio to a user based on gaze input
US6791531B1 (en) Device and method for cursor motion control calibration and object selection
US6952199B2 (en) Information extraction apparatus and method
US6400364B1 (en) Image processing system
KR101594023B1 (en) Laser beam shooting system
WO2014073607A1 (en) Darts game device
JPH1157216A (en) Game device
JP2009519105A (en) Method and system for enabling direction detection when interfacing with a computer program
JP2009140498A (en) Information input/output device and information input/output method
JP4296607B2 (en) Information input / output device and information input / output method
JPH1142366A (en) Game machine
JP4712754B2 (en) Information processing apparatus and information processing method
JP4687820B2 (en) Information input device and information input method
JP2001224853A (en) Game device and camera
JP4296606B2 (en) Electronic device and display method
JP3159906U (en) Image processing module
WO2019171830A1 (en) Information processing device, information processing method, and program
US9962606B2 (en) Game apparatus
JP7462010B2 (en) GAME PROGRAM, INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING DEVICE, AND GAME PROCESSING METHOD
US20230046528A1 (en) Device, method, apparatus, and medium for generating holographic stereoscopic image

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20041005