JPH1142366A - Game machine - Google Patents

Game machine

Info

Publication number
JPH1142366A
JPH1142366A JP19973097A JP19973097A JPH1142366A JP H1142366 A JPH1142366 A JP H1142366A JP 19973097 A JP19973097 A JP 19973097A JP 19973097 A JP19973097 A JP 19973097A JP H1142366 A JPH1142366 A JP H1142366A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
surface
infrared
machine
rays
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP19973097A
Other languages
Japanese (ja)
Inventor
Nobuyuki Matsushita
Jiyunichi Rekimoto
純一 暦本
伸行 松下
Original Assignee
Sony Corp
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Abstract

PROBLEM TO BE SOLVED: To provide a game machine by which users can healthfully play using the whole body. SOLUTION: This machine is provided with an infrared LED panel 3 emitting infrared rays to the rear surface side of an opaque surface 2, a CCD camera 4 picking up the image of the infrared rays entering from the side of the surface 2, and a projector 5 projecting and displaying a picture (not including the infrared rays) to the surface 2. As the reflected light quantity of infrared rays varies when a user operates on the front surface side of the surface 2, a controller 6 detects the variation of the reflected light quantity based on the image pickup signal of the camera 4 as detected picture information and the input operation of the game machine 1 is performed by operation information obtained based on this picture information. Thereby, various games using a computer by which the users can healthfully play using the whole body are provided.

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【発明の属する技術分野】本発明は、インタラクティブな入出力が可能な表示システムを利用したゲーム装置に関するものである。 The present invention relates to relates to a game device utilizing a display system capable of interactive input and output.

【0002】 [0002]

【従来の技術】例えばコンピュータ装置などでは、様々なプログラムやアプリケーションなどのもとで行うことができる各種ゲームがある。 In such BACKGROUND OF THE INVENTION For example, the computer system, there is a variety of games that can be carried out under such a variety of programs and applications. このようなゲームは、一般にユーザがコンピュータ装置のモニタ画面を見ながらマウスやキーボードあるいは専用のジョイスティック等の入力装置を操作することによって楽しむことができるようになっている。 Such games are typically the user is enabled to be enjoyed by operating the input device such as the joystick a mouse or a keyboard or a dedicated while watching the monitor screen of the computer device.

【0003】 [0003]

【発明が解決しようとする課題】しかしながら、上記したようなコンピュータ装置等を利用したゲームは、一般に屋内でしかも比較的小さいコンピュータ装置のモニタ画面を凝視した状態で行われるため、長時間ゲームを行った場合はユーザの目に負担がかかるという欠点が有った。 [SUMMARY OF THE INVENTION However, the game using a computer device or the like as described above, since generally carried out in a state where staring the monitor screen of the indoor, yet relatively small computing device, for a long time game If the there is a drawback in that it takes the burden in the eyes of the user. また、入力操作は、上記したようなマウスやキーボード或はジョイスティックなどの入力装置を単に指先だけで操作するため、体を動かす機会があまりなく健康的でない。 Further, input operation is simply to operate only with a fingertip input device such as a mouse or a keyboard, or a joystick as described above, it is not very without healthy opportunity to move the body.

【0004】そこで本発明は、例えばユーザの目に負担がかからない程度の比較的大画面のモニタ装置を用いて、しかもユーザが健康的に全身を動かして行うことができるようなゲーム装置を比較的簡易な構成により提供することを目的とする。 [0004] Accordingly, the present invention is, for example, by using a monitoring device of a relatively large screen of the extent to which the eyes of the user is not burdened, yet user is relatively a game device, such as can be performed by moving the healthy systemic and to provide a simple configuration.

【0005】 [0005]

【課題を解決するための手段】本発明は上記した課題を考慮して、半透明面と、この半透明面側の方向から入射する所定の波長帯域の光又は電磁波のみを像として捉える撮像手段と、この撮像手段から入力された撮像信号に基づいて、半透明面に対して与えられた操作が反映される検出用画像情報を生成し、この検出用画像情報に基づいて識別した操作情報に基づいて所要の制御処理を実行する制御処理手段と、撮像手段が撮像すべき光又は電磁波の波長帯域を含まない可視光による画像を半透明面に対して投影表示可能に設けられる投影表示手段とを備え、制御処理手段は、操作情報に基づいて、所定の規則に従って表示形態が変化するゲーム用画像を投影表示させるための、投影表示手段に対する表示制御を実行可能に構成されている。 SUMMARY OF THE INVENTION The present invention is in view of the problems described above, the translucent surface, image capturing means to capture only light or electromagnetic waves of a predetermined wavelength band that is incident from the direction of the translucent surface as an image If, based on the imaging signal input from the imaging means to generate a detection image information given operation with respect to the semi-transparent surface is reflected, to the identified operation information on the basis of the detected image information and control processing means executes a predetermined control processing based on a projection display means image pickup means is provided so as to be projected and displayed image by visible light without the wavelength band of light or electromagnetic waves to be imaged with respect to the translucent surface comprising a control processing means, based on the operation information, for projecting display the game image display mode is changed in accordance with a predetermined rule, it is configured to be able to execute display control for the projection display unit.

【0006】上記構成においては、例えば半透明面に近づいた物理的対象によって撮像手段に入射する光又は電磁波の状態が変化するのであるが、本発明ではこのような光又は電磁波の状態変化を画像情報として捉えることになる。 [0006] In the above configuration, for example, semi by physical object approaching the transparent surface while the state of the light or electromagnetic radiation incident on the imaging means is to vary, in the present invention the image a change in the state of such light or electromagnetic waves It will be regarded as information. そして、このようにして得られる撮像情報を操作情報としている。 Then, and the imaging information obtained in this manner and the operation information. つまり、半透明面の付近において何らかの物理的対象を近づけたり動かしたりすることによって操作情報を与えることができるようにしている。 That is, to be able to provide the operation information by or move closer to some physical object in the vicinity of the translucent surface. また、この半透明面に対して投影表示手段から画像を投影表示することができるようにしている。 Also to be able to project display images from the projection display unit with respect to the translucent surface.

【0007】 [0007]

【発明の実施の形態】以下、本発明の実施の形態としてのゲーム装置について説明する。 BEST MODE FOR CARRYING OUT THE INVENTION The following describes a game apparatus as an embodiment of the present invention. なお、以降の説明は次の順序で行う。 Incidentally, since the description in the following order. <1、ゲーム装置の構成及び操作情報の検出動作> <2、ボールラリーゲーム> <3、射的ゲーム(第1例)> <4、射的ゲーム(第2例)> <5、他の実施の形態としてのゲーム装置の構成> <1, the detection operation of the configuration and operation information of the game apparatus> <2, ball rally game> <3, shooting game (first example)> <4, shooting game (second example)> <5, the other structure of a game device according to an embodiment>

【0008】<1、ゲーム装置の構成及び操作情報の検出動作>先ず、図1〜図6を参照して、本発明の実施の形態としてのゲーム装置の構成例及び基本的な操作情報の検出動作について説明する。 [0008] <1, the configuration and operation of detecting operation information of the game apparatus> First, with reference to FIGS detection configuration example and the basic operation information of the game apparatus according to an embodiment of the present invention the operation will be described. 図1は、本実施の形態としてのゲーム装置の構成例を概念的に示したものである。 Figure 1 is a configuration example of a game apparatus according to the present embodiment conceptually shown. この図に示すゲーム装置1は、半透明面2、赤外線発光ダイオード素子(LED:Light Emitted Diode The game apparatus 1 shown in this figure, the semi-transparent surface 2, an infrared light emitting diode elements (LED: Light Emitted Diode
)パネル3、CCD(Charge Coupled Device) カメラ4、プロジェクタ5、及び制御装置6を備えて構成される。 ) Panel 3, CCD (Charge Coupled Device) camera 4, and includes a projector 5, and a control unit 6. 赤外線LEDパネル3、CCDカメラ4、及びプロジェクタ5は半透明面2の背面側に対して設けられる。 Infrared LED panel 3, CCD camera 4, and the projector 5 are provided to the back side of the translucent surface 2.

【0009】半透明面2は、例えば透明なガラス板に対してトレーシングペーパーのような見え方をする半透明膜を貼り合わせる、あるいは磨りガラスのような半透明の性質を有するものを利用するなどして形成され、後述するようにして当該ゲーム装置1における操作パネルと表示パネルとの両者の機能を併せ持つ。 [0009] Translucent surface 2 utilizes those with translucent properties such as, for example, bonding the translucent film to the appearance, such as tracing paper against a transparent glass plate or ground glass is formed by, for example, combines the functions of both the control panel and the display panel in the game apparatus 1 as described later. 赤外線LEDパネル3は、例えばパネル面に対して多数の赤外線LED Infrared LED panel 3, for example, a number of IR LED to a panel surface
が集合的に配列されることによって構成され、上記赤外線LEDから発光出力される赤外線光が半透明面の背面全体に対して照射されるように設けられる。 There is constituted by being collectively arranged, it is provided as the infrared light emitted outputted from the infrared LED is irradiated to the entire back surface of the semi-transparent surface. 上記赤外線LEDは制御装置6によって定常的に赤外線を発光するように駆動される。 The infrared LED is driven to emit constantly infrared by the control device 6. なお、赤外線LEDパネル3としては、発光出力される赤外線光が半透明面2全体に対して照射されるのに充分な数の赤外線LEDが設けられればよい。 As the infrared LED panel 3, the infrared light emission output sufficient number of IR LED is only to be provided to be irradiated to the entire translucent surface 2. また、後述するように、初期の赤外線画像に対する現在の赤外線画像の差分に基づいて半透明面2側から反射してくる画像情報を得るようにされることから、半透明面2全体に対して照射される赤外線光量が一律であるべき必要もない。 As will be described later, from being to obtain the image information based on the difference of the current infrared image to the initial infrared image reflected from semitransparent surface 2 side, for the entire translucent surface 2 infrared amount of light irradiated is not necessary to be uniform. 従って赤外線LEDパネル3のサイズは、半透明面2よりもはるかに小さいもので済ませることができる。 Thus the size of the infrared LED panel 3 may be dispensed with much smaller than the semi-transparent surface 2.

【0010】CCDカメラ4は、撮像素子としてCCD [0010] CCD camera 4, CCD as an image pickup device
を用いたカメラ装置であり、この場合には、半透明面2 A camera apparatus using, in this case, the semi-transparent surface 2
に映る画像光として赤外線光の成分のみを撮像することにより、半透明面2に対して行われた操作を画像情報として認識するために設けられる。 By imaging only a component of infrared light as image light reflected on, it is provided for recognizing an operation performed on the translucent surface 2 as the image information. このため、CCDカメラ4の光学系の部位に対しては、赤外線領域の波長帯域のみを透過する赤外線透過フィルタ4aが設けられる。 Therefore, with respect to the site of the optical system of the CCD camera 4, an infrared transmission filter 4a is provided for transmitting only the wavelength band of the infrared region.
また、CCDカメラ4により撮影されるアングルとして半透明面2全体が含まれるようにその配置位置が設定される。 Further, the arrangement position to include a translucent surface 2 as a whole is set as the angle which is photographed by the CCD camera 4.

【0011】プロジェクタ5は、制御装置6から供給される画像情報に基づいて、可視光による画像光を半透明面2の背面に対して投影表示する。 [0011] The projector 5 based on the image information supplied from the control unit 6, projected and displayed image light by the visible light to the back of the semi-transparent surface 2. 例えばユーザは、半透明面2に投影表示されたプロジェクタ5の画像を、半透明面2の前面側から観察することができる。 For example, the user, the image of the projector 5 which is projected and displayed on a translucent surface 2, can be observed from the front side of the semi-transparent surface 2. ここで、 here,
プロジェクタ5の光学系には赤外線領域の波長を遮断する赤外線遮断フィルタ5aが設けられているが、これにより、半透明面2に投影表示される画像光には赤外線が含まれなくなるため、プロジェクタ5の投影画像は、C Since Although infrared filter 5a to block the wavelength of the infrared region in the optical system of the projector 5 is provided, thereby, it will not contain infrared in the image light projected displayed translucent surface 2, the projector 5 the projected image of, C
CDカメラ4からは不可視となる。 It becomes invisible to the CD camera 4.

【0012】制御装置6は、例えばマイクロコンピュータを備えて構成され、CCDカメラ4から供給される撮像信号から画像情報(映像データ)を得て、更にこの画像情報をもとに操作情報を得る。 [0012] The control device 6, for example, is configured with a microcomputer, to obtain image information (video data) from the image signal supplied from the CCD camera 4 to obtain further operation information the image information based. そして、この操作情報に基づいて、例えばプロジェクタ5により半透明面2に表示させる画像に関する表示制御を実行する他、各種所要の制御処理を行う。 Then, based on the operation information, for example, addition to running a display control to an image to be displayed on a translucent surface 2 by the projector 5, performs various necessary control processing. また、赤外線LEDパネル3の赤外線LEDの発光駆動を行う。 Also performs light emission driving of the infrared LED of the infrared LED panel 3. なお、上記赤外線LED In addition, the infrared LED
パネル3、CCDカメラ4及びプロジェクタ5の配置位置は、それぞれが果たすべき役割が充分機能することを考慮して設定されればよい。 Position of the panel 3, CCD camera 4 and the projector 5 may be set in consideration of the fact that each role to play is sufficiently function.

【0013】図2は、上記制御装置6の内部構成例を示すブロック図である。 [0013] Figure 2 is a block diagram showing an internal configuration example of the control device 6. この図に示す制御装置6において、LED駆動部10は、赤外線LEDパネル3に設けられた複数の赤外線LEDを発光駆動するための回路部位である。 The control device 6 shown in FIG, LED driver 10 is a circuit portion for light emission driving a plurality of infrared LED provided on the infrared LED panel 3. 画像入力部11は、CCDカメラ4から供給された撮像信号について所要の信号処理を施すことによって映像信号を生成して入力画像処理部12に供給する。 The image input unit 11 supplies the input image processing unit 12 generates a video signal by performing predetermined signal processing on the imaging signal supplied from the CCD camera 4. つまり、画像入力部11では、半透明面2側からC That is, in the image input unit 11, C translucent surface 2 side
CDカメラ4を介して入射してきた赤外線光を映像情報として出力する。 Infrared light which enters through the CD camera 4 outputs as image information.

【0014】入力画像処理部12では、例えば画像入力部11から供給された映像信号をデジタル信号による映像信号データに変換する。 [0014] In the input image processing unit 12, for example, converts the video signal supplied from the image input unit 11 to the video signal data according to a digital signal. 入力画像処理部12においては、この映像信号データに基づいて得られる「画像情報(例えばフレーム単位の映像データ)」を利用して所要の解析処理等を実行することで、半透明面2に対して行われた操作情報を得るようにされる。 In the input image processing section 12, by executing the required analysis process or the like using the "image information (e.g., video data in units of frames)" obtained based on the video signal data, to the semi-transparent surface 2 It is to obtain the operation information was performed Te. ここで画像情報に基づいて得られる操作情報としては、例えば、半透明面2に対して操作を行っている操作体の画像上の位置(座標)や画像の信号レベルなどが用いられる。 The operation information obtained based here on the image information, for example, such as a signal level of the position (coordinates) and images on the image of an operator is performing operations on the translucent surface 2 is used. この操作情報はデータベース駆動部14に伝送される。 The operation information is transmitted to the database driver 14. また、上記映像信号データは、画像合成部17に対しても供給可能とされている。 Further, the video signal data is capable also supplied to the image synthesizing unit 17.

【0015】しきい値制御部13は、入力画像処理部1 The threshold value control unit 13, the input image processing unit 1
2にて実行される操作情報に関する処理に必要なしきい値を設定して入力画像処理部12に伝送する。 Set the threshold necessary for the processing related to the operation information to be executed in 2 transmits the input image processing section 12. 上記入力画像処理部12では、しきい値制御部13において設定されるしきい値を利用して画像情報について解析を行うなど所要の処理を実行することで操作情報を得る。 In the input image processing section 12 obtains the operation information by performing the required processing such as performing analyzes on the image information using a threshold value set in the threshold value control unit 13. また、本実施の形態では後述するようにして入力画像データのフレーム差分を算出することにより、現在の半透明面2の画像状態(検出画像情報)を得るようにされるが、フレーム差分演算に利用する基準値(基準画像入力レベル)等の情報も、後述するようにして、しきい値制御部13に格納されるものとする。 Further, by calculating the frame difference between the input image data as described later in this embodiment, is to obtain the current image state of a translucent surface 2 (detection image information), the frame difference calculation information such as the reference value used (reference image input level) also as described later, shall be stored in the threshold value control unit 13.

【0016】データベース駆動部14は、入力画像処理部12により得られた操作情報を取り込み、この操作情報に基づいて適宜所要の処理を実行する。 The database driver 14, captures the operation information obtained by the input image processing section 12 performs required processing appropriately based on the operation information. この際、データベース駆動部14が実行すべき制御処理に必要なプログラムデータはデータベースメモリ15に格納されており、データベース駆動部14は、このデータベースメモリ15に格納されたプログラムデータに基づいて所要の制御処理を実行することになる。 In this case, the program data necessary for control processing database driver 14 to be executed are stored in the database memory 15, a database driver 14, a required control on the basis of program data stored in the database memory 15 It will execute the processing. 特に、本実施の形態では後述する各種ゲームの処理を実行するためのゲームプログラムがデータベースメモリ15に格納されることになる。 In particular, so that the game program for executing the processing of various game which will be described later is stored in the database memory 15 in this embodiment.

【0017】画像生成部16は、データベース駆動部1 The image generating unit 16, a database driver 1
4の制御によって、必要な画像データ(デジタル信号による映像信号データ)を生成して画像合成部17に出力する。 The control of 4, and outputs to the image synthesizing unit 17 generates necessary image data (video signal by digital signal data). 画像合成部17においては、必要があれば上記画像生成部16から供給された映像信号データに対して、 In the image synthesizing unit 17, the video signal data supplied from the image generation unit 16 if necessary,
入力画像処理部12から供給された映像信号データを合成してRGB信号生成部18に対して出力する。 It synthesizes the video signal data supplied from the input image processing section 12 outputs the RGB signal producing unit 18. RGB RGB
信号生成部18では、上記画像合成部17から供給された映像信号データについて、例えばアナログによるRG The signal generating unit 18, the video signal data supplied from the image synthesizing unit 17, for example, RG by Analog
B信号に変換してプロジェクタ5に対して出力する。 And B signals to output to the projector 5. これにより、プロジェクタ5からは、半透明面2に対して行われる操作に応答した映像による画像光が半透明面2 Thus, from the projector 5, an image light by the image in response to an operation performed on the translucent surface 2 a translucent surface 2
に対して照射出力されることになる。 It is to be illuminated output to.

【0018】上記したように、本実施の形態とされるゲーム装置では、半透明面2が入力操作部として機能する。 [0018] As described above, the game apparatus which is the embodiment, the semi-transparent surface 2 serves as an input operation unit. そこで、先ず上記構成による本実施の形態のゲーム装置1における基本的な入力操作情報の検出方法について説明する。 Therefore, first described method for detecting the basic input operation information in the game apparatus 1 of this embodiment having the above structure. 上記した図1に示す半透明面2全体に対しては、その背面から赤外線LEDパネル3により赤外線光が照射されるのであるが、この赤外線光は半透明面2 Was for the entire translucent surface 2 shown in FIG. 1 above, the infrared LED panel 3 from the rear infrared light is being irradiated, the infrared light translucent surfaces 2
が半透明であることから、全ての赤外線光が半透明面2 Since There is translucent, all of the infrared light is a translucent surface 2
を通過するのではなく、幾分かの赤外線光が半透明面2 Rather than passing through the somewhat Kano infrared light translucent surfaces 2
の作用によって反射されることになる。 It will be reflected by the action. そして、本実施の形態においては半透明面2に対して何も操作が行われていないとされる状態のもとで、半透明面2にて反射される赤外線光をCCDカメラ4により撮像し、これにより得られる映像信号データの初期レベルを「基準入力画像レベル」として記憶する。 Then, in this embodiment under the condition where nothing operation on the translucent surface 2 are not performed, captured by the CCD camera 4 infrared light reflected by the semi-transparent surface 2 , it stores the initial level of the video signal data obtained by this as "reference input image level." この基準入力画像レベルは、入力された映像信号データに基づいて例えば1フレームにおける画素ごとの信号レベルを検出することにより行うようにすればよい。 The reference input image levels, may be performed by detecting the signal level of each pixel in the example 1 frame based on the input video signal data. この検出処理は、入力画像処理部12により行われるものとされる。 This detection process is intended to be performed by the input image processing section 12. このようにして検出された基準入力画像レベルの情報はしきい値検出部13に伝送され、ここで保持されることになる。 Information of the thus detected reference input image level is transmitted to the threshold detector 13 will be retained here.

【0019】上記基準入力画像レベルの検出処理は、例えば図3のフローチャートに示すものとなる。 The detecting process of the reference input image level, for example, as shown in the flowchart of FIG. この図に示すように、先ず入力画像処理部12では、ステップS As shown in this figure, the first input image processing unit 12, step S
101において、CCDカメラ4から画像入力部11を介して供給された映像信号から得られる1フレーム分の画像データに基づいて、上述のようにして画素ごとに信号レベルを検出し、この検出結果を基準入力画像レベルLintとして得る。 In 101, based on the image data for one frame obtained from the video signal supplied via the image input unit 11 from the CCD camera 4 to detect the signal level for each pixel as described above, the detection result obtained as the reference input image levels Lint. なお、具体的には画素ごとの輝度信号成分のレベルを検出してこれを基準入力画像レベルLintとすることが考えられる。 Note that specifically, it is considered that the reference input image levels Lint this by detecting the level of the luminance signal component of each pixel. 入力画像処理部12 Input image processing unit 12
は、続くステップS102において、上記基準入力画像レベルLintをしきい値制御部13に伝送して記憶させるように処理を実行する。 , In subsequent step S102, it performs processing so as to store and transmit the reference input image levels Lint the threshold control unit 13.

【0020】なお、基準入力画像レベルLintを検出してしきい値制御部13に記憶させる処理(上記図3に示す処理動作)は、例えば当該ゲーム装置1の電源オン時などに実行させたり、あるいは何らかのユーザの指示によって必要なときに基準入力画像レベルLintを更新させるように構成することが考えられる。 [0020] Incidentally, to detect the reference input image levels Lint process of storing the threshold control unit 13 (processing operation illustrated in FIG. 3), for example or to be performed, such as when the power-on of the game device 1, Alternatively it is conceivable to configure so as to update the reference input image levels Lint when needed by an instruction some user.

【0021】上記のようにして基準入力画像レベルLi [0021] As described above the reference input image level Li
ntの情報が保持された状態のもとで、操作情報として扱われる画像情報は次のようにして得るようにされる。 Under the state where the information of the nt is held, the image information handled as the operation information is to be as follows.
図4は、操作情報のもととなる画像情報(以下、この「画像情報」については特に「検出画像情報」という) 4, the image information which is the basis of operation information (hereinafter, referred to as the "image information" especially for "detection image information")
を得るための入力画像処理部12の処理動作を示すフローチャートである。 It is a flowchart showing a processing operation of the input image processing section 12 for obtaining a. この場合、入力画像処理部12は、 In this case, the input image processing unit 12,
先ずステップS201において現在の入力画像レベルL First current input image level in step S201 L
prsを検出する処理を実行する。 To execute a process of detecting the prs. ここでいう入力画像レベルLprsは、現在においてCCDカメラ4により撮像された、赤外線光に基づく半透明面2の画像についてのフレーム単位のデータであり、このフレーム単位の画像データにおける画素ごとの信号レベルを検出して得られる情報である。 The term input image level Lprs is captured by the CCD camera 4 in the current, a data frame for the translucent surface 2 of an image based on infrared light, the signal level of each pixel in the image data of the frame is information obtained by detecting.

【0022】続いて、入力画像処理部12はステップS [0022] Then, the input image processing unit 12 step S
202において、基準入力画像レベルLintと上記現在の入力画像レベルLprsの差分を演算する(L=L In 202, it calculates a reference input image levels Lint and the difference between the current input image levels LPRS (L = L
prs−Lint)ことによって差分入力画像レベルL prs-Lint) differential input image level L by
を算出する。 It is calculated. 具体的には、基準入力画像レベルLint Specifically, the reference input image levels Lint
と上記入力画像レベルLprsとして得られたデータ値を、同一位置の画素ごとに差分を求めることによって差分入力画像レベルLを得るようにされる。 And a data value obtained as the input image level LPRS, is to obtain a differential input image level L by calculating the difference for each pixel of the same position. 従って、差分入力画像レベルLとしては、常に基準入力画像レベルL Thus, the differential input image level L, always reference input image level L
intに対する現在の入力画像レベルLprsとの信号レベル差が画素ごとに得られることになる。 Signal level difference between the current input image levels Lprs for int will be obtained for each pixel. そして、入力画像処理部12は、ステップS203に進み、上記差分入力画像レベルLに基づいて、現在の検出画像情報(フレーム単位で画素ごとのレベル情報を有する形式の映像データ)を生成するようにされる。 Then, the input image processing unit 12 proceeds to step S203, based on the differential input image level L, so as to generate a current detection image information (format of the video data having a level information for each pixel in frame units) It is.

【0023】上記のごとき検出画像情報の検出動作を、 [0023] the detection operation of the above, such as detection image information,
実際のユーザの半透明面2の前面側での動きと共に説明する。 It is described along with the actual user movement on the front side of the translucent surface 2. 例えばユーザは、半透明面2の前面側において赤外線を反射可能な何らかの物体を利用して半透明面2の前面側において操作を行うようにするのであるが、ここでは、説明の簡単のためにユーザ自身の指や身体を用いることとする。 For example, a user, but is to perform some operation on the front side of using any object capable of reflecting the translucent surface 2 infrared at the front side of the semi-transparent surface 2, here, for simplicity of explanation and the use of a user's own fingers and other body. ここで、例えば図1に示すように半透明面2の前面側においてユーザが半透明面2から遠く離れた距離にいるときには、例えば半透明面2を通過してユーザの身体に反射するとされる赤外線光量は少ないことから、そのほとんどが半透明面2の前面から背面を通過して戻ることはない。 Here, for example, the user at the front side of the semi-transparent surface 2 as shown in FIG. 1 when you are in a distance far away from the semi-transparent surface 2, are reflected on the body of the user through for example a semi-transparent surface 2 since the infrared light amount is small, most will not return through the back from the front of the semi-transparent surface 2. このとき、上述した基準入力画像レベルLintと上記現在の入力画像レベルLprsとは同等であり、入力画像処理部12では、差分入力画像レベルLとしてほぼ0であると検出することになる。 This time is equivalent to the reference input image levels Lint and the current input image levels Lprs described above, the input image processing unit 12 will detect substantially 0 as the differential input image level L. つまり、差分入力画像レベルLに基づいて生成される検出画像情報としては、初期状態と同様の変化の無いとされる状態が得られることになる。 That is, as the detected image information is generated based on the differential input image level L, so that the state that is no similar change in the initial state is obtained.

【0024】ここで、例えば上記の状態からユーザが徐々に半透明面2に対して近づいていったとすると、半透明面2を通過してユーザの身体に反射する赤外線光のうち、半透明面2を通過して背面側に到達する光量が次第に増加していくことになる。 [0024] Here, for example, when a user from the above state is gradually approached relative to the translucent surface 2, the infrared rays light reflected on the body of the user through the semi-transparent surface 2, the semi-transparent surface so that the amount of light reaching the back surface through the 2 side gradually increases. この状態を、入力画像処理部12からみた場合には、ユーザの身体に対応する画像部分の基準入力画像レベルLintに対する現在の入力画像レベルLprsのレベルが徐々に増加していく状態として捉えられる。 This state, when viewed from the input image processing section 12 is regarded as a state in which the current input image levels Lprs level of the reference input image levels Lint image portion corresponding to the user's body gradually increases. これに応じて、検出画像情報としては算出される差分入力画像レベルLに応じて、半透明面2に接近するユーザの姿が徐々に捉えられていくことになる。 Accordingly, in response to the differential input image level L to be calculated as the detected image information, so that the appearance of the user approaching the translucent surface 2 is gradually caught gradually.

【0025】そして、半透明面2に対して例えばユーザの体が非常に接近した状態(しきい値の設定にもよるが例えば半透明面2から30cm以内)では、その人体に反射した赤外線光がほとんど半透明面2を通過して背面側に到達することになるので、その身体形状がより鮮明な状態の検出画像情報が生成されることになる。 [0025] Then, in the state in which the body of the user, for example with respect to the translucent surface 2 is very close (within 30cm from by but for example semi-transparent surface 2 to set the threshold), the infrared light reflected on the human body since There will reach almost to the back side through the semi-transparent surface 2, the body shape is the detection image information clearer state is generated.

【0026】また、ここでユーザがその身体を半透明面2からある程度距離を置いた状態で、例えば自身の指を手前にかざして半透明面2の非常に近い位置においたとする。 Further, where a state the user to put a certain distance the body from a translucent surface 2, for example placed their finger very close in by holding the front translucent surface 2. この場合、半透明面2に近接するユーザの指は他の身体部分よりも多くの赤外線光を反射するため、入力画像処理部12において得られる画像情報としては、ユーザの指にあたるに位置の画像領域のレベルが強く、その背景となる部分においてユーザの身体部分にあたる位置の画像領域のレベルは半透明面2からの距離に応じて弱くなることになる。 In this case, for a user close to the translucent surface 2 fingers to reflect more infrared light than other parts of the body, as the image information obtained in the input image processing unit 12, an image of the located corresponding to a user's finger strong level region, the level of the image area at a position corresponding to the body part of the user in the portion serving as the background will be weakened in accordance with the distance from the translucent surface 2. そして、例えばこの状態のもとで、しきい値制御部13にて設定された所定のしきい値と検出画像情報とを比較すれば、容易にユーザの指にあたる部分のみの画像を背景から分離させることが可能であり、同様にしきい値の設定によっては、半透明面2から離れた距離にあるユーザの身体部分のみを抽出した画像情報を得ることも可能である。 Then, for example, under this condition, the comparison between the detected image information with a predetermined threshold set by the threshold value control unit 13, easily separate the image corresponding to the user's finger portions only from the background it is possible to, by likewise threshold settings, it is possible to obtain an image information extracting only the body portion of the user at a distance away from the translucent surface 2. このようなしきい値は、前述のように実際に必要とされる条件に応じた値がしきい値制御部13において設定されるものである。 Such threshold is one value according to conditions that are actually required as described above is set in the threshold value control unit 13.

【0027】このようにして、半透明面2の前面側の状態を赤外線光に依る画像として検出する構成を採ることにより、本実施の形態ではこの半透明面2を例えばインタラクティブなインターフェイスのための入力操作部として機能させるようにしているため、次のような利点が得られる。 [0027] In this way, the front side of the semi-transparent surface 2 state by employing a configuration for detecting an image due to infrared light, in this embodiment for the semi-transparent surface 2, for example, interactive interface because it to function as an input operation unit, the following advantages are obtained. 先ず、本実施の形態では半透明面2側からの赤外線の反射光量によって得られる画像に基づいて操作情報を得ることになるので、操作を行うための操作体としては、特に特殊なポインティングデバイスを必要とせず、赤外線を反射する物体であればその種類は問わないことになる。 First, because in this embodiment will get the operation information based on the image obtained by the infrared reflected light from the semi-transparent surface 2 side, as the operation body for performing an operation, in particular special pointing device without the need that kind would not matter as long as the object that reflects infrared radiation. つまり、操作体としては、上述のように人体全体もしくはその一部や、その他の何らかの物体を問題なく使用することができる。 That is, as the operation body may be used without whole body or a part or the other some object problems as described above.

【0028】また、例えばタッチパネルなどでは操作パネル面に対して指などの操作体を接触させる必要があるが、本実施の形態の場合には操作体の位置や動きは赤外線光の反射として検出されればよいことから、半透明面2に操作体を接触させる必要性はなく、その前面の空間において操作を行うような方法を採ることができる。 Further, for example in a touch panel is required to contact the operating body such as a finger on the operation panel surface, the position and movement of the operation body in the case of the present embodiment will be detected as a reflected infrared light since Re, the need to contact the operating body translucent surface 2 is not, can take manner performs an operation in the space of the front face.

【0029】また、上述したように赤外線の反射光量は、操作体の半透明面2に対する距離に応じて変化するために、例えば操作体の半透明面2からの距離を操作情報として利用することも考えられる。 Further, the amount of light reflected infrared as described above, in order to vary depending on the distance to the semitransparent surface 2 of the operation body, for example, use to the distance from the translucent surface 2 of the operation body as the operation information It may be considered.

【0030】更に、半透明面2は上述のように例えば透明のガラス板などに対してトレーシングペーパーのような半透明の薄膜を組み合わせたり、磨りガラスのようなものを利用するなどの簡略な手段により構成可能とされ、特にパネルに固有の駆動回路などは不要なので、低コストで容易に大型化を実現することができ、この点で大型化が困難なタッチパネルなどとは大きく異なる。 Furthermore, brief, such a translucent surface 2 or the combination of semi-transparent thin film such as a tracing paper for example with respect to a transparent glass plate as described above, utilizing a kind of ground glass is a configurable by means, since the particular panel not required, such as specific driving circuit, can be realized easily size at low cost, large size is significantly different from such hard touch panel in this regard. そして、半透明面2側からの赤外線の反射光により得られる画像に基づいて操作情報を得ることで、画像認識さえ可能であれば複数の操作体を同時に認識して所要の制御を実行させることが可能である。 Then, by obtaining operation information based on the image obtained by the infrared light reflected from the semi-transparent surface 2 side, it if the image recognition even possible to recognize a plurality of operation bodies at the same time to perform the necessary control it is possible. つまり、複数の異なる操作対象に対する同時操作が可能となるものであり、特に半透明面2が大画面として構成される場合には半透明面2上のいろいろな領域を利用して異なる種類の操作を同時に行うことができることにもなるので非常に有効となる。 That, which co-operation on a plurality of different operation target is possible, in particular a translucent surface 2 when the different types using a variety of areas on the translucent surface 2 Operation configured as a large-screen since also it can be performed at the same time is very effective.

【0031】そして、半透明面2は画像表示パネルとしての機能も有することから、例えば後述するように操作対象となるメニュー画面のようなものを表示させた上で、ユーザがこのメニュー画面に対して指などにより操作を行えるようにするなどの直接的な操作を実現することも容易に可能となる。 [0031] Then, since the semi-transparent surface 2 also has a function as an image display panel, for example, on which one to display such as a menu screen to operate on as described below, the user to the menu screen that Te realizing direct operations such as to allow the like by operating a finger is also readily possible. このように、本実施の形態としてのゲーム装置1は、インタラクティブ表示システムを利用しているため、その操作情報を入力するのに多くの可能性が得られ、これまでには無かったようなインタラクティブな入出力環境を容易に構築することができる。 Thus, the game apparatus 1 as the present embodiment, because it uses the interactive display system, a number of possibilities is obtained for inputting the operation information, interactive, such as was not heretofore the Do input and output environment can be constructed easily.

【0032】本実施の形態としてのゲーム装置1では、 [0032] In the game apparatus 1 as this embodiment,
例えばメニュー画面を表示させて、適宜所要の操作を行うことにより、各種ゲームを実行するようにしている。 For example, to display the menu screen, by performing an appropriate predetermined operation, and to execute various game.
図5には、本実施の形態のゲーム装置1においてユーザがメニュー操作を行う場合が示されている。 5 shows, the user in the game apparatus 1 of this embodiment shows a case where a menu operation. なお、以降説明するメニュー画面に関する操作は、本実施の形態における半透明面2に対する操作の形態及びこれに伴う半透明面2に対する表示制御などの基本を成すものである。 The operation relating to a menu screen to be described later is to form the basis of a display control for the semi-transparent surface 2 with form and to the operation on the translucent surface 2 in this embodiment. また、図5においては半透明面2を前面側からみた状態が示されている。 Also state viewed translucent surface 2 from the front side is shown in FIG.

【0033】例えばこの図5に示すように、ユーザが半透明面2の前面に近づいたとすると、先ず、制御装置6 [0033] For example, as shown in FIG. 5, when the user is to close the front of the semi-transparent surface 2, first, the control unit 6
では、このときに得られる検出画像情報に基づいてユーザが近づいた半透明面2上の位置を認識する。 In recognizes the position on the translucent surface 2 the user has approached on the basis of the detected image information obtained at this time. そして、 And,
半透明面2上においてユーザが近づいたと認識された位置に対して、図5のようにメニュー画面Mを表示するように表示制御を行う。 With respect to the position which is recognized that the user has approached on the translucent surface 2, performs display control to display the menu screen M as shown in FIG. このメニュー画面Mは当然のこととしてプロジェクタ5から半透明面2に対して投影された画像である。 The menu screen M is an image that is projected onto the translucent surface 2 from the projector 5 as a matter of course.

【0034】そして、ユーザ自身が位置している付近の半透明面2上にメニュー画面Mが表示された状態のもとで、例えばユーザは自身の指を用いて、メニュー画面M [0034] Then, under the state in which the menu screen M on the semi-transparent surface 2 near is displayed the user himself are located, for example, a user may use their fingers, the menu screen M
において操作項目が表示されている任意の領域を指さすように指定したとする。 Operation item and specified as pointing at any area that is displayed in. このとき、ユーザの指先は、半透明面2上から3cm〜30cm程度の範囲内の距離にあるようにされる。 At this time, the user's fingertip is to a distance of within the range of about 3cm~30cm from above the semi-transparent surface 2.

【0035】これにより、例えばメニュー画面Mにおいては、ユーザが指し示した操作項目の領域が選択されたことを示す何らかの指示表示(例えば選択領域に対するカーソルの配置表示や所定の形態による強調表示など) [0035] Thus, for example, in the menu screen M, (such as highlighted by the arrangement display or a predetermined form of the cursor to the selected area) the user some indication indication that the area of ​​the operation item pointed is selected
が行われることになる。 So that is performed. この強調表示のための表示制御は、検出画像情報に基づいてユーザの指が指し示している領域の座標を検出することにより実現される。 Display control for the highlighting is realized by detecting the coordinates of a region where the user's finger is pointing on the basis of the detected image information.

【0036】ここでは、上記のようにして指示表示が開始された状態から所定時間(例えば数秒程度)経過したときにエンター操作が行われたとみなすこととする。 [0036] Here, it is be regarded as a predetermined time from the state of the instruction display as described above is started (for example, about several seconds) has elapsed enter operation when the has been made. そして、ユーザがエンター操作を行った、つまり特定の操作項目が強調表示された状態を所定時間以上維持させたとすると、指定された操作項目に従った所要の制御動作を実行することになる。 The user performs an enter operation, i.e. when the state in which a particular operation item highlighted was maintained for a predetermined time or more, and executes the required control operations in accordance with the specified operation item. 例えば、指定された操作項目に従って他の階層のメニュー画面を表示させたり、当該ゲーム装置1に対して所望の動作を実行させたりすることになる。 For example, so that or to execute or to display a menu screen of another hierarchy according to the specified operation item, a desired operation for the game apparatus 1. あるいは、当該ゲーム装置1が何らかの外部機器を制御可能に構成されており、メニュー画面Mがその外部機器の動作についての操作制御を行うためのものであるとすれば、指定された操作項目に従って外部機器の動作を制御することになる。 Alternatively, the game apparatus 1 is configured to controllably some external device, if it is intended for the menu screen M performs an operation control of the operation of the external device, the external according to the specified operation item It will control the operation of the equipment. なお、ユーザが半透明面2 It should be noted that the user is semi-transparent surface 2
の前面から離れていき、ユーザと半透明面2との間にある程度以上の距離があいた場合には、それまで表示されていたメニュー画面Mは自動的に消去されるものとされる。 Move further away from the front, if more than a certain distance between the user and the semi-transparent surface 2 is Ai, the menu screen M, which has been displayed until it is intended to be automatically erased.

【0037】ここで、上記図5に示したメニュー操作を行う場合の制御装置6の処理動作例のフローチャートを図6に示す。 [0037] Here, the flowchart of the process operation of the control device 6 in the case of performing a menu operation shown in FIG. 5 in FIG. この図6に示す処理動作は、主として制御装置6内の入力画像処理部12が検出画像情報に基づいて操作情報を認識すると共に、データベース駆動部14 The Figure 6 shows the processing operation, with mainly the controller input image processing unit 12 in the 6 recognizes operation information on the basis of the detected image information, the database driver 14
がデータベースメモリ15に格納されたプログラムに従って適宜処理動作を実行することにより実現される。 There is realized by executing an appropriate process operation in accordance with a program stored in the database memory 15.

【0038】先ず、ステップS301において、現在の検出画像情報から「接近体」が検出されるか否かについて判別を行う。 [0038] First, in step S301, performs the determination whether "approaching object" from the current detected image information is detected. ここで、「接近体」とは半透明面2に対して所定の距離範囲まで接近した何らかの操作体(図5 Here, "close body" and any operation that is closer against the semi-transparent surface 2 to a predetermined distance range (Fig. 5
ではユーザ自身の身体とされている)をいうものとされる。 In there is a user's own body) is assumed to refer to. この「接近体」の検出は、例えば入力画像処理部1 Detection of the "close body", for example an input image processing unit 1
2が検出画像情報と接近体の検出ように設定されたしきい値(しきい値制御部13により設定される)を比較して、例えば検出画像情報のある領域において、このしきい値以上の値が得られた場合には「接近体有り」と検出し、しきい値以上の値が得られる領域がない場合には、 2 compares the detected image information and proximity of the detection to the set threshold value (set by the threshold value control unit 13), in the region for example with a detection image information, above this threshold If the value is obtained by detecting that "there is close body", when there is no region where a value greater than the threshold value is obtained,
「接近体無し」と検出することになる。 It will be detected as "no close body". 上記接近体検出用のしきい値は、例えば通常、人体(ユーザ)が半透明面2にある程度(例えば数十cm)近付いた時に検出画像情報として得られる人体部分の画像レベルに基づいて設定すれば良い。 Threshold for the proximity object detection, for example usually set on the basis of the image level of the body part obtained as detection image information when a human body (user) approaches somewhat translucent surface 2 (for example, several tens of cm) if may.

【0039】上記ステップS301において接近体が検出されなかった場合にはステップS308に進んで、現在メニュー画面Mが表示中で有るか否かについての判別が行われ、メニュー画面Mが表示されていない場合には、再度ステップS301の処理に移行するが、メニュー画面Mが表示中の状態である場合にはステップS30 [0039] If the approaching body in the step S301 is not detected the process proceeds to step S308, the current menu screen M is executed is judged as to whether there in view, not to display the menu screen M in this case, the process proceeds to step S301 again, when the menu screen M is in a state of being displayed step S30
9に進み、メニュー画面Mを消去するするための制御処理を実行する。 Proceeds to 9, executes the control process for erasing the menu screen M. このメニュー画面Mの消去処理は、例えばデータベース駆動部14が画像生成部16に対するメニュー画面Mの画像データの生成処理を停止することで実現される。 Erasing processing of the menu screen M, for example a database driver 14 is implemented by stopping the generation process of the image data of the menu screen M to the image generating unit 16.

【0040】これに対して、ステップS301において接近体が検出された場合には、ステップS302に進んで、半透明面2上における上記接近体の位置が検出される。 [0040] On the contrary, if the approaching objects are detected in step S301, the process proceeds to step S302, the position of the approaching body in the semi-transparent plane 2 is detected. この処理は、例えば検出画像情報における接近体の部分が占有する領域の座標を検出することで可能となる。 This process is, for example, part of the approaching object in the detection image information becomes possible by detecting the coordinates of the area occupied. この場合、検出すべき座標としては接近体の領域の所定の一地点であっても、所定規則に従って求められる複数地点であってもよく、実際の使用環境等に応じて任意に設定されれば良い。 In this case, even as a coordinate to be detected is a predetermined one point in the region of the proximity member may be a plurality of points which are determined according to a predetermined rule, if arbitrarily set according to the actual use environment, etc. good.

【0041】続くステップS303においては、上記ステップS302で検出された接近体の位置に応じた半透明面2の領域に対してメニュー画面Mを表示させるための制御を実行する。 [0041] In the subsequent step S303, and executes control for displaying a menu screen M with respect to the translucent surface 2 of the region corresponding to the detected position of the approaching body in step S302. この制御処理は、例えばデータベース駆動部14がデータベースメモリ15に格納されているメニュー画面表示用のプログラムに基づいて、画像生成部16において所要の書類のメニュー画面Mの画像データが作成されるように制御を行うことになる。 This control processing, for example a database driver 14 based on the program of the menu screen display stored in the database memory 15, as in the image generating unit 16 the image data of the menu screen M of the required document is created It will be controlled. この際、データベース駆動部14はステップS302にて検出された接近体の位置に対応する表示領域に対して、例えばメニュー画面Mの画像データをマッピングするようにして、表示用画像データを作成する。 At this time, the database driver 14 for the display area corresponding to the position of the proximity member detected at step S302, for example, so as to map the image data of the menu screen M, creating a display image data. この結果、最終的にプロジェクタ5から投影される画像としては、半透明面2におけるユーザが近付いた位置に対してメニュー画面Mが表示されたものとなる。 As a result, the final image projected from the projector 5, and that menu screen M with respect to the position which the user has approached the translucent surface 2 is displayed.

【0042】次に、ステップS304においては、現在表示中のメニュー画面Mの操作項目とされる表示領域内において、「操作体」が検出されたか否かについて判別が行われる。 Next, in step S304, the display region which is an operation item on the menu screen M currently displayed, "operation body" is to distinguish whether is detected is performed. ここで、「操作体」とは半透明面2の前面において至近距離(しきい値の設定にもよるが3cm〜 Here, the "operation member" Depending on the close range (threshold setting of the front surface of the translucent surface 2 3 cm to
30cm程度)にある物体のことをいうものとされる。 It is intended to refer to objects in the order of 30 cm).
つまり、図5においてはメニュー画面Mを指し示す指が対象となる。 In other words, a finger pointing to the menu screen M of interest in FIG. そして、この「検出体」の検出処理は、先ず操作体検出用として、しきい値制御部13において設定されたしきい値と、検出画像情報の画像レベルとを比較することにより、操作体の有無を検出することが行われる。 The detection process of the "detector", first for the operating tool detector, the threshold set in the threshold value control unit 13, by comparing the image level of the detected image information, the operating body it is carried out to detect the presence or absence. このとき設定されるしきい値としては、半透明面2の前面において至近距離にある物体を背景から分離して検出する必要上、前述した接近体検出用しきい値より大きい値が設定される。 The threshold value set this time, the need to separate and detect the object at a short distance from the background in front of the semi-transparent surface 2, approaching body detection threshold value larger than that described above are set . そして、例えばしきい値と比較した結果、操作体が検出されたとすれば、その操作体が検出された検出画像情報上の座標位置を検出し、この検出位置とメニュー画面Mが表示されている画像情報上の位置が一致しているか否かを判別することで、現在表示中のメニュー画面の表示領域内における操作体の有無を検出することになる。 Then, for example, result of comparison with the threshold value, if the operating body is detected to detect the coordinate position on the detected image information that the operating body is detected, the detected position and the menu screen M is displayed by determining whether the position on the image information matches, it will detect the presence or absence of the operation body in the display area of ​​the menu screen currently displayed.

【0043】上記ステップS304においてメニュー画面Mの操作項目とされる表示領域内において操作体が検出されない場合とは、検出画像情報上に操作体が検出されなかったか、或は検出画像情報上に操作体を検出したとしてもこの操作体の検出位置がメニュー画面Mの表示領域内に対応する画像情報上の領域になかった場合とされ、この場合にはステップS301に戻るようにされる。 [0043] The case where the operation tool in a display region which is an operation item on the menu screen M is not detected in step S304, whether the operation tool on the detected image information is not detected, or the operation on the detected image information also detects the position of the operating body as a detected body is in the case were not in the region of the image information corresponding to the display area of ​​the menu screen M, in this case the flow returns to step S301.

【0044】これに対して、ステップS304においてメニュー画面Mの操作項目とされる表示領域内において操作体が検出されたと判別された場合には、ステップS [0044] In contrast, if the manipulation body in a display region which is an operation item on the menu screen M is judged to have been detected in step S304, step S
305に進んで、操作体が検出された位置に対応するメニュー画面Mの操作項目について指示表示が行われるような制御を実行してステップS306に進む。 Proceed to 305, and executes a control such as instruction display is performed on the operation items of the menu screen M to operating body corresponding to the detected position proceeds to step S306.

【0045】ステップS306においては、ステップS [0045] In step S306, step S
304にて検出された操作体の検出状態が所定時間以上維持されるか否かについて検出を行うようにしている。 Detection state detected operation body is to perform the detection as to whether to maintain a predetermined time or more at 304.
この検出処理は、入力画像処理部12において現在の検出画像の状態遷移を監視することにより行われる。 This detection process is performed by monitoring the state transition of the current detected image in the input image processing section 12. そして、例えば現在の検出画像情報上から操作体が検出されなくなったり、或は検出画像情報上における操作体の検出位置がステップS304にて検出されたメニュー画面Mの操作項目とされる表示領域内から外れたことが検出されたような場合には、ステップS301からの処理に戻ることになる。 Then, for example, or it is no longer detected the operating body from the current detection image information, or the display area where the detected position of the operating tool on the detected image information is the detected menu screen operation item M at step S304 If it deviates, as is detected from, the process returns to the processing from step S301.

【0046】また、ステップS306において、ステップS304にて検出された操作体の検出状態が所定時間以上維持されたと判別された場合には、エンター操作が行われたものとしてステップS307に進む。 [0046] Further, in step S306, if the detection state of the detected operation member is determined to have been maintained for a predetermined time or more in step S304, the process proceeds to step S307 as an enter operation is performed. ステップS307においては、メニュー画面M上において操作体が検出された位置の操作項目に応じた所要の制御処理が実行される。 In step S307, the required control process corresponding to the operation item of the position where the operation member on the menu screen M has been detected is performed. この処理はデータベース駆動部14がデータベースメモリ15に格納されたプログラムに従って実行することになる。 This process will be performed according to a program database driver 14 is stored in the database memory 15.

【0047】<2、ボールラリーゲーム>以下、これまで説明してきたゲーム装置1の構成及び操作情報の検出方法を踏まえて、本実施の形態とされるゲーム装置1によって実行可能とされる各種ゲームの具体例について説明する。 [0047] <2, ball rally game> or less, so far in light of the detection method of the construction and operation information of the game apparatus 1 has been described, various games that are executable by the game apparatus 1 which is the embodiment specific examples of the will be described.

【0048】図7は、本実施の形態とされるゲーム装置1によってボールラリーゲームを実行させた場合に半透明面2に表示される表示画面の一例が示されている。 [0048] Figure 7 is an example of a display screen displayed on a translucent surface 2 is shown when the game apparatus 1 which is the present embodiment was performed ball rally game. なお、ここでは半透明面2の前面側から見た状態が示されている。 Here, is a state viewed from the front side of the semi-transparent surface 2 is shown. このようなボールラリーゲームは、例えばユーザが半透明面2上に表示されたメニュー画面Mから所定の項目を選択することで半透明面2に表示されるものである。 Such ball rally game is, for example, by the user is displayed on a translucent surface 2 by selecting a predetermined item from the menu screen M displayed on a semi-transparent surface 2.

【0049】この図7に示すボールラリーゲームは、半透明面2上のゲーム領域(本実施の形態においては半透明面2全体をゲーム領域とする)に表示された例えば所定の速度で移動するボール21を1又はそれ以上のユーザが例えば半透明面2の前面において赤外線を反射可能な何らかの操作体(例えばユーザ自身の腕など)によってボール21を打ち返すような動作を行うことにより、 The ball rally game shown in Figure 7, the game region on the semi-transparent surface 2 (in this embodiment the entire translucent surface 2 game region is) moves to display the example given speed by performing the operation as hit back the ball 21 by any operating body capable of reflecting infrared rays in front of the ball 21 to one or more users for example semi-transparent surface 2 (for example, an arm of the user himself),
ゲーム領域に表示されたボール21があたかもユーザの腕などで打ち返されたようにその移動方向を変化させるものである。 Ball 21 which is displayed on the game region is one which though changes its movement direction as hit back in or arms of the user.

【0050】この場合のボール21の動き方としては、 [0050] as a motion how the ball 21 in this case,
例えばボール21とユーザの腕などが衝突したと見なされた検出画像情報内の座標位置におけるユーザの腕とボール21の衝突面、すなわち例えば図7に示したようにユーザの腕がボール21と衝突したと見なした座標位置におけるボール21の接線Sを反射面として反射されたように、その移動方向を変化させることになる。 For example the impact surface of the ball 21 and the arm of the user in the coordinate position of the detected image information, etc. is deemed collided arms users ball 21, that is, for example a user's arm, as shown in FIG. 7 is a ball 21 collides the tangent S of the balls 21 as reflected as a reflective surface in the as regarded coordinate positions, thus changing its direction of movement.

【0051】なお、半透明面2上に表示されるボール2 [0051] It should be noted that the ball 2 to be displayed on a semi-transparent surface 2
1は、当然のこととしてプロジェクタ5から半透明面2 1, should be understood that the semi-transparent surface from the projector 5 as 2
に対して投影された画像である。 A projected image with respect. また、ボール21を打ち返すときのユーザの腕などは、半透明面2から例えば3cm〜30cm程度の範囲内の距離にあるようにされればよく、この状態でゲーム装置1側においては、ユーザの腕が操作情報として検出されるように構成されれば良い。 Also, such as the user's arm when hit back the ball 21, only to be so from a translucent surface 2 at a distance within the range of, for example, about 3Cm~30cm, the game apparatus 1 side in this state, the user arms may be made of as detected as the operation information.

【0052】このボールラリーゲームは、例えば複数のユーザが半透明面2に表示されたボール21を打ち返すゲームであり、例えばボール21が見かけ上の地面に落下したとされた場合にゲームオーバとなる。 [0052] The ball rally game, for example, a plurality of users hitting back the ball 21 displayed translucent surface 2 game, the game is over when e.g. ball 21 is to have fallen to the ground on the apparent . また、ボール21がゲーム領域の外側からはみ出すような位置まで移動した場合、例えばボール21がゲーム領域の上端面、又は左右の端面位置まで移動した場合は、ボール2 Further, when the ball 21 is moved to a position such as protruding from the outer game area, if for example, a ball 21 is moved to the upper end surface or the left and right end surface position of the game area, the ball 2
1がこの上端面、又は左右の端面で反射されたようにその移動方向を変化させる。 1 changes its movement direction as reflected by the end face of the upper end surface or the left and right. そして、ボール21がゲーム領域の下端面からはみ出すような位置まで移動した場合、つまりボール21が見かけ上、地面に落下したとされた場合、ゲームオーバーとする。 Then, the ball 21 may have moved to a position such as to protrude from the lower end surface of the game area, i.e. the ball 21 is apparent, if it is to have fallen to the ground, and the game is over. なお、本実施の形態においては、説明を簡単にするためボール21の移動速度は予め設定された速度のまま移動することとするが、 In the present embodiment, the moving speed of the ball 21 in order to simplify the description has to be moved while the speed set in advance,
例えば徐々にボール21の速度を速くしたり、ボール2 For example, to increase the speed of the ball 21 gradually, ball 2
1がユーザの腕など接したと見なした時のユーザの腕などの速度に応じてボール21の速度を可変させるようにすることも考えられる。 1 is also conceivable to so as to vary the speed of the ball 21 in accordance with the speed, such as the user's arm when deemed in contact or arms of the user.

【0053】図8は、上記したようなボールラリーゲームを実行する場合の制御装置6の処理動作例を示したフローチャートである。 [0053] Figure 8 is a flowchart showing the processing operation of the control device 6 when running ball rally game as described above. この図8に示す処理動作は、例えば図6に示した処理動作において、メニュー画面Mからボールラリーゲームの項目が選択された際に、制御装置6の入力画像処理部12から供給される操作情報に基づいてデータベース駆動部14がデータベースメモリ15 Processing operation shown in FIG. 8, for example, in the processing indicated in FIG. 6, when the item of the ball rally game from the menu screen M is selected, the operation information supplied from the input image processing unit 12 of the controller 6 database driver 14 is the database memory 15 based on the
に格納されたボールラリーゲームのプログラムに従って適宜処理動作を実行することにより実現されるものである。 It is realized by executing an appropriate process operation in accordance with balls rally game program stored in the.

【0054】この場合は、先ずステップS400において、ボールラリーゲームを実行させるための所定の操作が行われたかどうか判別する。 [0054] In this case, first at step S400, to determine whether a predetermined operation for executing the ball rally game is performed. すなわち、例えば先に図5に示したメニュー画面Mからボールラリーゲームの項目が選択されたかどうか判別する。 That is, for example above in the item of the ball rally game from the menu screen M illustrated in FIG. 5, it is determined whether it has been selected. そして、ステップS Then, step S
400において、ボールラリーゲームの項目が選択されたと判別した場合は、ステップS401に進み、半透明面2上のゲーム領域にゲーム画面として表示するボール21の各種設定値を初期値に設定する。 In 400, if it is determined that the item of the ball rally game is selected, the process proceeds to step S401, sets the initial value of various set values ​​of the ball 21 to be displayed on the game region on the semi-transparent surface 2 as a game screen. このステップS This step S
401において設定されるボール21の設定値としては、例えばゲーム領域内に最初に表示するボール21の座標位置や移動方向、移動速度とされる。 The set value of the ball 21 that is set at 401, for example, the coordinate position and direction of movement of the ball 21 initially displayed on the game area, it is the moving speed. なお、これらの設定値は、予め決められた値でもよく、またボールラリーゲームが実行されるごとにランダムに設定する値でも良い。 Note that these settings may be a predetermined value, or may be a value set at random every time the ball rally game is executed.

【0055】上記ステップS401の処理が実行された後は、ステップS402において、半透明面2上のゲーム領域内に先にステップS401で設定した設定値(この場合はボール21の座標位置)に基づいて、ボール2 [0055] After the processing in step S401 is executed, on the basis at step S402, the setting value previously set in the game region on the semi-transparent surface 2 in step S401 (in this case, the coordinate position of the ball 21) Te, ball 2
1を表示するための表示制御を実行することになる。 It will execute a display control for displaying one. そして、ステップS403において、ボール21がゲーム領域内か否か、すなわちボール21の座標位置がゲーム領域内で有るか否かの判別を行う。 Then, it performed in step S403, whether the ball 21 is the game region, namely the determination coordinate position of the ball 21 is whether or not the game area. ここで、ボール21 Here, the ball 21
の座標位置がゲーム領域内でないと判別した場合は、ステップS408に進み、ゲームオーバであることを示す所要の表示を行って制御処理を終了することになる。 When the coordinate position of the judged that it is not the game area, the process proceeds to step S408, so that the control process is terminated by performing a required display indicating that the game is over.

【0056】一方、ステップS403において、ボール21の座標位置がゲーム領域内で有ると判別した場合は、ステップS404に進む。 Meanwhile, in step S403, if the coordinate position of the ball 21 is determined to be within the gaming area, the process proceeds to step S404. ステップS404においては、ゲーム領域内においてユーザの腕などとされる操作体が検出されたかどうかの判別を行うようにされる。 In step S404, the operation body which is like the arm of the user in the game area is to perform determination of whether it has been detected.
ここで、例えばゲーム領域内に操作体を検出した場合はステップS405に進み、ステップS404で検出された操作体の座標位置がボール21の座標位置と一致しているかどうかの判別を行うようにされる。 Here, for example, when detecting the operation body in the game area proceeds to step S405, the coordinate position of the detected operating body in step S404 is to perform determination of whether matches the coordinate position of the ball 21 that. この操作体の座標位置は、入力画像処理部12おいて検出される検出画像情報に基づいて、入力画像処理部12からデータベース駆動部14に対して供給される操作情報に基づいて判別することになる。 Coordinate position of the operating body based on the detected image information inputted image processing unit 12 Oite detection, to determine on the basis of the input image processing unit 12 on the operation information supplied to the database driver 14 Become.

【0057】この場合、入力画像処理部12において検出される検出画像情報は、先に説明したように半透明面2側からの赤外線の反射光により得られるため、ゲーム領域内に複数の操作体が存在しても同時に認識することが可能とされる。 [0057] In this case, the detected image information detected in the input image processing unit 12, since obtained by infrared light reflected from the semi-transparent surface 2 side as described above, a plurality of operation members within the game area there also exist is possible to recognize simultaneously. つまり、複数のユーザが同時にゲームに参加していても、各ユーザが行った操作の操作情報を同時に認識することが可能である。 In other words, even if a plurality of users participating in the game at the same time, it is possible to recognize the operation information of the operation of the user performed at the same time.

【0058】そして、ステップS405において、ある操作体の座標位置とボール21の例えば外形の座標が一致したと判別した場合は、ステップS406に進み、その座標位置におけるボール21の接線Sを求め、この接線Sを反射面と仮想して反射したとみなしてボール21 [0058] Then, in step S405, if it is determined that there is for example the outer shape of the coordinates of the operating body coordinate position and the ball 21 are matched, the process proceeds to step S406, obtains the tangent S of the ball 21 at the coordinate position, the ball 21 is regarded as reflected in the virtual and the reflective surface of the tangent S
の設定値を変更することになる。 It will change the settings. このとき変更されるボール21の設定値としては、例えばボール21の移動方向の値とされる。 The set value of the ball 21 to be changed at this time, for example, the value of the moving direction of the ball 21. すなわち、操作体の座標位置とボール21の座標位置が一致したと判別した場合は、上記図7 That is, if it is determined that the coordinate position of the operating tool coordinate position and the ball 21 are matched, FIG. 7
に示したようにボール21と操作体から得られる接線S Tangent obtained from the ball 21 and the operating member as shown in S
でボール21が反射したと見なして、先に設定されたボール21の移動方向の設定値を、新たに反射後の設定値に変更することになる。 In regards with the ball 21 is reflected, the direction of movement of the set values ​​of the ball 21 which is set previously, will be changed to the setting value after newly reflection.

【0059】続く、ステップS407においては、上記ステップS406において変更された設定値に基づいてボール21を表示する新たな座標位置を演算することになる。 [0059] followed, in step S407, will be calculated a new coordinate position for displaying the ball 21 based on the changed set values ​​in step S406. また、ステップS404にゲーム領域内に操作体が検出されなかった場合、又はステップS405において操作体の座標位置がボール21の座標位置と一致しなかった場合は、ボール21の設定値を変更することなく、先に設定された設定値に基づいてボール21の座標位置を演算することになる。 Further, if the operating body in the game space is not detected in step S404, or if the coordinate position of the operating body does not match the coordinate position of the ball 21 in step S405, changing the set value of the ball 21 no, the computing the coordinate position of the ball 21 based on the setting value previously set.

【0060】なお、ステップS407において新たなボール21の座標位置を演算した際、ボール21の新たな座標位置がゲーム領域の上端面又は左右の端面の座標と一致した場合は、これらの端面でボール21が反射したと見なして、先に設定されたボール21の移動方向の設定値を変更することになる。 [0060] Incidentally, when calculating the coordinate position of the new ball 21 in step S407, if a new coordinate position of the ball 21 is coincident with the coordinate of the upper end surface or the left and right end faces of the game area, ball these end faces 21 is regarded as the reflection will change the direction of movement of the set values ​​of the ball 21 which is set previously.

【0061】上記ステップS407において、ボール2 [0061] In the above step S407, the ball 2
1の新たな座標位置を演算した後、ステップS402に戻って、再度ステップS402からの処理動作を実行するようにされる。 After calculating a new coordinate position of 1, the process returns to step S402, it is to execute the processing operation from step S402 again. これにより、上記図7に示したようなボールラリーゲームの制御処理が実現されることになる。 As a result, the control process of the ball rally game, as shown in FIG. 7 can be realized.

【0062】<3、射的ゲーム(第1例)>図9は、本実施の形態とされるゲーム装置1によって射的ゲームを実行させた場合に半透明面2に表示される表示画面の一例が示されている。 [0062] <3, shooting game (first example)> 9, the display screen displayed on a translucent surface 2 when the game apparatus 1 which is the present embodiment was performed a shooting game An example is shown. なお、このような射的ゲームもまた例えば図5に示したメニュー画面Mから所定の項目を選択することで表示されるものである。 Incidentally, in which it is displayed by selecting a predetermined item from the menu screen M illustrated such shooting game also, for example, in FIG.

【0063】この図9に示す射的ゲームもまた、先に図7において説明したボールラリーゲームと同様に例えば半透明面2全体がゲーム領域とされており、このゲーム領域内に例えばリンゴなどの標的23を頭上に乗せたような人物のゲーム画面22が表示される。 [0063] The shooting 9 game also the entire ball Larry games as well as for example semi-transparent surface 2 described in FIG. 7 above are the game area, in the example, apples game area the game screen 22 of the person, such as carrying a target 23 overhead is displayed. そして、ユーザがこの標的23に目掛けて、例えば先端に吸盤などが取り付けられた矢24を投げて楽しむものである。 Then, the user is aiming at this target 23, such as those enjoy throwing arrows 24 such suction cups are attached to the tip.

【0064】そして、例えば矢24が標的23に当たらず、他のゲーム領域に当たった場合はゲームオーバとすると共に、矢24が標的23に当たった場合は、矢24 [0064] Then, for example, with arrows 24 is not hit the target 23, when striking the other game areas and game over, when the arrow 24 hits the target 23, arrows 24
が標的23に当たったことを示す何らかの表示をしてゲームオーバとするようにされる。 There is such a game is over and some indication that strikes the target 23.

【0065】図10は、上記したような射的ゲームを実行する場合の制御装置6の処理動作例を示したフローチャートである。 [0065] Figure 10 is a flowchart showing the processing operation of the control device 6 in the case of executing the shooting game as described above. この図10に示す処理動作もまた、例えば図6に示した処理動作において、メニュー画面Mから射的ゲームの項目が選択された際に、制御装置6の入力画像処理部12から供給される操作情報に基づいてデータベース駆動部14がデータベースメモリ15に格納された射的ゲームのプログラムに従って適宜処理動作を実行することにより実現されるものである。 Also the processing operation shown in FIG. 10 also, for example, in the processing operation shown in FIG. 6, when the item of shooting game from the menu screen M is selected, is supplied from the input image processing unit 12 of the controller 6 operation in which the database driver 14 are realized by executing an appropriate process operation in accordance with shooting game programs stored in the database memory 15 based on the information.

【0066】この場合は、先ずステップS500において、射的ゲームを実行させるための所定の操作が行われたかどうか判別する。 [0066] In this case, first at step S500, to determine whether a predetermined operation for executing a shooting game is performed. ステップS500において、射的ゲームを実行させるための所定の操作が行われたと判別した場合、例えば先に図5に示したメニュー画面Mから射的ゲームの項目が選択されたと判別した場合はステップS501に進む。 In step S500, if it is determined that a predetermined operation for executing a shooting game is performed, for example, if the previously shooting game item from the menu screen M illustrated in FIG. 5 is determined to have been selected step S501 proceed to. ステップS501においては、ゲーム領域内に射的ゲームのゲーム画面22を表示するための表示制御を実行することになる。 In step S501, thereby executing the display control for displaying a game screen 22 of shooting game within the game area. この表示制御も上述したようにデータベース駆動部14が射的ゲームのプログラムに基づいて表示制御を行うことで実現される。 This display control is also a database driver 14 as described above is realized by performing display control based on the shooting game program.

【0067】ステップS502においては、ゲーム領域内に例えば矢24などの操作体が検出されたかどうかの判別を行っており、ゲーム領域内に矢24を検出した場合はステップS503に進む。 [0067] In step S502, the operation body, eg arrows 24 within the game region is subjected to determination of whether it has been detected, if it detects an arrow 24 within the game region proceeds to step S503. なお、ステップS502 It should be noted that the step S502
における矢24の検出処理は、矢24が検出されるまで行われるものとする。 Detection processing of arrow 24 in shall be performed until the arrow 24 is detected.

【0068】続くステップS503においては、ステップS502で検出された矢24の座標位置がゲーム画面22として表示されている標的23の座標位置と一致しているかどうかの判別を行う。 [0068] In subsequent step S503 is performed if the determination coordinate position of arrows 24 detected at step S502 is coincident with the coordinate position of the target 23 being displayed as a game screen 22. そして、ステップS50 Then, step S50
3において、矢24の座標位置が標的23の座標位置と一致していないと判別した場合は、ゲームオーバとするための制御処理を実行することになる。 In 3, when the coordinate position of the arrow 24 is determined to not match the coordinate position of the target 23, and executes the control process for the game is over.

【0069】また、ステップS503において、矢24 [0069] In addition, in step S503, arrow 24
の座標位置が標的23の座標位置と一致したと判別した場合は、ステップS504に進んで、矢24が標的23 When the coordinate position of is determined to match the coordinate position of the target 23, the process proceeds to step S504, arrow 24 the target 23
に当たったことを示す何らかの表示画面の表示制御を実行した後、ゲームオーバとする制御処理を実行することになる。 After executing the display control some display screen indicating that the hit, and executes the control process of the game over.

【0070】<4、射的ゲーム(第2例)>図11は、 [0070] <4, shooting game (second example)> 11,
さらに本実施の形態とされるゲーム装置1によって射的ゲームを実行させた場合の表示画面の一例が示されている。 An example of the display screen is shown in a case where to execute the further shooting game by the game apparatus 1 which is the present embodiment. なお、このような射的ゲームもまた半透明面2上に表示されたメニュー画面Mから所定の項目を選択することで表示されるものである。 Such a shooting game is also intended to be displayed by selecting a predetermined item from the menu screen M displayed on a semi-transparent surface 2.

【0071】この図11に示す射的ゲームもまた、先に説明したボールラリーゲームや射的ゲーム(第1例)と同様に例えば半透明面2全体がゲーム領域とされており、このゲーム領域内に例えば複数の標的26を有するゲーム画面25が表示されるものである。 [0071] The shooting game shown in Figure 11 also has the whole ball rally game or shooting game (first example) as well as for example semi-transparent surface 2 described above is the game area, the game area in which the game screen 25 is displayed with, for example, a plurality of targets 26 within. そして、上記図9に示した射的ゲーム(第1例)同様に、ゲーム画面25として表示された標的26に目掛けて何らかの操作体(この場合はボール27)を投げることによって標的26を撃破して楽しむものである。 The shooting game (first example) shown in FIG 9 Similarly, any operation body aiming at the target 26 displayed as the game screen 25 (in this case balls 27) destroyed a target 26 by throwing one in which to enjoy. この場合も半透明面2上のゲーム領域に表示されるゲーム画面としての標的26は、プロジェクタ5から半透明面2に対して投影された画像である。 In this case the target 26 as a game screen is also displayed on the game region on the semi-transparent surface 2 is an image that is projected against the semi-transparent surface 2 from the projector 5. また、標的26にボール27が当たった場合は、その当たった標的26を消去し、最終的に全ての標的26が撃破されて、ゲーム画面から消去されることでゲームオーバーとされる。 Further, when the ball 27 to the target 26 is hit, erases the target 26 that hits them, eventually all target 26 is destroyed, is a game over by being erased from the game screen.

【0072】このような射的ゲームを実行する場合もまたメニュー画面Mから射的ゲーム(第2例)の項目が選択された際に、制御装置6の入力画像処理部12から供給される操作情報に基づいてデータベース駆動部14がデータベースメモリ15に格納された射的ゲームのプログラムに従って適宜処理動作を実行することにより実現される。 [0072] Also when the item of shooting game from the menu screen M (second example) is selected, the operation is supplied from the input image processing unit 12 of the controller 6 when performing such shooting game database driver 14 are realized by executing an appropriate process operation in accordance with shooting game programs stored in the database memory 15 based on the information. この場合の制御装置6の処理動作は、上記図1 Processing operation of the control device 6 in this case, FIG 1
0に示した射的ゲーム(第1例)の処理動作に準じているため、図10に示したフローチャートを参照しながら説明する。 Since the in accordance with the processing operation of the zero shooting game shown (first example), it will be described with reference to the flowchart shown in FIG. 10. この場合も上記ステップS500に示したように例えば半透明面2に表示されたメニュー画面Mから射的ゲームの項目が選択されたと判別した場合は、半透明面2上のゲーム領域内にゲーム画面25を表示するような表示制御を実行する(S501)。 In this case, if even it is determined that the shooting game item for example a semi-transparent surface 2 to the displayed menu screen M as shown in the step S500 is selected, the game screen within the game region on the semi-transparent surface 2 It executes the display control to display the 25 (S501).

【0073】そして、ステップS502に示したようにゲーム領域内に操作体であるボール27が検出されたかどうかの判別を行い、ゲーム領域内にボール27を検出したと判別した場合は、このボール27の座標位置が標的26の座標位置と一致しているかの判別を行う(S50 [0073] Then, a determination of whether the ball 27 is operating body within the game area is detected as shown in step S502, if it is determined that detects the ball 27 within the game area, the ball 27 coordinate position is performed whether the determination is consistent with the coordinate position of the target 26 (S50
3)。 3). そして、ボール27の座標位置が標的26の座標位置と一致していれば、その座標位置に表示された標的26の画像を消去するような表示制御を実行する。 The coordinate position of the ball 27 if matches the coordinate position of the target 26, executes the display control so as to erase the image of the target 26 displayed on the coordinate position. そして、ゲーム領域内に表示されている全ての標的26が消去されたと判別した場合は、例えば全ての標的26が撃破されたことを示す何らかの表示制御を実行した後、ゲームオーバとするための表示制御を実行するようにすれば良い。 And, if all of the target 26 displayed on the game area is determined to have been erased, for example, after all of the target 26 has performed some display control to indicate that it has been defeated, the display for the game is over it may be to perform the control.

【0074】<5、他の実施の形態としてのゲーム装置の構成>ところで、本実施の形態のゲーム装置としては、図1に示す構成から赤外線LEDパネル3を省略することも可能である。 [0074] <5, configuration of the game apparatus as another embodiment> Now, as the game apparatus of the present embodiment, it is also possible to omit the infrared LED panel 3 from the configuration shown in FIG. 例えば、本発明に基づくゲーム装置を屋外などの外光の強い環境で使用する場合は、日中の自然光に含まれる赤外線が強いために、図1に示すような赤外線LEDパネル3から照射される赤外線光を操作情報検出用の光源とする構成では、赤外線LEDパネル3から照射される赤外線光の強度が自然光に含まれる赤外線に対して相対的に弱まるので、場合によっては適切な操作情報の検出が行われない(つまり操作情報を認識可能な適正な検出画像情報が得られない)可能性がある。 For example, when using a game device according to the present invention with a strong environmental external light such as outdoors, since infrared strong contained in natural light during the day, is emitted from the infrared LED panel 3 as shown in FIG. 1 in a configuration that the light source for operation information detecting infrared light, since the intensity of the infrared light emitted from the infrared LED panel 3 is weakened relative to the infrared rays contained in natural light, in some cases the detection of proper operation information is not performed is (proper detection image information that is recognizable to that is the operation information is not obtained) possibilities.

【0075】そこで、このような場合には、赤外線LE [0075] Therefore, in such a case, infrared LE
Dパネル3を省略し、その代わりに自然光に含まれる赤外線光を操作情報検出用の光源として利用することができる。 Skip D panel 3 can utilize infrared light contained in natural light instead as a light source for the operation information detection. この場合、検出画像情報を得るために必要な基準入力画像レベルLintは、例えば接近体及び操作体等の検出対象が無い(半透明面2に対して何の操作も行われていない)とされる状態のもとで、その前面側から半透明面2を透過してCCDカメラ4において撮像される撮像信号から得た画像情報に基づいて検出するようにされる。 In this case, the reference input image levels Lint necessary to obtain a detected image information is, for example, an approaching object and is not detected in the operation and the like (not perform any operation on the translucent surface 2) that under conditions, it is to be detected based on the image information obtained from the imaging signal captured from the front side in the CCD camera 4 is transmitted through the translucent surface 2.

【0076】そして、例えば半透明面2に対して何らかの操作が行われるとすると、このときの半透明面2における接近体及び操作体などの部分をCCDカメラ4側からみた場合には、接近体及び操作体などにより自然光の赤外線が遮られることから、これを自然光に含まれる赤外線光の影として見ることができる。 [0076] Then, for example when the something with the semi-transparent surface 2 takes place, when viewed portion, such as approaching body and the operation body in the translucent surface 2 at this time from the CCD camera 4 side, closer body and since the infrared natural light is shielded by an operation body, it can be seen as a shadow of the infrared light contained in natural light. 本実施の形態のい制御装置6では、基準入力画像レベルLintに対して、画像レベルがより低くなる(暗くなる)ようにして変化する画像情報を操作情報として扱うことになる。 In There control device 6 of the present embodiment, the reference input image levels Lint, so that handling image information by the image level changes as becomes lower (darker) as the operation information. この場合、図2に示す制御装置6の内部構成としては、赤外線LEDパネル3が省略されたことに応じて、LED In this case, as the internal structure of the control device 6 shown in FIG. 2, in response to the infrared LED panel 3 is omitted, LED
駆動部10が設けられないことになる。 So that the drive unit 10 is not provided.

【0077】また、本実施の形態のゲーム装置としては、図1に示す構成において、例えば赤外線LEDパネル3の代わりにマイクロ波発生器を設け、また、CCD [0077] As the game apparatus of the present embodiment, in the configuration shown in FIG. 1, a microwave generator provided, for example, instead of the infrared LED panel 3, also, CCD
カメラ4の代わりにマイクロ波受信器を設けて構成することも考えられる。 It is also conceivable to configure by providing a microwave receiver instead of the camera 4. この場合、図2に示す制御装置6においては、LED駆動部10(図1参照)の代わりに、 In this case, the control device 6 shown in FIG. 2, instead of the LED driving unit 10 (see FIG. 1),
マイクロ波発生器を駆動するためのマイクロ波駆動回路が備えられる。 Microwave drive circuit for driving a microwave generator is provided. また、マイクロ波受信器から供給される受信マイクロ波を入力して例えば所定形式のデータに変換して出力する画像信号入力回路と、この画像信号入力回路から供給されるマイクロ波の受信データを入力して所要の処理を行うことにより、例えば検出画像情報を得ると共にこの検出画像情報に基づいて操作情報を得る入力データ処理回路が設けられる必要がある。 Further, an image signal input circuit which converts the data by entering for example, a predetermined format received microwaves supplied outputted from the microwave receiver, inputs the received data of the microwaves supplied from the image signal input circuit by performing the required processing by, for example, an input data processing circuit for obtaining the operation information on the basis of the detected image information with obtain detected image information needs to be provided. 画像信号入力回路及び入力データ処理回路は、それぞれ図2に示す画像入力部11及び入力画像処理部12に代わる機能回路部である。 Image signal input circuit and the input data processing circuit is a functional circuit portion which replaces the image input unit 11 and the input image processing unit 12 shown in FIG. 2, respectively. また、操作情報検出用の媒体としてマイクロ波を利用するため、CCDカメラ4に備えられた赤外線透過フィルタ4aや、プロジェクタ5に備えられた赤外線遮断フィルタ5aは不要となる。 Further, in order to utilize microwaves as a medium for detecting operation information, infrared transmission filter 4a and provided in the CCD camera 4, an infrared cutoff filter 5a provided in the projector 5 is unnecessary.

【0078】このように、それが照射された物体に反射する性質を有するマイクロ波のような媒体を操作情報の検出に利用するように構成しても、これまで説明してきた実施の形態(赤外線を操作情報の検出に利用した例) [0078] Thus, even it is configured to use the detection of the medium operation information, such as a microwave having a property of reflecting the illuminated object, the embodiment (infrared described so far example using the detection of the operation information)
と同様にして本発明としてのゲーム装置を構成することが可能である。 That it is possible to configure the game device as the present invention in a similar manner.

【0079】なお、これまで説明した本発明のゲーム装置で実行可能とされるゲームは、あくまでも一例であり、これに限定されることなく他にも各種考えられるものである。 [0079] Incidentally, the game can be executed by the game apparatus of the present invention thus far described, merely an example, in addition to those contemplated various without being limited thereto. また、本実施の形態においては音声出力系の説明は省略したが、各種ゲーム音声の出力を行うことは可能である。 Further, description of the audio output system in the present embodiment is omitted, it is possible to perform the output of the various game sound. また、本実施の形態においては、半透明面2が垂直に設置された状態(壁面状)とした場合について説明したきたが、本発明としての半透明面2の機能(表示パネル機能及び操作パネル機能)を考慮すればこれに限定されることなく、水平に設置したり、あるいは半透明面2を球面状などの曲面として形成することも可能である。 Further, in this embodiment, came been described as being a state of semi-transparent surface 2 is installed vertically (wall-like), semi-functional transparent surface 2 (panel function and an operation panel as the present invention function) is not limited thereto considering, it is possible to form a curved surface such as installed horizontally or, or semi-transparent surface 2 a spherical.

【0080】 [0080]

【発明の効果】以上、説明したように本発明は、所定の波長帯域の光又は電磁波を反射するなどして、これに状態変化(この状態変化が検出画像情報として反映される)を与えることのできる物体で有れば、操作を行うための操作体として成立するものである。 Effect of the Invention] above, the present invention is as described, such as by reflected light or electromagnetic waves of a predetermined wavelength band, which to give a state change (this state change is reflected as detected image information) if there an object that can, is intended to hold as an operation member for performing operations. つまりユーザが自身の腕やボールなどを使って自由度の高い入力操作を行うことでができる。 In other words can the user be performed with high input operation degree of freedom using, for example, his arms and ball. また、半透明面は低コストで容易に大型化することが可能なため、この半透明面に投影表示手段から各種ゲーム画面を投影することによって表示パネルとして機能させた場合は、直接的な入力操作を行うことが可能になり、よりリアリティのあるゲームを楽しむことができる。 Also, since the semi-transparent surface which can be easily increased in size at a low cost, when caused to function as the display panel by projecting the various game screen from the projection display unit to the translucent surface, a direct input it becomes possible to perform the operation, it is possible to enjoy a game that is more reality.

【0081】また、本発明の場合は例えばCRTなどの表示デバイスにより表示される画像を直接見るのではなく半透明面に投影表示された画像を例えば大画面で見ることになるため、長時間ゲームを行った場合でもユーザの目に特に負担をかけることがなく、しかもユーザが全身を動かして健康的にゲームを行うことができる。 [0081] Also, in the case of the present invention, which will see the image directly view the projected image displayed on a translucent surface for example a large screen instead of a displayed by the display device such as a CRT for example, a long time game a without particularly burdening the eyes of the user, even if I went, yet the user can perform a healthy the game by moving the whole body.

【0082】そして、例えばCRTや液晶ディスプレイなどの表示デバイスや、タッチパネル、トラックパッドなどを併用して本発明と同等の効果を有するゲーム装置を得ようとした場合には、その構成も複雑になってコストも相当にかかるなどの問題があるが、本発明では上述のごとき効果を得るのにあたり、単なる半透明面と、この半透明面に対して行われた操作を検出するための撮像装置と、上記半透明面に対してゲーム用画像等を表示する投影表示装置等が備えられればよく、より簡略な構成によってこれを実現することができる。 [0082] Then, for example, a display device and such as a CRT or a liquid crystal display, a touch panel, when trying to get a gaming machine having a combination with the present invention the same effect and trackpad, also complicated the structure there are problems such as according to the well corresponding cost Te but, when obtaining the above such effect in the present invention, a mere translucent surface, an imaging device for detecting an operation performed on the translucent surface , it is sufficient with the projection display device for displaying a game image or the like on the translucent surface, this may be achieved by a simpler configuration.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】本発明の実施の形態としてのゲーム装置の構成例を示す概念図である。 1 is a conceptual diagram showing a configuration example of a game apparatus according to an embodiment of the present invention.

【図2】本発明の実施の形態としてのゲーム装置に備えられる制御装置の内部構成を示す図である。 Is a diagram showing an internal configuration of Figure 2 control device provided in the game device according to an embodiment of the present invention.

【図3】基準入力画像レベルを検出及び保持するための処理動作を示すフローチャートである。 3 is a flowchart showing a processing operation for detecting and holding the reference input image level.

【図4】検出画像情報を生成するための処理動作を示すフローチャートである。 4 is a flowchart showing a processing operation for generating a detection image information.

【図5】本実施の形態のゲーム装置における基本的な操作例を示す説明図である。 It is an explanatory view showing a basic operation example in FIG. 5 game apparatus of this embodiment.

【図6】図5に示す操作を実現するための処理動作を示すフローチャートである。 6 is a flowchart showing a processing operation for realizing the operation shown in FIG.

【図7】本実施の形態のゲーム装置においてボールラリーゲームを実行させた時の表面画像を示した図である。 It is a diagram showing a surface image when to execute the ball rally game in 7 game apparatus of this embodiment.

【図8】図7に示したボールラリーゲームを実行するための処理動作を示すフローチャートである。 8 is a flowchart showing a processing operation for performing the ball rally game shown in FIG.

【図9】本実施の形態のゲーム装置において射的ゲームを実行させた時の表面画像を示した図である。 It is a diagram showing a surface image when to execute the shooting game in 9 game apparatus of this embodiment.

【図10】図9に示した射的ゲームを実行するための処理動作を示すフローチャートである。 Is a flow chart showing a processing operation for performing a shooting game shown in Figure 10 Figure 9.

【図11】本実施の形態のゲーム装置において射的ゲームを実行させた時の表面画像を示した図である。 11 is a diagram showing a surface image when to execute the shooting game in the game apparatus of the present embodiment.

【符号の説明】 DESCRIPTION OF SYMBOLS

1 ゲーム装置、2 半透明面、3 赤外線LEDパネル、4 CCDカメラ、5 プロジェクタ、6 制御装置、10 LED駆動部、11 画像入力部、12 入力画像処理部、13 しきい値制御部、14 データベース駆動部、15 データベースメモリ、16 画像生成部、17 画像合成部、18 RGB信号生成部、2 First game device, 2 a translucent surface, 3 infrared LED panel, 4 CCD camera, 5 projector, 6 controller, 10 LED driving unit, 11 image input unit, 12 an input image processing unit, 13 the threshold control unit 14 database driver, 15 a database memory, 16 image generating unit, 17 image combining unit, 18 RGB signal generator, 2
1 27 ボール、22 25 ゲーム画面、23 2 1 27 ball, 22 25 game screen, 23 2
6 標的、24 矢 6 target, 24 arrow

Claims (2)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】 半透明面と、 上記半透明面側の方向から入射する所定の波長帯域の光又は電磁波のみを像として捉える撮像手段と、 上記撮像手段から入力された撮像信号に基づいて、上記半透明面に対して与えられた操作が反映される検出用画像情報を生成し、この検出用画像情報に基づいて識別した操作情報に基づいて所要の制御処理を実行する制御処理手段と、 上記撮像手段が撮像すべき光又は電磁波の波長帯域を含まない可視光による画像を上記半透明面に対して投影表示可能に設けられる投影表示手段とを備え、 上記制御処理手段は、上記操作情報に基づいて、所定の規則に従って表示形態が変化するゲーム用画像を投影表示させるための、上記投影表示手段に対する表示制御を実行可能に構成されていることを特徴とするゲーム And 1. A translucent surface, an imaging unit to capture only light or electromagnetic waves of a predetermined wavelength band that is incident from the direction of the translucent surface as an image, based on the imaging signal input from the imaging unit, generates a detection image information the operation given for the semi-transparent surface is reflected, and a control processing means executes a desired control process on the basis of the identified operation information on the basis of the detected image information, and a projection display device in which the image pickup means is provided so as to be projected and displayed image by visible light without the wavelength band of light or electromagnetic waves to be imaged with respect to the translucent surface, said control processing means, the operation information based on, for projecting display a game image which changes its display mode in accordance with a predetermined rule, a game, characterized in that it is configured to perform a display control for the projection display means 置。 Location.
  2. 【請求項2】 上記撮像手段が受像すべき所定の波長帯域の光又は電磁波を上記半透明面に対して輻射する輻射手段を備えていることを特徴とする請求項1に記載のゲーム装置。 2. A game apparatus according to claim 1, characterized in that it comprises a radiation means for radiating light or an electromagnetic wave in a predetermined wavelength band said imaging means to be receiving with respect to the translucent surface.
JP19973097A 1997-07-25 1997-07-25 Game machine Pending JPH1142366A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19973097A JPH1142366A (en) 1997-07-25 1997-07-25 Game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19973097A JPH1142366A (en) 1997-07-25 1997-07-25 Game machine

Publications (1)

Publication Number Publication Date
JPH1142366A true true JPH1142366A (en) 1999-02-16

Family

ID=16412674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19973097A Pending JPH1142366A (en) 1997-07-25 1997-07-25 Game machine

Country Status (1)

Country Link
JP (1) JPH1142366A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7444201B2 (en) * 2003-06-06 2008-10-28 Siemens Aktiengesellschaft Machine tool or production machine with a display unit for visually displaying operating sequences
JP2009295031A (en) * 2008-06-06 2009-12-17 Canon Inc Image projection device and its control method
JP2012064201A (en) * 2010-08-19 2012-03-29 Semiconductor Energy Lab Co Ltd Input-output device and driving method for input-output device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7444201B2 (en) * 2003-06-06 2008-10-28 Siemens Aktiengesellschaft Machine tool or production machine with a display unit for visually displaying operating sequences
JP2009295031A (en) * 2008-06-06 2009-12-17 Canon Inc Image projection device and its control method
JP2012064201A (en) * 2010-08-19 2012-03-29 Semiconductor Energy Lab Co Ltd Input-output device and driving method for input-output device
JP2016173829A (en) * 2010-08-19 2016-09-29 株式会社半導体エネルギー研究所 Method for manufacturing input-output device, and input-output device

Similar Documents

Publication Publication Date Title
US5686942A (en) Remote computer input system which detects point source on operator
US6710770B2 (en) Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
US20120200494A1 (en) Computer vision gesture based control of a device
US6729731B2 (en) Untethered laser pointer for use with computer display
US20070265088A1 (en) Storage medium storing game program, game apparatus, and game system
US20120092328A1 (en) Fusing virtual content into real content
US20100194863A1 (en) Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
US20130278499A1 (en) Gesture input with multiple views, displays and physics
US20060044282A1 (en) User input apparatus, system, method and computer program for use with a screen having a translucent surface
US20060284874A1 (en) Optical flow-based manipulation of graphical objects
US20060139314A1 (en) Interactive video display system
US20130050426A1 (en) Method to extend laser depth map range
US8659658B2 (en) Physical interaction zone for gesture-based user interfaces
US20040125044A1 (en) Display system, display control apparatus, display apparatus, display method and user interface device
US20130326364A1 (en) Position relative hologram interactions
US20110289456A1 (en) Gestures And Gesture Modifiers For Manipulating A User-Interface
US20130335405A1 (en) Virtual object generation within a virtual environment
US20100039500A1 (en) Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator
US20120056982A1 (en) Depth camera based on structured light and stereo vision
US20110298827A1 (en) Limiting avatar gesture display
US20080259053A1 (en) Touch Screen System with Hover and Click Input Methods
US20130328925A1 (en) Object focus in a mixed reality environment
US8843857B2 (en) Distance scalable no touch computing
US20010043719A1 (en) Hand pointing device
US20100091112A1 (en) Object position and orientation detection system