JP2008134991A - Input method - Google Patents

Input method Download PDF

Info

Publication number
JP2008134991A
JP2008134991A JP2007114891A JP2007114891A JP2008134991A JP 2008134991 A JP2008134991 A JP 2008134991A JP 2007114891 A JP2007114891 A JP 2007114891A JP 2007114891 A JP2007114891 A JP 2007114891A JP 2008134991 A JP2008134991 A JP 2008134991A
Authority
JP
Japan
Prior art keywords
player
multimedia processor
cursor
target
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007114891A
Other languages
Japanese (ja)
Inventor
Hiroshi Uejima
拓 上島
Kei Fukutome
慶 福留
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SSD Co Ltd
Original Assignee
SSD Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SSD Co Ltd filed Critical SSD Co Ltd
Priority to JP2007114891A priority Critical patent/JP2008134991A/en
Publication of JP2008134991A publication Critical patent/JP2008134991A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a new input method and its related technology, which can give an input by using the imaging result of an object. <P>SOLUTION: Input devices 3L, 3R attached to the respective palm sides of right and left hands are photographed by an image sensor 54 (input state) and the photographed results are processed to make cursors 70L, 70R interlock with the movement of the input devices 3L, 3R. A player moves the cursor 70L or 70R to a blinking fixed position object 100 and clenches one hand. The input device 3L or 3R attached to the clenched hand is not photographed (non-input state). When the player performs these operations, another fixed position object 100 blinks, and thereby the player performs similar operation. The processing is repeated. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、被写体の撮像結果を利用する入力方法及びその関連技術に関する。   The present invention relates to an input method using an imaging result of a subject and related technology.

本件出願人による特許文献1に開示されているゴルフゲームシステムは、ゲーム機及びゴルフクラブ型入力装置を含み、ゲーム機のハウジングの内部には撮像ユニットが収納され、この撮像ユニットは、イメージセンサ及び赤外発光ダイオード等から構成される。赤外発光ダイオードによって撮像ユニットの前方の所定範囲に赤外光が間欠的に照射され、したがって、イメージセンサは、その範囲内で移動するゴルフクラブ型入力装置に設けられた反射体を間欠的に撮影する。このような反射体のストロボ映像を処理することによって、ゲーム機の入力となる入力装置の速度などを計算する。このように、ストロボスコープを用いてコンピュータやゲーム機にリアルタイムで入力を与えることができる。   The golf game system disclosed in Patent Document 1 by the applicant of the present application includes a game machine and a golf club type input device, and an imaging unit is housed inside the housing of the game machine. It is composed of an infrared light emitting diode or the like. Infrared light is intermittently irradiated to a predetermined range in front of the imaging unit by the infrared light emitting diode, and therefore the image sensor intermittently applies a reflector provided in the golf club type input device moving within the range. Take a picture. By processing such a strobe image of the reflector, the speed of the input device serving as an input of the game machine is calculated. In this way, an input can be given in real time to a computer or game machine using a stroboscope.

特開2004−85524号公報JP 2004-85524 A

本発明の目的は、被写体の撮像結果を利用して入力を与えることができる新規な入力方法及びその関連技術を提供することである。   An object of the present invention is to provide a novel input method and related technology capable of giving an input by using an imaging result of a subject.

本発明の第1の形態によると、入力方法は、表示装置にターゲット画像を表示するステップと、前記表示装置にカーソルを表示するステップと、ユーザの手の平に装着された被写体を撮像するステップと、前記撮像によって得られた前記被写体の像に基づいて、前記被写体の動きを検出するステップと、前記検出された前記被写体の動きに応じて、前記カーソルを移動するステップと、前記カーソルが前記ターゲット画像に重なった直後に、前記被写体の像が得られなかった場合に、前記ターゲット画像及び/又は前記カーソルに所定の変化を与えるステップと、を含む。   According to the first aspect of the present invention, the input method includes a step of displaying a target image on a display device, a step of displaying a cursor on the display device, a step of imaging a subject worn on the palm of the user, The step of detecting the movement of the subject based on the image of the subject obtained by the imaging, the step of moving the cursor according to the detected movement of the subject, and the cursor being the target image And a step of giving a predetermined change to the target image and / or the cursor when an image of the subject is not obtained immediately after the image is overlaid on the cursor.

この構成によれば、ユーザは、手の平を開いた状態でカーソルを移動し、ターゲット画像に重ね、そして、手を握り締めて、被写体を隠すことにより、ターゲット画像及び/又はカーソルに変化を与えることができる。つまり、ユーザは、カーソルをターゲット画像まで動かし、手を握り締めることによって、ターゲット画像及び/又はカーソルに変化を与えることができる。従って、ユーザは、あたかもターゲット画像を握るかのような操作によって入力を与えることができる。   According to this configuration, the user can change the target image and / or the cursor by moving the cursor with the palm open, overlaying the target image, and clenching the hand to hide the subject. it can. That is, the user can change the target image and / or the cursor by moving the cursor to the target image and clenching the hand. Therefore, the user can give an input by an operation as if holding the target image.

上記入力方法において、前記ターゲット画像は、任意の位置又は複数の所定位置のうちのいずれかの位置に、非表示の状態から出現する。   In the input method, the target image appears from a non-display state at an arbitrary position or any one of a plurality of predetermined positions.

上記入力方法において、前記ターゲット画像は、任意の位置又は所定位置に予め静止して表示されてもよい。   In the input method, the target image may be statically displayed in advance at an arbitrary position or a predetermined position.

上記入力方法において、前記ターゲット画像は、複数であり、複数の任意の位置又は複数の所定位置に予め静止して表示されてもよい。   In the above input method, the target image may be plural, and may be statically displayed in advance at a plurality of arbitrary positions or a plurality of predetermined positions.

上記入力方法において、前記ターゲット画像は、移動する動画像であることもできる。   In the input method, the target image may be a moving moving image.

本発明の第2の形態によると、入力方法は、表示装置に第1オブジェクトを表示するステップと、複数の被写体を撮像するステップと、前記撮像によって得られた前記複数の被写体の像に基づいて、前記複数の被写体の位置を検出するステップと、前記検出された前記複数の被写体の位置関係に応じて、前記第1オブジェクトの形態を変化させるステップと、を含む。   According to the second aspect of the present invention, the input method is based on the step of displaying the first object on the display device, the step of imaging a plurality of subjects, and the images of the plurality of subjects obtained by the imaging. Detecting the positions of the plurality of subjects, and changing the form of the first object according to the detected positional relationship between the plurality of subjects.

この構成によれば、ユーザは、複数の被写体を動かすことによって、それらの位置関係に応じた形態に、第1オブジェクトを変化させることができる。   According to this structure, the user can change a 1st object to the form according to those positional relationship by moving a some to-be-photographed object.

この入力方法は、前記表示装置に第2オブジェクトを表示するステップと、前記第1オブジェクトと前記第2オブジェクトとが所定の位置関係を満たした場合に、前記第2オブジェクトに変化を与えるステップと、をさらに含む。   The input method includes a step of displaying a second object on the display device, and a step of changing the second object when the first object and the second object satisfy a predetermined positional relationship; Further included.

この構成によれば、ユーザは、複数の被写体を動かすことによって、第1オブジェクトに変化を与え、応じて、第2オブジェクトに変化を与えることができる。   According to this configuration, the user can change the first object by moving a plurality of subjects and accordingly change the second object.

本発明の第3の形態によると、練磨方法は、被写体を撮像するステップと、前記撮像によって得られた前記被写体の画像に基づいて、前記被写体の動きを検出するステップと、前記検出された前記被写体の動きに応じて、表示装置のスクリーンに表示されたカーソルを移動させるステップと、前記スクリーンに、静止した又は移動するターゲットを出現させるステップと、少なくとも前記ターゲットに前記カーソルが重なったことを条件として、当該ターゲットに所定の変化を与えるステップと、出現させる前記ステップと変化を与える前記ステップとを繰り返すステップと、を含み、前記ターゲットを出現させる位置は、その都度、新たに設定される。   According to a third aspect of the present invention, the training method includes the steps of imaging a subject, detecting the movement of the subject based on the image of the subject obtained by the imaging, and detecting the detected A condition that the cursor displayed on the screen of the display device is moved according to the movement of the subject, a step where a stationary or moving target appears on the screen, and at least the cursor overlaps the target And the step of giving a predetermined change to the target, and the step of repeating the step of causing the change and the step of giving the change, and the position where the target appears is newly set each time.

この構成によれば、プレイヤは、被写体を動かすことにより、カーソルを操作できる。従って、プレイヤに対して、出現した静止ターゲットに、できるだけ早くカーソルを重ねるように指示することができる。プレイヤが、このような指示に基づく動作を繰り返すことにより、次々に現れる静止ターゲットに、いかに早く反応できるか、という能力(動体認識の一種)のトレーニングを行うことができる。   According to this configuration, the player can operate the cursor by moving the subject. Therefore, it is possible to instruct the player to place the cursor on the stationary target that appears as soon as possible. By repeating the action based on such an instruction, the player can perform training on the ability (a kind of moving object recognition) of how quickly he can react to stationary targets that appear one after another.

また、プレイヤに対して、できるだけ多くの動き回るターゲットに、できるだけ早くカーソルを移動させる動作を行わせることができる。その結果、俊敏性及び先を読む力のトレーニングを行うことができる。   Further, it is possible to cause the player to move the cursor as quickly as possible to the target that moves around as much as possible. As a result, agility and ability to read ahead can be trained.

ここで、静止したターゲットの出現とは、ターゲットを表すオブジェクトを出現させることを含む他、色彩及び形状等の形態の変化により出現を表すこと、並びに、それらの組み合わせが含まれる。また、所定の変化には、形態の変化及びターゲットの消滅等が含まれる。   Here, the appearance of a stationary target includes not only the appearance of an object representing the target but also the appearance of the object by a change in form such as color and shape, and combinations thereof. In addition, the predetermined change includes a change in form and disappearance of a target.

この練磨方法は、前記被写体としての反射体に光を照射するステップと、前記反射体に照射され、前記反射体が反射した前記光に基づく像が、撮像する前記ステップで得られたときに、前記被写体が検出されたとして第1の入力状態であると判定するステップと、前記反射体に照射され、前記反射体が反射した前記光に基づく像が、撮像する前記ステップで得られなかったときに、前記被写体が検出されていないとして第2の入力状態であると判定するステップと、をさらに含み、前記所定の変化を与える前記ステップでは、前記第1の入力状態において前記ターゲットに前記カーソルが重なった状態から、前記第2の入力状態が判定された場合に、当該ターゲットに前記所定の変化を与える。   In this training method, when a light is applied to the reflector as the subject, and an image based on the light irradiated to the reflector and reflected by the reflector is obtained in the step of capturing, A step of determining that the subject is detected as being in the first input state, and an image based on the light which is irradiated on the reflector and reflected by the reflector is not obtained in the step of capturing. And determining that the subject is in the second input state because the subject has not been detected. In the step of giving the predetermined change, the cursor is placed on the target in the first input state. When the second input state is determined from the overlapped state, the predetermined change is given to the target.

この構成によれば、プレイヤが、反射体を撮像させたら第1の入力状態と判定され、反射体を撮像されないようにしたら第2の入力状態と判定される。そして、プレイヤが、第1の入力状態でカーソルをターゲットに重ねただけでは、その選択は確定せず、第2の入力状態にしてはじめて選択が確定する。従って、プレイヤは、ターゲットに所定の変化を与えるためには、反射体を撮像される状態から撮像されない状態にしなければならい。これに伴って、プレイヤは、その様な状態の変化に応じた運動をすることになる。その結果、上記した能力のトレーニングだけでなく、プレイヤに対して、運動を行わせることができ、健康の維持・増進やリハビリテーションの支援を図ることができる。   According to this configuration, when the player images the reflector, the first input state is determined, and when the player is not imaged, the second input state is determined. Then, if the player simply superimposes the cursor on the target in the first input state, the selection is not confirmed, but the selection is confirmed only after the second input state. Therefore, in order to give a predetermined change to the target, the player has to change the state of the reflector from being picked up to not picked up. Along with this, the player moves according to such a change in the state. As a result, in addition to the above-described ability training, the player can be exercised, and health maintenance / promotion and rehabilitation can be supported.

本発明の第4の形態によると、練磨方法は、被写体を撮像するステップと、前記撮像によって得られた前記被写体の画像に基づいて、前記被写体の動きを検出するステップと、前記検出された前記被写体の動きに応じて、表示装置のスクリーンに表示されたカーソルを移動させるステップと、前記スクリーンに、そのスクリーン上を動き回るオブジェクトを出現させるステップと、を含む。   According to a fourth aspect of the present invention, the training method includes the steps of imaging the subject, detecting the movement of the subject based on the image of the subject obtained by the imaging, and detecting the detected The method includes a step of moving a cursor displayed on a screen of a display device in accordance with a movement of a subject, and a step of causing an object moving around on the screen to appear on the screen.

この構成によれば、プレイヤは、被写体を動かすことにより、カーソルを操作できる。従って、プレイヤに対して、動き回るオブジェクトに、衝突しないようにカーソルを動かすように指示することができる。プレイヤが、このような指示に基づく動作を繰り返すことにより、いかに巧くオブジェクトを避けることができるか、という能力(動体予測の一種)のトレーニングを行うことができる。   According to this configuration, the player can operate the cursor by moving the subject. Therefore, it is possible to instruct the player to move the cursor so that the moving object does not collide. The player can perform training on the ability (a kind of moving object prediction) of how to avoid an object skillfully by repeating an action based on such an instruction.

この練磨方法は、所定条件に従って、前記スクリーンに、そのスクリーン上を動き回る新たなオブジェクトを出現させるステップをさらに含む。この構成によれば、次々にオブジェクトを出現させることができるので、難易度の向上を図ることができる。   The training method further includes causing a new object that moves around the screen to appear on the screen according to a predetermined condition. According to this configuration, since objects can appear one after another, the difficulty level can be improved.

この練磨方法において、前記オブジェクトの出現位置は、その都度、新たに設定される。この構成によれば、オブジェクトの出現位置が一定していないので、より一層難易度の向上を図ることができる。   In this training method, the appearance position of the object is newly set each time. According to this configuration, since the appearance position of the object is not constant, the difficulty level can be further improved.

上記練磨方法は、前記カーソルが前記オブジェクトに衝突したか否かを判定するステップをさらに含む。この構成によれば、カーソルがオブジェクトに衝突したことが分かるので、カーソルがオブジェクトに衝突したときに、映像及び/又は音声により、その旨をプレイヤに通知できる。   The training method further includes a step of determining whether or not the cursor has collided with the object. According to this configuration, since it is known that the cursor has collided with the object, when the cursor collides with the object, it can be notified to the player by video and / or audio.

本発明の第5の形態によると、練磨方法は、被写体を撮像するステップと、前記撮像によって得られた前記被写体の画像に基づいて、前記被写体の動きを検出するステップと、前記検出された前記被写体の動きに応じて、表示装置のスクリーンに表示されたカーソルを移動させるステップと、順番が割り当てられた複数のターゲットを前記スクリーンに表示するステップと、前記順番に従って少なくとも前記ターゲットに前記カーソルが重なったことを条件として、当該ターゲットに所定の変化を与えるステップと、を含む。   According to a fifth aspect of the present invention, the training method includes the steps of imaging a subject, detecting the movement of the subject based on the image of the subject obtained by the imaging, and detecting the detected Moving the cursor displayed on the screen of the display device in accordance with the movement of the subject; displaying the plurality of targets assigned with an order on the screen; and overlapping the cursor with at least the target according to the order. And subjecting the target to a predetermined change.

この構成によれば、プレイヤは、被写体を動かすことにより、カーソルを操作できる。従って、プレイヤに対して、順番に従って、表示されたターゲットに、できるだけ早くカーソルを重ねるように指示することができる。プレイヤが、このような指示に基づく動作を繰り返すことにより、いかに早く、しかも、順番どおりに、ターゲットを認識することができるか、という能力(瞬間認識の一種)のトレーニングを行うことができる。   According to this configuration, the player can operate the cursor by moving the subject. Therefore, it is possible to instruct the player to place the cursor on the displayed target as soon as possible according to the order. By repeating the action based on such an instruction, the player can perform training on the ability (a kind of instantaneous recognition) of how quickly the target can be recognized in order.

ここで、所定の変化には、形態の変化及びターゲットの消滅等が含まれる。   Here, the predetermined change includes a change in form and disappearance of the target.

この練磨方法において、前記ターゲットには、数字が付されており、前記複数のターゲットに付された複数の前記数字は、連続した整数である。この構成によれば、プレイヤに対して、付された数字の順番に従って、ターゲットに、できるだけ早くカーソルを重ねるように指示することができる。一方、上記練磨方法において、前記ターゲットに数字を付し、前記複数のターゲットに付された複数の前記数字を、不連続かつ異なった整数とすることもできる。この構成によれば、ターゲットに付された数字は、不連続かつ異なった整数であるため、難易度の向上を図ることができる。   In this training method, numbers are attached to the targets, and the plurality of numbers attached to the plurality of targets are continuous integers. According to this configuration, it is possible to instruct the player to place the cursor on the target as soon as possible in accordance with the order of the attached numbers. On the other hand, in the above training method, a number may be attached to the target, and the plurality of numbers attached to the plurality of targets may be discontinuous and different integers. According to this configuration, since the numbers assigned to the targets are discontinuous and different integers, the difficulty level can be improved.

上記練磨方法は、前記被写体としての反射体に光を照射するステップと、前記反射体に照射され、前記反射体が反射した前記光に基づく像が、撮像する前記ステップで得られたときに、前記被写体が検出されたとして第1の入力状態であると判定するステップと、前記反射体に照射され、前記反射体が反射した前記光に基づく像が、撮像する前記ステップで得られなかったときに、前記被写体が検出されていないとして第2の入力状態であると判定するステップと、をさらに含み、前記所定の変化を与える前記ステップでは、前記第1の入力状態において前記順番に従って前記ターゲットに前記カーソルが重なった状態から、前記第2の入力状態が判定された場合に、当該ターゲットに前記所定の変化を与える。   The training method includes the steps of irradiating a reflector as the subject with light, and when the image based on the light that is reflected on the reflector and reflected by the reflector is obtained in the step of capturing, A step of determining that the subject is detected as being in the first input state, and an image based on the light which is irradiated on the reflector and reflected by the reflector is not obtained in the step of capturing. And determining that the subject is in the second input state because the subject has not been detected, and in the step of giving the predetermined change, the target is applied to the target in the order in the first input state. When the second input state is determined from the state where the cursor overlaps, the predetermined change is given to the target.

この構成によれば、プレイヤが、反射体を撮像させたら第1の入力状態と判定され、反射体を撮像されないようにしたら第2の入力状態と判定される。そして、プレイヤが、第1の入力状態でカーソルをターゲットに重ねただけでは、その選択は確定せず、第2の入力状態にしてはじめて選択が確定する。従って、プレイヤは、ターゲットに所定の変化を与えるためには、反射体を撮像される状態から撮像されない状態にしなければならい。これに伴って、プレイヤは、その様な状態の変化に応じた運動をすることになる。その結果、上記した能力のトレーニングだけでなく、プレイヤに対して、運動を行わせることができ、健康の維持・増進やリハビリテーションの支援を図ることができる。   According to this configuration, when the player images the reflector, the first input state is determined, and when the player is not imaged, the second input state is determined. Then, if the player simply superimposes the cursor on the target in the first input state, the selection is not confirmed, but the selection is confirmed only after the second input state. Therefore, in order to give a predetermined change to the target, the player has to change the state of the reflector from being picked up to not picked up. Along with this, the player moves according to such a change in the state. As a result, in addition to the above-described ability training, the player can be exercised, and health maintenance / promotion and rehabilitation can be supported.

本発明の第6の形態によると、練磨方法は、被写体を撮像するステップと、前記撮像によって得られた前記被写体の画像に基づいて、前記被写体の動きを検出するステップと、前記検出された前記被写体の動きに応じて、表示装置のスクリーンに表示されたカーソルを移動させるステップと、前記スクリーンの予め定められた複数の位置に、静止した複数の定位置オブジェクトを表示するステップと、前記定位置オブジェクトが表示された位置に、所定時間だけ、マーカを表示するステップと、前記マーカを表示する前記ステップを繰り返すステップと、を含み、繰り返す前記ステップでは、前記マーカを表示する位置は、前記複数の定位置オブジェクトの中から、その都度、新たに選択される。   According to a sixth aspect of the present invention, the training method includes the steps of imaging the subject, detecting the movement of the subject based on the image of the subject obtained by the imaging, and detecting the detected Moving the cursor displayed on the screen of the display device according to the movement of the subject; displaying a plurality of stationary objects at a plurality of predetermined positions on the screen; and A step of displaying a marker at a position where the object is displayed for a predetermined time; and a step of repeating the step of displaying the marker. In the step of repeating, the position of displaying the marker includes the plurality of positions. A new one is selected from the fixed position objects each time.

この構成によれば、プレイヤは、被写体を動かすことにより、カーソルを操作できる。従って、プレイヤに対して、所定の時期に表示されたマーカの位置を、カーソルで特定することを指示することができる。プレイヤに対して、このような特定する動作を、マーカを表示するステップを繰り返すステップの終了後に行わせることで、プレイヤの短期的な記憶力(短期記憶の一種)のトレーニングを図ることができる。   According to this configuration, the player can operate the cursor by moving the subject. Therefore, it is possible to instruct the player to specify the position of the marker displayed at a predetermined time with the cursor. By allowing the player to perform such a specified action after the step of repeating the step of displaying the marker, the player can be trained in short-term memory (a kind of short-term memory).

この練磨方法において、繰り返す前記ステップでは、各々前記所定時間だけ順次表示される複数の前記マーカは、それぞれ複数形態のうちのいずれかに属する。この構成によれば、プレイヤに対して、特定するマーカの形態をも指示できるので、難易度の向上を図ることができる。一方、上記練磨方法において、表示する前記ステップにて、所定数かつ複数の前記マーカを、前記所定時間だけ、異なる前記定位置オブジェクトの位置に同時に表示することもできる。この構成によれば、プレイヤに対して、複数のマーカを特定することを指示できるので、難易度の向上を図ることができる。さらに、この練磨方法において、表示する前記ステップにて、異なる前記定位置オブジェクトの位置に同時に表示される前記所定数かつ前記複数のマーカを、それぞれ複数形態のうちのいずれかに属するようにすることもできる。この構成によれば、プレイヤに対して、特定する複数のマーカの形態をも指示できるので、より一層難易度の向上を図ることができる。   In this training method, in the repeating step, the plurality of markers that are sequentially displayed for the predetermined time each belong to one of a plurality of forms. According to this configuration, since it is possible to instruct the player on the form of the marker to be specified, the difficulty level can be improved. On the other hand, in the training method, in the step of displaying, a predetermined number and a plurality of the markers can be simultaneously displayed at the positions of different fixed position objects for the predetermined time. According to this configuration, since it is possible to instruct the player to specify a plurality of markers, the difficulty level can be improved. Further, in this training method, in the step of displaying, the predetermined number and the plurality of markers displayed simultaneously at different positions of the fixed-position objects belong to one of a plurality of forms, respectively. You can also. According to this configuration, since it is possible to instruct the player on the forms of a plurality of markers to be specified, the difficulty level can be further improved.

上記練磨方法は、所定の時期に表示された前記マーカの位置を特定することを指示する映像及び/又は音声を出力するステップと、特定することを指示された前記マーカが位置した前記定位置オブジェクトに、前記カーソルが重なっているか否かを判定する第1判定ステップと、をさらに含む。   The training method includes a step of outputting a video and / or sound instructing to specify a position of the marker displayed at a predetermined time, and the fixed-position object in which the marker instructed to specify is located And a first determination step of determining whether or not the cursors overlap.

この構成によれば、カーソルが正しい位置に置かれたか否かが分かるので、映像及び/又は音声により、その正否をプレイヤに通知できる。   According to this configuration, since it is known whether or not the cursor is placed at the correct position, it is possible to notify the player of the correctness by video and / or audio.

この練磨方法は、前記被写体としての反射体に光を照射するステップと、前記反射体に照射され、前記反射体が反射した前記光に基づく像が、撮像する前記ステップで得られたときに、前記被写体が検出されたとして第1の入力状態であると決定するステップと、前記反射体に照射され、前記反射体が反射した前記光に基づく像が、撮像する前記ステップで得られなかったときに、前記被写体が検出されていないとして第2の入力状態であると決定するステップと、特定することを指示された前記マーカが位置した前記定位置オブジェクトに、前記第1の入力状態において前記カーソルが重なった状態から、前記第2の入力状態になったか否かを判定する第2判定ステップと、をさらに含む。   In this training method, when a light is applied to the reflector as the subject, and an image based on the light irradiated to the reflector and reflected by the reflector is obtained in the step of capturing, A step of determining that the subject is detected as being in a first input state, and an image based on the light irradiated on the reflector and reflected by the reflector is not obtained in the step of capturing. And determining that the subject is in a second input state because the subject has not been detected, and moving the cursor in the first input state to the fixed-position object where the marker instructed to specify is located. And a second determination step of determining whether or not the second input state has been reached from the state in which the two have overlapped.

この構成によれば、プレイヤが、反射体を撮像させたら第1の入力状態と判定され、反射体を撮像されないようにしたら第2の入力状態と判定される。そして、第1の入力状態を選択状態、第2の入力状態を選択確定状態とすることができる。従って、プレイヤが、第1の入力状態でカーソルを定位置オブジェクトに重ねただけでは、その選択は確定せず、第2の入力状態にしてはじめて選択が確定する。このため、プレイヤは、選択を確定するためには、反射体を撮像される状態から撮像されない状態にしなければならい。これに伴って、プレイヤは、その様な状態の変化に応じた運動をすることになる。その結果、上記した能力のトレーニングだけでなく、プレイヤに対して、運動を行わせることができ、健康の維持・増進やリハビリテーションの支援を図ることができる。   According to this configuration, when the player images the reflector, the first input state is determined, and when the player is not imaged, the second input state is determined. The first input state can be the selected state, and the second input state can be the selected confirmed state. Therefore, if the player simply superimposes the cursor on the fixed position object in the first input state, the selection is not confirmed, but the selection is confirmed only after the second input state. For this reason, in order to confirm the selection, the player has to change the state where the reflector is imaged to the state where the image is not imaged. Along with this, the player moves according to such a change in the state. As a result, in addition to the above-described ability training, the player can be exercised, and health maintenance / promotion and rehabilitation can be supported.

さらに、この練磨方法は、前記第2判定ステップで前記第2の入力状態になったと判定された場合に、当該カーソルが、どの前記定位置オブジェクトに重なっているかを記憶するステップと、前記定位置オブジェクトが表示されている領域以外の領域であって、前記スクリーンの所定位置に所定オブジェクトを表示するステップと、前記第1の入力状態において前記カーソルが前記所定オブジェクトに重なった状態から、前記第2の入力状態になったか否かを判定する第3判定ステップと、前記第3判定ステップで前記第2の入力状態になったと判定された場合に、記憶する前記ステップで記憶した情報を参照して、その情報が、出力する前記ステップによる指示に合致しているか否かを判定する第4判定ステップと、をさらに含む。   Further, in the training method, when it is determined in the second determination step that the second input state has been established, a step of storing which fixed position object the cursor is over, and the fixed position From the step of displaying the predetermined object at a predetermined position on the screen in a region other than the region where the object is displayed, and from the state where the cursor overlaps the predetermined object in the first input state, the second A third determination step for determining whether or not the input state has been reached, and when it is determined in the third determination step that the second input state has been reached, refer to the information stored in the step stored. And a fourth determination step of determining whether or not the information matches the instruction by the step of outputting.

この構成によれば、カーソルが定位置オブジェクト以外の領域に位置する所定オブジェクトに重ねられて、第1の入力状態から第2の入力状態になったときに、指示に合致しているか否かの判定が行われるので、プレイヤが意図していない選択状態に基づいて、指示に合致しているか否かの判定が行われることを極力防止できる。   According to this configuration, whether or not the instruction matches the instruction when the cursor is overlaid on a predetermined object located in a region other than the fixed-position object and is changed from the first input state to the second input state. Since the determination is performed, it is possible to prevent the determination as to whether or not the instruction is matched based on the selection state that the player does not intend as much as possible.

上記第3の形態から第6の形態における練磨方法において、前記カーソルは、透明色又は半透明色を含む。この構成によれば、プレイヤは、カーソルの奥に表示されたものをも視認でき、視認性の向上を図ることができる。   In the training methods according to the third to sixth embodiments, the cursor includes a transparent color or a translucent color. According to this configuration, the player can also visually recognize what is displayed in the back of the cursor, and can improve visibility.

上記第3の形態、第5の形態、及び第6の形態における練磨方法において、撮像する前記ステップでは、各々プレイヤの左右の手に装着された2個の前記反射体が撮像され、移動させる前記ステップでは、一方の前記反射体の動きに応じて、2個の前記カーソルのうちの一方の前記カーソルを移動させ、他方の前記反射体の動きに応じて、他方の前記カーソルを移動させる。この構成によれば、プレイヤは、両手を使うことになるので、両手をバランス良く動かす運動を行うことができる。   In the training method according to the third aspect, the fifth aspect, and the sixth aspect, in the step of imaging, the two reflectors mounted on the left and right hands of the player are imaged and moved. In the step, one of the two cursors is moved according to the movement of one of the reflectors, and the other cursor is moved according to the movement of the other reflector. According to this configuration, since the player uses both hands, the player can perform an exercise of moving both hands in a balanced manner.

上記第3の形態、第5の形態、及び第6の形態における練磨方法において、撮像する前記ステップでは、プレイヤの手に装着された前記反射体が撮像される。この構成によれば、プレイヤは、手の運動を行うことができる。また、これらの練磨方法において、撮像する前記ステップでは、プレイヤの手の平の側に装着された前記反射体が撮像される。この構成によれば、プレイヤは、手を開いて反射体を撮像させ第1の入力状態とし、手を握り締めて反射体を隠して第2の入力状態とすることができる。この場合、手を開くこと(じゃんけんの「ぱあ」)と握り締めること(じゃんけんの「ぐう」)を繰り返すことになる。また、必然的に、ある程度又は完全に、腕を前方に伸ばして、そのような動作を行うことになる。従って、このような、日常生活において、あまり行わない動作に依存する神経や筋肉を鍛えることができる。一方、これらの練磨方法において、撮像する前記ステップでは、プレイヤの手の甲の側に装着された前記反射体が撮像されることもできる。この構成によれば、プレイヤは、手の甲の側を撮像装置に向けて反射体を撮像させ第1の入力状態とし、手の平の側を撮像装置に向けて反射体を隠して第2の入力状態とすることができる。この場合、肘を支点、腕を軸にして手を回転させることになる。また、必然的に、ある程度又は完全に、腕を前方に伸ばして、そのような動作を行うことになる。従って、このような、日常生活において、あまり行わない動作に依存する神経や筋肉を鍛えることができる。また、プレイヤは、手を握り締めた状態でこぶしを撮像装置に向けて反射体を撮像させ第1の入力状態とし、こぶしを撮像装置から隠して(例えば左右の手の指背部を合わせて)非入力状態とすることができる。従って、このような、日常生活において、あまり行わない動作に依存する神経や筋肉を鍛えることができる。   In the training method according to the third, fifth, and sixth aspects, in the step of imaging, the reflector attached to the player's hand is imaged. According to this configuration, the player can perform hand exercise. In these training methods, in the step of imaging, the reflector mounted on the palm side of the player is imaged. According to this configuration, the player can open the hand to capture the image of the reflector to be in the first input state, and can hold the hand and conceal the reflector to be in the second input state. In this case, open hands (Janken's "Pa") and clenching (Janken's "Guu") are repeated. Inevitably, such an operation is performed by extending the arm forward to some extent or completely. Therefore, it is possible to train nerves and muscles that depend on actions that are not often performed in daily life. On the other hand, in these training methods, in the step of imaging, the reflector mounted on the back side of the player's hand can be imaged. According to this configuration, the player captures the reflector with the back side of the hand facing the imaging device to be in the first input state, hides the reflector with the palm side facing the imaging device, and is in the second input state. can do. In this case, the hand is rotated about the elbow as a fulcrum and the arm as an axis. Inevitably, such an operation is performed by extending the arm forward to some extent or completely. Therefore, it is possible to train nerves and muscles that depend on actions that are not often performed in daily life. In addition, the player holds the hand and holds the fist toward the imaging device to image the reflector to enter the first input state, and hides the fist from the imaging device (for example, aligning the finger backs of the left and right hands). It can be in an input state. Therefore, it is possible to train nerves and muscles that depend on actions that are not often performed in daily life.

本発明の第7の形態によると、練磨方法は、プレイヤの手に装着された被写体としての反射体に光を照射するステップと、前記反射体を撮像するステップと、前記撮像によって得られた前記反射体の画像に基づいて、前記反射体の動きを検出するステップと、前記検出された前記反射体の動きに応じて、表示装置のスクリーンに表示されたカーソルを移動させるステップと、前記反射体に照射され、前記反射体が反射した前記光に基づく像が、撮像する前記ステップで得られたときに、前記被写体が検出されたとして第1の入力状態であると判定するステップと、前記反射体に照射され、前記反射体が反射した前記光に基づく像が、撮像する前記ステップで得られなかったときに、前記被写体が検出されていないとして第2の入力状態であると判定するステップと、コンピュータプログラムに従って、前記カーソルと共に、前記スクリーンに映像を表示するステップと、を含む。   According to a seventh aspect of the present invention, the training method includes the steps of irradiating a reflector as a subject attached to a player's hand with light, imaging the reflector, and the imaging obtained by the imaging. Detecting a movement of the reflector based on an image of the reflector, moving a cursor displayed on a screen of a display device according to the detected movement of the reflector, and the reflector Determining that the subject is detected as being in the first input state when an image based on the light that is irradiated on the reflector and reflected by the reflector is obtained in the step of capturing, and the reflection When the image based on the light irradiated onto the body and reflected by the reflector is not obtained in the step of capturing, the subject is not detected and the second input state is set. Determining, according to a computer program, along with the cursor, and displaying an image on the screen.

この構成によれば、プレイヤが、反射体を撮像させたら第1の入力状態と判定され、反射体を撮像されないようにしたら第2の入力状態と判定される。従って、プレイヤに対して、第1の入力状態と第2の入力状態とを繰り返し行わせるような映像をコンピュータプログラムによって表示することにより、プレイヤは、反射体が撮像される状態と撮像されない状態とを繰り返しつくり出さなければならない。これに伴って、プレイヤは、その様な状態の変化に応じた運動をすることになる。その結果、プレイヤに対して、運動を行わせることができ、健康の維持・増進やリハビリテーションの支援を図ることができる。   According to this configuration, when the player images the reflector, the first input state is determined, and when the player is not imaged, the second input state is determined. Therefore, by displaying an image that causes the player to repeatedly perform the first input state and the second input state by the computer program, the player can be in a state in which the reflector is imaged and a state in which the reflector is not imaged. Must be created repeatedly. Along with this, the player moves according to such a change in the state. As a result, the player can exercise and can support health maintenance / promotion and rehabilitation.

この練磨方法において、表示する前記ステップでは、前記映像は、人間の所定の能力に関連したものである。   In this training method, in the step of displaying, the video is related to a predetermined human ability.

この構成によれば、スクリーンに表示される映像が、人間の所定の能力に関連しているので、プレイヤに対して、この映像に関連して、反射体が撮像される状態と撮像されない状態とを繰り返し行わせることにより、人間の所定の能力のトレーニングを行うことができる。   According to this configuration, since the image displayed on the screen is related to a predetermined human ability, the state in which the reflector is imaged and the state in which the reflector is not imaged in relation to this image is given to the player. By repeating the above, it is possible to perform training with a predetermined human ability.

ここで、所定の能力とは、動体認識能力、動体予測能力、瞬間認識能力、及び短期記憶能力など、目等の感覚器官→感覚神経→脳→運動神経→手等の身体の部位という一連の伝達機能及び記憶機能を含む。   Here, the predetermined ability is a series of sensory organs such as eyes → sensory nerves → brain → motor nerves → parts of the body such as hands, such as dynamic body recognition ability, dynamic body prediction ability, instantaneous recognition ability, and short-term memory ability. Includes transmission and storage functions.

本発明の第8の形態によると、練磨方法は、被写体を撮像するステップと、前記撮像によって得られた前記被写体の画像に基づいて、前記被写体の動きを検出するステップと、前記検出された前記被写体の動きに応じて、表示装置のスクリーンに表示されたカーソルを移動させるステップと、音声及び/又は映像により言語情報をプレイヤに提示するステップと、音声及び/又は映像により前記言語情報に対応する第1の感覚情報と前記言語情報と相反する第2の感覚情報とを前記プレイヤに提示するステップと、を含む。   According to an eighth aspect of the present invention, the training method includes the steps of imaging the subject, detecting the movement of the subject based on the image of the subject obtained by the imaging, and detecting the detected Corresponding to the language information by voice and / or video, moving the cursor displayed on the screen of the display device according to the movement of the subject, presenting language information to the player by voice and / or video Presenting the first sensory information and the second sensory information that conflicts with the language information to the player.

この構成によれば、ストループ効果を利用して、プレイヤに対して、行動選択及び妨害排除といった機能の練磨を行わせることができる。ここで、ストループ効果(stroop effect)とは、人間の情報処理過程において、感覚情報(例えば色)と言語情報(例えば文字)とが干渉しあう現象のことである。   According to this configuration, it is possible to cause the player to refine functions such as action selection and interference elimination using the Stroop effect. Here, the “Stroop effect” is a phenomenon in which sensory information (for example, color) and language information (for example, characters) interfere with each other in a human information processing process.

本発明の第9の形態によると、練磨方法は、被写体を撮像するステップと、前記撮像によって得られた前記被写体の画像に基づいて、前記被写体の動きを検出するステップと、前記検出された前記被写体の動きに応じて、表示装置のスクリーンに表示されたカーソルを移動するステップと、前記スクリーンに表示された所定のオブジェクトを、所定の規則に従って、前記カーソルに向かって移動させるステップと、前記スクリーンにターゲットを表示するステップと、前記ターゲットを含む所定領域に前記所定のオブジェクトが重なったか否かを判定するステップと、前記スクリーンに前記所定のオブジェクトが回避すべき移動する回避オブジェクトを表示するステップと、前記所定のオブジェクトが前記回避オブジェクトに接触したか否かを判定するステップと、を含む。   According to a ninth aspect of the present invention, the training method includes a step of imaging a subject, a step of detecting a movement of the subject based on an image of the subject obtained by the imaging, and the detected Moving the cursor displayed on the screen of the display device in accordance with the movement of the subject; moving the predetermined object displayed on the screen toward the cursor according to a predetermined rule; Displaying a target on the screen, determining whether or not the predetermined object has overlapped a predetermined area including the target, and displaying a moving avoidance object to be avoided by the predetermined object on the screen; Whether or not the predetermined object has touched the avoidance object Comprising determining the.

この構成によれば、回避オブジェクトに所定のオブジェクトが接触したときに、減点等の不利益をプレイヤに与えることにすれば、プレイヤに対して、回避オブジェクトに所定のオブジェクトが接触しないように、カーソルを操作して、所定のオブジェクトをターゲットに導く動作を行わせることができる。その結果、プレイヤは、回避オブジェクトの動きを予想しながら、カーソルを操作しなければならず、先を読む力の鍛錬を行うことができる。   According to this configuration, when a predetermined object comes into contact with the avoidance object, if the player is given a disadvantage such as deduction, the cursor is prevented from contacting the avoidance object with the avoidance object. Can be operated to guide a predetermined object to the target. As a result, the player must operate the cursor while predicting the movement of the avoidance object, and can train the ability to read ahead.

本発明の第10の形態によると、練磨方法は、被写体を撮像するステップと、前記撮像によって得られた前記被写体の画像に基づいて、前記被写体の動きを検出するステップと、前記検出された前記被写体の動きに応じて、表示装置のスクリーンに表示された応答オブジェクトの動きを制御するステップと、複数種類の移動オブジェクトを前記スクリーン上に出現させ移動させるステップと、前記移動オブジェクトと前記応答オブジェクトとの位置関係が所定の条件を満たしたときに、前記移動オブジェクトの移動方向を変化させるステップと、を含み、前記複数種類の前記移動オブジェクトの各々は、異なる内容の情報をプレイヤに提示するものであり、前記練磨方法は、前記複数種類に対応する複数種類のオブジェクトを前記スクリーンに表示するステップをさらに含む。   According to a tenth aspect of the present invention, the training method includes the steps of imaging a subject, detecting the movement of the subject based on the image of the subject obtained by the imaging, and detecting the detected Controlling the movement of the response object displayed on the screen of the display device in accordance with the movement of the subject; causing a plurality of types of moving objects to appear and move on the screen; the moving object and the response object; Changing the moving direction of the moving object when the positional relationship satisfies a predetermined condition, and each of the plurality of types of moving objects presents different information to the player. In the training method, a plurality of types of objects corresponding to the plurality of types are displayed on the screen. Further comprising the step of displaying.

この構成によれば、プレイヤに対して、応答オブジェクトを操作して、移動オブジェクトが提示する情報と同じ種類のオブジェクトに当該移動オブジェクトを打ち返す動作を行わせることができる。その結果、プレイヤは、移動してくる移動オブジェクトが提示する情報の内容を瞬時に判断して、応答オブジェクトの操作により、複数種類のオブジェクトのうちの適切なオブジェクトに移動オブジェクトを打ち返す必要がある。このため、プレイヤの瞬間的な判断力を鍛えることができる。ここで、移動オブジェクトが提示する情報は、色等の感覚情報及び文字等の言語情報を含む。   According to this configuration, it is possible to cause the player to perform an action of operating the response object and returning the moving object to an object of the same type as the information presented by the moving object. As a result, it is necessary for the player to instantaneously determine the content of information presented by the moving moving object and to return the moving object to an appropriate object among a plurality of types of objects by operating the response object. For this reason, a player's instantaneous judgment power can be trained. Here, the information presented by the moving object includes sensory information such as color and language information such as characters.

本発明の第11の形態によると、練磨方法は、複数の被写体を撮像するステップと、前記撮像によって得られた前記被写体の画像に基づいて、前記被写体の動きを検出するステップと、各々対応する前記検出された前記被写体の動きに応答する複数の応答オブジェクトを表示するステップと、各々対応する到達点に向かう複数の経路を同時に表示するステップと、前記経路上を前記到達点に向かって移動する移動オブジェクトを表示するステップと、所定規則に従って、同時に表示する前記複数の経路を異ならせるステップと、を含み、前記応答オブジェクトは、対応する前記到達点に配置される。   According to an eleventh aspect of the present invention, the training method corresponds to a step of imaging a plurality of subjects, and a step of detecting a motion of the subject based on the images of the subjects obtained by the imaging. Displaying a plurality of response objects responding to the detected movement of the subject, simultaneously displaying a plurality of routes to each corresponding destination, and moving on the route toward the destination The method includes a step of displaying a moving object and a step of changing the plurality of paths to be displayed simultaneously according to a predetermined rule, wherein the response object is arranged at the corresponding arrival point.

この構成によれば、プレイヤに対して、移動オブジェクトが応答オブジェクトに到達するタイミングで、応答オブジェクトに変化を与える動作を行わせることができる。その結果、プレイヤは、次々に移動してくる移動オブジェクトに合わせて適切なタイミングで応答オブジェクトを変化させる必要があるので、判断力及び先を読む力を鍛えることができる。また、移動オブジェクトを音楽に合わせて出現及び移動させることにすれば、リズム感を鍛えることもできる。   According to this configuration, it is possible to cause the player to perform an action of changing the response object at the timing when the moving object reaches the response object. As a result, the player needs to change the response object at an appropriate timing in accordance with the moving object that moves one after another, so that the judgment power and the ability to read ahead can be trained. Moreover, if a moving object appears and moves in accordance with music, it is possible to train a sense of rhythm.

本発明の第12の形態によると、練磨方法は、被写体を撮像するステップと、前記撮像によって得られた前記被写体の画像に基づいて、前記被写体の動きを検出するステップと、前記検出された前記被写体の動きに応じて、表示装置のスクリーンに表示されたカーソルを移動するステップと、各々異なる情報を示すN個(Nは2以上の自然数)のオブジェクトを前記スクリーンに表示するステップと、前記N個のオブジェクトが示す前記情報を視認できないようにするステップと、視認できないようにする前記ステップの後、前記N個のオブジェクトのうち、所定数の前記オブジェクトの位置を入れ替えるステップと、位置を入れ替える前記ステップの後、前記N個のオブジェクトのうち、いずれか1つの前記オブジェクトが示す前記情報を明示するステップと、明示する前記ステップで明示された前記情報を示す前記オブジェクトが、前記カーソルにより選択されたか否かを判断するステップと、を含む。   According to a twelfth aspect of the present invention, the training method includes the steps of imaging a subject, detecting the movement of the subject based on the image of the subject obtained by the imaging, and detecting the detected Moving the cursor displayed on the screen of the display device according to the movement of the subject, displaying N objects (N is a natural number of 2 or more) indicating different information on the screen, and the N After the step of making the information indicated by the objects invisible and the step of making the information invisible not visible, the step of exchanging a predetermined number of the objects among the N objects, and the exchanging the positions After the step, the information indicated by any one of the N objects is And Shimesuru step, said object indicating the explicit the information demonstrating the step includes a step of determining whether or not selected by the cursor.

この構成によれば、プレイヤに対して、N個のオブジェクトが示す情報を記憶させ、さらに、オブジェクトのシャッフル後において、明示した情報を示すオブジェクトをカーソルにより選択させることができる。その結果、プレイヤは、N個のオブジェクトの配置とそれらが示す情報を記憶し、かつ、オブジェクトの入れ替えを目で追って記憶して行かなければならない。このため、プレイヤの記憶力を鍛えることができる。   According to this configuration, the information indicated by the N objects can be stored in the player, and the object indicating the specified information can be selected by the cursor after the object is shuffled. As a result, the player must store the arrangement of the N objects and the information indicated by them, and keep track of the replacement of the objects. For this reason, a player's memory can be trained.

以下、本発明の実施の形態について、図面を参照しながら説明する。なお、図中、同一または相当部分については同一の参照符号を付してその説明を援用する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals, and the description thereof is incorporated.

図1は、本発明の実施の形態による練磨システムの全体構成を示すブロック図である。図1に示すように、この練磨システムは、情報処理装置1、入力装置3L及び3R、並びにテレビジョンモニタ5を備える。ここで、入力装置3L及び3Rを区別する必要がないときは、入力装置3と表記する。   FIG. 1 is a block diagram showing the overall configuration of a training system according to an embodiment of the present invention. As shown in FIG. 1, the training system includes an information processing device 1, input devices 3 </ b> L and 3 </ b> R, and a television monitor 5. Here, when it is not necessary to distinguish between the input devices 3L and 3R, they are referred to as the input device 3.

図2は、図1の入力装置3の斜視図である。図2に示すように、入力装置3は、透明体17の底面側にベルト19を通して、そのベルト19を透明体17の内部で固定してなる。透明体17の内面全体にわたって(底面側を除く)、再帰反射シート15が取り付けられる。入力装置3の使用方法は後述する。   FIG. 2 is a perspective view of the input device 3 of FIG. As shown in FIG. 2, the input device 3 is formed by passing a belt 19 on the bottom surface side of the transparent body 17 and fixing the belt 19 inside the transparent body 17. The retroreflective sheet 15 is attached over the entire inner surface of the transparent body 17 (excluding the bottom surface side). A method of using the input device 3 will be described later.

ここで、入力装置3L及び3Rを区別する必要があるときは、入力装置3Lの透明体17および再帰反射シート15を、それぞれ、透明体17Lおよび再帰反射シート15Lと表記し、入力装置3Rの透明体17および再帰反射シート15を、それぞれ、透明体17Rおよび再帰反射シート15Rと表記する。   Here, when it is necessary to distinguish between the input devices 3L and 3R, the transparent body 17 and the retroreflective sheet 15 of the input device 3L are referred to as the transparent body 17L and the retroreflective sheet 15L, respectively, and the input device 3R is transparent. The body 17 and the retroreflective sheet 15 are referred to as a transparent body 17R and a retroreflective sheet 15R, respectively.

図1に戻って、情報処理装置1は、AVケーブル7により、テレビジョンモニタ5に接続される。さらに、情報処理装置1には、図示していないが、ACアダプタあるいは電池により電源電圧が供給される。情報処理装置1の背面には、電源スイッチ(図示せず)が設けられる。   Returning to FIG. 1, the information processing apparatus 1 is connected to the television monitor 5 by the AV cable 7. Further, although not shown, the information processing apparatus 1 is supplied with a power supply voltage by an AC adapter or a battery. A power switch (not shown) is provided on the back surface of the information processing apparatus 1.

情報処理装置1は、その前面側に、赤外光のみを透過する赤外線フィルタ20が設けられ、さらに、赤外線フィルタ20を囲むように、赤外光を発生する4つの赤外発光ダイオード9が露出している。赤外線フィルタ20の背面側には、後述のイメージセンサ54が配置される。   The information processing apparatus 1 is provided with an infrared filter 20 that transmits only infrared light on the front side thereof, and further, four infrared light emitting diodes 9 that generate infrared light are exposed so as to surround the infrared filter 20. is doing. An image sensor 54 described later is disposed on the back side of the infrared filter 20.

4つの赤外発光ダイオード9は、間欠的に赤外光を発光する。そして、赤外発光ダイオード9からの赤外光は、入力装置3に取り付けられた再帰反射シート15により反射され、赤外線フィルタ20の背面側に設けられたイメージセンサ54に入力される。このようにして、イメージセンサ54により、入力装置3が撮影される。   The four infrared light emitting diodes 9 emit infrared light intermittently. The infrared light from the infrared light emitting diode 9 is reflected by the retroreflective sheet 15 attached to the input device 3 and input to the image sensor 54 provided on the back side of the infrared filter 20. In this way, the input device 3 is photographed by the image sensor 54.

赤外光は間欠的に照射されるところ、赤外光の非照射時においても、イメージセンサ54による撮影処理は行われている。情報処理装置1は、プレイヤにより動かされた入力装置3の、赤外光照射時の画像信号と非照射時の画像信号との差分を求めて、この差分信号DI(差分画像DI)を基に、入力装置3(つまり再帰反射シート15)の位置等を算出する。   When infrared light is irradiated intermittently, photographing processing by the image sensor 54 is performed even when infrared light is not irradiated. The information processing apparatus 1 obtains the difference between the image signal at the time of infrared light irradiation and the image signal at the time of non-irradiation of the input device 3 moved by the player, and based on the difference signal DI (difference image DI). The position of the input device 3 (that is, the retroreflective sheet 15) is calculated.

このように、差分を求めることで、再帰反射シート15からの反射光以外の光によるノイズを極力除去でき、精度良く再帰反射シート15を検出できる。   Thus, by obtaining the difference, noise due to light other than the reflected light from the retroreflective sheet 15 can be removed as much as possible, and the retroreflective sheet 15 can be detected with high accuracy.

図3は、図1の入力装置3L及び3Rの使用状態の一例を示す説明図である。図1及び図3に示すように、プレイヤは、中指を図2のベルト19に通して、入力装置3を装着する。この場合、透明体17及び再帰反射シート15が、手の平の側にくるようにする。図1のように、プレイヤが、情報処理装置1に向けて、つまり、イメージセンサ54に向けて、手を開くと、透明体17、つまり、再帰反射シート15が現れ、この再帰反射シート15が撮影される。一方、透明体17を握り締めると、透明体17、つまり、再帰反射シート15は、手の中に隠れてしまい、イメージセンサ54に撮影されない。従って、プレイヤは、手を開いたり閉じたりする動作によって、再帰反射シート15を撮影させたり撮影させなかったりすることにより、情報処理装置1に対する入力の制御を行うことができる。本実施の形態では、再帰反射シート15が撮影された場合を入力状態(第1の入力状態と呼ぶこともある。)、撮影されない状態を非入力状態(第2の入力状態と呼ぶこともある。)とする。   FIG. 3 is an explanatory diagram showing an example of a usage state of the input devices 3L and 3R in FIG. As shown in FIGS. 1 and 3, the player puts the input device 3 by passing the middle finger through the belt 19 in FIG. 2. In this case, the transparent body 17 and the retroreflective sheet 15 are placed on the palm side. As shown in FIG. 1, when the player opens his hand toward the information processing apparatus 1, that is, toward the image sensor 54, the transparent body 17, that is, the retroreflective sheet 15 appears. Taken. On the other hand, when the transparent body 17 is clamped, the transparent body 17, that is, the retroreflective sheet 15 is hidden in the hand and is not photographed by the image sensor 54. Therefore, the player can control the input to the information processing apparatus 1 by causing the retroreflective sheet 15 to be photographed or not photographed by opening and closing the hand. In the present embodiment, the case where the retroreflective sheet 15 is photographed is referred to as an input state (sometimes referred to as a first input state), and the state where the retroreflective sheet 15 is not photographed is sometimes referred to as a non-input state (second input state). .)

図4は、図1の情報処理装置1の電気的構成を示す図である。図4に示すように、情報処理装置1は、マルチメディアプロセッサ50、イメージセンサ54、赤外発光ダイオード9、外部メモリ52、及びバス56を含む。外部メモリ52は、ROM、RAM、及び/又はフラッシュメモリなど、システムの仕様に応じて必要なものを備える。   FIG. 4 is a diagram showing an electrical configuration of the information processing apparatus 1 of FIG. As illustrated in FIG. 4, the information processing apparatus 1 includes a multimedia processor 50, an image sensor 54, an infrared light emitting diode 9, an external memory 52, and a bus 56. The external memory 52 includes a ROM, a RAM, and / or a flash memory that is necessary according to the system specifications.

マルチメディアプロセッサ50は、バス56を通じて、外部メモリ52にアクセスできる。従って、マルチメディアプロセッサ50は、外部メモリ52に格納されたプログラムを実行でき、また、外部メモリ52に格納されたデータをリードして処理することができる。この外部メモリ52に、後述の各種画面の制御、再帰反射シート15L及び15Rの位置検出、並びに入力状態及び非入力状態の判定等の各処理を行うプログラム、画像データ、及び音声データ等が予め格納される。   The multimedia processor 50 can access the external memory 52 through the bus 56. Therefore, the multimedia processor 50 can execute the program stored in the external memory 52 and can read and process the data stored in the external memory 52. The external memory 52 stores in advance a program for performing various processes such as control of various screens described later, position detection of the retroreflective sheets 15L and 15R, and determination of an input state and a non-input state, image data, audio data, and the like. Is done.

このマルチメディアプロセッサは、図示しないが、中央演算処理装置(以下、「CPU」と呼ぶ。)、グラフィックスプロセシングユニット(以下、「GPU」と呼ぶ。)、サウンドプロセシングユニット(以下、「SPU」と呼ぶ。)、ジオメトリエンジン(以下、「GE」と呼ぶ。)、外部インタフェースブロック、メインRAM、及びA/Dコンバータ(以下、「ADC」と呼ぶ。)などを具備する。   Although not shown, the multimedia processor includes a central processing unit (hereinafter referred to as “CPU”), a graphics processing unit (hereinafter referred to as “GPU”), and a sound processing unit (hereinafter referred to as “SPU”). ), A geometry engine (hereinafter referred to as “GE”), an external interface block, a main RAM, an A / D converter (hereinafter referred to as “ADC”), and the like.

CPUは、外部メモリ52に格納されたプログラムを実行して、各種演算やシステム全体の制御を行う。グラフィックス処理に関するCPUの処理として、外部メモリ52に格納されたプログラムを実行して、各オブジェクトの拡大・縮小、回転、及び/又は平行移動のパラメータ、視点座標(カメラ座標)、並びに視線ベクトルの算出等を行う。ここで、1または複数のポリゴン又はスプライトから構成され、同じ拡大・縮小、回転、及び平行移動の変換が適用される単位を「オブジェクト」と呼ぶ。   The CPU executes programs stored in the external memory 52 to perform various calculations and control of the entire system. As processing of the CPU related to graphics processing, a program stored in the external memory 52 is executed, and parameters for enlargement / reduction, rotation, and / or translation of each object, viewpoint coordinates (camera coordinates), and line-of-sight vector are calculated. Perform calculations. Here, a unit composed of one or a plurality of polygons or sprites and applied with the same transformation of enlargement / reduction, rotation, and translation is referred to as an “object”.

GPUは、ポリゴン及びスプライトから構成される三次元イメージをリアルタイムに生成し、アナログのコンポジットビデオ信号に変換する。SPUは、PCM(pulse code modulation)波形データ、アンプリチュードデータ、及びメインボリュームデータを生成し、これらをアナログ乗算して、アナログオーディオ信号を生成する。GEは、三次元イメージを表示するための幾何演算を実行する。具体的には、GEは、行列積、ベクトルアフィン変換、ベクトル直交変換、透視投影変換、頂点明度/ポリゴン明度計算(ベクトル内積)、及びポリゴン裏面カリング処理(ベクトル外積)などの演算を実行する。   The GPU generates a three-dimensional image composed of polygons and sprites in real time and converts it into an analog composite video signal. The SPU generates PCM (pulse code modulation) waveform data, amplitude data, and main volume data, and analog-multiplies them to generate an analog audio signal. The GE performs a geometric operation for displaying a three-dimensional image. Specifically, the GE performs operations such as matrix product, vector affine transformation, vector orthogonal transformation, perspective projection transformation, vertex brightness / polygon brightness calculation (vector inner product), and polygon back surface culling processing (vector outer product).

外部インタフェースブロックは、周辺装置(本実施の形態ではイメージセンサ54及び赤外発光ダイオード9)とのインタフェースであり、24チャンネルのプログラマブルなデジタル入出力(I/O)ポートを含む。ADCは、4チャンネルのアナログ入力ポートに接続され、これらを介して、アナログ入力装置(本実施の形態ではイメージセンサ54)から入力されたアナログ信号をデジタル信号に変換する。メインRAMは、CPUのワーク領域、変数格納領域、および仮想記憶機構管理領域等として利用される。   The external interface block is an interface with peripheral devices (in this embodiment, the image sensor 54 and the infrared light emitting diode 9), and includes a 24-channel programmable digital input / output (I / O) port. The ADC is connected to four-channel analog input ports, and converts analog signals input from the analog input device (in this embodiment, the image sensor 54) into digital signals through these ADCs. The main RAM is used as a CPU work area, a variable storage area, a virtual storage mechanism management area, and the like.

入力装置3L及び3Rは、赤外発光ダイオード9の赤外光に照射され、その赤外光を再帰反射シート15L及び15Rで反射する。この再帰反射シート15L及び15Rからの反射光がイメージセンサ54によって撮影され、したがって、イメージセンサ54からは再帰反射シート15L及び15Rを含む画像信号が出力される。上記のように、マルチメディアプロセッサ50は、ストロボ撮影のために、赤外発光ダイオード9を間欠的に点滅するので、赤外光消灯時の画像信号も出力される。イメージセンサ54からのこれらのアナログ画像信号はマルチメディアプロセッサ50に内蔵されたADCによってデジタルデータに変換される。   The input devices 3L and 3R are irradiated with the infrared light of the infrared light emitting diode 9, and the infrared light is reflected by the retroreflective sheets 15L and 15R. The reflected light from the retroreflective sheets 15L and 15R is photographed by the image sensor 54. Therefore, the image sensor 54 outputs image signals including the retroreflective sheets 15L and 15R. As described above, the multimedia processor 50 intermittently blinks the infrared light-emitting diode 9 for strobe photography, so that an image signal when the infrared light is extinguished is also output. These analog image signals from the image sensor 54 are converted into digital data by an ADC built in the multimedia processor 50.

マルチメディアプロセッサ50は、イメージセンサ54からADCを介して入力されるデジタル画像信号から上記の差分信号DI(差分画像DI)を生成して、これに基づき、入力装置3L及び3Rによる入力/非入力の判定、さらに入力装置3L及び3Rの位置等を検出して、演算、グラフィック処理、及びサウンド処理等を実行し、ビデオ信号およびオーディオ信号を出力する。ビデオ信号およびオーディオ信号は、AVケーブル7によりテレビジョンモニタ5に与えられ、応じて、テレビジョンモニタ5に映像が表示され、そのスピーカ(図示せず)から音声が出力される。   The multimedia processor 50 generates the difference signal DI (difference image DI) from the digital image signal input from the image sensor 54 via the ADC, and based on this, input / non-input by the input devices 3L and 3R. In addition, the position of the input devices 3L and 3R is detected, calculation, graphic processing, sound processing, etc. are executed, and a video signal and an audio signal are output. The video signal and the audio signal are given to the television monitor 5 through the AV cable 7, and accordingly, an image is displayed on the television monitor 5, and sound is output from a speaker (not shown).

後述するが、マルチメディアプロセッサ50は、検出した入力装置3L及び3Rの位置に応じて、カーソル70L及び70Rの移動を制御する。つまり、マルチメディアプロセッサ50は、差分画像DIから再帰反射シート15L及び15Rの像を抽出して、それぞれの注目点の差分画像DI上の座標を算出する。そして、マルチメディアプロセッサ50は、2つの注目点の差分画像DI上の座標を、スクリーン座標に変換することによって、2つの注目点のテレビジョンモニタ5の画面上の位置を求める。マルチメディアプロセッサ50は、この2つの注目点(再帰反射シート15L及び15Rに相当)の画面上の位置に、カーソル70L及び70Rを表示する。なお、スクリーン座標系は、テレビジョンモニタ5に映像を表示する際に用いられる座標系である。   As will be described later, the multimedia processor 50 controls the movement of the cursors 70L and 70R according to the detected positions of the input devices 3L and 3R. That is, the multimedia processor 50 extracts the images of the retroreflective sheets 15L and 15R from the difference image DI, and calculates the coordinates of the respective points of interest on the difference image DI. Then, the multimedia processor 50 obtains the positions of the two points of interest on the screen of the television monitor 5 by converting the coordinates on the difference image DI of the two points of interest into screen coordinates. The multimedia processor 50 displays the cursors 70L and 70R at the positions on the screen of these two attention points (corresponding to the retroreflective sheets 15L and 15R). The screen coordinate system is a coordinate system used when displaying an image on the television monitor 5.

次に、本実施の形態の練磨システムにより実行される各種モードでの画面を例示して、マルチメディアプロセッサ50による処理内容を説明する。   Next, the processing contents by the multimedia processor 50 will be described by exemplifying screens in various modes executed by the training system of the present embodiment.

[フラッシュキャッチモード]   [Flash catch mode]

図5は、図1の練磨システムによるフラッシュキャッチモードでの練磨画面の例示図である。図5(a)を参照して、マルチメディアプロセッサ50は、格子状(4行×5列)に配置された20個の定位置オブジェクト100を含む画面をテレビジョンモニタ5に表示する。   FIG. 5 is a view showing an example of a training screen in the flash catch mode by the training system of FIG. Referring to FIG. 5A, the multimedia processor 50 displays a screen including 20 fixed position objects 100 arranged in a grid (4 rows × 5 columns) on the television monitor 5.

また、マルチメディアプロセッサ50は、カーソル70L及び70Rをテレビジョンモニタ5に表示する。マルチメディアプロセッサ50は、イメージセンサ54により撮影された再帰反射シート15Lの動きにカーソル70Lを連動させ、イメージセンサ54により撮影された再帰反射シート15Rの動きにカーソル70Rを連動させる。カーソル70L及び70Rの色は、半透明色であるので、カーソル70L及び70Rが、定位置オブジェクト100に重なっても、プレイヤは、定位置オブジェクト100を確認できる。もちろん、カーソル70L及び70Rの色を透明色にすることもできる。このように、カーソル70L及び70Rを半透明又は透明にすることで、プレイヤの視認性の向上を図ることができる。   Further, the multimedia processor 50 displays the cursors 70L and 70R on the television monitor 5. The multimedia processor 50 links the cursor 70L to the movement of the retroreflective sheet 15L photographed by the image sensor 54, and links the cursor 70R to the movement of the retroreflective sheet 15R photographed by the image sensor 54. Since the colors of the cursors 70L and 70R are translucent colors, the player can check the fixed position object 100 even if the cursors 70L and 70R overlap the fixed position object 100. Of course, the colors of the cursors 70L and 70R can be made transparent. Thus, the visibility of the player can be improved by making the cursors 70L and 70R translucent or transparent.

プレイヤが左手を開き再帰反射シート15Lが検出された状態、つまり、左手の入力状態では、開いた状態の左手を模した形態のカーソル70Lが表示される。同様に、プレイヤが右手を開き再帰反射シート15Rが検出された状態、つまり、右手の入力状態では、開いた状態の右手を模した形態のカーソル70Rが表示される。また、図5(b)に示すように、プレイヤが左手を閉じて再帰反射シート15Lが検出されない状態、つまり、左手の非入力状態では、閉じた状態の左手を模した形態のカーソル70Lが表示される。図示はしていないが、プレイヤが右手を閉じて再帰反射シート15Rが検出されない状態、つまり、右手の非入力状態では、閉じた状態の右手を模した形態のカーソル70Rが表示される。このように、プレイヤは、カーソル70L及び70Rの形態により、入力/非入力を認識できる。   In a state where the player opens the left hand and the retroreflective sheet 15L is detected, that is, in the input state of the left hand, a cursor 70L in a form imitating the left hand in the opened state is displayed. Similarly, in the state where the player opens the right hand and the retroreflective sheet 15R is detected, that is, in the input state of the right hand, the cursor 70R in a form imitating the opened right hand is displayed. Further, as shown in FIG. 5B, in a state where the player closes the left hand and the retroreflective sheet 15L is not detected, that is, in the non-input state of the left hand, a cursor 70L simulating the closed left hand is displayed. Is done. Although not shown, in the state where the player closes the right hand and the retroreflective sheet 15R is not detected, that is, in the non-input state of the right hand, the cursor 70R in a form imitating the closed right hand is displayed. Thus, the player can recognize input / non-input by the form of the cursors 70L and 70R.

プレイする際には、マルチメディアプロセッサ50は、20個の定位置オブジェクト100から、1つの定位置オブジェクト100をランダムに選択し、選択した定位置オブジェクト100を点滅させる。図では、点滅をハッチングで表しており、図5(a)では、3行2列の定位置オブジェクト100が点滅しており、図5(b)では、1行5列の定位置オブジェクト100が点滅している。点滅している定位置オブジェクト100をターゲットと呼ぶこともある。   When playing, the multimedia processor 50 randomly selects one fixed position object 100 from the twenty fixed position objects 100 and blinks the selected fixed position object 100. In the figure, blinking is indicated by hatching. In FIG. 5A, the fixed position object 100 of 3 rows and 2 columns is blinking, and in FIG. 5B, the fixed position object 100 of 1 row and 5 columns is displayed. It is flashing. The blinking home position object 100 may be called a target.

プレイヤは、入力状態において、点滅している定位置オブジェクト100に、カーソル70L又は70Rを移動させる。そして、プレイヤは、点滅している定位置オブジェクト100に、カーソル70L又は70Rを重ねて、非入力状態にする。すると、マルチメディアプロセッサ50は、新たに定位置オブジェクト100を選択して、点滅させる。マルチメディアプロセッサ50は、プレイヤの入力/非入力を検出して、所定時間、このような処理を繰り返す。なお、プレイヤが、点滅していない定位置オブジェクト100にカーソル70L又は70Rを移動させ非入力状態にしても、マルチメディアプロセッサ50は、その時点滅している定位置オブジェクト100を維持し、新たな定位置オブジェクト100の点滅は行わない。   In the input state, the player moves the cursor 70L or 70R to the blinking home position object 100. Then, the player places the cursor 70L or 70R on the blinking fixed position object 100 to make it non-input state. Then, the multimedia processor 50 newly selects the fixed position object 100 and blinks it. The multimedia processor 50 detects input / non-input of the player and repeats such processing for a predetermined time. Even if the player moves the cursor 70L or 70R to the non-flashing fixed position object 100 and puts it in the non-input state, the multimedia processor 50 maintains the flashing fixed position object 100 at that time, and sets a new fixed position object 100. The position object 100 is not blinked.

プレイヤが、点滅している定位置オブジェクト100に入力状態においてカーソル70L又は70Rを移動させ非入力状態にすることを、ターゲットを握ると呼ぶこともある。プレイヤは、ターゲットに素早く反応して、所定時間内に、できるだけ多くのターゲットを握ることを試みる。   The movement of the cursor 70L or 70R to the non-input state by moving the cursor 70L or 70R in the input state to the blinking fixed position object 100 may be called holding the target. The player reacts quickly to the target and tries to grasp as many targets as possible within a predetermined time.

ここで、カーソル70Lを移動させるためには、プレイヤは、左手を開き、入力状態にしなければならない。なぜなら、再帰反射シート15Lが検出できなければ、その位置を特定できないからである。従って、プレイヤが、入力状態から非入力状態にしたときは、入力状態での最後のカーソル70Lの位置に、非入力状態のカーソル70Lが静止して表示される。カーソル70Rについても同様である。   Here, in order to move the cursor 70L, the player must open the left hand to enter the input state. This is because the position cannot be specified unless the retroreflective sheet 15L can be detected. Therefore, when the player changes from the input state to the non-input state, the non-input state cursor 70L is displayed stationary at the position of the last cursor 70L in the input state. The same applies to the cursor 70R.

以上のように、このモードでは、プレイヤは、できるだけ早く点滅を察知し、できるだけ早くターゲットを握ることを試みる。従って、プレイヤは、このモードによって、次々に現れるターゲットに、いかに早く反応できるか、という能力(動体認識の一種)のトレーニングを行うことができる。   As described above, in this mode, the player detects flashing as soon as possible and tries to grasp the target as soon as possible. Therefore, in this mode, the player can perform training on the ability (a kind of moving object recognition) of how quickly the target can appear one after another.

[ボールエスケープモード]   [Ball escape mode]

図6は、図1の練磨システムによるボールエスケープモードでの練磨画面の例示図である。図6(a)を参照して、マルチメディアプロセッサ50は、テレビジョンモニタ5のスクリーン上を動き回るオブジェクト102を表示する。このオブジェクト102は、最初1個出現し、所定時間経過後に、さらに1個追加される。このように、所定時間の経過によって、次々に、新たなオブジェクト102が追加される。図6(b)に示すように、マルチメディアプロセッサ50は、新たに追加するオブジェクト102を、出射口オブジェクト104から、矢印オブジェクト106が示す方向に出射する。出射口オブジェクト104の位置及び矢印オブジェクト106の向きは、ランダムに選択され、スクリーンの任意の位置に任意の方向で表示される。つまり、これらは、定位置及び定方向ではない。マルチメディアプロセッサ50は、このような、オブジェクト102の運動と出現のための処理を所定時間行う。   FIG. 6 is an exemplary view of a training screen in the ball escape mode by the training system of FIG. Referring to FIG. 6A, the multimedia processor 50 displays an object 102 that moves around on the screen of the television monitor 5. One object 102 appears first, and one more object is added after a predetermined time has elapsed. Thus, new objects 102 are added one after another as the predetermined time elapses. As shown in FIG. 6B, the multimedia processor 50 emits the newly added object 102 from the exit port object 104 in the direction indicated by the arrow object 106. The position of the exit port object 104 and the direction of the arrow object 106 are randomly selected and displayed in an arbitrary direction at an arbitrary position on the screen. That is, they are not in a fixed position and a fixed direction. The multimedia processor 50 performs such processing for movement and appearance of the object 102 for a predetermined time.

カーソル70L及び70Rについては、フラッシュキャッチモードと同様である。ただし、ボールエスケープモードでは、プレイヤは、常に、入力状態でカーソル70L及び70Rを操作する。プレイヤは、カーソル70L及び70Rを操作して、オブジェクト102との衝突を回避することを試みる。時間が経つにつれ、オブジェクト102の数が増えるので、回避が困難になる。マルチメディアプロセッサ50は、カーソル70L又は70Rが、オブジェクト102と衝突したときには、当該オブジェクト102にエフェクトを与えると共に、効果音を出力する。マルチメディアプロセッサ50は、衝突の回数をカウントし、所定時間経過後に、その結果を表示する。   The cursors 70L and 70R are the same as in the flash catch mode. However, in the ball escape mode, the player always operates the cursors 70L and 70R in the input state. The player attempts to avoid collision with the object 102 by operating the cursors 70L and 70R. Over time, the number of objects 102 increases, making it difficult to avoid. When the cursor 70L or 70R collides with the object 102, the multimedia processor 50 gives an effect to the object 102 and outputs a sound effect. The multimedia processor 50 counts the number of collisions and displays the result after a predetermined time.

以上のように、このモードでは、プレイヤは、動き回るオブジェクト102に衝突しないようにカーソル70L及び70Rを操作する。従って、このモードによって、いかに巧くオブジェクト102を避けることができるか、という能力(動体予測の一種)のトレーニングを行うことができる。また、次々にオブジェクト102が出現するので、その数に応じて徐々に難易度を上げることができる。さらに、出射口オブジェクト104の位置及び矢印オブジェクト106の向きはランダムであり、オブジェクト102の出現位置が一定していないので、より一層難易度の向上を図ることができる。   As described above, in this mode, the player operates the cursors 70L and 70R so as not to collide with the moving object 102. Therefore, in this mode, it is possible to perform training of the ability (a kind of moving object prediction) of how well the object 102 can be avoided. In addition, since the objects 102 appear one after another, the difficulty level can be gradually increased according to the number of the objects 102. Furthermore, since the position of the exit port object 104 and the direction of the arrow object 106 are random and the appearance position of the object 102 is not constant, the difficulty can be further improved.

[第1のナンバーキャッチモード]   [First number catch mode]

図7は、図1の練磨システムによる第1のナンバーキャッチモードでの練磨画面の例示図である。図7(a)を参照して、マルチメディアプロセッサ50は、テレビジョンモニタ5に、1〜20の連続した数字(整数)を付した20個の静止したターゲット110を表示する。カーソル70L及び70Rについては、フラッシュキャッチモードと同様である。   FIG. 7 is an exemplary view of a training screen in the first number catch mode by the training system of FIG. Referring to FIG. 7A, the multimedia processor 50 displays 20 stationary targets 110 with consecutive numbers (integers) 1 to 20 on the television monitor 5. The cursors 70L and 70R are the same as in the flash catch mode.

プレイヤは、入力状態でカーソル70L及び70Rを操作して、ターゲット110に重ね、非入力状態にする。本明細書では、このような動作を、ターゲット110を握ると呼ぶこともある。プレイヤは、値が小さい数字が付されたターゲット110から順番に、できるだけ早く、ターゲット110を握ることを試みる。図7(b)に示すように、小さい数字から順番に正しくターゲット110が握られた場合は、当該ターゲット110を消滅させる。もし、正しい順番で、ターゲット110が握られなかった場合は、プレイヤの失敗として、その回数をカウントする。   The player operates the cursors 70L and 70R in the input state, overlaps the target 110, and enters the non-input state. In this specification, such an operation may be called holding the target 110. The player tries to grasp the target 110 as soon as possible, starting with the target 110 with a small value. As shown in FIG. 7B, when the target 110 is correctly grasped in order from the smallest number, the target 110 is extinguished. If the target 110 is not grasped in the correct order, the number of times is counted as a player failure.

マルチメディアプロセッサ50は、20個のターゲット110を表示し、プレイ開始をプレイヤに通知した時点から、時間のカウントを開始する。そして、プレイヤが、20の数字が付されたターゲット110を握った時に、時間のカウントを停止し、その結果を表示する。従って、プレイヤは、全てのターゲット110を握るのに要した時間を把握できる。また、マルチメディアプロセッサ50は、時間のカウント結果と共に、失敗の回数も表示する。   The multimedia processor 50 displays 20 targets 110 and starts counting time from the time when the player is notified of the start of play. Then, when the player grasps the target 110 with the numeral 20, the time counting is stopped and the result is displayed. Therefore, the player can grasp the time required to hold all the targets 110. The multimedia processor 50 also displays the number of failures along with the time count result.

図7(c)を参照して、マルチメディアプロセッサ50は、図7(a)の画面に代えて、テレビジョンモニタ5に、不連続かつ異なる数字(整数)を付した10個のターゲット110を表示することもできる。この場合も、図7(a)の場合と同様、プレイヤは、値が小さい数字が付されたターゲット110から順番に、できるだけ早く、ターゲット110を握ることを試みる。小さい数字から順番に正しくターゲット110が握られた場合は、当該ターゲット110を消滅させる。もし、正しい順番で、ターゲット110が握られなかった場合は、プレイヤの失敗として、その回数をカウントする。その他、時間のカウント等は、図7(a)の場合と同様である。ターゲット110に付された数字が不連続であるため、図7(c)のケースは、図7(a)のケースに比べて難易度が高い。   Referring to FIG. 7C, the multimedia processor 50 replaces the screen of FIG. 7A with ten targets 110 with discontinuous and different numbers (integers) attached to the television monitor 5. It can also be displayed. In this case as well, as in the case of FIG. 7A, the player tries to grasp the target 110 as soon as possible, starting with the target 110 with a smaller value. When the target 110 is correctly grasped in order from the smallest number, the target 110 is extinguished. If the target 110 is not grasped in the correct order, the number of times is counted as a player failure. In addition, the time count and the like are the same as in the case of FIG. Since the numbers assigned to the target 110 are discontinuous, the case of FIG. 7C is more difficult than the case of FIG.

以上のように、このモードでは、プレイヤは、数字が小さいものから順番に、できるだけ早く、ターゲット110を握るように試みる。従って、このモードにより、いかに早く、しかも、順番どおりに、ターゲット110を認識することができるか、という能力(瞬間認識の一種)のトレーニングを行うことができる。   As described above, in this mode, the player attempts to grasp the target 110 as soon as possible in order from the smallest number. Therefore, in this mode, it is possible to perform training on the ability (a kind of instantaneous recognition) of how quickly the target 110 can be recognized in order.

[短期記憶モード]   [Short-term memory mode]

図8は、図1の練磨システムによる短期記憶モードでの練磨画面の例示図である。図8(a)を参照して、マルチメディアプロセッサ50は、格子状(4行×4列)に配置された16個の定位置オブジェクト120を含む画面をテレビジョンモニタ5に表示する。カーソル70L及び70Rについては、フラッシュキャッチモードと同様である。   FIG. 8 is an exemplary diagram of a training screen in the short-term memory mode by the training system of FIG. Referring to FIG. 8A, the multimedia processor 50 displays a screen including 16 fixed position objects 120 arranged in a grid (4 rows × 4 columns) on the television monitor 5. The cursors 70L and 70R are the same as in the flash catch mode.

まず、マルチメディアプロセッサ50は、同時に、かつ、所定時間(例えば1秒)、任意の2個の定位置オブジェクト120を第1の色彩(例えば赤、右上がりの斜線部)にし、任意の2個の定位置オブジェクト120を第2の色彩(例えば青、右下がりの斜線部)にし、任意の2個の定位置オブジェクト120を第3の色彩(例えば黄、クロスした斜線部)にする(出題)。第1〜第3の色彩をマーカと呼ぶこともある。なお、定位置オブジェクト120の標準色は、白色とする。   First, the multimedia processor 50 sets any two fixed-position objects 120 to the first color (for example, red and a hatched portion that rises to the right) at the same time for a predetermined time (for example, 1 second). The fixed-position object 120 is set to the second color (for example, blue, a slanting portion with a lower right), and any two fixed-position objects 120 are set to the third color (for example, yellow, the crossed-hatched portion) (question) . The first to third colors may be called markers. Note that the standard color of the fixed position object 120 is white.

そして、所定時間経過後に、マルチメディアプロセッサ50は、第1の色彩を付する新たに選択した2個の定位置オブジェクト120、第2の色彩を付する新たに選択した2個の定位置オブジェクト120、及び第3の色彩を付する新たに選択した2個の定位置オブジェクト120に対して、同時に、かつ、所定時間、第1〜第3の色彩を付する(出題)。   Then, after a predetermined time has elapsed, the multimedia processor 50, the two newly selected fixed position objects 120 to which the first color is added and the two newly selected fixed position objects 120 to which the second color is added. The first to third colors are assigned simultaneously to the two newly selected fixed-position objects 120 to which the third color is to be added and for a predetermined time (question).

マルチメディアプロセッサ50は、上記のような出題を所定回数繰り返す。そして、全出題の完了後、図8(b)に示すように、マルチメディアプロセッサ50は、指示部122を表示する。指示部122は、指示部122に表示された色のマーカが最後に位置した(つまり、最後に出題された、指示部122に表示された色のマーカが位置した)定位置オブジェクト120の位置を示すことをプレイヤに指示するものである。また、指示部122に表示されたマーカの隣の数字は、1回の出題で付される、その色のマーカの数Nを示す。図8(b)の例では、指示部122は、第3の色彩(クロスした斜線部)の2個(N=2)のマーカが最後に位置した定位置オブジェクト120の位置を示すことをプレイヤに対して指示している。   The multimedia processor 50 repeats the above questions a predetermined number of times. After completing all the questions, the multimedia processor 50 displays the instruction unit 122 as shown in FIG. The instruction unit 122 determines the position of the fixed-position object 120 in which the color marker displayed on the instruction unit 122 is located last (that is, the last color marker displayed on the instruction unit 122 is displayed). Instructs the player to show. In addition, the number next to the marker displayed on the instruction unit 122 indicates the number N of markers of that color that are attached in one question. In the example of FIG. 8B, the instruction unit 122 indicates that the position of the home position object 120 where the last two (N = 2) markers of the third color (cross hatched portion) are located is indicated. Is directed against.

プレイヤは、指示部122が指示したマーカが最後に位置した定位置オブジェクト120に、入力状態でカーソル70L又は70Rを移動させ、非入力状態にする(選択)。すると、マルチメディアプロセッサ50は、カーソル70L又は70Rが重なった定位置オブジェクト120の色彩を所定色(例えば黒)に変化させる。プレイヤは、指示部122が指示する数(図の例では2)の定位置オブジェクト120の選択を終えると、画面の右上に表示された決定ボタン124上に、入力状態でカーソル70L又は70Rを移動させ、非入力状態にする(選択確定)。すると、マルチメディアプロセッサ50は、プレイヤが選択した定位置オブジェクト120の位置と、マルチメディアプロセッサ50が最後に出題した指示部122が指示する色のマーカの位置と、が完全に一致するか否かを判断する。「完全」とは、指示部122が指示する数がNのときは、プレイヤが選択したN個の定位置オブジェクト120の位置が、マルチメディアプロセッサ50が最後に出題した指示部122が指示する色のN個のマーカの位置と完全に一致することを意味する。   The player moves the cursor 70L or 70R to the fixed position object 120 in which the marker instructed by the instruction unit 122 is finally located in the input state to make it non-input state (selection). Then, the multimedia processor 50 changes the color of the fixed position object 120 where the cursor 70L or 70R overlaps to a predetermined color (for example, black). When the player finishes selecting the number of fixed position objects 120 indicated by the instruction unit 122 (2 in the example in the figure), the player moves the cursor 70L or 70R in the input state on the determination button 124 displayed on the upper right of the screen. To enter the non-input state (selection confirmed). Then, the multimedia processor 50 determines whether or not the position of the fixed-position object 120 selected by the player completely matches the position of the marker of the color indicated by the instruction unit 122 that the multimedia processor 50 gave the last question. Judging. “Complete” means that when the number indicated by the instruction unit 122 is N, the position of the N fixed-position objects 120 selected by the player is the color indicated by the instruction unit 122 that the multimedia processor 50 has given the last question. This means that the positions of the N markers completely coincide with each other.

もし、完全に一致しなかったときは、マルチメディアプロセッサ50は、失敗と判断し、処理を終了する。一方、完全に一致したときは、マルチメディアプロセッサ50は、成功と判断し、次のステージに移行する。各ステージでは、所定回数の出題とその終了後の指示が行われる。本実施の形態では、ステージをクリアする度に、出題が難しくなり、難易度が高くなる。   If they do not match completely, the multimedia processor 50 determines that the operation has failed and ends the process. On the other hand, when they completely match, the multimedia processor 50 determines that the operation is successful and moves to the next stage. In each stage, a predetermined number of questions and instructions after the completion are given. In this embodiment, each time the stage is cleared, the questions are difficult and the difficulty level is high.

なお、プレイヤは、カーソル70L又は70Rを決定ボタン124に移動させ非入力状態にするまでは(選択の確定までは)、選択のやり直しをすることができる。この場合、プレイヤは、選択されている定位置オブジェクト120にカーソル70L又は70Rを重ねて非入力状態にすると、その定位置オブジェクト120の選択が解除される。   Note that the player can redo the selection until the cursor 70L or 70R is moved to the enter button 124 to enter the non-input state (until the selection is confirmed). In this case, when the player puts the cursor 70L or 70R on the selected fixed-position object 120 and puts it in the non-input state, the selection of the fixed-position object 120 is released.

また、入力状態でカーソル70L又は70Rを定位置オブジェクト120又は決定ボタン124に移動し非入力状態にすることを、定位置オブジェクト120又は決定ボタン124を握ると呼ぶこともある。   In addition, moving the cursor 70L or 70R to the fixed position object 120 or the determination button 124 in the input state to make the non-input state may be referred to as holding the fixed position object 120 or the determination button 124.

ここで、難易度について説明する。1回の出題で出現するマーカの数及び色数を調整することにより難易度の調整が可能である。また、所定回数の出題間で、マーカの色及び/又は数を異ならせることによっても、難易度を調整できる。例えば、1回の出題で第1の色彩のマーカのみを2個表示し、次の出題で、第2の色彩のマーカのみを2個表示し、これらの出題を交互に繰り返すこともできる。   Here, the difficulty level will be described. The degree of difficulty can be adjusted by adjusting the number of markers and the number of colors that appear in one question. The difficulty level can also be adjusted by changing the color and / or number of markers between a predetermined number of questions. For example, only two markers of the first color can be displayed in one question, two markers of the second color can be displayed in the next question, and these questions can be repeated alternately.

以上のように、このモードでは、プレイヤは、最後に出題されたマーカの色及び位置を記憶することを試み、全ての出題終了後に、指示された色のマーカの最後の位置をカーソル70L又は70Rによって指し示すことを行う。従って、このモードにより、プレイヤの短期的な記憶力(短期記憶の一種)のトレーニングを図ることができる。また、プレイヤが決定ボタン124を握ってはじめて選択が確定する。従って、プレイヤが意図していない選択状態に基づいて、正否の判断が行われることを極力防止できる。   As described above, in this mode, the player tries to memorize the color and position of the marker that has been given the last question, and after all the questions have been given, the last position of the marker of the indicated color is set to the cursor 70L or 70R. Do the pointing by. Therefore, in this mode, it is possible to train the player's short-term memory (a kind of short-term memory). Further, the selection is confirmed only when the player holds the determination button 124. Therefore, it can be prevented as much as possible that the correct / incorrect determination is made based on the selection state not intended by the player.

[第2のナンバーキャッチモード]   [Second number catch mode]

第2のナンバーキャッチモードの内容は、第1のナンバーキャッチモードの内容と同様である。第2のナンバーキャッチモードは、第1のナンバーキャッチモードと比較して、難易度の調整に特徴を有する。以下、異なる点を中心に説明する。   The contents of the second number catch mode are the same as the contents of the first number catch mode. The second number catch mode has a feature in the adjustment of the difficulty level as compared with the first number catch mode. Hereinafter, different points will be mainly described.

図9は、図1の練磨システムによる第2のナンバーキャッチモードでの練磨画面の例示図である。図9を参照して、マルチメディアプロセッサ50は、テレビジョンモニタ5に、6×6の正方形ブロックに分割されたボード11を表示する。ただし、ボード11の中心の2×2の正方形ブロックに相当する領域には、プレイ終了までの残り時間(例えば30秒からのカウントダウン)を表すタイマ13が表示される。   FIG. 9 is an exemplary view of a training screen in the second number catch mode by the training system of FIG. Referring to FIG. 9, multimedia processor 50 displays board 11 divided into 6 × 6 square blocks on television monitor 5. However, in the area corresponding to the 2 × 2 square block at the center of the board 11, a timer 13 indicating the remaining time until the end of play (for example, countdown from 30 seconds) is displayed.

マルチメディアプロセッサ50は、ボード11の任意に選択された所定数の正方形ブロックに、不連続かつ異なる数字(整数)を表示する。この際、数字を表す画像の大きさとして、大小二種類が用意される。数字を表す画像の大きさが共通であれば難易度は低くなるので、二種類用意することで、難易度の調整が可能である。もちろん、三種類以上用意することもできる。さらに、数字は、所定角度だけ時計回り又は反時計回りに回転して表示されることもある。数字が、回転なしに正しく表示される場合は難易度が低くなるので、このように、回転して表示することで、難易度の調整ができる。   The multimedia processor 50 displays discontinuous and different numbers (integers) on a predetermined number of square blocks arbitrarily selected on the board 11. At this time, two types of large and small are prepared as the sizes of images representing numbers. If the size of the image representing the number is the same, the difficulty level becomes low. Therefore, the difficulty level can be adjusted by preparing two types. Of course, more than three types can be prepared. Further, the number may be displayed by rotating clockwise or counterclockwise by a predetermined angle. If the numbers are displayed correctly without rotation, the difficulty level becomes low. Therefore, the difficulty level can be adjusted by rotating and displaying the numbers.

また、このモードでは、片手でプレイするので、マルチメディアプロセッサ50は、1つのカーソル70Lのみを表示する。図の例では、左手に対応するカーソル70Lが表示されているので、プレイヤは、左手でカーソル70Lを操作する。なお、左手でのプレイの前あるいは後に右手でのプレイを行うので、そのときは、右手に対応するカーソル70Rが表示される。   In this mode, since the player plays with one hand, the multimedia processor 50 displays only one cursor 70L. In the example shown in the figure, since the cursor 70L corresponding to the left hand is displayed, the player operates the cursor 70L with the left hand. Since the right hand is played before or after the left hand, the cursor 70R corresponding to the right hand is displayed.

このモードも、第1のナンバーキャッチモード同様、プレイヤは、値が小さい数字から順番に、できるだけ早く、数字を握ることを試みる。小さい数字から順番に正しく握られた場合は、当該数字を消滅させる。もし、正しい順番で握られなかった場合は、その旨を音声(例えば、ブザー音)でプレイヤに知らせると共に、間違って握られた数字を青枠で囲み、正しい数字を赤枠で囲んでプレイヤに知らせる。   In this mode as well as in the first number catch mode, the player tries to grasp the number as soon as possible, starting from the smallest value. If it is grasped correctly in order from the smallest number, the number will disappear. If it is not grasped in the correct order, the player is notified by voice (for example, a buzzer sound), and the wrongly grasped number is enclosed in a blue frame and the correct number is enclosed in a red frame. Inform.

以上のように、このモードでは、プレイヤは、数字が小さいものから順番に、できるだけ早く握ることを試みる。従って、このモードにより、いかに早く、しかも、順番どおりに、数字を認識することができるか、という能力(瞬間認識の一種)のトレーニングを行うことができる。   As described above, in this mode, the player tries to grip as soon as possible in order from the smallest number. Therefore, in this mode, it is possible to train the ability (a kind of instantaneous recognition) of how quickly numbers can be recognized in order.

[第3のナンバーキャッチモード]   [Third number catch mode]

第3のナンバーキャッチモードは、第2のナンバーキャッチモードを二人のプレイヤで同時に行うものである。   In the third number catch mode, the second number catch mode is performed simultaneously by two players.

図10は、図1の練磨システムによる第3のナンバーキャッチモードでの練磨画面の例示図である。図10を参照して、マルチメディアプロセッサ50は、テレビジョンモニタ5にボード11を表示する。このボード11は、中心で左右に分割されており、第1プレイヤ用のボード22−1と第2プレイヤ用のボード22−2とを含む。   FIG. 10 is a view showing an example of a training screen in the third number catch mode by the training system of FIG. Referring to FIG. 10, multimedia processor 50 displays board 11 on television monitor 5. This board 11 is divided into right and left at the center, and includes a board 22-1 for the first player and a board 22-2 for the second player.

また、マルチメディアプロセッサ50は、ボード22−1の任意に選択された所定数の正方形ブロックに、不連続かつ異なる数字(整数)を表示する。同時に、マルチメディアプロセッサ50は、ボード22−1に表示する数字と完全同一の数字を、ボード22−2の対応する同じ正方形ブロックに表示する。完全同一とは、数字の値、大きさ、及び形態(回転)が同一であることを指す。   Further, the multimedia processor 50 displays discontinuous and different numbers (integers) on a predetermined number of square blocks arbitrarily selected on the board 22-1. At the same time, the multimedia processor 50 displays the same number as the number displayed on the board 22-1 in the corresponding square block on the board 22-2. Completely identical refers to the same numerical value, size, and form (rotation).

さらに、このモードでは、マルチメディアプロセッサ50は、第1プレイヤが例えば右手に装着した入力装置3Lに連動するカーソル24−1及び第2プレイヤが例えば右手に装着した入力装置3Rに連動するカーソル24−2を表示する。   Further, in this mode, the multimedia processor 50 includes a cursor 24-1 linked to the input device 3L worn by the first player, for example, on the right hand, and a cursor 24-- linked to the input device 3R worn, for example, on the right hand, by the second player. 2 is displayed.

このモードも、第2のナンバーキャッチモード同様、第1及び第2プレイヤは、値が小さい数字から順番に、できるだけ早く、数字を握ることを試みる。なお、開始は両者同時であり、タイマ13に従う。また、小さい数字から順番に正しく握られた場合は、当該数字を消滅させる。もし、正しい順番で握られなかった場合は、その旨を音声(例えば、ブザー音)でプレイヤに知らせると共に、間違って握られた数字を青枠で囲み、正しい数字を赤枠で囲んでプレイヤに知らせる。   In this mode as well, as in the second number catch mode, the first and second players try to grasp the numbers as soon as possible, starting with the numbers with the smallest values. Note that both start at the same time and follow the timer 13. Also, if the correct number is held in order from the smallest number, that number is erased. If it is not grasped in the correct order, the player is notified by voice (for example, a buzzer sound), and the wrongly grasped number is enclosed in a blue frame and the correct number is enclosed in a red frame. Inform.

以上のように、このモードでは、プレイヤは、数字が小さいものから順番に、できるだけ早く握ることを試みる。従って、このモードにより、いかに早く、しかも、順番どおりに、数字を認識することができるか、という能力(瞬間認識の一種)のトレーニングを行うことができる。また、二人のプレイヤが競争することになるので、プレイヤの集中力及びやる気を向上できる。   As described above, in this mode, the player tries to grip as soon as possible in order from the smallest number. Therefore, in this mode, it is possible to train the ability (a kind of instantaneous recognition) of how quickly numbers can be recognized in order. Moreover, since two players compete, it is possible to improve the player's concentration and motivation.

[蝶キャッチモード]   [Butterfly catch mode]

図11は、図1の練磨システムによる蝶キャッチモードでの練磨画面の例示図である。図11を参照して、マルチメディアプロセッサ50は、テレビジョンモニタ5に、飛び回る三種類の蝶オブジェクト29,31及び33を表示する。蝶オブジェクト29,31及び33の大きさは、それぞれ、大、小、及び中となっている。特に、蝶オブジェクト33は、他の蝶オブジェクト29及び31と比較して、素早く動くように制御される。   FIG. 11 is an illustration of a training screen in butterfly catch mode by the training system of FIG. Referring to FIG. 11, multimedia processor 50 displays three types of butterfly objects 29, 31, and 33 that fly around on television monitor 5. The sizes of the butterfly objects 29, 31 and 33 are large, small and medium, respectively. In particular, the butterfly object 33 is controlled to move more quickly than the other butterfly objects 29 and 31.

また、このモードでは、片手でプレイするので、マルチメディアプロセッサ50は、1つのカーソル70Rのみを表示する。図の例では、右手に対応するカーソル70Rが表示されているので、プレイヤは、右手でカーソル70Rを操作する。なお、右手でのプレイの前あるいは後に左手でのプレイを行うので、そのときは、左手に対応するカーソル70Lが表示される。   In this mode, since the player plays with one hand, the multimedia processor 50 displays only one cursor 70R. In the example in the figure, the cursor 70R corresponding to the right hand is displayed, so the player operates the cursor 70R with the right hand. Since the left hand is played before or after the right hand is played, a cursor 70L corresponding to the left hand is displayed at that time.

このモードでは、プレイヤは、時間内(例えば30秒)にできるだけ多くの蝶オブジェクト29,31及び33を握ることを試みる。時間の目安のために、マルチメディアプロセッサ50は、タイマ27(例えば30秒からのカウントダウン)を表示する。また、マルチメディアプロセッサ50は、取得数表示部35を表示する。取得数表示部35には、どの蝶オブジェクトをいくつ握ったか(取得したか)が示される。   In this mode, the player attempts to grasp as many butterfly objects 29, 31 and 33 as possible in time (for example, 30 seconds). For time reference, the multimedia processor 50 displays a timer 27 (eg, a countdown from 30 seconds). Further, the multimedia processor 50 displays the acquisition number display unit 35. The number-of-acquisition display section 35 indicates how many butterfly objects have been grasped (acquired).

また、このモードでは、三段階のレベルが用意される。第2及び第3のレベルでは、蝶オブジェクト29,31及び33は、カーソル70R(70L)との間の距離が所定距離になると、カーソル70R(70L)から離れるように制御される。この場合、蝶オブジェクト29,31及び33は、第3のレベルのほうが、第2のレベルより大きく離れる。第1のレベルでは、蝶オブジェクト29,31及び33の軌道に、カーソル70R(70L)の位置は考慮されない。このような蝶オブジェクト29,31及び33の制御はマルチメディアプロセッサ50が行う。   In this mode, three levels are prepared. In the second and third levels, the butterfly objects 29, 31 and 33 are controlled to leave the cursor 70R (70L) when the distance from the cursor 70R (70L) reaches a predetermined distance. In this case, the butterfly objects 29, 31 and 33 are farther apart on the third level than on the second level. In the first level, the position of the cursor 70R (70L) is not considered in the trajectory of the butterfly objects 29, 31 and 33. The multimedia processor 50 controls the butterfly objects 29, 31 and 33.

以上のように、このモードでは、プレイヤは、動き回る蝶オブジェクト29,31及び33を、できるだけ早く多く握ることを試みる。従って、このモードにより、俊敏性及び先を読む力のトレーニングを行うことができる。   As described above, in this mode, the player tries to grip as many of the moving butterfly objects 29, 31, and 33 as possible. Thus, this mode allows training of agility and readability.

[ストループモード]   [Stroop mode]

ストループモードとはストループ効果(stroop effect)を利用したモードである。ストループ効果とは、人間の情報処理過程において、感覚情報(例えば色)と言語情報(例えば文字)とが干渉しあう現象のことである。例えば、色名を答える質問を行ったときに、緑インクで記された「みどり」という文字自体の色名を答えるときより、赤インクで記された「みどり」という文字自体の色名(答えは赤)を答えるほうが時間がかかる事をいう。   The Stroop mode is a mode using a Stroop effect. The Stroop effect is a phenomenon in which sensory information (for example, color) and language information (for example, characters) interfere with each other in a human information processing process. For example, when you ask a question that answers the color name, the color name of the word “Midori” written in red ink is better than the color name of the word “Midori” written in green ink. It means that it takes more time to answer (red).

図12(a)及び図12(b)は、図1の練磨システムによるストループモードでの練磨画面の例示図である。図12(a)及び図12(b)を参照して、マルチメディアプロセッサ50は、テレビジョンモニタ5に、六角形の言語情報提示部39を表示する。言語情報提示部39には、「絵」又は「声」なる文字のいずれかが表示される。また、マルチメディアプロセッサ50は、言語情報提示部39の上下左右に、感覚情報提示部37T,37B,37L及び37Rを表示し、このうちの1つの色を他の3つの色と異ならせる。さらに、マルチメディアプロセッサ50は、「ウエ」、「シタ」、「ヒダリ」、又は「ミギ」なる音声のうちの1つを出力する。ただし、唯1つ色が異なる感覚情報提示部が位置する方向と異なる方向を示す音声が出力される。   12 (a) and 12 (b) are examples of training screens in the Stroop mode by the training system of FIG. With reference to FIGS. 12A and 12B, the multimedia processor 50 displays a hexagonal language information presentation unit 39 on the television monitor 5. The language information presentation unit 39 displays either “picture” or “voice”. The multimedia processor 50 displays sensory information presentation units 37T, 37B, 37L, and 37R on the top, bottom, left, and right of the language information presentation unit 39, and makes one of these colors different from the other three colors. Further, the multimedia processor 50 outputs one of the voices “we”, “sita”, “hidari”, or “migi”. However, a sound indicating a direction different from the direction in which the sensory information presenting unit having only one color is located is output.

図12(a)に示すように、プレイヤは、言語情報提示部39に「絵」なる文字が表示されると、カーソル70Rを操作して、4つの感覚情報提示部37T,37B,37L及び37Rのうち、色が異なる感覚情報表示部をできるだけ素早く握ることを試みる。この場合、音声により示される方向の感覚情報提示部を握ると失敗となる。   As shown in FIG. 12A, when the character “picture” is displayed on the language information presentation unit 39, the player operates the cursor 70R to provide four sensory information presentation units 37T, 37B, 37L, and 37R. Among them, try to grasp the sensory information display part with different colors as quickly as possible. In this case, if the sensory information presenting unit in the direction indicated by the voice is grasped, the operation fails.

言語情報提示部39の周りには6個のカウントダウンオブジェクト41が表示され、所定時間が経過するたびに、1つのカウントダウンオブジェクト41の色が変化する。この場合、右上のカウントダウンオブジェクト41から開始して、時計回りに色が変化し、左上のカウントダウンオブジェクト41の色が変化したらプレイ終了となる。   Six countdown objects 41 are displayed around the language information presentation unit 39, and the color of one countdown object 41 changes whenever a predetermined time elapses. In this case, starting from the countdown object 41 at the upper right, the color changes clockwise, and the play ends when the color of the countdown object 41 at the upper left changes.

また、図12(b)に示すように、プレイヤは、言語情報提示部39に「声」なる文字が表示されると、カーソル70Rを操作して、4つの感覚情報提示部37T,37B,37L及び37Rのうち、マルチメディアプロセッサ50が出力する音声が示す方向に位置する感覚情報表示部をできるだけ素早く握ることを試みる。この場合、唯1つ色が異なる感覚情報提示部を握ると失敗となる。   Further, as shown in FIG. 12B, when the character “voice” is displayed on the language information presentation unit 39, the player operates the cursor 70R to provide four sensory information presentation units 37T, 37B, and 37L. And 37R, an attempt is made to grasp the sensory information display unit located in the direction indicated by the sound output from the multimedia processor 50 as quickly as possible. In this case, if a sensory information presenting unit having only one color is gripped, a failure occurs.

マルチメディアプロセッサ50は、以上のような表示を、言語情報提示部39の文字及び感覚情報提示部37T,37B,37L及び37Rの色を変えながら繰り返し、プレイヤに右手によるプレイを行わせる。右手によるプレイが終了すると、左手によるプレイを行わせるべく、カーソル70Rに変えて、左手に対応するカーソル70Lが表示される。   The multimedia processor 50 repeats the display as described above while changing the characters of the language information presentation unit 39 and the colors of the sensory information presentation units 37T, 37B, 37L, and 37R, and causes the player to play with the right hand. When the play with the right hand is completed, the cursor 70L corresponding to the left hand is displayed instead of the cursor 70R so that the play with the left hand is performed.

以上のように、このモードでは、ストループ効果を利用したプレイを行うことができる。その結果、プレイヤの行動選択及び妨害排除といった機能を鍛えることができる。   As described above, in this mode, play using the Stroop effect can be performed. As a result, it is possible to train functions such as player action selection and interference rejection.

[パネルエスケープモード]   [Panel escape mode]

図13は、図1の練磨システムによるパネルエスケープモードでの練磨画面の例示図である。図13を参照して、マルチメディアプロセッサ50は、テレビジョンモニタ5に、15×15の正方形ブロックに分割されたボード43を表示する。また、マルチメディアプロセッサ50は、入力装置3Rの動きに連動するカーソル45と、このカーソル45に向かって動いて行く正方形のスレイブオブジェクト47と、を表示する。この場合、スレイブオブジェクト47は、ボード43の1正方形ブロックを1単位として動く。ただし、スレイブオブジェクト47は、水平あるいは垂直方向に動き、斜め方法には動かない。さらに、マルチメディアプロセッサ50は、ターゲット49を、ボード43の正方形ブロックのいずれかに表示する。   FIG. 13 is an exemplary view of a training screen in the panel escape mode by the training system of FIG. Referring to FIG. 13, the multimedia processor 50 displays a board 43 divided into 15 × 15 square blocks on the television monitor 5. In addition, the multimedia processor 50 displays a cursor 45 that is linked to the movement of the input device 3R, and a square slave object 47 that moves toward the cursor 45. In this case, the slave object 47 moves with one square block of the board 43 as one unit. However, the slave object 47 moves in the horizontal or vertical direction and does not move in an oblique manner. Furthermore, the multimedia processor 50 displays the target 49 on any of the square blocks of the board 43.

プレイヤは、カーソル45を操作して、スレイブオブジェクト47をターゲット49に重ねることを試みる。マルチメディアプロセッサ50は、スレイブオブジェクト47がターゲット49に重ねられた場合は、そのターゲット49を消失させ、新たなターゲット49を他の正方形ブロックに表示する。   The player tries to superimpose the slave object 47 on the target 49 by operating the cursor 45. When the slave object 47 is overlaid on the target 49, the multimedia processor 50 erases the target 49 and displays the new target 49 in another square block.

この場合、マルチメディアプロセッサ50は、ボード43の左右の縁から回避オブジェクト60H(例えば赤色)を出現させ、他方の縁に向かって水平方向に移動させる。また、マルチメディアプロセッサ50は、ボード43の上下の縁から回避オブジェクト60V(例えば青色)を出現させ、他方の縁に向かって垂直方向に移動させる。なお、回避オブジェクト60H及び60Vの出現時には、その中に進行方向を示す矢印が表記される。   In this case, the multimedia processor 50 causes the avoidance object 60H (for example, red) to appear from the left and right edges of the board 43, and moves the avoidance object 60H toward the other edge in the horizontal direction. In addition, the multimedia processor 50 causes the avoidance object 60V (for example, blue) to appear from the upper and lower edges of the board 43, and moves the avoidance object 60V in the vertical direction toward the other edge. When the avoidance objects 60H and 60V appear, an arrow indicating the traveling direction is written therein.

スレイブオブジェクト47がターゲット49に重ねられた場合は、マルチメディアプロセッサ50は、ポイントを1つ加算するが、スレイブオブジェクト47が、回避オブジェクト60H又は60Vに接触した場合は、ポイントが1つ減算される。従って、プレイヤは、回避オブジェクト60H及び60Vの動きを予想しながら、カーソル45を操作して、スレイブオブジェクト47をターゲット49に導く必要がある。このため、プレイヤの先を読む力の鍛錬を行うことができる。   When the slave object 47 is overlaid on the target 49, the multimedia processor 50 adds one point. When the slave object 47 touches the avoidance object 60H or 60V, one point is subtracted. . Therefore, the player needs to guide the slave object 47 to the target 49 by operating the cursor 45 while predicting the movement of the avoidance objects 60H and 60V. For this reason, training of the ability to read the player's tip can be performed.

[バランスラインモード]   [Balance line mode]

図14は、図1の練磨システムによるバランスラインモードでの練磨画面の例示図である。図14を参照して、マルチメディアプロセッサ50は、テレビジョンモニタ5に、バー66L及び66R、棒状の操作オブジェクト63、並びにカーソル69L及び69Rを表示する。マルチメディアプロセッサ50は、カーソル69L及び69Rを、それぞれ、入力装置3L及び3Rの動きに連動させる。また、マルチメディアプロセッサ50は、カーソル69Lの動きに従って、操作オブジェクト63の左端を、バー66Lに沿って上下させる。一方、マルチメディアプロセッサ50は、カーソル69Rの動きに従って、操作オブジェクト63の右端を、バー66Rに沿って上下させる。操作オブジェクト63は直線状であるが、伸縮するので、カーソル69L及び69Rを操作することにより、操作オブジェクト63を水平にしたり、任意の角度で斜めにしたりすることができる。   FIG. 14 is a view showing an example of a training screen in the balance line mode by the training system of FIG. Referring to FIG. 14, multimedia processor 50 displays bars 66L and 66R, bar-shaped operation object 63, and cursors 69L and 69R on television monitor 5. The multimedia processor 50 links the cursors 69L and 69R to the movements of the input devices 3L and 3R, respectively. Further, the multimedia processor 50 moves the left end of the operation object 63 up and down along the bar 66L according to the movement of the cursor 69L. On the other hand, the multimedia processor 50 moves the right end of the operation object 63 up and down along the bar 66R according to the movement of the cursor 69R. Although the operation object 63 is linear, since it expands and contracts, the operation object 63 can be made horizontal or slanted at an arbitrary angle by operating the cursors 69L and 69R.

また、マルチメディアプロセッサ50は、ボールオブジェクト65R,65B,65Y及び65Gを、任意の順番で、画面の上端中央から、次々に出現させ、下方に落下させる。ボールオブジェクト65R,65B,65Y及び65Gの色は、それぞれ、赤、青、黄、及び緑である。ボールオブジェクト65R,65B,65Y及び65Gのそれぞれに対応して、長方形状の受け皿オブジェクト75R,75B,75Y及び75Gが表示される。受け皿オブジェクト75R,75B,75Y及び75Gの色は、それぞれ、赤、青、黄、及び緑である。   Further, the multimedia processor 50 causes the ball objects 65R, 65B, 65Y, and 65G to appear one after another from the center of the upper end of the screen in an arbitrary order and drop downward. The colors of the ball objects 65R, 65B, 65Y, and 65G are red, blue, yellow, and green, respectively. Corresponding to the ball objects 65R, 65B, 65Y and 65G, rectangular tray objects 75R, 75B, 75Y and 75G are displayed. The colors of the saucer objects 75R, 75B, 75Y, and 75G are red, blue, yellow, and green, respectively.

プレイヤは、カーソル69L及び69Rにより、操作オブジェクト63を操作し、落下してくるボールオブジェクト65R,65B,65Y及び65Gを打ち返して、対応する同じ色の受け皿オブジェクト75R,75B,75Y及び75Gまで打ち返すことを試みる。この際、ボールオブジェクト65R,65B,65Y及び65Gを対応する同じ色の受け皿オブジェクト75R,75B,75Y及び75Gに打ち返すことができた場合、それぞれ、0点、2点、1点、及び3点が加算される。   The player operates the operation object 63 with the cursors 69L and 69R, hits the falling ball objects 65R, 65B, 65Y and 65G, and hits the corresponding saucer objects 75R, 75B, 75Y and 75G of the same color. Try. At this time, if the ball objects 65R, 65B, 65Y, and 65G can be hit back to the corresponding saucer objects 75R, 75B, 75Y, and 75G of the same color, 0 points, 2 points, 1 point, and 3 points are respectively obtained. Is added.

以上のように、プレイヤは落下してくるボールオブジェクト65R,65B,65Y及び65Gが何色かを瞬時に判断して適切な受け皿オブジェクト75R,75B,75Y及び75Gに打ち返す必要がある。このため、プレイヤの瞬間的な判断力を鍛えることができる。   As described above, it is necessary for the player to instantly determine the color of the falling ball objects 65R, 65B, 65Y, and 65G and to return to the appropriate tray objects 75R, 75B, 75Y, and 75G. For this reason, a player's instantaneous judgment power can be trained.

[リズムボールモード]   [Rhythm ball mode]

図15は、図1の練磨システムによるリズムボールモードでの練磨画面の例示図である。図15を参照して、マルチメディアプロセッサ50は、テレビジョンモニタ5に、20×20のドットからなる経路領域76を表示する。マルチメディアプロセッサ50は、経路領域76のドットの色を変更することにより、右経路78L及び左経路78Rの形状を変更できる。   FIG. 15 is a view showing an example of a training screen in the rhythm ball mode by the training system of FIG. Referring to FIG. 15, multimedia processor 50 displays a path area 76 composed of 20 × 20 dots on television monitor 5. The multimedia processor 50 can change the shapes of the right path 78L and the left path 78R by changing the color of the dots in the path area 76.

この経路78L及び78Rの形状に関係なく、経路78L及び78Rは、それぞれ、経路領域76の下縁に表示された受領オブジェクト72L及び72Rに延びるように設定される。受領オブジェクト72L及び72Rの位置は固定である。また、マルチメディアプロセッサ50は、カーソル69L及び69Rを表示する。受領オブジェクト72L及び72Rは、それぞれ、入力装置3L及び3Rの入力状態から非入力状態の検出に応答して、収縮し、非入力状態から入力状態の検出に応答して、再び拡張する。   Regardless of the shape of the paths 78L and 78R, the paths 78L and 78R are set to extend to the receiving objects 72L and 72R displayed on the lower edge of the path area 76, respectively. The positions of the receiving objects 72L and 72R are fixed. In addition, the multimedia processor 50 displays cursors 69L and 69R. The receiving objects 72L and 72R contract in response to detection of the non-input state from the input state of the input devices 3L and 3R, respectively, and expand again in response to detection of the input state from the non-input state.

マルチメディアプロセッサ50は、ボールオブジェクト74L及び74Rをそれぞれ、画面上縁から出現させ、それぞれ、経路78L及び78Rに沿って、受領オブジェクト72L及び72Rへ向かって移動させる。この場合、ボールオブジェクト74L及び74Rの出現タイミング及び間隔は、出力する音楽に合わせて設定される。   The multimedia processor 50 causes the ball objects 74L and 74R to appear from the upper edge of the screen, respectively, and moves toward the receiving objects 72L and 72R along the paths 78L and 78R, respectively. In this case, the appearance timing and interval of the ball objects 74L and 74R are set according to the music to be output.

プレイヤは、入力装置3L及び3Rにより、受領オブジェクト72L及び72Rを操作して、ボールオブジェクト74L及び74Rが受領オブジェクト72L及び72Rに到達するタイミングで、受領オブジェクト72L及び72Rを収縮させる。プレイヤは、次々に移動してくるボールオブジェクト74L及び74Rに合わせて適切なタイミングで受領オブジェクト72L及び72Rを収縮させる必要があるので、判断力及び先を読む力を鍛えることができる。また、ボールオブジェクト74L及び74Rは音楽に合わせて出現及び移動してくるので、リズム感を鍛えることもできる。   The player operates the receiving objects 72L and 72R with the input devices 3L and 3R, and contracts the receiving objects 72L and 72R at the timing when the ball objects 74L and 74R reach the receiving objects 72L and 72R. Since the player needs to contract the receiving objects 72L and 72R at an appropriate timing in accordance with the ball objects 74L and 74R that move one after another, the player can train the judgment power and the ability to read ahead. In addition, since the ball objects 74L and 74R appear and move according to music, it is possible to train a sense of rhythm.

[シャッフルメモリモード]   [Shuffle memory mode]

図16(a)〜図16(c)は、図1の練磨システムによるシャッフルメモリモードでの練磨画面の例示図である。図16(a)を参照して、マルチメディアプロセッサ50は、テレビジョンモニタ5に、五個のパネル86−1〜86−5を表示する。パネル86−1〜86−5には、それぞれ異なる図形が記されている。このようなパネル86−1〜86−5の表示と同時に、タイマ80がカウントダウンを開始し(例えば15秒からの)、カウントが0になった時、図16(b)に示すように、パネル86−1〜86−5が裏返され、OKオブジェクト103が消失する。一方、タイマ80が0になる前でも、プレイヤが入力装置3Lの動きに連動するカーソル70Rを操作して、OKオブジェクト103を握ると、図16(b)に示すように、パネル86−1〜86−5が裏返され、OKオブジェクト103が消失する。図16(a)の画面の表示中において、プレイヤは、どのパネル86−1〜86−5にどの図形が記されているかを記憶することを試みる。   FIG. 16A to FIG. 16C are examples of training screens in the shuffle memory mode by the training system of FIG. Referring to FIG. 16A, the multimedia processor 50 displays five panels 86-1 to 86-5 on the television monitor 5. Different graphics are written on the panels 86-1 to 86-5. Simultaneously with the display of such panels 86-1 to 86-5, when the timer 80 starts counting down (for example, from 15 seconds) and the count becomes 0, as shown in FIG. 86-1 to 86-5 are turned over and the OK object 103 disappears. On the other hand, even before the timer 80 reaches 0, when the player operates the cursor 70R interlocked with the movement of the input device 3L and holds the OK object 103, as shown in FIG. 86-5 is turned over and the OK object 103 disappears. During the display of the screen of FIG. 16A, the player tries to memorize which figure is written on which panel 86-1 to 86-5.

パネル86−1〜86−5が裏返されると、マルチメディアプロセッサ50は、回数明示オブジェクト82に記された回数だけ、裏返されたパネル86−1〜86−5をシャッフルする。図の例では、パネル86−1と86−5とを入れ替えると共に、パネル86−3と86−4とを入れ替える(2回シャッフル)。   When the panels 86-1 to 86-5 are turned over, the multimedia processor 50 shuffles the turned-up panels 86-1 to 86-5 for the number of times indicated in the number-of-times explicit object 82. In the example shown in the figure, the panels 86-1 and 86-5 are exchanged, and the panels 86-3 and 86-4 are exchanged (double shuffle).

このシャッフルの終了後に、図16(c)に示すように、マルチメディアプロセッサ50は、出題オブジェクト91を表示する。出題オブジェクト91には、パネル86−1〜86−5のうち、いずれか1つのパネルに記された図形が記される。プレイヤは、カーソル70Rを操作して、出題オブジェクト91に記された図形と同じ図形が記されたパネル86−1,86−2,86−3又は86−5を握る。適切なパネルを握ることができれば正解、そうでなければ不正解となる。   After the end of the shuffle, the multimedia processor 50 displays the question object 91 as shown in FIG. In the question object 91, a graphic written on any one of the panels 86-1 to 86-5 is written. The player operates the cursor 70R to hold the panel 86-1, 86-2, 86-3 or 86-5 on which the same graphic as the graphic written on the question object 91 is written. If you can hold the appropriate panel, it will be correct, otherwise it will be incorrect.

図16(a)〜図16(c)に示した画面の表示が、出題オブジェクト91に記された図形及びシャッフル回数を変えながら繰り返し行われる。なお、シャッフル回数が増えれば記憶も難しくなり難易度が上がる。また、パネルの数を多くすると難易度が上がり、少なくすると難易度が下がる。   The display of the screens shown in FIGS. 16A to 16C is repeatedly performed while changing the figure written on the question object 91 and the number of shuffles. As the number of shuffles increases, memory becomes difficult and the difficulty level increases. Also, increasing the number of panels increases the difficulty level, and decreasing the number decreases the difficulty level.

以上のように、プレイヤは、決められた時間内に、パネル86−1〜86−5の配置とそこに記された図形を記憶し、かつ、パネルの入れ替えを目で追って記憶して行かなければならない。このため、プレイヤの記憶力を鍛えることができる。   As described above, the player must memorize the arrangement of the panels 86-1 to 86-5 and the graphic described there within a predetermined time, and memorize the replacement of the panels. I must. For this reason, a player's memory can be trained.

次に、モードの選択のための選択画面について説明する。   Next, a selection screen for mode selection will be described.

図17は、図1の練磨システムによるモード選択画面の例示図である。図17(a)を参照して、マルチメディアプロセッサ50は、方向ボタン130L及び130R、選択対象132、並びにカーソル70L及び70Rを含む選択画面をテレビジョンモニタ5に表示する。カーソル70L及び70Rについては、フラッシュキャッチモードと同様である。   FIG. 17 is a view showing an example of a mode selection screen by the training system of FIG. Referring to FIG. 17A, the multimedia processor 50 displays a selection screen including direction buttons 130L and 130R, a selection target 132, and cursors 70L and 70R on the television monitor 5. The cursors 70L and 70R are the same as in the flash catch mode.

図17(b)に示すように、プレイヤが、入力状態でカーソル70L又は70Rを方向ボタン130R上に移動し非入力状態にすると、マルチメディアプロセッサ50は、選択対象132を右方向に回転し、左隣の選択対象132を表示する。一方、プレイヤが、入力状態でカーソル70L又は70Rを方向ボタン130L上に移動し非入力状態にすると、マルチメディアプロセッサ50は、選択対象132を左方向に回転し、右隣の選択対象132を表示する。プレイヤは、このような操作により、所望の選択対象132を表示する。そして、プレイヤが、入力状態でカーソル70L又は70Rを選択対象132上に移動し非入力状態にすると、マルチメディアプロセッサ50は、その選択対象132に対応するモードを実行する。   As shown in FIG. 17B, when the player moves the cursor 70L or 70R onto the direction button 130R in the input state to make it non-input, the multimedia processor 50 rotates the selection target 132 in the right direction, The selection target 132 on the left is displayed. On the other hand, when the player moves the cursor 70L or 70R to the non-input state by moving the cursor 70L or 70R in the input state, the multimedia processor 50 rotates the selection target 132 to the left and displays the selection target 132 on the right. To do. The player displays a desired selection target 132 by such an operation. When the player moves the cursor 70L or 70R onto the selection target 132 in the input state and puts it into the non-input state, the multimedia processor 50 executes a mode corresponding to the selection target 132.

ここで、入力状態でカーソル70L又は70Rを方向ボタン130L若しくは130R又は選択対象132に移動し非入力状態にすることを、方向ボタン130L若しくは130R又は選択対象132を握ると呼ぶこともある。   Here, moving the cursor 70L or 70R to the direction button 130L or 130R or the selection target 132 in the input state to make it non-input may be referred to as holding the direction button 130L or 130R or the selection target 132.

ところで、上記の第2のナンバーキャッチモード等のように、片手ずつプレイを行うモードがある。この場合、左右いずれの手を最初に使ってプレイするかは、予め定めておいてもよいが、プレイヤに選択させることもできる。この場合の左右選択画面について説明する。   By the way, there is a mode for playing one hand at a time, such as the second number catch mode. In this case, it may be determined in advance which of the left and right hands is used first, but the player can also select. The left / right selection screen in this case will be described.

図18は、図1の練磨システムによる左右選択画面の例示図である。図18を参照して、この左右選択画面は、左手を模した左手オブジェクト88L及び右手を模した右手オブジェクト88Rを含む。また、入力装置3L及び3Rの動きにそれぞれ連動するカーソル70L及び70Rが表示される。   FIG. 18 is a view showing an example of a left / right selection screen by the training system of FIG. Referring to FIG. 18, the left / right selection screen includes a left hand object 88L that imitates the left hand and a right hand object 88R that imitates the right hand. In addition, cursors 70L and 70R that are linked to the movements of the input devices 3L and 3R are displayed.

プレイヤは、いずれかのカーソル70L又は70Rを操作して、左手オブジェクト88L及び右手オブジェクト88Rのいずれかを握る。すると、握られたオブジェクト88L又は88Rに対応するカーソル70L又は70Rが練磨画面に表示される。従って、プレイヤは、所望の手でのプレイを行うことができる。   The player operates one of the cursors 70L or 70R to hold either the left hand object 88L or the right hand object 88R. Then, the cursor 70L or 70R corresponding to the grasped object 88L or 88R is displayed on the training screen. Therefore, the player can play with a desired hand.

次に、入力装置3の他の装着方法を説明する。   Next, another mounting method of the input device 3 will be described.

図19は、図1の入力装置3の他の装着例を示す図である。図19を参照して、プレイヤは、中指を図2のベルト19に通して、入力装置3を装着する。この場合、透明体17及び再帰反射シート15が、手の甲の側にくるようにする。この点、図3の場合と異なる。従って、プレイヤが、情報処理装置1に、つまり、イメージセンサ54に、手の甲を向けると、透明体17、つまり、再帰反射シート15が現れ、この再帰反射シート15が撮影される(入力状態)。一方、イメージセンサ54に、手の平を向けると、透明体17、つまり、再帰反射シート15は、隠れてしまい、イメージセンサ54に撮影されない(非入力状態)。従って、プレイヤは、肘を支点、腕を軸として、手を回転させることによって、再帰反射シート15を撮影させたり撮影させなかったりすることにより、情報処理装置1に対する入力/非入力の制御を行うことができる。上記の各モードにおいて、プレイヤに対し、このような方法で、入力/非入力を行わせることもできる。   FIG. 19 is a diagram showing another example of mounting the input device 3 of FIG. Referring to FIG. 19, the player puts the input device 3 with his / her middle finger passing through belt 19 in FIG. 2. In this case, the transparent body 17 and the retroreflective sheet 15 are placed on the back of the hand. This is different from the case of FIG. Accordingly, when the player turns the back of the hand toward the information processing apparatus 1, that is, the image sensor 54, the transparent body 17, that is, the retroreflective sheet 15 appears, and the retroreflective sheet 15 is photographed (input state). On the other hand, when the palm is turned to the image sensor 54, the transparent body 17, that is, the retroreflective sheet 15 is hidden and is not photographed by the image sensor 54 (non-input state). Therefore, the player performs input / non-input control on the information processing device 1 by rotating the hand around the elbow as a fulcrum and the arm as an axis so as to cause the retroreflective sheet 15 to be taken or not taken. be able to. In each of the above modes, the player can be made to perform input / non-input by such a method.

図20は、図1の入力装置3のさらに他の装着例を示す図である。図20を参照して、プレイヤは、中指を図2のベルト19に通して、入力装置3を装着する。この場合、透明体17及び再帰反射シート15が、手の甲の側にくるようにする。そして、プレイヤは、手を握り締める。従って、プレイヤが、情報処理装置1に、つまり、イメージセンサ54に、こぶしを向けると、透明体17、つまり、再帰反射シート15が現れ、この再帰反射シート15が撮影される(入力状態)。一方、こぶしをイメージセンサ54から隠すと(例えば左右の手の指背部を合わせる。)、透明体17、つまり、再帰反射シート15は、イメージセンサ54に撮影されない(非入力状態)。従って、プレイヤは、こぶしの向きを変えることによって、再帰反射シート15を撮影させたり撮影させなかったりすることにより、情報処理装置1に対する入力/非入力の制御を行うことができる。上記の各モードにおいて、プレイヤに対し、このような方法で、入力/非入力を行わせることもできる。   FIG. 20 is a diagram showing still another example of mounting the input device 3 of FIG. Referring to FIG. 20, the player puts the input device 3 with his / her middle finger passing through belt 19 in FIG. In this case, the transparent body 17 and the retroreflective sheet 15 are placed on the back of the hand. Then, the player clasps his hand. Therefore, when the player directs the fist toward the information processing apparatus 1, that is, the image sensor 54, the transparent body 17, that is, the retroreflective sheet 15 appears, and the retroreflective sheet 15 is photographed (input state). On the other hand, when the fist is hidden from the image sensor 54 (for example, the finger backs of the left and right hands are aligned), the transparent body 17, that is, the retroreflective sheet 15 is not photographed by the image sensor 54 (non-input state). Therefore, the player can perform input / non-input control on the information processing apparatus 1 by changing the direction of the fist so that the retroreflective sheet 15 is taken or not taken. In each of the above modes, the player can be made to perform input / non-input by such a method.

さて、以上のように、本実施の形態によれば、プレイヤが、再帰反射シート15を撮像させたら入力状態と判定され、再帰反射シート15が撮像されないようにしたら非入力状態と判定される。従って、プレイヤに対して、入力状態と非入力状態とを繰り返し行わせるような映像(例えば、図5、図7、図8)を表示することにより、プレイヤは、再帰反射シート15が撮像される状態と撮像されない状態とを繰り返しつくり出さなければならない。これに伴って、プレイヤは、その様な状態の変化に応じた運動をすることになる。その結果、プレイヤに対して、運動を行わせることができ、健康の維持・増進やリハビリテーションの支援を図ることができる。また、プレイヤは、両手を使うことになるので、両手をバランス良く動かす運動を行うことができる。   As described above, according to the present embodiment, when the player images the retroreflective sheet 15, it is determined as an input state, and when the retroreflective sheet 15 is not captured, it is determined as a non-input state. Therefore, by displaying an image (for example, FIGS. 5, 7, and 8) that causes the player to repeatedly perform the input state and the non-input state, the player images the retroreflective sheet 15. It is necessary to repeatedly create a state and a state where no image is captured. Along with this, the player moves according to such a change in the state. As a result, the player can exercise and can support health maintenance / promotion and rehabilitation. Further, since the player uses both hands, the player can perform an exercise of moving both hands in a balanced manner.

加えて、テレビジョンモニタ5に表示する映像を人間の所定の能力に関連したもの(例えば、図5〜図8)とすることにより、人間の所定の能力のトレーニングを行うことができる。ここで、所定の能力とは、動体認識能力、動体予測能力、瞬間認識能力、及び短期記憶能力など、目等の感覚器官→感覚神経→脳→運動神経→手等の身体の部位という一連の伝達機能及び記憶機能を含む。   In addition, when the video displayed on the television monitor 5 is related to a predetermined human ability (for example, FIG. 5 to FIG. 8), the predetermined human ability training can be performed. Here, the predetermined ability is a series of sensory organs such as eyes → sensory nerves → brain → motor nerves → parts of the body such as hands, such as dynamic body recognition ability, dynamic body prediction ability, instantaneous recognition ability, and short-term memory ability. Includes transmission and storage functions.

図3の装着例に関連して、この場合は、プレイヤの手の平の側に装着された再帰反射シート15が撮像される。従って、プレイヤは、手を開いて再帰反射シート15を撮像させ入力状態とし、手を握り締めて再帰反射シート15を隠して非入力状態とすることができる。この場合、手を開くこと(じゃんけんの「ぱあ」)と握り締めること(じゃんけんの「ぐう」)を繰り返すことになる。また、必然的に、ある程度又は完全に、腕を前方に伸ばして、そのような動作を行うことになる。従って、このような、日常生活において、あまり行わない動作に依存する神経や筋肉を鍛えることができる。   In this case, the retroreflective sheet 15 mounted on the palm side of the player is imaged in relation to the mounting example of FIG. Accordingly, the player can open the hand and take an image of the retroreflective sheet 15 to enter the input state, and hold the hand to hide the retroreflective sheet 15 and enter the non-input state. In this case, open hands (Janken's "Pa") and clenching (Janken's "Guu") are repeated. Inevitably, such an operation is performed by extending the arm forward to some extent or completely. Therefore, it is possible to train nerves and muscles that depend on actions that are not often performed in daily life.

また、図10の装着例に関連して、この場合は、プレイヤの手の甲の側に装着された再帰反射シート15が撮像される。従って、プレイヤは、手の甲の側をイメージセンサ54に向けて再帰反射シート15を撮像させ入力状態とし、手の平の側をイメージセンサ54に向けて再帰反射シート15を隠して非入力状態とすることができる。この場合、肘を支点、腕を軸にして手を回転させることになる。また、必然的に、ある程度又は完全に、腕を前方に伸ばして、そのような動作を行うことになる。従って、このような、日常生活において、あまり行わない動作に依存する神経や筋肉を鍛えることができる。   Further, in this case, the retroreflective sheet 15 mounted on the back of the player's hand is imaged in relation to the mounting example of FIG. Accordingly, the player may enter the input state by imaging the retroreflective sheet 15 with the back side of the hand facing the image sensor 54, and hide the retroreflective sheet 15 with the palm side facing the image sensor 54 to enter the non-input state. it can. In this case, the hand is rotated about the elbow as a fulcrum and the arm as an axis. Inevitably, such an operation is performed by extending the arm forward to some extent or completely. Therefore, it is possible to train nerves and muscles that depend on actions that are not often performed in daily life.

さらに、図11の装着例に関連して、この場合は、手を握り締めた状態で手の甲の側に装着された再帰反射シート15が撮像される。従って、プレイヤは、こぶしをイメージセンサ54に向けて再帰反射シート15を撮像させ入力状態とし、こぶしをイメージセンサ54から隠して(例えば左右の手の指背部を合わせて)非入力状態とすることができる。従って、このような、日常生活において、あまり行わない動作に依存する神経や筋肉を鍛えることができる。   Furthermore, in relation to the wearing example of FIG. 11, in this case, the retroreflective sheet 15 attached to the back of the hand with the hand clamped is imaged. Therefore, the player points the fist toward the image sensor 54 and images the retroreflective sheet 15 to be in the input state, and hides the fist from the image sensor 54 (for example, by aligning the finger backs of the left and right hands) to the non-input state. Can do. Therefore, it is possible to train nerves and muscles that depend on actions that are not often performed in daily life.

さて、次に、再帰反射シート15L及び15Rの検出処理及び左右決定処理を図面を用いて説明する。   Next, detection processing and left / right determination processing of the retroreflective sheets 15L and 15R will be described with reference to the drawings.

図21は、再帰反射シート15L及び15Rの検出処理の説明図である。図21には、赤外光発光時及び消灯時の画像データから生成した差分画像データに基づく差分画像(32×32ピクセル)が図示されている。図中、小さい正方形は1ピクセルを示す。また、左上角をXY座標軸の原点とする。   FIG. 21 is an explanatory diagram of detection processing of the retroreflective sheets 15L and 15R. FIG. 21 shows a difference image (32 × 32 pixels) based on difference image data generated from image data when infrared light is emitted and when the light is turned off. In the figure, a small square represents one pixel. The upper left corner is the origin of the XY coordinate axes.

この画像には、輝度値が大きい2つの領域251及び253が含まれる。領域251及び253は、再帰反射シート15L及び15Rである。ただし、この時点では、どの領域がどの再帰反射シートに対応するかは判別できない。   This image includes two regions 251 and 253 having large luminance values. Regions 251 and 253 are retroreflective sheets 15L and 15R. However, at this time, it cannot be determined which region corresponds to which retroreflective sheet.

まず、マルチメディアプロセッサ50は、Y=0を出発点として、X=0からX=31まで、差分画像データをスキャンし、次に、Yをインクリメントし、X=0からX=31まで、差分画像データをスキャンする。このような処理をY=31まで行い、32×32ピクセルの差分画像データをスキャンして、閾値ThLより大きいピクセルデータの上端位置minY、下端位置maxY、左端位置minX、及び右端位置maxXを求める。   First, the multimedia processor 50 scans the difference image data from X = 0 to X = 31 with Y = 0 as the starting point, and then increments Y to make the difference from X = 0 to X = 31. Scan image data. Such processing is performed up to Y = 31, and the difference image data of 32 × 32 pixels is scanned to obtain the upper end position minY, lower end position maxY, left end position minX, and right end position maxX of the pixel data larger than the threshold ThL.

次に、マルチメディアプロセッサ50は、座標(minX,minY)を出発点として、X軸の正方向にスキャンを実行して、最初に閾値ThLを超えるピクセルまでの距離LTを算出する。また、マルチメディアプロセッサ50は、座標(maxX,minY)を出発点として、X軸の負方向にスキャンを実行して、最初に閾値ThLを超えるピクセルまでの距離RTを算出する。さらに、マルチメディアプロセッサ50は、座標(minX,maxY)を出発点として、X軸の正方向にスキャンを実行して、最初に閾値ThLを超えるピクセルまでの距離LBを算出する。さらに、マルチメディアプロセッサ50は、座標(maxX,maxY)を出発点として、X軸の負方向にスキャンを実行して、最初に閾値ThLを超えるピクセルまでの距離RBを算出する。   Next, the multimedia processor 50 executes a scan in the positive direction of the X axis with the coordinates (minX, minY) as a starting point, and first calculates a distance LT to a pixel exceeding the threshold ThL. Further, the multimedia processor 50 executes a scan in the negative direction of the X axis starting from the coordinates (maxX, minY), and first calculates a distance RT to a pixel exceeding the threshold ThL. Further, the multimedia processor 50 performs a scan in the positive direction of the X axis with the coordinates (minX, maxY) as a starting point, and first calculates a distance LB to a pixel exceeding the threshold ThL. Further, the multimedia processor 50 executes a scan in the negative direction of the X axis starting from the coordinates (maxX, maxY), and first calculates a distance RB to a pixel exceeding the threshold ThL.

マルチメディアプロセッサ50は、距離LT>RTのときは、座標(maxX,minY)を第1抽出点とし、距離LT≦RTのときは、座標(minX,minY)を第1抽出点とする。また、マルチメディアプロセッサ50は、距離LB>RBのときは、座標(maxX,maxY)を第2抽出点とし、距離LB≦RBのときは、座標(minX,maxY)を第2抽出点とする。   The multimedia processor 50 sets the coordinates (maxX, minY) as the first extraction point when the distance LT> RT, and sets the coordinates (minX, minY) as the first extraction point when the distance LT ≦ RT. In addition, when the distance LB> RB, the multimedia processor 50 sets the coordinates (maxX, maxY) as the second extraction point, and when the distance LB ≦ RB, sets the coordinates (minX, maxY) as the second extraction point. .

図22は、左右決定処理の説明図である。図22には、前回(1ビデオフレーム前)の再帰反射シート15Lの位置TPL2及び前々回(2ビデオフレーム前)の位置TPL1、並びに、前回(1ビデオフレーム前)の再帰反射シート15Rの位置TPR2及び前々回(1ビデオフレーム前)の位置TPR1が図示されている。位置TPL1,TPL2,TPR1及びTPR2は、差分画像データに基づく差分画像上の位置である。   FIG. 22 is an explanatory diagram of the left / right determination process. FIG. 22 shows the position TPL2 of the retroreflective sheet 15L of the previous time (one video frame before) and the position TPL1 of the previous time (2 video frames before), the position TPR2 of the retroreflective sheet 15R of the previous time (1 video frame before), and A position TPR1 two times before (one video frame before) is shown. Positions TPL1, TPL2, TPR1, and TPR2 are positions on the difference image based on the difference image data.

マルチメディアプロセッサ50は、位置TPL1を始点、位置TPL2を終点とする速度ベクトルVLを算出する。そして、位置TPL2を始点とする速度ベクトルVLの終点を、再帰反射シート15Lの予測位置TPLpとする。一方、マルチメディアプロセッサ50は、位置TPR1を始点、位置TPR2を終点とする速度ベクトルVRを算出する。そして、位置TPR2を始点とする速度ベクトルVRの終点を、再帰反射シート15Rの予測位置TPRpとする。   The multimedia processor 50 calculates a velocity vector VL starting from the position TPL1 and ending at the position TPL2. Then, the end point of the velocity vector VL starting from the position TPL2 is set as the predicted position TPLp of the retroreflective sheet 15L. On the other hand, the multimedia processor 50 calculates a velocity vector VR starting from the position TPR1 and ending at the position TPR2. Then, the end point of the velocity vector VR starting from the position TPR2 is set as the predicted position TPRp of the retroreflective sheet 15R.

マルチメディアプロセッサ50は、第1抽出点TPN1と予測位置TPLpとの距離LD1、第1抽出点TPN1と予測位置TPRpとの距離RD1、第2抽出点TPN2と予測位置TPLpとの距離LD2、及び、第2抽出点TPN2と予測位置TPRpとの距離RD2を求める。   The multimedia processor 50 includes a distance LD1 between the first extraction point TPN1 and the predicted position TPLp, a distance RD1 between the first extraction point TPN1 and the predicted position TPRp, a distance LD2 between the second extraction point TPN2 and the predicted position TPLp, and A distance RD2 between the second extraction point TPN2 and the predicted position TPRp is obtained.

マルチメディアプロセッサ50は、距離LD1>RD1ならば、第1抽出点TPN1を再帰反射シート15Rの今回の位置とし、距離LD1≦RD1ならば、第1抽出点TPN1を再帰反射シート15Lの今回の位置とする。また、マルチメディアプロセッサ50は、距離LD2>RD2ならば、第2抽出点TPN2を再帰反射シート15Rの今回の位置とし、距離LD2≦RD2ならば、第2抽出点TPN2を再帰反射シート15Lの今回の位置とする。   If the distance LD1> RD1, the multimedia processor 50 sets the first extraction point TPN1 as the current position of the retroreflective sheet 15R. If the distance LD1 ≦ RD1, the multimedia processor 50 sets the first extraction point TPN1 as the current position of the retroreflective sheet 15L. And Further, if the distance LD2> RD2, the multimedia processor 50 sets the second extraction point TPN2 as the current position of the retroreflective sheet 15R, and if the distance LD2 ≦ RD2, sets the second extraction point TPN2 as the current position of the retroreflective sheet 15L. The position of

このように、左右の予測位置TPLp及びTPRpに基づいて、第1抽出点TPN1及び第2抽出点TPN2に左右を割り当てているため、再帰反射シート15Lと再帰反射シート15Rとの左右が入れ替わった場合でも(クロスした場合でも)、マルチメディアプロセッサ50は、差分画像データに基づく差分画像上において、再帰反射シート15L及び15Rの各々を的確に認識できる。   Thus, since the left and right are assigned to the first extraction point TPN1 and the second extraction point TPN2 based on the left and right predicted positions TPLp and TPRp, the left and right of the retroreflective sheet 15L and the retroreflective sheet 15R are switched. However (even if crossed), the multimedia processor 50 can accurately recognize each of the retroreflective sheets 15L and 15R on the difference image based on the difference image data.

さて、次に、マルチメディアプロセッサ50による処理の流れをフローチャートを用いて説明する。   Next, the flow of processing by the multimedia processor 50 will be described using a flowchart.

図23は、図4のマルチメディアプロセッサ50による全体処理の流れの一例を示すフローチャートである。図23を参照して、ステップS1にて、マルチメディアプロセッサ50は、各種変数(フラグやカウンタを含む。)の初期化等、システムの初期設定を実行する。ステップS3にて、マルチメディアプロセッサ50は、外部メモリ52に格納されたアプリケーションプログラムに従った処理を実行する。ステップS5にて、マルチメディアプロセッサ50は、ビデオ同期信号による割り込みが発生するまで待機する。つまり、マルチメディアプロセッサ50は、ビデオ同期信号による割り込みが発生していない場合は、同じステップS5に戻り、ビデオ同期信号による割り込みが発生した場合は、ステップS7に進む。例えば、ビデオ同期信号による割り込みは、1/60秒ごとに発生する。この割り込みに同期して、ステップS7及びステップS9にて、マルチメディアプロセッサ50は、テレビジョンモニタ5に表示する画像を更新すると共に、音声の再生を行う。そして、マルチメディアプロセッサ50は、ステップS3に戻る。   FIG. 23 is a flowchart showing an example of the overall processing flow by the multimedia processor 50 of FIG. Referring to FIG. 23, in step S1, multimedia processor 50 performs initial setting of the system such as initialization of various variables (including flags and counters). In step S <b> 3, the multimedia processor 50 executes processing according to the application program stored in the external memory 52. In step S5, the multimedia processor 50 stands by until an interrupt due to the video synchronization signal occurs. That is, the multimedia processor 50 returns to the same step S5 when the interrupt due to the video synchronization signal has not occurred, and proceeds to step S7 when the interrupt due to the video synchronization signal has occurred. For example, the interruption by the video synchronization signal occurs every 1/60 seconds. In synchronization with this interruption, in steps S7 and S9, the multimedia processor 50 updates the image displayed on the television monitor 5 and reproduces the sound. Then, the multimedia processor 50 returns to step S3.

ステップS3の処理を制御するアプリケーションプログラムは、複数のプログラムを含む。この複数のプログラムに、下記するフローチャートが示す処理を実行するプログラムが含まれる。   The application program that controls the processing in step S3 includes a plurality of programs. The plurality of programs include a program that executes processing shown in the flowchart below.

図24は、図23のステップS3におけるアプリケーションプログラムによる処理の主要部分の流れの一例を示すフローチャートである。図24を参照して、ステップS21にて、マルチメディアプロセッサ50は、再帰反射シート15L及び15Rの撮影処理を実行する。ステップS23にて、マルチメディアプロセッサ50は、ステップS21で得られた画像に基づいて、再帰反射シート15L及び15Rの像を検出する。ステップS25にて、マルチメディアプロセッサ50は、ターゲットを適切に握る処理が行われたか否かを判定する。ステップS27にて、マルチメディアプロセッサ50は、テレビジョンモニタ5に表示する映像の制御や、その他の必要な演算を実行する。   FIG. 24 is a flowchart showing an example of the flow of the main part of the processing by the application program in step S3 of FIG. Referring to FIG. 24, in step S21, the multimedia processor 50 executes the photographing process of the retroreflective sheets 15L and 15R. In step S23, the multimedia processor 50 detects the images of the retroreflective sheets 15L and 15R based on the image obtained in step S21. In step S25, the multimedia processor 50 determines whether or not a process of appropriately grasping the target has been performed. In step S27, the multimedia processor 50 executes control of video displayed on the television monitor 5 and other necessary calculations.

ここで、ターゲットとは、プレイヤが握る対象のことを意味し、上記例では、定位置オブジェクト100及び120、ターゲット110、図9及び図10の数字、蝶オブジェクト29,31及び33、37、感覚情報提示部37T,37B,37L及び37R、ボールオブジェクト74L及び74R、84、パネル86−1〜86−5、OKオブジェクト103、並びに方向ボタン130L及び130Rである。   Here, the target means an object to be grasped by the player. In the above example, the fixed position objects 100 and 120, the target 110, the numbers in FIGS. 9 and 10, the butterfly objects 29, 31 and 33, 37, and the senses. Information presentation units 37T, 37B, 37L and 37R, ball objects 74L and 74R, 84, panels 86-1 to 86-5, an OK object 103, and direction buttons 130L and 130R.

また、ターゲットを握るとは、プレイヤが、入力状態でカーソルをターゲットまで移動し、非入力状態にすることである。   In addition, the grasping of the target means that the player moves the cursor to the target in the input state and puts it into the non-input state.

図25は、図24のステップS21における撮影処理の流れの一例を示すフローチャートである。図25に示すように、ステップS41において、マルチメディアプロセッサ50は、赤外発光ダイオード9を点灯する。ステップS43で、マルチメディアプロセッサ50は、イメージセンサ54から、赤外光点灯時の画像データを取得して、メインRAMに格納する。   FIG. 25 is a flowchart showing an example of the flow of the photographing process in step S21 of FIG. As shown in FIG. 25, in step S41, the multimedia processor 50 turns on the infrared light emitting diode 9. In step S43, the multimedia processor 50 acquires image data when the infrared light is turned on from the image sensor 54, and stores it in the main RAM.

ここで、本実施の形態では、イメージセンサ54の例として、32ピクセル×32ピクセルのCMOSイメージセンサを使用する。従って、イメージセンサ54からは、画像データとして、32ピクセル×32ピクセルのピクセルデータが出力される。このピクセルデータは、A/Dコンバータにより、デジタルデータに変換されて、メインRAM上の二次元配列P1[X][Y]の要素として格納される。   Here, in this embodiment, a CMOS image sensor of 32 pixels × 32 pixels is used as an example of the image sensor 54. Therefore, pixel data of 32 pixels × 32 pixels is output from the image sensor 54 as image data. This pixel data is converted into digital data by an A / D converter and stored as an element of a two-dimensional array P1 [X] [Y] on the main RAM.

ステップS45で、マルチメディアプロセッサ50は、赤外発光ダイオード9を消灯する。ステップS47にて、マルチメディアプロセッサ50は、イメージセンサ54から、赤外光消灯時の画像データ(32ピクセル×32ピクセルのピクセルデータ)を取得して、メインRAMに格納する。この場合、このピクセルデータは、メインRAM上の二次元配列P2[X][Y]の要素として格納される。   In step S45, the multimedia processor 50 turns off the infrared light emitting diode 9. In step S47, the multimedia processor 50 acquires image data (32 pixel × 32 pixel pixel data) when the infrared light is extinguished from the image sensor 54, and stores it in the main RAM. In this case, the pixel data is stored as an element of a two-dimensional array P2 [X] [Y] on the main RAM.

以上のようにして、ストロボ撮影が行われる。ここで、イメージセンサ54による画像を構成する各ピクセルの位置を表す二次元座標系では、水平方向をX軸、垂直方向をY軸とする。また、原点Oを画像の左上角とする。本実施の形態では、32ピクセル×32ピクセルのイメージセンサ54を用いているため、X=0〜31、Y=0〜31である。この点、差分画像DIについても同じである。また、ピクセルデータは輝度値である。   The flash photography is performed as described above. Here, in the two-dimensional coordinate system representing the position of each pixel constituting the image by the image sensor 54, the horizontal direction is the X axis and the vertical direction is the Y axis. The origin O is the upper left corner of the image. In this embodiment, since the image sensor 54 of 32 pixels × 32 pixels is used, X = 0 to 31 and Y = 0 to 31. This also applies to the difference image DI. The pixel data is a luminance value.

図26は、図24のステップS23におけるシート検出処理の流れの一例を示すフローチャートである。図26に示すように、ステップS61にて、マルチメディアプロセッサ50は、赤外光発光時のピクセルデータP1[X][Y]と、赤外光消灯時のピクセルデータP2[X][Y]と、の差分を算出して、配列Dif[X][Y]に代入する。ステップS63にて、マルチメディアプロセッサ50は、32×32ピクセル分の差分を算出した場合は、ステップS65に進み、そうでなければ、ステップS61に進む。このように、マルチメディアプロセッサ50は、ステップS61の処理を繰り返して、赤外光発光時の画像データと、赤外光消灯時の画像データと、の差分画像データを生成する。このように、差分画像データ(差分画像)を求めることで、再帰反射シート15L及び15Rからの反射光以外の光によるノイズを極力除去でき、再帰反射シート15L及び15Rを精度良く検出できる。   FIG. 26 is a flowchart showing an example of the flow of the sheet detection process in step S23 of FIG. As shown in FIG. 26, in step S61, the multimedia processor 50 causes the pixel data P1 [X] [Y] when emitting infrared light and the pixel data P2 [X] [Y] when turning off infrared light. And is substituted into the array Dif [X] [Y]. In step S63, the multimedia processor 50 proceeds to step S65 when the difference of 32 × 32 pixels is calculated, and proceeds to step S61 otherwise. As described above, the multimedia processor 50 repeats the process of step S61 to generate difference image data between the image data when the infrared light is emitted and the image data when the infrared light is turned off. Thus, by obtaining the difference image data (difference image), noise due to light other than the reflected light from the retroreflective sheets 15L and 15R can be removed as much as possible, and the retroreflective sheets 15L and 15R can be detected with high accuracy.

ステップS65にて、マルチメディアプロセッサ50は、図21で説明した左右上下端(minX、maxX、minY、maxY)検出処理を実行する。   In step S65, the multimedia processor 50 executes the left and right upper and lower end (minX, maxX, minY, maxY) detection processing described in FIG.

図27は、図26のステップS65における左右上下端検出処理の流れの一例を示すフローチャートである。図27に示すように、ステップS91にて、マルチメディアプロセッサ50は、「X」、「Y」、「maxX」、「maxY」、「k」、及び「SN」に「0」を代入する。また、マルチメディアプロセッサ50は、「minX」及び「minY」に「31」を代入する。   FIG. 27 is a flowchart showing an example of the flow of left / right upper / lower end detection processing in step S65 of FIG. As shown in FIG. 27, in step S91, the multimedia processor 50 assigns “0” to “X”, “Y”, “maxX”, “maxY”, “k”, and “SN”. Also, the multimedia processor 50 substitutes “31” for “minX” and “minY”.

ステップS93にて、マルチメディアプロセッサ50は、配列Dif[X][Y]の要素を所定の閾値ThLと比較する。ステップS95にて、マルチメディアプロセッサ50は、配列Dif[X][Y]の要素が所定の閾値ThLより大きい場合は、ステップS97に進み、所定の閾値ThL以下の場合は、ステップS121に進む。   In step S93, the multimedia processor 50 compares the elements of the array Dif [X] [Y] with a predetermined threshold ThL. In step S95, the multimedia processor 50 proceeds to step S97 if the element of the array Dif [X] [Y] is greater than the predetermined threshold ThL, and proceeds to step S121 if it is less than or equal to the predetermined threshold ThL.

ステップS93,S95の処理は、再帰反射シート15L,15Rが撮影されたか否かを検出するための処理である。再帰反射シート15L,15Rが撮影されると、差分画像上では、再帰反射シート15L,15Rに相当するピクセルの輝度値が大きくなる。このため、閾値ThLにより、輝度値の大小を峻別して、閾値ThLより大きい輝度値を持つピクセルを、撮影された再帰反射シート15L,15Rの一部であると認識する。   The processes in steps S93 and S95 are processes for detecting whether or not the retroreflective sheets 15L and 15R are photographed. When the retroreflective sheets 15L and 15R are photographed, the luminance values of pixels corresponding to the retroreflective sheets 15L and 15R increase on the difference image. For this reason, the brightness value is distinguished by the threshold value ThL, and a pixel having a brightness value larger than the threshold value ThL is recognized as part of the photographed retroreflective sheets 15L and 15R.

ステップS97にて、マルチメディアプロセッサ50は、カウント値kを1つインクリメントする。ステップS99にて、マルチメディアプロセッサ50は、カウント値kが「1」か否かを判断し、k=1であれば、ステップS101に進み、それ以外では、ステップS103に進む。   In step S97, the multimedia processor 50 increments the count value k by one. In step S99, the multimedia processor 50 determines whether or not the count value k is “1”. If k = 1, the process proceeds to step S101. Otherwise, the process proceeds to step S103.

ステップS101では、マルチメディアプロセッサ50は、最小Y座標minYに、現在のY座標を代入する。つまり、スキャンは、(X,Y)=(0,0)から開始して、X=0〜31まで行い、Yをインクリメントして、再び、X=0〜31まで行う、という処理を繰り返すので(後述のステップS121〜S129参照)、最初に閾値ThLを超えた要素(つまりピクセル)を持つ配列Dif[X][Y]の「Y」が最小Y座標minYとなる。   In step S101, the multimedia processor 50 substitutes the current Y coordinate for the minimum Y coordinate minY. In other words, the scan repeats the process of starting from (X, Y) = (0, 0), performing X = 0 to 31, incrementing Y, and again performing X = 0 to 31. (Refer to Steps S121 to S129 described later) “Y” of the array Dif [X] [Y] having an element (that is, a pixel) that first exceeds the threshold ThL is the minimum Y coordinate minY.

ステップS103では、マルチメディアプロセッサ50は、現在の最大Y座標maxYと現在のY座標とを比較する。ステップS105にて、マルチメディアプロセッサ50は、現在の最大Y座標maxYより現在のY座標が大きい場合は、ステップS107に進み、それ以外はステップS109に進む。ステップS107では、マルチメディアプロセッサ50は、最大Y座標maxYに、現在のY座標を代入する。   In step S103, the multimedia processor 50 compares the current maximum Y coordinate maxY with the current Y coordinate. In step S105, the multimedia processor 50 proceeds to step S107 when the current Y coordinate is larger than the current maximum Y coordinate maxY, and proceeds to step S109 otherwise. In step S107, the multimedia processor 50 substitutes the current Y coordinate for the maximum Y coordinate maxY.

ステップS109では、マルチメディアプロセッサ50は、現在の最小X座標minXと現在のX座標とを比較する。ステップS111にて、マルチメディアプロセッサ50は、現在の最小X座標minXより現在のX座標が小さい場合は、ステップS113に進み、それ以外はステップS115に進む。ステップS113では、マルチメディアプロセッサ50は、最小X座標minXに、現在のX座標を代入する。   In step S109, the multimedia processor 50 compares the current minimum X coordinate minX with the current X coordinate. In step S111, the multimedia processor 50 proceeds to step S113 if the current X coordinate is smaller than the current minimum X coordinate minX, and proceeds to step S115 otherwise. In step S113, the multimedia processor 50 substitutes the current X coordinate for the minimum X coordinate minX.

ステップS115では、マルチメディアプロセッサ50は、現在の最大X座標maxXと現在のX座標とを比較する。ステップS117にて、マルチメディアプロセッサ50は、現在の最大X座標maxXより現在のX座標が大きい場合は、ステップS119に進み、それ以外はステップS121に進む。ステップS119では、マルチメディアプロセッサ50は、最大X座標maxXに、現在のX座標を代入する。   In step S115, the multimedia processor 50 compares the current maximum X coordinate maxX with the current X coordinate. In step S117, the multimedia processor 50 proceeds to step S119 if the current X coordinate is larger than the current maximum X coordinate maxX, and proceeds to step S121 otherwise. In step S119, the multimedia processor 50 substitutes the current X coordinate for the maximum X coordinate maxX.

ステップS121では、マルチメディアプロセッサ50は、「X」を1つインクリメントする。ステップS123にて、マルチメディアプロセッサ50は、X=32のときは(つまり、差分画像のピクセル1行分の処理が終了したときは)ステップS125に進み、それ以外はステップS93に進む。   In step S121, the multimedia processor 50 increments “X” by one. In step S123, the multimedia processor 50 proceeds to step S125 when X = 32 (that is, when the processing for one row of pixels of the difference image is completed), and proceeds to step S93 otherwise.

ステップS125では、マルチメディアプロセッサ50は、「X」に「0」を代入する。ステップS127にて、マルチメディアプロセッサ50は、「Y」を1つインクリメントする。ステップS125,S127の処理は、差分画像の1行分の処理が終了したため、次の1行分の処理を進めるために実行される。   In step S125, the multimedia processor 50 substitutes “0” for “X”. In step S127, the multimedia processor 50 increments “Y” by one. The processes in steps S125 and S127 are executed to advance the process for the next line because the process for one line of the difference image has been completed.

ステップS129にて、マルチメディアプロセッサ50は、Y=32のときは(つまり、差分画像の32×32ピクセル分の処理が終了したときは)、ステップS131に進み、それ以外はステップS93に進む。   In step S129, the multimedia processor 50 proceeds to step S131 when Y = 32 (that is, when processing of 32 × 32 pixels of the difference image is completed), and proceeds to step S93 otherwise.

上記ステップS93〜S129を繰り返すことにより、Y=32となった時点で、最小X座標minX、最大X座標maxX、最小Y座標minY、及び最大Y座標maxYが全て確定する。   By repeating the above steps S93 to S129, when Y = 32, the minimum X coordinate minX, the maximum X coordinate maxX, the minimum Y coordinate minY, and the maximum Y coordinate maxY are all determined.

ステップS131では、「maxX」、「maxY」、「minX」及び「minY」が初期値のままであるか否かを判断し、初期値の場合はステップS133に進み、それ以外はリターンする。「maxX」、「maxY」、「minX」及び「minY」の全てが初期値ということは、差分画像の全ピクセルが閾値ThL以下であり、再帰反射シート15L及び15Rが撮影されなかったことを意味する。従って、ステップS133では、マルチメディアプロセッサ50は、撮影された再帰反射シートの数を示すシート数フラグSNに「01」(撮影された再帰反射シートの数が0であることを示す。)を代入する。そして、ステップS135にて、マルチメディアプロセッサ50は、左オープンフラグOL及び右オープンフラグORをオフにして、図26のステップS77に進む。左オープンフラグOL及び右オープンフラグORは、それぞれ、再帰反射シート15L及び15Rが撮影されたことを示すフラグである。   In step S131, it is determined whether or not “maxX”, “maxY”, “minX”, and “minY” remain the initial values. If they are the initial values, the process proceeds to step S133, and otherwise returns. The fact that “maxX”, “maxY”, “minX”, and “minY” are all initial values means that all pixels of the difference image are equal to or less than the threshold ThL, and the retroreflective sheets 15L and 15R are not photographed. To do. Accordingly, in step S133, the multimedia processor 50 substitutes “01” (indicating that the number of photographed retroreflective sheets is zero) in the sheet number flag SN indicating the number of photographed retroreflective sheets. To do. In step S135, the multimedia processor 50 turns off the left open flag OL and the right open flag OR, and proceeds to step S77 in FIG. The left open flag OL and the right open flag OR are flags indicating that the retroreflective sheets 15L and 15R are photographed, respectively.

図26に戻って、ステップS67にて、マルチメディアプロセッサ50は、図21で説明した2点位置(第1抽出点(Xtp[0],Ytp[0])、第2抽出点(Xtp[1],Ytp[1]))の決定処理を実行する。   Returning to FIG. 26, in step S67, the multimedia processor 50 determines the two point positions (first extraction point (Xtp [0], Ytp [0]) and second extraction point (Xtp [1]) described in FIG. ], Ytp [1])) are executed.

図28は、図26のステップS67における2点位置決定処理の流れの一例を示すフローチャートである。図28に示すように、マルチメディアプロセッサ50は、ステップS151にて、「M」に「0」を代入して、ステップS153からステップS185までの処理を繰り返す。ここで、ステップS153に示すように、一回目のループのときは、Ytb=minY、二回目のループのときは、Ytb=maxY、である。ステップS155にて、マルチメディアプロセッサ50は、座標(minX,Ytb)を始点としてスキャンを開始する。   FIG. 28 is a flowchart showing an example of the flow of the two-point position determination process in step S67 of FIG. As shown in FIG. 28, the multimedia processor 50 substitutes “0” for “M” in step S151, and repeats the processing from step S153 to step S185. Here, as shown in step S153, Ytb = minY in the first loop, and Ytb = maxY in the second loop. In step S155, the multimedia processor 50 starts scanning with the coordinates (minX, Ytb) as a starting point.

ステップS157にて、マルチメディアプロセッサ50は、カウント値Clに「0」を代入する。ステップS159にて、マルチメディアプロセッサ50は、差分データDif[X][Y]と閾値ThLとを比較して、差分データが閾値より大きい場合は、ステップS165に進み、それ以外は、ステップS161に進む。ステップS161では、マルチメディアプロセッサ50は、カウント値Clを1つインクリメントする。ステップS163にて、マルチメディアプロセッサ50は、座標Xを1つインクリメントして、ステップS159に進む。   In step S157, the multimedia processor 50 substitutes “0” for the count value Cl. In step S159, the multimedia processor 50 compares the difference data Dif [X] [Y] with the threshold value ThL. If the difference data is larger than the threshold value, the multimedia processor 50 proceeds to step S165. Otherwise, the multimedia processor 50 proceeds to step S161. move on. In step S161, the multimedia processor 50 increments the count value Cl by one. In step S163, the multimedia processor 50 increments the coordinate X by one, and proceeds to step S159.

ステップS159で、Dif[X][Y]>ThLと判断された時点のカウント値Clは、図21の距離LTあるいはLBに相当する。ステップS155で、Ytb=minYのときは、Cl=LTであり、Ytb=maxYのときは、Cl=LBである。   The count value Cl when it is determined in step S159 that Dif [X] [Y]> ThL corresponds to the distance LT or LB in FIG. In step S155, when Ytb = minY, Cl = LT, and when Ytb = maxY, Cl = LB.

ステップS165にて、マルチメディアプロセッサ50は、座標(maxX,Ytb)を始点としてスキャンを開始する。ステップS167にて、マルチメディアプロセッサ50は、カウント値Crに「0」を代入する。ステップS169にて、マルチメディアプロセッサ50は、差分データDif[X][Y]と閾値ThLとを比較して、差分データが閾値より大きい場合は、ステップS175に進み、それ以外は、ステップS171に進む。ステップS171では、マルチメディアプロセッサ50は、カウント値Crを1つインクリメントする。ステップS173にて、マルチメディアプロセッサ50は、座標Xを1つデクリメントして、ステップS169に進む。   In step S165, the multimedia processor 50 starts scanning using the coordinates (maxX, Ytb) as a starting point. In step S167, the multimedia processor 50 substitutes “0” for the count value Cr. In step S169, the multimedia processor 50 compares the difference data Dif [X] [Y] with the threshold value ThL. If the difference data is larger than the threshold value, the multimedia processor 50 proceeds to step S175. Otherwise, the multimedia processor 50 proceeds to step S171. move on. In step S171, the multimedia processor 50 increments the count value Cr by one. In step S173, the multimedia processor 50 decrements the coordinate X by one, and proceeds to step S169.

ステップS169で、Dif[X][Y]>ThLと判断された時点のカウント値Crは、図21の距離RTあるいはRBに相当する。ステップS165で、Ytb=minYのときは、Cr=RTであり、Ytb=maxYのときは、Cr=RBである。   The count value Cr at the time when it is determined in step S169 that Dif [X] [Y]> ThL corresponds to the distance RT or RB in FIG. In step S165, when Ytb = minY, Cr = RT, and when Ytb = maxY, Cr = RB.

ステップ175では、マルチメディアプロセッサ50は、距離ClとCrとを比較する。ステップS177にて、距離Clが距離Crより大きい場合は、ステップS179に進み、それ以外は、ステップS181に進む。   In step 175, the multimedia processor 50 compares the distances Cl and Cr. If the distance Cl is greater than the distance Cr in step S177, the process proceeds to step S179, and otherwise, the process proceeds to step S181.

ステップS181では、「Xtp[M]」に「minX」を代入するとともに、「Ytp[M]」に「Ytb」を代入する。一方、ステップS179では、「Xtp[M]」に「maxX」を代入するとともに、「Ytp[M]」に「Ytb」を代入する。   In step S181, “minX” is substituted for “Xtp [M]” and “Ytb” is substituted for “Ytp [M]”. On the other hand, in step S179, “maxX” is substituted for “Xtp [M]” and “Ytb” is substituted for “Ytp [M]”.

ここで、座標(Xtp[0],Ytp[0])は、図21で説明した第1抽出点の座標であり、座標(Xtp[1],Ytp[1])は、第2抽出点の座標である。   Here, the coordinates (Xtp [0], Ytp [0]) are the coordinates of the first extraction point described in FIG. 21, and the coordinates (Xtp [1], Ytp [1]) are the coordinates of the second extraction point. Coordinates.

ステップS183では、マルチメディアプロセッサ50は、「M」を1つインクリメントして、ステップS185へ進む。ステップS153からステップS185までのループが終了するとリターンする。   In step S183, the multimedia processor 50 increments “M” by one, and proceeds to step S185. When the loop from step S153 to step S185 ends, the process returns.

図26に戻って、ステップS69にて、マルチメディアプロセッサ50は、第1抽出点及び第2抽出点に左右を割り当てる処理を実行する。   Returning to FIG. 26, in step S69, the multimedia processor 50 executes a process of assigning left and right to the first extraction point and the second extraction point.

図29は、図26のステップS69における左右決定処理の流れの一例を示すフローチャートである。なお、再帰反射シート15Lの位置を左抽出点、再帰反射シート15Rの位置を右抽出点と呼ぶ。   FIG. 29 is a flowchart showing an example of the left / right determination process in step S69 of FIG. The position of the retroreflective sheet 15L is called a left extraction point, and the position of the retroreflective sheet 15R is called a right extraction point.

図29に示すように、ステップS201にて、マルチメディアプロセッサ50は、過去(前回及び前々回)の左抽出点の位置(XL,YL)からの今回の左抽出点の位置(Xnl,Ynl)を予測する。ステップS203にて、マルチメディアプロセッサ50は、過去(前回及び前々回)の右抽出点の位置(XR,YR)からの今回の右抽出点の位置(Xnr,Ynr)を予測する。ここで、左抽出点(Xnl,Ynl)は、図22の予測位置TPLpに相当し、右抽出点の位置(Xnr,Ynr)は、予測位置TPRpに相当する。   As shown in FIG. 29, in step S201, the multimedia processor 50 determines the position (Xnl, Ynl) of the current left extraction point from the position (XL, YL) of the previous left extraction point (XL, YL). Predict. In step S203, the multimedia processor 50 predicts the position (Xnr, Ynr) of the current right extraction point from the past (previous and previous) right extraction point positions (XR, YR). Here, the left extracted point (Xnl, Ynl) corresponds to the predicted position TPLp in FIG. 22, and the position of the right extracted point (Xnr, Ynr) corresponds to the predicted position TPRp.

ステップS205にて、マルチメディアプロセッサ50は、「M」に「0」を代入する。ステップS207にて、マルチメディアプロセッサ50は、予測位置(Xnl,Ynl)と抽出点(Xtp[M],Ytp[M])との間の距離Dlを算出する。ステップS209にて、マルチメディアプロセッサ50は、予測位置(Xnr,Ynr)と抽出点(Xtp[M],Ytp[M])との間の距離Drを算出する。   In step S205, the multimedia processor 50 substitutes “0” for “M”. In step S207, the multimedia processor 50 calculates a distance Dl between the predicted position (Xnl, Ynl) and the extraction point (Xtp [M], Ytp [M]). In step S209, the multimedia processor 50 calculates a distance Dr between the predicted position (Xnr, Ynr) and the extraction point (Xtp [M], Ytp [M]).

ここで、抽出点(Xtp[0],Ytp[0])は、図28のルーチンで求めた第1抽出点であり、抽出点(Xtp[1],Ytp[1])は、図28のルーチンで求めた第2抽出点である。M=0のときは、距離Dlは、図22の距離LD1に相当し、距離Drは、距離RD1に相当する。M=1のときは、距離Dlは、図22の距離LD2に相当し、距離Drは、距離RD2に相当する。   Here, the extraction points (Xtp [0], Ytp [0]) are the first extraction points obtained by the routine of FIG. 28, and the extraction points (Xtp [1], Ytp [1]) are This is the second extraction point obtained by the routine. When M = 0, the distance Dl corresponds to the distance LD1 in FIG. 22, and the distance Dr corresponds to the distance RD1. When M = 1, the distance Dl corresponds to the distance LD2 in FIG. 22, and the distance Dr corresponds to the distance RD2.

ステップS211にて、マルチメディアプロセッサ50は、距離Dlと距離Drとを比較する。ステップS213にて、マルチメディアプロセッサ50は、Dl>DrならばステップS215に進み、それ以外はステップS217に進む。   In step S211, the multimedia processor 50 compares the distance Dl with the distance Dr. In step S213, the multimedia processor 50 proceeds to step S215 if Dl> Dr, otherwise proceeds to step S217.

ステップS217では、マルチメディアプロセッサ50は、今回の左抽出点の位置(XL,YL)を、座標(Xtp[M],Ytp[M])とする。   In step S217, the multimedia processor 50 sets the position (XL, YL) of the current left extraction point as coordinates (Xtp [M], Ytp [M]).

一方、ステップS215では、マルチメディアプロセッサ50は、今回の右抽出点の位置(XR,YR)を、座標(Xtp[M],Ytp[M])とする。   On the other hand, in step S215, the multimedia processor 50 sets the position (XR, YR) of the current right extraction point as coordinates (Xtp [M], Ytp [M]).

ステップS219では、マルチメディアプロセッサ50は、「M」を1つインクリメントする。ステップS221にて、マルチメディアプロセッサ50は、M=2か否かを判断し、M=2であればリターンし、それ以外はステップS207に進む。   In step S219, the multimedia processor 50 increments “M” by one. In step S221, the multimedia processor 50 determines whether or not M = 2. If M = 2, the process returns, otherwise the process proceeds to step S207.

図26に戻って、ステップS71にて、マルチメディアプロセッサ50は、左抽出点(XL,YL)と右抽出点(XR,YR)との中点(XM,YM)を算出する。   Returning to FIG. 26, in step S71, the multimedia processor 50 calculates the midpoint (XM, YM) of the left extraction point (XL, YL) and the right extraction point (XR, YR).

そして、ステップS73にて、マルチメディアプロセッサ50は、検出した再帰反射シートの数を決定する処理を実行する。   In step S73, the multimedia processor 50 executes processing for determining the number of detected retroreflective sheets.

図30は、図26のステップS73における検出シート数決定処理の流れの一例を示すフローチャートである。図30を参照して、ステップS241にて、マルチメディアプロセッサ50は、左抽出点のY座標YLと右抽出点のY座標YRとを比較する。ステップS243にて、マルチメディアプロセッサ50は、Y座標YLが大きい場合は、ステップS251に進み、それ以外はステップS247に進む。   FIG. 30 is a flowchart showing an example of the detection sheet number determination process in step S73 of FIG. Referring to FIG. 30, in step S241, multimedia processor 50 compares Y coordinate YL of the left extraction point with Y coordinate YR of the right extraction point. In step S243, the multimedia processor 50 proceeds to step S251 if the Y coordinate YL is large, otherwise proceeds to step S247.

ステップS251では、マルチメディアプロセッサ50は、差分画像を、その右上がりの対角線に沿ってスキャンする。一方、ステップS247では、マルチメディアプロセッサ50は、差分画像を、その右下がりの対角線に沿ってスキャンする。   In step S251, the multimedia processor 50 scans the difference image along the diagonal line that rises to the right. On the other hand, in step S247, the multimedia processor 50 scans the difference image along the diagonal line descending to the right.

ステップS253では、マルチメディアプロセッサ50は、ステップS247又はS251でのスキャンの結果、閾値ThL以下のピクセルを検出した場合は、2つの再帰反射シート15L及び15Rが撮影されたとみなして、ステップS255に進み、閾値ThL以下のピクセルを検出しなかった場合は、再帰反射シート15L及び15Rのうちのいずれか一方のみが検出されたとみなして、ステップS259に進む。   In step S253, when the multimedia processor 50 detects a pixel having a threshold value ThL or less as a result of the scan in step S247 or S251, the multimedia processor 50 considers that the two retroreflective sheets 15L and 15R have been photographed, and proceeds to step S255. If no pixel equal to or less than the threshold ThL is detected, it is considered that only one of the retroreflective sheets 15L and 15R has been detected, and the process proceeds to step S259.

ステップS255では、マルチメディアプロセッサ50は、シート数フラグSNに「11」(2つの再帰反射シート15L及び15Rが撮影されたことを示す。)をセットする。そして、ステップS257にて、マルチメディアプロセッサ50は、左オープンフラグOL及び右オープンフラグORをオンする。一方、ステップS259では、マルチメディアプロセッサ50は、シート数フラグSNに「10」(再帰反射シート15L及び15Rのうちのいずれか一方のみが撮影されたことを示す。)をセットする。   In step S255, the multimedia processor 50 sets “11” (indicating that the two retroreflective sheets 15L and 15R have been photographed) to the sheet number flag SN. In step S257, the multimedia processor 50 turns on the left open flag OL and the right open flag OR. On the other hand, in step S259, the multimedia processor 50 sets “10” (indicating that only one of the retroreflective sheets 15L and 15R has been captured) to the sheet number flag SN.

図26に戻って、ステップS75にて、マルチメディアプロセッサ50は、再帰反射シート15L及び15Rのうちのいずれか一方のみが撮影された場合に、どちらが撮影されたかを特定する処理(1点特定処理)を実行する。   Returning to FIG. 26, in step S75, when only one of the retroreflective sheets 15L and 15R is photographed, the multimedia processor 50 identifies which one is photographed (one point identifying process). ).

図31は、図26のステップS75における一点特定処理の流れの一例を示すフローチャートである。図31を参照して、ステップS271にて、マルチメディアプロセッサ50は、シート数フラグSNが「10」か否か、つまり、再帰反射シート15L及び15Rのうちのいずれか一方のみが撮影されたか否かを判断して、YESの場合、左右どちらの再帰反射シートかを特定するためにステップS273に進み、それ以外はリターンする。   FIG. 31 is a flowchart showing an example of the flow of the one-point specifying process in step S75 of FIG. Referring to FIG. 31, in step S271, the multimedia processor 50 determines whether or not the sheet number flag SN is “10”, that is, only one of the retroreflective sheets 15L and 15R has been photographed. If YES, the process proceeds to step S273 to identify the left or right retroreflective sheet. Otherwise, the process returns.

ステップS273にて、マルチメディアプロセッサ50は、予測位置(Xnl,Ynl)と中点(XM,YM)との間の距離Dlmを算出する。ステップS275にて、マルチメディアプロセッサ50は、予測位置(Xnr,Ynr)と中点(XM,YM)との間の距離Drmを算出する。なお、中点(XM,YM)は、図26のステップS71で求めたものである。また、予測位置(Xnl,Ynl)は、図29のステップS201で求めたものである。予測位置(Xnr,Ynr)は、図29のステップS203で求めたものである。   In step S273, the multimedia processor 50 calculates the distance Dlm between the predicted position (Xnl, Ynl) and the midpoint (XM, YM). In step S275, the multimedia processor 50 calculates a distance Drm between the predicted position (Xnr, Ynr) and the midpoint (XM, YM). The midpoint (XM, YM) is obtained in step S71 of FIG. The predicted position (Xnl, Ynl) is obtained in step S201 of FIG. The predicted position (Xnr, Ynr) is obtained in step S203 in FIG.

ステップS277にて、マルチメディアプロセッサ50は、距離Dlmと距離Drmとを比較する。ステップS279にて、マルチメディアプロセッサ50は、Dlm>DrmならばステップS281に進み、それ以外はステップS285に進む。   In step S277, the multimedia processor 50 compares the distance Dlm with the distance Drm. In step S279, the multimedia processor 50 proceeds to step S281 if Dlm> Drm, otherwise proceeds to step S285.

ステップS281では、マルチメディアプロセッサ50は、今回の左抽出点の位置(XL,YL)を、座標(0,0)とし、今回の右抽出点の位置(XR,YR)を、座標(XM,YM)とする。そして、ステップS283にて、マルチメディアプロセッサ50は、左オープンフラグOLをオフにし、右オープンフラグORをオンにして、リターンする。   In step S281, the multimedia processor 50 sets the position (XL, YL) of the current left extraction point as coordinates (0, 0), and sets the position (XR, YR) of the current right extraction point as coordinates (XM, YM). In step S283, the multimedia processor 50 turns off the left open flag OL, turns on the right open flag OR, and returns.

一方、ステップS285では、マルチメディアプロセッサ50は、今回の左抽出点の位置(XL,YL)を、座標(XM,YM)とし、今回の右抽出点の位置(XR,YR)を、座標(0,0)とする。そして、ステップS287にて、マルチメディアプロセッサ50は、左オープンフラグOLをオンにし、右オープンフラグORをオフにして、リターンする。   On the other hand, in step S285, the multimedia processor 50 sets the current position of the left extracted point (XL, YL) as coordinates (XM, YM) and the current position of the right extracted point (XR, YR) as coordinates (X 0,0). In step S287, the multimedia processor 50 turns on the left open flag OL, turns off the right open flag OR, and returns.

図26に戻って、ステップS77にて、マルチメディアプロセッサ50は、左抽出点(XL,YL)及び右抽出点(XR,YR)をスクリーン座標に変換してリターンする。なお、図27のステップS135に続く場合は、マルチメディアプロセッサ50は、左抽出点(XL,YL)及び右抽出点(XR,YR)をそれぞれ(0,0)として、スクリーン座標に変換する。   Returning to FIG. 26, in step S77, the multimedia processor 50 converts the left extracted point (XL, YL) and the right extracted point (XR, YR) into screen coordinates and returns. In the case of continuing to step S135 in FIG. 27, the multimedia processor 50 converts the left extraction point (XL, YL) and the right extraction point (XR, YR) to (0, 0), respectively, and converts them into screen coordinates.

次に、図24のステップS25のキャッチ判定処理の詳細を説明する。   Next, details of the catch determination process in step S25 of FIG. 24 will be described.

図32は、図24のステップS25におけるキャッチ判定処理の流れの一例を示すフローチャートである。図32を参照して、ステップS301にて、マルチメディアプロセッサ50は、左グリップトリガ及び右グリップトリガをオフにする。左グリップトリガは、入力状態でカーソル70Lがターゲットまで移動し、非入力状態にされた場合(プレイヤが入力装置3Lを装着した左手を握り締めることに相当)にオンするフラグのことである。右グリップトリガは、入力状態でカーソル70Rがターゲットまで移動し、非入力状態にされた場合(プレイヤが入力装置3Rを装着した右手を握り締めることに相当)にオンするフラグのことである。   FIG. 32 is a flowchart showing an exemplary flow of the catch determination process in step S25 of FIG. Referring to FIG. 32, in step S301, the multimedia processor 50 turns off the left grip trigger and the right grip trigger. The left grip trigger is a flag that is turned on when the cursor 70L moves to the target in the input state and is in a non-input state (corresponding to the player gripping the left hand wearing the input device 3L). The right grip trigger is a flag that is turned on when the cursor 70R moves to the target in the input state and is in a non-input state (corresponding to the player gripping the right hand wearing the input device 3R).

ステップS303にて、マルチメディアプロセッサ50は、左オープンフラグOLがオンからオフへ遷移したか否かを判断し、遷移した場合は、プレイヤが左手を握り締めたとみなしてステップS305に進み、それ以外はステップS309に進む。ステップS305では、マルチメディアプロセッサ50は、直前の左抽出点がターゲット上に位置したか否かを判断し、位置した場合、ターゲットが握られたとみなしてステップS307に進む。ステップS307では、マルチメディアプロセッサ50は、左グリップトリガをオンにする。   In step S303, the multimedia processor 50 determines whether or not the left open flag OL has transitioned from on to off, and if so, proceeds to step S305 assuming that the player has clasped the left hand, otherwise The process proceeds to step S309. In step S305, the multimedia processor 50 determines whether or not the immediately preceding left extraction point is located on the target. If so, the multimedia processor 50 considers that the target has been grasped and proceeds to step S307. In step S307, the multimedia processor 50 turns on the left grip trigger.

ステップS309では、マルチメディアプロセッサ50は、右オープンフラグORがオンからオフへ遷移したか否かを判断し、遷移した場合は、プレイヤが右手を握り締めたとみなしてステップS311に進み、それ以外はリターンする。ステップS311では、マルチメディアプロセッサ50は、直前の右抽出点がターゲット上に位置したか否かを判断し、位置した場合、ターゲットが握られたとみなしてステップS313に進む。ステップS313では、マルチメディアプロセッサ50は、右グリップトリガをオンにしてリターンする。   In step S309, the multimedia processor 50 determines whether or not the right open flag OR has transitioned from on to off, and if so, proceeds to step S311 assuming that the player has clasped the right hand, otherwise returns. To do. In step S311, the multimedia processor 50 determines whether or not the immediately preceding right extraction point is located on the target. If so, the multimedia processor 50 considers that the target has been grasped and proceeds to step S313. In step S313, the multimedia processor 50 turns on the right grip trigger and returns.

次に、図24のステップS27の映像制御処理の詳細を説明する。   Next, details of the video control process in step S27 of FIG. 24 will be described.

図33は、図24のステップS27における映像制御処理の流れの一例を示すフローチャートである。このフローチャートが示す処理は、図5、図7、図8、図9、図10、図11、図12、及び図16の各モードを実行する際の処理である。   FIG. 33 is a flowchart showing an example of the flow of the video control process in step S27 of FIG. The process shown in this flowchart is a process when the modes of FIGS. 5, 7, 8, 9, 10, 10, 12, and 16 are executed.

図33を参照して、ステップS331にて、マルチメディアプロセッサ50は、左グリップトリガ及び右グリップトリガを参照して、該当するモードに応じて、ターゲットを適切に握る処理が行われたか否かを判定及び評価する。ステップS333にて、マルチメディアプロセッサ50は、テレビジョンモニタ5に映し出された、あるいは、映し出すターゲットを制御(座標や画像データの設定等)する。ターゲットは、例えば、定位置オブジェクト100及び120、ターゲット110、図9及び図10の数字、蝶オブジェクト29,31及び33、37、感覚情報提示部37T,37B,37L及び37R、ボールオブジェクト74L及び74R、84、パネル86−1〜86−5、OKオブジェクト103、並びに方向ボタン130L及び130Rである。なお、ステップS331の結果に応じてターゲットに変化を与えることもできるし、ターゲットが握られたと判断した場合にターゲットに変化を与えることもできる。   Referring to FIG. 33, in step S331, the multimedia processor 50 refers to the left grip trigger and the right grip trigger, and determines whether or not the process of properly grasping the target is performed according to the corresponding mode. Judge and evaluate. In step S333, the multimedia processor 50 controls the target displayed on the television monitor 5 or the target to be displayed (setting of coordinates and image data, etc.). The targets are, for example, fixed position objects 100 and 120, target 110, numbers in FIGS. 9 and 10, butterfly objects 29, 31 and 33, 37, sensory information presentation units 37T, 37B, 37L and 37R, and ball objects 74L and 74R. , 84, panels 86-1 to 86-5, OK object 103, and direction buttons 130L and 130R. Note that a change can be given to the target according to the result of step S331, and a change can be given to the target when it is determined that the target has been grasped.

ステップS335にて、マルチメディアプロセッサ50は、スクリーン座標に変換された左抽出点(XL,YL)に対応する位置にカーソル70Lの座標を設定し、スクリーン座標に変換された右抽出点(XR,YR)に対応する位置にカーソル70Rの座標を設定する。また、マルチメディアプロセッサ50は、左オープンフラグOLがオンの場合は、手の平を開いた形態のカーソル70Lの画像データを設定し、左オープンフラグOLがオフの場合は、手を握り締めた形態のカーソル70Lの画像データを設定する。さらに、マルチメディアプロセッサ50は、右オープンフラグORがオンの場合は、手の平を開いた形態のカーソル70Rの画像データを設定し、右オープンフラグORがオフの場合は、手を握り締めた形態のカーソル70Rの画像データを設定する。   In step S335, the multimedia processor 50 sets the coordinates of the cursor 70L at a position corresponding to the left extracted point (XL, YL) converted into the screen coordinates, and the right extracted point (XR, Y) converted into the screen coordinates. The coordinates of the cursor 70R are set at a position corresponding to YR). The multimedia processor 50 sets the image data of the cursor 70L with the palm open when the left open flag OL is on, and the cursor with the hand clasped when the left open flag OL is off. 70L of image data is set. Further, the multimedia processor 50 sets the image data of the cursor 70R with the palm open when the right open flag OR is on, and the cursor with the hand clasped when the right open flag OR is off. 70R image data is set.

ステップS337にて、マルチメディアプロセッサ50は、ステップS331の結果に従って、エフェクト画像を制御(座標や画像データの設定等)する。ステップS339にて、マルチメディアプロセッサ50は、上記以外の画像を制御(座標や画像データの設定等)する。例えば、この制御の対象となる画像は、背景画像並びに画像122,124,13,27,35,41,39及び91等である。   In step S337, the multimedia processor 50 controls the effect image (setting of coordinates and image data, etc.) according to the result of step S331. In step S339, the multimedia processor 50 controls images other than those described above (such as setting coordinates and image data). For example, the images to be controlled are the background image and the images 122, 124, 13, 27, 35, 41, 39, and 91.

さて、以上のように、本実施の形態によれば、ユーザは、手の平を開いた状態でカーソルを移動し、ターゲットに重ね、そして、手を握り締めて、再帰反射シートを隠すことにより、ターゲット及び/又はカーソルに変化を与えることができる。つまり、ユーザは、カーソルをターゲットまで動かし、手を握り締めることによって、ターゲット及び/又はカーソルに変化を与えることができる。従って、ユーザは、あたかもターゲットを握るかのような操作によって入力を与えることができる。   As described above, according to the present embodiment, the user moves the cursor with the palm open, overlaps the target, and claws the hand so as to hide the retroreflective sheet. A change can be applied to the cursor. That is, the user can change the target and / or cursor by moving the cursor to the target and clenching the hand. Therefore, the user can give an input by an operation as if holding the target.

図34は、図24のステップS27における映像制御処理の流れの他の例を示すフローチャートである。このフローチャートが示す処理は、図14のモードを実行する際の処理である。また、この場合、図24のステップS25はスキップしてよい。   FIG. 34 is a flowchart showing another example of the flow of the video control process in step S27 of FIG. The process shown in this flowchart is a process when the mode of FIG. 14 is executed. In this case, step S25 in FIG. 24 may be skipped.

図34を参照して、ステップS351にて、マルチメディアプロセッサ50は、操作オブジェクト63がボールオブジェクト(65R,65B,65Y及び65G)に当ったか否かを判定する。ステップS353にて、マルチメディアプロセッサ50は、左抽出点(XL,YL)及び右抽出点(XR,YR)に基づいて、操作オブジェクト63の上下方向の位置及び傾きを算出して、操作オブジェクト63の形態及び動きを制御(座標や画像データの設定等)する。   Referring to FIG. 34, in step S351, the multimedia processor 50 determines whether or not the operation object 63 has hit the ball objects (65R, 65B, 65Y and 65G). In step S353, the multimedia processor 50 calculates the vertical position and inclination of the operation object 63 based on the left extraction point (XL, YL) and the right extraction point (XR, YR), and the operation object 63 Control the form and movement (setting of coordinates and image data, etc.).

ステップS355にて、マルチメディアプロセッサ50は、ボールオブジェクトの出現及び移動を制御(座標や画像データの設定等)する。この場合、ステップS351の判定結果を参照し、操作オブジェクト63がボールオブジェクトに当った場合は、その時の操作オブジェクト63の傾き及び速度に応じた方向及び速度で、ボールオブジェクトを移動する。   In step S355, the multimedia processor 50 controls the appearance and movement of the ball object (setting of coordinates and image data, etc.). In this case, referring to the determination result of step S351, when the operation object 63 hits the ball object, the ball object is moved at a direction and speed according to the inclination and speed of the operation object 63 at that time.

ステップS357にて、マルチメディアプロセッサ50は、ステップS351の結果に基づいて、エフェクト画像を制御(座標や画像データの設定等)する。ステップS359にて、マルチメディアプロセッサ50は、上記以外の画像を制御(座標や画像データの設定等)する。例えば、この制御の対象となる画像は、背景画像並びに画像75R,75B,75Y,75G,69L,69R等である。   In step S357, the multimedia processor 50 controls the effect image (such as setting of coordinates and image data) based on the result of step S351. In step S359, the multimedia processor 50 controls images other than those described above (setting of coordinates and image data, etc.). For example, the images to be controlled are the background image and the images 75R, 75B, 75Y, 75G, 69L, 69R, and the like.

さて、以上のように、本実施の形態によれば、ユーザは、2個の入力装置3L及び3Rを動かすことによって、それらの位置関係に応じた形態に、操作オブジェクト63を変化させることができる。また、ユーザは、2個の入力装置3L及び3Rを動かすことによって、操作オブジェクト63に変化を与え、応じて、ボールオブジェクトに変化を与えることができる。   As described above, according to the present embodiment, the user can change the operation object 63 to a form corresponding to the positional relationship by moving the two input devices 3L and 3R. . Further, the user can change the operation object 63 by moving the two input devices 3L and 3R, and accordingly change the ball object.

なお、本発明は、上記の実施の形態に限られるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能であり、例えば、以下のような変形も可能である。   The present invention is not limited to the above-described embodiment, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible.

(1)透明体17の透明には、半透明や有色透明が含まれる。   (1) Transparency of the transparent body 17 includes translucency and colored transparency.

(2)上記では、入力装置3に、中指を通す例を挙げたが、挿入する指及びその数はこれに限定されない。   (2) In the above, an example in which the middle finger is passed through the input device 3 has been described. However, the number of fingers to be inserted and the number thereof are not limited thereto.

(3)入力装置の形状は、上記した入力装置3の形状に限定されない。また、プレイヤが負荷状態で手を動かすことができるように、入力装置の内部に、所定重量の重りを内蔵することもできる。   (3) The shape of the input device is not limited to the shape of the input device 3 described above. Further, a weight having a predetermined weight can be incorporated in the input device so that the player can move his / her hand in a loaded state.

(4)入力装置3に、再帰反射シート15のような反射部材を取り付ける代わりに、赤外発光ダイオードのような自発光装置を取り付けることもできる。この場合は、情報処理装置1には、赤外発光ダイオード9は不要である。また、入力装置を使用せずに、イメージセンサやCCDなどの撮像装置により、被写体を撮影し、画像解析して、動きを検出することもできる。   (4) Instead of attaching a reflecting member such as the retroreflective sheet 15 to the input device 3, a self-luminous device such as an infrared light emitting diode can be attached. In this case, the information processing apparatus 1 does not require the infrared light emitting diode 9. Further, without using an input device, a subject can be photographed by an imaging device such as an image sensor or CCD, and the motion can be detected by analyzing the image.

(5)フラッシュキャッチモードに関連して、定位置オブジェクト100の数及び配置は、図5のものに限定されない。また、定位置オブジェクト100の表示をせずに、マーカだけを表示していくこともできる。さらに、カーソル70L又は70Rをターゲットに重ねただけで選択を確定することもできる。つまり、プレイヤは、入力状態でカーソル70L及び70Rを動かすだけでよく、非入力状態にすることが不要である。   (5) In relation to the flash catch mode, the number and arrangement of the fixed position objects 100 are not limited to those in FIG. Further, it is possible to display only the marker without displaying the fixed position object 100. Furthermore, the selection can be confirmed only by placing the cursor 70L or 70R on the target. That is, the player only needs to move the cursors 70L and 70R in the input state, and does not need to be in the non-input state.

(6)ボールエスケープモードに関連して、オブジェクト102の速さは、可変でも一定でもよい。また、オブジェクト102を定位置から出現させることもできる。   (6) In relation to the ball escape mode, the speed of the object 102 may be variable or constant. The object 102 can also appear from a fixed position.

(7)ナンバーキャッチモードに関連して、ターゲット110には数字を付したが、順番があるものであれば、これに限定されない。例えば、アルファベットやカタカナ等を付すことができる。さらに、カーソル70L又は70Rをターゲット110に重ねただけで選択を確定することもできる。つまり、プレイヤは、入力状態でカーソル70L及び70Rを動かすだけでよく、非入力状態にすることが不要である。   (7) Although numbers are assigned to the targets 110 in relation to the number catch mode, the targets 110 are not limited to this as long as there is an order. For example, alphabets or katakana can be added. Furthermore, the selection can be confirmed only by placing the cursor 70L or 70R on the target 110. That is, the player only needs to move the cursors 70L and 70R in the input state, and does not need to be in the non-input state.

(8)短期記憶モードに関連して、定位置オブジェクト120の数及び配置は、図8のものに限定されない。また、上述のように、マーカの様々な出現態様を採用できる。さらに、上記では、最後に出題されたマーカの位置を示すことをプレイヤに指示したが、最後に限らず、最後から二番目や最初など、任意の時期を指示できる。さらに、決定ボタン124を表示せずに、定位置オブジェクト120にカーソル70L又は70Rを移動させ非入力状態にするだけで選択を確定することもできる。さらに、定位置オブジェクト120にカーソル70L又は70Rを移動させるだけで、選択を確定することもできる。   (8) In relation to the short-term memory mode, the number and arrangement of the fixed-position objects 120 are not limited to those shown in FIG. Moreover, as described above, various appearance modes of the marker can be adopted. Furthermore, in the above description, the player is instructed to indicate the position of the marker that has been given the last question. Furthermore, the selection can also be confirmed by moving the cursor 70L or 70R to the home position object 120 and bringing it into the non-input state without displaying the enter button 124. Furthermore, the selection can be confirmed only by moving the cursor 70L or 70R to the home position object 120.

(9)上記では、カーソル70L及び70R等のカーソルを定位置オブジェクト100等のオブジェクトに重ね、さらに、非入力状態にすることにより、「握る」動作をプレイヤに行わせたが、単に、カーソルをオブジェクトに重ねるだけの操作を行わせることもできる。   (9) In the above description, the cursor such as the cursors 70L and 70R is superimposed on the object such as the fixed-position object 100, and the non-input state is performed. It is also possible to perform an operation that only overlaps an object.

(10)上記では、片手ずつプレイを行わせるモードをいくつか例示したが、操作に連動する2つのカーソルを表示して、両手を使ってプレイを行わせるようにすることもできる。   (10) In the above, several modes for playing one hand at a time have been exemplified, but it is also possible to display two cursors linked to the operation and play using both hands.

(11)蝶キャッチモードでは、蝶オブジェクト29,31及び33を動き回らせたが、どのような形状及び形態のものを動き回らせるかは任意に設定できる。   (11) In the butterfly catch mode, the butterfly objects 29, 31 and 33 are moved around. However, the shape and form of the butterfly objects 29, 31 and 33 can be arbitrarily set.

(12)バランスラインモードでは、移動オブジェクト66L等及び受け皿オブジェクト75L等に色を付して、その色を識別させたが、文字等をこれらに付して、文字等を識別させることもできる。また、それらの双方を記してもよい。さらに、ストループ効果を加えてもよい。   (12) In the balance line mode, the moving object 66L and the like and the tray object 75L and the like are colored to identify the colors. However, the characters and the like can be identified by attaching characters or the like thereto. Moreover, you may write both of them. Furthermore, a Stroop effect may be added.

(13)シャッフルメモリモードでは、記憶の対象を図形としたが、これに限定されず、数字、文字、色、及び図画等、任意のものを対象とすることができる。   (13) In the shuffle memory mode, the object to be stored is a figure, but the present invention is not limited to this, and any object such as a number, a character, a color, and a drawing can be targeted.

本発明の実施の形態による練磨システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the training system by embodiment of this invention. 図1の入力装置3L又は3Rの斜視図である。It is a perspective view of the input device 3L or 3R of FIG. 図1の入力装置3L及び3Rをそれぞれ左右の手に装着した状態を示す図である。It is a figure which shows the state which mounted | wore the left and right hands, respectively with the input devices 3L and 3R of FIG. 図1の情報処理装置1の電気的構成を示す図である。It is a figure which shows the electrical constitution of the information processing apparatus 1 of FIG. 図1の練磨システムによるフラッシュキャッチモードでの練磨画面の例示図である。It is an illustration figure of the training screen in the flash catch mode by the training system of FIG. 図1の練磨システムによるボールエスケープモードでの練磨画面の例示図である。It is an illustration figure of the training screen in the ball escape mode by the training system of FIG. 図1の練磨システムによる第1のナンバーキャッチモードでの練磨画面の例示図である。It is an illustration figure of the training screen in the 1st number catch mode by the training system of FIG. 図1の練磨システムによる短期記憶モードでの練磨画面の例示図である。It is an illustration figure of the training screen in the short-term memory mode by the training system of FIG. 図1の練磨システムによる第2のナンバーキャッチモードでの練磨画面の例示図である。It is an illustration figure of the training screen in the 2nd number catch mode by the training system of FIG. 図1の練磨システムによる第3のナンバーキャッチモードでの練磨画面の例示図である。It is an illustration figure of the training screen in the 3rd number catch mode by the training system of FIG. 図1の練磨システムによる蝶キャッチモードでの練磨画面の例示図である。It is an illustration figure of the training screen in the butterfly catch mode by the training system of FIG. 図1の練磨システムによるストループモードでの練磨画面の例示図である。It is an illustration figure of the training screen in Stroop mode by the training system of FIG. 図1の練磨システムによるパネルエスケープモードでの練磨画面の例示図である。It is an illustration figure of the training screen in the panel escape mode by the training system of FIG. 図1の練磨システムによるバランスラインモードでの練磨画面の例示図である。It is an illustration figure of the training screen in the balance line mode by the training system of FIG. 図1の練磨システムによるリズムボールモードでの練磨画面の例示図である。It is an illustration figure of the training screen in the rhythm ball mode by the training system of FIG. 図1の練磨システムによるシャッフルメモリモードでの練磨画面の例示図である。It is an illustration figure of the training screen in the shuffle memory mode by the training system of FIG. 図1の練磨システムによるモード選択画面の例示図である。It is an illustration figure of the mode selection screen by the training system of FIG. 図1の練磨システムによる左右選択画面の例示図である。It is an illustration figure of the right-and-left selection screen by the training system of FIG. 図1の入力装置3L及び3Rの他の装着例を示す図である。It is a figure which shows the other example of mounting | wearing of the input devices 3L and 3R of FIG. 図1の入力装置3L及び3Rのさらに他の装着例を示す図である。It is a figure which shows the further mounting example of the input devices 3L and 3R of FIG. 再帰反射シート15L及び15Rの検出処理の説明図である。It is explanatory drawing of the detection process of the retroreflection sheets 15L and 15R. 左右決定処理の説明図である。It is explanatory drawing of a left-right determination process. 図4のマルチメディアプロセッサ50による全体処理の流れの一例を示すフローチャートである。5 is a flowchart showing an example of the overall processing flow by the multimedia processor 50 of FIG. 4. 図23のステップS3におけるアプリケーションプログラムによる処理の主要部分の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the principal part of the process by the application program in step S3 of FIG. 図24のステップS21における撮影処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the imaging | photography process in step S21 of FIG. 図24のステップS23におけるシート検出処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the sheet | seat detection process in step S23 of FIG. 図26のステップS65における左右上下端検出処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the left-right upper / lower end detection process in step S65 of FIG. 図26のステップS67における2点位置決定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of 2 point | piece position determination processing in step S67 of FIG. 図26のステップS69における左右決定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the left-right determination process in step S69 of FIG. 図26のステップS73における検出シート数決定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the detection sheet number determination process in step S73 of FIG. 図26のステップS75における一点特定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the one point specific process in step S75 of FIG. 図24のステップS25におけるキャッチ判定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the catch determination process in step S25 of FIG. 図24のステップS27における映像制御処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the video control process in step S27 of FIG. 図24のステップS27における映像制御処理の流れの他の例を示すフローチャートである。It is a flowchart which shows the other example of the flow of the image | video control process in step S27 of FIG.

符号の説明Explanation of symbols

1…情報処理装置、3,3L,3R…入力装置、5…テレビジョンモニタ、9…赤外発光ダイオード、15,15L,15R…再帰反射シート、17,17L,17R…透明体、50…マルチメディアプロセッサ、52…外部メモリ,54…イメージセンサ、56…バス、70L,70R…カーソル、100,120…定位置オブジェクト、102…オブジェクト、104…出射口オブジェクト、106…矢印オブジェクト、110…ターゲット、122…指示部、124…決定ボタン、130L,130R…方向ボタン、132…選択対象。 DESCRIPTION OF SYMBOLS 1 ... Information processing apparatus 3, 3L, 3R ... Input device, 5 ... Television monitor, 9 ... Infrared light emitting diode, 15, 15L, 15R ... Retroreflective sheet, 17, 17L, 17R ... Transparent body, 50 ... Multi Media processor, 52 ... external memory, 54 ... image sensor, 56 ... bus, 70L, 70R ... cursor, 100,120 ... fixed position object, 102 ... object, 104 ... outlet object, 106 ... arrow object, 110 ... target, 122: Instruction unit, 124: Determination button, 130L, 130R: Direction button, 132: Selection target.

Claims (7)

表示装置にターゲット画像を表示するステップと、
前記表示装置にカーソルを表示するステップと、
ユーザの手の平に装着された被写体を撮像するステップと、
前記撮像によって得られた前記被写体の像に基づいて、前記被写体の動きを検出するステップと、
前記検出された前記被写体の動きに応じて、前記カーソルを移動するステップと、
前記カーソルが前記ターゲット画像に重なった直後に、前記被写体の像が得られなかった場合に、前記ターゲット画像及び/又は前記カーソルに所定の変化を与えるステップと、を含む入力方法。
Displaying a target image on a display device;
Displaying a cursor on the display device;
Imaging a subject worn on the palm of the user;
Detecting the movement of the subject based on the image of the subject obtained by the imaging;
Moving the cursor in response to the detected movement of the subject;
And a step of giving a predetermined change to the target image and / or the cursor when an image of the subject is not obtained immediately after the cursor overlaps the target image.
前記ターゲット画像は、任意の位置又は複数の所定位置のうちのいずれかの位置に、非表示の状態から出現する、請求項1記載の入力方法。   The input method according to claim 1, wherein the target image appears from a non-display state at an arbitrary position or any one of a plurality of predetermined positions. 前記ターゲット画像は、任意の位置又は所定位置に予め静止して表示される、請求項1記載の入力方法。   The input method according to claim 1, wherein the target image is statically displayed in advance at an arbitrary position or a predetermined position. 前記ターゲット画像は、複数であり、複数の任意の位置又は複数の所定位置に予め静止して表示される、請求項1記載の入力方法。   The input method according to claim 1, wherein there are a plurality of target images, and the target images are statically displayed in advance at a plurality of arbitrary positions or a plurality of predetermined positions. 前記ターゲット画像は、移動する動画像である、請求項1記載の入力方法。   The input method according to claim 1, wherein the target image is a moving moving image. 表示装置に第1オブジェクトを表示するステップと、
複数の被写体を撮像するステップと、
前記撮像によって得られた前記複数の被写体の像に基づいて、前記複数の被写体の位置を検出するステップと、
前記検出された前記複数の被写体の位置関係に応じて、前記第1オブジェクトの形態を変化させるステップと、を含む入力方法。
Displaying a first object on a display device;
Imaging a plurality of subjects;
Detecting the positions of the plurality of subjects based on the images of the plurality of subjects obtained by the imaging;
Changing the form of the first object in accordance with the detected positional relationship between the plurality of subjects.
前記表示装置に第2オブジェクトを表示するステップと、
前記第1オブジェクトと前記第2オブジェクトとが所定の位置関係を満たした場合に、前記第2オブジェクトに変化を与えるステップと、をさらに含む請求項6記載の入力方法。
Displaying a second object on the display device;
The input method according to claim 6, further comprising: changing the second object when the first object and the second object satisfy a predetermined positional relationship.
JP2007114891A 2006-05-26 2007-04-24 Input method Pending JP2008134991A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007114891A JP2008134991A (en) 2006-05-26 2007-04-24 Input method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006147461 2006-05-26
JP2006296307 2006-10-31
JP2007114891A JP2008134991A (en) 2006-05-26 2007-04-24 Input method

Publications (1)

Publication Number Publication Date
JP2008134991A true JP2008134991A (en) 2008-06-12

Family

ID=39559788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007114891A Pending JP2008134991A (en) 2006-05-26 2007-04-24 Input method

Country Status (1)

Country Link
JP (1) JP2008134991A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012090802A (en) * 2010-10-27 2012-05-17 Denso It Laboratory Inc Amusement system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012090802A (en) * 2010-10-27 2012-05-17 Denso It Laboratory Inc Amusement system

Similar Documents

Publication Publication Date Title
JP5109221B2 (en) Information processing device equipped with an input system using a stroboscope
CN102331840B (en) User selection and navigation based on looped motions
EP1970104A1 (en) Training method, training device, and coordination training method
CN102413886B (en) Show body position
US5616078A (en) Motion-controlled video entertainment system
JPWO2007069751A1 (en) Memory test device, judgment test device, comparative test device, coordination training device, and working memory training device
CN102947777A (en) User tracking feedback
CN101898041A (en) Information processing system and a method for controlling the same
JP6834614B2 (en) Information processing equipment, information processing methods, and programs
KR101410410B1 (en) Bodily sensation type learning apparatus and method
JP6995255B1 (en) Three-dimensional cognitive ability evaluation system
US5800265A (en) Game machine
TWI276452B (en) Game machine
JP4282112B2 (en) Virtual object control method, virtual object control apparatus, and recording medium
JP4813080B2 (en) A program for measuring and thus improving visual acuity
JP3138145U (en) Brain training equipment
JP6769697B2 (en) Program and game equipment
CN109416614B (en) Method implemented by computer and non-volatile computer-readable medium, system
JP6479933B1 (en) Program, information processing apparatus, and method
KR20150097050A (en) learning system using clap game for child and developmental disorder child
JP7017474B2 (en) Application control program, application control method and application control system
Warren Unencumbered full body interaction in video games
JP2008134991A (en) Input method
JP2005319191A (en) Game system, program, information storage medium, and image generating method
JP3136549U (en) Slot machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100420

A072 Dismissal of procedure [no reply to invitation to correct request for examination]

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20111018