JP5103657B2 - Information processing apparatus, information processing system, and computer program provided with input system using stroboscope - Google Patents

Information processing apparatus, information processing system, and computer program provided with input system using stroboscope Download PDF

Info

Publication number
JP5103657B2
JP5103657B2 JP2009219534A JP2009219534A JP5103657B2 JP 5103657 B2 JP5103657 B2 JP 5103657B2 JP 2009219534 A JP2009219534 A JP 2009219534A JP 2009219534 A JP2009219534 A JP 2009219534A JP 5103657 B2 JP5103657 B2 JP 5103657B2
Authority
JP
Japan
Prior art keywords
information processing
video signal
light emission
light
game
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009219534A
Other languages
Japanese (ja)
Other versions
JP2009297539A (en
Inventor
拓 上島
克也 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SSD Co Ltd
Original Assignee
SSD Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SSD Co Ltd filed Critical SSD Co Ltd
Priority to JP2009219534A priority Critical patent/JP5103657B2/en
Publication of JP2009297539A publication Critical patent/JP2009297539A/en
Application granted granted Critical
Publication of JP5103657B2 publication Critical patent/JP5103657B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

この発明はストロボスコープを使った入力システムを備える情報処理装置に関し、特にたとえば、ストロボスコープで照射した対象物の映像信号を処理する情報処理装置に関する。更に、この発明はストロボスコープを使った入力システムを備えるゲーム機等のエンターテインメント装置に関する。更に、この発明はストロボスコープを使った入力システムを備えるマンマシンインターフェースシステムに関する。   The present invention relates to an information processing apparatus including an input system using a stroboscope, and more particularly to an information processing apparatus that processes a video signal of an object irradiated with a stroboscope. The present invention further relates to an entertainment device such as a game machine having an input system using a stroboscope. The present invention further relates to a man-machine interface system including an input system using a stroboscope.

本件出願人は、特許文献1などにおいて、圧電ブザーを利用してバットやラケットの実空間中での加速度の変化を検出してゲーム入力しとして使う体感ゲーム装置を提案している。このような体感ゲーム装置では、加速度の変化が所定以上のとき、ゲームプレイヤが対象物(上記の例でいえば、バットやラケット)を実空間中において操作した(振った)と判定するようにしている。   The applicant of the present application in Japanese Patent Application Laid-Open No. H10-260, etc. proposes a sensory game device that uses a piezoelectric buzzer to detect a change in acceleration of a bat or a racket in real space and use it as a game input. In such a bodily sensation game device, when the change in acceleration is greater than or equal to a predetermined value, it is determined that the game player has operated (shook) the object (in the above example, a bat or a racket) in real space. ing.

特開2001−104636号公報JP 2001-104636 A 特開2002−231489号公報Japanese Patent Laid-Open No. 2002-231489 特開平7−141101号公報JP 7-141101 A

しかしながら、ゲームの種類によっては、対象物を操作したかどうか、すなわち対象物に加速度が与えられたかどうかだけでなく、どの位置で、あるいはどのような速度で、さらにはどの向きに操作したかを示す情報が欲しい場合もある。特許文献1に開示されるような入力装置では、このような要求を充足することはできない。   However, depending on the type of game, not only whether the object was operated, that is, whether acceleration was given to the object, but also at which position, at what speed, and in which direction it was operated. Sometimes you want information to show. The input device as disclosed in Patent Document 1 cannot satisfy such a requirement.

他方、たとえば特許文献2に開示されるようなストロボスコープを用いて対象物を撮影すれば、その映像信号を解析することによって、上述のような、対象物の位置や速度を把握することができる。しかしながら、この特許文献2にはストロボスコープを開示するのみであり、そのストロボスコープを用いて対象物を撮影することやそれによって得られた映像信号をリアルタイムで解析する具体的な手法はこの特許文献2からはわからない。   On the other hand, for example, if an object is photographed using a stroboscope as disclosed in Patent Document 2, the position and speed of the object as described above can be grasped by analyzing the video signal. . However, this Patent Document 2 only discloses a stroboscope, and a specific technique for photographing an object using the stroboscope and analyzing a video signal obtained thereby in real time is disclosed in this Patent Document. I don't know from 2.

なお、特許文献3には、撮影した映像信号から対象物を抽出し、その対象物の位置を求め、その位置情報をゲーム装置やコンピュータの入力とすることが開示されているが、この方法は、特定の使用環境ではうまく動作するが、ゲーム機が用いられる一般家庭の室内では正確な位置情報をえるのはかなり困難である。なぜなら、室内の照明、窓、雑多な色の物体、ゲームプレイヤ以外の移動体の存在がすべてノイズや外乱となって検出精度に影響を与えるからである。このようなノイズや外乱の影響を抑えて物体位置を正確に検出するには高速コンピュータが必要であり、プロセサの処理能力が限定される低コストの情報処理装置においては現実的ではない。   Patent Document 3 discloses that an object is extracted from a captured video signal, the position of the object is obtained, and the position information is input to a game device or a computer. Although it works well in a specific use environment, it is quite difficult to obtain accurate position information in a room of a general household where a game machine is used. This is because the presence of indoor lighting, windows, objects of various colors, and moving objects other than the game player all affect the detection accuracy as noise and disturbance. A high-speed computer is required to accurately detect the object position while suppressing the influence of such noise and disturbance, which is not practical in a low-cost information processing apparatus in which the processing capability of the processor is limited.

それゆえに、この発明の主たる目的は、ストロボスコープを用いてコンピュータやゲーム機にリアルタイムで入力を与えることができる、新規な情報処理装置、エンターテインメント装置、およびマンマシンインターフェースシステムを提供することである。   SUMMARY OF THE INVENTION Therefore, a main object of the present invention is to provide a novel information processing apparatus, entertainment apparatus, and man-machine interface system capable of giving a real-time input to a computer or game machine using a stroboscope.

請求項1の発明は、ストロボスコープを使った入力システムを備える情報処理装置であって、ストロボスコープ、ストロボスコープの発光時および非発光時にそれぞれ対象物を撮影して発光時映像信号および非発光時映像信号を出力する撮像手段、複数の発光時映像信号と複数の非発光時映像信号とのそれぞれの差に基づいて対象物の位置、大きさ、速度、加速度、運動軌跡パターンの情報の一部または全部を算出する第1の手段、および第1の手段によって算出された情報に基づき情報処理を行う第2の手段を備える、情報処理装置である。   The invention according to claim 1 is an information processing apparatus including an input system using a stroboscope, which shoots an object when the stroboscope and the stroboscope emit light and does not emit light, and emits a video signal and when no light is emitted. Image pickup means for outputting video signals, part of information on the position, size, speed, acceleration, and motion trajectory pattern of an object based on the difference between each of a plurality of light emitting video signals and a plurality of non-light emitting video signals Alternatively, the information processing apparatus includes a first unit that calculates all and a second unit that performs information processing based on the information calculated by the first unit.

請求項1の発明では、ストロボスコープ(42,52:実施例で相当する要素またはコンポーネントの参照符号。以下、同様。)が対象物(14,94,112)を明るく照射すことにより、撮像結果における対象物と対象物以外とのコントラストを高め、対象物の検出を容易にしている。また、第1の手段(52,S59,S129,図35:S61,図22,図25,図33)が複数の発光時映像信号と複数の非発光時映像信号とのそれぞれの差を算出することにより、移動体である対象物以外の静止画像や固定光源等のノイズ成分の影響を抑えて対象物の位置、大きさ、速度、加速度、運動軌跡パターンを正確に、かつ簡単な情報処理で検出することが可能となる。そのようにして算出された情報に基づいて、第2の手段(52,S63)が所定の情報処理を行う。   According to the first aspect of the present invention, the stroboscope (42, 52: reference numerals of elements or components corresponding to the embodiments; hereinafter the same) illuminates the object (14, 94, 112) brightly, thereby obtaining an imaging result. The contrast between the object and the object other than the object is increased to facilitate the detection of the object. Further, the first means (52, S59, S129, FIG. 35: S61, FIG. 22, FIG. 25, FIG. 33) calculates respective differences between the plurality of light emitting video signals and the plurality of non-light emitting video signals. As a result, the position, size, speed, acceleration, and motion trajectory pattern of the target object can be accurately and easily processed by suppressing the effects of noise components such as still images and fixed light sources other than the target object that is a moving object. It becomes possible to detect. Based on the information thus calculated, the second means (52, S63) performs predetermined information processing.

そして、これらの情報を算出するための情報処理とアプリケーション側の情報処理とを分離することにより、アプリケーション側の情報処理が簡便になり、またアプリケーション側の情報処理を別な処理に置き換える際に、対象物の位置、大きさ、速度、加速度、運動軌跡パターンの算出に関する処理を変更することなく用いることが可能となる。   And by separating the information processing for calculating these information and the information processing on the application side, the information processing on the application side becomes simple, and when replacing the information processing on the application side with another processing, The processing relating to the calculation of the position, size, speed, acceleration, and motion trajectory pattern of the object can be used without change.

請求項2は、請求項1に従属し、第1の手段は、情報が所定の条件に合致するか否かを判定する判定手段を含む、情報処理装置である。   A second aspect is an information processing apparatus according to the first aspect, wherein the first means includes a determination means for determining whether or not the information meets a predetermined condition.

請求項2の発明では、判定手段(52,S61,図22,図25,図33)が対象物の位置、大きさ、速度、加速度、運動軌跡パターン等が所定の条件に合致するか否かを判定し、アプリケーション側の情報処理では、判定結果を参照し所定の条件に合致していなければ算出された情報を受取らないようにすることで、簡便なアプリケーション処理が可能となる。   In the invention of claim 2, the determination means (52, S61, FIG. 22, FIG. 25, FIG. 33) determines whether or not the position, size, speed, acceleration, motion trajectory pattern, etc. of the object meets a predetermined condition. In the information processing on the application side, it is possible to perform simple application processing by referring to the determination result and not receiving the calculated information unless the predetermined condition is met.

請求項3は、請求項2に従属し、第1の手段は、判定手段における判定結果に基づき情報の中から有効な情報のみを検出し、有効な入力が行われたとして第2手段に伝達する有効入力検出手段を含む、情報処理装置である。   Claim 3 is dependent on claim 2, wherein the first means detects only valid information from the information based on the determination result of the determination means, and notifies the second means that a valid input has been made. An information processing apparatus including effective input detecting means for performing the processing.

請求項3の発明では、第1の手段に含まれる有効入力検出手段(52,図22,図25,図33)が判定手段からの判定結果に基づいて情報の取捨選択を行い、ユーザからの有効な入力のみをアプリケーション側の情報処理に伝達する。したがって、簡便なアプリケーション処理が可能となる。   In the invention of claim 3, the effective input detection means (52, FIG. 22, FIG. 25, FIG. 33) included in the first means performs selection of information based on the determination result from the determination means, Only valid input is transmitted to the information processing on the application side. Therefore, simple application processing is possible.

請求項4は、請求項1−3のいずれかに従属し、第1の手段は、対象物の大きさを示す情報より対象物と撮像手段の距離を算出する距離算出手段を含む、情報処理装置である。   A fourth aspect is dependent on any one of the first to third aspects, wherein the first means includes a distance calculating means for calculating a distance between the object and the imaging means from information indicating the size of the object. Device.

請求項4の発明では、第1の手段に含まれる距離算出手段(52,S111,S113)が、撮像結果より対象物の大きさを算出し、算出された大きさの情報より対象物と撮像手段の距離を算出する。それによって、2次元の撮像結果から対象物の3次元空間中での位置、速度、加速度、運動軌跡パターンを求めることが可能となる。   In the invention of claim 4, the distance calculating means (52, S111, S113) included in the first means calculates the size of the object from the imaging result, and captures the object and the image from the information of the calculated size. The distance of the means is calculated. Thereby, the position, velocity, acceleration, and motion trajectory pattern of the object in the three-dimensional space can be obtained from the two-dimensional imaging result.

請求項5は、請求項1−4のいずれかに従属し、第1の手段は、発光時映像信号と非発光時映像信号との差より得られる情報を解析し対象物の形状を抽出する解析手段、および形状より対象物と撮像手段の角度を算出する角度算出手段を含む、情報処理装置である。   A fifth aspect is dependent on any one of the first to fourth aspects, wherein the first means analyzes the information obtained from the difference between the video signal at the time of light emission and the video signal at the time of non-light emission and extracts the shape of the object. The information processing apparatus includes an analysis unit and an angle calculation unit that calculates an angle between the object and the imaging unit from the shape.

請求項5の発明では、第1の手段が解析手段(52,図24:S159−S167)、および角度算出手段(52,S169)を含み、撮像結果より対象物の形状を解析することで、撮像結果として2次元イメージ上に投影された対象物と、撮像手段との成す角度を求めることが可能となる。   In the invention of claim 5, the first means includes analysis means (52, FIG. 24: S159-S167) and angle calculation means (52, S169), and by analyzing the shape of the object from the imaging result, As an imaging result, it is possible to obtain an angle formed by an object projected on a two-dimensional image and an imaging unit.

請求項6は、請求項5に従属し、解析手段における解析は、対象物中の所定の2点を抽出するものであり、角度算出手段における角度の算出は、所定の2点を結ぶ線分と所定の座標軸との角度を算出するものである、情報処理装置である。   A sixth aspect is dependent on the fifth aspect, wherein the analysis by the analyzing means extracts two predetermined points in the object, and the angle calculation by the angle calculating means is a line segment connecting the two predetermined points. And an information processing apparatus that calculates an angle between the coordinate axis and a predetermined coordinate axis.

請求項6の発明では、解析手段は、対象物中の所定の2点を抽出する解析(S166)を行い、角度算出手段における角度の算出は、所定の2点を結ぶ線分と所定の座標軸との角度を算出するものである(S169)。   In the invention of claim 6, the analysis means performs an analysis (S166) for extracting two predetermined points in the object, and the angle calculation means calculates the angle by a line segment connecting the two predetermined points and a predetermined coordinate axis. Is calculated (S169).

請求項7は、請求項1−6のいずれかに従属し、ストロボスコープの発光の時間間隔は自在に設定可能である、情報処理装置である。   A seventh aspect is an information processing apparatus according to any one of the first to sixth aspects, wherein the stroboscopic light emission time interval can be freely set.

請求項8は、請求項1−6のいずれかに従属し、ストロボスコープの発光期間の長さおよび非発光期間の長さは自在に設定可能である、情報処理装置である。   An eighth aspect is an information processing apparatus according to any one of the first to sixth aspects, wherein the length of the light emission period and the length of the non-light emission period of the stroboscope can be freely set.

請求項9は、請求項1−6のいずれかに従属し、撮像手段の露光期間は自在に設定可能である、情報処理装置である。   A ninth aspect is an information processing apparatus according to any one of the first to sixth aspects, wherein the exposure period of the imaging means can be freely set.

たとえば実施例の図6に示すようにプロセサが赤外発光ダイオードの点灯/消灯を制御することによって、請求項7の発明、請求項8の発明あるいは請求項9の発明では、必要な時間間隔で、また必要なタイミングでのみストロボ光源の発光、撮像手段での露光を行うようにすることができ、消費電力の低減を行うことが可能となる。   For example, as shown in FIG. 6 of the embodiment, the processor controls lighting / extinguishing of the infrared light emitting diodes, so that the invention of claim 7, the invention of claim 8 or the invention of claim 9 can perform at a necessary time interval. In addition, it is possible to emit light from the strobe light source and to perform exposure with the image pickup means only at a necessary timing, and it is possible to reduce power consumption.

請求項10は、請求項1−9のいずれかに従属し、対象物は反射体を含む、情報処理装置である。   A tenth aspect is an information processing apparatus according to any one of the first to ninth aspects, wherein the object includes a reflector.

請求項10の発明のように対象物が反射体(50,50A,100,116)を含むと、対象物と他の画像とのコントラストがさらに強調されるため、安価な構成で検出精度を高めることが可能となる。   If the object includes a reflector (50, 50A, 100, 116) as in the invention of claim 10, the contrast between the object and another image is further enhanced, so that the detection accuracy is improved with an inexpensive configuration. It becomes possible.

請求項11は、請求項1−10のいずれかに従属し、ストロボスコープは特定の波長領域の光を出力する光源を含み、撮像手段は特定の波長領域にのみ応答する、情報処理装置である。   An eleventh aspect is an information processing apparatus according to any one of the first to tenth aspects, wherein the stroboscope includes a light source that outputs light in a specific wavelength region, and the imaging unit responds only to the specific wavelength region. .

請求項12は、請求項11に従属し、撮像手段は特定の波長領域の光のみを透過するフィルタと、フィルタを透過した光で形成される映像を撮影する撮像素子とを含む、情報処理装置である。   An information processing apparatus according to claim 12 is dependent on claim 11, and the imaging means includes a filter that transmits only light in a specific wavelength region, and an image sensor that captures an image formed by the light transmitted through the filter. It is.

請求項13は、請求項11に従属し、撮像手段は、特定の波長領域の光で形成される映像のみを撮影する撮像素子を含む、情報処理装置である。   A thirteenth aspect is the information processing apparatus according to the eleventh aspect, wherein the image pickup means includes an image pickup device that takes only an image formed by light of a specific wavelength region.

請求項11の発明や請求項12の発明あるいは請求項13の発明では、ストロボスコープは特定の波長領域の光を出力する光源(たとえば赤外発光ダイオード42)を含み、撮像手段はたとえば赤外フィルタを用いることによって、特定の波長領域にのみ応答する。そのため、検出を行う対象物以外の移動光源および点滅光源(蛍光灯など)に含まれない波長領域の光をストロボスコープの光源とし、撮像手段がこの波長領域の光にのみ応答するようにすることで、これらのノイズ光源を除去することが可能となる。   In the invention of claim 11, the invention of claim 12, or the invention of claim 13, the stroboscope includes a light source (for example, an infrared light emitting diode 42) that outputs light in a specific wavelength region, and the imaging means is, for example, an infrared filter. Is used to respond only to a specific wavelength region. For this reason, light in a wavelength region not included in a moving light source and blinking light source (such as a fluorescent lamp) other than the object to be detected is used as a stroboscopic light source, and the imaging means responds only to light in this wavelength region. Thus, it becomes possible to remove these noise light sources.

請求項14は、請求項1−13のいずれかに従属し、第1の手段および第2の手段は、それぞれ単一または複数のプロセサによって処理されるプロセスである、情報処理装置である。   A fourteenth aspect is an information processing apparatus according to any one of the first to thirteenth aspects, wherein each of the first means and the second means is a process processed by a single processor or a plurality of processors.

請求項14の発明では、第1の手段および第2の手段は、それぞれ単一または複数のプロセサ(52および/またはS63を処理するプロセサ)によって処理されるプロセスである。このように、第1および第2の手段をプロセサのソフトウェアとして処理されるプロセスとすることで、安価でかつ自由度の高いシステムが構築できる。ただし、第1および第2の手段の両方のプロセスが単一のプロセサで実行されることがさらに望ましい。   In the invention of claim 14, the first means and the second means are processes processed by a single processor or a plurality of processors (processors processing 52 and / or S63), respectively. In this way, a system that is inexpensive and has a high degree of freedom can be constructed by using the first and second means as processes that are processed as processor software. However, it is further desirable that both the first and second means processes be performed in a single processor.

請求項15は、請求項1−14のいずれかにおいて、第2の手段で行われる情報処理がゲーム等のエンターテインメント処理である、エンターテインメント装置である。   A fifteenth aspect is the entertainment device according to any one of the first to fourteenth aspects, wherein the information processing performed by the second means is an entertainment process such as a game.

請求項15の発明は、第2の手段で行われる情報処理をゲーム等のエンターテインメント処理とした、エンターテインメント装置である。   The invention of claim 15 is an entertainment device in which the information processing performed by the second means is an entertainment process such as a game.

請求項16は、ストロボスコープを使った入力システムを備えるマンマシンインターフェースシステムであって、ストロボスコープ、ストロボスコープの発光時および非発光時にそれぞれ対象物を撮影して発光時映像信号および非発光時映像信号を出力する撮像手段、複数の発光時映像信号と複数の非発光時映像信号とのそれぞれの差に基づいて対象物の位置、大きさ、速度、加速度、運動軌跡パターンの情報の一部または全部を算出する第1の手段、および第1の手段によって算出された情報に基づき情報処理を行う第2の手段を備える、マンマシンインターフェースシステムである。   16. A man-machine interface system having an input system using a stroboscope, wherein the stroboscope and the stroboscope are photographed when the stroboscope and the stroboscope emit light and when the stroboscope emits light, respectively. Imaging means for outputting a signal, a part of information on the position, size, speed, acceleration, motion trajectory pattern of the object based on the difference between each of the plurality of light emitting video signals and the plurality of non-light emitting video signals or A man-machine interface system comprising first means for calculating all and second means for performing information processing based on information calculated by the first means.

請求項16の発明のシステムを、パーソナルコンピュータ、ワークステーション、ゲーム機器、教育機器、医療機器等のマンマシンインターフェースとして用いても、安価且つ精度の高い入力システムが構築できる。   Even if the system of the invention of claim 16 is used as a man-machine interface for personal computers, workstations, game machines, educational equipment, medical equipment, etc., an inexpensive and highly accurate input system can be constructed.

これらの発明によれば、ストロボスコープによって照射された対象物の撮像結果をディジタル的に解析し、対象物の位置、移動速度、加速度、運動軌跡といった情報をパーソナルコンピュータやビデオゲーム機といった情報処理装置への入力として扱うことが可能となる。   According to these inventions, the imaging result of the object irradiated by the stroboscope is digitally analyzed, and information such as the position, moving speed, acceleration, and motion trajectory of the object is processed by an information processing apparatus such as a personal computer or a video game machine. Can be treated as input to

また、簡単な情報処理のみで、ノイズや外乱の影響を抑えた精度の高い検出が可能であるので、コスト、許容される消費電力等の条件によりプロセサのパフォーマンスが制限されるシステムの上でも容易に達成が可能である。   In addition, it is possible to detect with high accuracy by suppressing the influence of noise and disturbance with only simple information processing, so it is easy even on systems where the performance of the processor is limited by conditions such as cost and allowable power consumption. Can be achieved.

この発明の上述の目的,その他の目的,特徴,および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はストロボスコープで撮影したストロボ映像の一例を示す図解図である。FIG. 1 is an illustrative view showing an example of a strobe image photographed with a stroboscope. 図2はこの発明の一実施例のゴルフゲームシステムの全体構成を示す図解図である。FIG. 2 is an illustrative view showing an overall configuration of a golf game system according to one embodiment of the present invention. 図3は図2実施例の撮影ユニットの一例を示す図解図である。FIG. 3 is an illustrative view showing one example of a photographing unit of FIG. 2 embodiment. 図4は図2実施例のゴルフクラブ型入力装置の一例を示す図解図である。FIG. 4 is an illustrative view showing one example of a golf club type input device of FIG. 2 embodiment. 図5は図2実施例を示すブロック図である。FIG. 5 is a block diagram showing the embodiment of FIG. 図6は図5実施例においてイメージセンサからゲームプロセサへピクセルデータを取り込む構成およびLED駆動回路を示す回路図である。FIG. 6 is a circuit diagram showing a configuration and an LED driving circuit for fetching pixel data from the image sensor to the game processor in the embodiment of FIG. 図7は図6実施例の動作を示すタイミング図である。FIG. 7 is a timing chart showing the operation of the embodiment of FIG. 図8は図7の一部を拡大して示すタイミング図である。FIG. 8 is an enlarged timing diagram showing a part of FIG. 図9は図2実施例の状態ないしステートの遷移を示す図解図である。FIG. 9 is an illustrative view showing a state or state transition of FIG. 2 embodiment. 図10は図2実施例の全体動作を示すフロー図である。FIG. 10 is a flowchart showing the overall operation of the FIG. 2 embodiment. 図11は図10実施例の初期化処理の一例であるセンサ初期化設定処理動作を示すフロー図である。FIG. 11 is a flowchart showing a sensor initialization setting process operation as an example of the initialization process of FIG. 10 embodiment. 図12は図11のコマンド送信処理動作を示すフロー図である。FIG. 12 is a flowchart showing the command transmission processing operation of FIG. 図13は図11のレジスタ設定処理動作を示すフロー図である。FIG. 13 is a flowchart showing the register setting processing operation of FIG. 図14は図13に示すレジスタ設定処理動作を示すタイミング図である。FIG. 14 is a timing chart showing the register setting processing operation shown in FIG. 図15は図2実施例におけるゲームプロセサの動作を示すフロー図である。FIG. 15 is a flowchart showing the operation of the game processor in the embodiment of FIG. 図16は図15実施例におけるストロボスコープ撮影動作を示すフロー図である。FIG. 16 is a flowchart showing the stroboscope photographing operation in the embodiment of FIG. 図17は図15実施例における画素データ取得処理動作を示すフロー図である。FIG. 17 is a flowchart showing the pixel data acquisition processing operation in the embodiment of FIG. 図18は図15実施例における注目点抽出処理動作を示すフロー図である。FIG. 18 is a flowchart showing the attention point extraction processing operation in the embodiment of FIG. 図19は実施例において差分データを採用する原理を示す図解図である。FIG. 19 is an illustrative view showing the principle of adopting difference data in the embodiment. 図20は図15実施例における速度ベクトル算出処理動作を示すフロー図である。FIG. 20 is a flowchart showing the speed vector calculation processing operation in the embodiment of FIG. 図21は図20の速度ベクトル算出動作における各座標位置を示す図解図である。FIG. 21 is an illustrative view showing each coordinate position in the velocity vector calculation operation of FIG. 図22は図15実施例における判定処理動作を示すフロー図である。FIG. 22 is a flowchart showing the determination processing operation in the embodiment of FIG. ゴルフゲームシステムに使われるゴルフクラブ型入力装置の変形例を示す図解図である。It is an illustration figure which shows the modification of the golf club type | mold input device used for a golf game system. 図24は図23のゴルフクラブ型入力装置を利用した場合の図15実施例における注目点抽出処理動作を示すフロー図である。FIG. 24 is a flowchart showing the attention point extraction processing operation in the embodiment of FIG. 15 when the golf club type input device of FIG. 23 is used. 図25は図23のゴルフクラブ型入力装置を利用した場合の図15実施例における判定処理動作を示すフロー図である。FIG. 25 is a flowchart showing the determination processing operation in the embodiment of FIG. 15 when the golf club type input device of FIG. 23 is used. 図26は図25の判定処理動作における角度を示す図解図である。FIG. 26 is an illustrative view showing angles in the determination processing operation of FIG. 図27はこの発明の他の実施例のボーリングゲームシステムの全体構成を示す図解図である。FIG. 27 is an illustrative view showing an entire configuration of a bowling game system according to another embodiment of the present invention. 図28は図27に示すボール型入力装置の内部構造を示す図27の線XXVIII−XXVIIIにおける断面図解図である。28 is a cross-sectional view taken along line XXVIII-XXVIII in FIG. 27 showing the internal structure of the ball-type input device shown in FIG. 図29は図27実施例におけるテレビジョンモニタに表示されるゲーム画面の一例を示す図解図である。FIG. 29 is an illustrative view showing one example of a game screen displayed on the television monitor in FIG. 27 embodiment. 図30は図27実施例におけるテレビジョンモニタに表示されるスコアシートの一例を示す図解図である。FIG. 30 is an illustrative view showing one example of a score sheet displayed on the television monitor in FIG. 27 embodiment. 図31は図27実施例を示すブロック図である。FIG. 31 is a block diagram showing the embodiment of FIG. 図32は図27実施例の全体動作を示すフロー図である。FIG. 32 is a flowchart showing the overall operation of the embodiment of FIG. 図33は図27のボーリングシステムの図15実施例における判定処理動作を示すフロー図である。FIG. 33 is a flowchart showing the determination processing operation in the FIG. 15 embodiment of the boring system of FIG. 図34は手袋型入力装置の一例を示す図解図である。FIG. 34 is an illustrative view showing one example of a glove-type input device. 図35は図34の手袋型入力装置を用いる場合の図15実施例に示す動き検出処理動作を示すフロー図である。FIG. 35 is a flowchart showing the motion detection processing operation shown in FIG. 15 when the glove type input device of FIG. 34 is used. 図36は図15実施例における画素データ配列取得処理動作を示すフロー図である。FIG. 36 is a flowchart showing the pixel data array acquisition processing operation in the embodiment of FIG.

図2を参照して、この発明の一実施例であるゴルフゲームシステム10は、ゲーム機12およびゴルフクラブ型入力装置14を含み、このゴルフクラブ型入力装置14はゲームプレイヤによって、ゲーム機12上で振られる。なお、ゲーム機12は、たとえばACアダプタ(図示せず)または電池のような直流電源によって駆動される。ゲーム機12は、さらに、AVケーブル16を通して、テレビジョンモニタ(図示せず)のAV端子(図示せず)に接続される。   Referring to FIG. 2, a golf game system 10 according to an embodiment of the present invention includes a game machine 12 and a golf club type input device 14, which is played on the game machine 12 by a game player. It is shaken by. Note that the game machine 12 is driven by a DC power source such as an AC adapter (not shown) or a battery. The game machine 12 is further connected to an AV terminal (not shown) of a television monitor (not shown) through the AV cable 16.

ゲーム機12は、また、ハウジング18を含み、このハウジング18上に電源スイッチ20が設けられるとともに、方向ボタン22ならびに決定キー24およびキャンセルキー26が設けられる。方向ボタン22は、4方向(上下左右)の個別のボタンを有し、たとえばテレビジョンモニタの表示画面上においてメニューやゲームモード選択のためにカーソルを移動させたりするために用いられる。   The game machine 12 also includes a housing 18, on which a power switch 20 is provided, and a direction button 22, a determination key 24, and a cancel key 26 are provided. The direction buttons 22 have individual buttons in four directions (up, down, left and right), and are used, for example, to move a cursor for selecting a menu or a game mode on a display screen of a television monitor.

決定キー24はゲーム機12への入力を決定するために用いられる。また、キャンセルキー26は、ゲーム機12への入力をキャンセルするために用いられる。 The decision key 24 is used to decide an input to the game machine 12. The cancel key 26 is used to cancel the input to the game machine 12.

ゲーム機12のハウジング16の内部には、図3に詳細に示す撮像ユニット28が収納される。この撮像ユニット28は、たとえばプラスチック成型によって形成されるユニットベース30を含み、このユニットベース30内には支持筒32が取り付けられる。支持筒32の上面には内面が逆円錐形状であるラッパ状の開口34が形成され、その開口34の下方の筒状部内部には、いずれもがたとえば透明プラスチックの成型によって形成された凹レンズ36および凸レンズ38を含む光学系が設けられ、凸レンズ38の下方において、撮像素子としてのイメージセンサ40が固着される。したがって、イメージセンサ40は、開口34からレンズ36および38を通して入射する光に応じた映像を撮影することができる。   An imaging unit 28 shown in detail in FIG. 3 is housed inside the housing 16 of the game machine 12. The imaging unit 28 includes a unit base 30 formed by plastic molding, for example, and a support cylinder 32 is attached in the unit base 30. A trumpet-shaped opening 34 whose inner surface has an inverted conical shape is formed on the upper surface of the support cylinder 32, and a concave lens 36 formed by molding a transparent plastic, for example, is formed inside the cylindrical part below the opening 34. An optical system including a convex lens 38 is provided, and an image sensor 40 as an image sensor is fixed below the convex lens 38. Therefore, the image sensor 40 can capture an image corresponding to light incident from the opening 34 through the lenses 36 and 38.

イメージセンサ40は、低解像度のCMOSイメージセンサ(たとえば32×32画素:グレースケール)である。ただし、このイメージセンサ40は、画素数のもっと多いものでもよいし、CCD等の他の素子からなるものであってよい。   The image sensor 40 is a low-resolution CMOS image sensor (for example, 32 × 32 pixels: gray scale). However, the image sensor 40 may have a larger number of pixels or may be composed of other elements such as a CCD.

また、ユニットベース30には、光出射方向がいずれも上方向とされた複数(この実施例では4つ)の赤外発光ダイオード42が取り付けられる。この赤外発光ダイオード42によって、撮像ユニット28の上方の図3に示す線44aおよび44bで決まる範囲に赤外光が照射される。また、ユニットベース30の上方には、赤外フィルタ(赤外線のみを透過するフィルタ)が上記開口34を覆うように、取り付けられる。そして、赤外発光ダイオード42は後述のように、点灯/消灯が連続的に繰り返されるので、赤外ストロボスコープとして機能する。ただし、「ストロボスコープ」とは、運動体を間欠的に照らす装置の総称である。   The unit base 30 is attached with a plurality of (four in this embodiment) infrared light emitting diodes 42 whose light emission directions are all upward. The infrared light emitting diode 42 irradiates infrared light in a range determined by lines 44 a and 44 b shown in FIG. 3 above the imaging unit 28. An infrared filter (a filter that transmits only infrared rays) is attached above the unit base 30 so as to cover the opening 34. The infrared light emitting diode 42 functions as an infrared stroboscope because it is continuously turned on / off as described later. However, “stroboscope” is a general term for devices that illuminate a moving body intermittently.

したがって、上記イメージセンサ40は、線44aおよび44bで示す撮影範囲内で移動する物体、この実施例ではゴルフクラブ型入力装置14に設けられた反射体50(図4参照)を撮影することになる。 Therefore, the image sensor 40 photographs an object that moves within the photographing range indicated by the lines 44a and 44b, that is, the reflector 50 (see FIG. 4) provided in the golf club type input device 14 in this embodiment. .

ゴルフクラブ型入力装置14は、全体がたとえばプラスチック成型によって形成され、図4に示すように、クラブシャフト46とそれの先端に取り付けられたクラブヘッド48とを含み、クラブヘッド48の底面に、たとえば再帰反射シートからなる、円形の反射体50が設けられる。したがって、図2に示すように、ゲームプレイヤがこの入力装置14のクラブシャフト46を持って、普通のゴルフをするときと同じように、ゲーム機12の上方で振れば、ヘッド48の底面の反射体50によって反射された光がイメージセンサ40によって撮影される。このとき、赤外発光ダイオード42は上述のように間欠的に赤外光を照射するため、結果的に、図3に示すように、反射体50が間欠的に撮影される。この実施例のゴルフゲームシステム10では、後述のように、このような反射体のストロボ映像を処理することによって、ゲーム機12の入力となる速度などを計算する。   The golf club type input device 14 is entirely formed by plastic molding, for example, and includes a club shaft 46 and a club head 48 attached to the tip of the club shaft 46, as shown in FIG. A circular reflector 50 made of a retroreflective sheet is provided. Therefore, as shown in FIG. 2, if the game player holds the club shaft 46 of the input device 14 and swings it above the game machine 12 in the same manner as in normal golf, the bottom surface of the head 48 is reflected. The light reflected by the body 50 is photographed by the image sensor 40. At this time, since the infrared light emitting diode 42 irradiates infrared light intermittently as described above, as a result, the reflector 50 is intermittently photographed as shown in FIG. In the golf game system 10 of this embodiment, as will be described later, the speed that is input to the game machine 12 is calculated by processing the strobe image of such a reflector.

図5を参照して、クラブ型入力装置14は、上述のように、赤外発光ダイオード42の発光に照射され、その赤外光を反射体50で反射する。この反射体50からの反射光がイメージセンサ40によって撮影され、したがって、イメージセンサ40からは反射体50の映像信号が出力される。イメージセンサ40からのこのアナログ映像信号はゲームプロセサ52に内蔵されたA/Dコンバータ(図示せず)によってディジタルデータに変換される。   Referring to FIG. 5, as described above, club-type input device 14 is irradiated with the light emitted from infrared light emitting diode 42, and the infrared light is reflected by reflector 50. The reflected light from the reflector 50 is photographed by the image sensor 40, and thus the image signal of the reflector 50 is output from the image sensor 40. The analog video signal from the image sensor 40 is converted into digital data by an A / D converter (not shown) built in the game processor 52.

なお、ゲームプロセサ52は、上述のストロボ撮影のために、赤外発光ダイオード42を間欠的に点滅する。   The game processor 52 blinks the infrared light emitting diode 42 intermittently for the above-described flash photography.

このようなゲームプロセサ52としては、任意の種類のプロセサを利用できるが、この実施例では、本件出願人が開発しかつ既に特許出願している高速プロセサを用いる。この高速プロセサは、たとえば特開平10−307790号公報[G06F13/36,15/78]およびこれに対応するアメリカ特許第6,070,205号に詳細に開示されている。   As such a game processor 52, any kind of processor can be used. In this embodiment, a high-speed processor developed by the applicant of the present invention and already filed for a patent is used. This high-speed processor is disclosed in detail, for example, in Japanese Patent Laid-Open No. 10-307790 [G06F13 / 36, 15/78] and US Pat. No. 6,070,205 corresponding thereto.

ゲームプロセサ52は、図示しないが、演算プロセサ,グラフィックプロセサ,サウンドプロセサおよびDMAプロセサ等の各種プロセサを含むとともに、アナログ信号を取り込むときに用いられる上述のA/Dコンバータやキー操作信号や赤外線信号のような入力信号を受けかつ出力信号を外部機器に与える入出力制御回路を含む。したがって、操作キー22−26からの入力信号がこの入出力制御回路を経て、演算プロセサに与えられる。演算プロセサは、その入力信号に応じて必要な演算を実行し、その結果をグラフィックプロセサ等に与える。したがって、グラフィックプロセサやサウンドプロセサはその演算結果に応じた画像処理や音声処理を実行する。   Although not shown, the game processor 52 includes various processors such as an arithmetic processor, a graphic processor, a sound processor, and a DMA processor, and the above-described A / D converter, key operation signal, and infrared signal used for capturing an analog signal. And an input / output control circuit for receiving an input signal and supplying an output signal to an external device. Therefore, an input signal from the operation keys 22-26 is given to the arithmetic processor through this input / output control circuit. The arithmetic processor executes necessary arithmetic according to the input signal and gives the result to the graphic processor or the like. Therefore, the graphic processor and the sound processor execute image processing and sound processing according to the calculation result.

プロセサ52には、図示しないが内部メモリが設けられ、この内部メモリは、ROMまたはRAM(SRAMおよび/またはDRAM)を含む。RAMは一時メモリ,ワーキングメモリあるいはカウンタまたはレジスタ領域(テンポラリデータ領域)およびフラグ領域として利用される。なお、プロセサ52にはROM54が外部バスを通して接続される。このROM54に後に説明するようなゲームプログラムが予め設定される。   The processor 52 is provided with an internal memory (not shown), and this internal memory includes ROM or RAM (SRAM and / or DRAM). The RAM is used as a temporary memory, a working memory or a counter or register area (temporary data area) and a flag area. A ROM 54 is connected to the processor 52 through an external bus. A game program as will be described later is preset in the ROM 54.

プロセサ52は、イメージセンサ40からA/Dコンバータを介して入力されるディジタル映像信号を処理してゴルフクラブ型入力装置14の動きを検出するとともに、操作キー22−26からの入力信号に従って演算、グラフィック処理、サウンド処理等を実行し、ビデオ信号およびオーディオ信号を出力する。ビデオ信号はゲーム画面を表示するための画像信号であり、オーディオ信号はゲーム音楽や効果音の信号であり、したがって、テレビジョンモニタ(図示せず)の画面上にゲーム画面表示され、必要なサウンド(効果音、ゲーム音楽)がそれのスピーカから出力される。   The processor 52 detects the movement of the golf club type input device 14 by processing the digital video signal input from the image sensor 40 through the A / D converter, and calculates according to the input signal from the operation keys 22-26. Performs graphic processing, sound processing, etc., and outputs video and audio signals. The video signal is an image signal for displaying a game screen, and the audio signal is a game music or sound effect signal. Therefore, the video signal is displayed on the screen of a television monitor (not shown) and the necessary sound is displayed. (Sound effect, game music) is output from the speaker.

ここで、図6−図8を参照して、CMOSイメージセンサ40からゲームプロセサ52へピクセルデータを取り込むための構成を詳細に説明する。図6に示すように、実施例のCMOSイメージセンサ40は、ピクセル信号(画素信号)をアナログ信号として出力するタイプのものであるため、このピクセル信号はゲームプロセサ52のアナログ入力ポートに入力される。アナログ入力ポートは、このゲームプロセサ52内においてA/Dコンバータ(図示せず)に接続され、したがって、ゲームプロセサ52は、A/Dコンバータからディジタルデータに変換されたピクセル信号(ピクセルデータ)をその内部に取得する。   Here, with reference to FIGS. 6 to 8, a configuration for taking pixel data from the CMOS image sensor 40 into the game processor 52 will be described in detail. As shown in FIG. 6, the CMOS image sensor 40 of the embodiment is of a type that outputs a pixel signal (pixel signal) as an analog signal, so that the pixel signal is input to an analog input port of the game processor 52. . The analog input port is connected to an A / D converter (not shown) in the game processor 52. Therefore, the game processor 52 receives a pixel signal (pixel data) converted from the A / D converter into digital data. Get inside.

上述のアナログピクセル信号の中点は、CMOSイメージセンサ40の基準電圧端子Vrefに与えられる基準電圧によって決定される。そのため、この実施例では、イメージセンサ40に関連してたとえば抵抗分圧回路からなる基準電圧発生回路56が設けられ、この回路56から基準電圧端子Vrefに常に一定の大きさの基準電圧が与えられる。   The midpoint of the analog pixel signal described above is determined by the reference voltage applied to the reference voltage terminal Vref of the CMOS image sensor 40. Therefore, in this embodiment, a reference voltage generation circuit 56 composed of, for example, a resistance voltage dividing circuit is provided in association with the image sensor 40, and a reference voltage having a constant magnitude is always applied from the circuit 56 to the reference voltage terminal Vref. .

CMOSイメージセンサ40を制御するための各ディジタル信号は、ゲームプロセサ52のI/Oポートに与えられ、またはそこから出力される。このI/Oポートは各々入力/出力の制御が可能なディジタルポートであり、このゲームプロセサ52内で入出力制御回路(図示せず)に接続されている。   Each digital signal for controlling the CMOS image sensor 40 is supplied to or output from the I / O port of the game processor 52. Each of these I / O ports is a digital port capable of controlling input / output, and is connected to an input / output control circuit (not shown) in the game processor 52.

詳しくいうと、ゲームプロセサ52の出力ポートからはイメージセンサ40をリセットするためのリセット信号が出力され、イメージセンサ40に与えられる。また、イメージセンサ40からは、ピクセルデータストローブ信号およびフレームステータスフラグ信号が出力され、それらの信号がゲームプロセサ52の入力ポートに与えられる。ピクセルデータストローブ信号は上述の各ピクセル信号を読み込むための図7(b)に示すようなストローブ信号である。フレームステータスフラグ信号はイメージセンサ40の状態を示すフラグ信号で、図7(a)に示すように、このイメージセンサの露光期間を規定する。つまり、フレームステータスフラグ信号の図7(a)に示すローレベルが露光期間を示し、図7(a)に示すハイレベルが非露光期間を示す。   More specifically, a reset signal for resetting the image sensor 40 is output from the output port of the game processor 52 and applied to the image sensor 40. Further, the image sensor 40 outputs a pixel data strobe signal and a frame status flag signal, and these signals are given to the input port of the game processor 52. The pixel data strobe signal is a strobe signal as shown in FIG. 7B for reading each pixel signal described above. The frame status flag signal is a flag signal indicating the state of the image sensor 40, and defines the exposure period of the image sensor as shown in FIG. That is, the low level shown in FIG. 7A of the frame status flag signal indicates the exposure period, and the high level shown in FIG. 7A indicates the non-exposure period.

また、ゲームプロセサ52は、CMOSイメージセンサ40内の制御レジスタ(図示せず)に設定するコマンド(またはコマンド+データ)をレジスタデータとしてI/Oポートから出力するとともに、たとえばハイレベルおよびローレベルを繰り返すレジスタ設定クロックを出力し、それらをイメージセンサ40に与える。   The game processor 52 outputs a command (or command + data) to be set in a control register (not shown) in the CMOS image sensor 40 from the I / O port as register data, and outputs, for example, a high level and a low level. The register setting clock to be repeated is output and supplied to the image sensor 40.

なお、この実施例では、赤外発光ダイオード42として、図6に示すように互いに並列接続された4つの赤外発光ダイオード42a,42b,42cおよび42dを用いる。この4つの赤外発光ダイオード42a−42dは、上で説明したように、対象物(ゴルフクラブ型入力装置14)を照らすように、イメージセンサ40の視点方向と同一方向に赤外光を照射するようにかつイメージセンサ40を囲むように配置される。ただし、これら個別の赤外発光ダイオード42a−42dは、特に区別する必要がある場合を除いて、単に赤外発光ダイオード42と呼ばれる。この赤外発光ダイオード42はLED駆動回路58によって、点灯されまたは消灯(非点灯)される。LED駆動回路58は、イメージセンサ40から上述のフレームステータスフラグ信号を受け、このフラグ信号は、抵抗62およびコンデンサ64からなる微分回路60を通してPNPトランジスタ68のベースに与えられる。このPNPトランジスタ68にはさらにプルアップ抵抗66が接続されていて、このPNPトランジスタ68のベースは、通常は、ハイレベルにプルアップされている。そして、フレームステータス信号がローレベルになると、そのローレベルが微分回路60を経てベースに入力されるため、PNPトランジスタ68は、フラグ信号がローレベル期間にのみオンする。   In this embodiment, as the infrared light emitting diode 42, four infrared light emitting diodes 42a, 42b, 42c and 42d connected in parallel as shown in FIG. 6 are used. As described above, the four infrared light emitting diodes 42a to 42d irradiate infrared light in the same direction as the viewpoint direction of the image sensor 40 so as to illuminate the object (golf club type input device 14). So as to surround the image sensor 40. However, these individual infrared light-emitting diodes 42a to 42d are simply referred to as infrared light-emitting diodes 42 unless it is particularly necessary to distinguish them. The infrared light emitting diode 42 is turned on or off (not lit) by the LED drive circuit 58. The LED drive circuit 58 receives the above-described frame status flag signal from the image sensor 40, and this flag signal is given to the base of the PNP transistor 68 through the differentiation circuit 60 including the resistor 62 and the capacitor 64. A pull-up resistor 66 is further connected to the PNP transistor 68, and the base of the PNP transistor 68 is normally pulled up to a high level. When the frame status signal becomes low level, the low level is input to the base via the differentiation circuit 60, so that the PNP transistor 68 is turned on only when the flag signal is low level.

PNPトランジスタ68のエミッタは抵抗70および72を介して接地される。そして、エミッタ抵抗70および72の接続点がNPNトランジスタ74のベースに接続される。このNPNトランジスタ74のコレクタが各赤外発光ダイオード42a−42dのアノードに共通に接続される。NPNトランジスタ74のエミッタが別のNPNトランジスタ76のベースに直接接続される。NPNトランジスタ74のコレクタが各赤外発光ダイオード42a−42dのカソードに共通接続され、エミッタが接地される。   The emitter of the PNP transistor 68 is grounded via resistors 70 and 72. The connection point between the emitter resistors 70 and 72 is connected to the base of the NPN transistor 74. The collector of the NPN transistor 74 is commonly connected to the anodes of the infrared light emitting diodes 42a to 42d. The emitter of NPN transistor 74 is connected directly to the base of another NPN transistor 76. The collector of the NPN transistor 74 is commonly connected to the cathodes of the infrared light emitting diodes 42a to 42d, and the emitter is grounded.

このLED駆動回路58では、ゲームプロセサ52のI/Oポートから出力されるLEDコントロール信号(第2信号に相当する)がアクティブ(ハイレベル)でありかつイメージセンサ40からのフレームステータスフラグ信号がローレベルである期間にのみ赤外発光ダイオード42が点灯される。図7(a)に示すようにフレームステータスフラグ信号がローレベルになると、そのローレベル期間中(実際には微分回路60の時定数での遅れがあるが)、PNPトランジスタ68がオンする。したがって、図7(d)に示すLEDコントロール信号がゲームプロセサ52からハイレベルで出力されると、NPNトランジスタ74のベースがローレベルとなり、このトランジスタ68がオフとなる。トランジスタ68がオフするとトランジスタ74はオンとなる。したがって、電源(図6では小さい白丸で示す)から各赤外発光ダイオード42a−42dおよびトランジスタ76を経て電流が流れ、応じて図7(e)に示すように各赤外発光ダイオード42a−42dが点灯される。   In this LED drive circuit 58, the LED control signal (corresponding to the second signal) output from the I / O port of the game processor 52 is active (high level) and the frame status flag signal from the image sensor 40 is low. The infrared light emitting diode 42 is turned on only during a period of level. As shown in FIG. 7A, when the frame status flag signal becomes low level, the PNP transistor 68 is turned on during the low level period (actually, there is a delay due to the time constant of the differentiation circuit 60). Accordingly, when the LED control signal shown in FIG. 7D is output from the game processor 52 at a high level, the base of the NPN transistor 74 becomes a low level and the transistor 68 is turned off. When transistor 68 is turned off, transistor 74 is turned on. Therefore, a current flows from the power source (indicated by small white circles in FIG. 6) through the infrared light emitting diodes 42a to 42d and the transistor 76. Accordingly, as shown in FIG. 7E, the infrared light emitting diodes 42a to 42d Illuminated.

実施例のLED駆動回路58では、このように、図7(d)のLEDコントロール信号がアクティブでありかつ図7(a)のフレームステータスフラグ信号がローレベルである期間にのみ赤外発光ダイオード42が点灯されるので、イメージセンサ40の露光期間(図7(f)参照)にのみ赤外発光ダイオード42が点灯されることになる。したがって、この実施例によれば、無駄な電力消費を抑制することができる。さらに、フレームステータスフラグ信号はコンデンサ64によってカップリングされているので、万一イメージセンサ40の暴走等によりそのフラグ信号がローレベルのまま停止した場合でも、一定時間後にはトランジスタ68は必ずオフされ、赤外発光ダイオード42も一定時間後には必ずオフされる。   Thus, in the LED drive circuit 58 of the embodiment, the infrared light emitting diode 42 is only in a period in which the LED control signal in FIG. 7D is active and the frame status flag signal in FIG. Therefore, the infrared light emitting diode 42 is turned on only during the exposure period of the image sensor 40 (see FIG. 7F). Therefore, according to this embodiment, wasteful power consumption can be suppressed. Furthermore, since the frame status flag signal is coupled by the capacitor 64, even if the flag signal is stopped at a low level due to the runaway of the image sensor 40, the transistor 68 is always turned off after a certain time, The infrared light emitting diode 42 is also always turned off after a certain time.

このように、この実施例では、フレームステータス信号の持続期間を変更することによって、イメージセンサ40の露光時間を任意にかつ自在に設定または変更することができる。   Thus, in this embodiment, the exposure time of the image sensor 40 can be set or changed arbitrarily and freely by changing the duration of the frame status signal.

さらに、フレームステータス信号およびLEDコントロール信号の持続時間や周期を変更することによって、赤外発光ダイオード42すなわちストロボスコープの発光期間、非発光期間、発光/非発光周期などを任意にかつ自在に変更または設定できる。   Furthermore, by changing the duration and period of the frame status signal and the LED control signal, the light emitting period, non-light emitting period, light emitting / non-light emitting period, etc. of the infrared light emitting diode 42, that is, the stroboscope can be changed arbitrarily and freely. Can be set.

先に説明したように、赤外発光ダイオード42からの赤外光によってゴルフクラブ型入力装置14の反射体50が照射されると、反射体50からの反射光によってイメージセンサ40が露光される。応じて、イメージセンサ40から上述のピクセル信号が出力される。詳しく説明すると、CMOSイメージセンサ40は、上述の図7(a)のフレームステータスフラグ信号がハイレベルの期間(赤外発光ダイオード42の非点灯期間)に図7(b)に示すピクセルデータストローブに同期して、図7(c)に示すようにアナログのピクセル信号を出力する。ゲームプロセサ52では、そのフレームステータスフラグ信号とピクセルデータストローブとを監視しながら、A/Dコンバータを通じて、ディジタルのピクセルデータを取得する。   As described above, when the reflector 50 of the golf club type input device 14 is irradiated with the infrared light from the infrared light emitting diode 42, the image sensor 40 is exposed with the reflected light from the reflector 50. In response, the image sensor 40 outputs the pixel signal described above. More specifically, the CMOS image sensor 40 changes to the pixel data strobe shown in FIG. 7B during a period when the frame status flag signal shown in FIG. 7A is at a high level (non-lighting period of the infrared light emitting diode 42). In synchronism, an analog pixel signal is output as shown in FIG. The game processor 52 acquires digital pixel data through the A / D converter while monitoring the frame status flag signal and the pixel data strobe.

ただし、ピクセルデータ(ピクセル信号)は実施例では、図8(c)に示すように、第0行,第1行,…第31行と行順次に出力される。ただし、後に説明するように、各行の先頭の1ピクセルはダミーデータとなる。   However, in the embodiment, pixel data (pixel signal) is output in the order of row 0, row 1,... Row 31 as shown in FIG. However, as will be described later, the first pixel of each row is dummy data.

ここで、図9および図10を参照して、図2実施例のゴルフゲームシステム10の概略動作を説明する。図2に示す電源スイッチ20をオンしてゲームスタートとなるが、図5に示すゲームプロセサ52は、まず、ステップS1で初期化処理を実行する。具体的には、システムおよび各変数を初期化する。   Here, with reference to FIG. 9 and FIG. 10, schematic operation | movement of the golf game system 10 of FIG. 2 Example is demonstrated. The power switch 20 shown in FIG. 2 is turned on to start the game, but the game processor 52 shown in FIG. 5 first executes an initialization process in step S1. Specifically, the system and each variable are initialized.

ステップS1での初期化処理は、イメージセンサ40内の制御レジスタへのデータ設定処理を含み、具体的には、図11−図13に示すフロー図に従って、かつ図14に示すタイミングで実行される。   The initialization process in step S1 includes a data setting process to the control register in the image sensor 40, and specifically, is executed according to the flowcharts shown in FIGS. 11 to 13 and at the timing shown in FIG. .

図11の最初のステップS11では、ゲームプロセサ52は、設定データとして、コマンド“CONF”を設定する。ただし、このコマンド“CONF”は、イメージセンサ40に、ゲームプロセサ52からコマンドを送信する設定モードに入ることを知らせるためのコマンドである。そして、次のステップS13で、図12に詳細に示すコマンド送信処理を実行する。   In the first step S11 of FIG. 11, the game processor 52 sets a command “CONF” as setting data. However, the command “CONF” is a command for notifying the image sensor 40 that the setting mode for transmitting the command from the game processor 52 is entered. Then, in the next step S13, command transmission processing shown in detail in FIG. 12 is executed.

コマンド送信処理の最初のステップS31では、プロセサ52は、設定データ(ステップS13の場合はコマンド“CONF”)をレジスタデータ(I/Oポート)に設定し、次のステップS33でレジスタ設定クロック(I/Oポート)をローレベルに設定する。その後、ステップS35で規定時間待機した後、ステップS37で、レジスタ設定クロックをハイレベルに設定する。そして、さらにステップS39での規定時間の待機の後、ステップS41でレジスタ設定クロックを再びローレベルに設定する。このようにして、図14に示すように、規定時間の待機を行いながら、レジスタ設定クロックをローレベル,ハイレベルそしてローレベルとすることによって、コマンド(コマンドまたはコマンド+データ)の送信処理が行われる。   In the first step S31 of the command transmission process, the processor 52 sets the setting data (command “CONF” in the case of step S13) to the register data (I / O port), and in the next step S33, the register setting clock (I / O port) is set to low level. Thereafter, after waiting for a specified time in step S35, the register setting clock is set to a high level in step S37. Further, after waiting for the specified time in step S39, the register setting clock is set to the low level again in step S41. In this way, as shown in FIG. 14, the command (command or command + data) transmission process is performed by setting the register setting clock to low level, high level, and low level while waiting for a specified time. Is called.

ステップS15(図11)では、ピクセルモードを設定するとともに、露光時間の設定を行う。この実施例の場合、イメージセンサ40は先に述べたようにたとえば32×32のCMOSセンサであるため、設定アドレス“0”のピクセルモードレジスタに32×32画素であることを示す“0h”を設定する。次のステップS17において、ゲームプロセサ52は、図13に詳細に示すレジスタ設定処理を実行する。   In step S15 (FIG. 11), the pixel mode is set and the exposure time is set. In this embodiment, since the image sensor 40 is, for example, a 32 × 32 CMOS sensor as described above, “0h” indicating 32 × 32 pixels is set in the pixel mode register of the setting address “0”. Set. In the next step S17, the game processor 52 executes a register setting process shown in detail in FIG.

レジスタ設定処理の最初のステップS43では、プロセサ52は、設定データとして、コマンド“MOV”+アドレスを設定し、次のステップS45で、図12で先に説明したコマンド送信処理を実行して、それを送信する。次にステップS47において、プロセサ52は、設定データとして、コマンド“LD”+データを設定し、次のステップS49でコマンド送信処理を実行して、それを送信する。そして、ステップS51で、プロセサ52は、設定データとして、コマンド“SET”を設定し、次のステップS53でそれを送信する。なお、コマンド“MOV”は制御レジスタのアドレスを送信することを示すコマンドで、コマンド“LD”はデータを送信することを示すコマンドで、コマンド“SET”はデータをそのアドレスに実際に設定させるためのコマンドである。なお、この処理は、設定する制御レジスタが複数ある場合には、繰り返し実行される。   In the first step S43 of the register setting process, the processor 52 sets the command “MOV” + address as the setting data, and in the next step S45, executes the command transmission process described above with reference to FIG. Send. Next, in step S47, the processor 52 sets the command “LD” + data as the setting data, executes command transmission processing in the next step S49, and transmits it. In step S51, the processor 52 sets the command “SET” as setting data, and transmits it in the next step S53. Note that the command “MOV” is a command indicating that the address of the control register is transmitted, the command “LD” is a command indicating that the data is transmitted, and the command “SET” is for actually setting the data to the address. Command. This process is repeatedly executed when there are a plurality of control registers to be set.

図11に戻って、次のステップS19では、設定アドレスを“1”(露光時間設定レジスタのローニブルのアドレスを示す)とし、最大露光時間を示す“FFh”のローニブルデータ“Fh”を設定すべきデータとして設定する。そして、ステップS21で図13のレジスタ設定処理を実行する。同様にして、ステップS23において、設定アドレスを“2”(露光時間設定レジスタのハイニブルのアドレスを示す)とし、最大露光時間を示す“FFh”のハイニブルデータ“Fh”を設定すべきデータとして設定し、ステップS25でレジスタ設定処理を実行する。   Returning to FIG. 11, in the next step S19, the setting address is set to “1” (indicating the address of the exposure time setting register), and the FFh data “Fh” indicating the maximum exposure time is set. Set as power data. In step S21, the register setting process of FIG. 13 is executed. Similarly, in step S23, the setting address is set to “2” (indicating the high nibble address of the exposure time setting register), and the high nibble data “Fh” of “FFh” indicating the maximum exposure time is set as data to be set. In step S25, register setting processing is executed.

その後、ステップS27で設定終了を示しかつイメージセンサ40にデータの出力を開始させるためのコマンド“RUN”を設定し、ステップS29で送信する。このようにして、図10に示すステップS1での初期設定動作が実行される。ただし、図11−図14に示す具体例は、使用されるイメージセンサの仕様に応じて、適宜変更され得るものである。 Thereafter, a command “RUN” is set in step S27 to indicate the end of setting and to cause the image sensor 40 to start outputting data, and is transmitted in step S29. In this way, the initial setting operation in step S1 shown in FIG. 10 is executed. However, the specific examples shown in FIGS. 11 to 14 can be changed as appropriate according to the specifications of the image sensor used.

図10のステップS1の後、ゲームプロセサ52は、ステップS2で画像信号を更新してモニタ(図示せず)に表示される画像を更新する。ただし、この表示画像更新は、1フレーム(テレビジョンフレームまたはビデオフレーム)毎に実行される。   After step S1 of FIG. 10, the game processor 52 updates the image displayed in the monitor (not shown) by updating the image signal in step S2. However, this display image update is executed for each frame (television frame or video frame).

そして、ゲームプロセサ52は、ステート(状態)に応じた処理を実行する。ただし、最初に処理するのは、ゲームモードの選択である。このゲームモード選択では、ユーザないしゲームプレイヤは、図10のステップS3で、図1に示す選択キー22を操作して、1人プレイモードまたは2人プレイモードなどのゲームモードを選択するとともに、ゲームの難易度等を設定する。   And the game processor 52 performs the process according to a state (state). However, the first process is to select a game mode. In this game mode selection, the user or game player selects a game mode such as a one-player mode or a two-player mode by operating the selection key 22 shown in FIG. Set the difficulty level.

実際のゴルフゲームではゴルフクラブを振ってゲーム画面内でゴルフボールを転動させる必要があるが、実施例のゴルフゲームシステム10では、先に述べたように、ゴルフクラブ型入力装置14を用いて実空間中でゴルフクラブスイング動作を行う。そこで、ゲームプロセサ52は、ステップS4でスイング動作の判定処理を実行し、スイング動作が行われたかどうか判定する。そして、スイング動作が行われたのであれば、ついでステップS5で、ゲーム画面内でボールが飛翔しまたは転動しているとき、ボールの軌道を計算するとともに、ボールが停止したときに、ステップS6において、ステップS5での軌道計算処理の結果として、スコア計算および結果判定処理を実行する。   In an actual golf game, it is necessary to roll the golf ball on the game screen by swinging the golf club. In the golf game system 10 of the embodiment, as described above, the golf club type input device 14 is used. The golf club swings in real space. Therefore, the game processor 52 executes a swing motion determination process in step S4 to determine whether or not the swing motion has been performed. If a swing motion has been performed, then in step S5, when the ball is flying or rolling in the game screen, the trajectory of the ball is calculated, and when the ball stops, step S6. In step S5, score calculation and result determination processing are executed as a result of the trajectory calculation processing in step S5.

その後、ビデオ同期信号による割り込みがあれば、ステップS2(図10)の画像更新を実行する。また、ステップS7の音声処理は、音声割り込みが発生したとき実行され、それによってゲーム音楽やゴルフクラブがボールを叩いた音のような効果音を出力する。   Thereafter, if there is an interruption due to the video synchronization signal, the image update in step S2 (FIG. 10) is executed. The voice processing in step S7 is executed when a voice interruption occurs, thereby outputting a sound effect such as game music or a golf club hitting ball.

図15−図22を参照して、このようなゴルフゲームシステム10の具体的な全体動作を説明する。図15の最初のステップS55では、ゲームプロセサ52は、ゴルフクラブ型入力装置14の移動位置を検出するためのストロボスコープ撮影を実行する。   With reference to FIGS. 15-22, the concrete whole operation | movement of such a golf game system 10 is demonstrated. In the first step S55 of FIG. 15, the game processor 52 executes stroboscopic photography for detecting the movement position of the golf club type input device.

このストロボスコープ撮影処理の詳細が図16に示される。図16の最初のス67では、ゲームプロセサ52は、内部メモリ(図示せず)の適宜の領域の回数レジスタ(図示せず)の回数Nに「1」を代入する。続くステップS69において、ゲームプロセサ52は、ストロボスコープ撮影のために赤外発光ダイオード42を点灯する。具体的には、図7に示すLEDコントロール信号をハイレベルとする。その後、ステップS71で、画素データ配列の取得処理を実行する。   Details of the stroboscope photographing process are shown in FIG. In the first step 67 of FIG. 16, the game processor 52 assigns “1” to the number N of the number register (not shown) in an appropriate area of the internal memory (not shown). In subsequent step S69, the game processor 52 turns on the infrared light emitting diode 42 for stroboscopic photography. Specifically, the LED control signal shown in FIG. 7 is set to a high level. Thereafter, a pixel data array acquisition process is executed in step S71.

図36の最初のステップS301で、ゲームプロセサ52は画素データ配列の要素番号としてXに「−1」、Yに「0」を設定する。本実施例における画素データ配列は、X=0〜31、Y=0〜31の2次元配列であるが、前述のように各行の先頭ピクセルのデータとしてダミーデータが出力されるので、Xの初期値として「−1」が設定される。続くステップS303では、図17に示す要素[Y][X]の画素データの取得処理を実行する。   In the first step S301 of FIG. 36, the game processor 52 sets “−1” for X and “0” for Y as the element number of the pixel data array. The pixel data array in this embodiment is a two-dimensional array with X = 0 to 31 and Y = 0 to 31, but since dummy data is output as the data of the first pixel in each row as described above, the initial value of X “−1” is set as the value. In a succeeding step S303, the pixel data acquisition process of the element [Y] [X] shown in FIG. 17 is executed.

図17の最初のステップS83で、ゲームプロセサ52は、イメージセンサ40からのフレームステータスフラグ信号をチェックし、ステップS85でその立ち上がりエッジ(ローレベルからハイレベルへの)が発生したかどうか判断する。そして、ステップS85でフラグ信号の立ち上がりエッジを検出すると、次のステップS87において、ゲームプロセサ52は、それの内部のA/Dコンバータに入力されてきたアナログのピクセル信号のディジタルデータへの変換の開始を指示する。その後、ステップS89でイメージセンサ40からのピクセルストローブをチェックし、ステップS91でそのストローブ信号のローレベルからハイレベルへの立ち上がりエッジが発生したかどうか判断する。   In the first step S83 of FIG. 17, the game processor 52 checks the frame status flag signal from the image sensor 40 and determines whether or not the rising edge (from low level to high level) has occurred in step S85. When the rising edge of the flag signal is detected in step S85, in the next step S87, the game processor 52 starts conversion of the analog pixel signal input to the internal A / D converter into digital data. Instruct. Thereafter, the pixel strobe from the image sensor 40 is checked in step S89, and it is determined in step S91 whether a rising edge from the low level to the high level of the strobe signal has occurred.

ステップS91で“YES”が判断されると、ゲームプロセサ52は続いて、ステップS93において、X=−1かどうか、すなわち先頭ピクセルかどうか判断する。先に述べたように、各行の先頭ピクセルはダミーピクセルとして設定されているので、このステップS93で“YES”が判断されると、次のステップS95でそのときのピクセルデータを取得しないで、ステップS97で要素番号Xをインクリメントする。   If “YES” is determined in the step S91, the game processor 52 subsequently determines whether or not X = −1, that is, whether or not it is the first pixel in a step S93. As described above, since the first pixel of each row is set as a dummy pixel, if “YES” is determined in step S93, the pixel data at that time is not acquired in the next step S95. In S97, the element number X is incremented.

ステップS93で“NO”が判断されると、行の第2番目以降のピクセルデータであるので、ステップS99およびS101において、そのときのピクセルデータを取得し、テンポラリレジスタ(図示せず)にそのピクセルデータを格納する。その後、図36のステップS305にリターンする。   If “NO” is determined in step S93, the pixel data is the second and subsequent pixel data in the row. Therefore, the pixel data at that time is acquired in steps S99 and S101, and the pixel is stored in a temporary register (not shown). Store the data. Thereafter, the process returns to step S305 in FIG.

ステップS305では、テンポラリレジスタに格納されたピクセルデータを画素データ配列の要素[Y][X]として格納する。   In step S305, the pixel data stored in the temporary register is stored as elements [Y] [X] of the pixel data array.

続くステップS309でXをインクリメントする。Xが32に満たない場合、前述のS303からS307の処理を繰り返し実行する。Xが32の場合、すなわち画素データの取得が行の終端に到達した場合には、続くステップS311Xに「−1」を設定し、ステップS313でYをインクリメントし、次の行の先頭から画素データの取得処理を繰り返す。   In the subsequent step S309, X is incremented. When X is less than 32, the processes from S303 to S307 are repeated. When X is 32, that is, when the acquisition of pixel data has reached the end of the row, “−1” is set in subsequent step S311X, Y is incremented in step S313, and the pixel data from the beginning of the next row Repeat the acquisition process.

ステップS315でYが32の場合、すなわち画素データの取得が画素データ配列の終端に到達した場合、図16のステップS73にリターンする。   If Y is 32 in step S315, that is, if the acquisition of pixel data has reached the end of the pixel data array, the process returns to step S73 in FIG.

ステップS73では、上記画素データ配列をN回目点灯時取得データとして、たとえば内部RAMのワーキング領域に格納する。   In step S73, the pixel data array is stored as acquired data at the Nth lighting, for example, in a working area of the internal RAM.

続くステップS75で、ゲームプロセサ52は、LEDコントロール信号をローレベルにするなどして、赤外発光ダイオード42を消灯する。その後、ステップS76で、ステップS71と同様にして、図17および図35のサブルーチンに従って、赤外発光ダイオード42が消灯されているときの画素データ配列を取得し、ステップS77においてステップS73と同様にして、内部RAMのワーキング領域に格納する。   In subsequent step S75, the game processor 52 turns off the infrared light emitting diode 42 by setting the LED control signal to a low level, for example. Thereafter, in step S76, in the same manner as in step S71, the pixel data array when the infrared light emitting diode 42 is turned off is obtained according to the subroutines of FIGS. 17 and 35, and in step S77, as in step S73. And stored in the working area of the internal RAM.

そして、ステップS79で回数レジスタNをインクリメントし、ステップS81で回数Nが規定値に達したかどうか判断する。このステップS81で“YES”が判断されると、そのまま、図15のステップS57(注目点抽出処理)にリターンする。ただし“NO”のときには、先のステップS69に戻る。   In step S79, the number register N is incremented. In step S81, it is determined whether the number N has reached a specified value. If “YES” is determined in the step S81, the process returns to the step S57 (attention point extraction process) in FIG. 15 as it is. However, if "NO", the process returns to the previous step S69.

注目点抽出処理の詳細が図18に示される。図18の最初のステップS103では、ゲームプロセサ52は、内部メモリ(図示せず)内の回数レジスタ(図示せず)の回数Nに「1」を代入する。そして、次のステップS105で、図16のステップS73およびS77で得た、点灯時取得データおよび消灯時取得データとの差分から、差分データ配列を算出する。   Details of the attention point extraction processing are shown in FIG. In the first step S103 of FIG. 18, the game processor 52 assigns “1” to the number N of the number register (not shown) in the internal memory (not shown). Then, in the next step S105, a difference data array is calculated from the difference between the on-time acquired data and the off-time acquired data obtained in steps S73 and S77 of FIG.

つまり、この実施例では、前述のように、ゴルフクラブ型入力装置14の反射体50に赤外光を照射し、赤外フィルタを介してイメージセンサ40に入射した反射赤外光による映像を撮影している。一般的な室内環境で一般的な光源を用いてゴルフクラブ型入力装置14をストロボスコープ撮影をした場合には、イメージセンサ(実施例のイメージセンサ40に相当する)には、図19(A)に示すように、反射体による映像以外に、蛍光灯光源、白熱灯光源、太陽光(窓)のような光源だけでなく、室内のすべてのものの画像がすべて写り込む。したがって、この図19(A)の映像を処理して反射体の映像のみを抽出するのは、かなり高速のコンピュータまたはプロセサが必要である。しかしながら、安価が条件のゲーム装置ではそのような高性能コンピュータを使えない。そこで種々の処理を行って負担を軽減することが考えられる。   That is, in this embodiment, as described above, the reflector 50 of the golf club type input device 14 is irradiated with infrared light, and an image is captured by the reflected infrared light incident on the image sensor 40 through the infrared filter. is doing. When the golf club type input device 14 is photographed with a stroboscope using a general light source in a general indoor environment, the image sensor (corresponding to the image sensor 40 of the embodiment) is shown in FIG. As shown in FIG. 4, in addition to the image by the reflector, not only a light source such as a fluorescent light source, an incandescent light source, and sunlight (window), but also all images of everything in the room appear. Therefore, to process only the image of the reflector by processing the image of FIG. 19A requires a fairly high speed computer or processor. However, such a high-performance computer cannot be used in a game device that is inexpensive. Therefore, it is conceivable to reduce the burden by performing various processes.

図19(B)は、図19(A)の映像信号を或る閾値でレベル弁別したときの映像信号である。このようなレベル弁別処理は専用のハードウェア回路でも、ソフトウェア的にでも、実行することができるが、いずれの方法によっても、一定以下の光量の画素データをカットするレベル弁別を実行すると、反射体や光源以外の低輝度画像を除去することができる。この図19(B)の映像では反射体および室内の光源以外の画像の処理を省略でき、したがって、コンピュータの負担を軽減できるが、それでも、光源画像を含む高輝度画像が依然として写り込んでいるので、反射体と他の光源を分別することは難しい。   FIG. 19B is a video signal when the level of the video signal of FIG. 19A is discriminated by a certain threshold value. Such level discrimination processing can be executed either by a dedicated hardware circuit or by software. However, if any method is used to execute level discrimination that cuts pixel data with a light amount below a certain level, a reflector is used. And low luminance images other than the light source can be removed. In the image of FIG. 19B, processing of an image other than the reflector and the light source in the room can be omitted, and thus the burden on the computer can be reduced. However, a high-intensity image including the light source image is still captured. It is difficult to separate the reflector from other light sources.

そこで、実施例では、図3に示したように赤外フィルタ44を利用して、イメージセンサ40に赤外光による画像以外の画像が写らないようにした。それによって、図19(C)に示すように、赤外光を殆ど含まない蛍光灯光源の画像は除去できる。しかしながら、それでもなお太陽光や白熱灯が映像信号中に含まれてしまう。したがって、更なる負担軽減のために、赤外ストロボスコープの点灯時の画素データと消灯時の画素データとの差分を計算することとした。   Therefore, in the embodiment, as shown in FIG. 3, the infrared filter 44 is used to prevent the image sensor 40 from capturing an image other than the infrared image. Thereby, as shown in FIG. 19C, an image of a fluorescent lamp light source that hardly contains infrared light can be removed. However, sunlight and incandescent lamps are still included in the video signal. Therefore, in order to further reduce the burden, the difference between the pixel data when the infrared stroboscope is turned on and the pixel data when the infrared stroboscope is turned off is calculated.

そのため、図19(C)の点灯時の映像信号の画素データと、図19(D)の消灯時の映像信号の画素データとの差分を計算した。すると、図19(E)に示すように、その差分だけの映像が取得できる。この差分データによる映像は、図19(A)と対比すれば明らかなように、ゴルフクラブ型入力装置14の反射体によって得られる画像のみを含むことになる。したがって、ゲームプロセサ52の性能があまり高くなくても、ゴルフクラブ型入力装置14のスイングによる、反射体50すなわちクラブヘッド48(図4)の移動軌跡を取得することができる。   Therefore, the difference between the pixel data of the video signal when turned on in FIG. 19C and the pixel data of the video signal when turned off in FIG. 19D was calculated. Then, as shown in FIG. 19E, an image of only the difference can be acquired. The video based on the difference data includes only the image obtained by the reflector of the golf club type input device 14 as is clear from comparison with FIG. Therefore, even if the performance of the game processor 52 is not so high, the movement locus of the reflector 50, that is, the club head 48 (FIG. 4) due to the swing of the golf club type input device 14 can be acquired.

このような理由で、この実施例では、図18のステップS105において、たとえば図19(E)に示す差分データ配列を算出する。ステップS105で差分データ配列を求めた後、ステップS107で値の最も大きい画素(最大輝度の画素)の座標を取得し、ステップS109で、その座標の画素の輝度が規定値を超えているかどうか判断する。   For this reason, in this embodiment, for example, the difference data array shown in FIG. 19E is calculated in step S105 of FIG. After obtaining the difference data array in step S105, the coordinates of the pixel having the largest value (the pixel having the maximum luminance) are acquired in step S107, and in step S109, it is determined whether the luminance of the pixel at that coordinate exceeds the specified value. To do.

このステップS109で“YES”が判断されると、続くステップS111で、ステップS107で取得した座標の画素に接する画素、さらにはそれに接する画素が上記規定値を超えているかどうかを順次判定し、注目部(実施例でいえば反射体の画像)の直径Φ[N]を計算する。この注目部の直径(または大きさ)を計算するのは、ステップS113で反射体50の高さ(Z座標)を取得するためと、ステップS115でその反射体の中心座標を特定する必要があるからである。   If “YES” is determined in this step S109, in the following step S111, it is sequentially determined whether the pixel in contact with the pixel of the coordinate acquired in step S107 and further the pixel in contact with the pixel exceed the above specified value. The diameter Φ [N] of the part (in the embodiment, the image of the reflector) is calculated. The diameter (or size) of the target portion is calculated in order to acquire the height (Z coordinate) of the reflector 50 in step S113 and to specify the center coordinates of the reflector in step S115. Because.

図3に示すように、この実施例の撮像ユニット28には単焦点の光学系が用いられている。したがって、反射体50と撮像素子、すなわちイメージセンサ40との間の距離が上記光学系の焦点と合致するとき画像の「ぼけ」が最も少なく、直径が最も大きい。これに対して、その合焦距離と反射体−イメージセンサ間距離との乖離が大きいほど、画像そのものが小さくなる。図19(E)および後述の図21の例では、その反射体−イメージセンサ間距離に応じて画像の大きさ(直径)が変化することを示している。このようにして、反射体画像の直径(大きさ)に基づいて、反射体−イメージセンサ間距離すなわち反射体50の高さ(Z座標)を求めることができる。この実施例のゴルフゲームシステムではこのZ座標は使用していないが、必要に応じてこのZ座標を利用することによって、さらに異なるゲーム入力を与えることができる。   As shown in FIG. 3, the imaging unit 28 of this embodiment uses a single-focus optical system. Therefore, when the distance between the reflector 50 and the image sensor, that is, the image sensor 40 matches the focal point of the optical system, the “blur” of the image is the smallest and the diameter is the largest. On the other hand, the larger the difference between the in-focus distance and the reflector-image sensor distance, the smaller the image itself. In the example of FIG. 19E and FIG. 21 described later, the size (diameter) of the image changes depending on the distance between the reflector and the image sensor. Thus, the distance between the reflector and the image sensor, that is, the height (Z coordinate) of the reflector 50 can be obtained based on the diameter (size) of the reflector image. Although the Z coordinate is not used in the golf game system of this embodiment, a different game input can be given by using the Z coordinate as necessary.

このようにして、ステップS113でZ座標を求め、ステップS115で反射体50の中心座標(X,YまたはX,Y,Z)を保存する。   In this way, the Z coordinate is obtained in step S113, and the center coordinate (X, Y or X, Y, Z) of the reflector 50 is stored in step S115.

その後ステップS117で回数レジスタのN値をインクリメントして、ステップS119で回数Nが規定値を超えたかどうか判断する。ステップS119で“YES”が判断されると、そのまま図15のステップS59にリターンする。しかしながら、“NO”が判断されると、先のステップS105に戻って、ステップS105以下の各ステップを繰り返し実行する。   Thereafter, in step S117, the N value of the number register is incremented, and in step S119, it is determined whether the number N has exceeded a specified value. If “YES” is determined in the step S119, the process directly returns to the step S59 in FIG. However, if “NO” is determined, the process returns to the previous step S105 to repeatedly execute the steps after step S105.

なお、ステップS109で“NO”が判断されたとき、つまり、最大輝度の画素の輝度が規定値を超えないと判断されたときには、次のステップS121で規定個数のデータをすべて検索した結果かどうか判断する。ステップS121で“YES”が判断されると、つまり、規定個数の画素をすべて検索したときには、ステップS123で、注目点がないとして検索結果を保存する。ただし、ステップS121で“NO”が判断されたときには、ステップS125で次に輝度の大きな画素の座標データを取得して、ステップS107に戻る。   If “NO” is determined in step S109, that is, if it is determined that the luminance of the pixel having the maximum luminance does not exceed the specified value, whether or not the result is that all the specified number of data are searched in the next step S121. to decide. If “YES” is determined in step S121, that is, if all the prescribed number of pixels have been searched, the search result is stored in step S123 as if there is no attention point. However, if “NO” is determined in the step S121, the coordinate data of the next highest luminance pixel is acquired in a step S125, and the process returns to the step S107.

ステップS57でこのようにして注目点の抽出処理をした後、次のステップS59で、速度ベクトルを計算するなどの動き算出処理を実行する。   After performing the attention point extraction process in this manner in step S57, a motion calculation process such as calculating a velocity vector is executed in the next step S59.

図20がこの動き算出処理の一例である速度ベクトル算出処理の具体例を詳細図示している。図20のステップS127では上で述べたように、回数レジスタNに「1」を代入する。その後、ステップS129では、N回目の注目点座標(PX[N],PY[N]:図21)からN−1回目の注目点座標(PX[N−1],PY[N−1])を減算してN回目の速度ベクトル(VX[N],VY[N])を算出して内部メモリに格納する。   FIG. 20 shows a detailed example of the velocity vector calculation process which is an example of the motion calculation process. In step S127 of FIG. 20, “1” is substituted into the number register N as described above. Thereafter, in step S129, the N-1th point of interest coordinates (PX [N-1], PY [N-1]) from the Nth point of interest coordinates (PX [N], PY [N]: FIG. 21). Is subtracted to calculate the Nth velocity vector (VX [N], VY [N]) and stored in the internal memory.

図21には、直径Φ[1]を有する第1回目の注目領域の画像が示され、この第1回目の注目領域の中心座標は(PX[1],PY[1])で、直径Φ[2]を有する第2回目の注目領域の中心座標は(PX[2],PY[2])である。同様に、第3回目および第4回目の注目領域はそれぞれ直径Φ[3]およびΦ[4]を有し、それらの中心座標は、それぞれ(PX[3],PY[3])および(PX[4],PY[4])で示されている。   FIG. 21 shows an image of a first attention area having a diameter Φ [1]. The center coordinates of the first attention area are (PX [1], PY [1]) and the diameter Φ The center coordinates of the second attention area having [2] are (PX [2], PY [2]). Similarly, the third and fourth attention areas have diameters Φ [3] and Φ [4], respectively, and their center coordinates are (PX [3], PY [3]) and (PX, respectively. [4], PY [4]).

第2回目の注目領域をN回目とした場合、N−1回目のものは第1回目の注目領域である。したがって、ステップS129では、この場合、X方向の速度ベクトルVX[2]は(PX[2]−PX[1])で与えられ、Y方向の速度ベクトルVY[2]は(PY[2]−PY[1])で与えられ。なお、N=1の場合、N−1の座標データはないので、前回の最終結果データを用いるか、あるいはその最終結果データがなければ、規定値を用いて速度ベクトルを計算することになる。   If the second region of interest is the Nth, the N-1th region is the first region of interest. Accordingly, in step S129, in this case, the velocity vector VX [2] in the X direction is given by (PX [2] −PX [1]), and the velocity vector VY [2] in the Y direction is (PY [2] − PY [1]). When N = 1, since there is no coordinate data of N−1, the previous final result data is used, or if there is no final result data, the velocity vector is calculated using the specified value.

なお、図21には、各ストロボ映像の注目点領域(反射体)の画像毎の変化量ΔX,ΔYも併せて図示されている。したがって、必要なら、この変化量を使って変化または変位速度を計算することもできる。   FIG. 21 also shows the amount of change ΔX, ΔY for each image of the target point region (reflector) of each strobe image. Therefore, if necessary, the change or displacement speed can be calculated using this amount of change.

ステップS129で速度ベクトルを計算した後、ステップS131で回数Nをインクリメントし、続くステップS133でNが規定値に達したかどうか判断する。ステップSか133で“NO”なら先のステップS129に戻って、ステップS129を繰り返し実行する。   After calculating the velocity vector in step S129, the number N is incremented in step S131, and it is determined whether or not N has reached the specified value in the subsequent step S133. If “NO” in the step S or 133, the process returns to the previous step S129, and the step S129 is repeatedly executed.

ステップS59の後、次のステップS61で、図22に詳細に示す判定処理を実行する。この判定処理では、ゴルフクラブ型入力装置14をスイングしたかどうかを判定する。図22の最初のステップS135では、Nに「1」を代入し、ついで、ステップS137で、N点目の速度ベクトル(VX[N],VY[N])から速度V[N](スカラー値)を算出する。そして、次のステップS139において、そのようにして算出した速度V[N]が第1の閾値を超えているかどうか判断する。このステップS139で“YES”なら、直ちにステップS141で「スイングは行われた」と判定するとともに、ステップS143で、N点目の速度ベクトルから打球時のゴルフボールの初速度ベクトルを求める。したがって、実施例のゴルフゲームシステムの場合であれば、この初速度ベクトル、風向き、風の強さおよび地形のデータからボールの飛距離を計算することができる。   After step S59, in the next step S61, the determination process shown in detail in FIG. 22 is executed. In this determination process, it is determined whether or not the golf club type input device 14 has been swung. In the first step S135 of FIG. 22, “1” is substituted for N, and then in step S137, the velocity V [N] (scalar value) from the Nth velocity vector (VX [N], VY [N]). ) Is calculated. Then, in the next step S139, it is determined whether or not the speed V [N] thus calculated exceeds the first threshold value. If “YES” in this step S139, it is immediately determined that “swing has been performed” in a step S141, and in step S143, an initial velocity vector of the golf ball at the time of hitting is obtained from the N-th velocity vector. Therefore, in the case of the golf game system of the embodiment, the flight distance of the ball can be calculated from the initial velocity vector, the wind direction, the wind strength, and the terrain data.

ステップS139で“NO”が判断されたとき、つまり、ゴルフクラブのスイングの速度が第1の閾値を下回ったときには、次のステップS145において、N点目とN−1点目とを結ぶ線分が規定の領域と交わっているかどうかを判定する。そして、この判定の結果、ステップS147で“YES”が得られたら、次のステップS149で、今度は、そのN点目の速度(スカラー値)が第2の閾値を超えているかどうか判断する。ただし、第2の閾値は当然第1の閾値より小さい値である。   When “NO” is determined in step S139, that is, when the swing speed of the golf club falls below the first threshold value, in the next step S145, a line segment connecting the Nth point and the N−1th point. Determines whether or not intersects the specified area. If “YES” is obtained in step S147 as a result of this determination, in the next step S149, it is determined whether or not the N-th speed (scalar value) exceeds the second threshold value. However, the second threshold value is naturally smaller than the first threshold value.

ステップS149で“YES”のときには、先のステップS141に進むが、“NO”なら、ステップS147で“NO”のときと同様に、ステップS151に進み、N値をインクリメントする。そして、N>規定値かどうか判断し、“NO”なら先のステップS137に戻ってそれ以降の各ステップを繰り返し実行する。ただし、ステップS153で“NO”が判断されたときには、すなわち、ステップS145の線分が所定の領域と交わることがなく、あるいは交わっていたとしても、速度が所定値より小さい場合には、ステップS155で、結局、「スイングは行われていない」と判定される。   If “YES” in the step S149, the process proceeds to the previous step S141. If “NO”, the process proceeds to a step S151 as in the case of “NO” in a step S147, and the N value is incremented. Then, it is determined whether N> the specified value. If “NO”, the process returns to the previous step S137 and the subsequent steps are repeatedly executed. However, if “NO” is determined in step S153, that is, if the line segment in step S145 does not intersect with the predetermined region or if it intersects, the speed is smaller than the predetermined value, step S155. In the end, it is determined that “the swing is not performed”.

図22の判定処理が終わると、図15のステップS63にリターンするが、このステップS63では、ゲーム等のアプリケーションに応じた処理が行われ」、さらに、ステップS65で処理が終了したかどうか(ゲームの場合であればゲーム終了どうか)判断され、“YES”なら終了する。   When the determination process of FIG. 22 is completed, the process returns to step S63 of FIG. 15. In this step S63, a process according to an application such as a game is performed ”, and whether or not the process is completed in step S65 (game In the case of (1), it is determined whether or not the game is finished), and if “YES”, the process is finished.

なお、上述の実施例では、ゴルフクラブ型入力装置14に円形の反射体50を設けて、その移動軌跡から初速度ベクトルを求め、その初速度ベクトルでゴルフボールが打ち出されたものとして、ボールの飛距離を計算した。つまり、ボールに与えられる回転は無視していた。円形の反射体ではゴルフクラブ型入力装置14の向きを特定することができないからである。そこで、次の実施例では、ゴルフクラブ型入力装置14の向きをも計算することができるようにする。   In the above-described embodiment, it is assumed that the golf club type input device 14 is provided with the circular reflector 50, the initial velocity vector is obtained from the movement locus, and the golf ball is launched with the initial velocity vector. The flight distance was calculated. In other words, the rotation given to the ball was ignored. This is because the orientation of the golf club type input device 14 cannot be specified with a circular reflector. Therefore, in the next embodiment, the orientation of the golf club type input device 14 can also be calculated.

そのために、次の実施例では、図23に示すゴルフクラブ型入力装置14を使う。この実施例では、先の図4のゴルフクラブ型入力装置が円形の反射体を用いていたのに対し、長円形または長手の反射体50Aを用いる。   Therefore, in the next embodiment, a golf club type input device 14 shown in FIG. 23 is used. In this embodiment, the golf club type input device of FIG. 4 used a circular reflector, but an elliptical or longitudinal reflector 50A is used.

そして、図15のステップS55で発光ダイオード42の点灯時および消灯時の各画素データを取得した後、図24で示す注目点抽出処理を実行する。ただし、ステップS157−S163は図18のステップS103−S109と同様である。   Then, after obtaining each pixel data when the light emitting diode 42 is turned on and off in step S55 of FIG. 15, the attention point extraction process shown in FIG. 24 is executed. However, steps S157-S163 are the same as steps S103-S109 in FIG.

そして、次のステップS165において、ステップS161で取得した座標の画素に接する画素、さらにはそれに接する画素が規定値を超えているかどうかを順次判定し、注目部(実施例でいえば反射体の画像)の全画素を抽出する。そして、ステップS166で、注目部の全画素の中から、互いの距離が最も離れた2つの画素Pa(Xa,Ya)およびPb(Xb,Yb)を抽出する。この2点は、図26に示すように、長円形の反射体50Aの長手方向両端位置を示すことになる。長手方向両端以外に、2点間距離が最遠となる点はない。   Then, in the next step S165, it is sequentially determined whether or not the pixel in contact with the pixel of the coordinate acquired in step S161 and further the pixel in contact with the pixel exceed a specified value, and the attention portion (in the embodiment, the image of the reflector) ) Are extracted. In step S166, two pixels Pa (Xa, Ya) and Pb (Xb, Yb) that are most distant from each other are extracted from all the pixels in the target portion. As shown in FIG. 26, these two points indicate both end positions in the longitudinal direction of the oval reflector 50A. There is no point where the distance between two points is farthest apart from both ends in the longitudinal direction.

そして、ステップS167で、2点Pa,Pbの中点座標をN点目の座標(PX[N],PY[N])としてメモリに格納する。そして、ステップS169において、図26に示す、2点Pa,Pb間の傾きを計算して、角度データθ[N]として格納する。ただし、この傾きθ[N]は、ステップS169に示すように、(Xb-Xa)/(Ya-Yb)のアークタンジェントで計算することができる。   In step S167, the midpoint coordinates of the two points Pa and Pb are stored in the memory as the Nth point coordinates (PX [N], PY [N]). In step S169, the inclination between the two points Pa and Pb shown in FIG. 26 is calculated and stored as angle data θ [N]. However, the inclination θ [N] can be calculated with an arc tangent of (Xb−Xa) / (Ya−Yb) as shown in step S169.

このようにして、ゴルフクラブ型入力装置14の撮像素子に対する向きが角度データθ[N]として得られる。   In this way, the orientation of the golf club type input device 14 with respect to the image sensor is obtained as the angle data θ [N].

図24のステップS171−S179は、図18の対応する各ステップS117−S125と同様である。そして、次の判定処理では、図25に示す各ステップを実行するが、図25のステップS181−S189およびS191−S201は、図22の対応するステップS135−S143およびS145−S155と同様である。   Steps S171 to S179 in FIG. 24 are the same as the corresponding steps S117 to S125 in FIG. In the next determination process, the steps shown in FIG. 25 are executed. Steps S181 to S189 and S191 to S201 in FIG. 25 are the same as the corresponding steps S135 to S143 and S145 to S155 in FIG.

図25のステップS203において、図24のステップS169で求めた、N点目の座標およびN−1点目の座標によって、角度θj(図26)を計算する。この角度θjは、ステップS203に示すように、(PY[N]-PY[N−1])/(PX[N]-PX[N−1])のアークタンジェントで計算することができ、ゴルフクラブ型入力装置のスイングの方向を示す。そして、ステップS205において、このステップS205に示す式に従って、ゴルフクラブ型入力装置14のスイングの方向に対するゴルフクラブ型入力装置14の傾きθk(=θ[N]−θj)が算出され、θkより打球時のフック/スライスのパラメータを計算する。このようにして、フック/スライスのパラメータを求めることによって、単純な飛距離だけでなく、球のスピンによる飛翔方向の変化をも加味することができ、実施例のゴルフゲームシステムに一層のリアリティや面白さを与えることができる。   In step S203 of FIG. 25, the angle θj (FIG. 26) is calculated based on the coordinates of the Nth point and the N−1th point obtained in step S169 of FIG. This angle θj can be calculated by an arc tangent of (PY [N] −PY [N−1]) / (PX [N] −PX [N−1]) as shown in step S203. The direction of the swing of the club type input device is shown. In step S205, the inclination θk (= θ [N] −θj) of the golf club type input device 14 with respect to the swing direction of the golf club type input device 14 is calculated according to the equation shown in step S205, and the ball is hit from θk. Calculate hourly hook / slice parameters. In this way, by determining the hook / slice parameters, not only a simple flight distance but also a change in the flight direction due to the spin of the sphere can be taken into account. Interestingness can be given.

図27を参照して、この発明の他の実施例であるボーリングゲームシステム78は、ゲーム機80を含み、このゲーム機80は、図2のシステム10のゲーム機12と同様に、ACアダプタや電池で駆動され、AVケーブル16を通して、テレビジョンモニタ(図示せず)のAV端子(図示せず)に接続される。   Referring to FIG. 27, a bowling game system 78 according to another embodiment of the present invention includes a game machine 80. This game machine 80 is similar to the game machine 12 of the system 10 of FIG. The battery is driven and connected to an AV terminal (not shown) of a television monitor (not shown) through the AV cable 16.

ゲーム機78は、また、ハウジング82を含み、このハウジング82上に電源スイッチ84が設けられるとともに、方向ボタン86ならびに決定キー88およびキャンセルキー90が設けられる。これらのボタンや操作キーは図2の対応のものと同様の機能を持つ。   The game machine 78 also includes a housing 82, a power switch 84 is provided on the housing 82, and a direction button 86, an enter key 88 and a cancel key 90 are provided. These buttons and operation keys have the same functions as the corresponding ones in FIG.

ゲーム機80のハウジング82の一部が切り欠かれ、その部分に可動体92が俯仰方向に回動可能に軸支され、その可動体92の側面には、先に図3を参照して説明した撮像ユニット28が収納され、したがって、可動体92には、先のものと同様のイメージセンサ40が設けられる。そして、可動体92の側面上であってイメージセンサ40の近傍に、このイメージセンサ40と一体的に俯仰される赤外発光ダイオード42が設けられ、ストロボスコーブ撮像手段を構成する。   A portion of the housing 82 of the game machine 80 is cut out, and a movable body 92 is pivotally supported by the portion so as to be rotatable in the elevation direction. The side of the movable body 92 will be described with reference to FIG. Therefore, the movable body 92 is provided with the same image sensor 40 as the previous one. An infrared light-emitting diode 42 that is lifted up and down integrally with the image sensor 40 is provided on the side surface of the movable body 92 and in the vicinity of the image sensor 40, and constitutes a stroboscopic cove imaging means.

可動体92は、実施例の場合、俯仰方向に一定の自由度を有するように支持されている。しかしながら、俯仰方向に代えて、あるいは俯仰方向と併用して、旋回方向に自由度を持つようにされてもよい。つまり、可動体92すなわちイメージセンサ40および赤外発光ダイオード42は、任意の方向に変位可能に設けられる。   In the embodiment, the movable body 92 is supported so as to have a certain degree of freedom in the elevation direction. However, instead of the elevation direction or in combination with the elevation direction, the degree of freedom in the turning direction may be provided. That is, the movable body 92, that is, the image sensor 40 and the infrared light emitting diode 42 are provided so as to be displaceable in an arbitrary direction.

ただし、イメージセンサ40のレンズ(図4に示す凹レンズや凸レンズ)をより広角なレンズとすれば、イメージセンサ40を可動なものにする必要はなく、イメージセンサ40を固定的に取り付けるようにしてもよい。   However, if the lens of the image sensor 40 (concave lens or convex lens shown in FIG. 4) is a wider angle lens, the image sensor 40 does not need to be movable, and the image sensor 40 may be fixedly attached. Good.

ボール型入力装置94は、実際のボーリングゲームと同様に、ユーザの手の3本の指すなわち親指,中指および薬指をそれぞれ挿入する穴94a,94bおよび94c有するとともに、子供が親指以外の任意の1本または複数の指を挿入できる幅広の孔94dをさらに形成している。そして、ストラップ96が設けられていて、ゲームプレイヤは、このストラップ96を自分の腕(上腕または前腕)に装着することによって、安全が図られている。すなわち、ボール型入力装置94がストラップ96によって自分の腕に連結されているので、ゲームプレイヤが誤ってボール型入力装置94を実際のボーリングゲームのように放しても、ボール型入力装置94がどこかに飛んで行き、結果的に自己または他人に当たるなどの事故は起きない。   The ball-type input device 94 has holes 94a, 94b and 94c for inserting three fingers of the user's hand, that is, the thumb, middle finger and ring finger, respectively, as in the actual bowling game. A wide hole 94d into which a book or a plurality of fingers can be inserted is further formed. A strap 96 is provided, and the game player is secured by wearing the strap 96 on his / her arm (upper arm or forearm). That is, since the ball-type input device 94 is connected to his / her arm by the strap 96, the ball-type input device 94 can be located anywhere even if the game player accidentally releases the ball-type input device 94 like an actual bowling game. There will be no accidents such as flying over and hitting yourself or others.

さらに、この実施例のボール型入力装置94は、図28に示すように、透明または半透明の半球状外殻98Aおよび98Bをボスで連結することによってボール型入力装置94のハウジングを形成していて、その外殻98Aおよび98B中に、同様にボスで連結された半球状内殻100Aおよび100Bを固定している。そして、各半球状内殻100Aおよび100Bの表面に反射性シートを貼付することによって反射体を形成している。つまり、内殻が反射体となる。したがって、この実施例では、反射体100とする。   Further, as shown in FIG. 28, the ball-type input device 94 of this embodiment forms a housing of the ball-type input device 94 by connecting transparent or translucent hemispherical outer shells 98A and 98B with bosses. In the outer shells 98A and 98B, hemispherical inner shells 100A and 100B which are similarly connected by bosses are fixed. And a reflector is formed by sticking a reflective sheet on the surface of each hemispherical inner shell 100A and 100B. That is, the inner shell becomes a reflector. Therefore, in this embodiment, the reflector 100 is used.

さらに、この実施例のボーリングゲームシステム78では、先に説明したように、ストロボスコープによってボール型入力装置94の動きを検出し、それによって、図29に示すゲーム画面102上でボーリングボール104の位置を制御する。このゲーム画面102は、ユーザまたはプレイヤの視点から見た投影画像(perspective image) として表示される。すなわち、ゲーム画面102には、ボーリングレーン106およびその奥行き方向位置に配置されるピン108が表示され、そのゲーム画面102上でレーン106上をボーリングボール104が移動し、そのボール104の到達位置や強さに応じて、実際のボーリングゲームと同様に、ピンが倒される。ただし、たとえばボーリングボール104がピン108に当たる直前からそのピン部部を拡大した画像をウィンドウ(図示せず)として画面中央に表示すると、一層大きな臨場感をプレイヤに与えることかできる。   Further, in the bowling game system 78 of this embodiment, as described above, the movement of the ball-type input device 94 is detected by the stroboscope, thereby the position of the bowling ball 104 on the game screen 102 shown in FIG. To control. The game screen 102 is displayed as a projected image viewed from the viewpoint of the user or player. That is, on the game screen 102, a bowling lane 106 and a pin 108 arranged at the position in the depth direction are displayed, and the bowling ball 104 moves on the lane 106 on the game screen 102, and the arrival position of the ball 104, Depending on the strength, the pin is knocked down as in an actual bowling game. However, for example, if an image obtained by enlarging the pin portion immediately before the bowling ball 104 hits the pin 108 is displayed as a window (not shown) in the center of the screen, a greater sense of realism can be given to the player.

なお、プレイヤの投球動作が終了する毎に、図29に示すゲーム画面102と図30に示すスコアシート110とが切り替えて表示される。そして、複数のゲームプレイヤがプレイする場合には、各人のスコアが同時に表示される。図30の例は、4人のゲームプレイヤがボーリングゲームに同時に参加している場合のスコアシートの例を示す。   Each time the player's pitching operation is completed, the game screen 102 shown in FIG. 29 and the score sheet 110 shown in FIG. 30 are switched and displayed. When a plurality of game players play, each person's score is displayed simultaneously. The example of FIG. 30 shows an example of a score sheet when four game players are simultaneously participating in a bowling game.

このボーリングゲームシステム78では、ボール型入力装置94を用いてプレイヤが実空間中で実際に投球動作をしたとき、ゲームプロセサ52(図31)が、赤外発光ダイオード42を間欠的に点灯し、その点灯時および消灯時毎のCMOSイメージセンサ40の画像を解析または処理することによって、ボール型入力装置94の位置を間欠的に検出する。そして、そのボール型入力装置94の位置(座標)に応じてボーリングボール104の動きを制御し、それによって0本のまたは1本以上のピンを倒す。   In this bowling game system 78, when the player actually performs a pitching motion in the real space using the ball type input device 94, the game processor 52 (FIG. 31) intermittently lights the infrared light emitting diode 42, The position of the ball-type input device 94 is intermittently detected by analyzing or processing the image of the CMOS image sensor 40 every time it is turned on and off. Then, the movement of the bowling ball 104 is controlled in accordance with the position (coordinates) of the ball type input device 94, thereby defeating zero or one or more pins.

図31を参照して、ボール型入力装置94は、上述のように、赤外発光ダイオード42の発光に照射され、その赤外光を反射体100で反射する。この反射体100からの反射光がCMOSイメージセンサ40によって撮影され、したがって、CMOSイメージセンサ40からは反射体100の映像信号が出力される。ただし、それ以外の部分は、図5に示すゴルフゲームシステム10の場合と同様である。   Referring to FIG. 31, as described above, ball-type input device 94 is irradiated with the light emitted from infrared light emitting diode 42, and the infrared light is reflected by reflector 100. The reflected light from the reflector 100 is photographed by the CMOS image sensor 40, and thus the video signal of the reflector 100 is output from the CMOS image sensor 40. However, the other parts are the same as those of the golf game system 10 shown in FIG.

ここで、図32を参照して、実施例のボーリングゲームシステム78の概略動作を説明する。図27に示す電源スイッチ84をオンしてゲームスタートとなるが、図31に示すゲームプロセサ52は、まず、ステップS1で初期化処理を実行する。具体的には、システムおよび各変数を初期化する。ただし、初期化の具体的方法は先に述べたとおりである。   Here, with reference to FIG. 32, the general operation of the bowling game system 78 of the embodiment will be described. The power switch 84 shown in FIG. 27 is turned on to start the game. The game processor 52 shown in FIG. 31 first executes initialization processing in step S1. Specifically, the system and each variable are initialized. However, the specific method of initialization is as described above.

そして、図32のステップS1の後、ゲームプロセサ52は、ステップS2で画像信号を更新してモニタ20に表示される画像を更新する。ただし、この表示画像更新は、1フレーム(テレビジョンフレームまたはビデオフレーム)毎に実行される。   Then, after step S1 in FIG. 32, the game processor 52 updates the image displayed on the monitor 20 by updating the image signal in step S2. However, this display image update is executed for each frame (television frame or video frame).

そして、ゲームプロセサ52は、ステート(状態)に応じた処理を実行する。ただし、最初に処理するのは、ゲームモードの選択である。このゲームモード選択では、ユーザないしゲームプレイヤは、図32のステップS3で、図27に示す選択キー86を操作して、1人プレイモードまたは2人プレイモードなどのゲームモードを選択するとともに、ゲームの難易度等を設定する。   And the game processor 52 performs the process according to a state (state). However, the first process is to select a game mode. In this game mode selection, the user or game player operates the selection key 86 shown in FIG. 27 to select a game mode such as a one-player mode or a two-player mode in step S3 in FIG. Set the difficulty level.

実際のボーリングゲームではレーン上にボールを転動させる必要があるが、実施例のボーリングゲームシステム10では、先に述べたように、ボール型入力装置94を用いて投球動作を行う。そこで、ゲームプロセサ52は、ステップS4で投球動作の判定処理を実行し、投球動作が行われたかどうか判定する。そして、投球動作が行われたのであれば、ついでステップS5で、ボール104がレーン106(いずれも図30)上を移動しているとき、ボールの軌道を計算するとともに、ボール104のピン108(図30)への衝突判定処理を実行する。そして、ボール104がレーン106の終端まで到着したときに、ステップS6において、ステップS5でのピン衝突判断処理の結果として、スコア計算および結果判定処理を実行する。   In an actual bowling game, it is necessary to roll the ball on the lane. However, in the bowling game system 10 of the embodiment, as described above, a pitching operation is performed using the ball type input device 94. Therefore, the game processor 52 executes a pitching motion determination process in step S4 to determine whether or not the pitching motion has been performed. If a pitching operation has been performed, then in step S5, when the ball 104 is moving on the lane 106 (both in FIG. 30), the trajectory of the ball is calculated, and the pin 108 ( The collision determination process for FIG. 30) is executed. When the ball 104 reaches the end of the lane 106, in step S6, score calculation and result determination processing are executed as a result of the pin collision determination processing in step S5.

なお、この実施例のボーリングゲームシステム78においても、ストロボスコープによって反射体100を撮影することによって、ゲーム入力とすることは先の実施例と同様である。したがって、先の実施例に比べて図15の判定処理ステップS61が異なるだけである。   In the bowling game system 78 of this embodiment, it is the same as in the previous embodiment that a game input is made by photographing the reflector 100 with a stroboscope. Therefore, the determination processing step S61 of FIG. 15 is different from the previous embodiment.

判定処理ステップが図33に詳細に図示され、それぞれの最初のステップS207はN値を「1」として設定する。そして、ステップS209で、速度ベクトルのY成分(上下方向成分)VY[N](図21)が規定値を超えているかどうか判断する。このステップS209で“YES”の場合には、ステップS211に進み、たとえば内部メモリに形成されたカウンタをインクリメントする。そして、次のステップS213で、そのカウンタのカウント値が規定の定数C(たとえば「3」)になったかどうか判断する。“YES”なら、ステップS215で「投球動作が行われた」と判断し、続くステップS217でN点目のX座標PX[N]を投球位置のX座標とするとともに、ステップS219で、N点目の速度ベクトル(VX[N],VY[N])から投球時のボールの初速度を求める。そして、この初速度に応じてボーリングボールが投げ出されたものとして、ゲーム処理が実行される。   The determination processing steps are illustrated in detail in FIG. 33, and each initial step S207 sets the N value as “1”. In step S209, it is determined whether the Y component (vertical component) VY [N] (FIG. 21) of the velocity vector exceeds a specified value. If “YES” in the step S209, the process proceeds to a step S211 to increment a counter formed in the internal memory, for example. Then, in the next step S213, it is determined whether or not the count value of the counter has reached a specified constant C (for example, “3”). If “YES”, it is determined in step S215 that “the pitching operation has been performed”, and in step S217, the X coordinate PX [N] of the Nth point is set as the X coordinate of the pitching position, and in step S219, the N point The initial velocity of the ball at the time of pitching is obtained from the eye velocity vector (VX [N], VY [N]). Then, the game process is executed on the assumption that the bowling ball has been thrown according to the initial speed.

なお、ステップS209で“NO”が判断されたときには、ステップS221で上述のカウンタをリセットする。したがって、たとえば3回分連続して速度ベクトルのY成分が規定値を超えないと投球動作があったと判断されることはない。これによって、ゲームプレイヤの不所望の動きがゲームに反映されるが防止されている。   If “NO” is determined in the step S209, the above-described counter is reset in a step S221. Therefore, for example, if the Y component of the velocity vector does not exceed a specified value for three consecutive times, it is not determined that there has been a pitching operation. This prevents unwanted movement of the game player from being reflected in the game.

ステップS221の後、ステップS223でN値をインクリメントし、ステップS225でそのNが所定値に達したかどうか判定する。“YES”が判断されると、ステップS227で「投球はまだ行われていない」と判断される。そして、ステップS219の後と同じように、図15のステップS63にリターンする。   After step S221, the N value is incremented in step S223, and it is determined whether or not the N has reached a predetermined value in step S225. If “YES” is determined, it is determined in step S227 that “throwing has not been performed yet”. Then, in the same manner as after step S219, the process returns to step S63 in FIG.

図34はストロボスコープを利用する入力装置の他の実施例を示し、この実施例の入力装置112は、手袋型入力装置である。手袋型入力装置112はゲームプレイヤまたはユーザの左右両手に装着される手袋114Lおよび114Rを含み、この手袋114Lおよび114Rのそれぞれの所定位置(この実施例では先端部分)に再帰反射シートで反射体116Lおよび116Rを設ける。この反射体116Lおよび116Rは、それぞれ、手袋114Lおよび114Rの一部として形成され得るが、手袋114Lおよび114Rの上に貼付するようにしてもよい。   FIG. 34 shows another embodiment of an input device using a stroboscope, and the input device 112 of this embodiment is a glove-type input device. The glove-type input device 112 includes gloves 114L and 114R worn on both the left and right hands of the game player or user. And 116R are provided. The reflectors 116L and 116R may be formed as a part of the gloves 114L and 114R, respectively, but may be attached to the gloves 114L and 114R.

そして、入力信号を与えるためには、ユーザは手袋114Lおよび114Rを両手に装着し、両手をたとえば図27に示すようなゲーム機80の撮影ユニット28(図3)の上で移動させる。そうすると、既に説明した図15のステップS55すなわち図16に従って、反射体116Lおよび116Rがともに、赤外発光ダイオード42によって照射され、または照射されないで、イメージセンサ40によって撮影される。そして、図15のステップS57すなわち図18に従って注目点(この実施例では2つの反射体116があるので2つの注目点がある)を抽出する。その後、図15のステップS59を適用して、動き算出または検出処理を実行する。ただし、図34の手袋型入力装置112を利用する場合には、ステップS59は図35に示すように変形される。   In order to give an input signal, the user puts gloves 114L and 114R on both hands, and moves both hands on the photographing unit 28 (FIG. 3) of the game machine 80 as shown in FIG. Then, according to step S55 of FIG. 15 already described, that is, FIG. 16, the reflectors 116L and 116R are both photographed by the image sensor 40 with or without being illuminated by the infrared light emitting diode 42. Then, in step S57 of FIG. 15, that is, in FIG. 18, a point of interest (in this example, there are two points of interest because there are two reflectors 116) is extracted. Thereafter, step S59 of FIG. 15 is applied to execute motion calculation or detection processing. However, when the glove-type input device 112 of FIG. 34 is used, step S59 is modified as shown in FIG.

図35に示すフロー図では、移動平均を検出または算出することによって入力を得る。詳しく説明すると、最初のステップS207では、回数レジスタNに「規定値−M」を設定する。次いで、ステップS209において、変数ΣX,ΣYにそれぞれ「0」を設定する。   In the flow diagram shown in FIG. 35, input is obtained by detecting or calculating a moving average. More specifically, in the first step S207, “specified value−M” is set in the number register N. Next, in step S209, “0” is set in each of the variables ΣX and ΣY.

そして、ステップS211において、N回目の座標(PX[N],PY[N]:図21)を取得する。ただし、このとき、N<1の場合には、前回までの座標情報から座標データを取得する。次のステップS213で、ステップS209で初期化した変数ΣX,ΣYに、ステップS211で取得した座標をそれぞれ加算し、ΣX,ΣYを更新する。このことを、ステップS215でインクリメントした回数Nが規定値に達したとステップS217で検出されるまで、繰り返し実行される。したがって、ゲームプロセサ52はこの時点でM個の座標を加算した変数ΣX,ΣYを保存している。そして、ステップS219において、ΣX,ΣYを個数Mで除算することによって、移動平均(AX,AY)を算出する。この移動平均AX,AYを使って、ゲームプロセサ52は、たとえばゲーム画面上のプレイヤ操作可能な移動体の位置を変化させる。   In step S211, the Nth coordinate (PX [N], PY [N]: FIG. 21) is acquired. At this time, however, if N <1, coordinate data is acquired from the previous coordinate information. In the next step S213, the coordinates acquired in step S211 are added to the variables ΣX and ΣY initialized in step S209, respectively, and ΣX and ΣY are updated. This is repeatedly executed until it is detected in step S217 that the number of times N incremented in step S215 has reached a specified value. Therefore, the game processor 52 stores the variables ΣX and ΣY obtained by adding M coordinates at this time. In step S219, the moving average (AX, AY) is calculated by dividing ΣX, ΣY by the number M. Using the moving averages AX and AY, the game processor 52 changes the position of the movable body that can be operated by the player on the game screen, for example.

なお、この発明は上で説明した実施例以外に、次のような実施例または変形例が可能である。   In addition to the embodiment described above, the present invention can have the following embodiments or modifications.

たとえば、図2に示す実施例では、ゴルフクラブ型入力装置14を用いて入力を行うが、同様のシステムを用いて、野球のバット型の入力装置かつ/または野球のボール型の入力装置を用いる野球ゲーム装置、卓球のラケット型入力装置を用いる卓球ゲーム、テニスのラケット型入力装置を用いるテニスゲーム等の変形が多数考えられる。   For example, in the embodiment shown in FIG. 2, a golf club type input device 14 is used for input, but a baseball bat type input device and / or a baseball ball type input device is used using a similar system. Many variations such as a baseball game device, a table tennis game using a table tennis racket type input device, and a tennis game using a tennis racket type input device are conceivable.

また、反射体を備える入力装置を下脚部または足首に取り付け、プレイヤの足の位置、速度、運動軌跡のパターンを入力信号として扱うサッカーゲーム装置のような変形も考えられる。   Further, a variation such as a soccer game device in which an input device including a reflector is attached to the lower leg or ankle and the player's foot position, speed, and motion trajectory pattern are handled as input signals is also conceivable.

また、図34に示す手袋型入力装置を用いる実施例については、図35のフローチャートにて算出する移動平均値を入力信号として用いているが、手袋型入力装置の位置、移動速度、移動軌跡を算出し、これらを入力信号として扱う拳闘ゲーム装置、ダンスゲーム装置のような変形が多数考えられる。また、これらの変形例においては、手袋型入力装置の代りに、手首に巻くリストバンド形状の入力装置によっても手袋型入力装置と同様の効果が期待できる。   Further, in the embodiment using the glove-type input device shown in FIG. 34, the moving average value calculated in the flowchart of FIG. 35 is used as the input signal, but the position, moving speed, and movement locus of the glove-type input device are determined. Many variations such as a fighting game apparatus and a dance game apparatus that calculate and handle these as input signals are conceivable. In these modified examples, the same effect as that of the glove-type input device can be expected by using a wristband-shaped input device wound around the wrist instead of the glove-type input device.

また、前述の足に取り付ける入力装置を、図34に示す手袋型入力装置、あるいはリストバンド形状の入力装置と組み合わせて用いることにより、四肢を使うダンスゲーム装置のような変形も多数考えられる。   Further, by using the input device attached to the above-mentioned foot in combination with the glove-type input device shown in FIG. 34 or the wristband-shaped input device, many variations such as a dance game device using limbs are conceivable.

また、図23に示すゴルフクラブ型入力装置14のように、細長い形状の反射体50Aを剣の形状をした入力装置に貼付し、剣の角度、位置、移動速度、移動軌跡を入力信号として扱う剣闘ゲーム装置のような変形も多数考えられる。   Further, like the golf club type input device 14 shown in FIG. 23, an elongated reflector 50A is attached to an input device having a sword shape, and the sword angle, position, moving speed, and moving locus are handled as input signals. Many variations are possible, such as a sword fighting game device.

この発明ではストロボスコープと撮像手段を用いて対象物を撮影し、複数の発光時映像信号と複数の非発光時映像信号とのそれぞれの差に基づいて対象物の位置、大きさ、速度、加速度、運動軌跡パターンの情報の一部または全部を算出する。情報処理装置やエンターテインメント装置は、その情報を用いて情報処理やゲーム,その他のエンターテインメント処理を実行する。   In the present invention, an object is photographed using a stroboscope and an imaging means, and the position, size, speed, and acceleration of the object are determined based on respective differences between a plurality of light emitting video signals and a plurality of non-light emitting video signals. Then, a part or all of the information of the motion trajectory pattern is calculated. The information processing apparatus and the entertainment apparatus execute information processing, games, and other entertainment processes using the information.

ただし、上述の例では1つのゲームプロセサによってすべての情報処理を実行するようにしたが、2以上のプロセサやコンピュータを用いて全体の処理を分担させることも当然できる。   However, in the above example, all the information processing is executed by one game processor, but it is naturally possible to share the entire processing using two or more processors and computers.

10…ゴルフゲームシステム、78…ボーリングゲームシステム、12,80…ゲーム機、14…ゴルフクラブ型入力装置、28…撮影ユニット、40…イメージセンサ、42…赤外発光ダイオード、50,50A,100…反射体、52…ゲームプロセサ、94…ボール型入力装置、112…手袋型入力装置。 DESCRIPTION OF SYMBOLS 10 ... Golf game system, 78 ... Bowling game system, 12, 80 ... Game machine, 14 ... Golf club type input device, 28 ... Shooting unit, 40 ... Image sensor, 42 ... Infrared light emitting diode, 50, 50A, 100 ... Reflector 52 ... Game processor 94 ... Ball type input device 112 112 Glove type input device

Claims (18)

ストロボスコープを使った入力システムを備える情報処理装置であって、
特定の波長領域の光を出力する光源を含むストロボスコープ、
ユニットベース、
前記特定の波長領域の光のみを透過するフィルタ、
前記ストロボスコープの発光時および非発光時に、それぞれ、第1再帰反射体を含む第1対象物を撮影して発光時映像信号および非発光時映像信号を生成する撮像手段、および
前記発光時映像信号と前記非発光時映像信号との差から前記第1再帰反射体に対応する第1注目部を検出して前記第1対象物の位置、大きさ、速度、加速度、運動軌跡パターンの情報の一部または全部を算出する処理手段、を備え、
前記ユニットベースは、
開口を有する支持筒と、
前記開口の下方であって、前記支持筒内に設けられるレンズと、を含み、
前記フィルタは、前記支持筒の前記開口を覆うように配置され、
前記撮像手段は、前記ユニットベース内に、かつ、前記レンズの下方に配置され、
前記光源は、前記第1対象物を照らすように、かつ、前記フィルタの近傍に配置される、情報処理装置。
An information processing apparatus having an input system using a stroboscope,
A stroboscope including a light source that outputs light in a specific wavelength region,
Unit base,
A filter that transmits only light in the specific wavelength region,
An imaging means for photographing a first object including a first retroreflector and generating a light-emitting video signal and a non-light-emitting video signal when the stroboscope emits light and does not emit light, respectively, and the light-emitting video signal And a non-light-emitting video signal to detect a first target portion corresponding to the first retroreflector, and information on the position, size, speed, acceleration, and motion trajectory pattern of the first object. Processing means for calculating a part or all,
The unit base is
A support cylinder having an opening;
A lens provided below the opening and provided in the support cylinder,
The filter is disposed so as to cover the opening of the support cylinder,
The imaging means is disposed in the unit base and below the lens,
The information processing device, wherein the light source is disposed in the vicinity of the filter so as to illuminate the first object.
前記処理手段によって前記差に基づいて算出された前記情報に基づき、画面上の移動体の動きを制御する移動体制御手段をさらに備える請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising: a moving body control unit that controls movement of the moving body on the screen based on the information calculated based on the difference by the processing unit. 前記処理手段は、前記差に基づく前記情報が所定の条件に合致するか否かを判定する判定手段を含み、
前記移動体制御手段は、前記判定手段が前記差に基づく前記情報が前記所定の条件に合致すると判定した場合に、前記画面上の前記移動体に変化を与える、請求項2記載の情報処理装置。
The processing means includes determination means for determining whether the information based on the difference meets a predetermined condition,
The information processing apparatus according to claim 2, wherein the moving body control unit changes the moving body on the screen when the determination unit determines that the information based on the difference matches the predetermined condition. .
前記処理手段は、前記差から前記第1注目部を抽出して、その第1注目部の大きさを示す情報に基づいて、前記第1対象物と前記撮像手段との距離を算出する距離算出手段を含む、請求項1から3のいずれかに記載の情報処理装置。   The processing means extracts the first attention part from the difference, and calculates a distance between the first object and the imaging means based on information indicating the size of the first attention part. The information processing apparatus according to claim 1, comprising means. 前記処理手段は、前記発光時映像信号と前記非発光時映像信号との前記差から前記第1注目部の形状を抽出する解析手段、および
前記第1対象物に対応する前記形状の傾きを示す角度を算出する角度算出手段を含む、請求項1から4のいずれかに記載の情報処理装置。
The processing means indicates an analysis means for extracting a shape of the first target portion from the difference between the video signal at the time of light emission and the video signal at the time of non-light emission, and an inclination of the shape corresponding to the first object. The information processing apparatus according to claim 1, further comprising an angle calculation unit that calculates an angle.
前記解析手段は、前記第1注目部中の所定の2点を抽出するものであり、
前記角度算出手段における前記角度の算出は、前記所定の2点を結ぶ線分と所定の座標軸との角度を算出するものである、請求項5に記載の情報処理装置。
The analyzing means is for extracting two predetermined points in the first target portion;
6. The information processing apparatus according to claim 5, wherein the calculation of the angle by the angle calculation means calculates an angle between a line segment connecting the predetermined two points and a predetermined coordinate axis.
俯仰方向及び/又は旋回方向に回動可能な可動体をさらに備え、
前記撮像手段、前記ユニットベース、及び、前記光源は、前記可動体に収納される、請求項1から6のいずれかに記載の情報処理装置。
It further comprises a movable body that can be rotated in the elevation direction and / or the turning direction,
The information processing apparatus according to claim 1, wherein the imaging unit, the unit base, and the light source are housed in the movable body.
前記第1再帰反射体は、細長い形状を有し、
前記処理手段は、前記差から前記第1注目部を検出して、前記対象物の角度、位置、移動速度、又は、移動軌跡を算出し、
前記情報処理装置は、
前記処理手段が算出した前記第1対象物の角度、位置、移動速度、又は、移動軌跡に基づき、剣闘ゲームを実行する手段をさらに備える請求項1からのいずれかに記載の情報処理装置。
The first retroreflector has an elongated shape;
The processing means detects the first target portion from the difference and calculates an angle, a position, a moving speed, or a moving locus of the object,
The information processing apparatus includes:
Angle of the first object to said processing means to calculate the position, moving speed, or, on the basis of the movement locus information processing apparatus according to any one of claim 1, further comprising means for performing Ken闘game 7 .
前記撮像手段は、前記ストロボスコープの発光時および非発光時の各々において前記第1対象物及び第2再帰反射体を含む第2対象物を撮影して発光時映像信号および非発光時映像信号を生成し、
前記処理手段は、前記発光時映像信号と前記非発光時映像信号との差から前記第1再帰反射体に対応する前記第1注目部及び前記第2再帰反射体に対応する第2注目部を検出して、前記第1対象物及び前記第2対象物のそれぞれの位置、大きさ、速度、加速度、運動軌跡パターンの情報の一部または全部を算出する、請求項1記載の情報処理装置。
The imaging means photographs the second object including the first object and the second retroreflector at the time of light emission and non-light emission of the stroboscope, and outputs a video signal at the time of light emission and a video signal at the time of non-light emission. Generate
The processing means determines the first target portion corresponding to the first retroreflector and the second target portion corresponding to the second retroreflector from the difference between the video signal during light emission and the video signal during non-light emission. The information processing apparatus according to claim 1, wherein the information processing apparatus detects and calculates part or all of information on a position, a size, a speed, an acceleration, and a motion trajectory pattern of each of the first object and the second object.
ストロボスコープを使った入力システムを備える情報処理システムであって、  An information processing system having an input system using a stroboscope,
第1再帰反射体を含む第1対象物、  A first object including a first retroreflector;
特定の波長領域の光を出力する光源を含むストロボスコープ、  A stroboscope including a light source that outputs light in a specific wavelength region,
ユニットベース、  Unit base,
前記特定の波長領域の光のみを透過するフィルタ、  A filter that transmits only light in the specific wavelength region,
前記ストロボスコープの発光時および非発光時に、それぞれ、前記第1対象物を撮影して発光時映像信号および非発光時映像信号を生成する撮像手段、および  Imaging means for photographing the first object and generating a video signal at the time of light emission and a video signal at the time of non-light emission, respectively, at the time of light emission and non-light emission of the strobe scope;
前記発光時映像信号と前記非発光時映像信号との差から前記第1再帰反射体に対応する第1注目部を検出して前記第1対象物の位置、大きさ、速度、加速度、運動軌跡パターンの情報の一部または全部を算出する処理手段、を備え、  The first target portion corresponding to the first retroreflector is detected from the difference between the video signal at the time of light emission and the video signal at the time of non-light emission, and the position, size, speed, acceleration, motion locus of the first object is detected. Processing means for calculating part or all of the pattern information,
前記ユニットベースは、  The unit base is
開口を有する支持筒と、  A support cylinder having an opening;
前記開口の下方であって、前記支持筒内に設けられるレンズと、を含み、  A lens provided below the opening and provided in the support cylinder,
前記フィルタは、前記支持筒の前記開口を覆うように配置され、  The filter is disposed so as to cover the opening of the support cylinder,
前記撮像手段は、前記ユニットベース内に、かつ、前記レンズの下方に配置され、  The imaging means is disposed in the unit base and below the lens,
前記光源は、前記第1対象物を照らすように、かつ、前記フィルタの近傍に配置される、情報処理システム。  The information processing system, wherein the light source is disposed in the vicinity of the filter so as to illuminate the first object.
前記第1対象物には、ストラップが設けられる、請求項10記載の情報処理システムThe information processing system according to claim 10 , wherein the first object is provided with a strap. 前記第1対象物は、バンド形状である、請求項10記載の情報処理システムThe information processing system according to claim 10 , wherein the first object has a band shape. 前記第1対象物は、プレイヤの下脚部又は足首に装着される、請求項10から12のいずれかに記載の情報処理システムWherein the first object is attached to the lower leg or the ankle of the player, the information processing system according to any of claims 10 to 12. 前記第1再帰反射体は、透明又は半透明のハウジング内に設けられる、請求項10から13のいずれかに記載の情報処理システムWherein the first retroreflector is provided a transparent or a translucent housing, the information processing system according to any of claims 10 13. 前記第1対象物は、手袋型である、請求項10記載の情報処理システムThe information processing system according to claim 10 , wherein the first object is a glove type. 第2再帰反射体を含む第2対象物をさらに備え、  A second object including a second retroreflector;
前記撮像手段は、前記ストロボスコープの発光時および非発光時の各々において前記第1対象物及び前記第2対象物を撮影して発光時映像信号および非発光時映像信号を生成し、  The imaging means shoots the first object and the second object at the time of light emission and non-light emission of the stroboscope to generate a light emission video signal and a non-light emission video signal,
前記処理手段は、前記発光時映像信号と前記非発光時映像信号との差から前記第1再帰反射体に対応する前記第1注目部及び前記第2再帰反射体に対応する第2注目部を検出して、前記第1対象物及び前記第2対象物のそれぞれの位置、大きさ、速度、加速度、運動軌跡パターンの情報の一部または全部を算出する、請求項10記載の情報処理システム。  The processing means determines the first target portion corresponding to the first retroreflector and the second target portion corresponding to the second retroreflector from the difference between the video signal during light emission and the video signal during non-light emission. The information processing system according to claim 10, wherein the information processing system detects and calculates part or all of information on a position, a size, a speed, an acceleration, and a motion trajectory pattern of each of the first object and the second object.
前記第1対象物は、プレイヤの手若しくは手首に取り付けられ、又は、手で持たれ、
前記第2対象物は、前記プレイヤの下脚部又は足首に取り付けられる、請求項16記載の情報処理システム
The first object is attached to or held by a player's hand or wrist,
The information processing system according to claim 16 , wherein the second object is attached to a lower leg portion or an ankle of the player.
特定の波長領域の光を出力する光源を含むストロボスコープ、ユニットベース、前記特定の波長領域の光のみを透過するフィルタ、並びに、前記ストロボスコープの発光時および非発光時に、それぞれ、再帰反射体を含む対象物を撮影して発光時映像信号および非発光時映像信号を生成する撮像手段を備え、かつ、前記ユニットベースは、開口を有する支持筒と、前記開口の下方であって、前記支持筒内に設けられるレンズと、を含み、前記フィルタは、前記支持筒の前記開口を覆うように配置され、前記撮像手段は、前記ユニットベース内に、かつ、前記レンズの下方に配置され、前記光源は、前記対象物を照らすように、かつ、前記フィルタの近傍に配置される、マンマシンインターフェースシステムからの入力に応じて、
前記発光時映像信号と前記非発光時映像信号との差から前記再帰反射体に対応する注目部を検出するステップと、
前記注目部の位置、大きさ、速度、加速度、運動軌跡パターンの情報の一部または全部を算出するステップと、をコンピュータに実行させるコンピュータプログラム。
A stroboscope including a light source that outputs light in a specific wavelength region, a unit base, a filter that transmits only light in the specific wavelength region, and a retroreflector when the stroboscope emits light and when it does not emit light, respectively. An imaging means for photographing a target object to generate a video signal for light emission and a video signal for non-light emission; and the unit base includes a support cylinder having an opening, and a lower part of the opening, the support cylinder A lens provided inside the filter, wherein the filter is disposed so as to cover the opening of the support cylinder, and the imaging means is disposed in the unit base and below the lens, and the light source Illuminates the object and in response to input from a man-machine interface system disposed in the vicinity of the filter,
Detecting a target portion corresponding to the retroreflector from a difference between the video signal at the time of light emission and the video signal at the time of non-light emission;
A computer program for causing a computer to execute a step of calculating part or all of information on the position, size, speed, acceleration, and motion trajectory pattern of the target portion.
JP2009219534A 2002-06-27 2009-09-24 Information processing apparatus, information processing system, and computer program provided with input system using stroboscope Expired - Fee Related JP5103657B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009219534A JP5103657B2 (en) 2002-06-27 2009-09-24 Information processing apparatus, information processing system, and computer program provided with input system using stroboscope

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2002187162 2002-06-27
JP2002187162 2002-06-27
JP2009219534A JP5103657B2 (en) 2002-06-27 2009-09-24 Information processing apparatus, information processing system, and computer program provided with input system using stroboscope

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002346052A Division JP5109221B2 (en) 2002-06-27 2002-11-28 Information processing device equipped with an input system using a stroboscope

Publications (2)

Publication Number Publication Date
JP2009297539A JP2009297539A (en) 2009-12-24
JP5103657B2 true JP5103657B2 (en) 2012-12-19

Family

ID=40705498

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2009033400A Pending JP2009103727A (en) 2002-06-27 2009-02-17 Information processor having input system using stroboscope
JP2009219534A Expired - Fee Related JP5103657B2 (en) 2002-06-27 2009-09-24 Information processing apparatus, information processing system, and computer program provided with input system using stroboscope

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2009033400A Pending JP2009103727A (en) 2002-06-27 2009-02-17 Information processor having input system using stroboscope

Country Status (1)

Country Link
JP (2) JP2009103727A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7050872B6 (en) * 2020-09-16 2022-05-06 グリー株式会社 Control method, computer and control program

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0777590B2 (en) * 1991-01-16 1995-08-23 美津濃株式会社 Golf game simulator
JPH0686174A (en) * 1992-08-31 1994-03-25 Nec Corp Infrared image sensor
JPH07154777A (en) * 1993-11-30 1995-06-16 Matsushita Electric Ind Co Ltd Image processor and video telephone system
JP3766981B2 (en) * 1994-04-05 2006-04-19 カシオ計算機株式会社 Image control apparatus and image control method
JP3463379B2 (en) * 1994-10-19 2003-11-05 カシオ計算機株式会社 Image control apparatus and image control method
JPH0981310A (en) * 1995-09-20 1997-03-28 Fine Putsuto Kk Operator position detector and display controller using the position detector
JP3410919B2 (en) * 1997-01-31 2003-05-26 株式会社東芝 Image extraction device
JP4132308B2 (en) * 1998-11-20 2008-08-13 株式会社キーエンス Shape measuring instrument
JP3799858B2 (en) * 1999-02-12 2006-07-19 スズキ株式会社 Shape recognition device
JP2000300839A (en) * 1999-04-16 2000-10-31 Namco Ltd Operation input device and game apparatus
JP2001209487A (en) * 2000-01-25 2001-08-03 Uw:Kk Handwriting communication system, and handwriting input and handwriting display device used for the system
JP2002027315A (en) * 2000-07-07 2002-01-25 Sony Corp Apparatus and method for detecting movement

Also Published As

Publication number Publication date
JP2009103727A (en) 2009-05-14
JP2009297539A (en) 2009-12-24

Similar Documents

Publication Publication Date Title
JP5109221B2 (en) Information processing device equipped with an input system using a stroboscope
KR200335809Y1 (en) Video game apparatus
ES2669869T3 (en) User Tracking Feedback
JP5420824B2 (en) GAME DEVICE AND GAME PROGRAM
EP1970104A1 (en) Training method, training device, and coordination training method
US20040063481A1 (en) Apparatus and a method for more realistic interactive video games on computers or similar devices using visible or invisible light and an input computing device
GB2496521A (en) Computerised musical instrument using motion capture and analysis
JP2010259611A (en) Information processing program and information processor
JP2011067239A (en) Program and device for information processing
WO2018012062A1 (en) Information processing apparatus, information processing method, and program
JPWO2007077851A1 (en) Production method and operation
TWI276452B (en) Game machine
CN113368486B (en) Optical tracker for VR head-mounted equipment and exercise and fitness system
JP3138145U (en) Brain training equipment
JP5103657B2 (en) Information processing apparatus, information processing system, and computer program provided with input system using stroboscope
JP2007152080A (en) Input device, virtual experience method, and entertainment system
JP2005230534A (en) Dress-up game device
JP2011062405A (en) Information processing program and information processing device
JP2001009154A (en) Shooting game device
JP3136549U (en) Slot machine
JP2011078551A (en) Pseudo board game device and computer program
JP3994014B2 (en) game machine
JP2008134991A (en) Input method
JP2000233080A (en) Distinguishing method and device for intension representing configuration of body part, competition evaluating method of computer game using the distinguishing method, and computer comprising the distinguishing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090924

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120911

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees