JP2002233665A - Game system, game method, and variable recording medium - Google Patents
Game system, game method, and variable recording mediumInfo
- Publication number
- JP2002233665A JP2002233665A JP2001372183A JP2001372183A JP2002233665A JP 2002233665 A JP2002233665 A JP 2002233665A JP 2001372183 A JP2001372183 A JP 2001372183A JP 2001372183 A JP2001372183 A JP 2001372183A JP 2002233665 A JP2002233665 A JP 2002233665A
- Authority
- JP
- Japan
- Prior art keywords
- posture
- imaging
- calculating
- target
- game
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、入力操作者の操作
位置に応じて表示画像を変化させるゲーム装置、ゲーム
方法及びゲームを実行させるプログラムが記録された可
読記憶媒体に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a game device for changing a display image in accordance with an operation position of an input operator, a game method, and a readable storage medium storing a program for executing a game.
【0002】[0002]
【従来の技術】従来から、テレビやパソコンのCRT等
の表示装置を利用した家庭用ゲームや業務用ゲームが知
られている。特に、シューティングゲームはガン型コン
トローラを用いて直接的に表示画面のターゲットとなる
オブジェクト画像に向けて狙い、ショットし、ヒットし
たか否かを競うゲームであり、直接コントローラを表示
画面に向けて操作する代表的なゲームである。2. Description of the Related Art Conventionally, home games and arcade games using a display device such as a television or a CRT of a personal computer have been known. In particular, a shooting game is a game in which a gun-type controller is used to aim directly at the target object image on the display screen, shoot, and compete for a hit or not, and operate the controller directly at the display screen. This is a typical game.
【0003】一般的なシューティングゲーム装置の位置
検出方法は、CRT表示画面上を走査する電子走査線の
光をガン型コントローラに設けられた受光素子により光
検出する方法である。例えば、特開昭60−17907
9号公報、特開平4−51987号公報、特開平5−3
22487号公報などが知られている。また、ガン型コ
ントローラをスクリーン上に投影された投影画像に向け
て行うシューティングゲーム装置の従来例として、特開
昭62−32987号公報、特開平5−322487号
公報などが知られている。A general method of detecting the position of a shooting game device is to detect light of an electronic scanning line for scanning on a CRT display screen by a light receiving element provided in a gun-type controller. For example, Japanese Patent Application Laid-Open No. Sho 60-17907
No. 9, JP-A-4-51987, JP-A-5-3
No. 22487 is known. Further, as a conventional example of a shooting game apparatus in which a gun-type controller is aimed at a projected image projected on a screen, Japanese Patent Application Laid-Open Nos. 62-32987 and 5-322487 are known.
【0004】最近、ゲーム機の画像処理の高速化によ
り、リアリティ溢れるCG映像で作られた3次元シュー
ティングゲームを楽しめるようになってきている。例え
ば、特開平6−213595号公報、特開平11−86
038号公報、国際出願WO97/21194号公報な
どがあげられる。[0004] Recently, with the speeding up of image processing of game machines, it has become possible to enjoy a three-dimensional shooting game made of CG images full of reality. For example, JP-A-6-213595, JP-A-11-86
No. 038, international application WO97 / 21194, and the like.
【0005】このゲームはディスプレイ上の仮想的な3
次元空間内に出現する標的オブジェクトをガン型コント
ローラにてショットすることにより、得点を競うもので
ある。仮想3次元空間内に配置されたオブジェクトは、
複数のポリゴンデータで構成されている3次元オブジェ
クトであり、仮想カメラ視点(画像視点とも呼ぶ)によ
って定まる視野座標系に座標変換され表示されている。
3次元空間内に投影された画像に向けシューティングを
行うゲーム装置の代表例として特開平6−213595
号公報について説明する。3次元ゲーム空間に見立てた
宇宙空間を所定のゲームストーリに従って銃装置が取り
付けられた宇宙船にプレーヤーが乗り標的に狙いを定め
て射撃しながら飛行するゲームである。プレーヤーが乗
っている宇宙船の視点は各フレーム毎の情報として予め
記憶されてあり、宇宙空間の景色はこの視点情報に応じ
て投影するというものである。[0005] This game is a virtual game on the display.
The target object appearing in the dimensional space is shot by the gun type controller to compete for points. Objects placed in the virtual three-dimensional space
It is a three-dimensional object composed of a plurality of polygon data, and is displayed after being coordinate-transformed into a visual field coordinate system determined by a virtual camera viewpoint (also referred to as an image viewpoint).
JP-A-6-213595 is a representative example of a game device that shoots at an image projected in a three-dimensional space.
Will be described. This is a game in which a player takes a spacecraft on which a gun device is attached in accordance with a predetermined game story and flies while aiming at and shooting at a target in a space space that is regarded as a three-dimensional game space. The viewpoint of the spacecraft on which the player is riding is stored in advance as information for each frame, and the scenery of outer space is projected according to the viewpoint information.
【0006】3次元の対象オブジェクトの画像視点は、
どの方向を向き、いかなる空間座標を占めるかを任意に
設定され、この仮想視点から見た映像を2次元座標平面
である表示画面に透視射影演算して表示するようにして
いる。The image viewpoint of a three-dimensional target object is
Which direction is occupied and what spatial coordinates are occupied are arbitrarily set, and the image viewed from this virtual viewpoint is displayed by performing a perspective projection operation on a display screen which is a two-dimensional coordinate plane.
【0007】[0007]
【発明が解決しようとする課題】しかしながら、従来の
シューティングゲーム装置、例えば、特開平4−519
87号公報などの座標検出方法は、CRT画面の電子線
走査に基づいた光検出方法であるため、液晶表示画面や
壁面投影表示面などには用いることができないという問
題があった。However, a conventional shooting game apparatus, for example, Japanese Patent Laid-Open No. 4-519 is disclosed.
The coordinate detection method disclosed in Japanese Patent Laid-Open No. 87 is a light detection method based on electron beam scanning of a CRT screen, and thus has a problem that it cannot be used for a liquid crystal display screen or a wall projection display surface.
【0008】また、特開平8−71252号公報の位置
算出方法ではスクリーン面に対して入力操作者はほぼ正
位置にて入力操作する場合のみしか適用できず、算出さ
れる傾きや位置などは定性的な量でしかなく、リアリテ
ィあふれるゲームを楽しむことはできない。Further, the position calculating method disclosed in Japanese Patent Application Laid-Open No. 8-71252 can be applied only when the input operator performs an input operation at a substantially normal position on the screen surface, and the calculated inclination and position are qualitative. It's just a mere amount, and you can't enjoy a game full of reality.
【0009】特開平6−213595号公報、特開平7
−116343号公報などの用いられている操作手段
は、表示画面外で3次元オブジェクト空間の視点変更を
行うことが出来るものの、いずれもその操作視点座標は
予め記憶され、定められている。シューティングゲーム
の例では、操作手段からオブジェクトへの視線方向や傾
きなどは、ガン型コントローラが取り付けられている支
点が撮像視点とし、それを中心として回転角を検出する
センサーが設けられいる。 このようにプレーヤーの入
力操作空間に制限が生じ、操作自由度は低く、表示画面
や対象オブジェクトの視点の移動が画一的となってしま
う。そのためにゲーム展開が単調で面白みや迫力感が欠
けたものとなっていた。さらに、このような従来の装置
は大型化し、手軽に家庭用ゲームとして用いることは出
来ないという問題点があった。JP-A-6-213595, JP-A-7-213
Although operating means such as that disclosed in Japanese Patent Application Laid-Open No. 116343 can change the viewpoint of a three-dimensional object space outside the display screen, the operating viewpoint coordinates are stored and determined in advance. In the example of the shooting game, the fulcrum to which the gun-type controller is attached is used as the imaging viewpoint for the gaze direction and inclination from the operation means to the object, and a sensor is provided for detecting the rotation angle around the fulcrum. As described above, the input operation space of the player is limited, the degree of freedom of operation is low, and the movement of the display screen and the viewpoint of the target object becomes uniform. As a result, the game development was monotonous and lacked fun and power. Further, there is a problem that such a conventional device becomes large and cannot be easily used as a home game.
【0010】本発明の目的は、表示画面上のオブジェク
ト画像に対し操作者が任意の入力操作位置から直接入力
操作を可能とすると同時に入力操作者の位置方向情報を
オブジェクト画像に与えることができ、多様なゲーム展
開を行えるゲーム装置、ゲーム方法及びゲームを実行さ
せるプログラムが記録された可読記憶媒体を提供するこ
とにある。An object of the present invention is to enable an operator to directly perform an input operation on an object image on a display screen from an arbitrary input operation position, and at the same time, to give the input operator position and orientation information to the object image. It is an object of the present invention to provide a readable storage medium storing a game device, a game method, and a program for executing a game, which can perform various game developments.
【0011】[0011]
【課題を解決するための手段】上記課題を解決するため
に、本発明の請求項1に記載のゲーム装置は、前記標的
を平面上にある少なくとも4個の特徴点を含んで撮像す
る撮像手段と、前記撮像手段より得られた撮像画像デー
タに基づいて前記平面に対する撮像面の姿勢パラメータ
を演算する姿勢演算手段とを備え、前記姿勢演算手段に
より得られた姿勢パラメータに基づいて前記標的を変化
させることを特徴とする。According to a first aspect of the present invention, there is provided a game apparatus for imaging a target including at least four feature points on a plane. And posture calculating means for calculating a posture parameter of the imaging plane with respect to the plane based on the captured image data obtained by the imaging means, wherein the target is changed based on the posture parameter obtained by the posture calculating means. It is characterized by making it.
【0012】また、本発明の請求項7に記載の表示画面
上に少なくとも4個の特徴点とともに標的オブジェクト
画像を表示してプレイするゲーム装置は、前記オブジェ
クト画像を前記特徴点を含んで撮像する撮像手段と、前
記撮像手段の撮像面上の画像データに基づいて前記表示
画面に対する撮像面の姿勢パラメータを演算する姿勢演
算手段と、前記姿勢演算手段により得られた姿勢パラメ
ータに基づいて表示画面のオブジェクト画像を変化させ
ることを特徴とする。According to a seventh aspect of the present invention, there is provided a game apparatus for displaying and playing a target object image together with at least four feature points on a display screen, and capturing the object image including the feature points. Imaging means, attitude calculation means for calculating an attitude parameter of the imaging surface with respect to the display screen based on image data on the imaging surface of the imaging means, and a display screen based on the attitude parameters obtained by the attitude calculation means. The object image is changed.
【0013】さらに、本発明の請求項12に記載の表示
画面上に複数の特徴点を含む標的オブジェクト画像を表
示してプレイするゲーム装置は、前記表示画面に表示さ
れた標的オブジェクト画像を少なくとも4個の特徴点を
含んで撮像する撮像手段と、前記撮像手段からの撮像画
像データ上の前記特徴点座標に基づいて被検出位置を演
算する位置演算手段と、前記位置演算手段により演算さ
れた被検出位置の演算結果と予め定められた標的オブジ
ェトの部位座標を比較判断するオブジェクト部位判断手
段と、 前記部位判断手段の結果に基づき表示手段の標
的オブジェクト画像を変化させることを特徴とする。Further, according to a twelfth aspect of the present invention, there is provided a game device for displaying and playing a target object image including a plurality of feature points on a display screen, wherein at least four target object images displayed on the display screen are displayed. Image capturing means for capturing an image including a plurality of feature points; position calculating means for calculating a detected position based on the feature point coordinates on the captured image data from the image capturing means; and image capturing means calculated by the position calculating means. An object part judging means for comparing and judging a calculation result of the detected position with a predetermined part object coordinate, and a target object image on a display means is changed based on a result of the part judging means.
【0014】また、本発明の請求項19に記載の標的を
操作者の姿勢情報に基づいて変化させるゲームを実行さ
せるゲーム方法は、平面上にある少なくとも4個の特徴
点を含む標的を撮像する撮像ステップと、前記撮像ステ
ップより得られた撮像面上の画像データに基づいて前記
平面に対する撮像面の姿勢パラメータを演算する姿勢演
算ステップとを含み、前記姿勢演算ステップにより得ら
れた姿勢パラメータに基づいて標的を変化させることを
特徴とする。According to a nineteenth aspect of the present invention, there is provided a game method for executing a game for changing a target based on the posture information of an operator, wherein a target including at least four feature points on a plane is imaged. An imaging step, and an attitude calculation step of calculating an attitude parameter of the imaging surface with respect to the plane based on the image data on the imaging surface obtained from the imaging step, based on the attitude parameter obtained by the attitude calculation step To change the target.
【0015】さらに、本発明の請求項20に記載の記憶
媒体は、標的を平面上にある少なくとも4個の特徴点を
含んで撮像された画像データに基づいて特徴点を抽出す
る特徴点抽出ステップと、前記特徴点抽出ステップより
抽出された特徴点の座標に基づいて前記所定平面に対す
る撮像面の姿勢演算するステップと、前記姿勢演算ステ
ップにより演算された姿勢パラメータに基づき前記標的
を変化させるステップとを実行させるプログラムが記億
されたことを特徴とする。Further, in the storage medium according to the present invention, a feature point extracting step of extracting a feature point based on image data of a target including at least four feature points located on a plane. And calculating the attitude of the imaging surface with respect to the predetermined plane based on the coordinates of the feature points extracted in the feature point extraction step, and changing the target based on the attitude parameters calculated in the attitude calculation step. Is stored in the program.
【0016】[0016]
【発明の実施の形態】以下、図面を用いて本発明の実施
の形態について説明する。図1は、本発明の実施の形態
に係わるゲーム装置の全体構成を説明するブロック構成
図である。Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram illustrating an overall configuration of a game device according to an embodiment of the present invention.
【0017】ゲーム装置は入力操作手段100と入力操
作手段からの出力信号に応じて画像処理や座標演算を実
行するゲーム装置本体120とそれらの処理結果を表示
する表示手段110とを備えている。 [第1の実施の形態]図2は本実施の形態に係わるゲー
ム装置を説明する概念構成図である。The game apparatus includes an input operation means 100, a game apparatus main body 120 for executing image processing and coordinate calculation according to an output signal from the input operation means, and a display means 110 for displaying the processing results. [First Embodiment] FIG. 2 is a conceptual diagram illustrating a game device according to the present embodiment.
【0018】操作者は入力操作手段であるガン型コント
ローラ100を用いて、スクリーン上に表示されている
標的オブジェクト画像の特定部位(被検出位置ともい
う)Psに向けてシューティングゲームを行っている。
111はプロジェクタ130によりスクリーン上に投影
されている画像である。100はX−Y−Z座標系(画
像座標系と呼ぶ)を有し、X−Y−Z座標系の原点Om
としてX−Y面上に撮像面がある。このX−Y−Z座標
系の3次元空間内にX*ーY*座標系(スクリーン座標系
と呼ぶ)を有するスクリーン平面110が置かれてい
る。Using the gun-type controller 100 as an input operation means, the operator plays a shooting game toward a specific portion (also referred to as a detected position) Ps of the target object image displayed on the screen.
An image 111 is projected on the screen by the projector 130. Reference numeral 100 denotes an XYZ coordinate system (referred to as an image coordinate system), and an origin Om of the XYZ coordinate system.
There is an imaging plane on the XY plane. A screen plane 110 having an X * -Y * coordinate system (referred to as a screen coordinate system) is placed in a three-dimensional space of the XYZ coordinate system.
【0019】まず最初に、本実施の形態に係わるゲーム
装置の各構成について説明する。入力操作手段100
は、撮像手段としてCCDカメラ101、照準手段10
2、距離測定手段103、それにオブジェクトを動作さ
せる各種制御ボタン14とを備えている。 図3は入力
操作手段であるガン型コントローラの構成概略図であ
る。First, each configuration of the game device according to the present embodiment will be described. Input operation means 100
Is a CCD camera 101 as an imaging means, a sighting means 10
2. It has a distance measuring means 103 and various control buttons 14 for operating the object. FIG. 3 is a schematic configuration diagram of a gun-type controller as an input operation means.
【0020】撮像手段101は表示画面上の被検出位置
を検出するCCD撮像面を有するカメラを用いている。
距離測定手段103は表示画面から撮像手段に設けられ
ている撮像面までの距離測定する。距離測定は公知技術
によって行われる。例えば、CCDカメラレンズにオー
トフォーカシング機構が設けてあれば、そのフォーカス
量を用いることができる。また、レーザー測距装置を設
けてもよい。The image pickup means 101 uses a camera having a CCD image pickup surface for detecting a position to be detected on the display screen.
The distance measuring means 103 measures the distance from the display screen to the imaging surface provided on the imaging means. The distance measurement is performed by a known technique. For example, if the CCD camera lens is provided with an auto-focusing mechanism, the focus amount can be used. Further, a laser distance measuring device may be provided.
【0021】照準手段102は操作者が表示画面上の被
検出位置を定めるためのものであり、例えば、十字線が
刻まれたファインダー、視認性のレーザーなどが設けら
れている。 図4及び図5は図3の入力操作手段の光学
系配置図であり、図4は照準装置としてファインダー1
02Aを用いた例であり、図5は視認性レーザー120
Bを用いた例である。いずれの図においても照準位置
は、CCDカメラレンズの光軸(撮像面の中心)にほぼ
一致させてある。 本実施例では照準位置とレンズの光
軸とは一致させたが必ずしも一致させる必要はない。図
4及び図5の詳細な説明は省略する。The aiming means 102 is used by an operator to determine a position to be detected on the display screen, and is provided with, for example, a finder having a crosshair, a laser with visibility, and the like. 4 and 5 are arrangement diagrams of the optical system of the input operation means of FIG. 3, and FIG. 4 shows a viewfinder 1 as an aiming device.
FIG. 5 shows the visibility laser 120.
This is an example using B. In each of the figures, the aiming position is substantially coincident with the optical axis (center of the imaging surface) of the CCD camera lens. In this embodiment, the aiming position and the optical axis of the lens are matched, but it is not always necessary to match. A detailed description of FIGS. 4 and 5 is omitted.
【0022】操作者が照準位置を表示画面上の所望の被
検出位置に合わせて、入力操作手段に設けられた撮像手
段101のスイッチをオンすることによって撮像画像デ
ータを取込まれ、その画像データに基づいて被検出位置
の座標を検出するようになっている。すなわち、操作者
は表示画面上に向かって投影されたオブジェクト画像を
直接制御することができる。When the operator sets the aiming position to a desired position to be detected on the display screen and turns on the switch of the imaging means 101 provided in the input operation means, the captured image data is captured. Is used to detect the coordinates of the detected position. That is, the operator can directly control the object image projected onto the display screen.
【0023】さらに、入力操作手段100には、ゲーム
進行に必要なオブジェクト画像を上下左右に移動させた
り、ジャンプさせたりする各種オブジェクト動作制御ボ
タン14,15が設けられている。図1に戻って、入出
力インターフェイス3は、入力操作手段からの出力信号
をA/D変換し、一時的に記憶できるフレームメモリを
持っている。また、入力操作手段から各種オブジェクト
を動作させる制御信号をゲーム装置本体120へ出力す
る。また、画像処理結果に伴う音声信号や操作手段を把
持している手に振動を与える制御信号などは、この入出
力インターフェイスを介して信号をやり取りが行われ
る。Further, the input operation means 100 is provided with various object operation control buttons 14 and 15 for moving an object image required for the progress of the game up and down, left and right, and jumping. Returning to FIG. 1, the input / output interface 3 has a frame memory capable of A / D converting an output signal from the input operation means and temporarily storing the signal. Further, a control signal for operating various objects is output to the game apparatus main body 120 from the input operation means. In addition, a voice signal accompanying a result of the image processing, a control signal for giving a vibration to a hand holding the operation means, and the like are exchanged via the input / output interface.
【0024】CPU4はROMを備えており、オペレー
ションシステム(OS)や各種制御プログラムが格納さ
れている。外部記憶媒体20は、ゲームのための各種プ
ログラムが記憶されており、例えばCD−ROM、DV
Dなどがある。記憶媒体20には、本実施の形態に係わ
るゲームを実行させるための方法が記録され、ゲーム装
置本体120やコンピュータなどにより読みとり可能と
なっている。The CPU 4 has a ROM and stores an operation system (OS) and various control programs. The external storage medium 20 stores various programs for games, such as a CD-ROM and a DV.
D and the like. The storage medium 20 stores a method for executing the game according to the present embodiment, and is readable by the game apparatus main body 120, a computer, and the like.
【0025】特徴点抽出手段51は、矩形形状を特徴付
けるマーク画像を抽出するために輝度または色が異なる
2つの撮像画像に基づいて、その差分画像を得るための
差分処理手段511、二値化処理手段512等のマーク
を抽出するための一連の処理を行う。The feature point extracting means 51 includes a difference processing means 511 for obtaining a difference image based on two picked-up images having different luminances or colors in order to extract a mark image characterizing a rectangular shape. A series of processes for extracting a mark such as the means 512 are performed.
【0026】特徴点特定手段513は、得られた2枚の
撮像画像データからマーカが抽出処理され、撮像面(画
像座標系)上の少なくとも4個のマークの重心座標を特
定する。撮像されたマーク画像が4個以上ある場合に
は、次の姿勢演算に用いる4個のマークの特定も行う。The feature point specifying means 513 extracts markers from the obtained two pieces of captured image data, and specifies the barycentric coordinates of at least four marks on the image capturing surface (image coordinate system). If there are four or more captured mark images, the specification of the four marks used for the next posture calculation is also performed.
【0027】位置演算手段52は、平面姿勢演算手段5
21と被検出位置を演算する座標演算手段522とから
構成され、入力操作手段により得られた画像データに基
づき、視野画面における被検出位置の座標を演算する。
姿勢演算手段521は、特定された4個のマーカ座標位
置に基づいて、入力操作手段の撮像面の撮像視点を原点
とするX−Y−Z座標系におけるスクリーン平面の位置
姿勢、撮像面の回転角、仰角、水平角などのパラメータ
β、γ、ψを演算する。The position calculating means 52 includes a plane attitude calculating means 5
21 and coordinate calculating means 522 for calculating the detected position, and calculates the coordinates of the detected position on the visual field screen based on the image data obtained by the input operation means.
The attitude calculation means 521 is based on the identified four marker coordinate positions, and the position and attitude of the screen plane in the XYZ coordinate system with the origin being the imaging viewpoint of the imaging surface of the input operation means, and the rotation of the imaging plane. Calculate parameters β, γ, and の, such as angle, elevation, and horizontal angle.
【0028】被検出位置座標演算手段522は、平面姿
勢演算手段結果得られた姿勢パラメータγまたはψのい
ずれか1つを用いて、狙った表示画面中の標的オブジェ
クトの特定部位(被検出位置)の座標Psを演算する。
スクリーン平面の姿勢パラメータ及び被検出位置の座標
演算処理については、後で詳細に説明する。The detected position coordinate calculation means 522 uses one of the posture parameters γ or ψ obtained as a result of the plane posture calculation means to specify a specific portion (detected position) of the target object in the target display screen. Is calculated.
The coordinate calculation processing of the posture parameter of the screen plane and the detected position will be described later in detail.
【0029】入力操作位置特定手段7は、スクリーン平
面の姿勢演算手段521から算出された撮像視点に対す
る表示平面の姿勢パラメータとして回転α、仰角γ及び
水平角ψと被検出位置座標演算手段62から算出された
スクリーン上の被検出位置の座標値Psと入力手段に設
けられている距離測定手段102から算出されたスクリ
ーン上の被検出位置から入力操作位置までの距離Lなど
の入力操作パラメータに基づいて、スクリーンに対する
入力操作手段の位置を演算し、特定する処理を行う。The input operation position specifying means 7 calculates the rotation α, the elevation angle γ, and the horizontal angle と し て as the posture parameters of the display plane with respect to the imaging viewpoint calculated by the screen plane posture calculating means 521 and the detected position coordinate calculating means 62. Based on the input coordinate values Ps of the detected position on the screen and the distance L from the detected position on the screen to the input operation position calculated by the distance measuring means 102 provided on the input means. , The position of the input operation means with respect to the screen is calculated and specified.
【0030】対象オブジェクト部位判断手段8は、位置
演算処理結果に基づいて複数の種々のオブジェクトの中
から対象オブジェクトを特定すると共に対象オブジェク
トのどの部位に位置しているかを判断処理する。画像合
成手段9ではゲーム空間内の各種オブジェクトの座標位
置が決定された後、対象オブジェクト画像と背景オブジ
ェクト画像とを合成し、表示手段に表示する。The target object region judging means 8 specifies the target object from among a plurality of various objects based on the result of the position calculation process, and judges which position of the target object is located. After the coordinate positions of various objects in the game space are determined in the image combining means 9, the target object image and the background object image are combined and displayed on the display means.
【0031】画像合成手段9はヒットした標的オブジェ
クトの特定部位に対応したオブジェクト動作モードが記
憶されているオブジェクト画像記憶手段91とオブジェ
クト画像記憶手段から選択されたオブジェクト動作モー
ド画像を入力操作パラメータに応じた画像視点(仮想カ
メラ視点)に基づいて3次元透視変換演算を行う座標演
算手段92と変換されたスクリーン座標系のデータに背
景データを貼り付けフレームバッファに出力する描画手
段93とから構成される。The image synthesizing means 9 stores the object operation mode image selected from the object image storage means 91 and the object operation mode image corresponding to the specific part of the hit target object in accordance with the input operation parameter. And a drawing unit 93 that pastes background data on the converted screen coordinate system data and outputs the data to a frame buffer. .
【0032】ここで、画像視点とは仮想カメラ視点とも
いい、コンピュータグラフィックを描くときに表示画面
に表示する画像の視野方向を決める仮想的な視点であ
る。この視点の設定は、位置光軸方向(視野方向)、画
角、光軸回りの回転などにより決められる。Here, the image viewpoint is also referred to as a virtual camera viewpoint, and is a virtual viewpoint that determines the viewing direction of an image displayed on a display screen when drawing computer graphics. The setting of this viewpoint is determined by the position optical axis direction (viewing direction), the angle of view, the rotation around the optical axis, and the like.
【0033】オブジェクト画像記憶手段92は、オブジ
ェクト動作モードデータが記憶されている。オブジェク
ト動作モードデータは、予め画面に対するいくつかの視
軸方向に大別して記憶されている。例えば、画面サイズ
に対する仰角γ、水平角のψ設定領域に応じ動作モード
を9つに分類しておくようにする。The object image storage means 92 stores object operation mode data. The object operation mode data is roughly stored in advance in some visual axis directions with respect to the screen. For example, the operation modes are classified into nine according to the elevation angle γ with respect to the screen size and the ψ setting area of the horizontal angle.
【0034】F1(γ2,ψ2)、F2(γ2,ψ1)、F3
(γ2,ψ3)F4(γ1,ψ2)、F5(γ1,ψ1)、F6
(γ1,ψ3)、F7(γ3,ψ1)、F8(γ3,ψ2)、F
9(γ3,ψ3) ここで、γ1、γ2、γ3、ψ2、ψ1 、ψ2 、ψ3の値
は、次の範囲にあるとした。F1 (γ2, ψ2), F2 (γ2, ψ1), F3
(Γ2, ψ3) F4 (γ1, ψ2), F5 (γ1, ψ1), F6
(Γ1, ψ3), F7 (γ3, ψ1), F8 (γ3, ψ2), F
9 (γ3, ψ3) Here, the values of γ1, γ2, γ3, ψ2, ψ1, ψ2, and ψ3 are assumed to be in the following range.
【0035】 仰角:γ2<−5度、−5度≦γ1≦5度、5度<γ3 水平角:ψ2<−20度、−20度≦ψ1≦20度、20
度<ψ3 描画手段9は対象オブジェクト、背景オブジェクトなど
のオブジェクトをオブジェクト空間に設定する処理を行
う。例えば、ゲーム進行に伴い対象オブジェクトを入力
操作者の視野内に出現させたり、移動させたりする描画
処理を行う。Elevation angle: γ2 <−5 degrees, −5 degrees ≦ γ1 ≦ 5 degrees, 5 degrees <γ3 Horizontal angle: ψ2 <−20 degrees, −20 degrees ≦ ψ1 ≦ 20 degrees, 20
Degree <$ 3 The drawing means 9 performs a process of setting objects such as a target object and a background object in the object space. For example, a drawing process is performed in which the target object appears or moves within the visual field of the input operator as the game progresses.
【0036】フレームメモリ94に一時的に記憶された
対象オブジェクト及び背景オブジェクトなどの画面とス
クロール画面とが合成され、最終的なフレーム画像デー
タとして生成され、プロジェクタ130によりスクリー
ン110に表示される。次に、本実施の形態に係わるゲ
ーム装置の動作の説明を、具体的なシューティングゲー
ムに適用した例に基づいて説明する。The screen such as the target object and the background object temporarily stored in the frame memory 94 is combined with the scroll screen, generated as final frame image data, and displayed on the screen 110 by the projector 130. Next, the operation of the game device according to the present embodiment will be described based on an example applied to a specific shooting game.
【0037】図6は本発明の実施の形態であるシューテ
ィングゲームの基本動作のフローチャートである。ステ
ップS101は入力操作手段であるガン型コントローラ
によりスクリーン上の標的オブジェクト画像の特定部位
を狙い、引き金を引く操作である。これはトリガスイッ
チをオンすることにより撮像手段のシャッターオン動作
である。S102はスイッチがオンされたらば、撮像手
段の撮像画像を取り込む動作処理である。オンされた後
はステップS103に進み、オンされなければシューテ
ィング動作は初期状態に戻る。FIG. 6 is a flowchart of the basic operation of the shooting game according to the embodiment of the present invention. Step S101 is an operation of aiming at a specific portion of the target object image on the screen by the gun-type controller as an input operation means and triggering. This is a shutter-on operation of the imaging unit by turning on the trigger switch. S102 is an operation process for capturing an image captured by the imaging unit when the switch is turned on. After being turned on, the process proceeds to step S103, and if not turned on, the shooting operation returns to the initial state.
【0038】ステップS103は撮像画像データに基づ
いて、表示画面上の特徴点であるマーク画像を少なくと
も4個抽出し、撮像画像上の特徴点の座標を特定する処
理である。スクリーンに表示された予め決められた位置
に設けられた4個のマーカ画像を撮像する。 差分画像
処理を行うためスクリーンに表示された表示色の異なる
2フレームのマーカ画像が時系列的に取り込まれるよう
になっている。Step S103 is a process of extracting at least four mark images, which are characteristic points on the display screen, based on the captured image data, and specifying the coordinates of the characteristic points on the captured image. The four marker images provided at predetermined positions displayed on the screen are captured. In order to perform the difference image processing, marker images of two frames with different display colors displayed on the screen are taken in time series.
【0039】また、本実施の形態の別法として、全体の
輝度の異なる2枚の画像の差分画像をとるようにしても
よい。この場合、矩形形状を特徴付ける特徴点として表
示画像中全表示画像の4隅または4辺となり、ゲーム装
置本体に輝度変更手段を設け、スクリーン上に輝度の異
なる2種類の表示画像を供給するようにする。例えば、
撮像手段のシャッターと同期させ、1度シャッターをオ
ンした時(トリガ信号オン時)所定の時間間隔にて2回
撮像する。2回撮像したうちの1回はコンピュータから
の投影された原画像を撮像し、2回目の撮像画像では原
画像の輝度に対して±40%位輝度を変えた表示画像を
撮像シャッターと同期させて撮像する。この1回目に撮
像した画像と2回目に撮像した画像との差分画像をとる
ことになる。As another method of this embodiment, a difference image of two images having different overall luminances may be obtained. In this case, four corners or four sides of all the display images in the display image are set as characteristic points characterizing the rectangular shape, and the game device main body is provided with a luminance changing unit so that two types of display images having different luminances are supplied on the screen. I do. For example,
In synchronization with the shutter of the imaging means, when the shutter is turned on once (when the trigger signal is turned on), images are taken twice at a predetermined time interval. One of the two shots captures the original image projected from the computer, and in the second captured image, synchronizes the display image whose luminance is changed by about ± 40% with respect to the luminance of the original image with the imaging shutter. Image. The difference image between the image captured at the first time and the image captured at the second time is obtained.
【0040】ステップS104は、ステップS103で
画像座標系において特定された複数の特徴点の座標、す
なわちマーカ座標の値に基づいて、撮像面に対するスク
リーン平面の姿勢演算処理を行う。演算される3つの姿
勢パラメータは、X軸回りのψ、Y軸回りのγ、Z軸回
りのα又はβである。本実施の形態では撮像面上でのX
−Y−Z座標系を用いて表現している。In step S104, the posture of the screen plane with respect to the imaging plane is calculated based on the coordinates of the plurality of feature points specified in the image coordinate system in step S103, that is, the values of the marker coordinates. The three attitude parameters calculated are ψ around the X axis, γ around the Y axis, and α or β around the Z axis. In the present embodiment, X on the imaging surface
-Expressed using a YZ coordinate system.
【0041】ステップS105は、ステップS104で
得られた姿勢パラメータα、ψ、γに基づいて、スクリ
ーン上の被検出位置の座標Psを演算処理する。なお、
ステップS104〜ステップS105についての処理動
作の詳細な説明は後述する。In step S105, coordinates Ps of the detected position on the screen are calculated based on the posture parameters α, ψ, and γ obtained in step S104. In addition,
A detailed description of the processing operation in steps S104 to S105 will be described later.
【0042】ステップS106はステップS105にて
被検出位置が、標的オブジェクトのどの部位にヒットし
たか否かを判断する処理である。ヒットしたと判断され
れば次のステップに進み、ヒットしなければゲームスト
ーリーに従って進行する。ステップS107は、ヒット
した標的オブジェクトの特定部位または標的オブジェク
トに関連づけられた対象オブジェクトのオブジェクト動
作モードデータを予め記憶されていたオブジェクト動作
記憶手段から選択する処理である。予め記憶されている
オブジェクトが複数のポリゴンデータから構成されてい
る3次元オブジェクトである場合には、オブジェクトの
仮想カメラ視点を操作者の位置や姿勢に応じて任意の位
置に切り替えるようにすることができる。Step S106 is a process for judging in which part of the target object the detected position has been hit in step S105. If it is determined that there is a hit, the process proceeds to the next step, and if it is not hit, the process proceeds according to the game story. Step S107 is a process of selecting object operation mode data of a specific portion of the hit target object or a target object associated with the target object from object operation storage means stored in advance. When the object stored in advance is a three-dimensional object composed of a plurality of polygon data, the viewpoint of the virtual camera of the object may be switched to an arbitrary position according to the position and posture of the operator. it can.
【0043】次のステップS108は、距離測定手段か
らのスクリーンから入力操作手段の撮像面まで距離デー
タLが得るステップである。ステップS109では、姿
勢パラメータ及び距離データに基づいてスクリーン面に
対する操作者の方向・位置を演算するステップである。The next step S108 is a step of obtaining distance data L from the screen from the distance measuring means to the imaging surface of the input operation means. In step S109, the direction and position of the operator with respect to the screen surface are calculated based on the posture parameters and the distance data.
【0044】具体的には姿勢情報は、操作位置でのカメ
ラ視点(撮像視点)を原点とし、カメラの視軸方向(レ
ンズ光軸)をZ軸とした画像座標系とした時の画像座標
面内の回転角度α、Y軸回りの角度ψ、X軸回りの角度
γの3つの姿勢パラメータである。距離情報はスクリー
ン上の被検出位置から操作者が把持している撮像面まで
の距離である。姿勢情報と距離情報とから正確に操作者
の位置を決めることができるが、姿勢情報だけであって
も視軸方向は特定できるのでステップS108の処理は
なくてもよい。More specifically, the posture information is based on the image coordinate plane when the camera viewpoint (imaging viewpoint) at the operation position is set as the origin, and the visual axis direction (lens optical axis) of the camera is set as the Z axis. , Three angles of rotation, α around the Y axis, and γ around the X axis. The distance information is the distance from the detected position on the screen to the imaging surface held by the operator. Although the position of the operator can be accurately determined from the posture information and the distance information, the visual axis direction can be specified by using only the posture information, and thus the processing in step S108 may be omitted.
【0045】操作者の位置は、操作者が対象オブジェク
トを視準方向に合わせ撮像画像取込動作した時にのみ、
演算され得られた姿勢パラメータから入力操作手段の操
作位置にある撮像面の光軸方向、すなわち視軸方向を特
定することができる。この視軸方向は図1の狙った方向
101(破線図示)である。The position of the operator is determined only when the operator performs the capturing operation of the captured image by aligning the target object with the collimating direction.
The optical axis direction of the imaging surface at the operation position of the input operation means, that is, the visual axis direction can be specified from the calculated posture parameters. This visual axis direction is a target direction 101 (shown by a broken line) in FIG.
【0046】ステップS110は、これら処理された結
果に基づいて、対象オブジェクトをスクリーン上に表示
処理するステップである。例えば、ステップS107で
選択されたオブジェクト動作モードを入力操作位置に応
じて選択し、オブジェクト動作モードのオブジェクトの
画像視点G0を撮像視点(操作視点)P1に一致させて
透視射影演算処理して表示することができる。また、距
離情報を得ることが出来るればこの情報を用いて操作者
がプレーに伴ってオブジェクト画像を遠近感を増大させ
て表示画面に表示させることができるので、姿勢情報と
複合させてオブジェクト画像を様々な変化させ表示させ
ることによりゲーム演出効果の増大が図ることができ
る。、図7及び図8は、スクリーンに表示されている3
次元オブジェクト画像に対して操作位置P1から被検出
位置Psにショットしたときの画像視点G0と操作位置
(撮像視点)P1との関係を説明する図である。図7及
び図8ともに上図は対象オブジェクトを仮想3次元空間
の平面図である。下図はスクリーン面に表示された画像
をその法線方向から眺めた図である。図7は、スクリー
ン平面に対してオブジェクト画像が操作者とは関連なく
表示された図である。図8は3次元オブジェクト画像の
画像視点G0を操作位置P1の位置と一致させた場合であ
る。この図では撮像視点を透視点として仮想3次元空間
内のオブジェクト画像を透視射影表示させた図を示し
た。Step S110 is a step of displaying the target object on the screen based on the result of the processing. For example, the object operation mode selected in step S107 is selected according to the input operation position, and the image viewpoint G0 of the object in the object operation mode is made to correspond to the imaging viewpoint (operation viewpoint) P1 and displayed by perspective projection calculation processing. be able to. In addition, if distance information can be obtained, the operator can use the information to display the object image on the display screen while increasing the perspective in accordance with the play. Can be varied and displayed to increase the game effect. , FIG. 7 and FIG.
FIG. 4 is a diagram illustrating a relationship between an image viewpoint G0 and an operation position (imaging viewpoint) P1 when a shot is taken from the operation position P1 to the detected position Ps with respect to the dimensional object image. 7 and 8 are plan views of the target object in a virtual three-dimensional space. The figure below shows the image displayed on the screen viewed from the normal direction. FIG. 7 is a diagram in which an object image is displayed on the screen plane irrespective of the operator. FIG. 8 shows a case where the image viewpoint G0 of the three-dimensional object image is matched with the position of the operation position P1. This figure shows a perspective projection display of an object image in a virtual three-dimensional space with the imaging viewpoint as a perspective viewpoint.
【0047】ここでは図はわかりやすく説明するために
仮想3次元空間におかれた対象オブジェクトは静的画像
としたが、一般的には対象オブジェクトはショット動作
後に動作する動的画像である。以上の処理により、従来
にはないリアリティ溢れるゲーム演出効果が得られる。In this case, the target object placed in the virtual three-dimensional space is a static image for the sake of simplicity, but the target object is generally a dynamic image that operates after a shot operation. Through the above processing, a game effect that is full of reality that has not been achieved in the past can be obtained.
【0048】次に、ステップS104の表示平面の姿勢
演算処理、ステップS105の被検出位置となる標的オ
ブジェクト特定部位の座標演算処理の動作について説明
する。特徴点抽出手段51により表示画像中の4個のマ
ーカ画像を抽出し、各マーカの座標位置を特定された
後、この座標位置に基づいてスクリーンに対する入力操
作手段に設けられた撮像面の姿勢パラメータを演算し、
被検出位置の座標を演算する。Next, the operation of the display plane attitude calculation processing in step S104 and the coordinate calculation processing of the target object specific portion to be detected in step S105 will be described. After the four marker images in the display image are extracted by the feature point extracting means 51 and the coordinate position of each marker is specified, the posture parameter of the imaging surface provided in the input operation means for the screen is determined based on the coordinate positions. , And
The coordinates of the detected position are calculated.
【0049】図9は抽出された4個の特徴点の座標値か
ら被検出位置を演算処理するフローチャートである。 (a1)姿勢演算処理 図10は、入力操作者が任意の位置から撮像手段をスク
リーンに向けて表示画像を撮像した撮像画像qである。
その時、撮像された表示画像は平面上の座標位置である
被検出位置Psに撮像面に設定された基準位置(撮像面
の原点Om)に合わせて撮像したときの撮像画像qであ
る。FIG. 9 is a flowchart for calculating the detected position from the coordinate values of the extracted four feature points. (A1) Posture Calculation Processing FIG. 10 shows a captured image q in which the input operator captures a display image from an arbitrary position with the imaging unit facing the screen.
At this time, the captured display image is a captured image q obtained by capturing the detected position Ps, which is a coordinate position on a plane, in accordance with a reference position (origin Om of the imaging surface) set on the imaging surface.
【0050】ステップS201では、特定されたq1,
q2,q3,q4の座標に基づいて、スクリーンの撮像画
像qの相隣接する幾何学的特徴点間の直線I1.I2,I
3,I4を算出する。ステップS203ではこれら直線式
を用いて撮像画像データの消失点T0、S0を求める。In step S201, the specified q1,
Based on the coordinates of q2, q3, q4, straight lines I1. I2, I
3. Calculate I4. In step S203, vanishing points T0 and S0 of the captured image data are obtained using these linear equations.
【0051】矩形形状平面を撮像すると撮像画像には必
ず消失点が存在する。消失点とは平行群が収束する点で
ある。例えば、Q1Q2(g1)に対応する撮像面上の線
q1q2 とQ3Q4(g2)に対応する線q3q4、q1q
4、また右辺Q1Q4 とq2q3とが完全に平行であれば消
失点は無限遠に存在することになる。無限遠に存在する
とき、その方向には透視射影されても透視効果は現れな
い。すなわち、X−Y画像座標系(X−Y座標系)のX
軸方向に消失点が無限遠に存在する場合、消失軸はX軸
そのものとなる。When a rectangular plane is picked up, a picked-up image always has a vanishing point. The vanishing point is a point where the parallel group converges. For example, a line on the imaging surface corresponding to Q1Q2 (g1)
q1q2 And q3q4 and q1q corresponding to Q3Q4 (g2)
4, again the right side Q1Q4 If and q2q3 are completely parallel, the vanishing point will be at infinity. When present at infinity, no perspective effect appears even if perspective projection is performed in that direction. That is, X in the XY image coordinate system (XY coordinate system)
When the vanishing point exists at infinity in the axial direction, the vanishing axis is the X axis itself.
【0052】画像データを処理する際には、3次元空間
内に置かれた物体の形状は既知であることから行われる
ことが多い。本実施の形態では物体座標系の2組の平行
をもつスクリーン上には4隅(幾何学的特徴点に相当)
を有しているので、撮像画像面上にはX軸側、Y軸側の
それぞれに消失点が1つ存在することになる。Processing image data is often performed because the shape of an object placed in a three-dimensional space is known. In the present embodiment, four corners (corresponding to geometric feature points) on a screen having two sets of parallels in the object coordinate system.
Therefore, one vanishing point exists on each of the X-axis side and the Y-axis side on the captured image plane.
【0053】図10は任意の位置で撮像したときの撮像
データ上で消失点の位置を示したものである。X軸側に
生じる消失点をS0、Y軸側に生じる消失点をT0とす
る。q1q2 と q3q4との延長した直線の交点が消失点
の位置である。X軸側またはY軸側の一方の消失点が無
限遠にあると判断された場合X軸上またはY軸上に1つ
存在していると判断された場合には消失直線は、X軸又
はY軸そのものとなる。FIG. 10 shows the positions of vanishing points on the image data when an image is taken at an arbitrary position. The vanishing point on the X-axis side is S0, and the vanishing point on the Y-axis side is T0. The intersection of the extended straight lines of q1q2 and q3q4 is the position of the vanishing point. When it is determined that one vanishing point on the X-axis side or the Y-axis side is at infinity, when it is determined that one vanishing point exists on the X-axis or the Y-axis, the vanishing line is the X-axis or the This is the Y axis itself.
【0054】さらにステップS202では消失点S0,
T0を求めた後、被検出位置である画像座標系の原点O
mとこれら消失点とを結んだ直線消失軸S1S2、T1T2
を求める処理を行う。ステップS203では消失点S
0、T0と撮像データ中心Omとを結んだ直線S、Tが、
直線q1q2、q3q4、及びq2q3、q1q4と交わる点T
1(Xt1,Yt1)、T2(Xt2,Xt2)、S1(Xs1,Ys1)、
S1(Xs2,Ys2)を求める(これらの交点を消失特徴点
と呼ぶ)。撮像画像上のT1T2、S1S2を消失軸と呼ぶ
ことにする。これら消失軸は、スクリーン上で被検出位
置Psを基準とする各々互いに直交した直線であり、被
検出位置算出するための基準軸である。この消失直線
は、図2のスクリーン上の直線S1S2、T1T2に相当す
る。 次に、ステップS204に進む。Further, at step S202, vanishing points S0,
After obtaining T0, the origin O of the image coordinate system which is the detected position is obtained.
linear vanishing axis S1S2, T1T2 connecting m and these vanishing points
Is performed. In step S203, vanishing point S
Straight lines S, T connecting 0, T0 and the imaging data center Om are
Point T that intersects the straight lines q1q2, q3q4, and q2q3, q1q4
1 ( Xt1 , Yt1 ), T2 ( Xt2 , Xt2 ), S1 ( Xs1 , Ys1 ),
S1 ( Xs2 , Ys2 ) is obtained (the intersection of these is called a vanishing feature point). T1T2 and S1S2 on the captured image will be referred to as disappearance axes. These disappearance axes are straight lines orthogonal to each other on the screen with respect to the detected position Ps, and are reference axes for calculating the detected position. The disappearing straight lines correspond to the straight lines S1S2 and T1T2 on the screen in FIG. Next, the process proceeds to step S204.
【0055】ステップS204では、画像座標系X−Y
座標系をX軸側の消失直線SをOmを中心に角度α回転
させX軸に一致させ、X’−Y’座標系とする処理を行
う。このとき、Y軸側の消失直線Tを点Omを中心に角
度β回転させY軸に一致させ、X’’−Y’’座標系と
する処理でも良い。本実施の形態で用いる解析ではいず
れか一方で十分である。In step S204, the image coordinate system XY
The coordinate system is rotated by an angle α around Om around the vanishing straight line S on the X-axis side to make it coincident with the X-axis, and a process of setting the coordinate system to the X′-Y ′ coordinate system is performed. At this time, a process may be performed in which the vanishing straight line T on the Y-axis side is rotated by an angle β around the point Om to be coincident with the Y-axis, and the X-axis coordinate system is used. Either one is sufficient in the analysis used in the present embodiment.
【0056】図11は、画像座標系X−Y座標系をα度
回転、またはβ度回転させ、X’−Y’座標系、X’’
−Y’’座標系にそれぞれ座標変換を説明する図であ
る。これらの回転入力操作は3次元空間ではZ軸回りの
回転に相当し、3次元空間内におかれたスクリーン形状
の姿勢位置を表す1パラメータである。FIG. 11 shows that the image coordinate system XY coordinate system is rotated by α degrees or β degrees to obtain an X′-Y ′ coordinate system, X ″
It is a figure explaining coordinate conversion to each -Y '' coordinate system. These rotation input operations correspond to rotation about the Z axis in the three-dimensional space, and are one parameter representing the screen-shaped posture position in the three-dimensional space.
【0057】例えば、スクリーン上の直線Q1Q2(g
1),Q3Q4(g2)は消失直線SをX軸上に一致させ
ることによりX軸と平行な位置関係となる。図12は3
次元空間における撮像面上のX−Y−Z座標系(画像座
標系と呼ぶ)と所定平面上のX*−Y*座標系(平面座標
系と呼ぶ)との姿勢の位置関係を示したものである。画
像座標系の中心から垂直に延びる光軸(撮像レンズの光
軸)をZ軸とする。Z軸上の視点Oは、画像座標系の原
点Omから焦点距離fの位置にある。X−Y−Z座標系
のX軸回りの角度ψ、Y軸回りの角度γ、Z軸回りの角
度αまたはβとする。これらの角度回りはいずれも時計
回りを正としている。For example, a straight line Q 1 Q 2 (g
1), Q3Q4 (g2) has a positional relationship parallel to the X-axis by matching the vanishing line S on the X-axis. FIG.
Shows the positional relationship between the attitude of an XYZ coordinate system (called an image coordinate system) on an imaging surface in a three-dimensional space and an X * -Y * coordinate system (called a plane coordinate system) on a predetermined plane. It is. An optical axis (optical axis of the imaging lens) extending vertically from the center of the image coordinate system is defined as a Z axis. The viewpoint O on the Z axis is located at a focal distance f from the origin Om of the image coordinate system. An angle ψ around the X axis, an angle γ around the Y axis, and an angle α or β around the Z axis in the XYZ coordinate system. Regarding the rotation around these angles, clockwise is defined as positive.
【0058】次のステップS205は、スクリーン平面
に対する撮像面の姿勢を演算する。このステップにおい
て、得られた撮像画像の撮像面上のX−Y座標変換後の
X’−Y’座標系における位置座標を基に、画像座標系
X’−Y’系の特徴点q1,q2,q3,q4に対する物体
座標系のスクリーンQ1,Q2,Q3,Q4の各点の対応づ
けを行う。この対応付けは、スクリーンと撮像面とを画
像座標系(X−Y−Z座標系)を有する3次元空間内に
置き、撮像面の焦点距離fを原点とした透視射影変換処
理を行うことによりなされる。In the next step S205, the attitude of the imaging surface with respect to the screen plane is calculated. In this step, based on the position coordinates in the X′-Y ′ coordinate system of the obtained captured image on the imaging surface after the XY coordinate conversion, feature points q 1 and q 2 in the image coordinate system X′-Y ′ system , Q3, q4 are associated with each point of the screens Q1, Q2, Q3, Q4 in the object coordinate system. This association is performed by placing the screen and the imaging plane in a three-dimensional space having an image coordinate system (XYZ coordinate system) and performing a perspective projection conversion process with the focal length f of the imaging plane as the origin. Done.
【0059】図13は、3次元空間内に置かれたスクリ
ーンの位置姿勢を説明する斜視図である。図では矩形の
1/4を示してあり、撮像面上のスクリーン上の位置座
標Q1(X* 1,Y* 1)、Q2(X* 2,Y* 2)に対応する座標
点をq1(X1、Y1)、q2(X2,Y2)が示されてい
る。解析する各特徴点としてはT1、T2それにS2の3
点の位置座標が示されている。FIG. 13 is a perspective view for explaining the position and orientation of the screen placed in the three-dimensional space. In the figure, a quarter of the rectangle is shown, and the coordinate points corresponding to the position coordinates Q1 (X * 1 , Y * 1 ) and Q2 (X * 2 , Y * 2 ) on the screen on the imaging surface are q1 ( X 1 , Y 1 ) and q 2 (X 2 , Y 2 ) are shown. Each feature point to be analyzed is T1, T2 and S2.
The position coordinates of the point are shown.
【0060】Q3(X* 3,Y* 3)、Q4(X* 4,Y* 4)に対
応する座標点q3(X3,Y3)、q4(X4,Y4)につい
ては省略してある。さらに指示された被検出位置は、図
の原点Om(0,0,f)に相当する。透視点O(0,0,0)は3次
元空間X−YーZ座標系の原点であり、fは焦点距離で
ある。ここでは2次元スクリーンは理想的な形とし、横
軸に平行なスクリーン上辺の長さをg1、下辺の長さを
g2とし、縦軸に平行なスクリーン右辺の長さをh1、
左辺の長さをh2とする。 スクリーンの撮像面に対す
る位置関係は、X軸回りを撮像面の原点Omを中心とし
てX軸回りに角度+ψ、Y軸回りに角度+γである。こ
れらいずれも時計回りを正としてある。この図ではZ軸
回りの回転入力操作(X−Y座標系をβ度回転)した結
果を示してある。[0060] Q3 (X * 3, Y * 3), Q4 (X * 4, Y * 4) coordinate point q3 corresponding to (X 3, Y 3), omitted for q4 (X 4, Y 4) It is. Further, the instructed detected position corresponds to the origin Om (0,0, f) in the figure. The perspective point O (0,0,0) is the origin of the three-dimensional space XYZ coordinate system, and f is the focal length. Here, the two-dimensional screen has an ideal shape, the length of the upper side of the screen parallel to the horizontal axis is g1, the length of the lower side is g2, and the length of the right side of the screen parallel to the vertical axis is h1,
The length of the left side is h2. The positional relationship between the screen and the imaging surface is an angle + ψ around the X axis and an angle + γ around the Y axis around the origin Om of the imaging surface around the X axis. In each case, clockwise is defined as positive. This figure shows the result of a rotation input operation about the Z axis (the XY coordinate system is rotated by β degrees).
【0061】本実施例では解析的に容易となるこれら4
点を選択したが、スクリーンの姿勢位置を決める4点の
特徴点であればいずれでも良い。本実施の形態では、撮
像面に設けられた矩形形状上の被検出位置をX−Y座標
系の原点とし、原点の他にT1、S2とQ1の3点につい
て透視射影変換処理を行った。In the present embodiment, these 4
Although the points are selected, any four feature points that determine the posture position of the screen may be used. In the present embodiment, the detected position on the rectangular shape provided on the imaging surface is set as the origin of the XY coordinate system, and perspective projection conversion processing is performed on three points T1, S2, and Q1 in addition to the origin.
【0062】図14は図13に示した3次元空間内に置
かれたスクリーンをY’=0であるXZ平面上に正投影
した図である。ここでXZ平面内には辺OmS2のみが
存在し、残りの辺は投影されたものである。焦点距離f
の位置に撮像面を配置して透視射影変換を行い、各点の
X’−Y’座標系における位置座標を算出する。その結
果が数1、数2で示される。FIG. 14 is an orthographic view of the screen placed in the three-dimensional space shown in FIG. 13 on the XZ plane where Y ′ = 0. Here, only the side OmS2 exists in the XZ plane, and the remaining sides are projected. Focal length f
, The perspective projection transformation is performed by arranging the imaging plane at the position of, and the position coordinates of each point in the XY coordinate system are calculated. The results are shown in Equations 1 and 2.
【0063】[0063]
【数1】 (Equation 1)
【0064】また、図15は図13のスクリーンをX=
OのYZ平面上に正投影した図である。図中にはT1及
びQ1に関する記載のみであり、Q2、Q3、Q4に関する
記載は略してある。 XZ平面上で行った処理と同様に
YZ平面における透視射影変換処理を行い、T1、Q1の
座標位置を算出する。FIG. 15 shows the screen of FIG.
FIG. 5 is a diagram of orthographic projection of O on the YZ plane. In the figure, only the description relating to T1 and Q1 is shown, and the description relating to Q2, Q3 and Q4 is omitted. Similar to the processing performed on the XZ plane, the perspective projection conversion processing on the YZ plane is performed, and the coordinate positions of T1 and Q1 are calculated.
【0065】[0065]
【数2】 (Equation 2)
【0066】スクリーンの特徴点T1及びQ1に着目す
る。これらがXZ面とYZ面のこれら2つの面に投影し
透視射影変換した結果、T1及びQ1の座標値として、図
14からはT1(X* t1,Z* t1|x)とQ1(X* 1,Z* 1
|x)、図15からはT1(Y* t1,Z* t1|y)とQ1
(Y* 1,Z* 1|y)がそれぞれ得られる。Attention is paid to the feature points T1 and Q1 of the screen.
You. These project onto these two planes, the XZ plane and the YZ plane.
As a result of the perspective projection transformation, the coordinate values of T1 and Q1 are shown in FIG.
From T14 (X* t1, Z* t1| X) and Q1 (X* 1, Z* 1
| X), and from FIG.* t1, Z* t1| Y) and Q1
(Y* 1, Z* 1| Y) are obtained.
【0067】図14及び図15のXZ平面、YZ平面へ
の正投影面において、Z軸に関する座標値は同じ値をと
り、次の関係にある。 Z* 1|x=Z* 1|y Z* t1|x=Z* t1|y 上式の条件式から次の2つの関係式(数3)を得ること
ができる。In the orthographic planes on the XZ plane and the YZ plane in FIGS. 14 and 15, the coordinate values for the Z axis have the same value and have the following relationship. Z * 1 | x = Z * 1 | y Z * t1 | x = Z * t1 | y The following two relational expressions (Equation 3) can be obtained from the above conditional expression.
【0068】[0068]
【数3】 (Equation 3)
【0069】数3は3次元空間内に置かれたスクリーン
の姿勢パラメータ間の関係式である。これらの式は矩形
位置姿勢を表す1つの角度と画像を特徴付ける撮像面上
の複数の座標値との簡単な関係式となっている。さら
に、この式を数に代入するともう1つの姿勢パラメータ
θを得ることができる。Equation 3 is a relational expression between the posture parameters of the screen placed in the three-dimensional space. These equations are simple relational expressions between one angle representing the rectangular position and orientation and a plurality of coordinate values on the imaging surface characterizing the image. Further, by substituting this equation into a number, another posture parameter θ can be obtained.
【0070】(b2)座標演算処理 次に、図9のステップS207に進み、撮像面に設定さ
れた基準位置に平面上の被検出位置を合わせることによ
り平面上の被検出位置を算出する処理を行う。X−Y座
標系をβ度回転しX’−Y’座標系に変換した時、3次
元空間内におけるスクリーン上の座標位置の算出式は数
4で表される。(B2) Coordinate calculation process Next, the process proceeds to step S207 in FIG. 9, in which the detected position on the plane is calculated by adjusting the detected position on the plane to the reference position set on the imaging surface. Do. When the XY coordinate system is rotated by β degrees and converted to the X′-Y ′ coordinate system, the formula for calculating the coordinate position on the screen in the three-dimensional space is represented by Expression 4.
【0071】[0071]
【数4】 (Equation 4)
【0072】スクリーン上の座標系を(X*i,Y*i)と
する。また、スクリーン上の被検出位置を横軸比m、縦
軸比nで表すと、座標変換演算は次式(数5及び数6)
により行われる。The coordinate system on the screen is (X * i, Y * i). When the detected position on the screen is represented by a horizontal axis ratio m and a vertical axis ratio n, the coordinate conversion operation is represented by the following equations (Equations 5 and 6)
It is performed by
【0073】[0073]
【数5】 (Equation 5)
【0074】[0074]
【数6】 (Equation 6)
【0075】数6で用いたUmax、Vmaxは、予め定められ
た特徴点間Q2Q3、Q3Q4の長さである。 図16
(a)、(b)は、それぞれ予め形成した矩形形状を形
成する4個の特徴点Q1,Q2,Q3,Q4の座標系と
それに対応するスクリーン上に投影された座標系との関
係を示した図である。Umax and Vmax used in Equation 6 are predetermined lengths between feature points Q2Q3 and Q3Q4. FIG.
(A) and (b) show the relationship between the coordinate system of the four feature points Q1, Q2, Q3, and Q4 forming the previously formed rectangular shape and the corresponding coordinate system projected on the screen. FIG.
【0076】このように本実施の形態において、撮像面
の基準位置を中心位置に設けたので3次元空間内の撮像
面の位置に対するスクリーンの姿勢位置を表す角度は簡
単な関係式となっている。なお、スクリーンの画像デー
タにおいて2点の消失点を生じるが、3次元空間内の所
定平面の姿勢位置や所定平面の被検出位置の検出には、
得られた所定平面の画像データにおいて少なくても1点
の消失点を求めることができれば可能である。すなわ
ち、少なくとも一対の平行線を有する形状であればよい
のである。 [第2の実施の形態]図17(a),(b)は、本発明
の第2の実施の形態を説明する図である。As described above, in the present embodiment, since the reference position of the imaging surface is provided at the center position, the angle representing the position of the screen with respect to the position of the imaging surface in the three-dimensional space is a simple relational expression. . In addition, two vanishing points occur in the image data of the screen. However, the detection of the posture position on the predetermined plane and the detected position on the predetermined plane in the three-dimensional space includes:
It is possible if at least one vanishing point can be obtained in the obtained image data of the predetermined plane. That is, any shape having at least a pair of parallel lines may be used. [Second Embodiment] FIGS. 17A and 17B are diagrams for explaining a second embodiment of the present invention.
【0077】ガン型コントローラを用いてスクリーン上
に表示された標的オブジェクト画像をシューティングす
る第1の実施の形態とは異なり、第2の実施の形態では
用いるガン型コントローラは同じであるが標的オブジェ
クトとして実空間での3次元オブジェクトをシューティ
ングしようとするゲームである。Unlike the first embodiment in which the target object image displayed on the screen is shot using the gun type controller, the second embodiment uses the same gun type controller as the target object. This is a game that tries to shoot a 3D object in real space.
【0078】図17(a)の上図はコントローラ802
を把持している操作者が、実空間内にキュービックベー
ス804の上に標的3次元オブジェクト801を狙って
いる図である。キュービックベース804内にはモータ
ーがあり、回転軸805の回りで回転することができる
ようになっている。またベース804の一面804aに
は特徴点として4個の発光素子(LED)806a、8
06b、806c、806dが設けられている。 図1
7(a)の下図はその時のコントローラの撮像面上の標
的オブジェクト画像である。撮像面には4個のLEDに
対応したLED像806a、806b、806c、80
6dが特徴点として示されている。被検出位置Psは撮
像面の中心803aである。The upper part of FIG.
FIG. 14 is a diagram in which the operator holding the target is aiming at the target three-dimensional object 801 on the cubic base 804 in the real space. A motor is provided in the cubic base 804 so that the motor can rotate around a rotation axis 805. On one surface 804a of the base 804, four light emitting elements (LEDs) 806a and 8
06b, 806c and 806d are provided. FIG.
The lower diagram of FIG. 7A shows a target object image on the imaging surface of the controller at that time. LED images 806a, 806b, 806c, and 80 corresponding to the four LEDs are provided on the imaging surface.
6d is shown as a feature point. The detected position Ps is the center 803a of the imaging surface.
【0079】図17(a)において、実空間内のオブジ
ェクト801は操作者に向いていない。操作者が標的オ
ブジェクトの手801aに向けてショットし、ヒットす
るとモーターが駆動し、実空間内のオブジェクトが操作
者の姿勢や位置に応じて動くようにしてある。In FIG. 17A, the object 801 in the real space is not suitable for the operator. When the operator makes a shot toward the target object hand 801a and hits, the motor is driven, and the object in the real space moves according to the posture and position of the operator.
【0080】今、ショットし、ヒットした時の処理動作
について説明する。ショット動作により、撮像画像80
3が取り込まれ、4点の特徴点を抽出する。これら特徴
点の座標に基づき撮像面に対するキュービックベースの
LED面804aの姿勢演算を行い、姿勢パラメータ
ψ、γ、βを算出する。姿勢パラメータの1つを用いて
被検出位置を演算する。その被検出位置の座標とと予め
定められた位置に設けられたオブジェクトの座標とを比
較し、ヒットしたと判断されるとモーターが駆動し。キ
ュービックベース面804aが操作者の方向に回転駆動
する。Now, the processing operation when a shot and a hit are made will be described. The shot image 80
3 is taken in, and four feature points are extracted. The posture of the cubic-based LED surface 804a with respect to the imaging surface is calculated based on the coordinates of these feature points, and posture parameters ψ, γ, and β are calculated. The detected position is calculated using one of the posture parameters. The coordinates of the detected position are compared with the coordinates of an object provided at a predetermined position, and when it is determined that a hit has occurred, the motor is driven. The cubic base surface 804a is rotationally driven in the direction of the operator.
【0081】図17(b)は、キュービックベース面が
操作者方向に向くように回転軸805を中心に角度ψ回
転した後の状態の図である。図では1軸の回転で説明し
たが、駆動法については限定されるものではない。この
ように本実施の形態に係わるゲーム装置は、操作者の意
図するオブジェクト画像の特定部位を表示画面に対して
どの位置からも直接指示することができ、その都度、ス
クリーンに対する撮像面の姿勢、位置などの各種パラメ
ータが算出され操作者の位置を特定することができるの
で、より迫力感のある、リアリティ溢れる新規なゲーム
効果が可能となった。例えば、対象オブジェクトの右手
を狙ったのにかかわらず、左足に当たってしまった場
合、対象オブジェクトは撃たれた状況に応じて所定の動
作モード処理を行い、ガン入力操作によりプレイヤーの
入力操作位置方向、すなわち視軸方向に向けて撃ち返す
動作を行うというインタラクティブなゲームストーリー
展開も考えられる。FIG. 17B is a diagram showing a state after the cubic base surface is rotated by an angle ψ about the rotation shaft 805 so as to face the operator. Although the description has been made with reference to one-axis rotation in the figure, the driving method is not limited. As described above, the game device according to the present embodiment can directly indicate a specific portion of the object image intended by the operator from any position on the display screen, and each time, the posture of the imaging surface with respect to the screen, Since various parameters such as the position can be calculated and the position of the operator can be specified, a new game effect that is more powerful and full of reality is possible. For example, regardless of aiming at the right hand of the target object, when hitting the left foot, the target object performs predetermined operation mode processing according to the shooting situation, and the input operation position direction of the player by the gun input operation, that is, It is also possible to develop an interactive game story in which the player shoots back in the visual axis direction.
【0082】また、本実施の形態に係わるゲーム装置は
操作位置情報を得ることが出来るため、操作位置が定点
位置であってもスクリーンに対し狙った方向を検出でき
るため、奥行き感のある表示画像に対しオブジェクト動
作が現実感溢れる動作としてゲームを行うことが出来
る。例えば、3次元シューティングゲーム装置におい
て、表示画像上標的オブジェクトに向けてショットした
とき、その弾丸が標的オブジェクトにヒットするまでの
時間感覚をオブジェクトの遠近感により到達速度が異な
るようにすることができる。すなわちスクリーン上のオ
ブジェクト画像の特定部位は、同じ座標位置であっても
狙った方向によりオブジェクト動作表現を異なるように
することができ、バラエティ溢れるゲームを作成するこ
とが出来る。Further, since the game device according to the present embodiment can obtain operation position information, it can detect the direction aimed at the screen even if the operation position is a fixed point position. On the other hand, the game can be performed as a motion in which the object motion is full of realism. For example, in a three-dimensional shooting game apparatus, when a shot is directed toward a target object on a display image, the speed at which the bullet hits the target object can be made different depending on the perspective of the object. That is, even if the specific portion of the object image on the screen is at the same coordinate position, the expression of the object motion can be made different depending on the aimed direction, and a game full of variety can be created.
【0083】本実施の形態に係わるゲーム装置の入力操
作パラメータは、入力操作手段からスクリーンまでの距
離データが得られなくとも、少なくとも1つの姿勢パラ
メータだけであってもよい。The input operation parameters of the game device according to the present embodiment may be at least one posture parameter even if distance data from the input operation means to the screen is not obtained.
【図1】 本実施の形態に係わるゲーム装置を説明する
ブロック構成図。FIG. 1 is a block diagram illustrating a game device according to an embodiment.
【図2】 第1の実施の形態に係わるゲーム装置の全体
構成斜視図。FIG. 2 is an overall configuration perspective view of the game device according to the first embodiment.
【図3】 本実施の形態に係わるガン型コントローラの
構成斜視図。FIG. 3 is a configuration perspective view of a gun-type controller according to the present embodiment.
【図4】 本実施の形態に係わる照準手段の第1の光学
系。FIG. 4 is a first optical system of an aiming unit according to the embodiment.
【図5】 本実施の形態に係わる照準手段の第2の光学
系。FIG. 5 is a second optical system of the aiming unit according to the embodiment.
【図6】 本実施の形態に係わる基本動作を説明するフ
ローチャート。FIG. 6 is a flowchart illustrating a basic operation according to the embodiment.
【図7】 固定された画像視点と操作視点との関係を説
明する図。FIG. 7 is a view for explaining a relationship between a fixed image viewpoint and an operation viewpoint.
【図8】 第1の実施の形態に係わる画像視点と操作
(撮像)視点との関係を説明する図。FIG. 8 is a view for explaining the relationship between an image viewpoint and an operation (imaging) viewpoint according to the first embodiment;
【図9】 本実施の形態に係わる位置演算処理部の詳細
フローチャート。FIG. 9 is a detailed flowchart of a position calculation processing unit according to the embodiment.
【図10】 撮像されたスクリーンの画像。FIG. 10 is an image of a screen taken.
【図11】 撮像された画像面上の各座標系。FIG. 11 shows each coordinate system on a captured image plane.
【図12】3次元透視射影変換の座標系を説明する斜視
図。FIG. 12 is a perspective view illustrating a coordinate system of three-dimensional perspective projection transformation.
【図13】3次元透視射影変換を説明する斜視図。FIG. 13 is a perspective view illustrating three-dimensional perspective projection conversion.
【図14】図13におけるスクリーンのX’−Z’座標
面上への正投影図。FIG. 14 is an orthographic view of the screen in FIG. 13 on an X′-Z ′ coordinate plane.
【図15】図13におけるスクリーンのY’−Z’座標
面上への正投影図。FIG. 15 is an orthographic view of the screen in FIG. 13 on a Y′-Z ′ coordinate plane.
【図16】予め定められた座標系とスクリーン座標系と
の関係を説明する図。FIG. 16 is a view for explaining the relationship between a predetermined coordinate system and a screen coordinate system.
【図17】第2の実施の形態に係わる3次元実空間にお
けるシューティングゲームを説明する図。FIG. 17 is a diagram illustrating a shooting game in a three-dimensional real space according to the second embodiment.
100 入力操作手段 101 撮像手段 102 照準手段 103 距離測定手段 110 スクリーン 111 スクリーン上に投影されている画像 120 ゲーム装置本体 130 プロジェクタ 20 外部記憶媒体 4 CPU 51 特徴点抽出手段 52 位置演算手段 521 平面姿勢演算手段 522 被検出位置(ターゲット)座標演算手段 7 入力操作位置特定手段 8 オブジェクト部位判断手段 9 画像合成手段 REFERENCE SIGNS LIST 100 input operation means 101 imaging means 102 aiming means 103 distance measurement means 110 screen 111 image projected on screen 120 game device main body 130 projector 20 external storage medium 4 CPU 51 feature point extraction means 52 position calculation means 521 plane attitude calculation Means 522 Detected position (target) coordinate calculating means 7 Input operation position specifying means 8 Object part determining means 9 Image synthesizing means
Claims (26)
させるゲーム装置であって、前記標的を平面上にある少
なくとも4個の特徴点を含んで撮像する撮像手段と、前
記撮像手段より得られた撮像画像データに基づいて前記
平面に対する撮像面の姿勢パラメータを演算する姿勢演
算手段とを備え、前記姿勢演算手段により得られた姿勢
パラメータに基づいて前記標的を変化させることを特徴
とするゲーム装置。1. A game device for changing a target based on posture information of an operator, comprising: an image pickup means for picking up an image of the target including at least four feature points on a plane; And a posture calculating means for calculating a posture parameter of the imaging plane with respect to the plane based on the obtained captured image data, and changing the target based on the posture parameter obtained by the posture calculation means. apparatus.
って、前記姿勢パラメータにより前記オブジェクトを駆
動することを特徴とする請求項1記載のゲーム装置。2. The game device according to claim 1, wherein the target is an object in a real space, and the object is driven by the posture parameter.
クトであって、前記姿勢パラメータにより前記オブジェ
クトを動かすことを特徴とする請求項1記載のゲーム装
置。3. The game device according to claim 1, wherein the target is an object in a virtual three-dimensional space, and the object is moved according to the posture parameter.
する距離測定手段を備え、前記距離情報を加味して前記
オブジェクトを動かすことを特徴とする請求項1記載の
ゲーム装置。4. The game apparatus according to claim 1, further comprising a distance measuring unit that measures a distance from the target plane to the imaging plane, and moving the object in consideration of the distance information.
くとも1つの姿勢パラメータを用いてオブジェクト上の
標的位置座標を演算する被検出位置座標演算手段を備え
ていることを特徴とする請求項1記載のゲーム装置。5. The apparatus according to claim 1, further comprising a detected position coordinate calculating unit that calculates a target position coordinate on the object using at least one posture parameter calculated by the posture calculating unit. Game equipment.
を用いて演算することを特徴とする請求項1又は5記載
のゲーム装置。6. The game device according to claim 1, wherein the attitude calculation means performs the calculation using a vanishing point on the captured image.
ともに標的オブジェクト画像を表示してプレイするゲー
ム装置であって、前記オブジェクト画像を前記特徴点を
含んで撮像する撮像手段と、前記撮像手段の撮像面上の
画像データに基づいて前記表示画面に対する撮像面の姿
勢パラメータを演算する姿勢演算手段と、前記姿勢演算
手段により得られた姿勢パラメータに基づいて表示画面
のオブジェクト画像を変化させることを特徴とするゲー
ム装置。7. A game apparatus for playing by displaying a target object image together with at least four feature points on a display screen, wherein said imaging means captures said object image including said feature points, and said imaging means Attitude calculating means for calculating an attitude parameter of the imaging surface with respect to the display screen based on image data on the imaging surface, and changing an object image of the display screen based on the attitude parameter obtained by the attitude calculating means. Characteristic game device.
れる投影画像であることを特徴とする請求項7記載のゲ
ーム装置。8. The game device according to claim 7, wherein the display screen is a projection image projected from a projector.
る距離測定手段を備え、前記距離測定手段からの出力信
号をも加味してオブジェクト画像を変化させることを特
徴とする請求項7記載のゲーム装置。9. The apparatus according to claim 7, further comprising a distance measuring unit for measuring a distance between the display screen and the imaging surface, wherein the object image is changed in consideration of an output signal from the distance measuring unit. Game equipment.
なくとも1つの姿勢パラメータを用いて前記表示画面上
の被検出位置の座標を演算する被検出位置座標演算手段
を備えていることを特徴とする請求項7記載のゲーム装
置。10. A detected position coordinate calculation means for calculating coordinates of a detected position on the display screen using at least one posture parameter calculated by the posture calculation means. Item 8. The game device according to Item 7.
点を用いて演算することを特徴とする請求項7又は10
記載のゲーム装置。11. The apparatus according to claim 7, wherein said attitude calculation means performs calculation using a vanishing point on a captured image.
The game device according to the above.
オブジェクト画像を表示してプレイするゲーム装置であ
って、前記表示画面に表示された標的オブジェクト画像
を少なくとも4個の特徴点を含んで撮像する撮像手段
と、前記撮像手段からの撮像画像データ上の前記特徴点
座標に基づいて被検出位置を演算する位置演算手段と、
前記位置演算手段により演算された被検出位置の演算結
果と予め定められた標的オブジェト部位の座標とを比較
判断するオブジェクト部位判断手段と、 前記部位判断手段の結果に基づき表示手段の標的オブジ
ェクト画像を変化させることを特徴とするゲーム装置。12. A game device for displaying and playing a target object image including a plurality of feature points on a display screen, wherein the target object image displayed on the display screen includes at least four feature points. Imaging means for imaging, position calculation means for calculating a detected position based on the feature point coordinates on the captured image data from the imaging means,
An object part determining means for comparing and determining the calculation result of the detected position calculated by the position calculating means with the coordinates of a predetermined target object part; anda target object image of a display means based on the result of the part determining means. A game device characterized by changing.
撮像面の姿勢パラメータを演算する姿勢演算手段と前記
姿勢演算手段から演算された少なくとも1つの姿勢パラ
メータを用いて前記被検出位置の座標を演算する被検出
位置座標演算手段とを備えていることを特徴とする請求
項12記載のゲーム装置。13. The position calculating means calculates a coordinate of the detected position using a posture calculating means for calculating a posture parameter of an imaging surface with respect to a display screen and at least one posture parameter calculated from the posture calculating means. 13. The game device according to claim 12, further comprising a detected position coordinate calculating means.
点を用いて演算することを特徴とする請求項13記載の
ゲーム装置。14. The game device according to claim 13, wherein said attitude calculation means performs calculation using a vanishing point on a captured image.
を被検出位置と一致させて演算することを特徴とする請
求項12記載のゲーム装置。15. The game apparatus according to claim 12, wherein said position calculating means performs the calculation by matching a center position of the imaging surface with a detected position.
め定められた座標値に近ければ標的オブジェクト画像を
変化させることを特徴とする請求項12記載のゲーム装
置。16. The game device according to claim 12, wherein the target object image is changed when a value obtained from the position calculation means is close to a predetermined coordinate value.
指標として標的を定める照準手段を備えたことを特徴と
する請求項12記載のゲーム装置。17. The game apparatus according to claim 12, further comprising: aiming means for setting a target as an index on an imaging surface provided on said imaging means.
係なく標的オブジェクトを定める照準手段を備えたこと
を特徴とする請求項12記載のゲーム装置。18. The game apparatus according to claim 12, further comprising aiming means for determining a target object irrespective of a position on the imaging surface of said imaging means.
化させるゲームを実行させるゲーム方法であって、平面
上にある少なくとも4個の特徴点を含む標的を撮像する
撮像ステップと、前記撮像ステップより得られた撮像面
上の画像データに基づいて前記平面に対する撮像面の姿
勢パラメータを演算する姿勢演算ステップとを含み、前
記姿勢演算ステップにより得られた姿勢パラメータに基
づいて標的を変化させることを特徴とするゲーム方法。19. A game method for executing a game in which a target is changed based on posture information of an operator, wherein an imaging step of imaging a target including at least four feature points on a plane, and the imaging step And a posture calculating step of calculating a posture parameter of the imaging surface with respect to the plane based on the image data on the imaging surface obtained from the above. Characteristic game method.
特徴点を含んで撮像された画像データに基づいて特徴点
を抽出する特徴点抽出ステップと、前記特徴点抽出ステ
ップより抽出された特徴点の座標に基づいて前記所定平
面に対する撮像面の姿勢演算するステップと、前記姿勢
演算ステップにより演算された姿勢パラメータに基づき
前記標的を変化させるステップとを実行させるプログラ
ムが記億されたことを特徴とする可読記憶媒体。20. A feature point extraction step of extracting a feature point based on image data of a target including at least four feature points on a plane, and a feature point extracted by the feature point extraction step. A program that executes a step of calculating the attitude of the imaging surface with respect to the predetermined plane based on the coordinates of the target plane and a step of changing the target based on the attitude parameter calculated in the attitude calculation step. Readable storage medium.
姿勢パラメータの少なくとも1つを用いて前記標的の座
標位置を演算する座標演算ステップを実行させるプログ
ラムが記録されたことを特徴とする請求項20記載の記
憶媒体。21. A program for executing a coordinate calculation step of calculating a coordinate position of the target using at least one of the posture parameters calculated in the posture calculation step. The storage medium according to the above.
とともにオブジェクト画像を表示してプレイするゲーム
方法であって、前記オブジェクト画像を前記特徴点を含
んで撮像する撮像ステップと、前記撮像手段からの撮像
画像データに基づいて前記表示画面に対する撮像面の姿
勢パラメータを演算する姿勢演算ステップとを含み、前
記姿勢演算手段により得られた姿勢パラメータに基づい
て表示画面のオブジェクト画像を変化させることを特徴
とするゲーム方法。22. A game method for playing by displaying an object image together with at least four feature points on a display screen, wherein: an imaging step of capturing the object image including the feature points; And a posture calculation step of calculating a posture parameter of the imaging surface with respect to the display screen based on the captured image data of the above, wherein the object image of the display screen is changed based on the posture parameter obtained by the posture calculation means. And the game method.
くとも4個の特徴点を含んで撮像された画像データに基
づいて特徴点を抽出する特徴点抽出ステップと、前記特
徴点抽出ステップより抽出された特徴点の座標に基づい
て前記オブジェクト画像の表示画面に対する撮像面の姿
勢演算するステップと、前記姿勢演算ステップにより演
算された姿勢パラメータに基づき前記オブジェクト画像
を変化させるステップとを実行させるプログラムが記億
されたことを特徴とする可読記憶媒体。23. A feature point extracting step of extracting a feature point based on image data of an object image on a display screen including at least four feature points, and a feature extracted by the feature point extracting step. A program for executing a step of calculating an attitude of the imaging surface with respect to a display screen of the object image based on the coordinates of a point and a step of changing the object image based on the attitude parameter calculated in the attitude calculation step is stored. A readable storage medium characterized by the following.
姿勢パラメータの少なくとも1つを用いて前記標的の座
標位置を演算する座標演算ステップを実行させるプログ
ラムが記録されたことを特徴とする請求項23記載の記
憶媒体。24. A program for executing a coordinate calculation step of calculating a coordinate position of the target using at least one of the posture parameters calculated in the posture calculation step. The storage medium according to the above.
消失点を用いて演算するステップを実行させるプログラ
ムが記録されたことを特徴とする請求項24記載の記憶
媒体。25. The storage medium according to claim 24, wherein a program for executing a step of calculating using a vanishing point on a captured image is recorded in the coordinate calculation step.
とともに標的オブジェクト画像を表示してプレイするゲ
ーム方法であって、前記表示画面に表示された標的オブ
ジェクト画像を少なくとも4個の特徴点を含んで撮像す
る撮像ステップと、前記撮像ステップから得られた撮像
面上の前記特徴点の座標に基づいて表示画面上の被検出
位置を演算する座標演算ステップと、前記座標演算ステ
ップにより演算された前記被検出位置の演算結果と予め
定められた標的オブジェト画像部位の座標とを比較判断
するオブジェクト部位判断ステップとを含み、 前記部位判断ステップの結果に基づき表示画面上の標的
オブジェクト画像を変化させることを特徴とするゲーム
方法。26. A game method for displaying and playing a target object image together with at least four feature points on a display screen, wherein the target object image displayed on the display screen includes at least four feature points. An imaging step of imaging, a coordinate calculation step of calculating a detected position on a display screen based on the coordinates of the feature point on the imaging surface obtained from the imaging step, and the calculation performed by the coordinate calculation step An object part determining step of comparing and determining the calculation result of the detected position and the coordinates of a predetermined target object image part; and changing the target object image on the display screen based on the result of the part determining step. Characteristic game method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001372183A JP3686919B2 (en) | 2000-12-06 | 2001-12-06 | GAME DEVICE, GAME PROCESSING METHOD, AND READABLE STORAGE MEDIUM |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000-371019 | 2000-12-06 | ||
JP2000371019 | 2000-12-06 | ||
JP2001372183A JP3686919B2 (en) | 2000-12-06 | 2001-12-06 | GAME DEVICE, GAME PROCESSING METHOD, AND READABLE STORAGE MEDIUM |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2002233665A true JP2002233665A (en) | 2002-08-20 |
JP2002233665A5 JP2002233665A5 (en) | 2005-05-26 |
JP3686919B2 JP3686919B2 (en) | 2005-08-24 |
Family
ID=26605312
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001372183A Expired - Fee Related JP3686919B2 (en) | 2000-12-06 | 2001-12-06 | GAME DEVICE, GAME PROCESSING METHOD, AND READABLE STORAGE MEDIUM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3686919B2 (en) |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006314777A (en) * | 2005-05-10 | 2006-11-24 | Pixart Imaging Inc | Orientation device and method for coordinate generation used therefor |
JP2007061489A (en) * | 2005-09-01 | 2007-03-15 | Nintendo Co Ltd | Information processing system and program |
JP2007075213A (en) * | 2005-09-12 | 2007-03-29 | Nintendo Co Ltd | Information processing program |
JP2007075354A (en) * | 2005-09-14 | 2007-03-29 | Nintendo Co Ltd | Game program |
JP2007236697A (en) * | 2006-03-09 | 2007-09-20 | Nintendo Co Ltd | Image processor and image processing program |
JP2007252915A (en) * | 2006-03-21 | 2007-10-04 | Avago Technologies General Ip (Singapore) Private Ltd | Active referencing method with interleaved crosshair navigation frames |
EP1854518A2 (en) | 2005-08-22 | 2007-11-14 | Nintendo Co., Limited | Game operating device |
JP2008123090A (en) * | 2006-11-09 | 2008-05-29 | Casio Comput Co Ltd | Camera pointer device, labeling method and program |
US7637817B2 (en) | 2003-12-26 | 2009-12-29 | Sega Corporation | Information processing device, game device, image generation method, and game image generation method |
JP2010518354A (en) * | 2007-02-13 | 2010-05-27 | パルロ | Method for recognizing an object in a shooting game for a remotely operated toy |
KR100972907B1 (en) * | 2005-08-22 | 2010-07-28 | 닌텐도가부시키가이샤 | Game operating device |
US7774155B2 (en) | 2006-03-10 | 2010-08-10 | Nintendo Co., Ltd. | Accelerometer-based controller |
JP2010259589A (en) * | 2009-05-01 | 2010-11-18 | Taito Corp | Shooting game apparatus |
US7927216B2 (en) | 2005-09-15 | 2011-04-19 | Nintendo Co., Ltd. | Video game system with wireless modular handheld controller |
JP2011177579A (en) * | 2011-06-20 | 2011-09-15 | Nintendo Co Ltd | Information processing system and program |
JP2011177596A (en) * | 2011-06-24 | 2011-09-15 | Nintendo Co Ltd | Information processing program |
US8089458B2 (en) | 2000-02-22 | 2012-01-03 | Creative Kingdoms, Llc | Toy devices and methods for providing an interactive play experience |
US8157651B2 (en) | 2005-09-12 | 2012-04-17 | Nintendo Co., Ltd. | Information processing program |
US8226493B2 (en) | 2002-08-01 | 2012-07-24 | Creative Kingdoms, Llc | Interactive play devices for water play attractions |
US8267786B2 (en) | 2005-08-24 | 2012-09-18 | Nintendo Co., Ltd. | Game controller and game system |
US8313379B2 (en) | 2005-08-22 | 2012-11-20 | Nintendo Co., Ltd. | Video game system with wireless modular handheld controller |
US8475275B2 (en) | 2000-02-22 | 2013-07-02 | Creative Kingdoms, Llc | Interactive toys and games connecting physical and virtual play environments |
US8550915B2 (en) | 2006-05-09 | 2013-10-08 | Nintendo Co., Ltd. | Game controller with adapter duplicating control functions |
US8608535B2 (en) | 2002-04-05 | 2013-12-17 | Mq Gaming, Llc | Systems and methods for providing an interactive game |
US8708822B2 (en) | 2005-09-01 | 2014-04-29 | Nintendo Co., Ltd. | Information processing system and program |
US8708821B2 (en) | 2000-02-22 | 2014-04-29 | Creative Kingdoms, Llc | Systems and methods for providing interactive game play |
US8758136B2 (en) | 1999-02-26 | 2014-06-24 | Mq Gaming, Llc | Multi-platform gaming systems and methods |
US8870655B2 (en) | 2005-08-24 | 2014-10-28 | Nintendo Co., Ltd. | Wireless game controllers |
US8907889B2 (en) | 2005-01-12 | 2014-12-09 | Thinkoptics, Inc. | Handheld vision based absolute pointing system |
US9176598B2 (en) | 2007-05-08 | 2015-11-03 | Thinkoptics, Inc. | Free-space multi-dimensional absolute pointer with improved performance |
US9320976B2 (en) | 2000-10-20 | 2016-04-26 | Mq Gaming, Llc | Wireless toy systems and methods for interactive entertainment |
US9446319B2 (en) | 2003-03-25 | 2016-09-20 | Mq Gaming, Llc | Interactive gaming toy |
US9616334B2 (en) | 2002-04-05 | 2017-04-11 | Mq Gaming, Llc | Multi-platform gaming system using RFID-tagged toys |
US9720556B2 (en) | 2007-10-01 | 2017-08-01 | Nintendo Co., Ltd. | Storage medium storing image processing program and image processing apparatus |
CN113730909A (en) * | 2021-09-14 | 2021-12-03 | 腾讯科技(深圳)有限公司 | Aiming position display method and device, electronic equipment and storage medium |
US11402927B2 (en) | 2004-05-28 | 2022-08-02 | UltimatePointer, L.L.C. | Pointing device |
US11841997B2 (en) | 2005-07-13 | 2023-12-12 | UltimatePointer, L.L.C. | Apparatus for controlling contents of a computer-generated image using 3D measurements |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7942745B2 (en) | 2005-08-22 | 2011-05-17 | Nintendo Co., Ltd. | Game operating device |
US8308563B2 (en) | 2005-08-30 | 2012-11-13 | Nintendo Co., Ltd. | Game system and storage medium having game program stored thereon |
US8913003B2 (en) | 2006-07-17 | 2014-12-16 | Thinkoptics, Inc. | Free-space multi-dimensional absolute pointer using a projection marker system |
KR102045436B1 (en) * | 2017-09-15 | 2019-11-15 | 고려대학교 산학협력단 | Method and apparatus for recognizing curling sheet |
-
2001
- 2001-12-06 JP JP2001372183A patent/JP3686919B2/en not_active Expired - Fee Related
Cited By (104)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10300374B2 (en) | 1999-02-26 | 2019-05-28 | Mq Gaming, Llc | Multi-platform gaming systems and methods |
US8758136B2 (en) | 1999-02-26 | 2014-06-24 | Mq Gaming, Llc | Multi-platform gaming systems and methods |
US9186585B2 (en) | 1999-02-26 | 2015-11-17 | Mq Gaming, Llc | Multi-platform gaming systems and methods |
US9468854B2 (en) | 1999-02-26 | 2016-10-18 | Mq Gaming, Llc | Multi-platform gaming systems and methods |
US9731194B2 (en) | 1999-02-26 | 2017-08-15 | Mq Gaming, Llc | Multi-platform gaming systems and methods |
US9861887B1 (en) | 1999-02-26 | 2018-01-09 | Mq Gaming, Llc | Multi-platform gaming systems and methods |
US8368648B2 (en) | 2000-02-22 | 2013-02-05 | Creative Kingdoms, Llc | Portable interactive toy with radio frequency tracking device |
US8164567B1 (en) | 2000-02-22 | 2012-04-24 | Creative Kingdoms, Llc | Motion-sensitive game controller with optional display screen |
US10188953B2 (en) | 2000-02-22 | 2019-01-29 | Mq Gaming, Llc | Dual-range wireless interactive entertainment device |
US8686579B2 (en) | 2000-02-22 | 2014-04-01 | Creative Kingdoms, Llc | Dual-range wireless controller |
US8790180B2 (en) | 2000-02-22 | 2014-07-29 | Creative Kingdoms, Llc | Interactive game and associated wireless toy |
US8708821B2 (en) | 2000-02-22 | 2014-04-29 | Creative Kingdoms, Llc | Systems and methods for providing interactive game play |
US10307671B2 (en) | 2000-02-22 | 2019-06-04 | Mq Gaming, Llc | Interactive entertainment system |
US9814973B2 (en) | 2000-02-22 | 2017-11-14 | Mq Gaming, Llc | Interactive entertainment system |
US8814688B2 (en) | 2000-02-22 | 2014-08-26 | Creative Kingdoms, Llc | Customizable toy for playing a wireless interactive game having both physical and virtual elements |
US8491389B2 (en) | 2000-02-22 | 2013-07-23 | Creative Kingdoms, Llc. | Motion-sensitive input device and interactive gaming system |
US9713766B2 (en) | 2000-02-22 | 2017-07-25 | Mq Gaming, Llc | Dual-range wireless interactive entertainment device |
US8475275B2 (en) | 2000-02-22 | 2013-07-02 | Creative Kingdoms, Llc | Interactive toys and games connecting physical and virtual play environments |
US9579568B2 (en) | 2000-02-22 | 2017-02-28 | Mq Gaming, Llc | Dual-range wireless interactive entertainment device |
US9149717B2 (en) | 2000-02-22 | 2015-10-06 | Mq Gaming, Llc | Dual-range wireless interactive entertainment device |
US8089458B2 (en) | 2000-02-22 | 2012-01-03 | Creative Kingdoms, Llc | Toy devices and methods for providing an interactive play experience |
US9474962B2 (en) | 2000-02-22 | 2016-10-25 | Mq Gaming, Llc | Interactive entertainment system |
US8184097B1 (en) | 2000-02-22 | 2012-05-22 | Creative Kingdoms, Llc | Interactive gaming system and method using motion-sensitive input device |
US8169406B2 (en) | 2000-02-22 | 2012-05-01 | Creative Kingdoms, Llc | Motion-sensitive wand controller for a game |
US9320976B2 (en) | 2000-10-20 | 2016-04-26 | Mq Gaming, Llc | Wireless toy systems and methods for interactive entertainment |
US9480929B2 (en) | 2000-10-20 | 2016-11-01 | Mq Gaming, Llc | Toy incorporating RFID tag |
US10307683B2 (en) | 2000-10-20 | 2019-06-04 | Mq Gaming, Llc | Toy incorporating RFID tag |
US9931578B2 (en) | 2000-10-20 | 2018-04-03 | Mq Gaming, Llc | Toy incorporating RFID tag |
US10758818B2 (en) | 2001-02-22 | 2020-09-01 | Mq Gaming, Llc | Wireless entertainment device, system, and method |
US9393491B2 (en) | 2001-02-22 | 2016-07-19 | Mq Gaming, Llc | Wireless entertainment device, system, and method |
US8248367B1 (en) | 2001-02-22 | 2012-08-21 | Creative Kingdoms, Llc | Wireless gaming system combining both physical and virtual play elements |
US8384668B2 (en) | 2001-02-22 | 2013-02-26 | Creative Kingdoms, Llc | Portable gaming device and gaming system combining both physical and virtual play elements |
US9737797B2 (en) | 2001-02-22 | 2017-08-22 | Mq Gaming, Llc | Wireless entertainment device, system, and method |
US10179283B2 (en) | 2001-02-22 | 2019-01-15 | Mq Gaming, Llc | Wireless entertainment device, system, and method |
US9463380B2 (en) | 2002-04-05 | 2016-10-11 | Mq Gaming, Llc | System and method for playing an interactive game |
US10507387B2 (en) | 2002-04-05 | 2019-12-17 | Mq Gaming, Llc | System and method for playing an interactive game |
US9616334B2 (en) | 2002-04-05 | 2017-04-11 | Mq Gaming, Llc | Multi-platform gaming system using RFID-tagged toys |
US10478719B2 (en) | 2002-04-05 | 2019-11-19 | Mq Gaming, Llc | Methods and systems for providing personalized interactive entertainment |
US10010790B2 (en) | 2002-04-05 | 2018-07-03 | Mq Gaming, Llc | System and method for playing an interactive game |
US8608535B2 (en) | 2002-04-05 | 2013-12-17 | Mq Gaming, Llc | Systems and methods for providing an interactive game |
US11278796B2 (en) | 2002-04-05 | 2022-03-22 | Mq Gaming, Llc | Methods and systems for providing personalized interactive entertainment |
US8226493B2 (en) | 2002-08-01 | 2012-07-24 | Creative Kingdoms, Llc | Interactive play devices for water play attractions |
US9446319B2 (en) | 2003-03-25 | 2016-09-20 | Mq Gaming, Llc | Interactive gaming toy |
US9393500B2 (en) | 2003-03-25 | 2016-07-19 | Mq Gaming, Llc | Wireless interactive game having both physical and virtual elements |
US10369463B2 (en) | 2003-03-25 | 2019-08-06 | Mq Gaming, Llc | Wireless interactive game having both physical and virtual elements |
US8373659B2 (en) | 2003-03-25 | 2013-02-12 | Creative Kingdoms, Llc | Wirelessly-powered toy for gaming |
US9707478B2 (en) | 2003-03-25 | 2017-07-18 | Mq Gaming, Llc | Motion-sensitive controller and associated gaming applications |
US9770652B2 (en) | 2003-03-25 | 2017-09-26 | Mq Gaming, Llc | Wireless interactive game having both physical and virtual elements |
US9039533B2 (en) | 2003-03-25 | 2015-05-26 | Creative Kingdoms, Llc | Wireless interactive game having both physical and virtual elements |
US11052309B2 (en) | 2003-03-25 | 2021-07-06 | Mq Gaming, Llc | Wireless interactive game having both physical and virtual elements |
US10583357B2 (en) | 2003-03-25 | 2020-03-10 | Mq Gaming, Llc | Interactive gaming toy |
US9993724B2 (en) | 2003-03-25 | 2018-06-12 | Mq Gaming, Llc | Interactive gaming toy |
US10022624B2 (en) | 2003-03-25 | 2018-07-17 | Mq Gaming, Llc | Wireless interactive game having both physical and virtual elements |
US7637817B2 (en) | 2003-12-26 | 2009-12-29 | Sega Corporation | Information processing device, game device, image generation method, and game image generation method |
US11402927B2 (en) | 2004-05-28 | 2022-08-02 | UltimatePointer, L.L.C. | Pointing device |
US11416084B2 (en) | 2004-05-28 | 2022-08-16 | UltimatePointer, L.L.C. | Multi-sensor device with an accelerometer for enabling user interaction through sound or image |
US11409376B2 (en) | 2004-05-28 | 2022-08-09 | UltimatePointer, L.L.C. | Multi-sensor device with an accelerometer for enabling user interaction through sound or image |
US11755127B2 (en) | 2004-05-28 | 2023-09-12 | UltimatePointer, L.L.C. | Multi-sensor device with an accelerometer for enabling user interaction through sound or image |
US9675878B2 (en) | 2004-09-29 | 2017-06-13 | Mq Gaming, Llc | System and method for playing a virtual game by sensing physical movements |
US8907889B2 (en) | 2005-01-12 | 2014-12-09 | Thinkoptics, Inc. | Handheld vision based absolute pointing system |
JP2006314777A (en) * | 2005-05-10 | 2006-11-24 | Pixart Imaging Inc | Orientation device and method for coordinate generation used therefor |
JP4602281B2 (en) * | 2005-05-10 | 2010-12-22 | ユアン シアン コー チー クー フェン ユー シェン コン シー | Coordinate generation method used in orientation device |
US11841997B2 (en) | 2005-07-13 | 2023-12-12 | UltimatePointer, L.L.C. | Apparatus for controlling contents of a computer-generated image using 3D measurements |
US8313379B2 (en) | 2005-08-22 | 2012-11-20 | Nintendo Co., Ltd. | Video game system with wireless modular handheld controller |
KR100972907B1 (en) * | 2005-08-22 | 2010-07-28 | 닌텐도가부시키가이샤 | Game operating device |
US9011248B2 (en) | 2005-08-22 | 2015-04-21 | Nintendo Co., Ltd. | Game operating device |
US10661183B2 (en) | 2005-08-22 | 2020-05-26 | Nintendo Co., Ltd. | Game operating device |
US9700806B2 (en) | 2005-08-22 | 2017-07-11 | Nintendo Co., Ltd. | Game operating device |
EP1854518A2 (en) | 2005-08-22 | 2007-11-14 | Nintendo Co., Limited | Game operating device |
EP2263765A1 (en) | 2005-08-22 | 2010-12-22 | Nintendo Co., Ltd. | Game operating device |
US10238978B2 (en) | 2005-08-22 | 2019-03-26 | Nintendo Co., Ltd. | Game operating device |
DE202006020819U1 (en) | 2005-08-22 | 2010-04-22 | Nintendo Co., Ltd. | HMI device for games |
US10155170B2 (en) | 2005-08-22 | 2018-12-18 | Nintendo Co., Ltd. | Game operating device with holding portion detachably holding an electronic device |
DE202006020818U1 (en) | 2005-08-22 | 2010-04-22 | Nintendo Co., Ltd. | HMI device for games |
US11027190B2 (en) | 2005-08-24 | 2021-06-08 | Nintendo Co., Ltd. | Game controller and game system |
US10137365B2 (en) | 2005-08-24 | 2018-11-27 | Nintendo Co., Ltd. | Game controller and game system |
US8870655B2 (en) | 2005-08-24 | 2014-10-28 | Nintendo Co., Ltd. | Wireless game controllers |
US8267786B2 (en) | 2005-08-24 | 2012-09-18 | Nintendo Co., Ltd. | Game controller and game system |
US9498709B2 (en) | 2005-08-24 | 2016-11-22 | Nintendo Co., Ltd. | Game controller and game system |
US9044671B2 (en) | 2005-08-24 | 2015-06-02 | Nintendo Co., Ltd. | Game controller and game system |
KR101212350B1 (en) | 2005-09-01 | 2012-12-13 | 닌텐도가부시키가이샤 | Information processing system and program |
JP2007061489A (en) * | 2005-09-01 | 2007-03-15 | Nintendo Co Ltd | Information processing system and program |
US8708822B2 (en) | 2005-09-01 | 2014-04-29 | Nintendo Co., Ltd. | Information processing system and program |
US8157651B2 (en) | 2005-09-12 | 2012-04-17 | Nintendo Co., Ltd. | Information processing program |
JP2007075213A (en) * | 2005-09-12 | 2007-03-29 | Nintendo Co Ltd | Information processing program |
US9561441B2 (en) | 2005-09-14 | 2017-02-07 | Nintendo Co., Ltd. | Storage medium storing video game program for calculating a distance between a game controller and a reference |
JP2007075354A (en) * | 2005-09-14 | 2007-03-29 | Nintendo Co Ltd | Game program |
US7927216B2 (en) | 2005-09-15 | 2011-04-19 | Nintendo Co., Ltd. | Video game system with wireless modular handheld controller |
US8430753B2 (en) | 2005-09-15 | 2013-04-30 | Nintendo Co., Ltd. | Video game system with wireless modular handheld controller |
US8797264B2 (en) | 2006-03-09 | 2014-08-05 | Nintendo Co., Ltd. | Image processing apparatus and storage medium storing image processing program |
JP2007236697A (en) * | 2006-03-09 | 2007-09-20 | Nintendo Co Ltd | Image processor and image processing program |
US7774155B2 (en) | 2006-03-10 | 2010-08-10 | Nintendo Co., Ltd. | Accelerometer-based controller |
JP2007252915A (en) * | 2006-03-21 | 2007-10-04 | Avago Technologies General Ip (Singapore) Private Ltd | Active referencing method with interleaved crosshair navigation frames |
US8591333B2 (en) | 2006-05-09 | 2013-11-26 | Nintendo Co. Ltd. | Game controller with receptor duplicating control functions |
US8550915B2 (en) | 2006-05-09 | 2013-10-08 | Nintendo Co., Ltd. | Game controller with adapter duplicating control functions |
JP2008123090A (en) * | 2006-11-09 | 2008-05-29 | Casio Comput Co Ltd | Camera pointer device, labeling method and program |
JP2010518354A (en) * | 2007-02-13 | 2010-05-27 | パルロ | Method for recognizing an object in a shooting game for a remotely operated toy |
US9176598B2 (en) | 2007-05-08 | 2015-11-03 | Thinkoptics, Inc. | Free-space multi-dimensional absolute pointer with improved performance |
US9720556B2 (en) | 2007-10-01 | 2017-08-01 | Nintendo Co., Ltd. | Storage medium storing image processing program and image processing apparatus |
JP2010259589A (en) * | 2009-05-01 | 2010-11-18 | Taito Corp | Shooting game apparatus |
JP2011177579A (en) * | 2011-06-20 | 2011-09-15 | Nintendo Co Ltd | Information processing system and program |
JP2011177596A (en) * | 2011-06-24 | 2011-09-15 | Nintendo Co Ltd | Information processing program |
CN113730909B (en) * | 2021-09-14 | 2023-06-20 | 腾讯科技(深圳)有限公司 | Aiming position display method and device, electronic equipment and storage medium |
CN113730909A (en) * | 2021-09-14 | 2021-12-03 | 腾讯科技(深圳)有限公司 | Aiming position display method and device, electronic equipment and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP3686919B2 (en) | 2005-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3686919B2 (en) | GAME DEVICE, GAME PROCESSING METHOD, AND READABLE STORAGE MEDIUM | |
US8556716B2 (en) | Image generation system, image generation method, and information storage medium | |
JP2002233665A5 (en) | ||
US9495800B2 (en) | Storage medium having stored thereon image processing program, image processing apparatus, image processing system, and image processing method | |
US7268781B2 (en) | Image display control method | |
US6890262B2 (en) | Video game apparatus, method and recording medium storing program for controlling viewpoint movement of simulated camera in video game | |
US8784201B2 (en) | Information storage medium, game system, and input determination method | |
JP3626711B2 (en) | Marker for directional position detection, directional position detection apparatus, and shooting game apparatus | |
JP5586545B2 (en) | GAME SYSTEM, PORTABLE GAME DEVICE, INFORMATION PROCESSOR CONTROL METHOD, AND INFORMATION PROCESSOR CONTROL PROGRAM | |
US8884987B2 (en) | Storage medium having stored thereon display control program, display control apparatus, display control system, and display control method for setting and controlling display of a virtual object using a real world image | |
JP5520656B2 (en) | Program and image generation apparatus | |
US9737814B2 (en) | Computer readable medium storing image processing program of synthesizing images | |
US9196078B2 (en) | System and methods for displaying virtual space including a silhouette image | |
EP2253358B1 (en) | Game device, game device control method, program, information storage medium | |
US20110181703A1 (en) | Information storage medium, game system, and display image generation method | |
US8684837B2 (en) | Information processing program, information processing system, information processing apparatus, and information processing method | |
JP2002298145A (en) | Position detector and attitude detector | |
JP2007226761A (en) | Locus image composition device for image object, locus image display device for image object, and program therefor | |
JP2012239778A (en) | Game program, game device, game system, and game processing method | |
EP1900403A1 (en) | Network game system, game machine, game machine control method, and information storage medium | |
JP2003038844A (en) | Game apparatus and method for controlling game | |
KR101938458B1 (en) | shooting method with rotating mapped images | |
JP3443414B2 (en) | Game device | |
CN112237738A (en) | Game device, image generation method, and information storage medium | |
JP2007267850A (en) | Program, information storage medium, and image generating system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040721 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040721 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20040721 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20040817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040831 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041124 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050113 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050208 |
|
R155 | Notification before disposition of declining of application |
Free format text: JAPANESE INTERMEDIATE CODE: R155 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050425 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110617 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110617 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140617 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |