JP4350719B2 - Image generating apparatus, image generating method, and program - Google Patents

Image generating apparatus, image generating method, and program Download PDF

Info

Publication number
JP4350719B2
JP4350719B2 JP2006091009A JP2006091009A JP4350719B2 JP 4350719 B2 JP4350719 B2 JP 4350719B2 JP 2006091009 A JP2006091009 A JP 2006091009A JP 2006091009 A JP2006091009 A JP 2006091009A JP 4350719 B2 JP4350719 B2 JP 4350719B2
Authority
JP
Japan
Prior art keywords
viewpoint
target point
image generation
virtual space
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006091009A
Other languages
Japanese (ja)
Other versions
JP2007265155A (en
Inventor
淳 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2006091009A priority Critical patent/JP4350719B2/en
Publication of JP2007265155A publication Critical patent/JP2007265155A/en
Application granted granted Critical
Publication of JP4350719B2 publication Critical patent/JP4350719B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、視点とは異なる位置から射出される射出オブジェクトを違和感なく提示する画像を生成するのに好適な画像生成装置、画像生成方法、ならびに、これらをコンピュータにて実現するプログラムに関する。   The present invention relates to an image generation apparatus, an image generation method, and a program for realizing these on a computer, which are suitable for generating an image that presents an injection object emitted from a position different from the viewpoint without a sense of incongruity.

従来から、各種の射撃ゲームが提案されている。このようなゲームに関する技術は、たとえば、以下の文献に開示されている。
特許第3325265号公報
Conventionally, various shooting games have been proposed. Techniques relating to such games are disclosed in the following documents, for example.
Japanese Patent No. 3325265

[特許文献1]には、標的を射撃する射撃ゲームに関する技術が開示されている。射撃ゲームにおいては、当該仮想世界に設定された視点から照準へ向かう半直線、あるいは、視線の半直線を、標的となるオブジェクトに交叉するように設定することによって、照準を合わせることとする。そして、その交叉する位置が、弾道の目標点の位置となる。ガンシューティングゲームにおいては、弾丸は標的という目標点に向かって進む。   [Patent Document 1] discloses a technique related to a shooting game for shooting a target. In the shooting game, aiming is performed by setting a half line from the viewpoint set in the virtual world to the aim, or a half line of the line of sight so as to cross the target object. The crossing position is the position of the target point of the trajectory. In a gun shooting game, a bullet advances toward a target point called a target.

このほか、仮想世界において、マジックハンド、牽引ビーム、鞭、ベルト、投げ縄、トリモチのついた棹などを用いて、遠方の物を掴んだりするゲームも提案されている。マジックハンド等の場合には、マジックハンドの「腕」等が、遠方の物という目標点に向かって進む。   In addition, in the virtual world, a game has been proposed in which a magic hand, a tow beam, a whip, a belt, a lasso, a hook with a trimochi, etc. are used to grab a distant object. In the case of a magic hand or the like, the “arm” or the like of the magic hand advances toward a target point of a distant object.

ここで、目標点に向かう経路を視点から開始するものとして画面に表示しても、画面内ではただの点として表示されることとなってしまい、目標点がどれぐらい奥にあるか、の奥行き情報がプレイヤに把握しにくいことも多い。そこで、当該経路の開始点、すなわち、弾丸の射出点や、マジックハンド等の手元側の端点(以下、このような端点も「射出点」という。)を、視点とはずらして設定することが行われている。たとえば、プレイヤが右利きの場合には、射出点は、視点、視線から見ての右下に設定することが広く行われている。   Here, even if the path to the target point is displayed on the screen as starting from the viewpoint, it will be displayed as a simple point on the screen, and the depth of how far the target point is The information is often difficult for the player to grasp. Therefore, the starting point of the path, that is, the bullet injection point, or the end point on the near side of the magic hand or the like (hereinafter, such an end point is also referred to as the “eject point”) can be set different from the viewpoint. Has been done. For example, when the player is right-handed, the emission point is widely set to the lower right as viewed from the viewpoint and line of sight.

上記のようなゲームにおいては、人の目を使って照準を合わせるから、目標点は仮想空間内の視点から見える位置にあるのが一般的である。そしてこの場合、視点と目標点との間には障害物は存在しない。   In the game as described above, since the aim is aimed using the human eye, the target point is generally located at a position where it can be seen from the viewpoint in the virtual space. In this case, there is no obstacle between the viewpoint and the target point.

一方、射出点は、視点とは異なる位置にある。したがって、視点と目標点との間に障害物が存在しない場合であっても、射出点と目標点との間に障害物が存在することがありうる。このような場合に、射出点と目標点との間の経路が、障害物で遮られるように画面表示をしてしまうと、プレイヤの直観に反してしまい、違和感を感じさせてしまう、という問題が生じる。   On the other hand, the emission point is at a position different from the viewpoint. Therefore, even when there is no obstacle between the viewpoint and the target point, there may be an obstacle between the emission point and the target point. In such a case, if the screen is displayed so that the path between the injection point and the target point is obstructed by an obstacle, it is contrary to the intuition of the player and makes the player feel uncomfortable. Occurs.

本発明は、上記のような問題を解決することを課題とするものであって、視点とは異なる位置から射出される射出オブジェクトを違和感なく提示する画像を生成するのに好適な画像生成装置、画像生成方法、ならびに、これらをコンピュータにて実現するプログラムを提供することを目的とする。   An object of the present invention is to solve the above problems, and is an image generation apparatus suitable for generating an image that presents an injection object emitted from a position different from the viewpoint without a sense of incongruity, It is an object of the present invention to provide an image generation method and a program for realizing these on a computer.

以上の目的を達成するため、本発明の原理にしたがって、下記の発明を開示する。   In order to achieve the above object, the following invention is disclosed in accordance with the principle of the present invention.

本発明の第1の観点に係る画像生成装置は、記憶部、画像生成部を備え、以下のように構成する。   An image generation apparatus according to a first aspect of the present invention includes a storage unit and an image generation unit, and is configured as follows.

すなわち、記憶部は、仮想空間に配置される複数のオブジェクトを記憶する。
これらのオブジェクトは、それぞれ複数のポリゴンとそのテクスチャによって構成されており、記憶部に記憶される情報から、各ポリゴンの形状や位置、姿勢等を取得することができる。
That is, the storage unit stores a plurality of objects arranged in the virtual space.
Each of these objects is composed of a plurality of polygons and their textures, and the shape, position, orientation, etc. of each polygon can be acquired from information stored in the storage unit.

一方、画像生成部は、当該複数のオブジェクトを当該仮想空間内の視点から見た画像を生成する。
すなわち、通常の三次元グラフィックス技術と同様、オブジェクトを構成するポリゴン同士の交叉や隠蔽関係を判定して、2つのポリゴンにおいては視点に近い方が視点から遠い方を隠蔽することはあっても、その逆はない、という関係を用いて、仮想空間内の様子をあらわす画像を生成する。
On the other hand, the image generation unit generates an image obtained by viewing the plurality of objects from a viewpoint in the virtual space.
In other words, as with normal three-dimensional graphics technology, the crossing or concealment relationship between polygons constituting an object is determined, and in two polygons, the one closer to the viewpoint may be hidden from the viewpoint. The image representing the state in the virtual space is generated using the relationship that the reverse is not true.

ここで、当該複数のオブジェクトには、当該視点とは異なる位置の射出点から、当該視点および当該射出点とは異なる位置の目標点へ、と向かう射出オブジェクトが含まれる。
射出オブジェクトとしては、射撃ゲームにおいては弾道に沿って標的に向かう弾丸、遠隔操作系ゲームにおいては、手元の柄から掴みたい物や掴んでいる物に向かうマジックハンド、鞭、牽引ビーム、先端トリモチのついた棹などが考えられる。射出点としては、射出オブジェクトが射出される銃口、マジックハンド・鞭・棹等の手元側の端点、牽引ビームの発射口などが考えられる。
Here, the plurality of objects include an emission object that travels from an emission point at a position different from the viewpoint to a target point at a position different from the viewpoint and the emission point.
The shooting object is a bullet that goes to the target along the trajectory in the shooting game, and in the remote control game, the magic hand, the whip, the tow beam, and the tip trimochi that goes from the handle at the hand toward the object to be grasped or the object to be grasped. Tsubaki can be considered. The injection point may be a muzzle from which an injection object is injected, an end point on the hand side of a magic hand, a whip, a spear, or the like, a launching port of a tow beam, and the like.

そして、画像生成部は、当該仮想空間内における当該射出オブジェクトと当該視点との距離にかかわらず、当該射出オブジェクトは他のいずれのオブジェクトよりも当該視点に近いものとみなして、当該画像を生成する。
すなわち、射出オブジェクトは、当該視点との距離にかかわらず、他のいずれのオブジェクトよりも当該視点に近いものと擬制するのであるから、射出オブジェクトを構成するポリゴンが他のオブジェクトを構成するポリゴンを隠蔽することはあっても、その逆はない。したがって、射出オブジェクトは、他のオブジェクトに衝突したり、他のオブジェクトに隠されることはないのである。
The image generation unit generates the image by regarding the emission object as being closer to the viewpoint than any other object regardless of the distance between the emission object and the viewpoint in the virtual space. .
In other words, because the emitted object pretends to be closer to the viewpoint than any other object regardless of the distance to the viewpoint, the polygons that make up the emitted object hide the polygons that make up the other objects. You can do it, but not the other way around. Therefore, the injection object does not collide with other objects or be hidden by other objects.

本発明によれば、目標点に向かう射出オブジェクトが常に表示されるような、ユーザの直観に沿った画像を生成することができるようになる。   According to the present invention, it is possible to generate an image in line with a user's intuition such that an injection object directed to a target point is always displayed.

また、本発明の画像生成装置において、当該射出オブジェクトは、当該射出点と当該目標点とを結ぶ線分状もしくは曲線状の形状をなすように構成することができる。   In the image generation apparatus of the present invention, the emission object can be configured to have a line segment shape or a curve shape connecting the emission point and the target point.

本発明は、上記発明の好適実施形態に係るものであり、たとえば、遠隔操作系ゲームにおいて、手元の柄から掴みたい物や掴んでいる物に向かうマジックハンド、鞭、牽引ビーム、先端トリモチのついた棹などを、射出オブジェクトとして採用することができる。   The present invention relates to a preferred embodiment of the above-described invention. For example, in a remote control game, a magic hand, a whip, a pulling beam, and a tip trimochi that are directed from a handle at a handle to an object to be grasped or an object to be grasped. A kite or the like can be used as the injection object.

また、本発明の画像生成装置において、当該射出オブジェクトは、当該射出点から当該目標点へ移動するように構成することができる。   In the image generation apparatus of the present invention, the emission object can be configured to move from the emission point to the target point.

本発明は、上記発明の好適実施形態に係るものであり、たとえば、射撃ゲームにおいて、弾道に沿って標的に向かう弾丸やミサイルなどを、射出オブジェクトとして採用することができる。   The present invention relates to a preferred embodiment of the above invention. For example, in a shooting game, a bullet or a missile that is directed to a target along a trajectory can be employed as an ejection object.

また、本発明の画像生成装置において、画像生成部は、当該視点との距離により当該複数のオブジェクトをソートして、当該複数のオブジェクトのそれぞれを、当該視点からの距離が遠い順に描画して当該画像を生成するように構成することができる。   In the image generation device of the present invention, the image generation unit sorts the plurality of objects according to the distance from the viewpoint, and draws each of the plurality of objects in order of increasing distance from the viewpoint. It can be configured to generate an image.

いわゆるZバッファ法を採用して画像の生成を行うものであるが、射出オブジェクトについては、視点との距離にかかわらず、他のオブジェクトよりも視点に近いものと擬制するのであるから、Zバッファにおけるソートの際にも、この擬制をそのまま適用する。したがって、射出オブジェクトは、Zバッファ内で、視点に最も近いオブジェクトとなる。   The so-called Z buffer method is used to generate an image. However, for an emitted object, it is assumed that the object is closer to the viewpoint than other objects regardless of the distance to the viewpoint. This sort of imitation is applied as it is when sorting. Therefore, the ejected object is the object closest to the viewpoint in the Z buffer.

本発明によれば、Zバッファ法におけるオブジェクトのソートの比較関数を工夫することによって、容易に射出オブジェクトの描画を実現することができるようになる。   According to the present invention, it is possible to easily realize drawing of an injection object by devising a comparison function for sorting objects in the Z buffer method.

また、本発明の画像生成装置において、画像生成部は、当該視点との距離により当該複数のオブジェクトのうち当該射出オブジェクト以外のオブジェクトをソートして、当該ソートされた複数のオブジェクトのそれぞれを、当該視点からの距離が遠い順に描画し、その後に、当該射出オブジェクトを描画して、当該画像を生成するように構成することができる。   In the image generation device of the present invention, the image generation unit sorts the objects other than the emission object among the plurality of objects according to the distance from the viewpoint, and sets each of the plurality of sorted objects to the It can be configured to draw in order of increasing distance from the viewpoint, and then draw the emitted object to generate the image.

いわゆるZバッファ法により画像の生成を行う段では、射出オブジェクト以外のオブジェクトを処理の対象とし、これらについて描画が終わった後に、Zバッファの処理対象とはしなかった射出オブジェクトを描画するものである。   In the stage of generating an image by the so-called Z-buffer method, objects other than the emission object are processed, and after drawing of these objects, the injection object that is not the Z-buffer processing object is drawn. .

本発明によれば、射出オブジェクトをZバッファの処理対象から外すとともに、Zバッファの処理対象のオブジェクトの描画が終わった後に、射出オブジェクトの描画を行うことによって、容易に射出オブジェクトの描画を実現することができるようになる。   According to the present invention, the injection object is removed from the processing target of the Z buffer, and after the drawing of the object to be processed in the Z buffer is finished, the injection object is drawn, thereby easily realizing the drawing of the injection object. Will be able to.

また、本発明の画像生成装置は、入力受付部、目標設定部をさらに備え、以下のように構成することができる。   The image generation apparatus of the present invention further includes an input receiving unit and a target setting unit, and can be configured as follows.

すなわち、入力受付部は、指示入力を受け付ける。
この指示入力は、たとえば射撃ゲームにおける引き金やマジックハンドにおける掴み動作に相当するものである。
That is, the input receiving unit receives an instruction input.
This instruction input corresponds to, for example, a trigger in a shooting game or a gripping operation in a magic hand.

また、目標設定部は、当該指示入力が受け付けられたとき、当該複数のオブジェクトのうち、当該仮想空間において当該視点から伸びる所定の半直線が初めて交叉するオブジェクトの位置を、当該目標位置として設定する。
すなわち、目標点を、射撃が命中したオブジェクトの位置、マジックハンドで掴んだオブジェクトの位置等に設定するのである。
In addition, when the instruction input is received, the target setting unit sets, as the target position, the position of the object at which a predetermined half line extending from the viewpoint in the virtual space first intersects among the plurality of objects. .
That is, the target point is set to the position of the object hit by the shooting, the position of the object grasped by the magic hand, or the like.

本発明によれば、種々のゲームにおいて、適切に弾道やマジックハンドの腕、牽引ビームなどの目標点を設定することができるようになる。   According to the present invention, it is possible to appropriately set target points such as a trajectory, a magic hand arm, and a traction beam in various games.

本発明のその他の観点に係る画像生成方法は、記憶部、画像生成部を有する画像生成装置にて実行され、画像生成工程を備え、以下のように構成する。   An image generation method according to another aspect of the present invention is executed by an image generation apparatus having a storage unit and an image generation unit, includes an image generation step, and is configured as follows.

すなわち、記憶部には、仮想空間に配置される複数のオブジェクトが記憶される。   That is, the storage unit stores a plurality of objects arranged in the virtual space.

一方、画像生成工程では、画像生成部が、当該複数のオブジェクトを当該仮想空間内の視点から見た画像を生成する。   On the other hand, in the image generation step, the image generation unit generates an image obtained by viewing the plurality of objects from the viewpoint in the virtual space.

さらに、当該複数のオブジェクトには、当該視点とは異なる位置の射出点から、当該視点および当該射出点とは異なる位置の目標点へ、と向かう射出オブジェクトが含まれる。   Further, the plurality of objects include an emission object that travels from an emission point at a position different from the viewpoint to a target point at a position different from the viewpoint and the emission point.

そして、画像生成工程では、当該仮想空間内における当該射出オブジェクトと当該視点との距離にかかわらず、当該射出オブジェクトは他のいずれのオブジェクトよりも当該視点に近いものとみなして、当該画像を生成する。   Then, in the image generation step, regardless of the distance between the emission object and the viewpoint in the virtual space, the emission object is regarded as being closer to the viewpoint than any other object, and the image is generated. .

本発明のその他の観点に係るプログラムは、コンピュータを上記の画像生成装置として機能させ、コンピュータに上記の画像生成方法を実行させるように構成する。   A program according to another aspect of the present invention is configured to cause a computer to function as the above-described image generation device and to cause the computer to execute the above-described image generation method.

また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記憶媒体に記録することができる。   The program of the present invention can be recorded on a computer-readable information storage medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.

上記プログラムは、プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記憶媒体は、コンピュータとは独立して配布・販売することができる。   The above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information storage medium can be distributed and sold independently from the computer.

本発明によれば、視点とは異なる位置から射出される射出オブジェクトを違和感なく提示する画像を生成するのに好適な画像生成装置、画像生成方法、ならびに、これらをコンピュータにて実現するプログラムを提供することができる。   According to the present invention, it is possible to provide an image generation apparatus, an image generation method, and a program for realizing these on a computer, which are suitable for generating an image that presents an injection object emitted from a position different from the viewpoint without a sense of incongruity. can do.

以下に本発明の実施形態を説明する。以下では、理解を容易にするため、ゲーム用の情報処理装置を利用して本発明が実現される実施形態を説明するが、以下に説明する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素もしくは全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。   Embodiments of the present invention will be described below. In the following, for ease of understanding, an embodiment in which the present invention is realized using a game information processing device will be described. However, the embodiment described below is for explanation, and the present invention is described. It does not limit the range. Therefore, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

図1は、プログラムを実行することにより、本発明の実施形態に係る装置の機能を果たす典型的な情報処理装置の概要構成を示す模式図である。以下、本図を参照して説明する。   FIG. 1 is a schematic diagram illustrating a schematic configuration of a typical information processing apparatus that performs functions of an apparatus according to an embodiment of the present invention by executing a program. Hereinafter, a description will be given with reference to FIG.

情報処理装置100は、CPU(Central Processing Unit)101と、ROM 102と、RAM(Random Access Memory)103と、インターフェイス104と、コントローラ105と、外部メモリ106と、画像処理部107と、DVD−ROM(Digital Versatile Disc ROM)ドライブ108と、NIC(Network Interface Card)109と、音声処理部110と、マイク111と、を備える。   The information processing apparatus 100 includes a CPU (Central Processing Unit) 101, a ROM 102, a RAM (Random Access Memory) 103, an interface 104, a controller 105, an external memory 106, an image processing unit 107, and a DVD-ROM. (Digital Versatile Disc ROM) drive 108, NIC (Network Interface Card) 109, audio processing unit 110, and microphone 111.

ゲーム用のプログラムおよびデータを記憶したDVD−ROMをDVD−ROMドライブ108に装着して、情報処理装置100の電源を投入することにより、当該プログラムが実行され、本実施形態に係る装置が実現される。   When a DVD-ROM storing a game program and data is loaded into the DVD-ROM drive 108 and the information processing apparatus 100 is turned on, the program is executed and the apparatus according to the present embodiment is realized. The

CPU 101は、情報処理装置100全体の動作を制御し、各構成要素と接続され制御信号やデータをやりとりする。また、CPU 101は、レジスタ(図示せず)という高速アクセスが可能な記憶域に対してALU(Arithmetic Logic Unit)(図示せず)を用いて加減乗除等の算術演算や、論理和、論理積、論理否定等の論理演算、ビット和、ビット積、ビット反転、ビットシフト、ビット回転等のビット演算などを行うことができる。さらに、マルチメディア処理対応のための加減乗除等の飽和演算や、三角関数等、ベクトル演算などを高速に行えるように、CPU 101自身が構成されているものや、コプロセッサを備えて実現するものがある。   The CPU 101 controls the overall operation of the information processing apparatus 100 and is connected to each component to exchange control signals and data. Further, the CPU 101 uses arithmetic operations such as addition / subtraction / multiplication / division, logical sum, logical product, etc. using an ALU (Arithmetic Logic Unit) (not shown) for a storage area called a register (not shown) that can be accessed at high speed. , Logic operations such as logical negation, bit operations such as bit sum, bit product, bit inversion, bit shift, and bit rotation can be performed. In addition, the CPU 101 itself is configured so that saturation operations such as addition / subtraction / multiplication / division for multimedia processing, vector operations such as trigonometric functions, etc. can be performed at a high speed, and those provided with a coprocessor. There is.

ROM 102には、電源投入直後に実行されるIPL(Initial Program Loader)が記録され、これが実行されることにより、DVD−ROMに記録されたプログラムをRAM 103に読み出してCPU 101による実行が開始される。また、ROM 102には、情報処理装置100全体の動作制御に必要なオペレーティングシステムのプログラムや各種のデータが記録される。   The ROM 102 records an IPL (Initial Program Loader) that is executed immediately after the power is turned on, and when this is executed, the program recorded on the DVD-ROM is read out to the RAM 103 and execution by the CPU 101 is started. The The ROM 102 stores an operating system program and various data necessary for operation control of the entire information processing apparatus 100.

RAM 103は、データやプログラムを一時的に記憶するためのもので、DVD−ROMから読み出したプログラムやデータ、その他ゲームの進行やチャット通信に必要なデータが保持される。また、CPU 101は、RAM 103に変数領域を設け、当該変数に格納された値に対して直接ALUを作用させて演算を行ったり、RAM 103に格納された値を一旦レジスタに格納してからレジスタに対して演算を行い、演算結果をメモリに書き戻す、などの処理を行う。   The RAM 103 is for temporarily storing data and programs, and holds programs and data read from the DVD-ROM and other data necessary for game progress and chat communication. Further, the CPU 101 provides a variable area in the RAM 103 and performs an operation by directly operating the ALU on the value stored in the variable, or temporarily stores the value stored in the RAM 103 in the register. Perform operations such as performing operations on registers and writing back the operation results to memory.

インターフェイス104を介して接続されたコントローラ105は、ユーザがゲーム実行の際に行う操作入力を受け付ける。なお、コントローラ105の詳細については後述する。   The controller 105 connected via the interface 104 receives an operation input performed when the user executes the game. Details of the controller 105 will be described later.

インターフェイス104を介して着脱自在に接続された外部メモリ106には、ゲーム等のプレイ状況(過去の成績等)を示すデータ、ゲームの進行状態を示すデータ、ネットワーク対戦の場合のチャット通信のログ(記録)のデータなどが書き換え可能に記憶される。ユーザは、コントローラ105を介して指示入力を行うことにより、これらのデータを適宜外部メモリ106に記録することができる。   The external memory 106 detachably connected via the interface 104 stores data indicating game play status (past results, etc.), data indicating game progress, and log of chat communication in the case of a network match ( Data) is stored in a rewritable manner. The user can record these data in the external memory 106 as appropriate by inputting an instruction via the controller 105.

DVD−ROMドライブ108に装着されるDVD−ROMには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データが記録される。CPU 101の制御によって、DVD−ROMドライブ108は、これに装着されたDVD−ROMに対する読み出し処理を行って、必要なプログラムやデータを読み出し、これらはRAM 103等に一時的に記憶される。   A DVD-ROM mounted on the DVD-ROM drive 108 stores a program for realizing the game and image data and audio data associated with the game. Under the control of the CPU 101, the DVD-ROM drive 108 performs a reading process on the DVD-ROM loaded therein, reads out necessary programs and data, and these are temporarily stored in the RAM 103 or the like.

画像処理部107は、DVD−ROMから読み出されたデータをCPU 101や画像処理部107が備える画像演算プロセッサ(図示せず)によって加工処理した後、これを画像処理部107が備えるフレームメモリ(図示せず)に記録する。フレームメモリに記録された画像情報は、所定の同期タイミングでビデオ信号に変換され画像処理部107に接続されるモニタ(図示せず)へ出力される。これにより、各種の画像表示が可能となる。   The image processing unit 107 processes the data read from the DVD-ROM by an image arithmetic processor (not shown) included in the CPU 101 or the image processing unit 107, and then processes the processed data on a frame memory ( (Not shown). The image information recorded in the frame memory is converted into a video signal at a predetermined synchronization timing and output to a monitor (not shown) connected to the image processing unit 107. Thereby, various image displays are possible.

画像演算プロセッサは、2次元の画像の重ね合わせ演算やαブレンディング等の透過演算、各種の飽和演算を高速に実行できる。   The image calculation processor can execute a two-dimensional image overlay calculation, a transmission calculation such as α blending, and various saturation calculations at high speed.

また、仮想空間が3次元にて構成される場合には、当該3次元空間内に配置され、各種のテクスチャ情報が付加されたポリゴン情報を、Zバッファ法によりレンダリングして、所定の視点位置から仮想空間に配置されたポリゴンを所定の視線の方向へ俯瞰したレンダリング画像を得る演算の高速実行も可能である。   In addition, when the virtual space is configured in three dimensions, polygon information that is arranged in the three-dimensional space and to which various texture information is added is rendered by the Z buffer method, and a predetermined viewpoint position is used. It is also possible to perform a high-speed execution of a calculation that obtains a rendering image obtained by looking down at a polygon arranged in the virtual space in the direction of a predetermined line of sight.

さらに、CPU 101と画像演算プロセッサが協調動作することにより、文字の形状を定義するフォント情報にしたがって、文字列を2次元画像としてフレームメモリへ描画したり、各ポリゴン表面へ描画することが可能である。   Further, the CPU 101 and the image arithmetic processor operate in a coordinated manner, so that a character string can be drawn as a two-dimensional image in a frame memory or drawn on the surface of each polygon according to font information that defines the character shape. is there.

NIC 109は、情報処理装置100をインターネット等のコンピュータ通信網(図示せず)に接続するためのものであり、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−T規格にしたがうものや、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integrated Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム等と、これらとCPU 101との仲立ちを行うインターフェイス(図示せず)により構成される。   The NIC 109 is used to connect the information processing apparatus 100 to a computer communication network (not shown) such as the Internet, and is based on the 10BASE-T / 100BASE-T standard used when configuring a LAN (Local Area Network). To connect to the Internet using an analog modem, ISDN (Integrated Services Digital Network) modem, ADSL (Asymmetric Digital Subscriber Line) modem, cable television line A cable modem or the like, and an interface (not shown) that mediates between them and the CPU 101 are configured.

音声処理部110は、DVD−ROMから読み出した音声データをアナログ音声信号に変換し、これに接続されたスピーカ(図示せず)から出力させる。また、CPU 101の制御の下、ゲームの進行の中で発生させるべき効果音や楽曲データを生成し、これに対応した音声をスピーカから出力させる。   The audio processing unit 110 converts audio data read from the DVD-ROM into an analog audio signal and outputs the analog audio signal from a speaker (not shown) connected thereto. Further, under the control of the CPU 101, sound effects and music data to be generated during the progress of the game are generated, and sound corresponding to this is output from the speaker.

音声処理部110では、DVD−ROMに記録された音声データがMIDIデータである場合には、これが有する音源データを参照して、MIDIデータをPCMデータに変換する。また、ADPCM形式やOgg Vorbis形式等の圧縮済音声データである場合には、これを展開してPCMデータに変換する。PCMデータは、そのサンプリング周波数に応じたタイミングでD/A(Digital/Analog)変換を行って、スピーカに出力することにより、音声出力が可能となる。   When the audio data recorded on the DVD-ROM is MIDI data, the audio processing unit 110 refers to the sound source data included in the audio data and converts the MIDI data into PCM data. If the compressed audio data is in ADPCM format or Ogg Vorbis format, it is expanded and converted to PCM data. The PCM data can be output by performing D / A (Digital / Analog) conversion at a timing corresponding to the sampling frequency and outputting it to a speaker.

さらに、情報処理装置100には、インターフェイス104を介してマイク111を接続することができる。この場合、マイク111からのアナログ信号に対しては、適当なサンプリング周波数でA/D変換を行い、PCM形式のディジタル信号として、音声処理部110でのミキシング等の処理ができるようにする。   Furthermore, a microphone 111 can be connected to the information processing apparatus 100 via the interface 104. In this case, the analog signal from the microphone 111 is subjected to A / D conversion at an appropriate sampling frequency so that processing such as mixing in the sound processing unit 110 can be performed as a PCM format digital signal.

このほか、情報処理装置100は、ハードディスク等の大容量外部記憶装置を用いて、ROM 102、RAM 103、外部メモリ106、DVD−ROMドライブ108に装着されるDVD−ROM等と同じ機能を果たすように構成してもよい。   In addition, the information processing apparatus 100 uses a large-capacity external storage device such as a hard disk so as to perform the same function as the ROM 102, the RAM 103, the external memory 106, the DVD-ROM mounted on the DVD-ROM drive 108, and the like. You may comprise.

以上で説明した情報処理装置100は、いわゆる「コンシューマ向けテレビゲーム装置」に相当するものであるが、仮想空間を表示するような画像処理を行うものであれば本発明を実現することができる。したがって、携帯電話、携帯ゲーム機器、カラオケ装置、一般的なビジネス用コンピュータなど、種々の計算機上で本発明を実現することが可能である。   The information processing apparatus 100 described above corresponds to a so-called “consumer video game apparatus”, but the present invention can be realized as long as it performs image processing to display a virtual space. Therefore, the present invention can be realized on various computers such as a mobile phone, a portable game device, a karaoke apparatus, and a general business computer.

たとえば、一般的なコンピュータは、上記情報処理装置100と同様に、CPU、RAM、ROM、DVD−ROMドライブ、および、NICを備え、情報処理装置100よりも簡易な機能を備えた画像処理部を備え、外部記憶装置としてハードディスクを有する他、フレキシブルディスク、光磁気ディスク、磁気テープ等が利用できるようになっている。また、コントローラ105ではなく、キーボードやマウスなどを入力装置として利用する。   For example, a general computer, like the information processing apparatus 100, includes an image processing unit that includes a CPU, RAM, ROM, DVD-ROM drive, and NIC and has simpler functions than the information processing apparatus 100. In addition to having a hard disk as an external storage device, a flexible disk, a magneto-optical disk, a magnetic tape, and the like can be used. Further, not the controller 105 but a keyboard or a mouse is used as an input device.

本実施形態では、現実の空間における位置や姿勢などの種々のパラメータが測定できるようなコントローラ105を採用する。   In the present embodiment, a controller 105 that can measure various parameters such as a position and posture in an actual space is employed.

図2は、現実の空間における位置や姿勢などの種々のパラメータが測定できるようなコントローラ105と情報処理装置100との外観を示す説明図である。以下、本図を参照して説明する。   FIG. 2 is an explanatory diagram showing the external appearance of the controller 105 and the information processing apparatus 100 that can measure various parameters such as position and posture in the actual space. Hereinafter, a description will be given with reference to FIG.

コントローラ105は、把持モジュール201と発光モジュール251との組合せからなっており、把持モジュール201は無線通信によって情報処理装置100と通信可能に接続されており、発光モジュール251は、有線で情報処理装置100と通信可能に接続されている。情報処理装置100の処理結果の音声および画像は、テレビジョン装置291によって出力表示される。   The controller 105 includes a combination of the grip module 201 and the light emitting module 251, and the grip module 201 is connected to the information processing apparatus 100 through wireless communication so that the light emitting module 251 is wired. Is communicably connected. The sound and image of the processing result of the information processing apparatus 100 are output and displayed by the television apparatus 291.

把持モジュール201は、テレビジョン装置291のリモートコントローラと類似した外観をしており、その先端には、CCDカメラ202が配置されている。   The grip module 201 has an appearance similar to the remote controller of the television device 291, and a CCD camera 202 is disposed at the tip thereof.

一方発光モジュール251は、テレビジョン装置291の上部に固定されている。発光モジュール251の両端には、発光ダイオード252が配置されており、情報処理装置100からの電源供給によって発光する。   On the other hand, the light emitting module 251 is fixed to the upper part of the television device 291. Light emitting diodes 252 are disposed at both ends of the light emitting module 251, and emits light when power is supplied from the information processing apparatus 100.

把持モジュール201のCCDカメラ202は、この発光モジュール251の様子を撮影する。   The CCD camera 202 of the grip module 201 takes a picture of the light emitting module 251.

撮影された画像の情報は、情報処理装置100に送信され、情報処理装置100は、当該撮影された画像内において発光ダイオード252が撮影された位置に基づいて、発光モジュール251に対する把持モジュール201の位置を取得する。   Information on the captured image is transmitted to the information processing apparatus 100, and the information processing apparatus 100 determines the position of the grip module 201 with respect to the light emitting module 251 based on the position at which the light emitting diode 252 is captured in the captured image. To get.

このほか、把持モジュール201内には、加速度センサ、角加速度センサ、傾きセンサ等が内蔵されており、把持モジュール201そのものの姿勢を測定することが可能となっている。この測定結果も、情報処理装置100に送信される。   In addition, an acceleration sensor, an angular acceleration sensor, an inclination sensor, and the like are built in the grip module 201, and the posture of the grip module 201 itself can be measured. This measurement result is also transmitted to the information processing apparatus 100.

把持モジュール201の上面には、十字形キー203が配置されており、プレイヤは、十字形キー203を押し込み操作することによって、各種の方向指示入力を行うことができる。また、Aボタン204ほか、各種ボタン206も上面に配置されており、当該ボタンに対応付けられた指示入力を行うことができる。   A cross-shaped key 203 is arranged on the upper surface of the grip module 201, and the player can input various directions by pressing the cross-shaped key 203. In addition to the A button 204, various buttons 206 are also arranged on the upper surface, and an instruction input associated with the button can be performed.

一方、Bボタン205は、把持モジュール201の下面に配置されており、把持モジュール201の下面に窪みが構成されていることとあいまって、拳銃やマジックハンドにおける引き金を模したものとなっている。典型的には、仮想空間内における拳銃による発砲やマジックハンドによる把持の指示入力は、Bボタン205を用いて行われる。   On the other hand, the B button 205 is disposed on the lower surface of the grip module 201 and, in combination with the depression formed on the lower surface of the grip module 201, simulates a trigger in a handgun or a magic hand. Typically, the B button 205 is used to input an instruction for firing with a handgun or holding with a magic hand in a virtual space.

また、把持モジュール201の上面のインジケータ207は、把持モジュール201の動作状況や情報処理装置100との無線通信状況などをプレイヤに提示する。   Further, the indicator 207 on the upper surface of the grip module 201 presents to the player the operation status of the grip module 201 and the status of wireless communication with the information processing apparatus 100.

把持モジュール201の上面に用意された電源ボタン208は、把持モジュール201そのものの動作のオン・オフを行うもので、把持モジュール201は内蔵された電池(図示せず。)によって動作する。   A power button 208 prepared on the upper surface of the grip module 201 turns on / off the grip module 201 itself, and the grip module 201 is operated by a built-in battery (not shown).

このほか、把持モジュール201内部には、バイブレータ(図示せず。)が用意されており、情報処理装置100からの指示に基づいて、振動の有無や強弱を制御することができるようになっている。   In addition, a vibrator (not shown) is prepared inside the grip module 201 so that the presence or absence and strength of vibration can be controlled based on an instruction from the information processing apparatus 100. .

以下では、把持モジュール201と発光モジュール251との組合せからなるコントローラ105を用いて、コントローラ105の現実世界における位置や姿勢を測定することを前提に説明する。ただし、上記のような形態によらず、たとえば超音波や赤外線通信、GPS(Global Positioning System)等を利用してコントローラ105の現実世界における位置や姿勢を測定するとした場合であっても、本発明の範囲に含まれる。   The following description is based on the assumption that the controller 105 that is a combination of the grip module 201 and the light emitting module 251 is used to measure the position and orientation of the controller 105 in the real world. However, the present invention is not limited to the above-described form, and even when the position and orientation of the controller 105 in the real world are measured using, for example, ultrasonic waves, infrared communication, GPS (Global Positioning System), or the like. Included in the range.

(ゲームの概要)
以下では、本発明が適用されるゲームの概要について説明する。本ゲームでは、仮想空間に配置されたオブジェクトを、マジックハンドで掴んである場所から別の場所へ移動させることを、一つの目的としている。本ゲームにおいては、プレイヤがコントローラを握るのに対応して、キャラクターはマジックハンドの柄を握っている。
(Outline of the game)
Below, the outline | summary of the game to which this invention is applied is demonstrated. In this game, one object is to move an object placed in the virtual space from one place to another place held by the magic hand. In this game, the character holds the handle of the magic hand in response to the player holding the controller.

ここで、マジックハンドとは、人の手の届く範囲よりも広い範囲に伸びる棒状の「腕」があり、その「腕」の先に配置される「手」によって、物を「吸着」して運搬したり、当該「吸着」を停止したりすることができるようなものをいう。したがって、棹の先端にトリモチがつけられており、そのトリモチによって遠方の物を獲得できるようにしたものも、マジックハンドと考えることができる。以下、理解を容易にするため、物がマジックハンドによって運搬されている間の状態を、日常的な文章表現に則って、「マジックハンドが物を掴んでいる」と呼ぶこととする。   Here, the magic hand has a rod-shaped “arm” that extends over a wider area than the reach of human hands, and “sucks” an object with the “hand” placed at the end of the “arm”. It means something that can be transported or stopped. Therefore, the magic hand can be considered to have a trimochi attached to the tip of the heel so that a distant object can be acquired by the trimochi. Hereinafter, in order to facilitate understanding, a state in which an object is being carried by a magic hand will be referred to as “a magic hand is grasping an object” in accordance with daily text expressions.

図3は、このようなゲームにおける仮想空間と現実世界との対応関係を示す説明図である。以下、本図を参照して説明する。   FIG. 3 is an explanatory diagram showing the correspondence between the virtual space and the real world in such a game. Hereinafter, a description will be given with reference to FIG.

仮想空間301には、マジックハンド302と、これで掴む対象となるオブジェクト303と、が配置されている。このマジックハンド302は、柄304と牽引ビームから構成されており、マジックハンド302の全長の大半を牽引ビームが占めている。「牽引ビーム」とは、漫画やアニメーションなどにおいて設定として採用されているもので、牽引ビームの先端で物体を掴み、その物体を引き寄せることができるようなものをいう。   In the virtual space 301, a magic hand 302 and an object 303 to be grasped by this are arranged. The magic hand 302 includes a handle 304 and a traction beam, and the traction beam occupies most of the entire length of the magic hand 302. The “traction beam” is used as a setting in comics and animations, and means that the object can be grabbed by the tip of the tow beam and pulled.

本ゲームにおけるマジックハンド302の牽引ビームは棒状の形状をしている。そして、この牽引ビームは、オブジェクトを何も掴んでいないときには、いずれかのオブジェクト(壁など、各種の障害物のオブジェクトを含む。)に衝突するまで、マジックハンド302の柄304の一端の射出口から半直線状に伸びている。したがって、マジックハンド302の柄304の姿勢によって、マジックハンド302の牽引ビームの射出方向が定まることになる。   The tow beam of the magic hand 302 in this game has a rod shape. And when this tow beam does not hold any object, the exit port at one end of the handle 304 of the magic hand 302 until it collides with any object (including objects of various obstacles such as walls). It extends in a straight line. Accordingly, the direction in which the magic hand 302 emits the traction beam is determined by the posture of the handle 304 of the magic hand 302.

ここで、現実世界のプレイヤが把持モジュール201の位置・姿勢を変化させると、これに呼応して、マジックハンド302の柄304の位置・姿勢も変化する。したがって、本ゲームにおいては、把持モジュール201を測定対象として、把持モジュール201の位置や姿勢が測定され、マジックハンド302の柄304が指示対象となり、「当該把持モジュール201の姿勢の変化」という指示に基づいて、仮想空間301内において、マジックハンド302の柄304の位置や姿勢が変化させられることになる。   Here, when the player in the real world changes the position / posture of the grip module 201, the position / posture of the handle 304 of the magic hand 302 also changes accordingly. Therefore, in this game, the position and posture of the grip module 201 are measured with the grip module 201 as the measurement target, the pattern 304 of the magic hand 302 is the target of the instruction, and the instruction “change in posture of the grip module 201” is given. Based on this, the position and posture of the handle 304 of the magic hand 302 are changed in the virtual space 301.

プレイヤは、ゲームの開始時に把持モジュール201を最も把持しやすい場所に固定する。すると、これに応じて、仮想空間301内に配置された視点305および視線306に対して、相対的に定められた位置に、最も自然な姿勢で、マジックハンド302の柄304が配置される。   The player fixes the grip module 201 at a position where it is most easily gripped at the start of the game. Then, in response to this, the handle 304 of the magic hand 302 is arranged at a position relatively determined with respect to the viewpoint 305 and the line of sight 306 arranged in the virtual space 301 with the most natural posture.

このとき、現実世界においては、プレイヤに対して把持モジュール201が「基準位置」に配置されることとなり、仮想世界301においては、視点305および視線306に対してマジックハンド302の柄304が「基準位置」に配置されることになる。   At this time, in the real world, the grip module 201 is arranged at the “reference position” with respect to the player. In the virtual world 301, the handle 304 of the magic hand 302 is “reference” with respect to the viewpoint 305 and the line of sight 306. "Position".

この「基準位置」は、仮想空間内の視点305および視線306に対して相対的に決まるのであるが、これは、プレイヤが最も自然な姿勢で把持モジュール201を持った位置が、プレイヤの目の位置に対して相対的に決まることに呼応している。   This “reference position” is determined relative to the viewpoint 305 and the line of sight 306 in the virtual space. This is because the position where the player holds the grip module 201 in the most natural posture is determined. It corresponds to being determined relative to the position.

仮想空間301内の視点305および視線306は、プレイヤが操作する(演ずる)仮想空間内のキャラクターの目(主観視点ともいう。)や、当該キャラクターを背後から見る目(客観視点、背後霊視点ともいう。)に対応し、この目がプレイヤの目に相当するものである。したがって、マジックハンド302の柄304の基準位置は、プレイヤの利き手に応じて、視点305よりも右下もしくは左下となるのが典型的である。   The viewpoint 305 and the line of sight 306 in the virtual space 301 are the eyes of the character in the virtual space (also referred to as the subjective viewpoint) operated (played) by the player, and the eyes looking at the character from behind (both the objective viewpoint and the background spirit viewpoint). This eye corresponds to the eye of the player. Therefore, the reference position of the handle 304 of the magic hand 302 is typically lower right or lower left than the viewpoint 305 depending on the dominant hand of the player.

視点305から視線306の方向に進むと、仮想的な投影面307が、視線306に直交している。仮想空間301の様子は、画面に表示すべきオブジェクト303やマジックハンド302の牽引ビームを、この投影面307に、透視投影することによって得られる画像によってプレイヤに提示される。   When proceeding from the viewpoint 305 in the direction of the line of sight 306, the virtual projection plane 307 is orthogonal to the line of sight 306. The state of the virtual space 301 is presented to the player by an image obtained by perspectively projecting the object 303 to be displayed on the screen and the tow beam of the magic hand 302 onto the projection plane 307.

透視投影の手法としては、視点305とオブジェクト303等とを結ぶ直線が、投影面307と交叉する点を用いる一点集中型投影が典型的であるが、視点305を無限遠方に配置し、オブジェクト303を通過して視線306に平行な直線が、投影面307と交叉する点を用いる平行投影を採用しても良い。   As a perspective projection method, a single point concentrated projection using a point where a straight line connecting the viewpoint 305 and the object 303 etc. intersects the projection plane 307 is typical, but the viewpoint 305 is arranged at infinity and the object 303 is arranged. Parallel projection using a point that passes through the line 306 and intersects the projection plane 307 with a straight line parallel to the line of sight 306 may be employed.

上記のように、マジックハンド302の柄304は、視点の右下(左下)に配置されているので、普通の状況では、投影面307のうちの画面に表示される範囲の外に透視投影される。したがって、画面にはマジックハンド302の柄304が表示されないのが一般的である。   As described above, since the handle 304 of the magic hand 302 is disposed at the lower right (lower left) of the viewpoint, in a normal situation, the pattern 304 is perspectively projected outside the range displayed on the screen of the projection surface 307. The Therefore, the pattern 304 of the magic hand 302 is generally not displayed on the screen.

さて、プレイヤが現実世界での基準位置から把持モジュール201の位置や姿勢を変化させると、その測定結果を参照して、情報処理装置100は、マジックハンド302の柄304の位置や姿勢を、基準位置から対応する量(典型的には、現実世界と同じ量。)だけ、移動させる。   When the player changes the position or posture of the grip module 201 from the reference position in the real world, the information processing apparatus 100 refers to the measurement result and determines the position and posture of the handle 304 of the magic hand 302 as the reference. Move from the position by a corresponding amount (typically the same amount as in the real world).

したがって、視点305および視線306に対する柄304の相対的な位置および姿勢は、把持モジュール201の位置や姿勢の変化に連動することとなる。プレイヤは、操作対象として把持モジュール201を用いて、指示対象たるマジックハンド302の柄304の位置や姿勢を変化させるのである。   Accordingly, the relative position and posture of the handle 304 with respect to the viewpoint 305 and the line of sight 306 are linked to changes in the position and posture of the grip module 201. The player uses the grip module 201 as an operation target, and changes the position and posture of the handle 304 of the magic hand 302 that is an instruction target.

プレイヤは、把持モジュール201の位置や姿勢を変化させて、マジックハンド302の柄304から伸びる牽引ビームが、所望のオブジェクト303に衝突するように操作する。そして、把持モジュール201のBボタン205を押圧する。すると、マジックハンド302の先端が、オブジェクト303を掴むことになる。   The player changes the position and posture of the grip module 201 and operates the traction beam extending from the handle 304 of the magic hand 302 to collide with a desired object 303. Then, the B button 205 of the grip module 201 is pressed. Then, the tip of the magic hand 302 grasps the object 303.

上記のように、マジックハンド302の牽引ビームは、マジックハンド302の柄304の一端の射出点から、掴んだオブジェクト303の位置を目標点として向かう。したがって、Bボタン205の押圧によって、牽引ビームが向かうべき目標位置が設定されることになり、これはちょうど、射撃ゲームにおける引き金を引いた状態に相当する。また、本実施形態では、Bボタン205を押していないときは、マジックハンド302の牽引ビームが初めて衝突するオブジェクト303の位置が、牽引ビームの目標位置として設定されることになる。   As described above, the tow beam of the magic hand 302 is directed from the injection point at one end of the handle 304 of the magic hand 302 with the position of the grasped object 303 as a target point. Accordingly, the target position to which the tow beam should go is set by pressing the B button 205, which corresponds to a state in which a trigger is pulled in the shooting game. In the present embodiment, when the B button 205 is not pressed, the position of the object 303 that the tow beam of the magic hand 302 collides for the first time is set as the target position of the tow beam.

この後は、オブジェクト303についての、運動のシミュレーションが開始される。オブジェクト303に印加される外力は以下の通りである。
(1)仮想空間内における重力。典型的には下向きである。
(2)仮想空間内において、マジックハンド302の柄304(もしくは視点305)とオブジェクト303とを結ぶ直線方向の力。いわゆる牽引力や反発力に相当する。これは、画面表示上は、プレイヤに近付く力、プレイヤから遠ざかる力に相当し、オブジェクト303とマジックハンド302の柄304(もしくは視点305)との距離、すなわち、マジックハンド302の伸縮によって定まる。
(3)仮想空間内において、マジックハンド302の柄304(もしくは視点305)とオブジェクト303とを結ぶ直線に直交する方向の力。これは、画面表示上は、上下左右に向かう力に相当し、マジックハンド302が撓む方向とその大きさによって定まる。
(4)オブジェクト303が移動している間に、移動方向とは反対向きに印加される力。いわゆる動摩擦力に相当する。
(5)オブジェクト303が静止している間に、外力とは反対向きに、同じ大きさだけ印加される力。いわゆる静止摩擦力に相当する。
Thereafter, a motion simulation for the object 303 is started. The external force applied to the object 303 is as follows.
(1) Gravity in virtual space. Typically down.
(2) A linear force that connects the handle 304 (or the viewpoint 305) of the magic hand 302 and the object 303 in the virtual space. It corresponds to so-called traction and repulsion. This corresponds to the force of approaching the player and the force of moving away from the player on the screen display, and is determined by the distance between the object 303 and the handle 304 (or the viewpoint 305) of the magic hand 302, that is, the expansion and contraction of the magic hand 302.
(3) A force in a direction orthogonal to a straight line connecting the handle 304 (or viewpoint 305) of the magic hand 302 and the object 303 in the virtual space. On the screen display, this corresponds to a force directed upward, downward, leftward, and rightward, and is determined by the direction in which the magic hand 302 is bent and its size.
(4) A force applied in the direction opposite to the moving direction while the object 303 is moving. It corresponds to the so-called dynamic friction force.
(5) A force applied by the same magnitude in the opposite direction to the external force while the object 303 is stationary. This corresponds to a so-called static friction force.

ここで、マジックハンド302の伸縮および撓みについてさらに詳細に説明する。図4は、マジックハンド302の柄304とオブジェクト303との位置関係と、力の方向を示す説明図である。   Here, the expansion and contraction and bending of the magic hand 302 will be described in more detail. FIG. 4 is an explanatory diagram showing the positional relationship between the handle 304 of the magic hand 302 and the object 303 and the direction of the force.

本図に示すように、オブジェクト303を掴んでいるマジックハンド302は、柄304の位置や姿勢をプレイヤが変化させると、伸縮したり撓んだりする。一方、前述した通り、マジックハンド302の牽引ビームが何も掴んでいないときは、牽引ビームは、柄304の一端に設けられた射出口から直進する。   As shown in the figure, the magic hand 302 holding the object 303 expands and contracts or bends when the player changes the position or posture of the handle 304. On the other hand, as described above, when the traction beam of the magic hand 302 is not grasping anything, the traction beam goes straight from the injection port provided at one end of the handle 304.

そこで、以下では、マジックハンド302の柄304の姿勢の方向311を、「マジックハンド302の牽引ビームが何も掴んでいないと仮定したときに牽引ビームが柄304の一端に設けられた射出口から直進する方向」と定義する。   Therefore, in the following, the direction 311 of the posture of the handle 304 of the magic hand 302 is defined as “from the injection port provided at one end of the handle 304 when it is assumed that the tow beam of the magic hand 302 is not grasping anything. It is defined as “straight direction”.

一般に、マジックハンド302の牽引ビームがオブジェクト303を掴んでいるとき、オブジェクト303の重さによって牽引ビームが撓むため、マジックハンド302の柄304の姿勢の方向311と、柄304からオブジェクト303へ向かう方向とは、ずれが生じる。   In general, when the tow beam of the magic hand 302 is gripping the object 303, the tow beam is deflected by the weight of the object 303. Therefore, the orientation direction 311 of the handle 304 of the magic hand 302 and the handle 304 toward the object 303 are directed. There is a deviation from the direction.

したがって、牽引ビームは、柄304の姿勢の方向311に接するように発射され、その後滑らかに撓んで、オブジェクト303に至る曲線を描くこととなる。このような曲線としては、スプライン補間により得られるスプライン曲線や、円弧等、種々の曲線を用いることができる。このとき、オブジェクト303における牽引ビームの方向は、いわゆる開放端として計算するのが容易である。   Therefore, the traction beam is fired so as to be in contact with the direction 311 of the posture of the handle 304, and then smoothly bends to draw a curve that reaches the object 303. As such a curve, various curves such as a spline curve obtained by spline interpolation and an arc can be used. At this time, the direction of the traction beam in the object 303 can be easily calculated as a so-called open end.

オブジェクト303をマジックハンド302が掴み始めた瞬間の、柄304(もしくは視点305)とオブジェクト303との距離を、マジックハンド302の自然長と考えると、この自然長と、現在の仮想空間における柄304とオブジェクト303との距離と、を、対比すれば、バネに相当するような牽引力(反発力)411をシミュレートできる。すなわち、当該距離から自然長を引いた値に所定の整定数を乗じた値の牽引力(符号が負の場合は、絶対値の大きさの反発力。)411が生ずる、とすれば、簡易にシミュレーションを行うことができる。   Considering the distance between the pattern 304 (or the viewpoint 305) and the object 303 at the moment when the magic hand 302 starts grasping the object 303 as the natural length of the magic hand 302, the natural length and the pattern 304 in the current virtual space. If the distance between the object 303 and the object 303 is compared, a traction force (repulsive force) 411 corresponding to a spring can be simulated. That is, if a traction force (a repulsive force having an absolute value when the sign is negative) 411 is obtained by multiplying a value obtained by subtracting the natural length from the distance, a predetermined integer constant, it is simple. Simulation can be performed.

一方、オブジェクト303を上下左右に動かそうとする力412は、マジックハンド302の柄304の姿勢(オブジェクト303を掴んでいないとしたときの、牽引ビームが伸びる方向。)と、柄304(もしくは視点305)からオブジェクト303に向かう方向と、のずれによって生じる。   On the other hand, the force 412 for moving the object 303 up, down, left and right includes the posture of the handle 304 of the magic hand 302 (the direction in which the tow beam extends when the object 303 is not held) and the handle 304 (or the viewpoint). 305) to the object 303.

すなわち、上下左右の力412の方向は、柄304の姿勢の方向311の方向ベクトル321から柄304(もしくは視点305)からオブジェクト303への方向の方向ベクトル322を減算したベクトル323の方向であり、その大きさは、当該ベクトル323に比例する、とするものである。   That is, the direction of the up / down / left / right force 412 is the direction of the vector 323 obtained by subtracting the direction vector 322 in the direction from the handle 304 (or the viewpoint 305) to the object 303 from the direction vector 321 in the orientation direction 311 of the handle 304. The magnitude is proportional to the vector 323.

現実の物理現象に即して考える場合には、上下左右の力412は、さらに、柄304(もしくは視点305)とオブジェクト303との距離にも比例する、とすれば、簡易にシミュレーションを行うことができる。   When considering the actual physical phenomenon, if the vertical and horizontal force 412 is further proportional to the distance between the handle 304 (or the viewpoint 305) and the object 303, a simple simulation can be performed. Can do.

このようにして、マジックハンド302に掴まえられているがゆえにオブジェクト303に印加される外力が計算できれば、あとは、重力や静止摩擦力、動摩擦力を、通常の物理シミュレーションと同様に計算することによって、オブジェクト303にかかる加速度を計算することができ、これによって、オブジェクト303の位置を更新することができる。これにより、オブジェクト303を移動させるのである。   If the external force applied to the object 303 can be calculated because it is held by the magic hand 302 in this way, the gravity, static friction force, and dynamic friction force are calculated in the same manner as in a normal physical simulation. , The acceleration applied to the object 303 can be calculated, whereby the position of the object 303 can be updated. As a result, the object 303 is moved.

オブジェクト303が所望の位置に移動したら、指を離してBボタン205の押圧操作を解除する。これにより、マジックハンド302はオブジェクト303を掴むことをやめ、牽引ビームは、元の通り、マジックハンド302の柄304の姿勢の方向311に伸びるようになる。   When the object 303 moves to a desired position, the finger 303 is released to release the pressing operation of the B button 205. As a result, the magic hand 302 stops gripping the object 303, and the tow beam extends in the direction 311 of the posture of the handle 304 of the magic hand 302 as before.

(マジックハンドの柄の姿勢)
さて、マジックハンド302の牽引ビームの形状は、オブジェクト303を掴んでいないときは半直線状で、柄304の姿勢の方向311を示しているが、オブジェクト303を掴んでいるときは撓むため、プレイヤに柄304の姿勢の方向311を提示する他の手法が必要となる。そこで用いるのがカーソル(指示標識)である。
(Magic hand handle posture)
Now, the shape of the pulling beam of the magic hand 302 is semi-linear when the object 303 is not grasped and shows the direction 311 of the posture of the handle 304. Other methods for presenting the orientation direction 311 of the handle 304 to the player are required. Therefore, a cursor (indicating indicator) is used.

図5は、画面にカーソル(指示標識)とマジックハンドとオブジェクトが表示される様子を示す説明図である。以下、本図を参照して説明する。   FIG. 5 is an explanatory diagram showing a state in which a cursor (indicating sign), a magic hand, and an object are displayed on the screen. Hereinafter, a description will be given with reference to FIG.

本図においては、マジックハンド302がオブジェクト303を掴んでいる状態が示されており、画面501内で、柄304の方向311は牽引ビームの方向と一致していない。すなわち、カーソル308は、柄304の方向311を示す直線上に表示されるが、これは、マジックハンド302の牽引ビームの上ではない。   In this figure, the state in which the magic hand 302 is holding the object 303 is shown. In the screen 501, the direction 311 of the handle 304 does not coincide with the direction of the traction beam. That is, the cursor 308 is displayed on a straight line indicating the direction 311 of the handle 304, but this is not on the traction beam of the magic hand 302.

画面501への表示される画像は、投影面307へ投影されるオブジェクトの姿を示すものであるから、カーソル308の投影面307内における位置は、柄304から柄304の姿勢の方向311に伸びる半直線が投影面307に交叉する点の位置、とすれば良い。これによって、プレイヤは、画面を見るだけで、マジックハンド302の柄304の方向を適切に理解することができるようになる。   Since the image displayed on the screen 501 shows the shape of the object projected onto the projection plane 307, the position of the cursor 308 in the projection plane 307 extends from the pattern 304 to the posture direction 311 of the pattern 304. The position of the point where the half line intersects the projection plane 307 may be used. As a result, the player can appropriately understand the direction of the handle 304 of the magic hand 302 only by looking at the screen.

なお、マジックハンド302がオブジェクト303を掴んでいる状態では、柄304の方向311は牽引ビームの方向と一致している。カーソル308は、マジックハンド302の牽引ビームの上に表示されることになる。このような表示例については、後述する(図8(b))。   When the magic hand 302 is holding the object 303, the direction 311 of the handle 304 coincides with the direction of the traction beam. The cursor 308 will be displayed on the tow beam of the magic hand 302. Such a display example will be described later (FIG. 8B).

また、カーソル308が表示される実施形態では、マジックハンド302の操作手法に以下のような変形を適用することができる。すなわち、Bボタン205を押していない間は、マジックハンド302の牽引ビームは射出されず、柄304の位置や姿勢が変化すると、画面501内におけるカーソル308の表示位置が変化する。   In the embodiment in which the cursor 308 is displayed, the following modifications can be applied to the operation method of the magic hand 302. That is, while the B button 205 is not pressed, the tow beam of the magic hand 302 is not emitted, and the display position of the cursor 308 in the screen 501 changes when the position or posture of the handle 304 changes.

カーソル308の表示位置は、マジックハンド302の柄304の姿勢の方向311と投影面307とが交わる位置を採用しているが、この態様では、「マジックハンド302の柄304の姿勢の方向311が初めて衝突する他のオブジェクト303の表面の位置」と、始点305とを通過する直線が、投影面307と交わる位置を採用しても良い。後者のようにすると、ちょうどレーザーポインタで部屋の中の物体を指し示しているような操作感を得ることができる。   The display position of the cursor 308 employs a position where the orientation direction 311 of the handle 304 of the magic hand 302 intersects with the projection plane 307. In this embodiment, “the orientation direction 311 of the orientation of the handle 304 of the magic hand 302 is A position where a straight line passing through the position of the surface of another object 303 that collides for the first time and the start point 305 intersects the projection plane 307 may be adopted. In the latter case, it is possible to obtain an operational feeling as if an object in the room is pointed with a laser pointer.

そして、Bボタン205を押圧操作すると、マジックハンド302の柄304の射出口から牽引ビームが発射され、牽引ビームが初めて衝突したオブジェクト303が移動可能であれば、これを吸着する。カーソル308の表示位置として、レーザポインタで物体を指し示すような態様を採用しているときは、当該カーソル308が重なって表示されるオブジェクト303が吸着されるオブジェクト303となり、プレイヤにとってもわかりやすい。なお、吸着したオブジェクト303の移動は、上記の説明と同様である。   When the B button 205 is pressed, a traction beam is emitted from the exit of the handle 304 of the magic hand 302, and if the object 303 that the traction beam collides for the first time is movable, it is adsorbed. When the display position of the cursor 308 adopts an aspect in which an object is pointed by a laser pointer, the object 303 displayed by overlapping the cursor 308 becomes the object 303 to be picked up, which is easy for the player to understand. The movement of the attracted object 303 is the same as described above.

このほか、Bボタン205を押圧操作し続ける操作がプレイヤにとって面倒な場合もある。このような場合には、Bボタン205を押圧操作して離すと牽引ビームが発射されて吸着が行われ、そして、所望の位置までオブジェクト303を移動したら、もう一度、Bボタン205を押圧操作して離してマジックハンド302の牽引ビームを消去し、オブジェクト303が解放されるような形態を採用することもできる。   In addition, the operation of continuing to press the B button 205 may be troublesome for the player. In such a case, when the B button 205 is pressed and released, the traction beam is launched and suction is performed, and when the object 303 is moved to a desired position, the B button 205 is pressed again. It is also possible to adopt a form in which the tow beam of the magic hand 302 is erased and the object 303 is released.

上記の実施形態では、「指示入力の受付の開始」が「Bボタン205の押圧操作の開始」に、「指示入力の受付の終了」が「Bボタン205の押圧操作の終了」に、それぞれ対応するが、この態様では「指示入力の受付の開始」が「牽引ビームが射出されていない状態でBボタン205を押圧して離す操作」に、「指示入力の受付の終了」が「牽引ビームが射出されている状態でBボタン205の押圧して離す操作」に、それぞれ対応するのである。   In the above embodiment, “start of instruction input reception” corresponds to “start of pressing operation of B button 205”, and “end of reception of instruction input” corresponds to “end of pressing operation of B button 205”, respectively. However, in this mode, “start of instruction input reception” is “operation to press and release the B button 205 when the traction beam is not emitted”, “end reception of instruction input” is “ This corresponds to the operation of pressing and releasing the B button 205 in the ejected state.

いずれの操作体系を採用するかは、プレイヤの習熟度やゲームの種類によって適宜変更が可能である。また、指示入力を発するボタンの割り当てなどについては、Bボタン205ではなく、Aボタン204を採用する等、用途に応じて適宜変更が可能である。   Which operation system is adopted can be appropriately changed depending on the proficiency level of the player and the type of game. In addition, the assignment of a button for issuing an instruction input or the like can be appropriately changed according to the application, such as using the A button 204 instead of the B button 205.

(視点の位置の移動)
以上の説明では、視点305の位置は変化しなかったが、視点305に対して相対的にマジックハンド302の柄304の位置を変化させるだけでは、オブジェクト303を所望の位置に移動させることができない場合がある。このようなときに、視点305そのものを仮想空間内で移動させるためには、十字形キー203を利用する、という手法もありうる。しかしながら、本ゲームにおいては、プレイヤにとってもっと直観的な移動の手法を採用する。
(Moving the position of the viewpoint)
In the above description, the position of the viewpoint 305 has not changed, but the object 303 cannot be moved to a desired position simply by changing the position of the handle 304 of the magic hand 302 relative to the viewpoint 305. There is a case. In such a case, in order to move the viewpoint 305 itself in the virtual space, there may be a method of using the cross key 203. However, in this game, a more intuitive movement method is adopted for the player.

図6は、マジックハンドの柄304の位置と、視点305の移動の方向との関係を説明する説明図である。以下、本図を参照して説明する。   FIG. 6 is an explanatory diagram for explaining the relationship between the position of the handle 304 of the magic hand and the direction of movement of the viewpoint 305. Hereinafter, a description will be given with reference to FIG.

ゲームの開始時に、仮想空間301内において、視点305および視線306に対して相対的に、マジックハンド302の柄304の基準位置313が定められる。   At the start of the game, a reference position 313 of the handle 304 of the magic hand 302 is determined relative to the viewpoint 305 and line of sight 306 in the virtual space 301.

この後、プレイヤが把持モジュール201の位置を変化させると、マジックハンド302の柄304の位置も変化する。   Thereafter, when the player changes the position of the grip module 201, the position of the handle 304 of the magic hand 302 also changes.

そこで、現在の柄304の位置の位置ベクトルから、基準位置313の位置ベクトルを減算したベクトル314の方向に、視点を移動させるのである。   Therefore, the viewpoint is moved in the direction of a vector 314 obtained by subtracting the position vector of the reference position 313 from the position vector of the current pattern 304 position.

このため、ベクトル314(もしくはこれに定数を乗じたベクトル。)を、視点305の移動速度の速度ベクトルと考えて、所定の単位時間に当該速度ベクトルを乗じた量だけ、視点305を移動させるのが最も簡単である。   For this reason, the vector 314 (or a vector obtained by multiplying this by a constant) is regarded as a speed vector of the moving speed of the viewpoint 305, and the viewpoint 305 is moved by an amount obtained by multiplying the predetermined unit time by the speed vector. Is the simplest.

また、仮想空間301内に所定の平面(典型的には、仮想空間301内における「地面」に相当するものであるが、これには限られない。)を想定し、ベクトル314(もしくはこれに定数を乗じたベクトル。)の当該所定平面方向の成分を移動速度の速度ベクトルと考えて、処理を行ってもよい。   In addition, assuming a predetermined plane in the virtual space 301 (typically, although it is equivalent to “the ground” in the virtual space 301, but is not limited to this), the vector 314 (or the like) Processing may be performed by regarding the component in the predetermined plane direction of the vector multiplied by a constant as the velocity vector of the moving speed.

このほか、視点305を含むキャラクターに印加される外力ベクトル、もしくは、加速度ベクトル(これらの場合も、地面に平行な成分のみを考えるのが典型的である。)と考えて、視点305そのものの移動のシミュレーションを行うこともできる。   In addition, the movement of the viewpoint 305 itself is considered as an external force vector applied to the character including the viewpoint 305 or an acceleration vector (in these cases, it is typical to consider only a component parallel to the ground). Can also be simulated.

テレビジョン装置291を見ているプレイヤが、把持モジュール201を後に(背中の方向に)移動させると、仮想空間301内の視点305を持つキャラクターは、後ろ向きに移動する。したがって、オブジェクト303を掴んでいるマジックハンド302は幾分伸びることとなり、一般的には、オブジェクト303には、視点305を持つキャラクターに向かう引力が印加され、オブジェクト303も画面奥から手前に向かって移動することとなる。   When a player watching the television apparatus 291 moves the grip module 201 backward (in the direction of the back), the character having the viewpoint 305 in the virtual space 301 moves backward. Therefore, the magic hand 302 that holds the object 303 extends somewhat. In general, an attractive force toward the character having the viewpoint 305 is applied to the object 303, and the object 303 also moves from the back of the screen toward the front. Will move.

プレイヤが、把持モジュール201を前に(テレビジョン装置291に近付くように)移動させると、仮想空間301内の視点305を持つキャラクターは、前進する。すると、オブジェクト303を掴んでいるマジックハンド302は幾分縮むこととなり、一般的には、オブジェクト303には、視点305を持つキャラクターから離れようとする反発力が印加され、オブジェクト303も画面手前から奥に向かって進むことになる。   When the player moves the grip module 201 forward (to approach the television device 291), the character having the viewpoint 305 in the virtual space 301 moves forward. Then, the magic hand 302 holding the object 303 is somewhat shrunk. In general, a repulsive force is applied to the object 303 to move away from the character having the viewpoint 305, and the object 303 is also moved from the front of the screen. It will go to the back.

もっとも、オブジェクト303とマジックハンド302との間の柄304の間の伸び縮みによる牽引力・反発力は、必ずしも想定する必要はなく、マジックハンド302そのものの長さを変化させるような指示入力をAボタン204や各種ボタン206によって行うこととしても良い。   However, it is not always necessary to assume the traction force / repulsive force due to the expansion / contraction between the handle 304 between the object 303 and the magic hand 302, and an instruction input for changing the length of the magic hand 302 itself is given by the A button. 204 or various buttons 206 may be used.

上記の形態によって、
(1)仮想空間301内において、視点305を有するキャラクターを前後に移動させること
(2)仮想空間301内において、視点305および視線306に対して、マジックハンド302の柄304の相対的な位置および姿勢を変化させること
(3)仮想空間301内において、柄304から伸びる可撓性のマジックハンド302の先端でオブジェクト303を掴んだり、離したりすること
が可能となった。これらの機能によって、オブジェクト303を仮想空間301内である位置から別の位置へ移動させることができる。
According to the above form
(1) Move the character having the viewpoint 305 back and forth in the virtual space 301. (2) In the virtual space 301, the relative position of the handle 304 of the magic hand 302 with respect to the viewpoint 305 and the line of sight 306 Changing the posture (3) In the virtual space 301, the object 303 can be grasped and released by the tip of the flexible magic hand 302 extending from the handle 304. With these functions, the object 303 can be moved from a position in the virtual space 301 to another position.

以下では、本発明の原理にしたがって、これらの機能にさらに加えるべき、新たな機能について、順に説明する。   In the following, according to the principle of the present invention, new functions to be added to these functions will be described in order.

(視線の方向の制御)
上記の形態において、プレイヤがキャラクターの向き、すなわち、視線306の方向を変更したいと考える場合も多い。そして、上記の形態においては、把持モジュール201を現実空間で前後に移動させるだけで、キャラクターを前後に移動させることができたから、これと同様の容易な操作で、十字形キー203などを使わずに視線方向を変化させることができるようにしたい。以下では、このような技術について詳細に説明する。
(Gaze direction control)
In the above form, the player often wants to change the direction of the character, that is, the direction of the line of sight 306. In the above embodiment, since the character can be moved back and forth simply by moving the grip module 201 back and forth in the real space, the cross key 203 or the like can be used with the same simple operation. I want to be able to change the gaze direction. Hereinafter, such a technique will be described in detail.

上記のように、本実施形態においては、柄304の姿勢がカーソル308によって、画面501に表示されている。このカーソル308は、プレイヤが把持モジュール201の姿勢を変更するだけで、画面501内で表示される位置を容易に変更することができる。そこで、本技術では、カーソル308が画面501内に表示される位置に基づいて、キャラクターの向き、すなわち、視線306の方向を変更する。   As described above, in this embodiment, the posture of the pattern 304 is displayed on the screen 501 by the cursor 308. The cursor 308 can easily change the position displayed on the screen 501 only by the player changing the posture of the grip module 201. Therefore, in the present technology, the direction of the character, that is, the direction of the line of sight 306 is changed based on the position where the cursor 308 is displayed in the screen 501.

ここで図5に戻ると、画面501は、上縁部511、右縁部512、左縁部513、下縁部514、中央部515の5つの領域に分割されている。プレイヤは、以下のように把持モジュール201の姿勢を変化させることで、視線306の方向の移動の指示を行う。
(a)視線306を上に移動したいときには、カーソル308が上縁部511に表示されるように、把持モジュール201の姿勢を変更し、
(b)視線306を右に移動したいときには、カーソル308が右縁部512に表示されるように、把持モジュール201の姿勢を変更し、
(c)視線306を左に移動したいときには、カーソル308が左縁部513に表示されるように、把持モジュール201の姿勢を変更し、
(d)視線306を下に移動したいときには、カーソル308が下縁部514に表示されるように、把持モジュール201の姿勢を変更し、
(e)視線306の方向が所望の方向となったら、カーソル308が中央部515に表示されるように、把持モジュール201の姿勢を変更する。
Here, returning to FIG. 5, the screen 501 is divided into five regions: an upper edge portion 511, a right edge portion 512, a left edge portion 513, a lower edge portion 514, and a central portion 515. The player gives an instruction to move in the direction of the line of sight 306 by changing the posture of the grip module 201 as follows.
(A) When it is desired to move the line of sight 306 upward, the posture of the grip module 201 is changed so that the cursor 308 is displayed on the upper edge 511,
(B) When it is desired to move the line of sight 306 to the right, the posture of the grip module 201 is changed so that the cursor 308 is displayed on the right edge 512,
(C) When it is desired to move the line of sight 306 to the left, the posture of the grip module 201 is changed so that the cursor 308 is displayed on the left edge 513,
(D) When moving the line of sight 306 downward, change the posture of the grip module 201 so that the cursor 308 is displayed on the lower edge 514,
(E) When the direction of the line of sight 306 becomes a desired direction, the posture of the grip module 201 is changed so that the cursor 308 is displayed on the central portion 515.

すなわち、指示標識(カーソル308)が、画面501内の所定の表示領域(上縁部511、右縁部512、左縁部513、下縁部514)に表示されている間、当該表示領域のそれぞれに対応付けられる上右左下の方向に、視線306の方向を移動させ、指示標識(カーソル308)が画面501内の所定の表示領域以外の領域(中央部515)に表示されるようにすると、視線306の方向の移動を停止するのである。   That is, while the indication mark (cursor 308) is displayed in a predetermined display area (upper edge 511, right edge 512, left edge 513, lower edge 514) in the screen 501, the display area When the direction of the line of sight 306 is moved in the upper right and lower left directions associated with each of the directions, the indication mark (cursor 308) is displayed in an area (central part 515) other than a predetermined display area in the screen 501. The movement in the direction of the line of sight 306 is stopped.

情報処理装置は、単位時間おき(たとえば、垂直同期割り込みの周期ごと。)にカーソル308の位置が画面501内のどの領域に含まれるかを識別する。そして、必要があれば、当該領域に割り当てられた移動量と方向に、視線306の方向を変化させる。   The information processing apparatus identifies in which area in the screen 501 the position of the cursor 308 is included at every unit time (for example, every vertical synchronization interrupt cycle). If necessary, the direction of the line of sight 306 is changed to the movement amount and direction assigned to the area.

これによって、視線306の方向が変化するのであるが、その後に、仮想空間内におけるマジックハンド302の柄304の姿勢311の方向を、画面501内でのカーソル308の表示位置が変化しないように、更新することが望ましい。   As a result, the direction of the line of sight 306 is changed. Thereafter, the direction of the posture 311 of the handle 304 of the magic hand 302 in the virtual space is changed so that the display position of the cursor 308 in the screen 501 does not change. It is desirable to update.

図7は、視線306の方向の向きを右に移動させる様子を仮想空間301の上側から見たものを順に示す説明図である。以下、本図を参照して説明する。   FIGS. 7A and 7B are explanatory views sequentially showing the state of moving the direction of the line of sight 306 to the right as seen from the upper side of the virtual space 301. Hereinafter, a description will be given with reference to FIG.

すなわち、
(1)まず、視線306の方向を変化させる前に、視点305および視線306に対する相対的なマジックハンド302の柄304の位置および姿勢を取得し(本図(a))、
(2)視点305を中心に視線306の方向を変化させて、キャラクターの向きを変えてから(本図(b))、
(3)変化された後の視点305と視線306に対するマジックハンド302の柄304の位置および姿勢を、先に(1)で取得した位置および姿勢に更新する(本図(c))。したがって、マジックハンド302の柄304の位置および姿勢は、仮想空間301に対して変化することとなる。
That is,
(1) First, before changing the direction of the line of sight 306, the position and posture of the handle 304 of the magic hand 302 relative to the viewpoint 305 and the line of sight 306 are acquired (this figure (a)).
(2) After changing the direction of the line of sight 306 around the viewpoint 305 and changing the direction of the character (this figure (b)),
(3) The position and posture of the handle 304 of the magic hand 302 with respect to the changed viewpoint 305 and line of sight 306 are updated to the position and posture previously acquired in (1) ((c) in this figure). Therefore, the position and posture of the handle 304 of the magic hand 302 change with respect to the virtual space 301.

このような処理によって、視線306の方向の移動の前後において、視点305と視線306に対するマジックハンド302の柄304の位置および姿勢は同じ値に維持されるのである。   By such processing, the position and posture of the handle 304 of the magic hand 302 with respect to the viewpoint 305 and the line of sight 306 are maintained at the same value before and after the movement in the direction of the line of sight 306.

たとえば、プレイヤがキャラクターを右に向けたい場合、カーソル308が右縁部512に移動するように、把持モジュール201の姿勢を変更する。   For example, when the player wants to turn the character to the right, the posture of the grip module 201 is changed so that the cursor 308 moves to the right edge 512.

そして、視線306の方向が右に移動し始めたら、把持モジュール201の姿勢をそのまま固定すると、キャラクターの向き(視線306の方向)が更新されて、右に少しずつ向きが変わっていっても、カーソル308が画面501内で表示される位置は変わらない。   Then, when the direction of the line of sight 306 starts to move to the right, if the posture of the grip module 201 is fixed as it is, the direction of the character (the direction of the line of sight 306) is updated, and even if the direction gradually changes to the right, The position where the cursor 308 is displayed in the screen 501 does not change.

最後に、キャラクターの向き(視線306の方向)が所望の向きに至ったら、カーソル308を画面501の中央部515に戻すように把持モジュール201の姿勢を変更すれば良い。このような、極めて直観的な操作で、容易にキャラクターの向きを変更することができるようになるのである。   Finally, when the character orientation (the direction of the line of sight 306) reaches a desired orientation, the posture of the grip module 201 may be changed so that the cursor 308 is returned to the central portion 515 of the screen 501. Such an extremely intuitive operation makes it possible to easily change the direction of the character.

上縁部511、右縁部512、左縁部513、下縁部514のそれぞれの幅や、単位時間あたりの視線306の方向の単位時間あたりの移動量は、適用分野やプレイヤの習熟度によって適宜変更することができる。また、単位時間あたりの移動量を、中央部515に近いところでは小さく、画面501の縁に近付けば近づくほど大きくすることとしても良い。   The width of each of the upper edge portion 511, the right edge portion 512, the left edge portion 513, and the lower edge portion 514 and the amount of movement per unit time in the direction of the line of sight 306 per unit time depend on the application field and the proficiency level of the player. It can be changed as appropriate. Further, the amount of movement per unit time may be small near the center 515 and larger as the distance from the edge of the screen 501 is approached.

また、プレイヤ(視線306の方向)が上や下を向くときには、適当な上限や下限を設け、限界に至ったら、それ以上の視線306の方向の変更はしないこととしても良いし、視線306を変化させることができるのは左右のみに限定する、など、種々の制約を課すこともできる。   Further, when the player (the direction of the line of sight 306) faces upward or downward, an appropriate upper limit or lower limit is provided, and when the limit is reached, the direction of the line of sight 306 may not be changed any more. Various restrictions can also be imposed, for example, only the right and left can be changed.

また、画面501の縁の分割方法としては、このほか、画面501の中央から扇形に広がる領域分割を行い、各領域には画面中央から見た方向の単位時間あたりの移動量を割り当てることとして、斜め方向への移動も可能としても良い。   In addition, as a method of dividing the edge of the screen 501, in addition to this, area division that extends in a fan shape from the center of the screen 501 is performed, and each area is assigned a movement amount per unit time in the direction viewed from the center of the screen. It may be possible to move in an oblique direction.

(オブジェクトの掴み動作の切り替え)
上記の説明では、プレイヤがBボタン205を押圧してマジックハンド302がオブジェクト303を掴むと、Bボタン205を離すまで掴み状態が維持されていたが、マジックハンド302を牽引ビームであると考える場合、ビームが何か他の障害物によって遮られると、牽引ビームが途切れ、オブジェクト303を掴んでいた状態が自然に解除されることとした方が自然な場合もある。
(Switching object gripping action)
In the above description, when the player presses the B button 205 and the magic hand 302 grips the object 303, the grip state is maintained until the B button 205 is released, but the magic hand 302 is considered to be a tow beam. When the beam is blocked by some other obstacle, it may be more natural that the tow beam is interrupted and the state of grasping the object 303 is naturally released.

図8は、オブジェクト303とマジックハンド302と、障害物との関係を示す説明図である。   FIG. 8 is an explanatory diagram showing the relationship between the object 303, the magic hand 302, and the obstacle.

本図(a)では、オブジェクト303とマジックハンド302の柄304との間に障害物309は存在しない。したがって、画面501では、両者の間にマジックハンド302の牽引ビームが描画される。   In this figure (a), there is no obstacle 309 between the object 303 and the handle 304 of the magic hand 302. Therefore, on the screen 501, the tow beam of the magic hand 302 is drawn between the two.

一方、本図(b)では、オブジェクト303とマジックハンド302の柄304との間に障害物309が存在する。上記のようなゲーム設定においては、マジックハンド302の牽引ビームを表現する仮想空間内のオブジェクトと、その他のオブジェクトと、が交叉しているか否かを判定する。   On the other hand, in this drawing (b), an obstacle 309 exists between the object 303 and the handle 304 of the magic hand 302. In the game setting as described above, it is determined whether or not the object in the virtual space expressing the tow beam of the magic hand 302 intersects with another object.

その結果最も柄304の近くで交叉しているオブジェクトが、掴んでいるオブジェクト303ではなく、障害物309であることが判明した場合には、牽引ビームが障害物で遮られたものとして、掴み状態を解除する。   As a result, when it is determined that the object that intersects closest to the handle 304 is not the grasped object 303 but the obstacle 309, it is assumed that the tow beam is blocked by the obstacle, Is released.

本図(b)に示す画面501では、マジックハンド302の牽引ビームが障害物309に遮られ、掴み状態が解除されたため、オブジェクト303が落下している。また、牽引ビームの撓みもなくなり、真っ直ぐになっている。   In the screen 501 shown in FIG. 4B, the object 303 is dropped because the tow beam of the magic hand 302 is blocked by the obstacle 309 and the gripped state is released. In addition, the traction beam is not bent and is straight.

一方で、プレイヤが仮想空間の中で物を掴もうとする場合には、その視界を基準として考えた方が自然な場合も多い。すなわち、牽引ビームを「射撃」の一種としてとらえた場合である。   On the other hand, when a player tries to grasp an object in a virtual space, it is often natural to consider the field of view as a reference. That is, the tow beam is regarded as a kind of “shooting”.

この場合、マジックハンド302の牽引ビームがオブジェクト303に「命中」(掴み状態)していることがプレイヤの視界(すなわち、視点305から視線306の方向に仮想空間301を見たときの投影面307に投射されるオブジェクトの様子)において「命中」しているのなら、たとえ牽引ビームがほかの障害物オブジェクトによって遮られているとしても、そのまま掴み状態を維持した方が、プレイヤにとって自然に感じられる場合もある。   In this case, the fact that the tow beam of the magic hand 302 is “hit” (gripped) on the object 303 is the projection plane 307 when the virtual space 301 is viewed in the direction from the viewpoint 305 to the line of sight 306. If you are hit in the state of the object projected onto the object), even if the tow beam is obstructed by another obstacle object, it is more natural for the player to maintain the grip state In some cases.

このような場合には、マジックハンド302の牽引ビームと、そのほかのオブジェクトと、を投影面307に投影する順序や、オブジェクト同士の交叉を判定する処理に工夫を加える必要がある。   In such a case, it is necessary to devise the order of projecting the tow beam of the magic hand 302 and other objects onto the projection plane 307 and the process of determining the crossing between objects.

すなわち、仮想空間301のオブジェクトを投影面307に投影する場合には、視点305からの距離によってオブジェクトをソートし、視点305から遠いオブジェクトから順に投影面307への投影を行う。これによって、近くにあるオブジェクトが遠くにあるオブジェクトを隠す、という状況が表現される。この手法はZバッファ法と呼ばれ、広く用いられている。   That is, when the objects in the virtual space 301 are projected onto the projection plane 307, the objects are sorted according to the distance from the viewpoint 305, and projected onto the projection plane 307 in order from the object far from the viewpoint 305. This expresses a situation in which a nearby object hides a distant object. This method is called a Z buffer method and is widely used.

また、オブジェクト同士が交叉しているか否かを判定する場合についても、Zバッファを利用することができる。互いに交叉しているオブジェクトは、視点305からの距離も同程度と考えられ、ソート後のZバッファにおける順序が近くになっているからである。   The Z buffer can also be used when determining whether or not objects cross each other. This is because the objects crossing each other are considered to have the same distance from the viewpoint 305, and the order in the Z buffer after sorting is close.

Zバッファ法をさらに厳密に利用する場合には、オブジェクトを構成するポリゴンのそれぞれを「オブジェクト」として考え、視点305とポリゴンとの距離に基づいて全オブジェクトのポリゴンをソートし、視点305から遠いポリゴンから順に投影面307への投影を行って、当該ポリゴンに割り当てられたテクスチャを貼り付ける。また、オブジェクトを構成するポリゴンを細かくすれば、ポリゴン同士が隠蔽し合う様子を描画するだけで、オブジェクト同士の交叉関係を近似することができる。   When the Z buffer method is used more strictly, each of the polygons constituting the object is considered as an “object”, the polygons of all objects are sorted based on the distance between the viewpoint 305 and the polygon, and the polygon far from the viewpoint 305 Are sequentially projected onto the projection plane 307, and the texture assigned to the polygon is pasted. Also, if the polygons that make up the object are made finer, the cross relationship between the objects can be approximated simply by drawing a state in which the polygons are concealed.

そこで、オブジェクト303を掴んでいるときのマジックハンド302の牽引ビームについては、視点305からの距離として、仮想空間301内における距離そのものではなく、仮想的に「いずれのオブジェクトよりも視点305に近い距離」を採用することとする。   Therefore, with respect to the pulling beam of the magic hand 302 when the object 303 is grasped, the distance from the viewpoint 305 is not the distance itself in the virtual space 301 but is virtually “a distance closer to the viewpoint 305 than any object. Will be adopted.

このようにすることで、オブジェクトの様子を投影面307に投影する際には、最後にマジックハンド302の牽引ビームが描画され、マジックハンド302の牽引ビームは、いずれの障害物とも衝突しないこととなる。このようなZバッファ法の詳細な技術については、後述する。   In this way, when projecting the state of the object onto the projection plane 307, the tow beam of the magic hand 302 is drawn last, and the tow beam of the magic hand 302 does not collide with any obstacle. Become. The detailed technique of such a Z buffer method will be described later.

このようにして投影面307上で生成された画像の様子を本図(c)の画面501に示す。本図(c)においては、本図(b)と同様に、マジックハンド302の柄304とオブジェクト303との間には障害物309が存在するのであるが、この衝突関係や前後関係を「騙し絵」的に変化させ、オブジェクト303を掴んでいる間(かつ、オブジェクト303が視点305から直接見え、視線306が途中で障害物309に衝突しない間)は、マジックハンド302の牽引ビームが維持されるのである。   The state of the image thus generated on the projection plane 307 is shown on a screen 501 in FIG. In this figure (c), as in this figure (b), there is an obstacle 309 between the handle 304 and the object 303 of the magic hand 302. While the object is changed like a “picture” and the object 303 is grasped (and the object 303 is directly visible from the viewpoint 305 and the line of sight 306 does not collide with the obstacle 309 halfway), the tow beam of the magic hand 302 is maintained. It is.

一般の射撃ゲームにおいても、弾道を見易く表示するために、拳銃や光線銃の位置を画面中央から右下や左下に移動することが多い。一方で、射撃ゲームの照準や命中判定は視点および視線を基準に考慮する。把持モジュール201は、このような射撃ゲームにも応用することができ、この場合は、Bボタン205を引き金に割り当て、Bボタン205を押圧するごとに弾や光線が発射されるものとする。   Even in a general shooting game, the position of a handgun or a light gun is often moved from the center of the screen to the lower right or lower left in order to display the trajectory easily. On the other hand, aiming and hit determination of shooting games are considered based on the viewpoint and line of sight. The grip module 201 can also be applied to such a shooting game. In this case, the B button 205 is assigned to a trigger, and a bullet or a light beam is fired each time the B button 205 is pressed.

このような射撃ゲームにおいては、照準が目標に重なっていることをもって、命中している、と判定することが多い。照準が目標に重なっている、ということは、視点から目標の間には障害物は存在しない、ということでもある。それにもかかわらず、弾丸の光線の弾道が他の障害物に遮られるのは、プレイヤからとって見れば不自然である。   In such a shooting game, it is often determined that the player is hit when the aim is over the target. The fact that the aim is overlapping the target also means that there are no obstacles between the target and the viewpoint. Nevertheless, it is unnatural from the viewpoint of the player that the trajectory of the bullet beam is blocked by other obstacles.

しかしながら、拳銃等の位置は、上記のように、視点の位置には配置されていない。したがって、命中している状態であるのに、拳銃等と目標とを結ぶ経路が、他のオブジェクトと衝突してしまうことがある。   However, the position of the handgun or the like is not arranged at the viewpoint position as described above. Therefore, the path connecting the handgun or the like and the target may collide with another object even though it is hit.

ゲームの仮想空間は現実世界をシミュレートしたものではあるが、厳密なオブジェクト同士の交叉関係や隠し合い関係よりも、上記のようなプレイヤの直観を優先した方が、ゲームの楽しみを損わず、プレイヤが仮想空間に没頭できる場合も多い。   Although the virtual space of the game is a simulation of the real world, it is better to prioritize the player's intuition than the strict cross-over relationship or the hidden relationship between objects, so that the enjoyment of the game is not impaired. In many cases, the player can be immersed in the virtual space.

そこで、このような衝突を防止するため、弾道を移動する弾や光線を視点に最も近いオブジェクトにして、目標オブジェクト以外との衝突が発生しないように画面表示を工夫し、いわゆる騙し絵的な処理によって、プレイヤの没入度を向上させる。   Therefore, in order to prevent such collisions, the bullets and light rays that move along the trajectory are the objects closest to the viewpoint, and the screen display is devised so that collisions with objects other than the target object do not occur. Thus, the degree of immersion of the player is improved.

なお、このような騙し絵的処理は、上記のように、マジックハンド302の牽引ビーム表現のみならず、拳銃や光線銃、弓矢を用いた射撃ゲーム、ボールや石を投げる投擲ゲーム等、種々のゲームに適用することができる。この場合、牽引ビームの形状が、弾や矢、ボール、石が移動する経路、発射される光線の形状に相当することとなる。   In addition, as described above, such a fraudulent picture processing includes not only a tow beam expression of the magic hand 302 but also a shooting game using a handgun, a light gun, a bow and arrow, a throwing game for throwing a ball or a stone, and the like. Can be applied to games. In this case, the shape of the tow beam corresponds to the path of the bullet, the arrow, the ball, the stone, and the shape of the emitted light beam.

したがって、必ずしも、牽引ビームのような弾性を持つ必要はなく、ゲーム世界に応じた弾道計算や光線の形状計算を行ったうえで、グラフィックス表示を行う場合には、オブジェクト同士の隠し合い関係や交叉関係の判定の際に、Zバッファ内でもっとも視点の近くに弾等のオブジェクトが位置するようにソートの手順に変更を加えて、オブジェクトの投影および描画を行えば良い、ということになる。   Therefore, it is not always necessary to have elasticity like a tow beam, and when performing a ballistic calculation or ray shape calculation according to the game world and performing graphics display, the hidden relationship between objects or When determining the crossover relationship, it is only necessary to change the sorting procedure so that an object such as a bullet is located closest to the viewpoint in the Z buffer, and project and draw the object.

なお、射撃ゲームなどでこのような騙し絵的表現を採用する場合には、把持モジュール201のBボタン205を押すことによって、拳銃等の引き金を引くことに相当する指示入力が受け付けられる。また、照準は、視線306が仮想空間301内で初めて交叉するオブジェクトに合わされていることになる。そこで、Bボタン205による指示入力が受け付けられたときに、視線306が初めて交叉するオブジェクトが存在する位置が、目標点となる。   Note that when such a tricky pictorial expression is adopted in a shooting game or the like, an instruction input corresponding to triggering a handgun or the like is accepted by pressing the B button 205 of the grip module 201. In addition, the aim is that the line of sight 306 is aligned with the object that first intersects in the virtual space 301. Therefore, when an instruction input by the B button 205 is accepted, a position where an object where the line of sight 306 intersects for the first time is a target point.

(オブジェクトとの遠近感等の提示)
上記のような態様において、ゲームの仮想空間301を画面501に表示した場合であっても、3次元の世界を2次元の画面501に表示するのであるから、奥行き方向の距離感がプレイヤに伝わりにくいことがままある。特に、オブジェクト303をマジックハンド302で掴んでいる場合には、そのオブジェクト303が近付きつつあるのか、遠ざかりつつあるのか、の情報は、プレイヤにとって極めて重要である。そこで、表示の上で、各種の工夫を行うことで、これらの情報をプレイヤに提示する技術が求められる。
(Presentation of perspective with objects)
In the aspect as described above, even when the virtual space 301 of the game is displayed on the screen 501, the three-dimensional world is displayed on the two-dimensional screen 501, and thus the sense of distance in the depth direction is transmitted to the player. Things remain difficult. In particular, when the object 303 is held by the magic hand 302, information on whether the object 303 is approaching or moving away is extremely important for the player. Therefore, a technique for presenting such information to the player by performing various devices on the display is required.

まず、掴まれたオブジェクト303が近付きつつあるか、遠ざかりつつあるか、を判定するには、当該オブジェクトの速度ベクトルや加速度ベクトルのいずれかを利用する。以下では、速度ベクトルを利用するものとする。   First, in order to determine whether the grasped object 303 is approaching or moving away, either the velocity vector or acceleration vector of the object is used. In the following, it is assumed that a velocity vector is used.

そして、オブジェクト303の速度ベクトルの、オブジェクト303からマジックハンドの柄304(もしくは視点305)に向かう成分を計算する。   Then, the component of the velocity vector of the object 303 from the object 303 toward the magic hand pattern 304 (or the viewpoint 305) is calculated.

この成分が負である場合は、オブジェクト303は遠ざかりつつあることになり、正である場合は、オブジェクト303は近付きつつあることになる。   If this component is negative, the object 303 is moving away, and if it is positive, the object 303 is moving closer.

速度ベクトルを採用した場合は、柄304(もしくは視点305)とオブジェクト303の距離の変化が直ちに上記の判定基準に反映されるが、加速度ベクトルを採用した場合には、これからどうなるのか、の将来予測的な判定となる。したがって、ゲームの内容等に応じて、適宜適切な手法を選択すれば良い。   When the velocity vector is adopted, a change in the distance between the pattern 304 (or the viewpoint 305) and the object 303 is immediately reflected in the above-described determination criterion. However, when the acceleration vector is adopted, the future prediction of what will happen from now on. Judgment. Therefore, an appropriate method may be selected as appropriate according to the content of the game.

さて、近付きつつあるか、遠ざかりつつあるか、の判定に基づいて、この情報をプレイヤに提供する手法として、最も単純な手法は色で表現することである。たとえば、近付きつつある場合は、マジックハンド302の牽引ビームを青く表示し、遠ざかりつつある場合は、マジックハンド302の牽引ビームを赤く表示する等である。   The simplest method for providing this information to the player based on the determination of whether the player is approaching or moving away is to express it in color. For example, the tow beam of the magic hand 302 is displayed in blue when approaching, and the tow beam of the magic hand 302 is displayed in red when moving away.

このほか、牽引ビームに模様を保たせる、という手法もありうる。図9は、マジックハンド302の牽引ビームに模様を与えた様子を示す説明図である。   In addition, there may be a method of keeping the pattern on the tow beam. FIG. 9 is an explanatory view showing a state in which a pattern is given to the pulling beam of the magic hand 302.

本図(a)では、牽引ビームには、縞模様が描かれている。オブジェクトが近付きつつあるときは、この縞模様がオブジェクト303から柄304の方向に移動し、遠ざかりつつあるときは、逆向きに移動する、というものである。   In this figure (a), a stripe pattern is drawn on the pulling beam. When the object is approaching, the striped pattern moves in the direction from the object 303 to the handle 304, and when the object is moving away, it moves in the opposite direction.

本図(b)では、牽引ビームに太さの変化をもたせており、蛇が卵を呑んだときのように、オブジェクトが近付くか遠ざかるかによって、太い部分が手前に移動したり奥に移動したりするものである。   In this figure (b), the tow beam has a change in thickness, and the thick part moves forward or back depending on whether the object approaches or moves away, like a snake grabbing an egg. It is something to do.

本図(c)は、蛙の卵のように、半透明の牽引ビーム内に球体を配置して、この球体が牽引ビームの内部を移動する、というものである。   This figure (c) arrange | positions a sphere in a semi-transparent traction beam like a cocoon egg, and this sphere moves inside the traction beam.

これらの手法によって、二次元の画面501による表示では把握しにくい場合があるオブジェクト303の挙動を、プレイヤに適切に伝達することができるようになる。   By these methods, the behavior of the object 303 that may be difficult to grasp by the display on the two-dimensional screen 501 can be appropriately transmitted to the player.

(処理の手順)
図10は、本実施形態に係るゲーム装置の概要構成を示す模式図であり、図11は、当該ゲーム装置にて実行される処理の制御の流れを示すフローチャートである。以下、これらの図を参照して説明する。
(Processing procedure)
FIG. 10 is a schematic diagram showing a schematic configuration of the game apparatus according to the present embodiment, and FIG. 11 is a flowchart showing a control flow of processing executed by the game apparatus. Hereinafter, description will be given with reference to these drawings.

ゲーム装置901は、記憶部902、測定部903、変化部904、移動部905、更新部906、画像生成部907、表示部908、入力受付部909を備える。そして、当該ゲーム装置901は、プレイヤに提示する画像を生成する、という意味で、画像生成装置としても機能する。   The game device 901 includes a storage unit 902, a measurement unit 903, a change unit 904, a movement unit 905, an update unit 906, an image generation unit 907, a display unit 908, and an input reception unit 909. The game device 901 also functions as an image generation device in the sense of generating an image to be presented to the player.

記憶部902は、仮想空間301内に配置される各種のオブジェクトの位置や姿勢等の情報を記憶し、RAM 103等によって実現される。CPU 101は、これらの情報を、ゲームが開始される際に、適切に初期化する(ステップS951)。   The storage unit 902 stores information such as positions and postures of various objects arranged in the virtual space 301, and is realized by the RAM 103 or the like. The CPU 101 appropriately initializes these pieces of information when the game is started (step S951).

一方、測定部903および入力受付部909は、CPU 101の制御下にある把持モジュール201等からなるコントローラ105等によって実現されるもので、現実世界における把持モジュール201の位置および姿勢、ならびに、Bボタン205の押圧状態を取得する(ステップS952)。   On the other hand, the measurement unit 903 and the input receiving unit 909 are realized by the controller 105 including the grip module 201 under the control of the CPU 101, and the position and posture of the grip module 201 in the real world, and the B button The pressing state 205 is acquired (step S952).

ついで、変化部904は、測定された把持モジュール201の位置および姿勢に応じて、RAM 103に記憶されるマジックハンド302の柄304の位置および姿勢を変化させる(ステップS953)。したがって、CPU 101はRAM 103等と共働して、変化部904として機能する。   Next, the changing unit 904 changes the position and posture of the handle 304 of the magic hand 302 stored in the RAM 103 in accordance with the measured position and posture of the grip module 201 (step S953). Therefore, the CPU 101 functions as the changing unit 904 in cooperation with the RAM 103 and the like.

さらに、CPU 101は取得されたBボタン205の押圧状態が、押圧が開始された状態か、押圧が終了した状態か、前回と状態が同じか、を判定して(ステップS954)、押圧が開始されたのであれば(ステップS954;掴み開始)、マジックハンド302の柄304の姿勢の方向311に存在するオブジェクト303を掴むように、RAM 103を更新し(ステップS955)、ステップS957に進む。一方、押圧が終了したのであれば(ステップS954;掴み終了)、マジックハンド302の柄304の姿勢の方向311に存在するオブジェクト303を離すように、RAM 103を更新し(ステップS956)、ステップS957に進む。前回と状態が同じであれば(ステップS954;同じ)、そのままステップS957に進む。   Further, the CPU 101 determines whether the acquired pressed state of the B button 205 is a state in which the pressing is started, a state in which the pressing is completed, or the state is the same as the previous time (step S954), and the pressing starts. If so (step S954; grasping start), the RAM 103 is updated so as to grasp the object 303 existing in the orientation direction 311 of the handle 304 of the magic hand 302 (step S955), and the process proceeds to step S957. On the other hand, if the pressing has ended (step S954; end of gripping), the RAM 103 is updated so that the object 303 existing in the orientation direction 311 of the handle 304 of the magic hand 302 is released (step S956), and step S957. Proceed to If the state is the same as the previous time (step S954; same), the process proceeds directly to step S957.

そして、画像生成部907は、CPU 101の制御の下、RAM 103を参照して各オブジェクトの位置や姿勢を取得してZバッファによるソートを行う(ステップS957)。この際に、上述した通り、騙し絵的な表現を行う必要があれば、マジックハンド302の牽引ビームについては、仮想空間301における視点305との距離にかかわらず、Zバッファにおけるソートの順序では、視点305に一番近いものとしてソートする。   The image generation unit 907 acquires the position and orientation of each object with reference to the RAM 103 under the control of the CPU 101, and performs sorting using the Z buffer (step S957). At this time, as described above, if it is necessary to perform a fraudulent pictorial expression, the tow beam of the magic hand 302 is sorted in the Z buffer regardless of the distance from the viewpoint 305 in the virtual space 301. Sort as closest to the viewpoint 305.

そして、画像生成部907は、投影面307へのオブジェクトの投影をZバッファにおける「遠い順」に行うことによって、画像を生成する(ステップS958)。   Then, the image generation unit 907 generates an image by projecting the object onto the projection plane 307 in “distant order” in the Z buffer (step S958).

さらに、表示部908は、生成された画像をフレームバッファに配置して、テレビジョン装置291に画面501を出力する(ステップS959)。   Further, the display unit 908 places the generated image in the frame buffer and outputs the screen 501 to the television device 291 (step S959).

さて、上記のように画像を生成すると(ステップS958)、画面501の中におけるカーソル308の位置が判明する。したがって、移動部905を実現するCPU 101は、RAM 103と共働の上、カーソル308の画面501内の位置に応じて、視線306の方向を変化させるか否かを判定する(ステップS960)。   When an image is generated as described above (step S958), the position of the cursor 308 in the screen 501 is determined. Therefore, the CPU 101 that implements the moving unit 905 determines whether or not to change the direction of the line of sight 306 according to the position of the cursor 308 in the screen 501 in cooperation with the RAM 103 (step S960).

変化させる場合(ステップS960;Yes)、まず、仮想空間301における現在の視点305および視線306に対する柄304の相対的な位置および姿勢を取得し(ステップS961)、つぎに、カーソル308の位置に応じた変化量だけ、視線306の方向を変化させ(ステップS962)、さらに、変化させた後の視点305および視線306に対する柄304の相対的な位置および姿勢を、ステップS961で取得したものに更新して(ステップS963)、ステップS965に進む。   When changing (step S960; Yes), first, the relative position and posture of the pattern 304 with respect to the current viewpoint 305 and line of sight 306 in the virtual space 301 are acquired (step S961), and then according to the position of the cursor 308. The direction of the line of sight 306 is changed by the changed amount (step S962), and the relative position and posture of the pattern 304 with respect to the changed viewpoint 305 and line of sight 306 are updated to those acquired in step S961. (Step S963), the process proceeds to step S965.

一方、視線306の方向を変化させない場合(ステップS960;No)、更新部906は、測定された把持モジュール201の位置と基準位置とずれに応じて、視点305の位置を変化させる(ステップS964)。したがって、CPU 101は、RAM 103等と共働して、更新部906として機能する。   On the other hand, when the direction of the line of sight 306 is not changed (step S960; No), the update unit 906 changes the position of the viewpoint 305 according to the measured displacement of the grip module 201 and the reference position (step S964). . Accordingly, the CPU 101 functions as the update unit 906 in cooperation with the RAM 103 and the like.

このような位置関係の更新が終わったら、物理シミュレーションに基づく計算を行ってRAM 103に記憶される情報を更新し(ステップS965)、一定時間待機した後(ステップS966)、ステップS952に戻る。   When the updating of the positional relationship is completed, the calculation based on the physical simulation is performed to update the information stored in the RAM 103 (step S965), and after waiting for a predetermined time (step S966), the process returns to step S952.

なお、視線306の方向を変化させる処理と、視点305の位置を変化させる処理と、は、上記制御フローにおいては、排他的に行っている。これは、習熟度の低いプレイヤに対応するためであり、ゲームの内容によっては、ステップS960の判断を省略し、ステップS963の後に、ステップS964に進むこととしても良い。   Note that the process of changing the direction of the line of sight 306 and the process of changing the position of the viewpoint 305 are performed exclusively in the control flow. This is to deal with a player with a low level of proficiency. Depending on the content of the game, the determination in step S960 may be omitted, and after step S963, the process may proceed to step S964.

以下ではステップS957〜ステップS958におけるZバッファを用いたオブジェクトの描画について、さらに詳細に説明する。図12は、本実施形態におけるZバッファ法の処理の制御の流れの詳細を示すフローチャートである。以下、本図を参照しながら説明する。   Hereinafter, the drawing of an object using the Z buffer in steps S957 to S958 will be described in more detail. FIG. 12 is a flowchart showing details of the control flow of processing of the Z buffer method in the present embodiment. Hereinafter, a description will be given with reference to FIG.

上述した通り、仮想空間301内に配置されるオブジェクトは、それぞれ、複数のポリゴンと、当該ポリゴンに割り当てられるテクスチャとから構成されている。Zバッファは、以下の要素をメンバーとする構造体を一要素とする配列である。
(a)ポリゴンのRAM 103内におけるアドレスや識別番号等。
(b)当該ポリゴンと視点305との距離。
As described above, each object arranged in the virtual space 301 is composed of a plurality of polygons and textures assigned to the polygons. The Z buffer is an array having a structure having the following elements as members.
(A) Polygon RAM 103 address, identification number, etc.
(B) The distance between the polygon and the viewpoint 305.

以下、このZバッファのi (i≧0)番目の要素をZ[i]と、当該要素のそれぞれのメンバーをZ[i].p,Z[i].dと、Zバッファに登録されたポリゴンの数を#Zと、それぞれ表記する。   Hereinafter, the i (i ≧ 0) -th element of this Z buffer is registered in the Z buffer as Z [i], and each member of the element is registered as Z [i] .p, Z [i] .d. The number of polygons is written as #Z.

本処理が開始されると、RAM 103内に用意されたZバッファとカウンタ変数iをクリアする(ステップS1001)。これにより、#Z = 0,i = 0となる。   When this process is started, the Z buffer and counter variable i prepared in the RAM 103 are cleared (step S1001). As a result, # Z = 0 and i = 0.

つぎに、仮想空間301に配置されたオブジェクトのそれぞれについて、以下の処理を繰り返す(ステップS1002〜ステップS1011)。   Next, the following processing is repeated for each of the objects arranged in the virtual space 301 (steps S1002 to S1011).

まず、現在処理中のオブジェクトの種類が「騙し絵オブジェクト」か否かを調べる(ステップS1003)。上記のように、仮想空間301内のオブジェクトには、以下の2種類がある。
(a)マジックハンド302の牽引ビーム、射撃ゲームにおける拳銃の弾丸、光線銃の光線等の騙し絵オブジェクト。騙し絵オブジェクトは、マジックハンド302の柄304の一端や拳銃・光線銃等の射出口から目標までの経路を結んだり、その経路を移動したりするオブジェクトであり、視点305から目標が見えるときには、当該経路までの間が、ほかのオブジェクトと衝突していてもこれを無視するようなものである。状況のような態様では、騙し絵オブジェクトは、マジックハンド302の柄304の一端等の射出点から射出される射出オブジェクトに相当する、と考えることができる。
(b)騙し絵オブジェクトではないオブジェクト。
First, it is checked whether or not the type of the object currently being processed is a “spoofed picture object” (step S1003). As described above, there are the following two types of objects in the virtual space 301.
(A) A fraudulent picture object such as a tow beam of a magic hand 302, a bullet of a handgun in a shooting game, and a ray of a light gun. A fringe picture object is an object that connects or moves a path from one end of the handle 304 of the magic hand 302 or an injection port of a handgun, a light gun, or the like to the target. Even if there is a collision with another object, it will be ignored. In an aspect such as the situation, the fraudulent picture object can be considered to correspond to an injection object emitted from an injection point such as one end of the handle 304 of the magic hand 302.
(B) An object that is not a fraudulent picture object.

騙し絵オブジェクトである場合(ステップS1003;Yes)、RAM 103内に用意されたフラグ変数fに-1を設定し(ステップS1004)、そうでなければ(ステップS1003;No)、RAM 103内に用意されたフラグ変数fに+1を設定して(ステップS1005)、ステップS1006に進む。   If it is a fraudulent picture object (step S1003; Yes), -1 is set to the flag variable f prepared in the RAM 103 (step S1004). Otherwise (step S1003; No), it is prepared in the RAM 103. The flag variable f is set to +1 (step S1005), and the process proceeds to step S1006.

なお、仮想空間301の様子を表示する画像を生成するための「視点」と、照準を合わせる「視点」とを異なる場所に配置して、2つのカメラで仮想空間301の様子を表示するような場合には、いずれの「視点」を本実施形態にいう視点305としても良い。   It should be noted that the “viewpoint” for generating an image for displaying the state of the virtual space 301 and the “viewpoint” for aiming are arranged at different locations, and the state of the virtual space 301 is displayed by two cameras. In this case, any “viewpoint” may be the viewpoint 305 in the present embodiment.

ついで、当該処理中のオブジェクトを構成するポリゴンのそれぞれについて、以下の処理を繰り返す(ステップS1006〜ステップS1010)。   Next, the following processing is repeated for each of the polygons constituting the object being processed (steps S1006 to S1010).

まず、現在処理中のポリゴンと、視点305との距離dを計算する(ステップS1007)。   First, the distance d between the polygon currently being processed and the viewpoint 305 is calculated (step S1007).

ついで、Zバッファのi番目の要素について、
Z[i].d ← f × d;
Z[i].p ← ポリゴンのアドレス
のように代入を行い(ステップS1008)、iの値を1増やして(ステップS1009)、Zバッファに当該ポリゴンを登録して、当該オブジェクトを構成するポリゴンのすべてについて処理が終わるまで、ステップS1006に戻って処理を繰り返す(ステップS1010)。
Next, for the i-th element of the Z buffer,
Z [i] .d ← f × d ;
Z [i] .p ← Substitution is made like the address of the polygon (step S1008), the value of i is incremented by 1 (step S1009), the polygon is registered in the Z buffer, and the polygons constituting the object are Until all the processes are completed, the process returns to step S1006 and is repeated (step S1010).

このような処理によって、騙し絵オブジェクトについては、視点305との距離が負になり、そうでない通常のオブジェクトについては、視点305との距離が正になる。   As a result of such processing, the distance from the viewpoint 305 is negative for a fraudulent picture object, and the distance from the viewpoint 305 is positive for a normal object that is not.

さて、仮想空間301に配置されるオブジェクトのすべてについて処理が終わるまで、ステップS1002に戻って処理を繰り返した(ステップS1011)後は、Zバッファの各要素を、メンバーdの値に基づいて小さい順にソートする(ステップS1012)。   Now, until the processing is completed for all the objects arranged in the virtual space 301, the processing returns to step S1002 and the processing is repeated (step S1011). After that, the elements of the Z buffer are assigned in ascending order based on the value of the member d. Sorting is performed (step S1012).

すなわち、ソートに際しては、Zバッファのx番目の要素とy番目の要素との大小関係を比較する必要があるが、このときに、Z[x].dとZ[y].dとを比較するのである。   That is, when sorting, it is necessary to compare the magnitude relationship between the xth element and the yth element of the Z buffer. At this time, compare Z [x] .d and Z [y] .d. To do.

上記のように、騙し絵オブジェクトを構成するポリゴンは、視点305との距離が負に設定されることとなるから、ソートによって、Zバッファの添字が0に近い側(添字が小さい側)に寄せられることになり、通常のオブジェクトを構成するポリゴンは、ソートによって、Zバッファの添字が#Zに近い側(添字が大きい側)に寄せられることになる。   As described above, since the polygons constituting the fraudulent picture object are set to have a negative distance from the viewpoint 305, the Z buffer index is moved closer to 0 (the side with the smaller index) by sorting. As a result, the polygons composing a normal object are sorted so that the subscript of the Z buffer is closer to #Z (the side with the larger subscript).

ソートが終わったら、iの値を#Z - 1に設定して(ステップS1013)、Z[i].d ≧ 0である間、以下の処理を繰り返す(ステップS1014〜ステップS1019)。   When the sorting is finished, the value of i is set to # Z-1 (step S1013), and the following processing is repeated while Z [i] .d ≧ 0 (steps S1014 to S1019).

すなわち、アドレス等がZ[i].pのポリゴンの情報を取得し(ステップS1015)、当該ポリゴンの投影面307への投影先を計算して(ステップS1016)、当該投影先に対応付けられる描画バッファ(典型的にはRAM 103内に用意されるが、画像処理部107がダブルバッファによるフレームメモリを持っている場合には、現在表示されていない側のフレームメモリを利用することもできる。)の領域に、当該ポリゴンのテクスチャを描画する(ステップS1017)。そして、iの値を1減らし(ステップS1018)、Z[i].d ≧ 0である間、ステップS1014に戻って処理を繰り返す(ステップS1019)。   That is, information on the polygon whose address or the like is Z [i] .p is acquired (step S1015), the projection destination of the polygon on the projection plane 307 is calculated (step S1016), and the drawing associated with the projection destination is performed. Buffer (typically prepared in the RAM 103, but when the image processing unit 107 has a double buffer frame memory, the frame memory on the side not currently displayed can be used.) The texture of the polygon is drawn in the area (step S1017). Then, the value of i is decreased by 1 (step S1018), and while Z [i] .d ≧ 0, the process returns to step S1014 to repeat the process (step S1019).

配列の添字iの範囲チェックをしなくとも良いのは、騙し絵オブジェクトのポリゴンについての要素がZ[i].d < 0であり、「番兵」として働いているからである。   The reason for not checking the range of the subscript i of the array is that the element about the polygon of the fraudulent picture object is Z [i] .d <0, and it works as a “guardian”.

さて、通常オブジェクトについての描画(ステップS1014〜ステップS1019)が終わったら、次は騙し絵オブジェクトについての描画を行う。すなわち、iの値を0に設定して(ステップS1020)、Z[i].d < 0である間、以下の処理を繰り返す(ステップS1021〜ステップS1026)。   Now, after the drawing for the normal object (steps S1014 to S1019) is finished, the drawing for the fraudulent picture object is performed next. That is, the value of i is set to 0 (step S1020), and the following processing is repeated while Z [i] .d <0 (steps S1021 to S1026).

すなわち、アドレス等がZ[i].pのポリゴンの情報を取得し(ステップS1022)、当該ポリゴンの投影面307への投影先を計算して(ステップS1023)、当該投影先に対応付けられる描画バッファ(典型的にはRAM 103内に用意されるが、画像処理部107がダブルバッファによるフレームメモリを持っている場合には、現在表示されていない側のフレームメモリを利用することもできる。)の領域に、当該ポリゴンのテクスチャを描画する(ステップS1024)。そして、iの値を1増やし(ステップS1025)、Z[i].d < 0である間、ステップS1014に戻って処理を繰り返す(ステップS1026)。   That is, information on the polygon whose address or the like is Z [i] .p is acquired (step S1022), the projection destination of the polygon on the projection plane 307 is calculated (step S1023), and the drawing associated with the projection destination is performed. Buffer (typically prepared in the RAM 103, but when the image processing unit 107 has a double buffer frame memory, the frame memory on the side not currently displayed can be used.) The texture of the polygon is drawn in the area (step S1024). Then, the value of i is incremented by 1 (step S1025), and while Z [i] .d <0, the process returns to step S1014 and is repeated (step S1026).

配列の添字iの範囲チェックをしなくとも良いのは、通常オブジェクトのポリゴンについての要素がZ[i].d ≧ 0であり、番兵として働いているからである。プログラミング業界では、一般用語で、配列の走査処理を行う場合に、その添字の範囲をチェックしないでも済むように、走査対象から外れる要素に、「常に条件が不成立」の要素を意図的に配置する手法を用いることがある。この「常に条件が不成立」の要素を当該要素を「番兵(sentinel)」と呼ぶ。   The reason for not checking the range of the array index i is that the element for the polygon of the normal object is Z [i] .d ≥ 0 and works as a guard. In the programming industry, in general terms, when performing an array scanning process, an element that “always fails” is intentionally placed in an element that is out of the scanning target so that it is not necessary to check the range of the subscript. A technique may be used. This “always failing condition” element is called the “sentinel”.

このようにして、描画バッファに各オブジェクトの様子が描画された、その他必要な情報(たとえば、キャラクターの体力ゲージなどのステータス情報が含まれる。)を適宜描画して(ステップS1027)、フレームメモリへ転送し(ステップS1028)、本処理を終了する。すると、ステップS958において、画像処理部107が、フレームメモリへ転送された情報に基づいて、画面に仮想世界の画像を表示するのである。   In this way, other necessary information (for example, status information such as the character's physical strength gauge) on which the state of each object has been drawn in the drawing buffer is appropriately drawn (step S1027), and the frame memory is stored. Transfer (step S1028), and this process is terminated. Then, in step S958, the image processing unit 107 displays a virtual world image on the screen based on the information transferred to the frame memory.

なお、Zバッファの各要素に、当該ポリゴンが属するオブジェクトが騙し絵オブジェクトか否かのフラグ領域を設け、ソートの際には、当該フラグ領域を参照してソートを行うこととしても良い。上記の態様は、視点との距離を表す数値表現の符号ビットを、当該ポリゴンが属するオブジェクトが騙し絵オブジェクトか否かのフラグ領域として利用することに相当する。   Note that each element of the Z buffer may be provided with a flag area indicating whether the object to which the polygon belongs is a fraudulent picture object, and sorting may be performed with reference to the flag area. The above aspect corresponds to using a sign bit of a numerical expression representing the distance from the viewpoint as a flag area indicating whether the object to which the polygon belongs is a fraudulent picture object.

また、騙し絵オブジェクト用のZバッファと、通常オブジェクト用のZバッファと、の2つを用意して、ポリゴンを振り分けることとし、後者を視点から遠い順に描画してから、前者を視点から遠い順に描画する、という手法を採用することもできる。   Also, prepare a Z buffer for a fraudulent picture object and a Z buffer for a normal object, and distribute polygons, draw the latter in order from the viewpoint, and then draw the former in the order from the viewpoint. A technique of drawing can also be adopted.

なお、上記実施形態では、目標が視点305から見えるときは、牽引ビームが辿る経路がほかのオブジェクトと衝突していても、この衝突を無視することになる。そしてこれは、一旦目標が設定された後、すなわち、マジックハンド302の牽引ビームが目標オブジェクトを吸着している間は、当該目標オブジェクトが何らかの障害物の存在によって視点305から見えなくなってしまっても続く。   In the above embodiment, when the target is visible from the viewpoint 305, the collision is ignored even if the path followed by the tow beam collides with another object. This is because once the target is set, that is, while the tow beam of the magic hand 302 is attracting the target object, the target object may not be visible from the viewpoint 305 due to the presence of some obstacle. Continue.

もっとも、目標が視点305から見えなくなったときは、マジックハンド302の牽引ビームが切断されることとして、牽引ビームが仮想空間301の中でいずれかのオブジェクトに衝突しているか否かにかかわらず、「騙し絵」的に、牽引ビームがいずれかのオブジェクトに衝突するようにしても良い。   However, when the target disappears from the viewpoint 305, the tow beam of the magic hand 302 is cut off, regardless of whether the tow beam collides with any object in the virtual space 301 or not. The “traction beam” may collide with one of the objects in a “coffin picture”.

たとえば、視点305と目標を結ぶ線が衝突するオブジェクトの衝突点と、マジックハンド302の柄304の射出点とを結ぶ線上に(柄304の姿勢の方向311にかかわらず)、牽引ビームを描くこととすれば良い。   For example, a tow beam is drawn on the line connecting the collision point of the object where the line connecting the viewpoint 305 and the target collides with the emission point of the pattern 304 of the magic hand 302 (regardless of the direction 311 of the posture of the pattern 304). What should I do?

このほか、マジックハンド302がオブジェクト303を吸着していない間は、投影面307におけるカーソル308の位置を目標点として設定して、同様の「騙し絵」的処理を行っても良い。   In addition, while the magic hand 302 is not attracting the object 303, the position of the cursor 308 on the projection plane 307 may be set as a target point, and the same “fried picture” process may be performed.

以下、「騙し絵」の他の描画手法について説明する。上記の形態では、マジックハンド302の柄304の射出点から射出される牽引ビームを構成するオブジェクト等の騙し絵オブジェクトは、どの通常のオブジェクトよりも視点305に近いものとみなして画像を生成するために、Zバッファにおけるソートの順序に工夫を加えていた。   In the following, other drawing methods for “cooking pictures” will be described. In the above embodiment, a fraudulent picture object such as an object constituting a pulling beam emitted from the emission point of the handle 304 of the magic hand 302 is considered to be closer to the viewpoint 305 than any normal object, and generates an image. In addition, a device has been added to the sort order in the Z buffer.

しかしながら、牽引ビームの形状が弾性のある円柱や帯のような幾何学的に単純な形状をしている場合には、以下のような態様を採用することも可能である。   However, when the shape of the traction beam is a geometrically simple shape such as an elastic cylinder or band, the following modes can be adopted.

すなわち、通常のオブジェクトを構成するポリゴンについては、Zバッファを用いてソートをし、視点305から遠い順に、投影面307へ投影される領域を求め、画像バッファにおいてその領域にテクスチャを貼り込むことによって描画を行う。これは、通常の三次元グラフィックス処理と同様である。   That is, the polygons that make up a normal object are sorted using the Z buffer, the areas projected onto the projection plane 307 are determined in order from the viewpoint 305, and textures are pasted into the areas in the image buffer. Draw. This is the same as normal three-dimensional graphics processing.

そして、通常のオブジェクトすべてについて、画像バッファへの描画が完了したら、マジックハンド302の柄304の射出点と、吸着されたオブジェクト303とを結ぶ曲線の形状を2次元的に求め、画像バッファへ上書き描画するのである。   When drawing of all normal objects in the image buffer is completed, the shape of the curve connecting the injection point of the handle 304 of the magic hand 302 and the attracted object 303 is obtained two-dimensionally and overwritten in the image buffer. Draw.

たとえば、牽引ビームが円柱状の形状の場合、その断面が投影面307に投影される太さは、視点305からの距離に反比例する。また、当該牽引ビームの中心を貫く曲線形状は、スプライン補間等によって求めることができ、求められた仮想空間(3次元空間)内の中心曲線上の各点と、視点305との距離を求めれば、当該点を中心とする断面が投影面307に投射されるときの大きさを求めることもできる。これによって、円柱状の形状の牽引ビームが、3次元グラフィックス的に遠近感をもって画像バッファに描画されるのである。円柱以外の形状を持つ場合も、同様の処理によって描画が可能である。   For example, when the traction beam has a cylindrical shape, the thickness of the section projected onto the projection plane 307 is inversely proportional to the distance from the viewpoint 305. In addition, the curve shape passing through the center of the traction beam can be obtained by spline interpolation or the like. If the distance between each point on the center curve in the obtained virtual space (three-dimensional space) and the viewpoint 305 is obtained. The size when the cross section centered on the point is projected onto the projection surface 307 can also be obtained. As a result, the pulling beam having a cylindrical shape is drawn in the image buffer with a perspective in terms of three-dimensional graphics. Even when it has a shape other than a cylinder, drawing can be performed by the same processing.

本態様では、騙し絵オブジェクトがどの通常のオブジェクトよりも視点305に近いものとみなすため、画像バッファに対する通常オブジェクトの描画をすべて行った後に、騙し絵オブジェクトの描画を行うこととしている。   In this embodiment, since the normal picture object is considered to be closer to the viewpoint 305 than any normal object, the normal picture object is drawn on the image buffer and then the normal picture object is drawn.

このような描画手法を採用することにより、騙し絵オブジェクトがどの通常のオブジェクトによっても隠蔽されないこととなるため、どの通常のオブジェクトよりも視点305に近いものとみなすことができるからである。   By adopting such a drawing method, the fraudulent picture object is not concealed by any normal object, so that it can be considered closer to the viewpoint 305 than any normal object.

そして、この際に、騙し絵オブジェクトについては、Zバッファにおけるソートの対象とする必要はなく、また、騙し絵オブジェクトを比較的単純な1つの幾何学的形状としてときには、簡単な計算によって、画像バッファに対する騙し絵オブジェクトの描画を行うことができる。   At this time, it is not necessary for the fraudulent picture object to be subject to sorting in the Z buffer, and when the fraudulent picture object has a relatively simple geometric shape, the image buffer can be obtained by simple calculation. It is possible to draw a fraudulent picture object for.

以上説明した実施形態は、本願発明に係る実施形態の一つに係るものであり、種々のバリエーションを採用して様々な処理を追加等した場合であっても、本発明の範囲に含まれる。   The embodiment described above relates to one of the embodiments according to the present invention, and even when various processes are added and various processes are added, the scope of the present invention is included.

以上説明したように、本発明によれば、視点とは異なる位置から射出される射出オブジェクトを違和感なく提示する画像を生成するのに好適な画像生成装置、画像生成方法、ならびに、これらをコンピュータにて実現するプログラムを提供することができる。   As described above, according to the present invention, an image generation apparatus, an image generation method, and a method suitable for generating an image that presents an ejected object ejected from a position different from the viewpoint comfortably. Can be provided.

プログラムを実行することにより、本発明の実施形態に係る装置の機能を果たす典型的な情報処理装置の概要構成を示す模式図である。It is a mimetic diagram showing the outline composition of the typical information processor which fulfills the function of the device concerning the embodiment of the present invention by running a program. 本実施形態にて利用されるコントローラと情報処理装置の外観を示す説明図である。It is explanatory drawing which shows the external appearance of the controller and information processing apparatus which are utilized in this embodiment. 仮想空間と現実世界との対応関係を示す説明図である。It is explanatory drawing which shows the correspondence of virtual space and the real world. マジックハンドの柄とオブジェクトとの位置関係と、力の方向を示す説明図である。It is explanatory drawing which shows the positional relationship between the pattern of a magic hand and an object, and the direction of force. 画面にカーソルとマジックハンドとオブジェクトが表示される様子を示す説明図である。It is explanatory drawing which shows a mode that a cursor, a magic hand, and an object are displayed on a screen. マジックハンドの柄の位置と、視点の移動の方向との関係を説明する説明図である。It is explanatory drawing explaining the relationship between the position of the pattern of a magic hand, and the direction of a viewpoint movement. 視線の方向の向きを右に移動させる様子を仮想空間の上側から見たものを順に示す説明図である。It is explanatory drawing which shows what looked at the mode of moving the direction of a gaze direction to the right from the upper side of virtual space. オブジェクトとマジックハンドと、障害物との関係を示す説明図である。It is explanatory drawing which shows the relationship between an object, a magic hand, and an obstruction. マジックハンドの牽引ビームに模様を与えた様子を示す説明図である。It is explanatory drawing which shows a mode that the pattern was given to the pulling beam of the magic hand. 本実施形態に係るゲーム装置の概要構成を示す模式図である。It is a mimetic diagram showing the outline composition of the game device concerning this embodiment. 当該ゲーム装置にて実行される処理の制御の流れを示すフローチャートである。It is a flowchart which shows the flow of control of the process performed with the said game device. 当該ゲーム装置にて実行されるZバッファ関連の処理の制御の流れを詳細に示すフローチャートである。It is a flowchart which shows in detail the flow of control of the process relevant to Z buffer performed with the said game device.

符号の説明Explanation of symbols

100 情報処理装置
101 CPU
102 ROM
103 RAM
104 インターフェイス
105 コントローラ
106 外部メモリ
107 画像処理部
108 DVD−ROMドライブ
109 NIC
110 音声処理部
111 マイク
201 把持モジュール
202 CCDカメラ
203 十字形キー
204 Aボタン
205 Bボタン
206 各種ボタン
207 インジケータ
208 電源ボタン
251 発光モジュール
252 発光ダイオード
291 テレビジョン装置
301 仮想空間
302 マジックハンド
303 オブジェクト
304 柄
305 視点
306 視線
307 投影面
308 カーソル
309 障害物
311 柄の姿勢の方向
313 基準位置
314 基準位置からのずれを表すベクトル
321 柄の姿勢の方向ベクトル
322 柄からオブジェクトへの方向ベクトル
323 上下左右のずれを表すベクトル
411 牽引力(反発力)
412 上下左右の力
501 画面
511 上縁部
512 右縁部
513 左縁部
514 下縁部
515 中央部
901 ゲーム装置
902 記憶部
903 測定部
904 変化部
905 移動部
906 更新部
907 画像生成部
908 表示部
909 入力受付部
100 Information processing apparatus 101 CPU
102 ROM
103 RAM
104 Interface 105 Controller 106 External Memory 107 Image Processing Unit 108 DVD-ROM Drive 109 NIC
DESCRIPTION OF SYMBOLS 110 Sound processing part 111 Microphone 201 Grasping module 202 CCD camera 203 Cross-shaped key 204 A button 205 B button 206 Various buttons 207 Indicator 208 Power button 251 Light emitting module 252 Light emitting diode 291 Television apparatus 301 Virtual space 302 Magic hand 303 Object 304 Pattern 305 Viewpoint 306 Line of sight 307 Projection plane 308 Cursor 309 Obstacle 311 Pattern posture direction 313 Reference position 314 Vector representing displacement from the reference position 321 Pattern posture direction vector 322 Pattern to object direction vector 323 Up / down / left / right displacement Vector 411 representing tractive force (repulsive force)
412 Up / Down / Left / Right Force 501 Screen 511 Upper Edge 512 Right Edge 513 Left Edge 514 Lower Edge 515 Center 901 Game Device 902 Storage Unit 903 Measurement Unit 904 Change Unit 905 Move Unit 906 Update Unit 907 Image Generation Unit 908 Display Department 909 Input Reception Department

Claims (8)

仮想空間に配置される複数のオブジェクトを記憶する記憶部、
当該複数のオブジェクトを当該仮想空間内の視点から視線の方向に見た画像を生成する画像生成部
を備える画像生成装置であって、
当該複数のオブジェクトには、当該仮想空間において目標点が設定されてから当該設定が解除されるまでの間、当該視点とは異なる位置の射出点から、当該目標点へ、と向かう射出オブジェクトが含まれ、
前記画像生成部は、当該目標点が設定されてから当該設定が解除されるまでの間、当該仮想空間内における当該射出オブジェクトと当該視点との距離にかかわらず、当該射出オブジェクトは他のいずれのオブジェクトよりも当該視点に近いものとみなして、当該画像を生成し、
当該目標点と当該視点との間に当該目標点の位置のオブジェクトでも当該射出オブジェクトでもないオブジェクトが配置されている場合、当該目標点の設定を解除する目標設定部
をさらに備える
ことを特徴とする画像生成装置。
A storage unit for storing a plurality of objects arranged in a virtual space;
An image generation apparatus including an image generation unit configured to generate an image of the plurality of objects viewed from a viewpoint in the virtual space in a line of sight.
The plurality of objects include an emission object heading from the injection point at a position different from the viewpoint to the target point from when the target point is set in the virtual space until the setting is canceled. And
The image generation unit determines whether the emission object is any other, regardless of the distance between the emission object and the viewpoint in the virtual space, until the setting is canceled after the target point is set. Assuming that the viewpoint is closer to the object than the object, generate the image,
A target setting unit that cancels the setting of the target point when an object that is neither the object at the target point nor the emitting object is disposed between the target point and the viewpoint; Image generation device.
請求項1に記載の画像生成装置であって、
指示入力を受け付ける入力受付部をさらに備え、
当該指示入力がオブジェクトを把むべき旨の指示入力である場合、前記目標設定部は、当該複数のオブジェクトのうち、当該仮想空間において当該射出点から伸びる所定の半直線が初めて交叉するオブジェクトの位置を、当該目標点に設定し、
当該射出オブジェクトは、当該目標点の設定が解除されている間、当該射出点と当該初めて交叉するオブジェクトとを結ぶ線分状の形状をなし、当該目標点の設定がされている間、当該射出点と当該目標点とを結ぶ線分状もしくは曲線状の形状をなす
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 1,
An input receiving unit for receiving instruction inputs is further provided,
In the case where the instruction input is an instruction input indicating that an object should be grasped, the target setting unit determines, among the plurality of objects, the position of an object where a predetermined half line extending from the emission point in the virtual space intersects for the first time. To the target point,
The injection object has a line-shaped shape that connects the injection point and the object that intersects for the first time while the setting of the target point is cancelled, and while the target point is set, the injection object An image generation apparatus characterized by forming a line-like or curved shape connecting a point and the target point.
請求項1または2に記載の画像生成装置であって、
当該仮想空間において、当該目標点の位置のオブジェクトには、当該目標点と当該射出点との距離を所定長さに保とうとする力が印加され、当該印加される外力に基づいて、当該目標点の位置のオブジェクトが移動される
ことを特徴とする画像生成装置。
The image generating apparatus according to claim 1 or 2,
In the virtual space, a force is applied to the object at the position of the target point to keep the distance between the target point and the injection point at a predetermined length, and the target point is determined based on the applied external force. An image generating apparatus characterized in that the object at the position of is moved.
請求項1から3のいずれか1項に記載の画像生成装置であって、
前記画像生成部は、当該視点との距離により当該複数のオブジェクトをソートして、当該複数のオブジェクトのそれぞれを、当該視点からの距離が遠い順に描画して当該画像を生成する
ことを特徴とする画像生成装置。
The image generation apparatus according to any one of claims 1 to 3,
The image generation unit sorts the plurality of objects according to the distance from the viewpoint, and generates the image by drawing each of the plurality of objects in order of increasing distance from the viewpoint. Image generation device.
請求項1から3のいずれか1項に記載の画像生成装置であって、
前記画像生成部は、当該視点との距離により当該複数のオブジェクトのうち当該射出オブジェクト以外のオブジェクトをソートして、当該ソートされた複数のオブジェクトのそれぞれを、当該視点からの距離が遠い順に描画し、その後に、当該射出オブジェクトを描画して、当該画像を生成する
ことを特徴とする画像生成装置。
The image generation apparatus according to any one of claims 1 to 3,
The image generation unit sorts the objects other than the emission object among the plurality of objects according to the distance from the viewpoint, and draws each of the sorted objects in order of increasing distance from the viewpoint. Thereafter, the image is generated by drawing the injection object and generating the image.
請求項2に記載の画像生成装置であって、
当該指示入力が視点もしくは視線を移動すべき旨の指示入力である場合、当該指示入力に基づいて、当該仮想空間内における当該視点の位置もしくは視線の方向を移動し、当該視点および視線に対する相対的な位置を保つように、当該射出点の位置を移動する移動部
をさらに備えることを特徴とする画像生成装置。
The image generation apparatus according to claim 2 ,
If the instruction input is an instruction input indicating that the viewpoint or line of sight should be moved, the position of the viewpoint or the direction of the line of sight in the virtual space is moved based on the instruction input, and the relative position with respect to the viewpoint and the line of sight An image generating apparatus, further comprising a moving unit that moves the position of the injection point so as to maintain a stable position.
記憶部、画像生成部、目標設定部を有する画像生成装置にて実行される画像生成方法であって、前記記憶部には、仮想空間に配置される複数のオブジェクトが記憶され、
前記画像生成部が、当該複数のオブジェクトを当該仮想空間内の視点から視線の方向に見た画像を生成する画像生成工程を備え、
当該複数のオブジェクトには、当該仮想空間において目標点が設定されてから当該設定が解除されるまでの間、当該視点とは異なる位置の射出点から、当該目標点へ、と向かう射出オブジェクトが含まれ、
前記画像生成工程では、当該目標点が設定されてから当該設定が解除されるまでの間、当該仮想空間内における当該射出オブジェクトと当該視点との距離にかかわらず、当該射出オブジェクトは他のいずれのオブジェクトよりも当該視点に近いものとみなして、当該画像を生成し、
当該目標点と当該視点との間に当該目標点の位置のオブジェクトでも当該射出オブジェクトでもないオブジェクトが配置されている場合、前記目標設定部が、当該目標点の設定を解除する目標設定工程
をさらに備えることを特徴とする画像生成方法。
An image generation method executed by an image generation apparatus having a storage unit, an image generation unit, and a target setting unit, wherein the storage unit stores a plurality of objects arranged in a virtual space,
The image generation unit includes an image generation step of generating an image in which the plurality of objects are viewed in the direction of the line of sight from a viewpoint in the virtual space;
The plurality of objects include an emission object heading from the injection point at a position different from the viewpoint to the target point from when the target point is set in the virtual space until the setting is canceled. And
In the image generation step, the target object is set to any other one regardless of the distance between the target object and the viewpoint in the virtual space from when the target point is set until the setting is canceled. Assuming that the viewpoint is closer to the object than the object, generate the image,
A target setting step in which the target setting unit further cancels the setting of the target point when an object that is neither the object at the target point nor the injection object is disposed between the target point and the viewpoint; An image generation method comprising:
コンピュータを、
仮想空間に配置される複数のオブジェクトを記憶する記憶部、
当該複数のオブジェクトを当該仮想空間内の視点から視線の方向に見た画像を生成する画像生成部
として機能させるプログラムであって、当該プログラムは、当該コンピュータにおいて、
当該複数のオブジェクトには、当該仮想空間において目標点が設定されてから当該設定が解除されるまでの間、当該視点とは異なる位置の射出点から、当該目標点へ、と向かう射出オブジェクトが含まれ、
前記画像生成部は、当該目標点が設定されてから当該設定が解除されるまでの間、当該仮想空間内における当該射出オブジェクトと当該視点との距離にかかわらず、当該射出オブジェクトは他のいずれのオブジェクトよりも当該視点に近いものとみなして、当該画像を生成する
ように機能させ、当該プログラムは、当該コンピュータを、
当該目標点と当該視点との間に当該目標点の位置のオブジェクトでも当該射出オブジェクトでもないオブジェクトが配置されている場合、当該目標点の設定を解除する目標設定部
としてさらに機能させることを特徴とするプログラム。
Computer
A storage unit for storing a plurality of objects arranged in a virtual space;
A program that functions as an image generation unit that generates an image of the plurality of objects viewed from the viewpoint in the virtual space in the direction of the line of sight.
The plurality of objects include an emission object heading from the injection point at a position different from the viewpoint to the target point from when the target point is set in the virtual space until the setting is canceled. And
The image generation unit determines whether the projecting object is any other object regardless of the distance between the projecting object and the viewpoint in the virtual space from when the target point is set until the setting is canceled. Assuming that the object is closer to the viewpoint than the object, the program functions to generate the image.
When an object that is neither the object at the target point nor the emission object is placed between the target point and the viewpoint, the target point setting unit is further functioned as a target setting unit that cancels the setting of the target point. Program to do.
JP2006091009A 2006-03-29 2006-03-29 Image generating apparatus, image generating method, and program Active JP4350719B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006091009A JP4350719B2 (en) 2006-03-29 2006-03-29 Image generating apparatus, image generating method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006091009A JP4350719B2 (en) 2006-03-29 2006-03-29 Image generating apparatus, image generating method, and program

Publications (2)

Publication Number Publication Date
JP2007265155A JP2007265155A (en) 2007-10-11
JP4350719B2 true JP4350719B2 (en) 2009-10-21

Family

ID=38638064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006091009A Active JP4350719B2 (en) 2006-03-29 2006-03-29 Image generating apparatus, image generating method, and program

Country Status (1)

Country Link
JP (1) JP4350719B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013031960A1 (en) * 2011-09-01 2015-03-23 株式会社セガ Game device
CN108404409B (en) * 2018-03-02 2021-04-23 网易(杭州)网络有限公司 Display processing method, medium, device and computing equipment

Also Published As

Publication number Publication date
JP2007265155A (en) 2007-10-11

Similar Documents

Publication Publication Date Title
JP4384697B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
JP5604674B2 (en) Game device control program
US7084855B2 (en) Image generation method, program, and information storage medium
US7497779B2 (en) Video game including time dilation effect and a storage medium storing software for the video game
JP5656382B2 (en) GAME PROGRAM AND GAME DEVICE
US20040233223A1 (en) Physical/digital input methodologies for spatial manipulations and entertainment
KR20210137199A (en) Virtual object attack prompt method and apparatus, and terminal and storage medium
JP3786669B2 (en) GAME SYSTEM, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP3747050B1 (en) Program, information storage medium, and image generation system
JP3466176B2 (en) GAME METHOD, GAME PROGRAM, GAME DEVICE, AND GAME SYSTEM
JP2007260232A (en) Game device, game control method and program
JP4350719B2 (en) Image generating apparatus, image generating method, and program
US8298080B2 (en) Virtual space display device, viewpoint setting method, and information recording medium
JP4508918B2 (en) Image generation system and information storage medium
JP4433579B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
Katzourin et al. Swordplay: Innovating game development through VR
JP4806608B2 (en) Program, information storage medium, and image generation system
JP3989511B1 (en) GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM
JP5519610B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2011239937A (en) Game device, game processing method, and program
WO2013118691A1 (en) Game system
JP5124545B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
JP7433847B2 (en) Program, information processing method, and information processing device
JP2016093521A (en) Control program of game device
JP2002018126A (en) Game system and information storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090721

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090722

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120731

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4350719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130731

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130731

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140731

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250