JP2010142404A - Game program, and game apparatus - Google Patents

Game program, and game apparatus Download PDF

Info

Publication number
JP2010142404A
JP2010142404A JP2008322305A JP2008322305A JP2010142404A JP 2010142404 A JP2010142404 A JP 2010142404A JP 2008322305 A JP2008322305 A JP 2008322305A JP 2008322305 A JP2008322305 A JP 2008322305A JP 2010142404 A JP2010142404 A JP 2010142404A
Authority
JP
Japan
Prior art keywords
marker
game program
virtual camera
game
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008322305A
Other languages
Japanese (ja)
Inventor
Yoichi Yamada
洋一 山田
Hidemaro Fujibayashi
秀麿 藤林
Taketaka Hiramukai
雄高 平向
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2008322305A priority Critical patent/JP2010142404A/en
Publication of JP2010142404A publication Critical patent/JP2010142404A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a game program by which a user can easily obtain a direction where a target point is present in a virtual three-dimensional space, and which can increase the operability for heading for the target point. <P>SOLUTION: First, operation information which is output from an inputting apparatus operated by a player is acquired. Then, an arbitrary point in the virtual three-dimensional space is set as a marker point according to the acquired operation information. Then, the position and the direction of a virtual camera are set in such a manner that the marker point may be located in the looking direction of the virtual camera. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、仮想カメラで撮影された仮想3次元空間において、当該空間内に存在するプレイヤオブジェクトを入力装置で操作するゲーム装置に関し、より特定的には、仮想カメラの制御処理に関する。   The present invention relates to a game device that operates a player object existing in a virtual three-dimensional space photographed by a virtual camera using an input device, and more particularly to a control process of the virtual camera.

従来より、仮想3次元空間内でのプレイヤオブジェクトの進むべき方向(目標地点の存在する方向)を指示する方向指示オブジェクトをプレイヤオブジェクトの近傍の表示するゲーム装置が知られている(例えば、特許文献1)。当該ゲーム装置では、プレイヤオブジェクト座標データと目的地の座標データに基づいて、三角錐の形状を有する方向指示オブジェクトを作成し、プレイヤオブジェクトの近傍に表示している。このとき、当該三角錐の先端がプレイヤオブジェクトの進むべき方向を向くような処理が実行されている。
特開平11−151376号公報
2. Description of the Related Art Conventionally, a game device that displays a direction indicating object that indicates a direction in which a player object should travel in a virtual three-dimensional space (a direction in which a target point exists) in the vicinity of the player object is known (for example, Patent Documents). 1). In the game device, a direction indicating object having a triangular pyramid shape is created based on the player object coordinate data and the destination coordinate data, and is displayed in the vicinity of the player object. At this time, processing is performed such that the tip of the triangular pyramid faces the direction in which the player object should proceed.
JP-A-11-151376

しかしながら、上述したようなゲーム装置において、従来から以下に示す問題点があった。上記のゲーム装置では、プレイヤオブジェクトの進むべき方向(三角錐の先端の向き)は、プレイヤオブジェクトの現在位置に応じて決められている。一方、プレイヤオブジェクトの位置は、プレイヤの操作によって随時変化するため、方向指示オブジェクトが指し示す方向もその都度変化する。例えば、ある時点では、方向指示オブジェクトはプレイヤから見て奥行き方向を指し示していたが、その後プレイヤオブジェクトを移動させた結果、右方向を指し示したり、左方向を指し示したりすることになっていた。そのため、プレイヤオブジェクトを上記方向指示オブジェクトが指し示す方向に移動させようとした際、プレイヤはその都度、方向指示オブジェクトが指し示す方向を確認し、プレイヤオブジェクトとの向きを当該方向にむき直させるための操作を行う必要があり、煩雑な操作性となっていた。   However, the game apparatus as described above has conventionally had the following problems. In the above game device, the direction in which the player object should proceed (the direction of the tip of the triangular pyramid) is determined according to the current position of the player object. On the other hand, since the position of the player object changes as needed by the player's operation, the direction indicated by the direction indicating object also changes each time. For example, at a certain point in time, the direction indicating object points to the depth direction when viewed from the player, but as a result of moving the player object thereafter, the direction indicating object points to the right direction or to the left direction. Therefore, each time the player tries to move the player object in the direction indicated by the direction indication object, the player confirms the direction indicated by the direction indication object and operates to turn the player object toward the direction. It was necessary to carry out, and it became complicated operability.

それ故に、本発明の目的は、仮想3次元空間内において、目標地点の存在する方向をユーザにより把握させやすくすることができ、目標地点へ向かうための操作性を高めることができるゲームプログラム、およびゲーム装置を提供することである。   Therefore, an object of the present invention is to make it easier for the user to grasp the direction in which the target point exists in the virtual three-dimensional space, and to improve the operability for heading to the target point, and It is to provide a game device.

本発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施形態との対応関係の一例を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. Note that the reference numerals in parentheses, supplementary explanations, and the like are examples of the correspondence with the embodiments described later in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、仮想カメラで撮影された仮想3次元空間において、当該空間内に存在するプレイヤオブジェクトを入力装置で操作するゲーム装置のコンピュータに実行させるゲームプログラムであって、コンピュータを、操作情報取得手段(S31)と、マーカ地点設定手段(S33)と、マーカ地点注目手段(S20)として機能させる。操作情報取得手段は、入力装置から出力される操作情報を取得する。マーカ地点設定手段は、操作情報取得手段で取得した操作情報に基づいて、仮想3次元空間内の任意の地点をマーカ地点として設定する。マーカ地点注目手段は、仮想カメラの視線方向にマーカ地点が位置するように仮想カメラの位置および向きを設定する。   1st invention is the game program which makes the computer of the game device which operates the player object which exists in the said space in the virtual three-dimensional space image | photographed with the virtual camera with an input device, Comprising: Operation information It is made to function as an acquisition means (S31), a marker spot setting means (S33), and a marker spot attention means (S20). The operation information acquisition unit acquires operation information output from the input device. The marker point setting unit sets an arbitrary point in the virtual three-dimensional space as a marker point based on the operation information acquired by the operation information acquisition unit. The marker point attention unit sets the position and orientation of the virtual camera so that the marker point is positioned in the visual line direction of the virtual camera.

第1の発明によれば、仮想空間内の任意の地点をマーカ地点としてプレイヤに設定させることができ、且つ、当該地点に仮想カメラを向けることができる。これにより、プレイヤが自ら設定したマーカ地点のある方向を容易に把握させることができる。   According to the first invention, the player can set an arbitrary point in the virtual space as a marker point, and the virtual camera can be directed to the point. Thereby, it is possible to easily grasp the direction of the marker point set by the player himself.

第2の発明は、第1の発明において、ゲームプログラムは、コンピュータを、操作情報で示される操作内容が、仮想カメラの視線方向をマーカ地点に向けるための指示か否かを判定する注目指示判定手段(S13)として更に機能させる。そして、マーカ地点注目手段は、注目指示判定手段が、操作内容が仮想カメラの視線方向をマーカ地点に向けるための指示であると判定したときに、仮想カメラの位置および向きを設定する。   In a second aspect based on the first aspect, the game program causes the computer to determine whether the operation content indicated by the operation information is an instruction for directing the visual line direction of the virtual camera toward the marker point. Further function as means (S13). Then, the marker point attention unit sets the position and orientation of the virtual camera when the attention instruction determination unit determines that the operation content is an instruction for directing the visual line direction of the virtual camera toward the marker point.

第2の発明によれば、プレイヤが所望するときに仮想カメラをマーカ地点の方向に向けることができる。   According to the second invention, the virtual camera can be directed toward the marker point when the player desires.

第3の発明は、第2の発明において、ゲームプログラムは、コンピュータを、注目指示判定手段が、操作内容が仮想カメラの視線方向をマーカ地点に向けるための指示であると判定したとき、マーカ地点が設定されているか否かを判定するマーカ地点存在判定手段として更に機能させる。そして、マーカ地点注目手段は、マーカ地点存在判定手段が、マーカ地点が設定されていないと判定したとき、予め定められている所定の地点が仮想カメラの視線方向に位置するように仮想カメラの位置と向きを設定する。   According to a third aspect, in the second aspect, when the game program determines that the attention instruction determination unit determines that the operation content is an instruction for directing the visual line direction of the virtual camera to the marker point, the marker point Is further functioned as marker point presence determination means for determining whether or not is set. Then, when the marker spot presence determining unit determines that the marker spot is not set, the marker spot notifying unit determines the position of the virtual camera so that the predetermined spot is positioned in the visual line direction of the virtual camera. And set the orientation.

第3の発明によれば、マーカ地点が設定されていないときは、初期値として予め設定されている地点の方向をプレイヤに把握させることができる。   According to the third aspect, when the marker spot is not set, the player can be made aware of the direction of the spot set in advance as the initial value.

第4の発明は、第1の発明において、マーカ地点注目手段は、プレイヤオブジェクトの少なくとも一部が仮想カメラの撮影範囲内に含まれるような位置に当該仮想カメラを移動させる。   In a fourth aspect based on the first aspect, the marker point notifying means moves the virtual camera to a position where at least a part of the player object is included in the shooting range of the virtual camera.

第5の発明は、第1の発明において、マーカ地点注目手段は、マーカ地点とプレイヤオブジェクトとを結ぶ直線の近傍に仮想カメラを移動させる。   In a fifth aspect based on the first aspect, the marker spot attention means moves the virtual camera to the vicinity of a straight line connecting the marker spot and the player object.

第4乃至第5の発明によれば、プレイヤオブジェクトとマーカ地点との位置関係をプレイヤに容易に把握させることができる。   According to the fourth to fifth inventions, the player can easily grasp the positional relationship between the player object and the marker spot.

第6の発明は、第1の発明において、マーカ地点注目手段は、仮想カメラの視線上にプレイヤオブジェクトが位置するように仮想カメラを移動させる。   In a sixth aspect based on the first aspect, the marker point attention unit moves the virtual camera so that the player object is positioned on the line of sight of the virtual camera.

第6の発明によれば、プレイヤからみて奥行き方向にプレイヤオブジェクトを移動させるという簡易な操作を行うだけで、マーカ地点に向けてプレイヤオブジェクトを移動させることが可能であり、操作性を向上させることができる。   According to the sixth aspect of the invention, the player object can be moved toward the marker point only by performing a simple operation of moving the player object in the depth direction as viewed from the player, and the operability is improved. Can do.

第7の発明は、第1の発明において、ゲームプログラムは、コンピュータを、仮想3次元空間を鳥瞰した画像である鳥瞰画像を生成して表示する鳥瞰画像表示手段(S22)として更に機能させる。そして、マーカ地点設定手段は、操作情報取得手段で取得した操作情報に基づいて、鳥瞰画像に対してマーカ地点を設定する。なお、ここでいう鳥瞰画像は、仮想ゲーム空間を鳥瞰した状態の3次元空間の画像のみならず、当該3次元空間に対応する2次元画像も含む。   In a seventh aspect based on the first aspect, the game program causes the computer to further function as bird's-eye image display means (S22) for generating and displaying a bird's-eye image that is an image obtained by bird's-eye view of the virtual three-dimensional space. Then, the marker point setting unit sets the marker point for the bird's-eye view image based on the operation information acquired by the operation information acquisition unit. Here, the bird's-eye view image includes not only a three-dimensional space image in a state where the virtual game space is bird's eye view but also a two-dimensional image corresponding to the three-dimensional space.

第7の発明によれば、仮想3次元空間を鳥瞰した画像を表示した状態でプレイヤにマーカ地点の設定を行わせることができる。そのため、仮想3次元空間の地形や位置関係をプレイヤに把握させやすい状態でマーカ地点の設定を行わせることができ、操作性をより高めることが可能となる。   According to the seventh aspect, it is possible to cause the player to set the marker spot in a state where the bird's-eye view of the virtual three-dimensional space is displayed. Therefore, the marker point can be set in a state where the player can easily understand the topography and the positional relationship of the virtual three-dimensional space, and the operability can be further improved.

第8の発明は、第1の発明において、コンピュータを、仮想3次元空間に対応した2次元マップ画像を表示する2次元マップ表示手段として更に機能させる。そして、マーカ地点設定手段は、操作情報取得手段で取得した操作情報に基づいて、2次元マップ画像に対してマーカ地点を設定する。   In an eighth aspect based on the first aspect, the computer is further caused to function as a two-dimensional map display means for displaying a two-dimensional map image corresponding to the virtual three-dimensional space. Then, the marker point setting unit sets the marker point for the two-dimensional map image based on the operation information acquired by the operation information acquisition unit.

第8の発明によれば、仮想3次元空間に対応した2次元マップ画像上でプレイヤにマーカ地点の設定を行わせることができる。そのため、仮想3次元空間の地理的な状態をプレイヤに把握させやすい状態でマーカ地点の設定を行わせることができ、操作性をより高めることが可能となる。   According to the eighth aspect, it is possible to cause the player to set the marker spot on the two-dimensional map image corresponding to the virtual three-dimensional space. Therefore, the marker point can be set in a state where the player can easily grasp the geographical state of the virtual three-dimensional space, and the operability can be further improved.

第9の発明は、第8の発明において、ゲームプログラムは、コンピュータを、操作情報で示される操作内容が、仮想カメラの視線方向をマーカ地点に向けるための指示か否かを判定する注目指示判定手段として更に機能させる。そして、2次元マップ表示手段は、注目指示判定手段が、操作内容が仮想カメラの視線方向をマーカ地点に向けるための指示であると判定したときに、マーカ地点を2次元画像マップの上部に位置するように表示する。   In a ninth aspect based on the eighth aspect, the game program causes the computer to determine whether or not the operation content indicated by the operation information is an instruction for directing the visual line direction of the virtual camera to the marker point. Further function as a means. Then, the two-dimensional map display means positions the marker point above the two-dimensional image map when the attention instruction determination means determines that the operation content is an instruction for directing the visual line direction of the virtual camera to the marker point. To display.

第9の発明によれば、マーカ地点の位置をプレイヤに直感的に把握させることができる。   According to the ninth aspect, the player can intuitively grasp the position of the marker point.

第10の発明は、第8の発明において、ゲームプログラムは、コンピュータを、操作情報取得手段で取得した操作情報に基づいて、2次元マップ画像上でカーソルを操作するカーソル操作手段として更に機能させる。そして、マーカ地点設定手段は、カーソル操作手段で操作されたカーソルで指示された位置座標に基づいてマーカ地点を設定する。   In a tenth aspect based on the eighth aspect, the game program causes the computer to further function as cursor operation means for operating the cursor on the two-dimensional map image based on the operation information acquired by the operation information acquisition means. Then, the marker point setting unit sets the marker point based on the position coordinates designated by the cursor operated by the cursor operation unit.

第10の発明によれば、操作性の良いマーカ設定操作環境をプレイヤに提供できる。   According to the tenth aspect, a marker setting operation environment with good operability can be provided to the player.

第11の発明は、第1の発明において、ゲームプログラムは、コンピュータを、操作情報取得手段で取得した操作情報に基づいて、仮想3次元空間内でカーソルを操作するカーソル操作手段として更に機能させる。そして、マーカ地点設定手段は、カーソル操作手段で操作されたカーソルで指示された位置座標に基づいてマーカ地点を設定する。   In an eleventh aspect based on the first aspect, the game program causes the computer to further function as cursor operation means for operating the cursor in the virtual three-dimensional space based on the operation information acquired by the operation information acquisition means. Then, the marker point setting unit sets the marker point based on the position coordinates designated by the cursor operated by the cursor operation unit.

第11の発明によれば、カーソルを用いてマーカ地点を設定できるため、マーカ地点の設定操作を容易なものとすることができる。   According to the eleventh aspect, since the marker point can be set using the cursor, the marker point setting operation can be facilitated.

第12の発明は、第1の発明において、マーカ地点設定手段は、マーカ地点を複数設定可能である。   In a twelfth aspect based on the first aspect, the marker spot setting means can set a plurality of marker spots.

第12の発明によれば、プレイヤに、仮想空間内における複数の地点に対して「目印」を設定することができ、それぞれの地点の方向を容易に把握させることが可能となる。   According to the twelfth aspect, the player can set “marks” for a plurality of points in the virtual space, and can easily grasp the direction of each point.

第13の発明は、第12の発明において、ゲームプログラムは、コンピュータを、所定の操作に応じて、複数のマーカ地点のうちの一つを所定の順序で選択するマーカ地点選択手段として更に機能させる。そして、マーカ地点注目手段は、マーカ地点選択手段で選択されたマーカ地点が仮想カメラの視線方向に位置するように当該仮想カメラの位置と向きを設定する。   In a thirteenth aspect based on the twelfth aspect, the game program causes the computer to further function as marker point selection means for selecting one of a plurality of marker points in a predetermined order in response to a predetermined operation. . Then, the marker point attention unit sets the position and orientation of the virtual camera so that the marker point selected by the marker point selection unit is positioned in the visual line direction of the virtual camera.

第13の発明によれば、簡便な操作で複数のマーカの切替を実現することができる。   According to the thirteenth aspect, switching of a plurality of markers can be realized with a simple operation.

第14の発明は、第12の発明において、ゲームプログラムは、コンピュータを、入力装置の操作の種類にそれぞれ対応付けられた複数のマーカ地点のうちの一つを、当該入力装置を操作することにより選択するマーカ地点選択手段として更に機能させる。そして、マーカ地点注目手段は、マーカ地点選択手段で選択されたマーカ地点が仮想カメラの視線方向に位置するように当該仮想カメラの位置と向きを設定する。   In a fourteenth aspect based on the twelfth aspect, the game program causes the computer to operate one of a plurality of marker points respectively associated with the type of operation of the input device. It further functions as a marker point selection means to be selected. Then, the marker point attention unit sets the position and orientation of the virtual camera so that the marker point selected by the marker point selection unit is positioned in the visual line direction of the virtual camera.

第14の発明によれば、複数のマーカ地点を設定した場合に、一度の操作だけで当該複数のマーカ地点のうちいずれか一つを選択することが可能となり、操作性をより高めることができる。   According to the fourteenth aspect, when a plurality of marker points are set, it becomes possible to select any one of the plurality of marker points with only one operation, and the operability can be further improved. .

第15の発明は、第13または第14の発明において、ゲームプログラムは、コンピュータを、複数のマーカ地点のうちマーカ地点選択手段によって選択されているマーカ地点を示すための表示をゲーム画面上に表示する選択中マーカ表示手段として更に機能させる。   In a fifteenth aspect based on the thirteenth or fourteenth aspect, the game program displays on the game screen a display for indicating the marker point selected by the marker point selecting means from the plurality of marker points. It further functions as a marker display means during selection.

第15の発明によれば、複数のマーカが設定された状態のとき、いずれのマーカ地点に仮想カメラが向けられるのかを、プレイヤに容易に把握させることが可能となる。   According to the fifteenth aspect, when a plurality of markers are set, the player can easily grasp to which marker point the virtual camera is directed.

第16の発明は、第15の発明において、選択中マーカ表示手段は、マーカ地点選択手段で選択されているマーカ地点に対応したオブジェクトを表示する。   In a sixteenth aspect based on the fifteenth aspect, the selected marker display means displays an object corresponding to the marker point selected by the marker point selection means.

第16の発明によれば、複数のマーカ地点のうち、どのマーカ地点に仮想カメラの視線方向が向けられるのかをプレイヤに容易に把握させることができる。   According to the sixteenth aspect, it is possible for the player to easily grasp to which marker point the visual line direction of the virtual camera is directed among the plurality of marker points.

第17の発明は、第1の発明において、ゲームプログラムは、コンピュータを、マーカ地点設定手段で設定されたマーカ地点に所定のオブジェクトを配置するオブジェクト配置手段として更に機能させる。   In a seventeenth aspect based on the first aspect, the game program further causes the computer to function as an object placement unit that places a predetermined object at the marker point set by the marker point setting unit.

第17の発明によれば、3次元空間の画像が表示されている状態において、マーカ地点のある方向・場所をプレイヤに直感的に把握させることができる。   According to the seventeenth aspect, the player can intuitively grasp the direction / location of the marker spot in a state where the image in the three-dimensional space is displayed.

第18の発明は、第1の発明において、ゲームプログラムは、コンピュータを、操作情報取得手段で取得した操作情報に基づいて、仮想3次元空間内においてプレイヤオブジェクトを移動させるプレイヤオブジェクト移動手段として更に機能させる。そして、プレイヤオブジェクト移動手段は、プレイヤオブジェクトを仮想カメラの視線方向に対して垂直方向へ移動させる指示である時、仮想3次元空間内においてプレイヤオブジェクトを、マーカ地点を中心に円形に移動させる。   In an eighteenth aspect based on the first aspect, the game program further functions as a player object moving means for moving the player object in the virtual three-dimensional space based on the operation information acquired by the operation information acquiring means. Let The player object moving means moves the player object in a circle around the marker point in the virtual three-dimensional space when the instruction is to move the player object in a direction perpendicular to the viewing direction of the virtual camera.

第18の発明によれば、3次元空間の画像が表示されている状態で、プレイヤがプレイヤオブジェクトを移動させる操作を行っているときに、マーカ地点のある方向・場所をプレイヤに直感的に把握させることが可能となる。   According to the eighteenth aspect, when the player is performing an operation of moving the player object while the image of the three-dimensional space is being displayed, the player can intuitively grasp the direction / location of the marker point. It becomes possible to make it.

第19の発明は、第1の発明において、ゲームプログラムは、コンピュータを、オブジェクト特定手段(S23)と、特定解除判定手段(S71)と、特定オブジェクト注目手段(S73)として更に機能させる。オブジェクト特定手段は、プレイヤオブジェクト以外の所定のオブジェクトを操作情報に基づいて特定する。特定解除判定手段は、特定されたオブジェクトの特定を解除するための所定の条件が満たされたか否かを判定する。特定オブジェクト注目手段は、特定されたオブジェクトの解除条件が満たされるまでの間、当該特定されたオブジェクトに仮想カメラの注視点を設定する。   In a nineteenth aspect based on the first aspect, the game program causes the computer to further function as object specifying means (S23), specific release determination means (S71), and specific object attention means (S73). The object specifying means specifies a predetermined object other than the player object based on the operation information. The specific cancellation determination unit determines whether or not a predetermined condition for canceling the specification of the specified object is satisfied. The specific object attention unit sets a gazing point of the virtual camera on the specified object until the release condition of the specified object is satisfied.

第19の発明によれば、ゲームの内容、進行状況、場面に応じて、所定のオブジェクトの注目する仮想カメラ制御と、所定の地点に注目する仮想カメラ制御と使い分けることが可能となり、ゲームの興趣性を高めることができる。   According to the nineteenth invention, according to the content, progress status, and scene of the game, it is possible to use separately the virtual camera control that focuses on a predetermined object and the virtual camera control that focuses on a predetermined point. Can increase the sex.

第20の発明は、仮想カメラで撮影された仮想3次元空間において、当該空間内に存在するプレイヤオブジェクトを入力装置で操作するゲーム装置であって、操作情報取得手段(10)と、マーカ地点設定手段(10)と、マーカ地点注目手段(10)とを備える。操作情報取得手段は、入力装置から出力される操作情報を取得する。マーカ地点設定手段は、操作情報取得手段で取得した操作情報に基づいて、仮想3次元空間内の任意の地点をマーカ地点として設定する。マーカ地点注目手段は、仮想カメラの視線方向にマーカ地点が位置するように仮想カメラの位置および向きを設定する。   A twentieth aspect of the invention is a game device for operating a player object existing in the virtual three-dimensional space photographed by a virtual camera with an input device, comprising an operation information acquisition means (10) and marker point setting. Means (10) and marker point attention means (10) are provided. The operation information acquisition unit acquires operation information output from the input device. The marker point setting unit sets an arbitrary point in the virtual three-dimensional space as a marker point based on the operation information acquired by the operation information acquisition unit. The marker point attention unit sets the position and orientation of the virtual camera so that the marker point is positioned in the visual line direction of the virtual camera.

第20の発明によれば、上記第1の発明と同様の効果を得ることができる。   According to the twentieth invention, an effect similar to that of the first invention can be obtained.

本発明によれば、仮想空間内の任意の地点をマーカ地点としてプレイヤに設定させ、且つ、プレイヤが自ら設定したマーカ地点のある方向を容易に把握させることができる。   According to the present invention, it is possible to cause the player to set an arbitrary point in the virtual space as a marker point, and to easily grasp the direction in which the marker point is set by the player.

以下、本発明の実施の形態について、図面を参照して説明する。尚、この実施例により本発明が限定されるものではない。   Embodiments of the present invention will be described below with reference to the drawings. In addition, this invention is not limited by this Example.

(ゲームシステムの全体構成)
図1を参照して、本発明の実施形態に係るゲーム装置を含むゲームシステム1について説明する。図1は、ゲームシステム1の外観図である。以下、据置型のゲーム装置を一例にして、本実施形態のゲーム装置およびゲームプログラムについて説明する。図1において、ゲームシステム1は、テレビジョン受像器(以下、単に「テレビ」と記載する)2、ゲーム装置本体3、光ディスク4、コントローラ7、およびマーカ部8を含む。本システムは、コントローラ7を用いたゲーム操作に基づいてゲーム装置本体3でゲーム処理を実行するものである。
(Overall configuration of game system)
With reference to FIG. 1, a game system 1 including a game apparatus according to an embodiment of the present invention will be described. FIG. 1 is an external view of the game system 1. Hereinafter, the game apparatus and the game program of the present embodiment will be described using a stationary game apparatus as an example. In FIG. 1, the game system 1 includes a television receiver (hereinafter simply referred to as “TV”) 2, a game apparatus body 3, an optical disk 4, a controller 7, and a marker unit 8. This system executes game processing in the game apparatus body 3 based on a game operation using the controller 7.

ゲーム装置本体3には、当該ゲーム装置本体3に対して交換可能に用いられる情報記憶媒体の一例である光ディスク4が脱着可能に挿入される。光ディスク4には、ゲーム装置本体3において実行されるためのゲームプログラムが記憶されている。ゲーム装置本体3の前面には光ディスク4の挿入口が設けられている。ゲーム装置本体3は、挿入口に挿入された光ディスク4に記憶されたゲームプログラムを読み出して実行することによってゲーム処理を実行する。   An optical disk 4, which is an example of an information storage medium that can be used interchangeably with the game apparatus body 3, is detachably inserted into the game apparatus body 3. The optical disc 4 stores a game program to be executed in the game apparatus body 3. An insertion slot for the optical disc 4 is provided on the front surface of the game apparatus body 3. The game apparatus body 3 executes a game process by reading and executing a game program stored on the optical disc 4 inserted into the insertion slot.

ゲーム装置本体3には、表示装置の一例であるテレビ2が接続コードを介して接続される。テレビ2には、ゲーム装置本体3において実行されるゲーム処理の結果得られるゲーム画像が表示される。また、テレビ2の画面の周辺(図1では画面の上側)には、マーカ部8が設置される。マーカ部8は、その両端に2つのマーカ8Rおよび8Lを備えている。マーカ8R(マーカ8Lも同様)は、具体的には1以上の赤外LEDであり、テレビ2の前方に向かって赤外光を出力する。マーカ部8はゲーム装置本体3に接続されており、ゲーム装置本体3はマーカ部8が備える各赤外LEDの点灯を制御することが可能である。   A television 2 which is an example of a display device is connected to the game apparatus body 3 via a connection cord. On the television 2, a game image obtained as a result of the game process executed in the game apparatus body 3 is displayed. In addition, a marker unit 8 is installed around the screen of the television 2 (upper side of the screen in FIG. 1). The marker unit 8 includes two markers 8R and 8L at both ends thereof. The marker 8R (same for the marker 8L) is specifically one or more infrared LEDs, and outputs infrared light toward the front of the television 2. The marker unit 8 is connected to the game apparatus body 3, and the game apparatus body 3 can control lighting of each infrared LED included in the marker unit 8.

コントローラ7は、当該コントローラ7自身に対して行われた操作の内容を示す操作データをゲーム装置本体3に与える入力装置である。コントローラ7とゲーム装置本体3とは無線通信によって接続される。本実施形態では、コントローラ7とゲーム装置本体3との間の無線通信には例えばBluetooth(ブルートゥース)(登録商標)の技術が用いられる。なお、他の実施形態においてはコントローラ7とゲーム装置本体3とは有線で接続されてもよい。   The controller 7 is an input device that gives operation data indicating the content of the operation performed on the controller 7 itself to the game apparatus body 3. The controller 7 and the game apparatus body 3 are connected by wireless communication. In the present embodiment, for example, Bluetooth (registered trademark) technology is used for wireless communication between the controller 7 and the game apparatus body 3. In other embodiments, the controller 7 and the game apparatus body 3 may be connected by wire.

(ゲーム装置本体3の内部構成)
次に、図2を参照して、ゲーム装置本体3の内部構成について説明する。図2は、ゲーム装置本体3の構成を示すブロック図である。ゲーム装置本体3は、CPU10、システムLSI11、外部メインメモリ12、ROM/RTC13、ディスクドライブ14、およびAV−IC15等を有する。
(Internal configuration of game apparatus body 3)
Next, the internal configuration of the game apparatus body 3 will be described with reference to FIG. FIG. 2 is a block diagram showing a configuration of the game apparatus body 3. The game apparatus body 3 includes a CPU 10, a system LSI 11, an external main memory 12, a ROM / RTC 13, a disk drive 14, an AV-IC 15, and the like.

CPU10は、光ディスク4に記憶されたゲームプログラムを実行することによってゲーム処理を実行するものであり、ゲームプロセッサとして機能する。CPU10は、システムLSI11に接続される。システムLSI11には、CPU10の他、外部メインメモリ12、ROM/RTC13、ディスクドライブ14およびAV−IC15が接続される。システムLSI11は、それに接続される各構成要素間のデータ転送の制御、表示すべき画像の生成、外部装置からのデータの取得等の処理を行う。システムLSIの内部構成について後述する。揮発性の外部メインメモリ12は、光ディスク4から読み出されたゲームプログラムや、フラッシュメモリ17から読み出されたゲームプログラム等のプログラムを記憶したり、各種データを記憶したりするものであり、CPU10のワーク領域やバッファ領域として用いられる。ROM/RTC13は、ゲーム装置本体3の起動用のプログラムが組み込まれるROM(いわゆるブートROM)と、時間をカウントするクロック回路(RTC:Real Time Clock)とを有する。ディスクドライブ14は、光ディスク4からプログラムデータやテクスチャデータ等を読み出し、後述する内部メインメモリ11eまたは外部メインメモリ12に読み出したデータを書き込む。   The CPU 10 executes a game process by executing a game program stored on the optical disc 4, and functions as a game processor. The CPU 10 is connected to the system LSI 11. In addition to the CPU 10, an external main memory 12, a ROM / RTC 13, a disk drive 14, and an AV-IC 15 are connected to the system LSI 11. The system LSI 11 performs processing such as control of data transfer between components connected thereto, generation of an image to be displayed, and acquisition of data from an external device. The internal configuration of the system LSI will be described later. The volatile external main memory 12 stores a program such as a game program read from the optical disc 4 or a game program read from the flash memory 17, or stores various data. Used as a work area and buffer area. The ROM / RTC 13 includes a ROM (so-called boot ROM) in which a program for starting the game apparatus body 3 is incorporated, and a clock circuit (RTC: Real Time Clock) that counts time. The disk drive 14 reads program data, texture data, and the like from the optical disk 4 and writes the read data to an internal main memory 11e or an external main memory 12 described later.

また、システムLSI11には、入出力プロセッサ11a、GPU(Graphics Processor Unit)11b、DSP(Digital Signal Processor)11c、VRAM11d、および内部メインメモリ11eが設けられる。図示は省略するが、これらの構成要素11a〜11eは内部バスによって互いに接続される。   Further, the system LSI 11 is provided with an input / output processor 11a, a GPU (Graphics Processor Unit) 11b, a DSP (Digital Signal Processor) 11c, a VRAM 11d, and an internal main memory 11e. Although not shown, these components 11a to 11e are connected to each other by an internal bus.

GPU11bは、描画手段の一部を形成し、CPU10からのグラフィクスコマンド(作画命令)に従って画像を生成する。より具体的には、GPU11bは、当該グラフィクスコマンドに従って3Dグラフィックスの表示に必要な計算処理、例えば、レンダリングの前処理にあたる3D座標から2D座標への座標変換などの処理や、テクスチャの張り込みなどの最終的なレンダリング処理を行うことで、ゲーム画像データを生成する。ここで、CPU10は、グラフィクスコマンドに加えて、ゲーム画像データの生成に必要な画像生成プログラムをGPU11bに与える。VRAM11dは、GPU11bがグラフィクスコマンドを実行するために必要なデータ(ポリゴンデータやテクスチャデータ等のデータ)を記憶する。画像が生成される際には、GPU11bは、VRAM11dに記憶されたデータを用いて画像データを作成する。   The GPU 11b forms part of a drawing unit and generates an image according to a graphics command (drawing command) from the CPU 10. More specifically, the GPU 11b performs calculation processing necessary for displaying 3D graphics according to the graphics command, for example, processing such as coordinate conversion from 3D coordinates to 2D coordinates, which is a pre-processing of rendering, Game image data is generated by performing a final rendering process. Here, the CPU 10 provides the GPU 11b with an image generation program necessary for generating game image data in addition to the graphics command. The VRAM 11d stores data (data such as polygon data and texture data) necessary for the GPU 11b to execute the graphics command. When an image is generated, the GPU 11b creates image data using data stored in the VRAM 11d.

DSP11cは、オーディオプロセッサとして機能し、内部メインメモリ11eや外部メインメモリ12に記憶されるサウンドデータや音波形(音色)データを用いて、音声データを生成する。また、内部メインメモリ11eは、外部メインメモリ12と同様に、プログラムや各種データを記憶したり、CPU10のワーク領域やバッファ領域としても用いられる。   The DSP 11c functions as an audio processor, and generates sound data using sound data and sound waveform (tone color) data stored in the internal main memory 11e and the external main memory 12. Similarly to the external main memory 12, the internal main memory 11e stores programs and various data, and is also used as a work area and a buffer area for the CPU 10.

上述のように生成された画像データおよび音声データは、AV−IC15によって読み出される。AV−IC15は、読み出した画像データをAVコネクタ16を介してテレビ2に出力するとともに、読み出した音声データを、テレビ2に内蔵されるスピーカ2aに出力する。これによって、画像がテレビ2に表示されるとともに音がスピーカ2aから出力される。   The image data and audio data generated as described above are read out by the AV-IC 15. The AV-IC 15 outputs the read image data to the television 2 via the AV connector 16, and outputs the read audio data to the speaker 2 a built in the television 2. As a result, an image is displayed on the television 2 and a sound is output from the speaker 2a.

入出力プロセッサ(I/Oプロセッサ)11aは、それに接続される構成要素との間でデータの送受信を実行したり、外部装置からのデータのダウンロードを実行したりする。入出力プロセッサ11aは、フラッシュメモリ17、無線通信モジュール18、無線コントローラモジュール19、拡張コネクタ20、およびメモリカード用コネクタ21に接続される。無線通信モジュール18にはアンテナ22が接続され、無線コントローラモジュール19にはアンテナ23が接続される。   The input / output processor (I / O processor) 11a transmits / receives data to / from components connected to the input / output processor (I / O processor) 11a or downloads data from an external device. The input / output processor 11a is connected to the flash memory 17, the wireless communication module 18, the wireless controller module 19, the expansion connector 20, and the memory card connector 21. An antenna 22 is connected to the wireless communication module 18, and an antenna 23 is connected to the wireless controller module 19.

入出力プロセッサ11aは、無線通信モジュール18およびアンテナ22を介してネットワークに接続し、ネットワークに接続される他のゲーム装置や各種サーバと通信することができる。入出力プロセッサ11aは、定期的にフラッシュメモリ17にアクセスし、ネットワークへ送信する必要があるデータの有無を検出し、当該データが有る場合には、無線通信モジュール18およびアンテナ22を介してネットワークに送信する。また、入出力プロセッサ11aは、他のゲーム装置から送信されてくるデータやダウンロードサーバからダウンロードしたデータを、ネットワーク、アンテナ22および無線通信モジュール18を介して受信し、受信したデータをフラッシュメモリ17に記憶する。CPU10はゲームプログラムを実行することにより、フラッシュメモリ17に記憶されたデータを読み出してゲームプログラムで利用する。フラッシュメモリ17には、ゲーム装置本体3と他のゲーム装置や各種サーバとの間で送受信されるデータの他、ゲーム装置本体3を利用してプレイしたゲームのセーブデータ(ゲームの結果データまたは途中データ)が記憶されてもよい。   The input / output processor 11a is connected to the network via the wireless communication module 18 and the antenna 22, and can communicate with other game devices and various servers connected to the network. The input / output processor 11a periodically accesses the flash memory 17 to detect the presence / absence of data that needs to be transmitted to the network. If there is such data, the input / output processor 11a communicates with the network via the wireless communication module 18 and the antenna 22. Send. Further, the input / output processor 11a receives data transmitted from other game devices and data downloaded from the download server via the network, the antenna 22 and the wireless communication module 18, and receives the received data in the flash memory 17. Remember. By executing the game program, the CPU 10 reads out the data stored in the flash memory 17 and uses it in the game program. In the flash memory 17, in addition to data transmitted and received between the game apparatus body 3 and other game apparatuses and various servers, game save data (game result data or halfway) played using the game apparatus body 3 is stored. Data) may be stored.

また、入出力プロセッサ11aは、コントローラ7から送信される操作データをアンテナ23および無線コントローラモジュール19を介して受信し、内部メインメモリ11eまたは外部メインメモリ12のバッファ領域に記憶(一時記憶)する。   The input / output processor 11a receives operation data transmitted from the controller 7 via the antenna 23 and the wireless controller module 19, and stores (temporarily stores) the data in the buffer area of the internal main memory 11e or the external main memory 12.

さらに、入出力プロセッサ11aには、拡張コネクタ20およびメモリカード用コネクタ21が接続される。拡張コネクタ20は、USBやSCSIのようなインターフェースのためのコネクタであり、外部記憶媒体のようなメディアを接続したり、他のコントローラのような周辺機器を接続したり、有線の通信用コネクタを接続することによって無線通信モジュール18に替えてネットワークとの通信を行ったりすることができる。メモリカード用コネクタ21は、メモリカードのような外部記憶媒体を接続するためのコネクタである。例えば、入出力プロセッサ11aは、拡張コネクタ20やメモリカード用コネクタ21を介して、外部記憶媒体にアクセスし、データを保存したり、データを読み出したりすることができる。   Further, an expansion connector 20 and a memory card connector 21 are connected to the input / output processor 11a. The expansion connector 20 is a connector for an interface such as USB or SCSI, and connects a medium such as an external storage medium, a peripheral device such as another controller, or a wired communication connector. By connecting, communication with the network can be performed instead of the wireless communication module 18. The memory card connector 21 is a connector for connecting an external storage medium such as a memory card. For example, the input / output processor 11a can access an external storage medium via the expansion connector 20 or the memory card connector 21 to store data or read data.

ゲーム装置本体3には、電源ボタン24、リセットボタン25、およびイジェクトボタン26が設けられる。電源ボタン24およびリセットボタン25は、システムLSI11に接続される。電源ボタン24がオンにされると、ゲーム装置本体3の各構成要素に対して、図示しないACアダプタを経て電源が供給される。また、一旦電源がオンにされた状態で、再度電源ボタン24を押すと、低電力スタンバイモードへの移行が行われる。この状態でも、ゲーム装置本体3への通電は行われているため、インターネット等のネットワークに常時接続しておくことができる。なお、一旦電源がオンにされた状態で、電源をオフにしたいときは、電源ボタン24を所定時間以上長押しすることで、電源をオフとすることが可能である。リセットボタン25が押されると、システムLSI11は、ゲーム装置本体3の起動プログラムを再起動する。イジェクトボタン26は、ディスクドライブ14に接続される。イジェクトボタン26が押されると、ディスクドライブ14から光ディスク4が排出される。   The game apparatus body 3 is provided with a power button 24, a reset button 25, and an eject button 26. The power button 24 and the reset button 25 are connected to the system LSI 11. When the power button 24 is turned on, power is supplied to each component of the game apparatus body 3 through an AC adapter (not shown). In addition, when the power button 24 is pressed again in a state where the power is turned on, a transition to the low power standby mode is performed. Even in this state, the game apparatus body 3 is energized, so that it can always be connected to a network such as the Internet. In addition, when it is desired to turn off the power once the power is turned on, the power can be turned off by pressing the power button 24 for a predetermined time or longer. When the reset button 25 is pressed, the system LSI 11 restarts the boot program for the game apparatus body 3. The eject button 26 is connected to the disk drive 14. When the eject button 26 is pressed, the optical disk 4 is ejected from the disk drive 14.

次に、図3および図4を参照して、コントローラ7について説明する。なお、図3は、コントローラ7の上面後方から見た斜視図である。図4は、コントローラ7を下面前方から見た斜視図である。   Next, the controller 7 will be described with reference to FIGS. 3 and 4. FIG. 3 is a perspective view of the controller 7 as viewed from the upper rear side. FIG. 4 is a perspective view of the controller 7 as viewed from the lower front side.

図3および図4において、コントローラ7は、ハウジング71と、当該ハウジング71の表面に設けられた複数個の操作ボタンで構成される操作部72とを備える。本実施例のハウジング71は、その前後方向を長手方向とした略直方体形状を有しており、全体として大人や子供の片手で把持可能な大きさであり、例えばプラスチック成型によって形成されている。   3 and 4, the controller 7 includes a housing 71 and an operation unit 72 including a plurality of operation buttons provided on the surface of the housing 71. The housing 71 of the present embodiment has a substantially rectangular parallelepiped shape with the front-rear direction as a longitudinal direction, and has a size that can be gripped with one hand of an adult or a child as a whole, and is formed by plastic molding, for example.

ハウジング71上面の中央前面側に、十字キー72aが設けられる。この十字キー72aは、十字型の4方向プッシュスイッチであり、4つの方向(前後左右)に対応する操作部分が十字の突出片にそれぞれ90°間隔で配置される。プレイヤが十字キー72aのいずれかの操作部分を押下することによって前後左右いずれかの方向を選択される。例えばプレイヤが十字キー72aを操作することによって、仮想ゲーム世界に登場するプレイヤキャラクタ等の移動方向を指示したり、複数の選択肢から選択指示したりすることができる。   A cross key 72 a is provided on the center front side of the upper surface of the housing 71. The cross key 72a is a cross-shaped four-way push switch, and operation portions corresponding to the four directions (front / rear and left / right) are arranged at 90 ° intervals on the protrusions of the cross. The player selects one of the front, rear, left and right directions by pressing one of the operation portions of the cross key 72a. For example, when the player operates the cross key 72a, it is possible to instruct the moving direction of a player character or the like appearing in the virtual game world, or to select and instruct from a plurality of options.

なお、十字キー72aは、上述したプレイヤの方向入力操作に応じて操作信号を出力する操作部であるが、他の態様の操作部でもかまわない。例えば、十字方向に4つのプッシュスイッチを配設し、プレイヤによって押下されたプッシュスイッチに応じて操作信号を出力する操作部を設けてもかまわない。さらに、上記4つのプッシュスイッチとは別に、上記十字方向が交わる位置にセンタスイッチを配設し、4つのプッシュスイッチとセンタスイッチとを複合した操作部を設けてもかまわない。また、ハウジング71上面から突出した傾倒可能なスティック(いわゆる、ジョイスティック)を倒すことによって、傾倒方向に応じて操作信号を出力する操作部を上記十字キー72aの代わりに設けてもかまわない。さらに、水平移動可能な円盤状部材をスライドさせることによって、当該スライド方向に応じた操作信号を出力する操作部を、上記十字キー72aの代わりに設けてもかまわない。また、タッチパッドを、上記十字キー72aの代わりに設けてもかまわない。   Note that the cross key 72a is an operation unit that outputs an operation signal in response to the above-described direction input operation of the player, but may be an operation unit of another mode. For example, four push switches may be provided in the cross direction, and an operation unit that outputs an operation signal according to the push switch pressed by the player may be provided. Further, apart from the four push switches, a center switch may be provided at a position where the cross direction intersects, and an operation unit in which the four push switches and the center switch are combined may be provided. An operation unit that outputs an operation signal in accordance with the tilt direction by tilting a tiltable stick (so-called joystick) protruding from the upper surface of the housing 71 may be provided instead of the cross key 72a. Furthermore, an operation unit that outputs an operation signal corresponding to the sliding direction by sliding a horizontally movable disk-shaped member may be provided instead of the cross key 72a. Further, a touch pad may be provided instead of the cross key 72a.

ハウジング71上面の十字キー72aより後面側に、複数の操作ボタン72b〜72gが設けられる。操作ボタン72b〜72gは、プレイヤがボタン頭部を押下することによって、それぞれの操作ボタン72b〜72gに割り当てられた操作信号を出力する操作部である。例えば、操作ボタン72b〜72dには、1番ボタン、2番ボタン、およびAボタン等としての機能が割り当てられる。また、操作ボタン72e〜72gには、マイナスボタン、ホームボタン、およびプラスボタン等としての機能が割り当てられる。これら操作ボタン72a〜72gは、ゲーム装置本体3が実行するゲームプログラムに応じてそれぞれの操作機能が割り当てられる。なお、図3に示した配置例では、操作ボタン72b〜72dは、ハウジング71上面の中央前後方向に沿って並設されている。また、操作ボタン72e〜72gは、ハウジング71上面の左右方向に沿って操作ボタン72bおよび72dの間に並設されている。そして、操作ボタン72fは、その上面がハウジング71の上面に埋没しており、プレイヤが不意に誤って押下することのないタイプのボタンである。   A plurality of operation buttons 72 b to 72 g are provided on the rear surface side of the cross key 72 a on the upper surface of the housing 71. The operation buttons 72b to 72g are operation units that output operation signals assigned to the operation buttons 72b to 72g when the player presses the button head. For example, functions as a first button, a second button, and an A button are assigned to the operation buttons 72b to 72d. Further, functions as a minus button, a home button, a plus button, and the like are assigned to the operation buttons 72e to 72g. These operation buttons 72a to 72g are assigned respective operation functions according to the game program executed by the game apparatus body 3. In the arrangement example shown in FIG. 3, the operation buttons 72 b to 72 d are arranged side by side along the center front-rear direction on the upper surface of the housing 71. Further, the operation buttons 72e to 72g are arranged in parallel between the operation buttons 72b and 72d along the left-right direction of the upper surface of the housing 71. The operation button 72f is a type of button whose upper surface is buried in the upper surface of the housing 71 and is not accidentally pressed by the player.

また、ハウジング71上面の十字キー72aより前面側に、操作ボタン72hが設けられる。操作ボタン72hは、遠隔からゲーム装置本体3本体の電源をオン/オフする電源スイッチである。この操作ボタン72hも、その上面がハウジング71の上面に埋没しており、プレイヤが不意に誤って押下することのないタイプのボタンである。   An operation button 72h is provided on the front surface side of the cross key 72a on the upper surface of the housing 71. The operation button 72h is a power switch for turning on / off the power source of the game apparatus body 3 from a remote location. This operation button 72h is also a type of button whose upper surface is buried in the upper surface of the housing 71 and that the player does not accidentally press.

また、ハウジング71上面の操作ボタン72cより後面側に、複数のLED702が設けられる。ここで、コントローラ7は、他のコントローラ7と区別するためにコントローラ種別(番号)が設けられている。例えば、LED702は、コントローラ7に現在設定されている上記コントローラ種別をプレイヤに通知するために用いられる。具体的には、コントローラ7からゲーム装置本体3へ送信データを送信する際、上記コントローラ種別に応じて複数のLED702のうち、種別に対応するLEDが点灯する。   A plurality of LEDs 702 are provided on the rear surface side of the operation button 72 c on the upper surface of the housing 71. Here, the controller 7 is provided with a controller type (number) to distinguish it from other controllers 7. For example, the LED 702 is used to notify the player of the controller type currently set in the controller 7. Specifically, when transmission data is transmitted from the controller 7 to the game apparatus main body 3, the LED corresponding to the type among the plurality of LEDs 702 is turned on according to the controller type.

また、ハウジング71上面には、操作ボタン72bおよび操作ボタン72e〜72gの間に後述するスピーカ(図5のスピーカ706)からの音を外部に放出するための音抜き孔が形成されている。   Further, on the upper surface of the housing 71, a sound release hole is formed between the operation button 72b and the operation buttons 72e to 72g for emitting sound from a speaker (speaker 706 in FIG. 5) described later to the outside.

一方、ハウジング71下面には、凹部が形成されている。後述で明らかとなるが、ハウジング71下面の凹部は、プレイヤがコントローラ7の前面をマーカ8Lおよび8Rに向けて片手で把持したときに、当該プレイヤの人差し指や中指が位置するような位置に形成される。そして、上記凹部の傾斜面には、操作ボタン72iが設けられる。操作ボタン72iは、例えばBボタンとして機能する操作部である。   On the other hand, a recess is formed on the lower surface of the housing 71. As will be described later, the recess on the lower surface of the housing 71 is formed at a position where the player's index finger or middle finger is positioned when the player grips the front surface of the controller 7 with one hand toward the markers 8L and 8R. The An operation button 72i is provided on the inclined surface of the recess. The operation button 72i is an operation unit that functions as a B button, for example.

また、ハウジング71前面には、撮像情報演算部74の一部を構成する撮像素子743が設けられる。ここで、撮像情報演算部74は、コントローラ7が撮像した画像データを解析してその中で輝度が高い場所を判別してその場所の重心位置やサイズなどを検出するためのシステムであり、例えば、最大200フレーム/秒程度のサンプリング周期であるため比較的高速なコントローラ7の動きでも追跡して解析することができる。この撮像情報演算部74の詳細な構成については、後述する。また、ハウジング71の後面には、コネクタ73が設けられている。コネクタ73は、例えばエッジコネクタであり、例えば接続ケーブルと嵌合して接続するために利用される。   An imaging element 743 that constitutes a part of the imaging information calculation unit 74 is provided on the front surface of the housing 71. Here, the imaging information calculation unit 74 is a system for analyzing the image data captured by the controller 7 to determine a location where the luminance is high and detecting the position of the center of gravity, the size, and the like of the location. Since the maximum sampling period is about 200 frames / second, even a relatively fast movement of the controller 7 can be tracked and analyzed. The detailed configuration of the imaging information calculation unit 74 will be described later. A connector 73 is provided on the rear surface of the housing 71. The connector 73 is an edge connector, for example, and is used for fitting and connecting with a connection cable, for example.

ここで、以下の説明を具体的にするために、コントローラ7に対して設定する座標系について定義する。図3および図4に示すように、互いに直交するxyz軸をコントローラ7に対して定義する。具体的には、コントローラ7の前後方向となるハウジング71の長手方向をz軸とし、コントローラ7の前面(撮像情報演算部74が設けられている面)方向をz軸正方向とする。また、コントローラ7の上下方向をy軸とし、ハウジング71の上面(操作ボタン72a等が設けられた面)方向をy軸正方向とする。さらに、コントローラ7の左右方向をx軸とし、ハウジング71の左側面(図3では表されずに図4で表されている側面)方向をx軸正方向とする。   Here, in order to make the following description concrete, a coordinate system set for the controller 7 is defined. As shown in FIGS. 3 and 4, xyz axes orthogonal to each other are defined for the controller 7. Specifically, the longitudinal direction of the housing 71 that is the front-rear direction of the controller 7 is the z-axis, and the front surface (the surface on which the imaging information calculation unit 74 is provided) of the controller 7 is the z-axis positive direction. Further, the vertical direction of the controller 7 is defined as the y-axis, and the upper surface (surface on which the operation buttons 72a and the like are provided) of the housing 71 is defined as the positive y-axis direction. Further, the left-right direction of the controller 7 is the x-axis, and the left side surface (side surface not shown in FIG. 3 but shown in FIG. 4) is the x-axis positive direction.

次に、図5および図6を参照して、コントローラ7の内部構造について説明する。なお、図5は、コントローラ7の上ハウジング(ハウジング71の一部)を外した状態を後面側から見た斜視図である。図6は、コントローラ7の下ハウジング(ハウジング71の一部)を外した状態を前面側から見た斜視図である。ここで、図6に示す基板700は、図5に示す基板700の裏面から見た斜視図となっている。   Next, the internal structure of the controller 7 will be described with reference to FIGS. FIG. 5 is a perspective view of the controller 7 as viewed from the rear side with the upper housing (a part of the housing 71) removed. FIG. 6 is a perspective view of the state in which the lower housing (a part of the housing 71) of the controller 7 is removed as seen from the front side. Here, the substrate 700 shown in FIG. 6 is a perspective view seen from the back surface of the substrate 700 shown in FIG.

図5において、ハウジング71の内部には基板700が固設されており、当該基板700の上主面上に操作ボタン72a〜72h、加速度センサ701、LED702、およびアンテナ754等が設けられる。そして、これらは、基板700等に形成された配線(図示せず)によってマイコン751等(図6、図7参照)に接続される。マイコン751は本願発明のボタンデータ発生手段の一例として、操作ボタン72a等の種類に応じた操作ボタンデータを発生させるように機能する。この仕組みは公知技術であるが、例えばキートップ下側に配置されたタクトスイッチなどのスイッチ機構による配線の接触/切断をマイコン751が検出することによって実現されている。より具体的には、操作ボタンが例えば押されると配線が接触して通電するので、この通電がどの操作ボタンにつながっている配線で発生したかをマイコン751が検出し、操作ボタンの種類に応じた信号を発生させている。   In FIG. 5, a substrate 700 is fixed inside the housing 71, and operation buttons 72a to 72h, an acceleration sensor 701, an LED 702, an antenna 754, and the like are provided on the upper main surface of the substrate 700. These are connected to the microcomputer 751 and the like (see FIGS. 6 and 7) by wiring (not shown) formed on the substrate 700 and the like. The microcomputer 751 functions as an example of the button data generating means of the present invention to generate operation button data corresponding to the type of the operation button 72a and the like. This mechanism is a known technique, and is realized by the microcomputer 751 detecting contact / cutting of wiring by a switch mechanism such as a tact switch disposed below the key top, for example. More specifically, when the operation button is pressed, for example, the wiring contacts and energizes, so that the microcomputer 751 detects which operation button is connected to the wiring, and according to the type of the operation button. The signal is generated.

また、コントローラ7は、無線モジュール753(図7参照)およびアンテナ754によって、ワイヤレスコントローラとして機能する。なお、ハウジング71内部には図示しない水晶振動子が設けられており、後述するマイコン751の基本クロックを生成する。また、基板700の上主面上に、スピーカ706およびアンプ708が設けられる。また、加速度センサ701は、操作ボタン72dの左側の基板700上(つまり、基板700の中央部ではなく周辺部)に設けられる。したがって、加速度センサ701は、コントローラ7の長手方向を軸とした回転に応じて、重力加速度の方向変化に加え、遠心力による成分の含まれる加速度を検出することができるので、所定の演算により、検出される加速度データからコントローラ7の回転を良好な感度でゲーム装置本体3等が判定することができる。   The controller 7 functions as a wireless controller by the wireless module 753 (see FIG. 7) and the antenna 754. A quartz oscillator (not shown) is provided inside the housing 71, and generates a basic clock for the microcomputer 751, which will be described later. A speaker 706 and an amplifier 708 are provided on the upper main surface of the substrate 700. Further, the acceleration sensor 701 is provided on the substrate 700 on the left side of the operation button 72d (that is, on the peripheral portion, not the central portion). Therefore, the acceleration sensor 701 can detect the acceleration including the component due to the centrifugal force in addition to the change in the direction of the gravitational acceleration in accordance with the rotation about the longitudinal direction of the controller 7. The game apparatus body 3 and the like can determine the rotation of the controller 7 from the detected acceleration data with good sensitivity.

一方、図6において、基板700の下主面上の前端縁に撮像情報演算部74が設けられる。撮像情報演算部74は、コントローラ7の前方から順に赤外線フィルタ741、レンズ742、撮像素子743、および画像処理回路744によって構成されており、それぞれ基板700の下主面に取り付けられる。また、基板700の下主面上の後端縁にコネクタ73が取り付けられる。さらに、基板700の下主面上にサウンドIC707およびマイコン751が設けられている。サウンドIC707は、基板700等に形成された配線によってマイコン751およびアンプ708と接続され、ゲーム装置本体3から送信されたサウンドデータに応じてアンプ708を介してスピーカ706に音声信号を出力する。   On the other hand, in FIG. 6, an imaging information calculation unit 74 is provided at the front edge on the lower main surface of the substrate 700. The imaging information calculation unit 74 includes an infrared filter 741, a lens 742, an imaging element 743, and an image processing circuit 744 in order from the front of the controller 7, and each is attached to the lower main surface of the substrate 700. A connector 73 is attached to the rear edge on the lower main surface of the substrate 700. Further, a sound IC 707 and a microcomputer 751 are provided on the lower main surface of the substrate 700. The sound IC 707 is connected to the microcomputer 751 and the amplifier 708 through wiring formed on the substrate 700 or the like, and outputs an audio signal to the speaker 706 via the amplifier 708 according to the sound data transmitted from the game apparatus body 3.

そして、基板700の下主面上には、バイブレータ704が取り付けられる。バイブレータ704は、例えば振動モータやソレノイドである。バイブレータ704は、基板700等に形成された配線によってマイコン751と接続され、ゲーム装置本体3から送信された振動データに応じてその作動をオン/オフする。バイブレータ704が作動することによってコントローラ7に振動が発生するので、それを把持しているプレイヤの手にその振動が伝達され、いわゆる振動対応ゲームが実現できる。ここで、バイブレータ704は、ハウジング71のやや前方寄りに配置されるため、プレイヤが把持している状態において、ハウジング71が大きく振動することになり、振動を感じやすくなる。   A vibrator 704 is attached on the lower main surface of the substrate 700. The vibrator 704 is, for example, a vibration motor or a solenoid. Vibrator 704 is connected to microcomputer 751 by wiring formed on substrate 700 and the like, and turns on / off its operation in accordance with vibration data transmitted from game apparatus body 3. Since the vibration is generated in the controller 7 by the operation of the vibrator 704, the vibration is transmitted to the hand of the player holding it, and a so-called vibration-compatible game can be realized. Here, since the vibrator 704 is disposed slightly forward of the housing 71, the housing 71 vibrates greatly when the player is gripping it, and it is easy to feel the vibration.

次に、図7を参照して、コントローラ7の内部構成について説明する。なお、図7は、コントローラ7の構成を示すブロック図である。   Next, the internal configuration of the controller 7 will be described with reference to FIG. FIG. 7 is a block diagram showing the configuration of the controller 7.

図7において、コントローラ7は、上述した操作部72、撮像情報演算部74、加速度センサ701、バイブレータ704、スピーカ706、サウンドIC707、およびアンプ708の他に、その内部に通信部75を備えている。   In FIG. 7, the controller 7 includes a communication unit 75 in addition to the above-described operation unit 72, imaging information calculation unit 74, acceleration sensor 701, vibrator 704, speaker 706, sound IC 707, and amplifier 708. .

撮像情報演算部74は、赤外線フィルタ741、レンズ742、撮像素子743、および画像処理回路744を含んでいる。赤外線フィルタ741は、コントローラ7の前方から入射する光から赤外線のみを通過させる。ここで、テレビ2の表示画面近傍に配置されるマーカ8Lおよび8Rは、テレビ2の前方に向かって赤外光を出力する赤外LEDである。したがって、赤外線フィルタ741を設けることによってマーカ8Lおよび8Rの画像をより正確に撮像することができる。レンズ742は、赤外線フィルタ741を透過した赤外線を集光して撮像素子743へ入射させる。撮像素子743は、例えばCMOSセンサやあるいはCCDのような固体撮像素子であり、レンズ742が集光した赤外線を撮像する。したがって、撮像素子743は、赤外線フィルタ741を通過した赤外線だけを撮像して画像データを生成する。以下では、撮像素子743によって撮像された画像を撮像画像と呼ぶ。撮像素子743によって生成された画像データは、画像処理回路744で処理される。画像処理回路744は、撮像画像内における撮像対象(マーカ8Lおよび8R)の位置を算出する。以下、図8を用いて撮像対象の位置の算出方法を説明する。   The imaging information calculation unit 74 includes an infrared filter 741, a lens 742, an imaging element 743, and an image processing circuit 744. The infrared filter 741 allows only infrared rays to pass from light incident from the front of the controller 7. Here, the markers 8 </ b> L and 8 </ b> R arranged in the vicinity of the display screen of the television 2 are infrared LEDs that output infrared light toward the front of the television 2. Therefore, by providing the infrared filter 741, the images of the markers 8L and 8R can be taken more accurately. The lens 742 collects the infrared light transmitted through the infrared filter 741 and causes the infrared light to enter the image sensor 743. The imaging element 743 is a solid-state imaging element such as a CMOS sensor or a CCD, for example, and images the infrared rays collected by the lens 742. Therefore, the image sensor 743 captures only the infrared light that has passed through the infrared filter 741 and generates image data. Hereinafter, an image captured by the image sensor 743 is referred to as a captured image. Image data generated by the image sensor 743 is processed by an image processing circuit 744. The image processing circuit 744 calculates the position of the imaging target (markers 8L and 8R) in the captured image. Hereinafter, a method for calculating the position of the imaging target will be described with reference to FIG.

図8は、撮像画像の一例を示す図である。図8に示す撮像画像においては、マーカ8Lの画像8L'およびマーカ8Rの画像8R'が左右に並んでいる。撮像画像が入力されると、まず、画像処理回路744は、撮像画像内において所定条件に合致する領域の位置を示す座標を当該領域毎に算出する。ここで、所定条件とは、撮像対象の画像(対象画像)を特定するための条件であり、所定条件の具体的な内容は、輝度が所定値以上の領域(高輝度領域)であり、かつ、領域の大きさが所定範囲内の大きさであることである。なお、所定条件は撮像対象を特定するための条件であればよく、他の実施形態においては、画像の色に関する条件を含んでいてもよい。   FIG. 8 is a diagram illustrating an example of a captured image. In the captured image shown in FIG. 8, the image 8L ′ of the marker 8L and the image 8R ′ of the marker 8R are arranged side by side. When a captured image is input, first, the image processing circuit 744 calculates coordinates indicating the position of a region that matches a predetermined condition in the captured image for each region. Here, the predetermined condition is a condition for specifying an image (target image) to be imaged, and the specific content of the predetermined condition is an area having a luminance equal to or higher than a predetermined value (high luminance area), and The size of the region is within a predetermined range. The predetermined condition may be a condition for specifying an imaging target, and in other embodiments, may include a condition related to the color of the image.

対象画像の位置を算出する際、まず、画像処理回路744は、撮像画像の領域から上記高輝度領域を対象画像の候補として特定する。撮像画像の画像データにおいて対象画像は高輝度領域として現れるからである。次に、画像処理回路744は、特定された高輝度領域の大きさに基づいて、その高輝度領域が対象画像であるか否かを判定する判定処理を行う。撮像画像には、対象画像である2つのマーカ8Lおよび8Rの画像8L'および8R'の他、窓からの太陽光や部屋の蛍光灯の光によって対象画像以外の画像が含まれている場合がある。この場合、マーカ8Lおよび8Rの画像8L'および8R'以外の画像も高輝度領域として現れてしまう。上記の判定処理は、対象画像であるマーカ8Lおよび8Rの画像8L'および8R'とそれ以外の画像とを区別し、対象画像を正確に特定するための処理である。具体的には、当該判定処理においては、特定された高輝度領域が、予め定められた所定範囲内の大きさであるか否かが判定される。そして、高輝度領域が所定範囲内の大きさである場合、当該高輝度領域は対象画像を表すと判定され、高輝度領域が所定範囲内の大きさでない場合、当該高輝度領域は対象画像以外の画像を表すと判定される。   When calculating the position of the target image, first, the image processing circuit 744 specifies the high-intensity region as a target image candidate from the captured image region. This is because the target image appears as a high luminance area in the image data of the captured image. Next, the image processing circuit 744 performs determination processing for determining whether or not the high luminance area is the target image based on the size of the specified high luminance area. In addition to the images 8L ′ and 8R ′ of the two markers 8L and 8R that are target images, the captured image may include images other than the target image due to sunlight from a window or light from a fluorescent lamp in a room. is there. In this case, images other than the images 8L ′ and 8R ′ of the markers 8L and 8R also appear as high luminance areas. The above determination processing is processing for distinguishing the images 8L ′ and 8R ′ of the markers 8L and 8R, which are target images, from other images and accurately specifying the target image. Specifically, in the determination process, it is determined whether or not the specified high luminance area has a size within a predetermined range. If the high brightness area is a size within the predetermined range, the high brightness area is determined to represent the target image. If the high brightness area is not a size within the predetermined range, the high brightness area is other than the target image. It is determined that the image is represented.

さらに、上記の判定処理の結果、対象画像を表すと判定された高輝度領域について、画像処理回路744は当該高輝度領域の位置を算出する。具体的には、当該高輝度領域の重心位置を算出する。なお、重心位置は撮像素子743の解像度よりも詳細なスケールで算出することが可能である。ここでは、撮像素子743によって撮像された撮像画像の解像度が126×96であるとし、重心位置は1024×768のスケールで算出されるものとする。つまり、重心位置の座標は、(0,0)から(1024,768)までの整数値で表現される。なお、撮像画像における位置は、図8に示すように、撮像画像の左上を原点とし、下向きをy軸正方向とし、右向きをx軸正方向とする座標系(xy座標系)で表現されるものとする。   Furthermore, as a result of the above determination processing, the image processing circuit 744 calculates the position of the high luminance region for the high luminance region determined to represent the target image. Specifically, the barycentric position of the high brightness area is calculated. Note that the position of the center of gravity can be calculated on a more detailed scale than the resolution of the image sensor 743. Here, it is assumed that the resolution of the captured image captured by the image sensor 743 is 126 × 96, and the position of the center of gravity is calculated on a scale of 1024 × 768. That is, the coordinates of the barycentric position are expressed by integer values from (0, 0) to (1024, 768). As shown in FIG. 8, the position in the captured image is represented by a coordinate system (xy coordinate system) in which the upper left of the captured image is the origin, the downward direction is the positive y-axis direction, and the right direction is the positive x-axis direction. Shall.

以上のようにして、画像処理回路744は、撮像画像内において所定条件に合致する領域の位置を示す座標を当該領域毎に算出する。なお、以下では、画像処理回路744によって算出される座標をマーカ座標と呼ぶ。マーカ座標は、撮像画像に対応する平面上の位置を表すための座標系において撮像対象の位置を示す座標である。画像処理回路744は、マーカ座標を通信部75のマイコン751へ出力する。マーカ座標のデータは、マイコン751によって操作データとしてゲーム装置本体3に送信される。マーカ座標はコントローラ7自体の向き(姿勢)や位置に対応して変化するので、ゲーム装置本体3は当該座標値を用いてコントローラ7の向きや位置を算出することができる。なお、本実施形態では、撮像画像からマーカ座標を算出する処理までをコントローラ7の画像処理回路744および/またはマイコン751で行ったが、例えば撮像画像をゲーム装置本体3に送り、以降の処理と同等の処理をゲーム装置本体3のCPU10等で行わせることもできる。   As described above, the image processing circuit 744 calculates the coordinates indicating the position of the region that matches the predetermined condition in the captured image for each region. Hereinafter, the coordinates calculated by the image processing circuit 744 are referred to as marker coordinates. The marker coordinates are coordinates indicating the position of the imaging target in the coordinate system for representing the position on the plane corresponding to the captured image. The image processing circuit 744 outputs the marker coordinates to the microcomputer 751 of the communication unit 75. The marker coordinate data is transmitted as operation data to the game apparatus body 3 by the microcomputer 751. Since the marker coordinates change corresponding to the orientation (posture) and position of the controller 7 itself, the game apparatus body 3 can calculate the orientation and position of the controller 7 using the coordinate values. In the present embodiment, the process from the captured image to the process of calculating the marker coordinates is performed by the image processing circuit 744 and / or the microcomputer 751 of the controller 7. However, for example, the captured image is sent to the game apparatus body 3 and the subsequent processes are performed. Equivalent processing can be performed by the CPU 10 of the game apparatus body 3 or the like.

また、コントローラ7は、3軸(x、y、z軸)の加速度センサ701を備えていることが好ましい。この3軸の加速度センサ701は、3方向、すなわち、上下方向、左右方向、および前後方向で直線加速度を検知する。また、他の実施形態においては、ゲーム処理に用いる制御信号の種類によっては、上下および左右方向(または他の対になった方向)のそれぞれに沿った直線加速度のみを検知する2軸の加速度検出手段を使用してもよい。例えば、この3軸または2軸の加速度センサ701は、アナログ・デバイセズ株式会社(Analog Devices, Inc.)またはSTマイクロエレクトロニクス社(STMicroelectronics N.V.)から入手可能であるタイプのものでもよい。加速度センサ701は、シリコン微細加工されたMEMS(Micro Electro Mechanical Systems:微小電子機械システム)の技術に基づいた静電容量式(静電容量結合式)であってもよい。しかしながら、既存の加速度検出手段の技術(例えば、圧電方式や圧電抵抗方式)あるいは将来開発される他の適切な技術を用いて3軸または2軸の加速度センサ701が提供されてもよい。   The controller 7 is preferably provided with a triaxial (x, y, z axis) acceleration sensor 701. The three-axis acceleration sensor 701 detects linear acceleration in three directions, that is, an up-down direction, a left-right direction, and a front-rear direction. In other embodiments, depending on the type of control signal used in the game process, biaxial acceleration detection that detects only linear acceleration along each of the vertical and horizontal directions (or other paired directions). Means may be used. For example, the triaxial or biaxial acceleration sensor 701 may be of the type available from Analog Devices, Inc. or ST Microelectronics NV. The acceleration sensor 701 may be a capacitance type (capacitive coupling type) based on a MEMS (Micro Electro Mechanical Systems) technique in which silicon is finely processed. However, the triaxial or biaxial acceleration sensor 701 may be provided by using existing acceleration detecting means technology (for example, a piezoelectric method or a piezoresistive method) or other appropriate technology developed in the future.

当業者には公知であるように、加速度センサ701に用いられるような加速度検出手段は、加速度センサの持つ各軸に対応する直線に沿った加速度(直線加速度)のみを検知することができる。つまり、加速度センサ701からの直接の出力は、その2軸または3軸のそれぞれに沿った直線加速度(静的または動的)を示す信号である。このため、加速度センサ701は、非直線状(例えば、円弧状)の経路に沿った動き、回転、回転運動、角変位、傾斜、位置、または姿勢等の物理特性を直接検知することはできない。   As known to those skilled in the art, the acceleration detection means used in the acceleration sensor 701 can detect only the acceleration (linear acceleration) along a straight line corresponding to each axis of the acceleration sensor. That is, the direct output from the acceleration sensor 701 is a signal indicating linear acceleration (static or dynamic) along each of the two or three axes. For this reason, the acceleration sensor 701 cannot directly detect physical characteristics such as movement, rotation, rotational movement, angular displacement, inclination, position, or posture along a non-linear (for example, arc) path.

しかしながら、加速度センサ701から出力される加速度の信号に基づいて、ゲーム装置のプロセッサ(例えばCPU10)またはコントローラのプロセッサ(例えばマイコン751)などのコンピュータが処理を行うことによって、コントローラ7に関するさらなる情報を推測または算出(判定)することができることは、当業者であれば本明細書の説明から容易に理解できるであろう。例えば、加速度センサを搭載するコントローラが静的な状態であることを前提としてコンピュータ側で処理する場合(すなわち、加速度センサによって検出される加速度が重力加速度のみであるとして処理する場合)、コントローラが現実に静的な状態であれば、検出された加速度に基づいてコントローラの姿勢が重力方向に対して傾いているか否か又はどの程度傾いているかを知ることができる。具体的には、加速度センサの検出軸が鉛直下方向を向いている状態を基準としたとき、1G(重力加速度)がかかっているか否かだけで傾いているか否かを知ることができるし、その大きさによってどの程度傾いているかも知ることができる。また、多軸の加速度センサの場合には、さらに各軸の加速度の信号に対して処理を施すことによって、各軸が重力方向に対してどの程度傾いているかをより詳細に知ることができる。この場合において、加速度センサ701からの出力に基づいて、プロセッサがコントローラ7の傾き角度のデータを算出する処理をおこなってもよいが、当該傾き角度のデータを算出する処理をおこなうことなく、加速度センサ701からの出力に基づいて、おおよその傾き具合を推定するような処理としてもよい。このように、加速度センサ701をプロセッサと組み合わせて用いることによって、コントローラ7の傾き、姿勢または位置を判定することができる。一方、加速度センサが動的な状態であることを前提とする場合には、重力加速度成分に加えて加速度センサの動きに応じた加速度を検出するので、重力加速度成分を所定の処理により除去すれば、動き方向などを知ることができる。具体的には、加速度センサ701を備えるコントローラ7がユーザの手で動的に加速されて動かされる場合に、加速度センサ701によって生成される加速度信号を処理することによって、コントローラ7のさまざまな動きおよび/または位置を算出することができる。なお、加速度センサが動的な状態であることを前提とする場合であっても、加速度センサの動きに応じた加速度を所定の処理により除去すれば、重力方向対する傾きを知ることが可能である。他の実施例では、加速度センサ701は、信号をマイコン751に出力する前に内蔵の加速度検出手段から出力される加速度信号に対して所望の処理を行うための、組込み式の信号処理装置または他の種類の専用の処理装置を備えていてもよい。例えば、組込み式または専用の処理装置は、加速度センサが静的な加速度(例えば、重力加速度)を検出するためのものである場合、検知された加速度信号をそれに相当する傾斜角(あるいは、他の好ましいパラメータ)に変換するものであってもよい。   However, based on the acceleration signal output from the acceleration sensor 701, a computer such as a game device processor (for example, the CPU 10) or a controller processor (for example, the microcomputer 751) performs processing to estimate further information regarding the controller 7. Those skilled in the art can easily understand from the description of the present specification that they can be calculated (determined). For example, when processing is performed on the computer side on the assumption that the controller equipped with the acceleration sensor is in a static state (that is, when processing is performed assuming that the acceleration detected by the acceleration sensor is only gravitational acceleration), the controller is actual. In the static state, it can be determined whether or not the attitude of the controller is inclined with respect to the direction of gravity based on the detected acceleration. Specifically, when the detection axis of the acceleration sensor is oriented vertically downward, it can be determined whether or not it is tilted only by whether or not 1G (gravity acceleration) is applied, You can know how much it is tilted by its size. In the case of a multi-axis acceleration sensor, it is possible to know in detail how much each axis is inclined with respect to the direction of gravity by further processing the acceleration signal of each axis. In this case, the processor may perform processing for calculating the tilt angle data of the controller 7 based on the output from the acceleration sensor 701. However, without performing the processing for calculating the tilt angle data, the acceleration sensor Based on the output from 701, a rough inclination may be estimated. Thus, by using the acceleration sensor 701 in combination with the processor, the inclination, posture, or position of the controller 7 can be determined. On the other hand, when it is assumed that the acceleration sensor is in a dynamic state, acceleration corresponding to the motion of the acceleration sensor is detected in addition to the gravitational acceleration component, so if the gravitational acceleration component is removed by a predetermined process, , Know the direction of movement. Specifically, when the controller 7 including the acceleration sensor 701 is dynamically accelerated and moved by a user's hand, the acceleration signal generated by the acceleration sensor 701 is processed to perform various movements of the controller 7 and / Or the position can be calculated. Even when it is assumed that the acceleration sensor is in a dynamic state, if the acceleration according to the motion of the acceleration sensor is removed by a predetermined process, the inclination with respect to the direction of gravity can be known. . In another embodiment, the acceleration sensor 701 is a built-in signal processing device or the like for performing desired processing on the acceleration signal output from the built-in acceleration detection means before outputting the signal to the microcomputer 751. This type of processing device may be provided. For example, if the acceleration sensor is for detecting a static acceleration (for example, gravitational acceleration), the built-in or dedicated processing device uses the detected acceleration signal as the corresponding inclination angle (or other It may be converted into a preferable parameter.

他の実施形態の例では、コントローラ7の動きを検出する動きセンサとして、回転素子または振動素子などを内蔵したジャイロセンサを用いてもよい。この実施形態で使用されるMEMSジャイロセンサの一例として、アナログ・デバイセズ株式会社から入手可能なものがある。加速度センサ701と異なり、ジャイロセンサは、それが内蔵する少なくとも一つのジャイロ素子の軸を中心とした回転(または角速度)を直接検知することができる。このように、ジャイロセンサと加速度センサとは基本的に異なるので、個々の用途のためにいずれの装置が選択されるかによって、これらの装置からの出力信号に対して行う処理を適宜変更する必要がある。   In an example of another embodiment, a gyro sensor incorporating a rotation element or a vibration element may be used as a motion sensor that detects the movement of the controller 7. An example of a MEMS gyro sensor used in this embodiment is available from Analog Devices, Inc. Unlike the acceleration sensor 701, the gyro sensor can directly detect rotation (or angular velocity) about the axis of at least one gyro element incorporated therein. As described above, since the gyro sensor and the acceleration sensor are basically different from each other, it is necessary to appropriately change the processing to be performed on the output signals from these devices depending on which device is selected for each application. There is.

具体的には、加速度センサの代わりにジャイロセンサを用いて傾きや姿勢を算出する場合には、大幅な変更を行う。すなわち、ジャイロセンサを用いる場合、検出開始の状態において傾きの値を初期化する。そして、当該ジャイロセンサから出力される角速度データを積分する。次に、初期化された傾きの値からの傾きの変化量を算出する。この場合、算出される傾きは、角度に対応する値が算出されることになる。一方、加速度センサによって傾きを算出する場合には、重力加速度のそれぞれの軸に関する成分の値を、所定の基準と比較することによって傾きを算出するので、算出される傾きはベクトルで表すことが可能であり、初期化を行わずとも、加速度検出手段を用いて検出される絶対的な方向を検出することが可能である。また、傾きとして算出される値の性質は、ジャイロセンサが用いられる場合には角度であるのに対して、加速度センサが用いられる場合にはベクトルであるという違いがある。したがって、加速度センサに代えてジャイロセンサが用いられる場合、当該傾きのデータに対して、2つのデバイスの違いを考慮した所定の変換を行う必要がある。加速度検出手段とジャイロセンサとの基本的な差異と同様にジャイロセンサの特性は当業者に公知であるので、本明細書ではさらなる詳細を省略する。ジャイロセンサは、回転を直接検知できることによる利点を有する一方、一般的には、加速度センサは、本実施形態で用いるようなコントローラに適用される場合、ジャイロセンサに比べて費用効率が良いという利点を有する。   Specifically, when the inclination or posture is calculated using a gyro sensor instead of the acceleration sensor, a significant change is made. That is, when the gyro sensor is used, the inclination value is initialized in the detection start state. Then, the angular velocity data output from the gyro sensor is integrated. Next, a change amount of the inclination from the initialized inclination value is calculated. In this case, the calculated inclination is a value corresponding to the angle. On the other hand, when the inclination is calculated by the acceleration sensor, the inclination is calculated by comparing the value of the component relating to each axis of the gravitational acceleration with a predetermined reference, so the calculated inclination can be expressed by a vector. Thus, it is possible to detect the absolute direction detected using the acceleration detecting means without performing initialization. In addition, the property of the value calculated as the inclination is an angle when a gyro sensor is used, but a vector when an acceleration sensor is used. Therefore, when a gyro sensor is used instead of the acceleration sensor, it is necessary to perform predetermined conversion in consideration of the difference between the two devices with respect to the tilt data. Since the characteristics of the gyro sensor as well as the basic difference between the acceleration detecting means and the gyro sensor are known to those skilled in the art, further details are omitted in this specification. While the gyro sensor has the advantage of being able to directly detect rotation, in general, the acceleration sensor has the advantage of being more cost effective than the gyro sensor when applied to a controller as used in this embodiment. Have.

通信部75は、マイクロコンピュータ(Micro Computer:マイコン)751、メモリ752、無線モジュール753、およびアンテナ754を含んでいる。マイコン751は、処理の際にメモリ752を記憶領域として用いながら、送信データを無線送信する無線モジュール753を制御する。また、マイコン751は、アンテナ754を介して無線モジュール753が受信したゲーム装置本体3からのデータに応じて、サウンドIC707およびバイブレータ704の動作を制御する。サウンドIC707は、通信部75を介してゲーム装置本体3から送信されたサウンドデータ等を処理する。また、マイコン751は、通信部75を介してゲーム装置本体3から送信された振動データ(例えば、バイブレータ704をONまたはOFFする信号)等に応じて、バイブレータ704を作動させる。   The communication unit 75 includes a microcomputer (microcomputer) 751, a memory 752, a wireless module 753, and an antenna 754. The microcomputer 751 controls the wireless module 753 that wirelessly transmits transmission data while using the memory 752 as a storage area during processing. Further, the microcomputer 751 controls the operation of the sound IC 707 and the vibrator 704 in accordance with data from the game apparatus body 3 received by the wireless module 753 via the antenna 754. The sound IC 707 processes sound data transmitted from the game apparatus main body 3 via the communication unit 75. Further, the microcomputer 751 activates the vibrator 704 in accordance with vibration data (for example, a signal for turning the vibrator 704 on or off) transmitted from the game apparatus body 3 via the communication unit 75.

コントローラ7に設けられた操作部72からの操作信号(キーデータ)、加速度センサ701からの加速度信号(x、y、およびz軸方向加速度データ;以下、単に加速度データと記載する)、および撮像情報演算部74からの処理結果データは、マイコン751に出力される。マイコン751は、入力した各データ(キーデータ、加速度データ、処理結果データ)を無線コントローラモジュール19へ送信する送信データとして一時的にメモリ752に格納する。ここで、通信部75から無線コントローラモジュール19への無線送信は、所定の周期毎に行われるが、ゲームの処理は1/60秒を単位として行われることが一般的であるので、それよりも短い周期で送信を行うことが必要となる。具体的には、ゲームの処理単位は16.7ms(1/60秒)であり、ブルートゥース(Bluetooth;登録商標)で構成される通信部75の送信間隔は例えば5msである。マイコン751は、無線コントローラモジュール19への送信タイミングが到来すると、メモリ752に格納されている送信データを一連の操作情報として出力し、無線モジュール753へ出力する。そして、無線モジュール753は、例えばブルートゥース(登録商標)の技術に基づいて、所定周波数の搬送波を用いて操作情報で変調し、その電波信号をアンテナ754から放射する。つまり、コントローラ7に設けられた操作部72からのキーデータ、加速度センサ701からの加速度データ、および撮像情報演算部74からの処理結果データが無線モジュール753で電波信号に変調されてコントローラ7から送信される。そして、ゲーム装置本体3の無線コントローラモジュール19でその電波信号を受信し、ゲーム装置本体3で当該電波信号を復調や復号することによって、一連の操作情報(キーデータ、加速度データ、および処理結果データ)を取得する。そして、ゲーム装置本体3のCPU10は、取得した操作情報とゲームプログラムとに基づいて、ゲーム処理を行う。なお、ブルートゥース(登録商標)の技術を用いて通信部75を構成する場合、通信部75は、他のデバイスから無線送信された送信データを受信する機能も備えることができる。   An operation signal (key data) from the operation unit 72 provided in the controller 7, an acceleration signal from the acceleration sensor 701 (x, y, and z-axis direction acceleration data; hereinafter simply referred to as acceleration data), and imaging information The processing result data from the calculation unit 74 is output to the microcomputer 751. The microcomputer 751 temporarily stores the input data (key data, acceleration data, processing result data) in the memory 752 as transmission data to be transmitted to the wireless controller module 19. Here, the wireless transmission from the communication unit 75 to the wireless controller module 19 is performed at predetermined intervals, but since the game processing is generally performed in units of 1/60 seconds, it is more than that. It is necessary to perform transmission in a short cycle. Specifically, the processing unit of the game is 16.7 ms (1/60 seconds), and the transmission interval of the communication unit 75 configured by Bluetooth (registered trademark) is, for example, 5 ms. When the transmission timing to the wireless controller module 19 comes, the microcomputer 751 outputs the transmission data stored in the memory 752 as a series of operation information and outputs it to the wireless module 753. The wireless module 753 then modulates the operation information using a carrier wave having a predetermined frequency based on, for example, Bluetooth (registered trademark) technology, and radiates the radio signal from the antenna 754. That is, key data from the operation unit 72 provided in the controller 7, acceleration data from the acceleration sensor 701, and processing result data from the imaging information calculation unit 74 are modulated into radio signals by the wireless module 753 and transmitted from the controller 7. Is done. Then, the radio controller module 19 of the game apparatus body 3 receives the radio signal, and the game apparatus body 3 demodulates and decodes the radio signal, so that a series of operation information (key data, acceleration data, and processing result data) is obtained. ) To get. Then, the CPU 10 of the game apparatus body 3 performs a game process based on the acquired operation information and the game program. When the communication unit 75 is configured using Bluetooth (registered trademark) technology, the communication unit 75 can also have a function of receiving transmission data wirelessly transmitted from other devices.

ここで、コントローラ7を用いたゲーム操作について説明する。ゲームシステム1でコントローラ7を用いてゲームをプレイする際、プレイヤは、一方の手でコントローラ7を把持する。このとき、図9に示すように、プレイヤは、コントローラ7の前面(撮像情報演算部74が撮像する光の入射口側)がマーカ8Lおよび8Rの方向を向く状態でコントローラ7を把持する。この状態で、プレイヤは、コントローラ7の傾きを変化させたり、コントローラ7が指し示す画面上の位置(指示位置)を変更したり、コントローラ7と各マーカ8Lおよび8Rとの距離を変更したりすることによってゲーム操作を行う。   Here, the game operation using the controller 7 will be described. When playing a game using the controller 7 in the game system 1, the player holds the controller 7 with one hand. At this time, as shown in FIG. 9, the player holds the controller 7 in a state where the front surface of the controller 7 (the light entrance side of the light imaged by the imaging information calculation unit 74) faces the direction of the markers 8L and 8R. In this state, the player changes the inclination of the controller 7, changes the position (instructed position) on the screen indicated by the controller 7, or changes the distance between the controller 7 and each of the markers 8L and 8R. The game operation is performed by.

次に、図10〜図30を用いて、本実施形態で想定するゲームの概要について説明する。本ゲームは、仮想3次元空間内でプレイヤオブジェクトを操作するアクションアドベンチャーゲームである。図10は、本実施形態で想定するゲームの画面の一例である。図10において、ゲーム画面には、3次元仮想ゲーム空間の様子が表示されている。3次元仮想ゲーム空間にはプレイヤオブジェクト101が存在しており、その全身が表示されている。すなわち、図10においては、3次元仮想ゲーム空間の様子を撮影する仮想カメラは、プレイヤオブジェクト101の全身がゲーム画面に表示されるような位置および画角が設定されて制御されている。ここで、本ゲームでは、仮想カメラの制御に複数の方法を使い分けているが(詳細は後述)、上記のようなカメラ制御を、以下では客観カメラ制御と呼ぶ。また、当該客観カメラ制御が行われているときのゲームの状態を通常モードと呼ぶ。   Next, the outline of the game assumed in this embodiment will be described with reference to FIGS. This game is an action adventure game in which a player object is operated in a virtual three-dimensional space. FIG. 10 is an example of a game screen assumed in the present embodiment. In FIG. 10, the game screen displays the state of the three-dimensional virtual game space. A player object 101 exists in the three-dimensional virtual game space, and its whole body is displayed. That is, in FIG. 10, the virtual camera that captures the state of the three-dimensional virtual game space is controlled by setting a position and an angle of view at which the whole body of the player object 101 is displayed on the game screen. Here, in this game, a plurality of methods are used properly for controlling the virtual camera (details will be described later), but the camera control as described above is hereinafter referred to as objective camera control. The game state when the objective camera control is being performed is referred to as a normal mode.

上記通常モードでは、プレイヤオブジェクト101に仮想カメラの注視点が設定され、当該プレイヤオブジェクト101の全身が画面のほぼ中央に表示されるように仮想カメラが制御される。そのため、プレイヤオブジェクト101が仮想ゲーム空間内を移動すると、仮想カメラも移動する。図11は、プレイヤオブジェクト101が(プレイヤから見て)左方向に移動制御されているときの状態を示す画面の一例である。図11では、プレイヤオブジェクト101が(プレイヤから見て)左方向を向いて走っている様子がゲーム画面のほぼ中央に表示されている。また、通常モードにおいて、所定のボタン操作を行うことで、仮想カメラをプレイヤオブジェクト101の背後の位置に移動させる(つまり、視界を正面に向ける。以下、視点リセット操作と呼ぶ)ことが可能である。すなわち、プレイヤオブジェクト101が向いている方向が正面に来るようなゲーム画面を表示させることが可能となっている。   In the normal mode, the gazing point of the virtual camera is set on the player object 101, and the virtual camera is controlled so that the whole body of the player object 101 is displayed in the approximate center of the screen. Therefore, when the player object 101 moves in the virtual game space, the virtual camera also moves. FIG. 11 is an example of a screen showing a state when the player object 101 is controlled to move to the left (as viewed from the player). In FIG. 11, a state in which the player object 101 is running in the left direction (as viewed from the player) is displayed in the approximate center of the game screen. Further, in the normal mode, by performing a predetermined button operation, the virtual camera can be moved to a position behind the player object 101 (that is, the field of view is directed to the front, hereinafter referred to as a viewpoint reset operation). . That is, it is possible to display a game screen in which the direction in which the player object 101 is facing is in front.

なお、図10に示すゲーム画面上にはカーソル106も表示されている。プレイヤは、当該カーソル106を移動させ、画面上の所定の位置を指示する操作等が可能となっている。   A cursor 106 is also displayed on the game screen shown in FIG. The player can perform operations such as moving the cursor 106 to instruct a predetermined position on the screen.

次に、図12(a)〜(c)を用いて、上述したような通常モードでのカメラ制御について説明する。図12(a)〜(c)はそれぞれ、仮想ゲーム空間を鳥瞰した模式図であり、プレイヤオブジェクト101と仮想カメラの配置(位置関係)を示している。また、図12(a)〜(c)においては、それぞれ上方向が仮想ゲーム空間内における「北」方向であるとする。まず、図12(a)に示すように、プレイヤオブジェクト101が「北」を向いており、仮想カメラはプレイヤオブジェクト101の背後に位置し、「北」方向を向いているとする(このときは、上記図10のようなゲーム画面が表示される)。図12(a)の状態から、プレイヤがプレイヤオブジェクト101を左方向に移動させる操作を行うと、図12(b)に示すように、仮想ゲーム空間内においてプレイヤオブジェクト101が左方向、すなわち、「西」方向を向き、「西」に向かって移動する。このとき、仮想カメラは、「北」を向いたまま、プレイヤオブジェクトの移動に従って、「西」方向に移動する。その結果、上記図11に示したような画面が表示される。また、図11(図12(b))の状態において、プレイヤが上記のような視点リセット操作を行えば、図12(c)に示すように、仮想カメラがプレイヤオブジェクトの背後の位置に移動し、仮想カメラも「西」方向を向くような制御が行われる。その結果、プレイヤオブジェクト101の前方の様子が表示されるゲーム画面(背景の様子は異なるが、上記図10のような画面)が表示されることになる。   Next, camera control in the normal mode as described above will be described with reference to FIGS. 12A to 12C are schematic views of the virtual game space as a bird's-eye view, showing the arrangement (positional relationship) between the player object 101 and the virtual camera. Further, in FIGS. 12A to 12C, it is assumed that the upward direction is the “north” direction in the virtual game space. First, as shown in FIG. 12A, it is assumed that the player object 101 faces “north” and the virtual camera is located behind the player object 101 and faces the “north” direction (in this case, A game screen as shown in FIG. 10 is displayed). When the player performs an operation of moving the player object 101 leftward from the state of FIG. 12A, as shown in FIG. 12B, the player object 101 moves leftward in the virtual game space, that is, “ Turn west and move towards west. At this time, the virtual camera moves in the “west” direction according to the movement of the player object while facing “north”. As a result, a screen as shown in FIG. 11 is displayed. Also, in the state of FIG. 11 (FIG. 12B), if the player performs the viewpoint reset operation as described above, the virtual camera moves to a position behind the player object as shown in FIG. 12C. The virtual camera is also controlled so as to face in the “west” direction. As a result, a game screen in which the state in front of the player object 101 is displayed (the screen as shown in FIG. 10 above although the background state is different) is displayed.

ここで、本ゲームは、上記通常モード(客観カメラ制御)を基本的な状態としてゲーム処理が実行されるが、この他、ゲーム中の場面やプレイヤの操作等に応じて、通常モードで行われる客観カメラ制御とは異なる仮想カメラの制御方法でゲーム画面が表示される。すなわち、複数の仮想カメラの制御方法が使い分けられている。具体的には、本ゲームでは、上記客観カメラ制御の他、3次元仮想ゲーム空間を鳥瞰したような画面(以下、鳥瞰画面)を表示する鳥瞰カメラ制御(以下、当該鳥瞰カメラ制御が行われているときの状態を2Dモードと呼ぶ)、後述するような、所定の地点に常に仮想カメラが向いているような制御によってゲーム画面を表示するマーカ注目制御(以下、当該マーカ注目制御が行われているときの状態をマーカ注目モードと呼ぶ)、および、プレイヤオブジェクト101の目線(1人称視点)で見た仮想カメラ制御によるゲーム画面が表示される主観カメラ制御(以下、当該主観カメラ制御が行われる状態を主観モードと呼ぶ)の3種類のカメラ制御方法が用いられる。以下、各仮想カメラ制御および各モードについて説明する。   Here, the game processing is executed in the basic mode (objective camera control) as a basic state, but in addition to this, the game is executed in the normal mode according to the scene in the game, the operation of the player, and the like. The game screen is displayed by a virtual camera control method different from the objective camera control. That is, a plurality of virtual camera control methods are properly used. Specifically, in this game, in addition to the objective camera control, a bird's-eye camera control (hereinafter, the bird's-eye camera control is performed) that displays a bird's-eye view of the three-dimensional virtual game space (hereinafter, bird's-eye view screen). The marker attention control for displaying the game screen by the control that the virtual camera always faces a predetermined point as will be described later (hereinafter, the marker attention control is performed). And the state of being in the state called marker attention mode) and subjective camera control in which a game screen is displayed by virtual camera control viewed from the viewpoint of the player object 101 (first person viewpoint) (hereinafter, the subjective camera control is performed). Three types of camera control methods are used. Hereinafter, each virtual camera control and each mode will be described.

まず、上記2Dモードにおける鳥瞰カメラ制御について説明する。通常モードと2Dモードとの間の切替操作は、予め定義されている2Dモード切り替え用の操作(例えば、十字キー72aの上ボタンを押す)をプレイヤが行うことで切り替えることが可能である。通常モードにおいて、プレイヤが当該2Dモード切り替え用の操作を行うと、ゲーム画面の切替中の演出として、仮想カメラを仮想ゲーム空間の上方に移動させつつ真下を向かせる制御を行うことで生成されるゲーム画面が表示され(仮想カメラが急上昇するような動きをしたゲーム画面が表示される演出となる)、最終的に、図13に示すようなゲーム画面が表示される。図13は、当該2Dモードにおけるゲーム画面の一例である。図13では、仮想ゲーム空間を鳥瞰した画像(以下、鳥瞰画像と呼ぶ)が表示されている。当該鳥瞰画像は、仮想カメラが仮想ゲーム空間の上方に移動し、真下を向いて撮影したときの画像となっている。なお、当該鳥瞰画像は、3次元空間に対応した2次元のマップ画像として表示しても良い。すなわち、仮想ゲーム空間を鳥瞰した状態の3次元空間を基にして、例えば岩場などの地形オブジェクトを、予め用意されている2次元画像用の岩場画像に置き換える等して、別途2次元画像を生成して表示するようにしてもよい。また、プレイヤオブジェクト101を示すプレイヤシンボル105がゲーム画面の中央に表示されてる。プレイヤは、この画面に切り替えることによって、プレイヤオブジェクト101の周囲の状況や仮想ゲーム空間の全体像を把握することが可能となる。また、この状態においても、プレイヤはプレイヤオブジェクト101(プレイヤシンボル105)の移動操作を行うことが可能である。例えば、図13の状態でプレイヤオブジェクト101を右に移動させる操作を行えば、ゲーム画面が右から左にスクロールする。つまり、プレイヤシンボル105は常に画面中央に表示されるように画面のスクロール制御が行われる。   First, bird's-eye camera control in the 2D mode will be described. The switching operation between the normal mode and the 2D mode can be switched by the player performing a predefined 2D mode switching operation (for example, pressing the upper button of the cross key 72a). When the player performs an operation for switching the 2D mode in the normal mode, it is generated by performing a control of moving the virtual camera directly upward while moving the virtual camera space as an effect during the switching of the game screen. A game screen is displayed (the effect is that a game screen in which the virtual camera moves rapidly) is displayed, and finally a game screen as shown in FIG. 13 is displayed. FIG. 13 is an example of the game screen in the 2D mode. In FIG. 13, a bird's-eye view of the virtual game space (hereinafter referred to as a bird's-eye view image) is displayed. The bird's-eye view image is an image when the virtual camera moves upward in the virtual game space and is photographed directly below. The bird's-eye view image may be displayed as a two-dimensional map image corresponding to a three-dimensional space. That is, based on a three-dimensional space with a bird's eye view of the virtual game space, for example, a terrain object such as a rocky place is replaced with a rocky image for a two-dimensional image prepared in advance to generate a separate two-dimensional image. May be displayed. A player symbol 105 indicating the player object 101 is displayed at the center of the game screen. By switching to this screen, the player can grasp the situation around the player object 101 and the overall image of the virtual game space. Even in this state, the player can move the player object 101 (player symbol 105). For example, if an operation for moving the player object 101 to the right in the state of FIG. 13 is performed, the game screen scrolls from right to left. That is, screen scroll control is performed so that the player symbol 105 is always displayed at the center of the screen.

また、図13において、ゲーム画面右側には、ツールバー104が表示され、更にツールバー104の中にマーカ103が表示されている。本ゲームでは、当該マーカ103を用いて仮想ゲーム空間内の任意の地点に「目印」をつけることができる。具体的なマーカ103の設定操作例を示すと、まず、プレイヤは、カーソル106をマーカ103の表示位置まで移動させ、所定のボタン(例えば、操作ボタン72d)を押す。すると、図14に示すように、カーソル106がマーカ103を掴むような画像に変化する。その後、操作ボタン72dを押したまま、ゲーム画面内(仮想ゲーム空間内)の所望の位置にカーソル106(マーカ103)を移動させ(ドラッグ操作)、操作ボタン72dを離す。これにより、操作ボタン72dを離したときの位置にマーカ103が設定され、図15に示すように、マーカ103が設定された地点に星印の「目印」107が表示される。このようにマーカを設定した「目印」地点(以下、マーカ地点と呼ぶ)は、後述のマーカ注目モードにおける仮想カメラ制御で用いられる。   In FIG. 13, a toolbar 104 is displayed on the right side of the game screen, and a marker 103 is displayed in the toolbar 104. In this game, the marker 103 can be used to place a “mark” at any point in the virtual game space. A specific example of the setting operation of the marker 103 will be described. First, the player moves the cursor 106 to the display position of the marker 103 and presses a predetermined button (for example, the operation button 72d). Then, as shown in FIG. 14, the image changes so that the cursor 106 grasps the marker 103. Thereafter, while the operation button 72d is being pressed, the cursor 106 (marker 103) is moved to a desired position in the game screen (in the virtual game space) (drag operation), and the operation button 72d is released. Thereby, the marker 103 is set at the position when the operation button 72d is released, and as shown in FIG. 15, the “mark” 107 of the star is displayed at the point where the marker 103 is set. The “mark” point (hereinafter referred to as a marker point) where the marker is set in this way is used in virtual camera control in a marker attention mode described later.

次に、マーカ注目モードおよびマーカ注目制御について説明する。まず、上記2Dモードにおいて上述したような操作をプレイヤが行うことで「目印」107(マーカ地点)を設定済みの状態であるとする。そして、通常モードのときに、所定のボタン、例えば操作ボタン72iを押すと、上記マーカ地点が仮想カメラの正面方向(仮想カメラの視線方向)に位置するような仮想カメラの制御、すなわち、マーカ注目制御が行われる。例えば、仮想ゲーム空間を鳥瞰した図で考えたときに、プレイヤオブジェクト101とマーカ地点との関係が上記図16に示したような状態から図17に示すような状態に変化したとする。すなわち、プレイヤオブジェクト101が、少し右(仮想ゲーム空間内の東方向)に移動した状態とする。また、このときはまだ通常モードであり、仮想カメラは上記客観カメラ制御による制御が行われており、仮想ゲーム空間内における東方向を向いている状態とする。図17に示すような位置関係にあるときに、上記通常モードにおいてプレイヤが操作ボタン72iを押すと、仮想カメラのマーカ注目制御が開始され、その結果、仮想カメラの位置および向きが図18に示すような状態となるように制御される。すなわち、仮想カメラの注視点が上記マーカ地点に設定され、仮想カメラの向きがマーカ地点のある方向を向く。また、仮想カメラの位置は、マーカ地点とプレイヤオブジェクト101とを結んだ直線の延長線上にくるような位置(プレイヤオブジェクト101がゲーム画面のほぼ中央に表示されるような位置)となる。その結果、ゲーム画面としては、図19のような画面が表示される。図19では、プレイヤから見て奥行き方向にマーカ地点(図19では、説明の便宜上、星印で明示しているが、実際のゲーム画面上では当該星印は表示されない。但し、3次元空間内において、当該マーカ地点に所定のオブジェクトを配置して、表示されるようにしても良い)が位置するような画面であり、かつ、プレイヤオブジェクト101もゲーム画面のほぼ中央に表示されている状態である。   Next, marker attention mode and marker attention control will be described. First, it is assumed that the “mark” 107 (marker point) has been set by the player performing the above-described operation in the 2D mode. Then, in the normal mode, when a predetermined button, for example, the operation button 72i is pressed, the virtual camera is controlled such that the marker point is located in the front direction of the virtual camera (the direction of the line of sight of the virtual camera). Control is performed. For example, when the virtual game space is considered as a bird's-eye view, it is assumed that the relationship between the player object 101 and the marker point changes from the state shown in FIG. 16 to the state shown in FIG. That is, it is assumed that the player object 101 has moved slightly to the right (eastward in the virtual game space). At this time, it is still in the normal mode, and the virtual camera is controlled by the objective camera control, and is in a state of facing the east direction in the virtual game space. When the player presses the operation button 72i in the normal mode when the positional relationship is as shown in FIG. 17, the marker attention control of the virtual camera is started, and as a result, the position and orientation of the virtual camera are shown in FIG. It is controlled to be in such a state. That is, the gazing point of the virtual camera is set at the marker point, and the direction of the virtual camera faces the direction where the marker point is. Further, the position of the virtual camera is a position (a position where the player object 101 is displayed almost at the center of the game screen) such that the virtual camera is positioned on an extended line connecting the marker point and the player object 101. As a result, a screen as shown in FIG. 19 is displayed as the game screen. In FIG. 19, the marker points are shown in the depth direction as viewed from the player (in FIG. 19, for convenience of explanation, this is indicated by a star, but the star is not displayed on the actual game screen. In this state, a predetermined object may be arranged and displayed at the marker point), and the player object 101 is also displayed in the approximate center of the game screen. is there.

そして、プレイヤが操作ボタン72iを押し続けている間は、常に仮想カメラの視線方向にプレイヤオブジェクト101とマーカ地点が来るように仮想カメラが制御される。すなわち、操作ボタン72iを押し続けている間がマーカ地点注目モードであり、上記マーカ注目制御による仮想カメラの制御が実行され続ける。図20は、上記図19のような状態から、プレイヤが操作ボタン72iを押したまま、プレイヤオブジェクト101を右に移動させる操作を行ったときのゲーム画面の一例である。また、図21は、図19の状態から操作ボタン72iを押したまま、プレイヤオブジェクト101を(プレイヤから見て)手前側にに移動させる操作を行ったときのゲーム画面の一例である。いずれの場合も、「目印」のある方向に仮想カメラが向けられている。すなわち、(プレイヤから見て)プレイヤオブジェクト101の奥行き方向にマーカ地点(上記図19と同様、本実施形態では、星印は実際のゲーム画面では表示されないものとする。但し、マーカ地点を示す所定のオブジェクトとして図20、21のような星印のオブジェクトを配置し、マーカ地点が画面内に明示されるようにしてもよい)が位置しているゲーム画面は表示されている。また、プレイヤは、操作ボタン72iの押下を止めることで、マーカ注目モードから通常モードへと切り替えることができる。   Then, while the player continues to press the operation button 72i, the virtual camera is controlled so that the player object 101 and the marker point are always in the visual line direction of the virtual camera. That is, while the operation button 72i is kept pressed, the marker point attention mode is set, and the virtual camera control by the marker attention control is continuously executed. FIG. 20 shows an example of the game screen when the player performs an operation of moving the player object 101 to the right while pressing the operation button 72i from the state shown in FIG. FIG. 21 shows an example of the game screen when an operation for moving the player object 101 to the near side (viewed from the player) is performed while the operation button 72i is pressed from the state of FIG. In either case, the virtual camera is pointed in the direction with the “mark”. That is, a marker point in the depth direction of the player object 101 (as viewed from the player) (In this embodiment, the star is not displayed on the actual game screen as in FIG. 19, provided that the marker point is a predetermined point. A star screen object as shown in FIGS. 20 and 21 may be arranged as the object, and the marker point may be clearly shown in the screen). Further, the player can switch from the marker attention mode to the normal mode by stopping the pressing of the operation button 72i.

上記マーカ注目制御における仮想カメラの制御処理についてより具体的に説明する。例えば、仮想ゲーム空間を鳥瞰した図で考えたときに、プレイヤオブジェクト101とマーカ地点との関係が図22に示したような状態であるとする。この状態の時に、操作ボタン72iがプレイヤによって押される(マーカ注目モードへの切替操作が行われる)と、まず、図23に示すように、仮想ゲーム空間内における、マーカ地点とプレイヤオブジェクト101を結ぶ直線109が算出される。次に、図24に示すように、当該直線109のプレイヤオブジェクト101側を延長した直線上に仮想カメラが配置される。更に、マーカ地点がカメラの注視点として設定され、仮想カメラの向きがマーカ地点の方向となるように設定される。そして、このように制御された仮想カメラで撮影した仮想ゲーム空間の様子がゲーム画面として表示されることになる。   The control process of the virtual camera in the marker attention control will be described more specifically. For example, when the virtual game space is considered as a bird's eye view, it is assumed that the relationship between the player object 101 and the marker point is as shown in FIG. When the operation button 72i is pressed by the player in this state (switching operation to the marker attention mode is performed), first, as shown in FIG. 23, the marker point and the player object 101 are connected in the virtual game space. A straight line 109 is calculated. Next, as shown in FIG. 24, a virtual camera is arranged on a straight line obtained by extending the straight line 109 from the player object 101 side. Furthermore, the marker point is set as a camera gazing point, and the direction of the virtual camera is set to be the direction of the marker point. And the state of the virtual game space image | photographed with the virtual camera controlled in this way is displayed as a game screen.

また、マーカ注目制御中は、仮想カメラの注視点はマーカ地点に設定されているため、上記のように操作ボタン72iを押したままプレイヤオブジェクト101を移動させると、仮想カメラの移動軌跡は、当該マーカ地点を中心とする円の円周上を移動するような軌跡になる。例えば、操作ボタン72iを押したままプレイヤオブジェクト101を(プレイヤから見て)右方向に移動させつづけると、プレイヤオブジェクト101および仮想カメラの移動軌跡は、図25のように、マーカ地点を中心とした円を描く様な移動軌跡となる(ゲーム画面には、プレイヤオブジェクト101が右を向いて走っている様子が表示され続ける)。   In addition, during the marker attention control, the gazing point of the virtual camera is set at the marker point. Therefore, when the player object 101 is moved while the operation button 72i is pressed as described above, the movement trajectory of the virtual camera is The locus moves on the circumference of a circle centered on the marker point. For example, if the player object 101 is continuously moved in the right direction (as viewed from the player) while the operation button 72i is being pressed, the movement trajectory of the player object 101 and the virtual camera is centered on the marker point as shown in FIG. The movement trajectory is like drawing a circle (the game screen shows that the player object 101 is running to the right).

なお、上記のように通常モードにおいて操作ボタン72iを押すことで、仮想カメラがマーカ地点を向くような制御が行われるが、上記2Dモードにおいて操作ボタン72iを押したときにも、マーカ地点に応じた画面の制御が行われる。具体的には、上記2Dモードにおいて操作ボタン72iが押されたとき、マーカ地点が画面の上方向に位置するように、上記図13等で示したような鳥瞰画面を回転させる処理が実行される。例えば、図26に示すような鳥瞰画面が表示されているとする。図26では、目印107(マーカ地点)が右下の位置に設定されている状態である。この画面が表示されているときに操作ボタン72iを押すことで、図26に示すように、目印107(マーカ地点)が画面の上部に位置するように画面の回転処理が行われる(但し、図27では、マーカ地点自体はゲーム画面の表示範囲内には含まれていない状態である)。   Note that, as described above, by pressing the operation button 72i in the normal mode, control is performed so that the virtual camera faces the marker point. However, when the operation button 72i is pressed in the 2D mode, the control is performed according to the marker point. The screen is controlled. Specifically, when the operation button 72i is pressed in the 2D mode, a process of rotating the bird's eye view as shown in FIG. 13 or the like is executed so that the marker point is positioned in the upper direction of the screen. . For example, assume that a bird's-eye view screen as shown in FIG. 26 is displayed. In FIG. 26, the mark 107 (marker point) is set at the lower right position. By pressing the operation button 72i while this screen is displayed, the screen is rotated so that the mark 107 (marker point) is positioned at the top of the screen as shown in FIG. 26 (however, FIG. 27, the marker point itself is not included in the display range of the game screen).

次に、上記主観モードおよび主観カメラ制御について説明する。主観カメラ制御は、主に、仮想ゲーム空間内で所定のオブジェクト(本ゲームでは、敵オブジェクト)を特定し、これに対して攻撃する場面で用いられる仮想カメラ制御方法である。まず、通常モードと主観モードとの間の切替操作について説明する。当該操作は、「ポインタロック」と呼ばれる操作を行うことで可能である。具体的には、通常モードにおいて、例えば図28に示すような状態で、ゲーム画面に表示されてるカーソル106を敵オブジェクト201に重ねる。そして所定のボタン、例えば操作ボタン72dをプレイヤが押すことで、仮想カメラがプレイヤオブジェクト101の目の位置に移動し、図29に示すような、一人称視点で見たゲーム画面が表示される。このモードでは、仮想カメラの注視点がカーソル106を重ねた敵オブジェクト201に設定される。つまり、プレイヤオブジェクト101が敵オブジェクト201に注目しているような仮想カメラ制御が行われる。また、図29に示されるように、ゲーム画面が一人称視点(プレイヤオブジェクト101の目線)で描かれるため、プレイヤオブジェクト101自体は表示されないが、プレイヤオブジェクト101の持つ武器オブジェクト131については、ゲームの便宜上表示される。プレイヤはこの武器オブジェクト131を操作することで、敵オブジェクト201に攻撃を行うことが可能となっている。主観モード中において、上記敵オブジェクト201を倒すか、主観モード解除のための所定の操作を行うことで、主観モードから通常モードに切り替えることができる。すなわち、仮想カメラの制御を主観カメラ制御から客観カメラ制御へ切り替えることができる。   Next, the subjective mode and subjective camera control will be described. Subjective camera control is a virtual camera control method that is mainly used when a predetermined object (an enemy object in the present game) is identified in a virtual game space and attacked against it. First, switching operation between the normal mode and the subjective mode will be described. This operation can be performed by performing an operation called “pointer lock”. Specifically, in the normal mode, the cursor 106 displayed on the game screen is overlaid on the enemy object 201 in a state as shown in FIG. Then, when the player presses a predetermined button, for example, the operation button 72d, the virtual camera moves to the eye position of the player object 101, and a game screen viewed from the first person viewpoint as shown in FIG. 29 is displayed. In this mode, the gazing point of the virtual camera is set to the enemy object 201 on which the cursor 106 is superimposed. That is, virtual camera control is performed so that the player object 101 is paying attention to the enemy object 201. Further, as shown in FIG. 29, since the game screen is drawn from the first person viewpoint (the line of sight of the player object 101), the player object 101 itself is not displayed, but the weapon object 131 held by the player object 101 is not convenient for the game. Is displayed. The player can attack the enemy object 201 by operating the weapon object 131. In the subjective mode, the subjective mode can be switched to the normal mode by defeating the enemy object 201 or performing a predetermined operation for canceling the subjective mode. That is, the virtual camera control can be switched from subjective camera control to objective camera control.

図30に、上記各モード間の遷移とこれに伴う操作の関係を示す。図30において、通常モードを起点として、2Dモード切替のための操作(例えば、十字キー72aの上ボタンを押す)を行うと、上記2Dモードに切り替わり、2Dモード中に所定の解除操作を行うと、通常モードに戻る。また、通常モードにおいて、マーカ注目モードへの切替のためのボタン(例えば、操作ボタン72i)を押すと、上記マーカ注目モードに切り替わる。操作ボタン72iを押下し続けている間はマーカ注目モードが継続し、当該操作ボタン72iを離せば、通常モードに戻る。また、通常モード中に、上述したようなポインタロック操作を行うことで、主観モードへ切り替わる。主観モードにおいて、主観モードの解除のための操作を行うか、あるいはポインタロックを行った敵オブジェクトを倒したときは、通常モードに戻る。   FIG. 30 shows the relationship between the transitions between the modes and the operations associated therewith. In FIG. 30, when an operation for switching the 2D mode (for example, pressing the upper button of the cross key 72a) is performed starting from the normal mode, the mode is switched to the 2D mode and a predetermined release operation is performed during the 2D mode. Return to normal mode. In the normal mode, when a button for switching to the marker attention mode (for example, the operation button 72i) is pressed, the mode is switched to the marker attention mode. While the operation button 72i is kept pressed, the marker attention mode continues, and when the operation button 72i is released, the mode returns to the normal mode. In addition, when the pointer lock operation as described above is performed during the normal mode, the mode is switched to the subjective mode. In the subjective mode, when an operation for canceling the subjective mode is performed, or when an enemy object with a pointer locked is defeated, the normal mode is restored.

このように、本ゲームでは、仮想ゲーム空間においてプレイヤが所望する任意の地点をマーカ地点として設定し、ゲーム中において、プレイヤが所定の操作を行えば、当該マーカ地点がプレイヤから見て正面の位置に来るような仮想カメラ制御(すなわち、仮想カメラの視線上に来るような仮想カメラ制御)が行われる。そのため、マーカ地点のある方向を容易にプレイヤに把握させることができ、また、このような画面が表示されている時に、プレイヤオブジェクト101をプレイヤから見て奥行き方向に移動させるという操作を行うだけで、プレイヤオブジェクト101をマーカ地点に向けて容易に移動させることが可能となる。   In this way, in this game, an arbitrary point desired by the player in the virtual game space is set as a marker point, and if the player performs a predetermined operation during the game, the marker point is a position in front of the player as viewed from the player. Virtual camera control (that is, virtual camera control that comes on the line of sight of the virtual camera) is performed. Therefore, the player can easily grasp the direction in which the marker point is present, and when such a screen is displayed, the player object 101 is simply moved in the depth direction as viewed from the player. The player object 101 can be easily moved toward the marker point.

次に、ゲーム装置本体3によって実行されるゲーム処理の詳細を説明する。まず、ゲーム処理の際に外部メインメモリ12に記憶されるデータについて説明する。図31は、ゲーム装置本体3のメインメモリ12のメモリマップを示す図である。図31において、外部メインメモリ12は、プログラム記憶領域121およびデータ記憶領域128を含む。プログラム記憶領域121およびデータ記憶領域128のデータは、光ディスク4に記憶され、ゲームプログラム実行時には外部メインメモリ12に転送されて記憶される。   Next, details of the game process executed by the game apparatus body 3 will be described. First, data stored in the external main memory 12 during game processing will be described. FIG. 31 is a diagram showing a memory map of the main memory 12 of the game apparatus body 3. In FIG. 31, the external main memory 12 includes a program storage area 121 and a data storage area 128. Data in the program storage area 121 and the data storage area 128 is stored in the optical disc 4 and transferred to the external main memory 12 and stored when the game program is executed.

プログラム記憶領域121は、CPU10によって実行されるゲームプログラムを記憶し、このゲームプログラムは、メイン処理プログラム122と、通常モード処理プログラム123と、2Dモード処理プログラム124と、マーカ注目処理プログラム125と、ポインタロック処理プログラム126と、主観モード処理プログラム127などによって構成される。メイン処理プログラム122は、後述する図32のフローチャートの処理に対応するプログラムである。通常モード処理プログラム123は、上述したような通常モードにおける仮想カメラの制御処理等をCPU10に実行させるためのプログラムであり、2Dモード処理プログラム124は、上記2Dモードにおける仮想カメラの制御処理等をCPU10に実行させるためのプログラムであり、マーカ注目処理プログラム125は、上記マーカ注目モードにおける仮想カメラの制御処理等をCPU10に実行させるためのプログラムである。また、ポインタロック処理プログラム126は、上述したポインタロック操作が行われたときの処理を実行されるためのプログラムであり、主観モード処理プログラム127は、上記主観モードにおける仮想カメラの制御処理等をCPU10に実行させるためのプログラムである。   The program storage area 121 stores a game program executed by the CPU 10, and the game program includes a main processing program 122, a normal mode processing program 123, a 2D mode processing program 124, a marker attention processing program 125, and a pointer. The lock processing program 126 and the subjective mode processing program 127 are included. The main processing program 122 is a program corresponding to the processing of the flowchart of FIG. The normal mode processing program 123 is a program for causing the CPU 10 to execute the virtual camera control processing or the like in the normal mode as described above. The 2D mode processing program 124 performs the virtual camera control processing or the like in the 2D mode. The marker attention processing program 125 is a program for causing the CPU 10 to execute the virtual camera control processing in the marker attention mode. The pointer lock processing program 126 is a program for executing the processing when the pointer lock operation described above is performed. The subjective mode processing program 127 performs control processing of the virtual camera in the subjective mode and the like in the CPU 10. It is a program for making it run.

データ記憶領域128には、操作データ129、カレントモード130、マーカ地点データ131、プレイヤオブジェト位置データ132、仮想カメラ制御用パラメータ133、オブジェクトデータ134、画像データ135などのデータが記憶されるとともに、ゲーム処理中に用いられる各種フラグも記憶される。   The data storage area 128 stores operation data 129, current mode 130, marker spot data 131, player object position data 132, virtual camera control parameters 133, object data 134, image data 135, and other data as well as a game. Various flags used during processing are also stored.

操作データ129は、コントローラ7からゲーム装置本体3へ送信されてくる操作データである。上述したように、コントローラ7からゲーム装置本体3へ1/200秒に1回の割合で操作データが送信されるので、メインメモリに記憶される操作データ129はこの割合で更新される。本実施形態においては、メインメモリには、最新の(最後に取得された)操作データのみが記憶されればよい。   The operation data 129 is operation data transmitted from the controller 7 to the game apparatus body 3. As described above, since the operation data is transmitted from the controller 7 to the game apparatus main body 3 at a rate of once every 1/200 second, the operation data 129 stored in the main memory is updated at this rate. In the present embodiment, only the latest (last acquired) operation data may be stored in the main memory.

操作データ129には、操作ボタンデータ1291、マーカ座標データ1292、および、加速度データ1293が含まれる。   The operation data 129 includes operation button data 1291, marker coordinate data 1292, and acceleration data 1293.

操作ボタンデータ1291は、各操作ボタン72a〜72iに対する入力状態を示すデータである。   The operation button data 1291 is data indicating an input state for each of the operation buttons 72a to 72i.

マーカ座標データ1292は、撮像情報演算部35の画像処理回路41によって算出される座標、すなわち上記マーカ座標を示すデータである。マーカ座標は、撮像画像に対応する平面上の位置を表すための2次元座標系で表現される。なお、撮像素子40によって2つのマーカ6Rおよび6Lが撮像される場合には、2つのマーカ座標が算出される。一方、撮像素子40の撮像可能な範囲内にマーカ6Rおよび6Lのいずれか一方が位置しない場合には、撮像素子40によって1つのマーカのみが撮像され、1つのマーカ座標のみが算出される。また、撮像素子40の撮像可能な範囲内にマーカ6Rおよび6Lの両方が位置しない場合には、撮像素子40によってマーカが撮像されず、マーカ座標は算出されない。したがって、マーカ座標データ65は、2つのマーカ座標を示す場合もあるし、1つのマーカ座標を示す場合もあるし、マーカ座標がないことを示す場合もある。   The marker coordinate data 1292 is data indicating the coordinates calculated by the image processing circuit 41 of the imaging information calculation unit 35, that is, the marker coordinates. The marker coordinates are expressed in a two-dimensional coordinate system for representing a position on a plane corresponding to the captured image. Note that, when the two markers 6R and 6L are imaged by the imaging element 40, two marker coordinates are calculated. On the other hand, if either one of the markers 6R and 6L is not located within the imageable range of the image sensor 40, only one marker is imaged by the image sensor 40, and only one marker coordinate is calculated. Further, when both of the markers 6R and 6L are not located within the image capturing range of the image sensor 40, the marker is not imaged by the image sensor 40, and the marker coordinates are not calculated. Therefore, the marker coordinate data 65 may indicate two marker coordinates, may indicate one marker coordinate, or may indicate that there is no marker coordinate.

加速度データ1293は、加速度センサ37によって検出された加速度(加速度ベクトル)を示すデータである。ここでは、加速度データ1293は、図3に示すXYZの3軸の方向に関する加速度を各成分とする3次元の加速度ベクトルVa1を示す。また、本実施形態においては、コントローラ7が静止している状態で加速度センサ37が検出する加速度ベクトルVa1の大きさを"1"とする。つまり、加速度センサ37によって検出される重力加速度の大きさは"1"である。   The acceleration data 1293 is data indicating the acceleration (acceleration vector) detected by the acceleration sensor 37. Here, the acceleration data 1293 indicates a three-dimensional acceleration vector Va1 having as components the accelerations in the directions of the three axes of XYZ shown in FIG. In the present embodiment, the magnitude of the acceleration vector Va1 detected by the acceleration sensor 37 while the controller 7 is stationary is “1”. That is, the magnitude of gravitational acceleration detected by the acceleration sensor 37 is “1”.

カレントモード130は、現在のゲーム処理の状態が、上述したような通常モード、2Dモード、マーカ注目モード、および主観モードのいずれのモードであるかを示すためのデータである。   The current mode 130 is data for indicating whether the current game processing state is the normal mode, the 2D mode, the marker attention mode, or the subjective mode as described above.

マーカ地点データ131は、上述のように2Dモードにおいてマーカ103が設定された仮想ゲーム空間内における位置、すなわち、マーカ地点を示すためのデータである。   The marker spot data 131 is data for indicating the position in the virtual game space where the marker 103 is set in the 2D mode as described above, that is, the marker spot.

プレイヤオブジェクト位置データ132は、仮想ゲーム空間内におけるプレイヤオブジェクト101の位置を示すためのデータである。   The player object position data 132 is data for indicating the position of the player object 101 in the virtual game space.

オブジェクトデータ134は、プレイヤオブジェクト101や敵オブジェクト201等、仮想ゲーム空間に配置される各種オブジェクトのデータである。   The object data 134 is data of various objects arranged in the virtual game space such as the player object 101 and the enemy object 201.

画像データ135は、上記マーカ103やカーソル106の画像等、ゲーム処理において用いられる各種画像のデータである。   The image data 135 is data of various images used in the game process such as the image of the marker 103 and the cursor 106.

次に、図32〜図37を参照して、ゲーム装置本体3によって実行されるゲーム処理について説明する。ゲーム装置本体3の電源が投入されると、ゲーム装置本体3のCPU10は、ROM/RTC13に記憶されている起動プログラムを実行し、これによってメインメモリ33等の各ユニットが初期化される。そして、光ディスク4に記憶されたゲームプログラムが外部メインメモリ12に読み込まれ、CPU10によって当該ゲームプログラムの実行が開始される。図32に示すフローチャートは、以上の処理が完了した後に行われるゲーム処理を示すフローチャートである。また、図32に示すステップS2〜ステップS5の処理ループは、1フレーム毎に繰り返し実行される。   Next, a game process executed by the game apparatus body 3 will be described with reference to FIGS. When the power of the game apparatus main body 3 is turned on, the CPU 10 of the game apparatus main body 3 executes a startup program stored in the ROM / RTC 13, whereby each unit such as the main memory 33 is initialized. Then, the game program stored in the optical disc 4 is read into the external main memory 12, and the CPU 10 starts executing the game program. The flowchart shown in FIG. 32 is a flowchart showing a game process performed after the above process is completed. Also, the processing loop of steps S2 to S5 shown in FIG. 32 is repeatedly executed for each frame.

図32において、まず、CPU10は、初期化処理を実行する(ステップS1)。このステップS1の処理をより具体的に説明すると、まず、CPU10は、仮想ゲーム空間を構築し、プレイヤオブジェクト101等の各種オブジェクトを配置する。また、CPU10は、プレイヤオブジェクト位置データ132に、プレイヤオブジェクト101を配置した位置を設定する。更に、CPU10は、カレントモード130に「通常モード」を設定し、仮想カメラ制御用パラメータ133の注視点データ1333にプレイヤオブジェクト位置データ132で示される位置(つまり、プレイヤオブジェクト101の位置)を設定する。また、CPU10は、マーカ地点データ131に、所定の地点、ここでは、スタート地点の位置を示すデータを設定する。   In FIG. 32, first, the CPU 10 executes an initialization process (step S1). The process of step S1 will be described more specifically. First, the CPU 10 constructs a virtual game space and arranges various objects such as the player object 101. Further, the CPU 10 sets the position where the player object 101 is placed in the player object position data 132. Further, the CPU 10 sets the “normal mode” in the current mode 130 and sets the position indicated by the player object position data 132 (that is, the position of the player object 101) in the gazing point data 1333 of the virtual camera control parameter 133. . Further, the CPU 10 sets data indicating the position of a predetermined point, here the start point, in the marker point data 131.

次に、CPU10は、カレントモード130が「2Dモード」であるか否かを判定する(ステップS2)。当該判定の結果、
「2Dモード」ではないと判定されたときは(ステップS2でNO)、CPU10は、後述する通常モード処理を実行する(ステップS3)。ゲーム開始直後は、上記初期化処理で「通常モード」が設定されているため、当該判定で「2Dモード」ではないと判定されることになる。一方、当該判定の結果、「2Dモード」のときは(ステップS2でYES)、後述する2Dモード処理(ステップS4)に進む。
Next, the CPU 10 determines whether or not the current mode 130 is the “2D mode” (step S2). As a result of the judgment,
When it is determined that the mode is not the “2D mode” (NO in step S2), the CPU 10 executes a normal mode process described later (step S3). Immediately after the start of the game, since the “normal mode” is set in the initialization process, it is determined that the determination is not “2D mode”. On the other hand, when the result of the determination is “2D mode” (YES in step S2), the process proceeds to 2D mode processing (step S4) described later.

次に、CPU10は、ゲーム終了条件が満たされたか否か(プレイヤからゲーム終了のための指示がなされたか否か等)を判定する(ステップS5)。その結果、YESの場合、ゲーム処理を終了し、NOの場合、ステップS2に戻って、ゲーム処理を繰り返す。   Next, the CPU 10 determines whether or not the game end condition is satisfied (whether or not an instruction for ending the game is issued from the player) (step S5). As a result, in the case of YES, the game process is terminated, and in the case of NO, the process returns to step S2 to repeat the game process.

次に、上記ステップS3の通常モード処理について説明する。図33は、上記ステップS3で示した通常モード処理の詳細を示すフローチャートである。図33において、まず、CPU10は、操作データ129を取得する(ステップS11)。次に、CPU10は、カレントモード130が「主観モード」か否かを判定する(ステップS12)。当該判定の結果、「主観モード」のときは(ステップS12でYES)、CPU10は、後述の主観モード処理を実行し(ステップS19)、その後、ステップS18の処理に進む。   Next, the normal mode process in step S3 will be described. FIG. 33 is a flowchart showing details of the normal mode processing shown in step S3. In FIG. 33, first, the CPU 10 acquires operation data 129 (step S11). Next, the CPU 10 determines whether or not the current mode 130 is the “subjective mode” (step S12). If the result of the determination is “subjective mode” (YES in step S12), the CPU 10 executes a later-described subjective mode process (step S19), and thereafter proceeds to the process of step S18.

一方、「主観モード」ではないときは(ステップS12でNO)、次に、CPU10は、操作データ129で示されるプレイヤの操作の内容がマーカ注目モードへの切替指示を示す内容(例えば、操作ボタン72iが押下されている状態)であるか否かを判定する(ステップS13)。当該判定の結果、マーカ注目モードへの切替指示を示す内容のときは(ステップS13でYES)、CPU10は、後述するマーカ注目処理を実行し(ステップS20)、その後、ステップS18の処理に進む。   On the other hand, when it is not the “subjective mode” (NO in step S12), the CPU 10 then indicates that the content of the player's operation indicated by the operation data 129 indicates an instruction to switch to the marker attention mode (for example, an operation button Whether or not 72i is pressed is determined (step S13). As a result of the determination, when the content indicates an instruction to switch to the marker attention mode (YES in step S13), the CPU 10 executes a marker attention process described later (step S20), and then proceeds to the process of step S18.

一方、ステップS13の判定の結果、マーカ注目モードへの切替指示を示す内容ではないときは(ステップS13でNO)、次に、CPU10は、操作データ129で示されるプレイヤの操作の内容が2Dモードへの切替指示を示す内容であるか否かを判定する(ステップS14)。当該判定の結果、2Dモードへの切替指示を示す内容のときは(ステップS14でYES)、CPU10は、カレントモード130に「2Dモード」を設定する(ステップS21)。続いて、CPU10は、図13等で示したような、仮想ゲーム空間を鳥瞰した画像を生成する(ステップS22)。その後、後述のステップS18の処理へ進む。   On the other hand, if the result of determination in step S13 is not content indicating an instruction to switch to the marker attention mode (NO in step S13), then the CPU 10 indicates that the content of the player's operation indicated by the operation data 129 is 2D mode. It is determined whether or not the content indicates an instruction to switch to (step S14). As a result of the determination, if the content indicates an instruction to switch to the 2D mode (YES in step S14), the CPU 10 sets “2D mode” in the current mode 130 (step S21). Subsequently, the CPU 10 generates an image in which the virtual game space is viewed as shown in FIG. 13 and the like (step S22). Thereafter, the process proceeds to step S18 described later.

一方、ステップS14の判定の結果、2Dモードへの切替指示を示す内容ではないときは(ステップS14でNO)、次に、CPU10は、操作データ129で示されるプレイヤの操作の内容がポインタロック指示を示す内容(例えば、操作ボタン72dの押下)であるか否かを判定する(ステップS15)。当該判定の結果、ポインタロック指示を示す内容の時は(ステップS15でYES)、CPU10は、後述のポインタロック処理を実行し(ステップS23)、その後、ステップS18の処理に進む。   On the other hand, if the result of determination in step S14 is not the content indicating the instruction to switch to the 2D mode (NO in step S14), then the CPU 10 indicates that the content of the player's operation indicated by the operation data 129 is a pointer lock instruction. Is determined (for example, pressing of the operation button 72d) (step S15). As a result of the determination, if the content indicates a pointer lock instruction (YES in step S15), the CPU 10 executes a pointer lock process described later (step S23), and then proceeds to the process of step S18.

一方、ステップS15の判定の結果、ポインタロック指示ではないときは(ステップS15でNO)、次に、CPU10は、操作データ129で示される操作内容に基づいて、所定のゲーム処理を実行する(ステップS16)。つまり、通常モードにおけるゲーム処理、例えば、プレイヤオブジェクト101の移動やジャンプ等のゲーム処理が実行される。また、カーソル106の表示位置の制御等も実行される。このとき、プレイヤオブジェクト101の位置に応じてプレイヤオブジェクト位置データ132も更新される。   On the other hand, if the result of determination in step S15 is not a pointer lock instruction (NO in step S15), the CPU 10 then executes a predetermined game process based on the operation content indicated by the operation data 129 (step S15). S16). That is, a game process in the normal mode, for example, a game process such as movement or jump of the player object 101 is executed. Control of the display position of the cursor 106 is also executed. At this time, the player object position data 132 is also updated according to the position of the player object 101.

続いて、CPU10は、図12を用いて上述したような客観カメラ制御処理を実行する(ステップS17)。すなわち、プレイヤオブジェクト101の全身がゲーム画面内に表示されるように仮想カメラ制御用パラメータ133を適宜設定する。   Subsequently, the CPU 10 executes objective camera control processing as described above with reference to FIG. 12 (step S17). That is, the virtual camera control parameter 133 is appropriately set so that the whole body of the player object 101 is displayed in the game screen.

次に、CPU10は、描画処理を実行する(ステップS18)。すなわち、仮想カメラで仮想ゲーム空間を撮影した画像をゲーム画像としてテレビ2に表示する処理が実行される。以上で、通常モード処理が終了する。   Next, the CPU 10 executes a drawing process (step S18). That is, processing for displaying an image obtained by photographing the virtual game space with the virtual camera on the television 2 as a game image is executed. Thus, the normal mode process ends.

次に、図32のステップS4で示した2Dモード処理について説明する。この処理では、図13等を用いて上述したような2Dモードにおける処理が実行される。本処理は、上記通常モード処理において2Dモードへの切替指示が行われたと判定されたときに実行される。図34は、上記ステップS4で示した2Dモード処理の詳細を示すフローチャートである。図34において、まず、CPU10は、操作データ129を取得する(ステップS31)。   Next, the 2D mode process shown in step S4 of FIG. 32 will be described. In this process, the process in the 2D mode as described above with reference to FIG. 13 and the like is executed. This process is executed when it is determined in the normal mode process that an instruction to switch to the 2D mode has been issued. FIG. 34 is a flowchart showing details of the 2D mode processing shown in step S4. In FIG. 34, first, the CPU 10 acquires operation data 129 (step S31).

次に、CPU10は、操作データ129の内容に基づいて、図14〜図16を用いて説明したようなマーカ103をセットする操作が行われたか否かを判定する(ステップS32)。すなわち、マーカ103がドラッグされている状態で、ドラッグ状態が解除されたか否かを判定する。当該判定の結果、マーカ103をセットする操作が行われたときは(ステップS32でYES)、次に、CPU10は、マーカ103がセットされた仮想ゲーム空間内の位置を示すデータ(例えば、座標データ)をマーカ地点データ131として外部メインメモリ12に記憶し(ステップS33)、2Dモード処理を終了する。   Next, the CPU 10 determines whether or not an operation for setting the marker 103 as described with reference to FIGS. 14 to 16 has been performed based on the content of the operation data 129 (step S32). That is, it is determined whether or not the drag state is released while the marker 103 is being dragged. As a result of the determination, when an operation for setting the marker 103 is performed (YES in step S32), the CPU 10 then displays data (for example, coordinate data) indicating the position in the virtual game space where the marker 103 is set. ) Is stored in the external main memory 12 as the marker point data 131 (step S33), and the 2D mode process is terminated.

一方、ステップS32の判定の結果、マーカ102をセットする操作ではないときは(ステップS32でNO)、CPU10は、操作データ129で示される内容がマーカ注目モードへの切替指示であるか否かを判定する(ステップS34)。その結果、マーカ注目モードへの切替指示のときは(ステップS34でYES)、図26および図27を用いて上述したような、マーカ103(目印107)のセットされた地点が画面の上部に来るように画面を回転させる処理を実行する。すなわち、CPU10は、マーカ地点データ131を取得する。そして、CPU10は、当該データで示される仮想ゲーム空間内の地点が図26のxy座標軸におけるy軸正方向上の所定の位置であって、x軸上は画面の中心に来るような位置となるように画面を回転する。   On the other hand, if the result of determination in step S32 is not an operation for setting the marker 102 (NO in step S32), the CPU 10 determines whether or not the content indicated by the operation data 129 is an instruction to switch to the marker attention mode. Determination is made (step S34). As a result, when the instruction to switch to the marker attention mode is given (YES in step S34), the point where the marker 103 (the mark 107) is set comes to the top of the screen as described above with reference to FIGS. The process of rotating the screen is executed. That is, the CPU 10 acquires the marker spot data 131. Then, the CPU 10 causes the point in the virtual game space indicated by the data to be a predetermined position on the y-axis positive direction on the xy coordinate axis in FIG. Rotate the screen.

一方、ステップS34の判定の結果、マーカ注目モードへの切替指示ではないときは(ステップS34でNO)、次に、CPU10は、操作データ129で示される内容が2Dモードの終了指示であるか否かを判定する(ステップS36)。その結果、2Dモードの終了指示のときは(ステップS36でYES)、カレントモード130に「通常モード」を設定する(ステップS37)。   On the other hand, if the result of determination in step S <b> 34 is not an instruction to switch to the marker attention mode (NO in step S <b> 34), the CPU 10 next determines whether the content indicated by the operation data 129 is an instruction to end the 2D mode. Is determined (step S36). As a result, when an instruction to end the 2D mode is given (YES in step S36), "normal mode" is set in the current mode 130 (step S37).

一方、2Dモードの終了指示ではないときは(ステップS36でNO)、CPU10は、操作データ129で示される内容に基づいたゲーム処理(例えば、プレイヤオブジェクトの移動処理等)を実行する(ステップS38)。以上で、2Dモード処理が終了する。   On the other hand, when it is not an instruction to end the 2D mode (NO in step S36), the CPU 10 executes a game process (for example, a player object movement process) based on the content indicated by the operation data 129 (step S38). . Thus, the 2D mode process ends.

次に、図33のステップS20で示したマーカ注目処理について説明する。この処理では、上記図17〜図24を用いて説明したマーカ注目モードにおける処理が実行される。図35は、上記ステップS20で示したマーカ注目処理の詳細を示すフローチャートである。図35において、まず、CPU10は、マーカ地点データ131を取得し(ステップS51)、続けて、プレイヤオブジェクト位置データ132を取得する(ステップS52)。   Next, the marker attention process shown in step S20 of FIG. 33 will be described. In this process, the process in the marker attention mode described with reference to FIGS. 17 to 24 is executed. FIG. 35 is a flowchart showing details of the marker attention processing shown in step S20. In FIG. 35, first, the CPU 10 acquires the marker spot data 131 (step S51), and then acquires the player object position data 132 (step S52).

次に、CPU10は、上記ステップS51およびS52で取得したデータに基づいて、マーカ地点とプレイヤオブジェクトの位置とを結ぶ直線を算出する(ステップS53)。   Next, the CPU 10 calculates a straight line connecting the marker point and the position of the player object based on the data acquired in steps S51 and S52 (step S53).

次に、CPU10は、マーカ地点データ131で示される仮想ゲーム空間内の位置を注視点データ1333として設定することで、マーカ地点を仮想カメラの注視点として設定する(ステップS54)。なお、プレイヤが上記2Dモードでマーカをセットしていない場合は、上記初期化処理においてマーカ地点データ131に設定された所定の位置(上記の例ではスタート地点)が注視点として設定されることになる。   Next, the CPU 10 sets the marker point as the gazing point of the virtual camera by setting the position in the virtual game space indicated by the marker point data 131 as the gazing point data 1333 (step S54). When the player does not set a marker in the 2D mode, a predetermined position (start point in the above example) set in the marker point data 131 in the initialization process is set as a gazing point. Become.

次に、CPU10は、仮想カメラの位置の設定を行う(ステップS55)。具体的には、上記ステップS53で算出された直線をプレイヤオブジェクト側に延長した延長線上の所定の位置(プレイヤオブジェクト101の全身が撮影できるような位置)を算出し、当該位置を示すデータを仮想カメラ位置データ1331として設定する。   Next, the CPU 10 sets the position of the virtual camera (step S55). Specifically, a predetermined position (a position where the whole body of the player object 101 can be photographed) on an extended line obtained by extending the straight line calculated in step S53 to the player object side is calculated, and data indicating the position is virtually Set as camera position data 1331.

次に、CPU10は、ステップS11で取得した操作データ129の内容に基づいて、所定のゲーム処理を実行する(ステップS56)。例えば、プレイヤオブジェクト101の移動処理等を実行する。なお、本ゲームでは、マーカ注目モードは、操作ボタン72iが押下され続けている間、実行されるため、ここでのプレイヤの操作は、操作ボタン72iを押下したまま、他の操作ボタンを操作するような状態となる。以上で、マーカ注目処理は終了する。このような処理を行うことで、マーカ103が設定された地点(プレイヤがマーカ103をセットしていないときは、上記初期化処理で設定された所定の地点)に仮想カメラが常に向いている状態のゲーム画面を表示することが可能となる。   Next, the CPU 10 executes a predetermined game process based on the contents of the operation data 129 acquired in step S11 (step S56). For example, a movement process of the player object 101 is executed. In this game, since the marker attention mode is executed while the operation button 72i is continuously pressed, the player's operation here operates other operation buttons while pressing the operation button 72i. It will be in such a state. This completes the marker attention process. By performing such processing, the virtual camera always faces the point where the marker 103 is set (the predetermined point set in the initialization process when the player does not set the marker 103). It is possible to display the game screen.

次に、上記図33のステップS15で示したポインタロック処理について説明する。この処理では、上記ポインタロック操作が行われたときに、上記主観モードに切り替えるか否かの判定等が実行される。図36は、上記ステップS15で示したポインタロック処理の詳細を示すフローチャートである。図36において、まず、CPU10は、カーソル106(図28参照)の表示位置が、攻撃対象となり得るように予め設定されている所定のオブジェクト(例えば、図28の敵オブジェクト201)の表示位置と重なっているか否かを判定する(ステップS61)。当該判定の結果、カーソル106がいずれの上記所定のオブジェクトに重なっていないときは(ステップS61でNO)、CPU10は、ポインタロック処理を終了する。   Next, the pointer lock process shown in step S15 of FIG. 33 will be described. In this process, when the pointer lock operation is performed, it is determined whether or not to switch to the subjective mode. FIG. 36 is a flowchart showing details of the pointer lock processing shown in step S15. 36, first, the CPU 10 overlaps the display position of a predetermined object (for example, the enemy object 201 in FIG. 28) set in advance so that the display position of the cursor 106 (see FIG. 28) can be an attack target. It is determined whether or not (step S61). As a result of the determination, when the cursor 106 does not overlap any of the predetermined objects (NO in step S61), the CPU 10 ends the pointer lock process.

一方、カーソル106がいずれの上記所定のオブジェクトと重なっているときは(ステップS61でYES)、CPU10は、カレントモード130に「主観モード」を設定する(ステップS62)。   On the other hand, when the cursor 106 overlaps any of the predetermined objects (YES in step S61), the CPU 10 sets “subjective mode” as the current mode 130 (step S62).

次に、CPU10は、上記カーソル106が重なっているオブジェクトをロックオンするための処理を実行する(ステップS63)。例えば、当該オブジェクトのパラメータとして予め用意されているロックオンフラグ(図示せず)にオンを設定する等の処理が考えられる。本処理でロックオンされたオブジェクトについては、例えばプレイヤオブジェクト101に攻撃動作を行わせると、自動的に当該ロックオンされたオブジェクトを目掛けて剣オブジェクトが振り下ろされるような制御が実行されることになる。   Next, the CPU 10 executes a process for locking on the object on which the cursor 106 overlaps (step S63). For example, processing such as setting ON to a lock-on flag (not shown) prepared in advance as a parameter of the object can be considered. For the object locked on in this process, for example, when the player object 101 is caused to perform an attacking action, a control is automatically performed so that the sword object is swung down while aiming at the locked-on object. become.

次に、CPU10は、上記ロックオン設定を行ったオブジェクトの位置を仮想カメラの注視点として設定する(ステップS64)。具体的には、注視点データ1333に、当該ロックオン設定されたオブジェクトの位置を設定する。   Next, the CPU 10 sets the position of the object for which the lock-on setting has been performed as a gazing point of the virtual camera (step S64). Specifically, the position of the object for which lock-on is set is set in the gazing point data 1333.

次に、CPU10は、主観カメラ制御処理を実行する(ステップS65)。具体的には、CPU10は、仮想カメラ位置データ1331にプレイヤオブジェクト101の目の位置を設定する。また、画角データ1332についても適宜設定する。注視点データ1333については上記ステップS64において設定されているため、このようにして設定された仮想カメラで仮想ゲーム空間を撮影することで、上記図29で示したようなゲーム画像を生成することが可能となる。以上で、ポインタロック処理は終了する。   Next, the CPU 10 executes a subjective camera control process (step S65). Specifically, the CPU 10 sets the eye position of the player object 101 in the virtual camera position data 1331. Also, the angle of view data 1332 is set as appropriate. Since the gazing point data 1333 is set in step S64, the game image as shown in FIG. 29 can be generated by shooting the virtual game space with the virtual camera set in this way. It becomes possible. This completes the pointer lock process.

次に、上記ステップS19で示した主観モード処理について説明する。本処理では、上記主観モードにおける処理が実行される。図37は、上記ステップS19で示した主観モード処理の詳細を示すフローチャートである。図37において、まず、CPU10は、上記図33のステップS11で取得された操作データ129の内容が主観モードの終了指示であるか、または、ポインタロック処理においてロックオンされたオブジェクトを倒したか(例えば、当該オブジェクトに予め設定されていたヒットポイントがプレイヤオブジェクトの攻撃動作によって減少した結果、0となったか)を判定する(ステップS71)。当該判定の結果、上記の条件が満たされていないときは(ステップS71でNO)、CPU10は、操作データ129の内容に基づいて所定のゲーム処理、例えば、ロックオンしたオブジェクトを攻撃する等の処理を実行する(ステップS72)。   Next, the subjective mode process shown in step S19 will be described. In this process, the process in the subjective mode is executed. FIG. 37 is a flowchart showing details of the subjective mode process shown in step S19. In FIG. 37, first, the CPU 10 determines whether the content of the operation data 129 acquired in step S11 of FIG. 33 is an instruction to end the subjective mode, or has defeated an object locked on in the pointer lock process (for example, Then, it is determined whether or not the hit points set in advance for the object have become 0 as a result of a decrease in the attack action of the player object (step S71). If the above condition is not satisfied as a result of the determination (NO in step S71), the CPU 10 performs a predetermined game process based on the content of the operation data 129, for example, a process of attacking a locked-on object or the like. Is executed (step S72).

次に、CPU10は、主観カメラ制御処理を実行する(ステップS73)。本処理の内容は、上記図36のステップS65の処理と同様であるため、説明は省略する。   Next, the CPU 10 executes a subjective camera control process (step S73). The content of this process is the same as the process of step S65 of FIG.

一方、上記ステップS71の判定の結果、主観モードの終了指示が出されているとき、または、ロックオンしたオブジェクトを倒したときは(ステップS71でYES)、CPU10は、主観モードを終了するための処理を実行する。すなわち、CPU10は、カレントモード130に「通常モード」を設定する(ステップS74)。続いて、CPU10は、ロックオン設定の解除を実行する(ステップS75)。例えば、上記ロックオンフラグをオフに設定することが考えられる。   On the other hand, as a result of the determination in step S71, when an instruction to end the subjective mode has been issued, or when the locked-on object has been defeated (YES in step S71), the CPU 10 ends the subjective mode. Execute the process. That is, the CPU 10 sets the “normal mode” as the current mode 130 (step S74). Subsequently, the CPU 10 releases the lock-on setting (step S75). For example, setting the lock-on flag to off can be considered.

次に、CPU10は、注視点データ1333にプレイヤオブジェクト101の位置を設定する(ステップS76)。次に、CPU10は、客観カメラ制御処理を実行する(ステップS77)。すなわち、上記図10等で示したような、プレイヤオブジェクト101の全身がゲーム画面に表示されるようなカメラ制御を実行する。本処理は、上記図33のステップS17で示した処理を同様であるため、詳細な説明は省略する。以上で、主観モード処理は終了する。   Next, the CPU 10 sets the position of the player object 101 in the gazing point data 1333 (step S76). Next, the CPU 10 executes objective camera control processing (step S77). That is, camera control is performed such that the whole body of the player object 101 is displayed on the game screen as shown in FIG. Since this process is the same as the process shown in step S17 of FIG. 33, detailed description thereof is omitted. This completes the subjective mode process.

このように、本実施形態では、上記2Dモードを利用して仮想ゲーム空間内の任意の地点にマーカ103をセットすることができ、ゲーム処理中に所定の操作を行うことで、仮想カメラをマーカ地点に向けることができる。これにより、プレイヤが自ら設定した仮想ゲーム空間内の任意の地点がどの方向にあるのかをプレイヤに瞬時に把握させやすくすることができる。また、当該マーカ103をセットした地点とプレイヤオブジェクトの位置と仮想カメラの位置が一直線上に存在する関係(つまり、プレイヤオブジェクト101が仮想カメラの撮影範囲に含まれている)となるため、プレイヤから見て奥行き方向にプレイヤオブジェクトを移動させる操作を行わせるだけで、上記マーカをセットした地点に向けて移動させることが可能となる。これにより、操作性を高めることも可能となる。   As described above, in the present embodiment, the marker 103 can be set at an arbitrary point in the virtual game space using the 2D mode, and the virtual camera is set to the marker by performing a predetermined operation during the game process. Can be pointed. Thereby, it is possible to make it easier for the player to instantly grasp in which direction an arbitrary point in the virtual game space set by the player is located. Further, since the point where the marker 103 is set, the position of the player object, and the position of the virtual camera are in a straight line (that is, the player object 101 is included in the shooting range of the virtual camera), It is possible to move the player object toward the point where the marker is set only by performing an operation of moving the player object in the depth direction. Thereby, operability can also be improved.

また、上記ポインタロックのように、攻撃対象とするような所定のオブジェクトに注目する仮想カメラ制御と上記マーカ地点に注目するカメラ制御を併用しているため、3次元仮想空間を舞台にしたゲームにおいて、ゲーム中の場面に応じてプレイヤにとって見やすいゲーム画面を提供することが可能となる。   In addition, since the virtual camera control that pays attention to a predetermined object as an attack target and the camera control that pays attention to the marker point are used together like the pointer lock, in a game set in a three-dimensional virtual space It is possible to provide a game screen that is easy for the player to see according to the scene in the game.

また、マーカ地点注目モードに関しては、上記のように、操作ボタン72dが押下され続けている間に、上記マーカ注目制御による仮想カメラの制御が行われている。これにより、プレイヤに、マーカ地点の注目前後での方向の対比、すなわち、プレイヤオブジェクトが向いている方向とマーカ地点のある方向との対比を容易にさせることができ、仮想ゲーム空間内におけるプレイヤオブジェクト101の位置関係を容易に把握させることができる。   As for the marker point attention mode, as described above, the virtual camera is controlled by the marker attention control while the operation button 72d is kept pressed. This makes it possible for the player to easily compare the direction of the marker point before and after the attention, that is, the direction of the player object and the direction of the marker point. The positional relationship of 101 can be easily grasped.

なお、上述の実施形態では、マーカ103を一つだけ利用した場合を例としていたが、複数のマーカを利用できるようにしても良い。例えば、上記2Dモードにおける鳥瞰画面において、図38に示すように、マーカ103を複数表示し(マーカ103a〜103c)、各マーカに対応する複数のマーカ地点データ131を用意しても良い。図38では、各マーカの画像として1〜3の番号が付された画像が表示され、これらの番号で各マーカを識別することが可能となっている、更に、この場合、複数のマーカ地点データ131のうちのいずれか一つを選択し、外部メインメモリ12に、当該選択されているマーカを示すための情報を記憶させる。そして、通常モードのゲーム画面において、現在選択されているマーカを示す情報を表示するようにしてもよい。例えば、図39に示すように、通常モードにおけるゲーム画面の右上隅に、現在選択されているマーカを示す情報ウィンドウ210を示すようにすればよい。図39では、現在は2番のマーカが選択されており、この状態でマーカ注目モードへの切替操作を行うと、2番のマーカが設定されたマーカ地点に仮想カメラが向けられることになる。つまり、図39に示す状態は、2番のマーカが選択されている状態である。   In the above-described embodiment, the case where only one marker 103 is used has been exemplified. However, a plurality of markers may be used. For example, on the bird's eye view screen in the 2D mode, as shown in FIG. 38, a plurality of markers 103 may be displayed (markers 103a to 103c), and a plurality of marker point data 131 corresponding to each marker may be prepared. In FIG. 38, images with numbers 1 to 3 are displayed as the images of the markers, and each marker can be identified by these numbers. In this case, a plurality of marker point data Any one of 131 is selected, and information for indicating the selected marker is stored in the external main memory 12. Then, information indicating the marker currently selected may be displayed on the game screen in the normal mode. For example, as shown in FIG. 39, an information window 210 indicating the currently selected marker may be displayed in the upper right corner of the game screen in the normal mode. In FIG. 39, the second marker is currently selected, and when the switching operation to the marker attention mode is performed in this state, the virtual camera is directed to the marker point where the second marker is set. That is, the state shown in FIG. 39 is a state in which the second marker is selected.

また、上記図39のような画面において、所定の操作を行うことで、選択されているマーカ地点データを切り替え可能にしてもよい。すなわち、図39の画面でマーカ切替のための所定の操作を行うことで、上記複数のマーカ地点データのうちの一つを所定の順序で選択することを可能とすればよい。そして、当該操作に応じて、情報ウィンドウ210内のマーカ画像が上記所定の順序に沿って、例えば、1番→2番→3番→1番・・・のように順に切り替わって表示されるようにすればよい。もちろん、複数のマーカ画像を通常モード時のゲーム画面上に全て表示するようにしても良い。その上で、任意のマーカ画像を選択できるようにしても良い。   In addition, the selected marker point data may be switched by performing a predetermined operation on the screen as shown in FIG. That is, it is only necessary to select one of the plurality of marker point data in a predetermined order by performing a predetermined operation for marker switching on the screen of FIG. Then, in response to the operation, the marker images in the information window 210 are displayed in the predetermined order, for example, sequentially switched from No. 1 to No. 2 to No. 3 to No. 1. You can do it. Of course, a plurality of marker images may all be displayed on the game screen in the normal mode. In addition, an arbitrary marker image may be selected.

また、上記複数のマーカ地点データを、入力装置で入力可能な操作のいずれかと1対1で対応づけて、1度の操作(ワン・アクション)だけでマーカ地点を選択可能としてもよい。例えば、上述の3つのマーカ地点をそれぞれ、十字キー72aの上(前)、右、左と対応付け、プレイヤが十字キー72aの右部分を押下するだけで、2番目のマーカ地点が選択されるようにしてもよい。   Further, the plurality of marker point data may be associated with one of the operations that can be input by the input device on a one-to-one basis so that the marker point can be selected by only one operation (one action). For example, the above three marker points are respectively associated with the upper (front), right, and left of the cross key 72a, and the second marker point is selected simply by pressing the right part of the cross key 72a. You may do it.

また、上記実施形態では、上記マーカ注目モードにおける仮想カメラの位置として、マーカ地点とプレイヤオブジェクト101を結ぶ直線109を延長した直線上に仮想カメラが配置される場合を例に挙げた。仮想カメラの位置については、これに限らず、当該直線の近傍に配置するようにしても良い(図40参照)。例えば、仮想カメラがプレイヤオブジェクト101を少し遅れて追いかける「追尾カメラ」のような仮想カメラ制御を行う場合に、マーカ注目モードに切り替わった直後は、上記直線の近傍に仮想カメラを配置し、徐々に当該直線上に位置するよう移動させる制御を行っても良い。   Moreover, in the said embodiment, the case where a virtual camera was arrange | positioned as an example of the position of the virtual camera in the said marker attention mode on the straight line which extended the straight line 109 which connects a marker point and the player object 101 was mentioned as an example. The position of the virtual camera is not limited to this, and it may be arranged near the straight line (see FIG. 40). For example, when performing virtual camera control such as “tracking camera” in which the virtual camera follows the player object 101 with a slight delay, immediately after switching to the marker attention mode, the virtual camera is arranged in the vicinity of the straight line and gradually You may perform control which moves so that it may be located on the said straight line.

また、上記実施形態では、マーカ注目モードおよび通常モードにおいては、プレイヤキャラクタ101の全身が表示されるような位置に仮想カメラを配置していたが、これに限らず、プレイヤオブジェクト101の一部のみがゲーム画面に表示されるような制御を行っても良い。換言すれば、プレイヤオブジェクトの少なくとも一部がゲーム画面に表示されるような仮想カメラの制御を行っても良い。   Further, in the above embodiment, in the marker attention mode and the normal mode, the virtual camera is arranged at a position where the whole body of the player character 101 is displayed. Control may be performed so that is displayed on the game screen. In other words, the virtual camera may be controlled such that at least a part of the player object is displayed on the game screen.

本発明にかかるゲームプログラムおよびゲーム装置は、仮想3次元空間内の任意の地点の方向をプレイヤにわかりやすく提示することができ、据置型ゲーム装置や携帯型ゲーム装置、PDAやパーソナルコンピュータ等に有用である。   The game program and the game device according to the present invention can easily show the direction of an arbitrary point in the virtual three-dimensional space to the player, and are useful for a stationary game device, a portable game device, a PDA, a personal computer, and the like. It is.

本発明の一実施形態に係るゲームシステム1を説明するための外観図1 is an external view for explaining a game system 1 according to an embodiment of the present invention. 図1のゲーム装置本体5の機能ブロック図Functional block diagram of the game apparatus body 5 of FIG. 図1のコントローラ7の上面後方から見た斜視図The perspective view seen from the upper surface back of the controller 7 of FIG. 図3のコントローラ7を下面前方から見た斜視図The perspective view which looked at the controller 7 of FIG. 3 from the lower surface front 図3のコントローラ7の上ハウジングを外した状態を示す斜視図The perspective view which shows the state which removed the upper housing of the controller 7 of FIG. 図3のコントローラ7の下ハウジングを外した状態を示す斜視図The perspective view which shows the state which removed the lower housing of the controller 7 of FIG. 図3のコントローラ7の構成を示すブロック図The block diagram which shows the structure of the controller 7 of FIG. 撮像画像の一例を示す図The figure which shows an example of a captured image コントローラ7を把持した状態を示す図The figure which shows the state which hold | gripped the controller 7 本実施形態で想定するゲーム画面の一例Example of game screen assumed in this embodiment 本実施形態で想定するゲーム画面の一例Example of game screen assumed in this embodiment 通常モードでのカメラ制御について説明するための図Diagram for explaining camera control in normal mode 本実施形態で想定するゲーム画面の一例Example of game screen assumed in this embodiment 本実施形態で想定するゲーム画面の一例Example of game screen assumed in this embodiment 本実施形態で想定するゲーム画面の一例Example of game screen assumed in this embodiment 本実施形態で想定するゲーム画面の一例Example of game screen assumed in this embodiment マーカ注目モードでのカメラ制御について説明するための図Diagram for explaining camera control in marker attention mode マーカ注目モードでのカメラ制御について説明するための図Diagram for explaining camera control in marker attention mode 本実施形態で想定するゲーム画面の一例Example of game screen assumed in this embodiment 本実施形態で想定するゲーム画面の一例Example of game screen assumed in this embodiment 本実施形態で想定するゲーム画面の一例Example of game screen assumed in this embodiment マーカ注目モードでのカメラ制御について説明するための図Diagram for explaining camera control in marker attention mode マーカ注目モードでのカメラ制御について説明するための図Diagram for explaining camera control in marker attention mode マーカ注目モードでのカメラ制御について説明するための図Diagram for explaining camera control in marker attention mode マーカ注目モードでのカメラ制御について説明するための図Diagram for explaining camera control in marker attention mode 本実施形態で想定するゲーム画面の一例Example of game screen assumed in this embodiment 本実施形態で想定するゲーム画面の一例Example of game screen assumed in this embodiment 本実施形態で想定するゲーム画面の一例Example of game screen assumed in this embodiment 本実施形態で想定するゲーム画面の一例Example of game screen assumed in this embodiment 各モード間の遷移とこれに伴う操作の関係を示す図The figure which shows the relation between the transition between each mode and the operation which accompanies this ゲーム装置本体3のメインメモリ12のメモリマップを示す図The figure which shows the memory map of the main memory 12 of the game device main body 3 本発明の実施形態に係るゲーム処理を示すフローチャートThe flowchart which shows the game processing which concerns on embodiment of this invention 図32のステップS3で示した通常モード処理の詳細を示したフローチャートThe flowchart which showed the detail of the normal mode process shown by step S3 of FIG. 図32のステップS4で示した2Dモード処理の詳細を示したフローチャートThe flowchart which showed the detail of 2D mode process shown by step S4 of FIG. 図33のステップS20で示したマーカ注目処理の詳細を示したフローチャートThe flowchart which showed the detail of the marker attention process shown by step S20 of FIG. 図33のステップS23で示したポインタロック処理の詳細を示したフローチャートThe flowchart which showed the detail of the pointer lock process shown by step S23 of FIG. 図33のステップS19で示した主観モード処理の詳細を示したフローチャートThe flowchart which showed the detail of the subjective mode process shown by step S19 of FIG. 複数のマーカを用いる場合のゲーム画面の一例Example of game screen when using multiple markers 複数のマーカを用いる場合のゲーム画面の一例Example of game screen when using multiple markers 仮想カメラの配置の一例Example of virtual camera placement

符号の説明Explanation of symbols

1…ゲームシステム
2…モニタ
2a…スピーカ
3…ゲーム装置
4…光ディスク
7…コントローラ
10…CPU
11…システムLSI
11a…入出力プロセッサ
11b…GPU
11c…DSP
11d…VRAM
11e…内部メインメモリ
12…外部メインメモリ
13…ROM/RTC
14…ディスクドライブ
15…AV−IC
16…AVコネクタ
17…フラッシュメモリ
18…無線通信モジュール
19…無線コントローラモジュール
20…拡張コネクタ
21…外部メモリカード用コネクタ
22…アンテナ
23…アンテナ
24…電源ボタン
25…リセットボタン
26…イジェクトボタン
71…ハウジング
72…操作部
73…コネクタ
74…撮像情報演算部
741…赤外線フィルタ
742…レンズ
743…撮像素子
744…画像処理回路
75…通信部
751…マイコン
752…メモリ
753…無線モジュール
754…アンテナ
700…基板
701…加速度センサ
702…LED
703…水晶振動子
704…バイブレータ
707…サウンドIC
708…アンプ
DESCRIPTION OF SYMBOLS 1 ... Game system 2 ... Monitor 2a ... Speaker 3 ... Game device 4 ... Optical disk 7 ... Controller 10 ... CPU
11 ... System LSI
11a: I / O processor 11b: GPU
11c DSP
11d ... VRAM
11e ... internal main memory 12 ... external main memory 13 ... ROM / RTC
14 ... Disk drive 15 ... AV-IC
16 ... AV connector 17 ... Flash memory 18 ... Wireless communication module 19 ... Wireless controller module 20 ... Expansion connector 21 ... External memory card connector 22 ... Antenna 23 ... Antenna 24 ... Power button 25 ... Reset button 26 ... Eject button 71 ... Housing 72 ... Operation unit 73 ... Connector 74 ... Imaging information calculation unit 741 ... Infrared filter 742 ... Lens 743 ... Imaging element 744 ... Image processing circuit 75 ... Communication unit 751 ... Microcomputer 752 ... Memory 753 ... Wireless module 754 ... Antenna 700 ... Substrate 701 ... Acceleration sensor 702 ... LED
703 ... Crystal oscillator 704 ... Vibrator 707 ... Sound IC
708 ... amplifier

Claims (20)

仮想カメラで撮影された仮想3次元空間において、当該空間内に存在するプレイヤオブジェクトを入力装置で操作するゲーム装置のコンピュータに実行させるゲームプログラムであって、
前記コンピュータを、
前記入力装置から出力される操作情報を取得する操作情報取得手段と、
前記操作情報取得手段で取得した操作情報に基づいて、前記仮想3次元空間内の任意の地点をマーカ地点として設定するマーカ地点設定手段と、
前記仮想カメラの視線方向に前記マーカ地点が位置するように仮想カメラの位置および向きを設定するマーカ地点注目手段として機能させる、ゲームプログラム。
In a virtual three-dimensional space photographed by a virtual camera, a game program that causes a computer of a game device that operates a player object existing in the space with an input device to be executed,
The computer,
Operation information acquisition means for acquiring operation information output from the input device;
Marker point setting means for setting an arbitrary point in the virtual three-dimensional space as a marker point based on the operation information acquired by the operation information acquisition means;
A game program that functions as a marker point attention unit that sets the position and orientation of a virtual camera so that the marker point is positioned in the line-of-sight direction of the virtual camera.
前記ゲームプログラムは、前記コンピュータを、前記操作情報で示される操作内容が、前記仮想カメラの視線方向を前記マーカ地点に向けるための指示か否かを判定する注目指示判定手段として更に機能させ、
前記マーカ地点注目手段は、前記注目指示判定手段が、前記操作内容が前記仮想カメラの視線方向を前記マーカ地点に向けるための指示であると判定したときに、前記仮想カメラの位置および向きを設定する、請求項1に記載のゲームプログラム。
The game program further causes the computer to function as attention instruction determination means for determining whether or not the operation content indicated by the operation information is an instruction for directing the visual line direction of the virtual camera toward the marker point,
The marker point attention unit sets the position and orientation of the virtual camera when the attention instruction determination unit determines that the operation content is an instruction to direct the visual line direction of the virtual camera toward the marker point. The game program according to claim 1.
前記ゲームプログラムは、前記コンピュータを、前記注目指示判定手段が、前記操作内容が前記仮想カメラの視線方向を前記マーカ地点に向けるための指示であると判定したとき、マーカ地点が設定されているか否かを判定するマーカ地点存在判定手段として更に機能させ、
前記マーカ地点注目手段は、前記マーカ地点存在判定手段が、前記マーカ地点が設定されていないと判定したとき、予め定められている所定の地点が前記仮想カメラの視線方向に位置するように前記仮想カメラの位置と向きを設定する、請求項2に記載のゲームプログラム。
The game program determines whether or not a marker point is set when the attention instruction determination unit determines that the operation content is an instruction for directing the visual line direction of the virtual camera toward the marker point. It further functions as a marker point presence determination means for determining whether
The marker point notifying unit is configured so that when the marker point presence determining unit determines that the marker point is not set, the virtual point is set so that a predetermined point is positioned in the line-of-sight direction of the virtual camera. The game program according to claim 2, wherein the camera position and orientation are set.
前記マーカ地点注目手段は、前記プレイヤオブジェクトの少なくとも一部が前記仮想カメラの撮影範囲内に含まれるような位置に当該仮想カメラを移動させる、請求項1に記載のゲームプログラム。   The game program according to claim 1, wherein the marker point attention unit moves the virtual camera to a position where at least a part of the player object is included in a shooting range of the virtual camera. 前記マーカ地点注目手段は、前記マーカ地点と前記プレイヤオブジェクトとを結ぶ直線の近傍に前記仮想カメラを移動させる、請求項1に記載のゲームプログラム。   The game program according to claim 1, wherein the marker spot attention unit moves the virtual camera in the vicinity of a straight line connecting the marker spot and the player object. 前記マーカ地点注目手段は、前記仮想カメラの視線上に前記プレイヤオブジェクトが位置するように前記仮想カメラを移動させる、請求項1に記載のゲームプログラム。   The game program according to claim 1, wherein the marker point attention unit moves the virtual camera so that the player object is positioned on the line of sight of the virtual camera. 前記ゲームプログラムは、前記コンピュータを、前記仮想3次元空間を鳥瞰した画像である鳥瞰画像を生成して表示する鳥瞰画像表示手段として更に機能させ、
前記マーカ地点設定手段は、前記操作情報取得手段で取得した操作情報に基づいて、前記鳥瞰画像に対して前記マーカ地点を設定する、請求項1に記載のゲームプログラム。
The game program causes the computer to further function as a bird's-eye image display means for generating and displaying a bird's-eye image that is an image obtained by bird's-eye view of the virtual three-dimensional space;
The game program according to claim 1, wherein the marker spot setting unit sets the marker spot for the bird's-eye view image based on the operation information acquired by the operation information acquisition unit.
前記ゲームプログラムは、前記コンピュータを、前記仮想3次元空間に対応した2次元マップ画像を表示する2次元マップ表示手段として更に機能させ、
前記マーカ地点設定手段は、前記操作情報取得手段で取得した操作情報に基づいて、前記2次元マップ画像に対して前記マーカ地点を設定する、請求項1に記載のゲームプログラム。
The game program causes the computer to further function as a two-dimensional map display means for displaying a two-dimensional map image corresponding to the virtual three-dimensional space,
The game program according to claim 1, wherein the marker spot setting unit sets the marker spot for the two-dimensional map image based on the operation information acquired by the operation information acquisition unit.
前記ゲームプログラムは、前記コンピュータを、前記操作情報で示される操作内容が、前記仮想カメラの視線方向を前記マーカ地点に向けるための指示か否かを判定する注目指示判定手段として更に機能させ、
前記2次元マップ表示手段は、前記注目指示判定手段が、前記操作内容が前記仮想カメラの視線方向を前記マーカ地点に向けるための指示であると判定したときに、前記マーカ地点を前記2次元画像マップの上部に位置するように表示する、請求項8に記載のゲームプログラム。
The game program further causes the computer to function as attention instruction determination means for determining whether or not the operation content indicated by the operation information is an instruction for directing the visual line direction of the virtual camera toward the marker point,
The two-dimensional map display means, when the attention instruction determination means determines that the operation content is an instruction for directing the line-of-sight direction of the virtual camera to the marker spot, the marker spot as the two-dimensional image. The game program according to claim 8, wherein the game program is displayed so as to be positioned at an upper part of the map.
前記ゲームプログラムは、前記コンピュータを、前記操作情報取得手段で取得した操作情報に基づいて、前記2次元マップ画像上でカーソルを操作するカーソル操作手段として更に機能させ、
前記マーカ地点設定手段は、前記カーソル操作手段で操作されたカーソルで指示された位置座標に基づいて前記マーカ地点を設定する、請求項8に記載のゲームプログラム。
The game program causes the computer to further function as cursor operation means for operating a cursor on the two-dimensional map image based on the operation information acquired by the operation information acquisition means,
The game program according to claim 8, wherein the marker spot setting unit sets the marker spot based on a position coordinate indicated by a cursor operated by the cursor operating unit.
前記ゲームプログラムは、前記コンピュータを、前記操作情報取得手段で取得した操作情報に基づいて、前記仮想3次元空間内でカーソルを操作するカーソル操作手段として更に機能させ、
前記マーカ地点設定手段は、前記カーソル操作手段で操作されたカーソルで指示された位置座標に基づいて前記マーカ地点を設定する、請求項1に記載のゲームプログラム。
The game program causes the computer to further function as cursor operation means for operating a cursor in the virtual three-dimensional space based on the operation information acquired by the operation information acquisition means.
The game program according to claim 1, wherein the marker spot setting unit sets the marker spot based on a position coordinate indicated by a cursor operated by the cursor operating unit.
前記マーカ地点設定手段は、前記マーカ地点を複数設定可能である、請求項1に記載のゲームプログラム。   The game program according to claim 1, wherein the marker spot setting means can set a plurality of marker spots. 前記ゲームプログラムは、前記コンピュータを、所定の操作に応じて、前記複数のマーカ地点のうちの一つを所定の順序で選択するマーカ地点選択手段として更に機能させ、
前記マーカ地点注目手段は、マーカ地点選択手段で選択された前記マーカ地点が前記仮想カメラの視線方向に位置するように当該仮想カメラの位置と向きを設定する、請求項12に記載のゲームプログラム。
The game program further causes the computer to function as marker point selection means for selecting one of the plurality of marker points in a predetermined order in response to a predetermined operation,
The game program according to claim 12, wherein the marker spot attention unit sets the position and orientation of the virtual camera so that the marker spot selected by the marker spot selection unit is positioned in the line-of-sight direction of the virtual camera.
前記ゲームプログラムは、前記コンピュータを、前記入力装置の操作の種類にそれぞれ対応付けられた前記複数のマーカ地点のうちの一つを、当該入力装置を操作することにより選択するマーカ地点選択手段として更に機能させ、
前記マーカ地点注目手段は、マーカ地点選択手段で選択された前記マーカ地点が前記仮想カメラの視線方向に位置するように当該仮想カメラの位置と向きを設定する、請求項12に記載のゲームプログラム。
The game program further serves as marker point selection means for selecting the computer by operating one of the plurality of marker points associated with the type of operation of the input device by operating the input device. Make it work
The game program according to claim 12, wherein the marker spot attention unit sets the position and orientation of the virtual camera so that the marker spot selected by the marker spot selection unit is positioned in the line-of-sight direction of the virtual camera.
前記ゲームプログラムは、前記コンピュータを、前記複数のマーカ地点のうち前記マーカ地点選択手段によって選択されているマーカ地点を示すための表示をゲーム画面上に表示する選択中マーカ表示手段として更に機能させる、請求項13または請求項14に記載のゲームプログラム。   The game program further causes the computer to function as a selected marker display unit that displays on the game screen a display for indicating a marker point selected by the marker point selection unit among the plurality of marker points. The game program according to claim 13 or claim 14. 前記選択中マーカ表示手段は、前記マーカ地点選択手段で選択されているマーカ地点に対応したオブジェクトを表示する、請求項15に記載のゲームプログラム。   The game program according to claim 15, wherein the selected marker display unit displays an object corresponding to the marker point selected by the marker point selection unit. 前記ゲームプログラムは、前記コンピュータを、前記マーカ地点設定手段で設定されたマーカ地点に所定のオブジェクトを配置するオブジェクト配置手段として更に機能させる、請求項1に記載のゲームプログラム。   The game program according to claim 1, wherein the game program further causes the computer to function as an object placement unit that places a predetermined object at a marker point set by the marker point setting unit. 前記ゲームプログラムは、前記コンピュータを、前記操作情報取得手段で取得した操作情報に基づいて、前記仮想3次元空間内において前記プレイヤオブジェクトを移動させるプレイヤオブジェクト移動手段として更に機能させ、
前記プレイヤオブジェクト移動手段は、前記プレイヤオブジェクトを前記仮想カメラの視線方向に対して垂直方向へ移動させる指示である時、前記仮想3次元空間内において前記プレイヤオブジェクトを、前記マーカ地点を中心に円形に移動させる、請求項1に記載のゲームプログラム。
The game program causes the computer to further function as player object moving means for moving the player object in the virtual three-dimensional space based on the operation information acquired by the operation information acquiring means.
When the player object moving means is an instruction to move the player object in a direction perpendicular to the line-of-sight direction of the virtual camera, the player object moves the player object in a circle around the marker point in the virtual three-dimensional space. The game program according to claim 1, which is moved.
前記ゲームプログラムは、前記コンピュータを、
前記プレイヤオブジェクト以外の所定のオブジェクトを前記操作情報に基づいて特定するオブジェクト特定手段と、
前記特定されたオブジェクトの特定を解除するための所定の条件が満たされたか否かを判定する特定解除判定手段と、
前記特定されたオブジェクトの解除条件が満たされるまでの間、当該特定されたオブジェクトに前記仮想カメラの注視点を設定する特定オブジェクト注目手段として更に機能させる、請求項1に記載のゲームプログラム。
The game program causes the computer to
Object specifying means for specifying a predetermined object other than the player object based on the operation information;
Specific release determination means for determining whether or not a predetermined condition for canceling the specification of the specified object is satisfied;
The game program according to claim 1, further causing the specified object to further function as a specific object attention unit that sets a gazing point of the virtual camera until the specified object release condition is satisfied.
仮想カメラで撮影された仮想3次元空間において、当該空間内に存在するプレイヤオブジェクトを入力装置で操作するゲーム装置であって、
前記入力装置から出力される操作情報を取得する操作情報取得手段と、
前記操作情報取得手段で取得した操作情報に基づいて、前記仮想3次元空間内の任意の地点をマーカ地点として設定するマーカ地点設定手段と、
前記仮想カメラの視線方向に前記マーカ地点が位置するように仮想カメラの位置および向きを設定するマーカ地点注目手段とを備える、ゲーム装置。
In a virtual three-dimensional space photographed by a virtual camera, a game device for operating a player object existing in the space with an input device,
Operation information acquisition means for acquiring operation information output from the input device;
Marker point setting means for setting an arbitrary point in the virtual three-dimensional space as a marker point based on the operation information acquired by the operation information acquisition means;
A game apparatus comprising: marker point attention means for setting the position and orientation of a virtual camera so that the marker point is positioned in the line-of-sight direction of the virtual camera.
JP2008322305A 2008-12-18 2008-12-18 Game program, and game apparatus Pending JP2010142404A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008322305A JP2010142404A (en) 2008-12-18 2008-12-18 Game program, and game apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008322305A JP2010142404A (en) 2008-12-18 2008-12-18 Game program, and game apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014119555A Division JP5945297B2 (en) 2014-06-10 2014-06-10 GAME PROGRAM AND GAME DEVICE

Publications (1)

Publication Number Publication Date
JP2010142404A true JP2010142404A (en) 2010-07-01

Family

ID=42563452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008322305A Pending JP2010142404A (en) 2008-12-18 2008-12-18 Game program, and game apparatus

Country Status (1)

Country Link
JP (1) JP2010142404A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012170648A (en) * 2011-02-22 2012-09-10 Nintendo Co Ltd Game device, game program, game system and game processing method
JP2014057810A (en) * 2012-09-19 2014-04-03 Copcom Co Ltd Game program and game system
JP2017006767A (en) * 2016-10-19 2017-01-12 株式会社カプコン Game program and game system
JP2017074162A (en) * 2015-10-14 2017-04-20 株式会社スクウェア・エニックス Game program and game system
JP2019037877A (en) * 2018-12-13 2019-03-14 株式会社スクウェア・エニックス Video game processor, video game processing method, and video game processing program
JP2019051391A (en) * 2018-12-13 2019-04-04 株式会社コナミデジタルエンタテインメント Game device, game device program, and game system
CN111773670A (en) * 2020-07-10 2020-10-16 网易(杭州)网络有限公司 Marking method, device, equipment and storage medium in game

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004223285A (en) * 2004-05-06 2004-08-12 Nintendo Co Ltd Game device and storage medium thereof
JP2005230263A (en) * 2004-02-19 2005-09-02 Nintendo Co Ltd Game device and game program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005230263A (en) * 2004-02-19 2005-09-02 Nintendo Co Ltd Game device and game program
JP2004223285A (en) * 2004-05-06 2004-08-12 Nintendo Co Ltd Game device and storage medium thereof

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNB200900097001; プレイステーション2版/パソコン版対応 信長の野望 Online 破天の章 オフィシャルガイド 07 初版, 20070328, 第072頁下段, 株式会社光栄 *
JPN6013019406; プレイステーション2版/パソコン版対応 信長の野望 Online 破天の章 オフィシャルガイド 07 初版, 20070328, 第072頁下段, 株式会社光栄 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012170648A (en) * 2011-02-22 2012-09-10 Nintendo Co Ltd Game device, game program, game system and game processing method
JP2014057810A (en) * 2012-09-19 2014-04-03 Copcom Co Ltd Game program and game system
JP2017074162A (en) * 2015-10-14 2017-04-20 株式会社スクウェア・エニックス Game program and game system
US10675539B2 (en) 2015-10-14 2020-06-09 Square Enix Co., Ltd. Game program and game system
JP2017006767A (en) * 2016-10-19 2017-01-12 株式会社カプコン Game program and game system
JP2019037877A (en) * 2018-12-13 2019-03-14 株式会社スクウェア・エニックス Video game processor, video game processing method, and video game processing program
JP2019051391A (en) * 2018-12-13 2019-04-04 株式会社コナミデジタルエンタテインメント Game device, game device program, and game system
JP7161087B2 (en) 2018-12-13 2022-10-26 株式会社コナミデジタルエンタテインメント game system
CN111773670A (en) * 2020-07-10 2020-10-16 网易(杭州)网络有限公司 Marking method, device, equipment and storage medium in game
CN111773670B (en) * 2020-07-10 2024-06-04 网易(杭州)网络有限公司 Method, apparatus, device and storage medium for marking in game

Similar Documents

Publication Publication Date Title
JP5522902B2 (en) Information processing program and information processing apparatus
JP5330640B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP5390093B2 (en) GAME PROGRAM AND GAME DEVICE
JP5376874B2 (en) Image processing program and image processing apparatus
US8403753B2 (en) Computer-readable storage medium storing game program, game apparatus, and processing method
JP4919887B2 (en) Image processing program and image processing apparatus
JP5700758B2 (en) GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME PROCESSING METHOD
US9751013B2 (en) Storage medium, information processing system, and information processing method for adjusting images based on movement information
JP2010097429A (en) Information processing apparatus and information processing program
JP2008000345A (en) Game device and game program
JP2009087145A (en) Image processing program and apparatus
JP5358168B2 (en) GAME DEVICE AND GAME PROGRAM
JP2010142404A (en) Game program, and game apparatus
JP5498690B2 (en) GAME PROGRAM AND GAME DEVICE
JP5259965B2 (en) Information processing program and information processing apparatus
JP2013078624A (en) Game system and game program
JP5797046B2 (en) Pointing system, information processing system, coordinate system setting method, information processing apparatus, and information processing program
JP5945297B2 (en) GAME PROGRAM AND GAME DEVICE
JP5350612B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP5331259B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5357998B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110902

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130424

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140311