JP5764390B2 - Image generation program, image generation method, image generation apparatus, and image generation system - Google Patents

Image generation program, image generation method, image generation apparatus, and image generation system Download PDF

Info

Publication number
JP5764390B2
JP5764390B2 JP2011126771A JP2011126771A JP5764390B2 JP 5764390 B2 JP5764390 B2 JP 5764390B2 JP 2011126771 A JP2011126771 A JP 2011126771A JP 2011126771 A JP2011126771 A JP 2011126771A JP 5764390 B2 JP5764390 B2 JP 5764390B2
Authority
JP
Japan
Prior art keywords
virtual
camera
virtual camera
image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011126771A
Other languages
Japanese (ja)
Other versions
JP2012252661A (en
Inventor
宏一 林田
宏一 林田
竹内 清
清 竹内
裕介 天野
裕介 天野
Original Assignee
任天堂株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 任天堂株式会社 filed Critical 任天堂株式会社
Priority to JP2011126771A priority Critical patent/JP5764390B2/en
Priority claimed from US13/485,156 external-priority patent/US9914056B2/en
Publication of JP2012252661A publication Critical patent/JP2012252661A/en
Application granted granted Critical
Publication of JP5764390B2 publication Critical patent/JP5764390B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像生成プログラム、画像生成方法、画像生成装置、及び画像生成システムに関する。   The present invention relates to an image generation program, an image generation method, an image generation apparatus, and an image generation system.
従来の携帯型のゲーム装置の中には、ジャイロセンサが設けられているものがある(例えば、特許文献1参照)。上記特許文献1に記載された携帯型のゲーム装置では、当該ゲーム装置をユーザが動かしたときの回転角度を、ジャイロセンサを用いて検知する。そして、検知した回転角度に応じて移動させた仮想空間内の仮想カメラを用いて、仮想空間内の仮想オブジェクトなどを撮像した画像を生成する。これにより、上記特許文献1では、携帯型のゲーム装置を動かすことによって仮想カメラの位置を動かして、異なる視点から見た仮想オブジェクトを表示できる。   Some conventional portable game devices are provided with a gyro sensor (see, for example, Patent Document 1). In the portable game device described in Patent Document 1, the rotation angle when the user moves the game device is detected using a gyro sensor. And the image which imaged the virtual object etc. in a virtual space is produced | generated using the virtual camera in the virtual space moved according to the detected rotation angle. Thereby, in the said patent document 1, the position of a virtual camera can be moved by moving a portable game device, and the virtual object seen from the different viewpoint can be displayed.
特開2002−298160号公報JP 2002-298160 A
上記特許文献1には、単に、ジャイロセンサを用いて仮想カメラを制御することが開示されている。   Patent Document 1 discloses that a virtual camera is simply controlled using a gyro sensor.
本発明は、操作性を向上できる画像生成プログラム、画像生成方法、画像生成装置及び画像生成システムを提供することを目的とする。   An object of the present invention is to provide an image generation program, an image generation method, an image generation apparatus, and an image generation system that can improve operability.
本発明は、上記の課題を解決するために、以下の構成を採用した。   The present invention employs the following configuration in order to solve the above problems.
本発明の画像生成プログラムは、表示手段を備える表示装置のコンピュータにおいて実行される画像生成プログラムである。上記画像生成プログラムは、上記コンピュータを、オブジェクト移動手段、仮想カメラ設定手段、有効化手段、画像生成手段として機能させる。オブジェクト移動手段は、ユーザによるオブジェクト移動操作を受付け、当該操作に基づいて仮想空間内のオブジェクトを移動させる。仮想カメラ設定手段は、上記オブジェクト移動手段によって移動されたオブジェクトの仮想空間内での位置と姿勢と進行方向との少なくとも一つに基づいて、前記仮想空間内に仮想カメラを設定する。有効化手段は、ユーザによる所定の有効化操作を受付け、表示部の姿勢に応じた仮想ステレオカメラの姿勢制御である第1カメラ制御を有効化する。画像生成手段は、上記第1カメラ制御が有効化されている場合は、上記仮想カメラ設定手段によって設定された仮想カメラの姿勢を、表示装置の姿勢に応じて変化させて、当該姿勢を変化させた仮想カメラによって仮想空間を撮像し、上記第1カメラ制御が有効化されていない場合は、上記仮想カメラ設定手段によって設定された仮想カメラを用いて仮想空間を撮像して、表示手段に表示する画像を生成する。   The image generation program of the present invention is an image generation program that is executed in a computer of a display device including display means. The image generation program causes the computer to function as an object moving unit, a virtual camera setting unit, an enabling unit, and an image generating unit. The object moving means receives an object moving operation by the user and moves an object in the virtual space based on the operation. The virtual camera setting means sets a virtual camera in the virtual space based on at least one of the position, posture and traveling direction of the object moved by the object moving means in the virtual space. The validation means accepts a predetermined validation operation by the user and validates the first camera control that is the attitude control of the virtual stereo camera in accordance with the attitude of the display unit. When the first camera control is enabled, the image generation means changes the attitude of the virtual camera set by the virtual camera setting means according to the attitude of the display device, and changes the attitude. If the first camera control is not enabled, the virtual space is imaged using the virtual camera set by the virtual camera setting means and displayed on the display means. Generate an image.
上記構成例によれば、オブジェクトの位置と姿勢と進行方向との少なくとも一つに基づいて仮想カメラの設定が決まるので、ユーザ操作に応じてオブジェクトを移動させつつ、仮想カメラのを適切な位置に設定することができ、さらに、ユーザが所定の有効化操作をすることによって装置の姿勢に応じて仮想カメラを動かすことができるようになるため、例えば仮想空間内で周りを見回しつつオブジェクトを移動させることもでき、多様な操作が可能となる。   According to the above configuration example, the setting of the virtual camera is determined based on at least one of the position, posture, and traveling direction of the object, so that the virtual camera is moved to an appropriate position while moving the object according to the user operation. In addition, since the virtual camera can be moved according to the posture of the device by the user performing a predetermined enabling operation, for example, the object is moved while looking around in the virtual space It is possible to perform various operations.
他の構成例として、上記画像生成プログラムは、上記画像生成手段を、第1カメラ制御が有効化されている場合に、上記第1カメラ制御が有効化された時の表示装置の姿勢を基準姿勢として、当該基準姿勢からの装置の姿勢の変化量に基づいて、前記仮想カメラの姿勢を変化させるように機能させてもよい。   As another configuration example, the image generation program uses the image generation unit to determine the orientation of the display device when the first camera control is enabled when the first camera control is enabled as a reference posture. Alternatively, the virtual camera may be caused to function based on the amount of change in the posture of the apparatus from the reference posture.
上記構成例によれば、ユーザによる有効化操作があったときの位置を基準姿勢として、そこからの変化量で仮想カメラ制御するため、ユーザが姿勢を変化した後で有効化操作をしたような場合に、急激に仮想カメラが動いてしまうようなことがない。   According to the above configuration example, since the virtual camera is controlled with the amount of change from the position when the user performs the activation operation as a reference posture, the user performs the activation operation after changing the posture. In this case, the virtual camera does not move suddenly.
他の構成例として、上記画像生成プログラムは、前記画像生成手段を、第1カメラ制御が有効化された状態から当該第1カメラ制御の有効化が解除された場合に、当該解除された時の前記表示装置の姿勢に関わらず、前記仮想カメラ設定手段によって設定された仮想カメラの姿勢を変化させずそのまま用いるように機能させてもよい。   As another configuration example, the image generation program causes the image generation unit to release the first camera control when the first camera control is released from the state where the first camera control is enabled. Regardless of the orientation of the display device, the virtual camera set by the virtual camera setting means may be used as it is without being changed.
また他の構成例として、上記画像生成プログラムは、上記仮想カメラ設定手段を、上記オブジェクトが撮像範囲に含まれるように仮想カメラを設定するように機能させてもよい。   As another configuration example, the image generation program may cause the virtual camera setting unit to function so as to set the virtual camera so that the object is included in the imaging range.
上記構成例によれば、第1カメラ制御の有効化が解除された場合には、仮想カメラ設定手段によって設定された仮想カメラによる撮像画像が表示手段に表示されるので、仮想カメラの姿勢を大きく変化させてしまって元の状態に戻したいような場合に、有効化操作を解除すればよく、容易な操作で通常の状態に戻すことができる。さらに仮想カメラ設定手段が、上記オブジェクトが撮像範囲に含まれるように仮想カメラを設定している場合、第1カメラ制御の有効化を解除すれば、オブジェクトが表示手段に表示されている状態にすることができる。   According to the above configuration example, when the first camera control is deactivated, the image captured by the virtual camera set by the virtual camera setting unit is displayed on the display unit. When it is desired to change the state and return to the original state, the activation operation may be canceled, and the normal state can be returned with an easy operation. Further, when the virtual camera setting means has set the virtual camera so that the object is included in the imaging range, the object is displayed on the display means if the first camera control is deactivated. be able to.
本発明によれば、操作性を向上できる画像生成プログラム、画像生成方法、画像生成装置及び画像生成システムを提供できる。   According to the present invention, it is possible to provide an image generation program, an image generation method, an image generation apparatus, and an image generation system that can improve operability.
本発明の実施形態に係るゲーム装置の外部構成の一例を示す図The figure which shows an example of the external structure of the game device which concerns on embodiment of this invention 本発明の実施形態に係るゲーム装置の内部構成の一例を示す図The figure which shows an example of the internal structure of the game device which concerns on embodiment of this invention. 本発明の実施形態におけるゲーム装置の使用例とその際の表示画面および仮想空間の一例を示す図The figure which shows the example of use of the game device in embodiment of this invention, and an example of the display screen and virtual space in that case 本発明の実施形態におけるゲーム装置の使用例とその際の表示画面および仮想空間の一例を示す図The figure which shows the example of use of the game device in embodiment of this invention, and an example of the display screen and virtual space in that case 本発明の実施形態におけるゲーム装置の使用例とその際の表示画面および仮想空間の一例を示す図The figure which shows the example of use of the game device in embodiment of this invention, and an example of the display screen and virtual space in that case 本発明の実施形態におけるメモリマップの一例を示す図The figure which shows an example of the memory map in embodiment of this invention 本発明の実施形態に係るゲーム装置のCPUが情報処理プログラムを実行することによって行われる表示制御処理のフローチャートの一例を示す図The figure which shows an example of the flowchart of the display control process performed when CPU of the game device which concerns on embodiment of this invention performs an information processing program. 本発明の実施形態に係るゲーム装置のCPUが情報処理プログラムを実行することによって行われる表示制御処理のフローチャートの一例を示す図The figure which shows an example of the flowchart of the display control process performed when CPU of the game device which concerns on embodiment of this invention performs an information processing program. 本発明の実施形態に係る仮想ステレオカメラの配置方法の一例を示す図The figure which shows an example of the arrangement | positioning method of the virtual stereo camera which concerns on embodiment of this invention
[ゲーム装置の外観構成]
以下、本発明の実施形態の一例(第1の実施形態)に係るゲーム装置について説明する。図1は、ゲーム装置10の外観を示す平面図である。ゲーム装置10は携帯型のゲーム装置であり、折り畳み可能に構成されている。図1は、開いた状態(開状態)におけるゲーム装置10の正面図を示している。ゲーム装置10は、撮像部によって画像を撮像し、撮像した画像を画面に表示したり、撮像した画像のデータを保存したりすることが可能である。また、ゲーム装置10は、交換可能なメモリカード内に記憶され、または、サーバや他のゲーム装置から受信したゲームプログラムを実行可能であり、仮想空間に設定された仮想カメラで撮像した画像などのコンピュータグラフィックス処理により生成された画像を画面に表示したりすることができる。
[External configuration of game device]
Hereinafter, a game device according to an example of the embodiment of the present invention (first embodiment) will be described. FIG. 1 is a plan view showing an appearance of the game apparatus 10. The game apparatus 10 is a portable game apparatus and is configured to be foldable. FIG. 1 shows a front view of the game apparatus 10 in an open state (open state). The game apparatus 10 can capture an image with an imaging unit, display the captured image on a screen, and store data of the captured image. In addition, the game apparatus 10 is capable of executing a game program stored in a replaceable memory card or received from a server or another game apparatus, such as an image captured by a virtual camera set in a virtual space. An image generated by computer graphics processing can be displayed on the screen.
まず、図1を参照して、ゲーム装置10の外観構成について説明する。図1に示されるように、ゲーム装置10は、下側ハウジング11及び上側ハウジング21を有する。下側ハウジング11と上側ハウジング21とは、開閉可能(折り畳み可能)に接続されている。   First, an external configuration of the game apparatus 10 will be described with reference to FIG. As shown in FIG. 1, the game apparatus 10 includes a lower housing 11 and an upper housing 21. The lower housing 11 and the upper housing 21 are connected so as to be openable and closable (foldable).
(下側ハウジングの説明)
まず、下側ハウジング11の構成について説明する。図1に示すように、下側ハウジング11には、下側LCD(Liquid Crystal Display:液晶表示装置)12、タッチパネル13、各操作ボタン14A〜14I、アナログスティック15、LED16A〜16B、挿入口17、及び、マイクロフォン用孔18が設けられる。以下、これらの詳細について説明する。
(Description of lower housing)
First, the configuration of the lower housing 11 will be described. As shown in FIG. 1, the lower housing 11 includes a lower LCD (Liquid Crystal Display) 12, a touch panel 13, operation buttons 14A to 14I, an analog stick 15, LEDs 16A to 16B, an insertion port 17, In addition, a microphone hole 18 is provided. Details of these will be described below.
図1に示すように、下側LCD12は下側ハウジング11に収納される。下側LCD12の画素数は、例えば、320dot×240dot(横×縦)であってもよい。下側LCD12は、後述する上側LCD22とは異なり、画像を(立体視可能ではなく)平面的に表示する表示装置である。なお、本実施形態では表示装置としてLCDを用いているが、例えばEL(Electro Luminescence:電界発光)を利用した表示装置など、他の任意の表示装置を利用してもよい。また、下側LCD12として、任意の解像度の表示装置を利用することができる。   As shown in FIG. 1, the lower LCD 12 is housed in the lower housing 11. The number of pixels of the lower LCD 12 may be, for example, 320 dots × 240 dots (horizontal × vertical). Unlike the upper LCD 22 described later, the lower LCD 12 is a display device that displays an image in a planar manner (not stereoscopically viewable). In the present embodiment, an LCD is used as the display device, but other arbitrary display devices such as a display device using EL (Electro Luminescence) may be used. Further, as the lower LCD 12, a display device having an arbitrary resolution can be used.
図1に示されるように、ゲーム装置10は、入力装置として、タッチパネル13を備えている。タッチパネル13は、下側LCD12の画面上に装着されている。なお、本実施形態では、タッチパネル13は抵抗膜方式のタッチパネルである。ただし、タッチパネルは抵抗膜方式に限らず、例えば静電容量方式等、任意の方式のタッチパネルを用いることができる。本実施形態では、タッチパネル13として、下側LCD12の解像度と同解像度(検出精度)のものを利用する。ただし、必ずしもタッチパネル13の解像度と下側LCD12の解像度が一致している必要はない。また、下側ハウジング11の上側面には挿入口17(図1に示す点線)が設けられている。挿入口17は、タッチパネル13に対する操作を行うために用いられるタッチペン28を収納することができる。なお、タッチパネル13に対する入力は通常タッチペン28を用いて行われるが、タッチペン28に限らずユーザの指でタッチパネル13に対する入力をすることも可能である。   As shown in FIG. 1, the game apparatus 10 includes a touch panel 13 as an input device. The touch panel 13 is mounted on the screen of the lower LCD 12. In the present embodiment, the touch panel 13 is a resistive film type touch panel. However, the touch panel is not limited to the resistive film type, and any type of touch panel such as a capacitance type can be used. In the present embodiment, the touch panel 13 having the same resolution (detection accuracy) as that of the lower LCD 12 is used. However, the resolution of the touch panel 13 and the resolution of the lower LCD 12 do not necessarily match. An insertion port 17 (dotted line shown in FIG. 1) is provided on the upper side surface of the lower housing 11. The insertion slot 17 can accommodate a touch pen 28 used for performing an operation on the touch panel 13. In addition, although the input with respect to the touchscreen 13 is normally performed using the touch pen 28, it is also possible to input with respect to the touchscreen 13 not only with the touch pen 28 but with a user's finger | toe.
各操作ボタン14A〜14Iは、所定の入力を行うための入力装置である。図1に示されるように、下側ハウジング11の内側面(主面)には、十字ボタン14A(方向入力ボタン14A)、ボタン14B、ボタン14C、ボタン14D、ボタン14E、電源ボタン14F、セレクトボタン14G、HOMEボタン14H、及びスタートボタン14Iが、設けられる。十字ボタン14Aは、十字の形状を有しており、上下左右の方向を指示するボタンを有している。ボタン14A〜14E、セレクトボタン14J、HOMEボタン14K、及びスタートボタン14Lには、ゲーム装置10が実行するプログラムに応じた機能が適宜割り当てられる。例えば、十字ボタン14Aは選択操作等に用いられ、各操作ボタン14B〜14Eは例えば決定操作やキャンセル操作等に用いられる。また、電源ボタン14Fは、ゲーム装置10の電源をオン/オフするために用いられる。   Each operation button 14A-14I is an input device for performing a predetermined input. As shown in FIG. 1, on the inner surface (main surface) of the lower housing 11, a cross button 14A (direction input button 14A), a button 14B, a button 14C, a button 14D, a button 14E, a power button 14F, a select button 14G, HOME button 14H, and start button 14I are provided. The cross button 14 </ b> A has a cross shape, and has buttons for instructing up, down, left, and right directions. Functions according to a program executed by the game apparatus 10 are appropriately assigned to the buttons 14A to 14E, the select button 14J, the HOME button 14K, and the start button 14L. For example, the cross button 14A is used for a selection operation or the like, and the operation buttons 14B to 14E are used for a determination operation or a cancel operation, for example. The power button 14F is used to turn on / off the power of the game apparatus 10.
アナログスティック15は、方向を指示するデバイスである。アナログスティック15は、そのキートップが、下側ハウジング11の内側面に平行にスライドするように構成されている。アナログスティック15は、ゲーム装置10が実行するプログラムに応じて機能する。例えば、3次元仮想空間に所定のオブジェクトが登場するゲームがゲーム装置10によって実行される場合、アナログスティック15は、当該所定のオブジェクトを3次元仮想空間内で移動させるための入力装置として機能する。この場合において、所定のオブジェクトはアナログスティック15のキートップがスライドした方向に移動される。なお、アナログスティック15として、上下左右及び斜め方向の任意の方向に所定量だけ傾倒することでアナログ入力を可能としたものを用いてもよい。   The analog stick 15 is a device that indicates a direction. The analog stick 15 is configured such that its key top slides parallel to the inner surface of the lower housing 11. The analog stick 15 functions according to a program executed by the game apparatus 10. For example, when a game in which a predetermined object appears in the three-dimensional virtual space is executed by the game apparatus 10, the analog stick 15 functions as an input device for moving the predetermined object in the three-dimensional virtual space. In this case, the predetermined object is moved in the direction in which the key top of the analog stick 15 slides. The analog stick 15 may be an analog stick that allows analog input by being tilted by a predetermined amount in any direction of up / down / left / right and diagonal directions.
また、下側ハウジング11の内側面には、マイクロフォン用孔18が設けられる。マイクロフォン用孔18の下部には後述する音声入力装置としてのマイク(図2参照)が設けられ、当該マイクがゲーム装置10の外部の音を検知する。   A microphone hole 18 is provided on the inner surface of the lower housing 11. A microphone (see FIG. 2), which will be described later, is provided below the microphone hole 18, and the microphone detects sound outside the game apparatus 10.
また、図示はしていないが、下側ハウジング11の上側面には、Lボタン14J及びRボタン14Kが設けられている。Lボタン14J及びRボタン14Kは、例えば、撮像部のシャッターボタン(撮影指示ボタン)として機能することができる。また、図示はしていないが、下側ハウジング11の左側面には、音量ボタン14Lが設けられる。音量ボタン14Lは、ゲーム装置10が備えるスピーカの音量を調整するために用いられる。   Although not shown, an L button 14J and an R button 14K are provided on the upper side surface of the lower housing 11. The L button 14J and the R button 14K can function as shutter buttons (shooting instruction buttons) of the imaging unit, for example. Although not shown, a volume button 14 </ b> L is provided on the left side surface of the lower housing 11. The volume button 14L is used to adjust the volume of a speaker provided in the game apparatus 10.
また、図1に示されるように、下側ハウジング11の左側面には開閉可能なカバー部11Bが設けられる。このカバー部11Bの内側には、ゲーム装置10とデータ保存用外部メモリ45とを電気的に接続するためのコネクタ(図示せず)が設けられる。データ保存用外部メモリ45は、コネクタに着脱自在に装着される。データ保存用外部メモリ45は、例えば、ゲーム装置10によって撮像された画像のデータを記憶(保存)するために用いられる。   Further, as shown in FIG. 1, an openable / closable cover portion 11 </ b> B is provided on the left side surface of the lower housing 11. A connector (not shown) for electrically connecting the game apparatus 10 and the data storage external memory 45 is provided inside the cover portion 11B. The data storage external memory 45 is detachably attached to the connector. The data storage external memory 45 is used, for example, for storing (saving) data of an image captured by the game apparatus 10.
また、図1に示されるように、下側ハウジング11の上側面には、ゲーム装置10とゲームプログラムを記録した外部メモリ44を挿入するための挿入口11Cが設けられ、その挿入口11Cの内部には、外部メモリ44と電気的に着脱自在に接続するためのコネクタ(図示せず)が設けられる。当該外部メモリ44がゲーム装置10に接続されることにより、所定のゲームプログラムが実行される。   Further, as shown in FIG. 1, an insertion port 11C for inserting the game apparatus 10 and an external memory 44 in which a game program is recorded is provided on the upper side surface of the lower housing 11, and the inside of the insertion port 11C is provided. Is provided with a connector (not shown) for detachably connecting to the external memory 44. When the external memory 44 is connected to the game apparatus 10, a predetermined game program is executed.
また、図1に示されるように、下側ハウジング11の下側面にはゲーム装置10の電源のON/OFF状況をユーザに通知する第1LED16Aが設けられる。さらに、図示はしていないが、下側ハウジング11の右側面にはゲーム装置10の無線通信の確立状況をユーザに通知する第2LED16Bが設けられる。ゲーム装置10は他の機器との間で無線通信を行うことが可能であり、第2LED16Bは、無線通信が確立している場合に点灯する。ゲーム装置10は、例えば、IEEE802.11b/gの規格に準拠した方式により、無線LANに接続する機能を有する。下側ハウジング11の右側面には、この無線通信の機能を有効/無効にする無線スイッチ19が設けられる(図示せず)。   As shown in FIG. 1, a first LED 16 </ b> A that notifies the user of the power ON / OFF status of the game apparatus 10 is provided on the lower side surface of the lower housing 11. Further, although not shown, a second LED 16B is provided on the right side surface of the lower housing 11 to notify the user of the wireless communication establishment status of the game apparatus 10. The game apparatus 10 can perform wireless communication with other devices, and the second LED 16B lights up when wireless communication is established. The game apparatus 10 has a function of connecting to a wireless LAN, for example, by a method compliant with the IEEE 802.11b / g standard. A wireless switch 19 (not shown) is provided on the right side surface of the lower housing 11 to enable / disable this wireless communication function.
なお、図示は省略するが、下側ハウジング11には、ゲーム装置10の電源となる充電式電池が収納され、下側ハウジング11の側面(例えば、上側面)に設けられた端子を介して当該電池を充電することができる。   Although not shown, the lower housing 11 stores a rechargeable battery that serves as a power source for the game apparatus 10, and the terminal is provided via a terminal provided on a side surface (for example, the upper side surface) of the lower housing 11. The battery can be charged.
(上側ハウジングの説明)
次に、上側ハウジング21の構成について説明する。図1に示すように、上側ハウジング21には、上側LCD(Liquid Crystal Display:液晶表示装置)22、外側撮像部23(外側撮像部(左)23a及び外側撮像部(右)23b)、内側撮像部24、3D調整スイッチ25、及び、3Dインジケータ26が設けられる。以下、これらの詳細について説明する。
(Description of upper housing)
Next, the configuration of the upper housing 21 will be described. As shown in FIG. 1, the upper housing 21 includes an upper LCD (Liquid Crystal Display) 22, an outer imaging unit 23 (an outer imaging unit (left) 23a and an outer imaging unit (right) 23b), and an inner imaging. A unit 24, a 3D adjustment switch 25, and a 3D indicator 26 are provided. Details of these will be described below.
図1に示すように、上側LCD22は上側ハウジング21に収納される。上側LCD22の画素数は、例えば、800dot×240dot(横×縦)であってもよい。なお、本実施形態では上側LCD22は液晶表示装置であるとしたが、例えばEL(Electro Luminescence:電界発光)を利用した表示装置などが利用されてもよい。また、上側LCD22として、任意の解像度の表示装置を利用することができる。   As shown in FIG. 1, the upper LCD 22 is accommodated in the upper housing 21. The number of pixels of the upper LCD 22 may be, for example, 800 dots × 240 dots (horizontal × vertical). In the present embodiment, the upper LCD 22 is a liquid crystal display device. However, for example, a display device using EL (Electro Luminescence) may be used. In addition, a display device having an arbitrary resolution can be used as the upper LCD 22.
上側LCD22は、立体視可能な画像を表示することが可能な表示装置である。また、本実施形態では、実質的に同一の表示領域を用いて左目用画像と右目用画像が表示される。具体的には、左目用画像と右目用画像が所定単位で(例えば、1列ずつ)横方向に交互に表示される方式の表示装置である。または、左目用画像と右目用画像とが時分割で交互に表示される方式の表示装置であってもよい。また、本実施形態では、裸眼立体視可能な表示装置である。そして、横方向に交互に表示される左目用画像と右目用画像とを左目及び右目のそれぞれに分解して見えるようにレンチキュラー方式やパララックスバリア方式(視差バリア方式)のものが用いられる。本実施形態では、上側LCD22はパララックスバリア方式のものとする。上側LCD22は、右目用画像と左目用画像とを用いて、裸眼で立体視可能な画像(以下、立体視画像と称する)を表示する。すなわち、上側LCD22は、視差バリアを用いてユーザの左目に左目用画像をユーザの右目に右目用画像を視認させることにより、ユーザにとって立体感のある立体視画像を表示することができる。また、上側LCD22は、上記視差バリアを無効にすることが可能であり、視差バリアを無効にした場合は、画像を平面的に表示することができる(上述した立体視とは反対の意味で平面視の画像を表示することができる。すなわち、表示された同一の画像が右目にも左目にも見えるような表示モードである)。このように、上側LCD22は、立体視可能な立体視画像を表示する立体視表示(立体表示モード)と、画像を平面的に表示する(平面視画像を表示する)平面視表示(平面表示モード)とを切り替えることが可能な表示装置である。この表示の切り替えは、CPU311の処理、又は後述する3D調整スイッチ25によって行われる。   The upper LCD 22 is a display device capable of displaying a stereoscopically visible image. In the present embodiment, the left-eye image and the right-eye image are displayed using substantially the same display area. Specifically, the display device uses a method in which a left-eye image and a right-eye image are alternately displayed in a horizontal direction in a predetermined unit (for example, one column at a time). Alternatively, a display device of a type in which the left-eye image and the right-eye image are alternately displayed in time division may be used. Further, in the present embodiment, the display device is capable of autostereoscopic viewing. Then, a lenticular method or a parallax barrier method (parallax barrier method) is used so that the left-eye image and the right-eye image alternately displayed in the horizontal direction appear to be decomposed into the left eye and the right eye, respectively. In the present embodiment, the upper LCD 22 is a parallax barrier type. The upper LCD 22 displays an image (hereinafter referred to as a stereoscopic image) that can be stereoscopically viewed with the naked eye, using the right-eye image and the left-eye image. That is, the upper LCD 22 can display a stereoscopic image having a stereoscopic effect for the user by using the parallax barrier to visually recognize the left-eye image for the user's left eye and the right-eye image for the user's right eye. Further, the upper LCD 22 can invalidate the parallax barrier. When the parallax barrier is invalidated, the upper LCD 22 can display an image in a planar manner (in the sense opposite to the above-described stereoscopic view, the planar LCD is planar). (This is a display mode in which the same displayed image can be seen by both the right eye and the left eye). Thus, the upper LCD 22 displays a stereoscopic display (stereoscopic display mode) that displays a stereoscopically viewable stereoscopic image, and a planar display (displays a planar image) that displays the image planarly (displays a planar image). ) Can be switched between. This display switching is performed by the processing of the CPU 311 or the 3D adjustment switch 25 described later.
外側撮像部23は、上側ハウジング21の外側面(上側LCD22が設けられた主面と反対側の背面)21Dに設けられた2つの撮像部(23a及び23b)の総称である。外側撮像部(左)23aと外側撮像部(右)23bの撮像方向は、いずれも当該外側面21Dの外向きの法線方向である。外側撮像部(左)23aと外側撮像部(右)23bとは、ゲーム装置10が実行するプログラムによって、ステレオカメラとして使用することが可能である。外側撮像部(左)23a及び外側撮像部(右)23bは、それぞれ所定の共通の解像度を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レンズとを含む。レンズは、ズーム機構を有するものでもよい。   The outer imaging unit 23 is a general term for the two imaging units (23a and 23b) provided on the outer surface (the back surface opposite to the main surface on which the upper LCD 22 is provided) 21D of the upper housing 21. The imaging directions of the outer imaging unit (left) 23a and the outer imaging unit (right) 23b are both normal directions of the outer surface 21D. The outer imaging unit (left) 23a and the outer imaging unit (right) 23b can be used as a stereo camera by a program executed by the game apparatus 10. The outer imaging unit (left) 23a and the outer imaging unit (right) 23b each include an imaging element (for example, a CCD image sensor or a CMOS image sensor) having a predetermined common resolution, and a lens. The lens may have a zoom mechanism.
内側撮像部24は、上側ハウジング21の内側面(主面)21Bに設けられ、当該内側面の内向きの法線方向を撮像方向とする撮像部である。内側撮像部24は、所定の解像度を有する撮像素子(例えば、CCDイメージセンサやCMOSイメージセンサ等)と、レンズとを含む。レンズは、ズーム機構を有するものでもよい。   The inner imaging unit 24 is an imaging unit that is provided on the inner side surface (main surface) 21B of the upper housing 21 and has an inward normal direction of the inner side surface as an imaging direction. The inner imaging unit 24 includes an imaging element (for example, a CCD image sensor or a CMOS image sensor) having a predetermined resolution, and a lens. The lens may have a zoom mechanism.
3D調整スイッチ25は、スライドスイッチであり、上述のように上側LCD22の表示モードを切り替えるために用いられるスイッチである。3D調整スイッチ25は、上側LCD22に表示された立体視画像の立体感を調整するために用いられる。ただし、後述で明らかとなるように、本実施形態では一例として、3D調整スイッチ25に関わらずに、上側LCD22に表示される画像を立体視画像と平面視画像との間で切り替える。   The 3D adjustment switch 25 is a slide switch, and is a switch used to switch the display mode of the upper LCD 22 as described above. The 3D adjustment switch 25 is used to adjust the stereoscopic effect of the stereoscopic image displayed on the upper LCD 22. However, as will be described later, in the present embodiment, as an example, the image displayed on the upper LCD 22 is switched between the stereoscopic image and the planar image regardless of the 3D adjustment switch 25.
3Dインジケータ26は、上側LCD22が立体表示モードか否かを示す。3Dインジケータ26は、LEDであり、上側LCD22の立体表示モードが有効の場合に点灯する。なお、3Dインジケータ26は、上側LCD22が立体表示モードになっており、かつ、立体視画像を表示するプログラム処理が実行されているときに限り、点灯するようにしてもよい。図1に示されるように、3Dインジケータ26は、上側ハウジング21の内側面に設けられ、上側LCD22の画面近傍に設けられる。このため、ユーザが上側LCD22の画面を正視した場合、ユーザは3Dインジケータ26を視認しやすい。従って、ユーザは上側LCD22の画面を視認している状態でも、上側LCD22の表示モードを容易に認識することができる。   The 3D indicator 26 indicates whether or not the upper LCD 22 is in the stereoscopic display mode. The 3D indicator 26 is an LED, and lights up when the stereoscopic display mode of the upper LCD 22 is valid. Note that the 3D indicator 26 may be lit only when the upper LCD 22 is in the stereoscopic display mode and a program process for displaying a stereoscopic image is being executed. As shown in FIG. 1, the 3D indicator 26 is provided on the inner surface of the upper housing 21 and is provided near the screen of the upper LCD 22. For this reason, when the user views the screen of the upper LCD 22 from the front, the user can easily view the 3D indicator 26. Therefore, the user can easily recognize the display mode of the upper LCD 22 even when the user is viewing the screen of the upper LCD 22.
また、上側ハウジング21の内側面には、スピーカ孔21Eが設けられる。後述するスピーカ43からの音声がこのスピーカ孔21Eから出力される。   A speaker hole 21 </ b> E is provided on the inner surface of the upper housing 21. Sound from a speaker 43 described later is output from the speaker hole 21E.
[ゲーム装置10の内部構成]
次に、図2を参照して、ゲーム装置10の内部の電気的構成について説明する。図2は、ゲーム装置10の内部構成を示すブロック図である。図2に示すように、ゲーム装置10は、上述した各部に加えて、情報処理部31、メインメモリ32、外部メモリインターフェイス(外部メモリI/F)33、データ保存用外部メモリI/F34、データ保存用内部メモリ35、無線通信モジュール36、ローカル通信モジュール37、リアルタイムクロック(RTC)38、加速度センサ39、電源回路40、及びインターフェイス回路(I/F回路)41等の電子部品を備えている。これらの電子部品は、電子回路基板上に実装されて下側ハウジング11(または上側ハウジング21でもよい)内に収納される。
[Internal Configuration of Game Device 10]
Next, with reference to FIG. 2, the internal electrical configuration of the game apparatus 10 will be described. FIG. 2 is a block diagram showing an internal configuration of the game apparatus 10. As shown in FIG. 2, in addition to the above-described units, the game apparatus 10 includes an information processing unit 31, a main memory 32, an external memory interface (external memory I / F) 33, an external memory I / F 34 for data storage, data It includes electronic components such as a storage internal memory 35, a wireless communication module 36, a local communication module 37, a real time clock (RTC) 38, an acceleration sensor 39, a power supply circuit 40, and an interface circuit (I / F circuit) 41. These electronic components are mounted on an electronic circuit board and accommodated in the lower housing 11 (or the upper housing 21).
情報処理部31は、所定のプログラムを実行するためのCPU(Central Processing Unit)311、画像処理を行うGPU(Graphics Processing Unit)312等を含む情報処理手段である。情報処理部31のCPU311は、ゲーム装置10内のメモリ(例えば外部メモリI/F33に接続された外部メモリ44やデータ保存用内部メモリ35)に記憶されているプログラムを実行することによって、当該プログラムに応じた処理を実行する。なお、情報処理部31のCPU311によって実行されるプログラムは、他の機器との通信によって他の機器から取得されてもよい。また、情報処理部31は、VRAM(Video RAM)313を含む。情報処理部31のGPU312は、情報処理部31のCPU311からの命令に応じて画像を生成し、VRAM313に描画する。そして、情報処理部31のGPU312は、VRAM313に描画された画像を上側LCD22及び/又は下側LCD12に出力し、上側LCD22及び/又は下側LCD12に当該画像が表示される。   The information processing unit 31 is information processing means including a CPU (Central Processing Unit) 311 for executing a predetermined program, a GPU (Graphics Processing Unit) 312 for performing image processing, and the like. The CPU 311 of the information processing unit 31 executes the program stored in a memory (for example, the external memory 44 connected to the external memory I / F 33 or the data storage internal memory 35) in the game apparatus 10, thereby executing the program. The process according to is executed. Note that the program executed by the CPU 311 of the information processing unit 31 may be acquired from another device through communication with the other device. The information processing unit 31 includes a VRAM (Video RAM) 313. The GPU 312 of the information processing unit 31 generates an image in response to a command from the CPU 311 of the information processing unit 31 and draws it on the VRAM 313. Then, the GPU 312 of the information processing unit 31 outputs the image drawn in the VRAM 313 to the upper LCD 22 and / or the lower LCD 12, and the image is displayed on the upper LCD 22 and / or the lower LCD 12.
情報処理部31には、メインメモリ32、外部メモリI/F33、データ保存用外部メモリI/F34、及びデータ保存用内部メモリ35が接続される。外部メモリI/F33は、外部メモリ44を着脱自在に接続するためのインターフェイスである。また、データ保存用外部メモリI/F34は、データ保存用外部メモリ45を着脱自在に接続するためのインターフェイスである。   A main memory 32, an external memory I / F 33, a data storage external memory I / F 34, and a data storage internal memory 35 are connected to the information processing unit 31. The external memory I / F 33 is an interface for detachably connecting the external memory 44. The data storage external memory I / F 34 is an interface for detachably connecting the data storage external memory 45.
メインメモリ32は、情報処理部31(のCPU311)のワーク領域やバッファ領域として用いられる揮発性の記憶手段である。すなわち、メインメモリ32は、上記プログラムに基づく処理に用いられる各種データを一時的に記憶したり、外部(外部メモリ44や他の機器等)から取得されるプログラムを一時的に記憶したりする。本実施形態では、メインメモリ32として例えばPSRAM(Pseudo−SRAM)を用いる。   The main memory 32 is a volatile storage unit used as a work area or a buffer area of the information processing unit 31 (the CPU 311). That is, the main memory 32 temporarily stores various data used for the processing based on the program, or temporarily stores a program acquired from the outside (such as the external memory 44 or another device). In the present embodiment, for example, a PSRAM (Pseudo-SRAM) is used as the main memory 32.
外部メモリ44は、情報処理部31によって実行されるプログラムを記憶するための不揮発性の記憶手段である。外部メモリ44は、例えば読み取り専用の半導体メモリで構成される。外部メモリ44が外部メモリI/F33に接続されると、情報処理部31は外部メモリ44に記憶されたプログラムを読み込むことができる。情報処理部31が読み込んだプログラムを実行することにより、所定の処理が行われる。データ保存用外部メモリ45は、不揮発性の読み書き可能なメモリ(例えばNAND型フラッシュメモリ)で構成され、所定のデータを格納するために用いられる。例えば、データ保存用外部メモリ45には、外側撮像部23で撮像された画像や他の機器で撮像された画像が記憶される。データ保存用外部メモリ45がデータ保存用外部メモリI/F34に接続されると、情報処理部31はデータ保存用外部メモリ45に記憶された画像を読み込み、上側LCD22及び/又は下側LCD12に当該画像を表示することができる。   The external memory 44 is a nonvolatile storage unit for storing a program executed by the information processing unit 31. The external memory 44 is composed of, for example, a read-only semiconductor memory. When the external memory 44 is connected to the external memory I / F 33, the information processing section 31 can read a program stored in the external memory 44. A predetermined process is performed by executing the program read by the information processing unit 31. The data storage external memory 45 is composed of a non-volatile readable / writable memory (for example, a NAND flash memory), and is used for storing predetermined data. For example, the data storage external memory 45 stores an image captured by the outer imaging unit 23 or an image captured by another device. When the data storage external memory 45 is connected to the data storage external memory I / F 34, the information processing section 31 reads an image stored in the data storage external memory 45 and applies the image to the upper LCD 22 and / or the lower LCD 12. An image can be displayed.
データ保存用内部メモリ35は、読み書き可能な不揮発性メモリ(例えばNAND型フラッシュメモリ)で構成され、所定のデータを格納するために用いられる。例えば、データ保存用内部メモリ35には、無線通信モジュール36を介した無線通信によってダウンロードされたデータやプログラムが格納される。   The data storage internal memory 35 is configured by a readable / writable nonvolatile memory (for example, a NAND flash memory), and is used for storing predetermined data. For example, the data storage internal memory 35 stores data and programs downloaded by wireless communication via the wireless communication module 36.
無線通信モジュール36は、例えばIEEE802.11b/gの規格に準拠した方式により、無線LANに接続する機能を有する。また、ローカル通信モジュール37は、所定の通信方式(例えば独自プロトコルによる通信や、赤外線通信)により同種のゲーム装置との間で無線通信を行う機能を有する。無線通信モジュール36及びローカル通信モジュール37は情報処理部31に接続される。情報処理部31は、無線通信モジュール36を用いてインターネットを介して他の機器との間でデータを送受信したり、ローカル通信モジュール37を用いて同種の他のゲーム装置との間でデータを送受信したりすることができる。   The wireless communication module 36 has a function of connecting to a wireless LAN by a method compliant with, for example, the IEEE 802.11b / g standard. Further, the local communication module 37 has a function of performing wireless communication with the same type of game device by a predetermined communication method (for example, communication using a unique protocol or infrared communication). The wireless communication module 36 and the local communication module 37 are connected to the information processing unit 31. The information processing unit 31 transmits / receives data to / from other devices via the Internet using the wireless communication module 36, and transmits / receives data to / from other game devices of the same type using the local communication module 37. You can do it.
また、情報処理部31には、RTC38及び電源回路40が接続される。RTC38は、時間をカウントして情報処理部31に出力する。情報処理部31は、RTC38によって計時された時間に基づき現在時刻(日付)を計算する。   Further, the RTC 38 and the power supply circuit 40 are connected to the information processing unit 31. The RTC 38 counts the time and outputs it to the information processing unit 31. The information processing unit 31 calculates the current time (date) based on the time counted by the RTC 38.
また、情報処理部31には、加速度センサ39が接続される。加速度センサ39は、3軸(xyz軸)方向に沿った直線方向の加速度(直線加速度)の大きさを検知する。加速度センサ39は、上側ハウジング21の内部に設けられる。加速度センサ39は、図1に示すように、上側LCD22の長辺方向をx軸、上側LCD22の短辺方向をy軸、上側LCD22の表示面に対して垂直な方向をz軸として、各軸の直線加速度の大きさを検知する。なお、加速度センサ39は、例えば静電容量式の加速度センサであるとするが、他の方式の加速度センサを用いるようにしてもよい。また、加速度センサ39は1軸又は2軸方向を検知する加速度センサであってもよい。情報処理部31は、加速度センサ39が検知した加速度を示すデータ(加速度データ)を受信して、ゲーム装置10の姿勢や動きを検知することができる。   An acceleration sensor 39 is connected to the information processing unit 31. The acceleration sensor 39 detects the magnitude of linear acceleration (linear acceleration) along the three-axis (xyz-axis) direction. The acceleration sensor 39 is provided inside the upper housing 21. As shown in FIG. 1, the acceleration sensor 39 has the long side direction of the upper LCD 22 as the x axis, the short side direction of the upper LCD 22 as the y axis, and the direction perpendicular to the display surface of the upper LCD 22 as the z axis. The magnitude of linear acceleration is detected. The acceleration sensor 39 is, for example, an electrostatic capacitance type acceleration sensor, but other types of acceleration sensors may be used. Further, the acceleration sensor 39 may be an acceleration sensor that detects a uniaxial or biaxial direction. The information processing section 31 can detect data indicating the acceleration detected by the acceleration sensor 39 (acceleration data) and detect the attitude and movement of the game apparatus 10.
情報処理部31には、角速度センサ40が接続される。角速度センサ40は、上側LCD22の3軸(本実施形態では、xyz軸)周りにおける角速度をそれぞれ検知し、検知した角速度を示すデータ(角速度データ)を情報処理部31へ出力する。角速度センサ40は、例えば下側ハウジング11の内部に設けられる。情報処理部31は、角速度センサ40から出力された角速度データを受信して、上側LCD22の姿勢や動きを算出する。   An angular velocity sensor 40 is connected to the information processing unit 31. The angular velocity sensor 40 detects angular velocities around the three axes (in the present embodiment, the xyz axis) of the upper LCD 22, and outputs data (angular velocity data) indicating the detected angular velocities to the information processing section 31. The angular velocity sensor 40 is provided, for example, inside the lower housing 11. The information processing unit 31 receives the angular velocity data output from the angular velocity sensor 40 and calculates the posture and movement of the upper LCD 22.
なお、上述の通り、加速度センサ39や角速度センサ40によって、上側LCD22の姿勢や動きが算出されるが、上側LCD22の長辺方向、短辺方向、および表示面に対して垂直な方向はそれぞれ、上側ハウジング21の長辺方向、短辺方向、および内側面(主面)に対して垂直な方向と一致しているため、上側LCD22の姿勢や動きと、当該上側LCDを固定的に収納する上側ハウジング21の姿勢や動きは一致することになる。以降で装置の姿勢や動きを取得するとして説明している部分は、上側LCD22の姿勢や動きを取得していることと同等となる。   As described above, the attitude and movement of the upper LCD 22 are calculated by the acceleration sensor 39 and the angular velocity sensor 40. The long side direction, the short side direction, and the direction perpendicular to the display surface of the upper LCD 22 are respectively Since it coincides with the long side direction, the short side direction, and the direction perpendicular to the inner side surface (main surface) of the upper housing 21, the posture and movement of the upper LCD 22 and the upper side for fixedly storing the upper LCD The posture and movement of the housing 21 are the same. The portion described below as acquiring the posture and movement of the device is equivalent to acquiring the posture and movement of the upper LCD 22.
電源回路41は、ゲーム装置10が有する電源(下側ハウジング11に収納される上記充電式電池)からの電力を制御し、ゲーム装置10の各部品に電力を供給する。   The power supply circuit 41 controls power from the power supply (the rechargeable battery housed in the lower housing 11) of the game apparatus 10 and supplies power to each component of the game apparatus 10.
また、情報処理部31には、I/F回路42が接続される。I/F回路42には、マイク43、及びスピーカ44が接続される。具体的には、I/F回路42には、図示しないアンプを介してスピーカ44が接続される。マイク43は、ユーザの音声を検知して音声信号をI/F回路42に出力する。アンプは、I/F回路42からの音声信号を増幅し、音声をスピーカ44から出力させる。また、I/F回路42には上述したタッチパネル13も接続される。I/F回路42は、マイク43及びスピーカ44(アンプ)の制御を行う音声制御回路と、タッチパネルの制御を行うタッチパネル制御回路とを含む。音声制御回路は、音声信号に対するA/D変換及びD/A変換を行ったり、音声信号を所定の形式の音声データに変換したりする。タッチパネル制御回路は、タッチパネル13からの信号に基づいて所定の形式のタッチ位置データを生成して情報処理部31に出力する。タッチ位置データは、タッチパネル13の入力面において入力が行われた位置の座標を示す。   In addition, an I / F circuit 42 is connected to the information processing unit 31. A microphone 43 and a speaker 44 are connected to the I / F circuit 42. Specifically, a speaker 44 is connected to the I / F circuit 42 via an amplifier (not shown). The microphone 43 detects the user's voice and outputs a voice signal to the I / F circuit 42. The amplifier amplifies the audio signal from the I / F circuit 42 and outputs the audio from the speaker 44. The touch panel 13 described above is also connected to the I / F circuit 42. The I / F circuit 42 includes a voice control circuit that controls the microphone 43 and the speaker 44 (amplifier), and a touch panel control circuit that controls the touch panel. The audio control circuit performs A / D conversion and D / A conversion on the audio signal, or converts the audio signal into audio data of a predetermined format. The touch panel control circuit generates touch position data in a predetermined format based on a signal from the touch panel 13 and outputs it to the information processing unit 31. The touch position data indicates the coordinates of the position where the input is performed on the input surface of the touch panel 13.
操作ボタン14は、上記各操作ボタン14A〜14Lからなり、情報処理部31に接続される。操作ボタン14から情報処理部31へは、各操作ボタン14A〜14Iに対する入力状況(押下されたか否か)を示す操作データが出力される。情報処理部31は、操作ボタン14から操作データを取得することによって、上記各操作ボタン14A〜14Lに対する入力に従った処理を実行する。なお、CPU311は、操作ボタン14からの操作データの取得を所定時間に1回の割合で行う。   The operation button 14 includes the operation buttons 14 </ b> A to 14 </ b> L and is connected to the information processing unit 31. From the operation button 14 to the information processing section 31, operation data indicating the input status (whether or not the button is pressed) for each of the operation buttons 14A to 14I is output. The information processing unit 31 acquires the operation data from the operation button 14 to execute processing according to the input to each of the operation buttons 14A to 14L. Note that the CPU 311 acquires operation data from the operation buttons 14 at a rate of once per predetermined time.
下側LCD12及び上側LCD22は情報処理部31に接続される。下側LCD12及び上側LCD22は、情報処理部31(のGPU312)の指示に従って画像を表示する。本実施形態では、情報処理部31は、上側LCD22に立体視画像(立体視可能な画像)を表示させる。   The lower LCD 12 and the upper LCD 22 are connected to the information processing unit 31. The lower LCD 12 and the upper LCD 22 display images according to instructions from the information processing unit 31 (the GPU 312). In the present embodiment, the information processing section 31 displays a stereoscopic image (a stereoscopically viewable image) on the upper LCD 22.
具体的には、情報処理部31は、上側LCD22のLCDコントローラ(図示せず)と接続され、当該LCDコントローラに対して視差バリアのON/OFFを制御する。上側LCD22の視差バリアがONになっている場合、情報処理部31のVRAM313に記憶された右目用画像と左目用画像とが、上側LCD22に出力される。より具体的には、LCDコントローラは、右目用画像について縦方向に1ライン分の画素データを読み出す処理と、左目用画像について縦方向に1ライン分の画素データを読み出す処理とを交互に繰り返すことによって、VRAM313から右目用画像と左目用画像とを読み出す。これにより、右目用画像及び左目用画像が、画素を縦に1ライン毎に並んだ短冊状画像に分割され、分割された右目用画像の短冊状画像と左目用画像の短冊状画像とが交互に配置された画像が、上側LCD22の画面に表示される。そして、上側LCD22の視差バリアを介して当該画像がユーザに視認されることによって、ユーザの右目に右目用画像が、ユーザの左目に左目用画像が視認される。本実施形態では、視差バリアは常にONになっているものとする。以上により、上側LCD22の画面には立体視可能な画像が表示される。   Specifically, the information processing section 31 is connected to an LCD controller (not shown) of the upper LCD 22 and controls ON / OFF of the parallax barrier for the LCD controller. When the parallax barrier of the upper LCD 22 is ON, the right-eye image and the left-eye image stored in the VRAM 313 of the information processing unit 31 are output to the upper LCD 22. More specifically, the LCD controller alternately repeats the process of reading pixel data for one line in the vertical direction for the image for the right eye and the process of reading pixel data for one line in the vertical direction for the image for the left eye. Thus, the right-eye image and the left-eye image are read from the VRAM 313. As a result, the right-eye image and the left-eye image are divided into strip-like images in which pixels are arranged vertically for each line, and the striped right-eye image and the left-eye image are alternately displayed. The image arranged on the upper LCD 22 is displayed on the screen. Then, when the user visually recognizes the image through the parallax barrier of the upper LCD 22, the right eye image is visually recognized by the user's right eye and the left eye image is visually recognized by the user's left eye. In the present embodiment, it is assumed that the parallax barrier is always ON. As a result, a stereoscopically viewable image is displayed on the screen of the upper LCD 22.
外側撮像部23及び内側撮像部24は、情報処理部31に接続される。外側撮像部23及び内側撮像部24は、情報処理部31の指示に従って画像を撮像し、撮像した画像データを情報処理部31に出力する。   The outer imaging unit 23 and the inner imaging unit 24 are connected to the information processing unit 31. The outer imaging unit 23 and the inner imaging unit 24 capture an image in accordance with an instruction from the information processing unit 31, and output the captured image data to the information processing unit 31.
3D調整スイッチ25は、情報処理部31に接続される。3D調整スイッチ25は、スライダ25aの位置に応じた電気信号を情報処理部31に送信する。   The 3D adjustment switch 25 is connected to the information processing unit 31. The 3D adjustment switch 25 transmits an electrical signal corresponding to the position of the slider 25 a to the information processing unit 31.
また、3Dインジケータ26は、情報処理部31に接続される。情報処理部31は、3Dインジケータ26の点灯を制御する。例えば、情報処理部31は、上側LCD22が立体表示モードである場合、3Dインジケータ26を点灯させる。以上がゲーム装置10の内部構成の説明である。   The 3D indicator 26 is connected to the information processing unit 31. The information processing unit 31 controls lighting of the 3D indicator 26. For example, the information processing section 31 turns on the 3D indicator 26 when the upper LCD 22 is in the stereoscopic display mode. The above is the description of the internal configuration of the game apparatus 10.
[情報処理の概要]
以下、実施形態の一例における情報処理の概要について図3、図4および図5を参照しながら説明する。本実施形態においては、情報処理の一例として、ゲーム処理がゲーム装置10によって行われるものとする。
[Outline of information processing]
Hereinafter, an outline of information processing in an example of the embodiment will be described with reference to FIGS. 3, 4, and 5. In the present embodiment, it is assumed that game processing is performed by the game apparatus 10 as an example of information processing.
本実施形態のゲーム処理では、プレイヤは、ゲーム装置10が備える「方向指示可能な操作手段」を用いて、仮想ゲーム空間に登場するプレイヤオブジェクトを当該仮想ゲーム空間内で動かすことでゲームを進行させる。より具体的には、当該操作手段の指示方向と仮想空間における方向とを対応付けて、操作手段によって方向指示があったときに、その方向に対応する仮想空間内の方向にプレイヤオブジェクトの向き(オブジェクトの前方方向)または進行方向を変更するとともに、当該方向にプレイヤオブジェクトを移動させる。なお、プレイヤオブジェクトの進行方向とプレイヤオブジェクトの向きを別に管理して、指示方向によりプレイヤオブジェクトの向きを制御するとともに、プレイヤオブジェクトの進行方向をプレイヤオブジェクトの向きに徐々に近づくように制御してもよい。なお、操作手段の指示方向と仮想空間における仮想空間内の方向の対応関係は、画面基準(仮想カメラの撮影方向基準)であってもよいし、現在のプレイヤオブジェクトの向きを基準としてもよい。例えば、アナログスティック15を上方向に傾けるとプレイヤオブジェクトは仮想空間内を奥方向に移動し、アナログスティック15を下方向に傾けるとプレイヤオブジェクトは仮想空間内を手前方向に移動する。また、たとえば、プレイヤオブジェクトの姿勢(向き)は、アナログスティック15で指示した方向が前方になるように姿勢制御される。また、他の操作手段(ボタンやタッチパネル等)を操作することで、プレイヤオブジェクトに例えばジャンプ等の動作をさせることもできるが、詳細は省略する。   In the game processing according to the present embodiment, the player uses the “operating means capable of directing directions” included in the game apparatus 10 to move the player object appearing in the virtual game space in the virtual game space to advance the game. . More specifically, the instruction direction of the operation means is associated with the direction in the virtual space, and when a direction instruction is given by the operation means, the direction of the player object (in the direction in the virtual space corresponding to the direction ( Change the forward direction of the object) or the traveling direction, and move the player object in that direction. It is to be noted that the player object's traveling direction and the player object's direction are managed separately, and the player object's direction is controlled by the instruction direction, and the player object's traveling direction is controlled so as to gradually approach the player object's direction. Good. The correspondence relationship between the instruction direction of the operation means and the direction in the virtual space in the virtual space may be a screen reference (virtual camera shooting direction reference), or may be based on the current orientation of the player object. For example, when the analog stick 15 is tilted upward, the player object moves backward in the virtual space, and when the analog stick 15 is tilted downward, the player object moves forward in the virtual space. Further, for example, the posture (orientation) of the player object is controlled so that the direction designated by the analog stick 15 is forward. Further, by operating other operation means (buttons, touch panel, etc.), the player object can be caused to perform an action such as a jump, but the details are omitted.
本実施形態のゲーム処理が行われる際には、仮想ゲーム空間内に仮想カメラを配置する処理が行われ、配置された仮想カメラを用いて仮想ゲーム空間を撮像することでゲーム装置の画面上に表示される画像が生成される。なお、後述するように、本実施形態では立体視画像を表示するので、右目用画像および左目用画像のそれぞれを生成する仮想ステレオカメラが配置されるが、この点については、後述する。   When the game process of the present embodiment is performed, a process of arranging a virtual camera in the virtual game space is performed, and the virtual game space is imaged using the arranged virtual camera on the screen of the game device. An image to be displayed is generated. As will be described later, in this embodiment, since a stereoscopic image is displayed, a virtual stereo camera that generates each of the right-eye image and the left-eye image is arranged. This will be described later.
本実施形態において、仮想カメラの位置及び姿勢は、プレイヤオブジェクトの位置及び姿勢(または進行方向、以下同じ)に基づいて配置される。具体的には、仮想カメラの撮影方向は、プレイヤオブジェクトが向いている方向、または、プレイヤオブジェクトの進行方向と一致するように、または、追従するように設定され、仮想カメラの位置は、プレイヤオブジェクトの位置が画面内に含まれるように設定される。前述したように、プレイヤオブジェクトの姿勢は、ユーザの所定操作(本実施形態においては、アナログスティック15の操作)により制御されるので、それにともなって、仮想ステレオカメラの姿勢が変更される。また、プレイヤオブジェクトの位置は、ユーザの所定操作(本実施形態においては、アナログスティック15の操作)により変化するので、それにともなって、仮想カメラの位置が変更される。なお、仮想カメラの位置を、プレイヤオブジェクトの位置から一定距離とするなど、プレイヤオブジェクトの位置の変化に応じて変更する一方、仮想カメラの姿勢は、プレイヤオブジェクトの姿勢が変化しても変更しないようにしてもよい。 このようなプレイヤオブジェクトの位置及び姿勢に基づく仮想カメラの位置および姿勢を「通常制御における仮想カメラの位置及び姿勢」と呼ぶ。なお、「通常制御」とは後述の「装置姿勢追従制御」の有効無効に関わらずおこなわれる制御という意味である。   In the present embodiment, the position and orientation of the virtual camera are arranged based on the position and orientation of the player object (or the traveling direction, the same applies hereinafter). Specifically, the shooting direction of the virtual camera is set so as to coincide with or follow the direction in which the player object is facing or the traveling direction of the player object, and the position of the virtual camera is Is set to be included in the screen. As described above, since the posture of the player object is controlled by a predetermined operation by the user (in this embodiment, the operation of the analog stick 15), the posture of the virtual stereo camera is changed accordingly. Further, since the position of the player object changes due to a predetermined operation by the user (in this embodiment, the operation of the analog stick 15), the position of the virtual camera is changed accordingly. The virtual camera position is changed according to the change in the position of the player object, for example, the position of the virtual object is changed from the position of the player object. It may be. Such a position and orientation of the virtual camera based on the position and orientation of the player object is referred to as “virtual camera position and orientation in normal control”. Note that “normal control” means control performed regardless of whether or not “apparatus attitude tracking control” described later is valid / invalid.
このように、仮想カメラの位置及び姿勢は、アナログスティック15の操作に基づくプレイヤオブジェクトの位置及び姿勢によって変化する。本実施例のゲーム処理では、さらに、ゲーム装置の現実空間における姿勢を変化させることで仮想カメラの姿勢を変化させることができる。このようなゲーム装置の姿勢による仮想カメラの姿勢の制御のことを「装置姿勢追従制御」と呼ぶ。より具体的には、プレイヤがゲーム装置10の操作手段を用いてあらかじめ定める所定の操作を行った場合に、装置姿勢追従制御が有効となる。本実施形態では、Rボタン14Kを押す操作がこの「所定の操作」であり、Rボタン14Kが押し続けている間は「装置姿勢追従制御」モードになり、仮想カメラを操作できる。Rボタン14Kを離しているときは通常のモードとなり、装置の姿勢を変化させても、仮想カメラが動くことはない。なお、Rボタン14Kを押したときに、その後ボタンを離しても、装置姿勢追従制御が継続するようにしてもかまわない。Rボタン14Kを押し続けている間は、「通常制御における仮想カメラの位置及び姿勢」を基準として、装置姿勢追従制御による変化が加えられる。より具体的には、装置姿勢追従制御が有効になっている間、仮想カメラの姿勢は、「通常制御における仮想カメラの姿勢」を、装置姿勢追従制御による姿勢変化分だけ変化させることにより得られる。なお、装置姿勢追従制御が有効になっている間、仮想カメラの位置については、「通常制御における仮想カメラの位置」と同じにしてもよいが、全く同じである必要はなく、その付近で変位してもよい。または、プレイヤオブジェクトを撮影範囲に含むように変位してもよい。 Thus, the position and orientation of the virtual camera change depending on the position and orientation of the player object based on the operation of the analog stick 15. In the game processing of this embodiment, the posture of the virtual camera can be changed by changing the posture of the game device in the real space. Such control of the attitude of the virtual camera based on the attitude of the game apparatus is referred to as “apparatus attitude tracking control”. More specifically, when the player performs a predetermined operation using the operation unit of the game apparatus 10, the apparatus attitude tracking control is effective. In the present embodiment, the operation of pressing the R button 14K is this “predetermined operation”, and while the R button 14K is kept pressed, the “apparatus attitude tracking control” mode is set, and the virtual camera can be operated. When the R button 14K is released, the normal mode is set, and the virtual camera does not move even if the posture of the apparatus is changed. Note that when the R button 14K is pressed, the apparatus attitude tracking control may be continued even if the button is released thereafter. While the R button 14K is kept pressed, a change due to the apparatus attitude follow-up control is applied on the basis of “position and attitude of the virtual camera in normal control”. More specifically, the virtual camera posture is obtained by changing the “virtual camera posture in normal control” by the posture change by the device posture tracking control while the device posture tracking control is enabled. . While the device attitude tracking control is in effect, the virtual camera position may be the same as the “virtual camera position in normal control”, but it does not have to be exactly the same and is displaced in the vicinity. May be. Alternatively, the player object may be displaced so as to be included in the shooting range.
図3および図4はゲーム装置10を動かすことで仮想カメラを操作する様子を示す図である。図3には通常の状態(Rボタン14Kを押していない状態)でのプレイの様子301A、そのときに画面に表示される画像302A、そのときの仮想ゲーム空間におけるオブジェクトと仮想カメラの状態302Aを表している。302Aに示されるように、通常の状態では、プレイヤキャラクタ310を真後ろから撮像するように仮想カメラ312Aが配置されており、プレイヤキャラクタ310が左右方向の中央に来るような画像が画面上に表示されている。図4は、図3の状態でRボタン14Kを押した後、装置を左方向に回転させた時の様子301A、そのときに画面に表示される画像302B、およびそのときの仮想ゲーム空間におけるオブジェクトと仮想カメラの状態302Bを表している。このときは、Rボタン14Kが押されているため、前述の装置姿勢追従制御が有効となっており、画面上には装置姿勢追従制御が有効になっていることを示す画像311が表示される。装置姿勢追従制御が有効な間は、装置の姿勢に応じて仮想カメラを動かすことができる。図4では、装置姿勢追従制御が有効になった後(Rボタン14Kを押した状態にした後)に装置を左方向に回転させたため、仮想カメラ312Bも同じように左方向に回転している。これによって、仮想カメラ312Bの撮像方向が左方向に変化し、もともと撮像していた範囲の左方向の範囲を撮像することになる。すると、画面上に当初は表示されていなかった、プレイヤキャラクタの左方向に存在していたオブジェクト313が表示されるようになる。   3 and 4 are diagrams illustrating a state in which the virtual camera is operated by moving the game apparatus 10. FIG. 3 shows a state 301A of a play in a normal state (a state where the R button 14K is not pressed), an image 302A displayed on the screen at that time, and a state 302A of objects and virtual cameras in the virtual game space at that time. ing. As shown in 302A, in a normal state, the virtual camera 312A is arranged so that the player character 310 is imaged from behind, and an image in which the player character 310 is centered in the left-right direction is displayed on the screen. ing. FIG. 4 shows a state 301A when the device is rotated leftward after pressing the R button 14K in the state of FIG. 3, an image 302B displayed on the screen at that time, and objects in the virtual game space at that time And a virtual camera state 302B. At this time, since the R button 14K is pressed, the above-described apparatus attitude tracking control is enabled, and an image 311 indicating that the apparatus attitude tracking control is enabled is displayed on the screen. . While the device attitude tracking control is valid, the virtual camera can be moved according to the attitude of the device. In FIG. 4, after the device attitude tracking control is enabled (after the R button 14K is pressed), the device is rotated leftward, so the virtual camera 312B is similarly rotated leftward. . As a result, the imaging direction of the virtual camera 312B changes to the left, and the range in the left direction of the range originally captured is captured. Then, the object 313 that was not initially displayed on the screen and that existed in the left direction of the player character is displayed.
図4の状態からRボタン14Kを離すと、装置姿勢追従制御は無効になる。このとき、装置の姿勢を301Aの状態に戻さなくても自動的に仮想カメラは303Aで示す姿勢に戻り、画面の表示も302Aと同様となる。すなわち、装置姿勢追従制御が無効になったときには、装置姿勢追従制御による姿勢変化分が0になり、「通常制御による仮想カメラの位置及び姿勢」と一致する。   When the R button 14K is released from the state shown in FIG. 4, the device attitude tracking control becomes invalid. At this time, even if the posture of the apparatus is not returned to the state of 301A, the virtual camera automatically returns to the posture indicated by 303A, and the screen display is the same as that of 302A. That is, when the device posture tracking control is disabled, the posture change amount by the device posture tracking control becomes 0, which coincides with “the position and posture of the virtual camera by the normal control”.
なお、前述の通り、本実施形態では立体視画像を表示するので、右目用画像および左目用画像のそれぞれを生成する仮想ステレオカメラ(右仮想カメラおよび左仮想カメラ)が配置され、それぞれの仮想カメラで仮想ゲーム空間を撮像することで右目用画像および左目用画像を生成し、これらの画像を用いることで表示手段22上に立体視表示を行う。右仮想カメラおよび左仮想カメラは、上述の方法により設定される仮想カメラ(以下、基準仮想カメラと呼ぶ)に基づいて設定される。具体的な処理は後述で説明するが、基準仮想カメラを、左右(基準仮想カメラ座標系におけるx軸方向の正方向および負方向)に移動したものをそれぞれ左右の仮想カメラとして用いる。   As described above, in the present embodiment, since a stereoscopic image is displayed, a virtual stereo camera (a right virtual camera and a left virtual camera) that generates each of the right-eye image and the left-eye image is arranged, and each virtual camera is arranged. Then, the image for the right eye and the image for the left eye are generated by imaging the virtual game space, and stereoscopic display is performed on the display means 22 by using these images. The right virtual camera and the left virtual camera are set based on a virtual camera (hereinafter referred to as a reference virtual camera) set by the above-described method. Specific processing will be described later, but the reference virtual camera that is moved to the left and right (the positive and negative directions in the x-axis direction in the reference virtual camera coordinate system) is used as the left and right virtual cameras.
ここで、装置の姿勢の変化としては、x軸周り(チルト方向)、y軸周り(パン方向)、z軸周り(ロール方向)の変化がある。図3および図4では、y軸周りに装置の姿勢を変化させた場合の説明をした。詳しい説明は省略するが、装置をx軸周りに回転移動させた場合も、y軸周りに回転移動させた場合と同様に、装置の姿勢に合わせて仮想カメラの姿勢が変化する。   Here, changes in the posture of the apparatus include changes around the x axis (tilt direction), around the y axis (pan direction), and around the z axis (roll direction). In FIG. 3 and FIG. 4, the case where the posture of the apparatus is changed around the y axis has been described. Although a detailed description is omitted, even when the device is rotated around the x axis, the virtual camera posture changes in accordance with the posture of the device, similarly to the case where the device is rotated around the y axis.
また、z軸周りに装置姿勢を変化させた場合も、装置の姿勢に合わせて仮想カメラの姿勢が変化する。図5に、装置を傾けた様子401およびそのときに画面に表示される画像402を示している。z軸周りに装置姿勢を変化させたときは、仮想カメラの撮影方向自体は変化せず、仮想カメラの撮影方向を軸として、当該軸周りに回転し、402に示すように、装置に対して傾いたような画像が表示される。装置を401に示す状態にしたときは、当該画像を表示する表示手段自体がユーザに対して傾いた状態となるため、結果的に、ユーザはプレイヤブジェクト等の仮想ゲーム空間内のオブジェクトを、ゲーム装置を傾ける前と後で同じ角度で視認することになる。   Also, when the device attitude is changed around the z axis, the attitude of the virtual camera changes in accordance with the attitude of the device. FIG. 5 shows a state 401 of tilting the apparatus and an image 402 displayed on the screen at that time. When the orientation of the device is changed around the z axis, the shooting direction of the virtual camera itself does not change, it rotates about the shooting direction of the virtual camera as an axis, A tilted image is displayed. When the apparatus is in the state shown at 401, the display means for displaying the image itself is tilted with respect to the user. As a result, the user moves the object in the virtual game space such as a player object to the game. It will be seen at the same angle before and after tilting the device.
なお、本実施形態では、角速度センサ40によって検知された各軸周りの角速度に基づいて算出される各軸周りの角度の単位と、仮想空間における各軸周りの角度の単位とが一致するように予め定められているものとする。従って、本実施形態では、角速度センサ40によって検知された各軸周りの角速度に基づいて算出される各軸周りの回転角度を、仮想カメラの姿勢を変化させるときの回転角度としてそのまま用いることができる。   In this embodiment, the unit of the angle around each axis calculated based on the angular velocity around each axis detected by the angular velocity sensor 40 matches the unit of the angle around each axis in the virtual space. It is assumed that it is predetermined. Therefore, in this embodiment, the rotation angle around each axis calculated based on the angular velocity around each axis detected by the angular velocity sensor 40 can be used as it is as the rotation angle when changing the attitude of the virtual camera. .
本実施例では、x軸周り(チルト方向)、y軸周り(パン方向)について、仮想カメラの姿勢を変化させられる範囲には制限が設けられる。具体的には、仮想カメラの撮像方向がプレイヤキャラクタから大きく外れない範囲でのみ、仮想カメラの姿勢を変化させることができる。例えば、装置姿勢追従制御が有効にしたまま(Rボタン14Kを離さないまま)、図4に示す状態から装置をさらに左方向に回転させた場合、同じように仮想カメラを左方向に回転させると、プレイヤキャラクタが仮想カメラの撮像範囲から外れてしまい、画面上に表示されなくなってしまう。そのため、図4に示す状態から装置をさらに左方向に回転させても、仮想カメラは図4の状態以上には回転せず、画面の表示も図4の状態からは変化しない。   In the present embodiment, there is a restriction on the range in which the attitude of the virtual camera can be changed around the x axis (tilt direction) and around the y axis (pan direction). Specifically, the posture of the virtual camera can be changed only in a range where the imaging direction of the virtual camera does not greatly deviate from the player character. For example, if the device is further rotated leftward from the state shown in FIG. 4 while the device attitude tracking control is enabled (without releasing the R button 14K), the virtual camera is similarly rotated leftward. The player character is out of the imaging range of the virtual camera and is no longer displayed on the screen. Therefore, even if the apparatus is further rotated leftward from the state shown in FIG. 4, the virtual camera does not rotate beyond the state shown in FIG. 4, and the screen display does not change from the state shown in FIG.
一方、z軸周り(ロール方向)に装置の姿勢を変化させた場合については、x軸周り(チルト方向)、y軸周り(パン方向)のように仮想カメラの姿勢の変化について制限はされない。ただし、z軸周り(ロール方向)に装置の姿勢を変化させた場合には、以下のような問題が発生する。本実施態様において用いる裸眼立体表示手段は、右目用の画像は右目のみに、左目用の画像は左目のみに視認されるように振り分けることで立体視可能に表示するものであり、通常、ユーザと表示手段とが正対したときに(ユーザの上下方向が表示手段の上下方向と一致したときに)立体視可能ように左右画像の振り分けるように立体視表示がなされている。このままで表示手段をz軸周りに回転してしまうと、ユーザの上下方向と表示手段の上下方向がずれて、右目用の画像が左目でも視認されたり、左目用の画像が右眼でも視認されたりすることが発生してしまい、立体視ができなくなってしまう。こうした状態では、装置の姿勢が少し変化しただけで、右目用の画像が見えたり、左目用の画像が見えたり、両画像が一緒に見えたりする状態が頻繁に切り替わるため、右目用の画像と左目用の画像との視差が大きいと、画像として違いの大きい画像が切り替わって、ぶれたように見える表示になってしまい、見づらい表示となってしまう。   On the other hand, when the posture of the apparatus is changed around the z axis (roll direction), the change in the posture of the virtual camera is not limited like around the x axis (tilt direction) and around the y axis (pan direction). However, when the posture of the apparatus is changed around the z axis (roll direction), the following problems occur. The autostereoscopic display means used in the present embodiment displays the right-eye image so that the right-eye image is recognized only by the right eye and the left-eye image is recognized only by the left eye. Stereoscopic display is performed so that the left and right images are distributed so that stereoscopic viewing is possible when the display unit faces the display unit (when the vertical direction of the user matches the vertical direction of the display unit). If the display means is rotated around the z-axis in this state, the vertical direction of the user and the vertical direction of the display means are shifted, and the right-eye image is visually recognized by the left eye or the left-eye image is visually recognized by the right eye. Will occur, making stereoscopic viewing impossible. In such a state, the image of the right eye, the image of the left eye, or the image of both images can be switched frequently with only a slight change in the attitude of the device. When the parallax with the image for the left eye is large, the image having a large difference is switched as an image, and the display appears to be blurred, and the display is difficult to see.
そのため、本実施例においては、装置の姿勢の変化に応じて仮想カメラを上側LCD22に垂直な軸周り(z軸周り)に回転させる際には、右目用画像と左目用画像の視差が小さくなるような仮想カメラの制御を同時に行う。具体的には、ロール方向の回転角が大きくなるほど、仮想ステレオカメラの間隔(右仮想カメラと左仮想カメラの間の間隔)が小さくなるように、右仮想カメラと左仮想カメラとの位置を変更する。本実施例においては、基準仮想カメラ姿勢からロール方向に25度傾いた時に仮想カメラの間隔がゼロになるように仮想カメラ間隔が制御される。25度以上傾けた場合は仮想カメラ間隔はゼロのままとなり、この場合は右目用画像と左目用画像は同じものとなるため、表示手段には平面視で画像が表示される。   Therefore, in this embodiment, when the virtual camera is rotated around the axis perpendicular to the upper LCD 22 (around the z axis) in accordance with the change in the posture of the apparatus, the parallax between the right eye image and the left eye image is reduced. The virtual camera is controlled at the same time. Specifically, the position of the right virtual camera and the left virtual camera is changed so that the virtual stereo camera interval (interval between the right virtual camera and the left virtual camera) decreases as the rotation angle in the roll direction increases. To do. In this embodiment, the virtual camera interval is controlled such that the virtual camera interval becomes zero when tilted by 25 degrees in the roll direction from the reference virtual camera posture. When tilted by 25 degrees or more, the virtual camera interval remains zero. In this case, the right-eye image and the left-eye image are the same, so that the image is displayed on the display unit in plan view.
[メインメモリに記憶されるデータ]
次に、ゲーム装置10のCPU311の具体的な動作について説明する前に、当該CPU311がゲームプログラムを実行することに応じてメインメモリ32に記憶されるデータについて図6を参照しながら説明する。ゲームプログラムは、ゲーム装置10に装着可能な所定の記憶媒体、または、ゲーム装置10内の不揮発メモリに記憶され、メインメモリに読み込まれて実行される。
[Data stored in main memory]
Next, before describing specific operations of the CPU 311 of the game apparatus 10, data stored in the main memory 32 in response to the CPU 311 executing the game program will be described with reference to FIG. The game program is stored in a predetermined storage medium that can be attached to the game apparatus 10 or a nonvolatile memory in the game apparatus 10, and is read into the main memory and executed.
図6に一例として示すように、メインメモリ32には、プレイヤオブジェクト位置姿勢データ501、基準仮想カメラ設定データ502、仮想ステレオカメラ間隔データ503、装置回転角度データ504、x軸周りしきい値データ505、y軸周りしきい値データ506、z軸周りしきい値データ507、基準間隔データ508が記憶される。プレイヤオブジェクト位置姿勢データ501、基準仮想カメラ設定データ502、仮想ステレオカメラ間隔データ503、装置回転角度データ504は、CPU311が本ゲームプログラムを実行することにより生成されるデータである。x軸周りしきい値データ505、y軸周りしきい値データ506、z軸周りしきい値データ507、基準間隔データ508は、そのデータがゲームプログラムに含まれる。   As shown in FIG. 6 as an example, the main memory 32 has player object position / posture data 501, reference virtual camera setting data 502, virtual stereo camera interval data 503, device rotation angle data 504, and x-axis threshold value data 505. , Threshold value data 506 around the y axis, threshold value data 507 around the z axis, and reference interval data 508 are stored. The player object position / attitude data 501, reference virtual camera setting data 502, virtual stereo camera interval data 503, and device rotation angle data 504 are data generated by the CPU 311 executing this game program. The x-axis threshold data 505, the y-axis threshold data 506, the z-axis threshold data 507, and the reference interval data 508 are included in the game program.
プレイヤオブジェクト位置姿勢データ501は、仮想ゲーム空間中でのプレイヤオブジェクトの位置及び姿勢を示すデータである。プレイヤオブジェクトの位置は仮想空間のワールド座標系におけるxyz軸方向についての座標で表され、姿勢はxyz各軸周りの角度で表される。   The player object position / orientation data 501 is data indicating the position and orientation of the player object in the virtual game space. The position of the player object is represented by coordinates in the xyz axis direction in the world coordinate system of the virtual space, and the posture is represented by an angle around each xyz axis.
基準仮想カメラ設定データ502は、基準仮想カメラの設定を示すデータであり、基準仮想カメラの配置位置及び姿勢の情報を含むデータである。基準仮想カメラの位置は仮想空間のワールド座標系におけるxyz軸方向についての座標で表され、姿勢はxyz各軸周りの角度で表される。また、当該基準仮想カメラ設定データ502には、基準仮想カメラの画角やニアクリップ面、ファークリップ面等の情報も含まれる。   The reference virtual camera setting data 502 is data indicating the setting of the reference virtual camera, and is data including information on the arrangement position and orientation of the reference virtual camera. The position of the reference virtual camera is represented by coordinates in the xyz axis direction in the world coordinate system of the virtual space, and the posture is represented by an angle around each xyz axis. The reference virtual camera setting data 502 also includes information such as the angle of view of the reference virtual camera, the near clip plane, and the far clip plane.
仮想ステレオカメラ間隔データ503は、右仮想カメラと左仮想カメラとの間の距離を示すデータである。基準間隔データ508は、右仮想カメラと左仮想カメラとの間の距離の基準となる値を示すデータである。   The virtual stereo camera interval data 503 is data indicating the distance between the right virtual camera and the left virtual camera. The reference interval data 508 is data indicating a value serving as a reference for the distance between the right virtual camera and the left virtual camera.
仮想ステレオカメラ間隔データ503の値は、後述するように、基準間隔データ508が示す基準値を用いて設定される。   The value of the virtual stereo camera interval data 503 is set using a reference value indicated by the reference interval data 508, as will be described later.
x軸周りしきい値データ505およびy軸周りしきい値データ506は、後述する仮想ステレオカメラ設定更新処理で用いるデータであり、基準仮想カメラの姿勢を調整する際にどのように調整するかの判断に用いられるしきい値のデータである。   The x-axis threshold value data 505 and the y-axis threshold value data 506 are data used in a virtual stereo camera setting update process described later, and how to adjust the attitude of the reference virtual camera. This is threshold value data used for judgment.
z軸周りしきい値データ507は、後述する仮想ステレオカメラ設定更新処理で用いるデータであり、仮想ステレオカメラ間隔を調整する際にどのように調整するかの判断に用いられるしきい値のデータである。   The z-axis threshold value data 507 is data used in a virtual stereo camera setting update process, which will be described later, and is threshold value data used to determine how to adjust the virtual stereo camera interval. is there.
[ゲーム処理]
以下、本実施形態における情報処理の具体的な動作について図7および図8を参照しながら説明する。まず、ゲーム装置に電源が投入されると、CPU311によってブートプログラム(図示せず)が実行され、これによりデータ保存用内部メモリに記憶されているゲームプログラムが読み込まれてメインメモリ32に記憶される。そして、メインメモリ32に記憶されたゲームプログラムがCPU311で実行されることによって、図7、及び図8のフローチャートに示す処理が行われる。図7、及び図8は、CPU311がゲームプログラムを実行することによって行われる上記ゲーム処理の一例を、ゲーム処理における1単位時間(例えば1/60秒)に実行される内容として示すフローチャートである。なお、図7、及び図8では、ステップを「S」と省略して記載している。
[Game processing]
Hereinafter, a specific operation of the information processing in the present embodiment will be described with reference to FIGS. First, when the game apparatus is powered on, a boot program (not shown) is executed by the CPU 311, whereby a game program stored in the internal data storage memory is read and stored in the main memory 32. . Then, the game program stored in the main memory 32 is executed by the CPU 311, whereby the processes shown in the flowcharts of FIGS. 7 and 8 are performed. 7 and 8 are flowcharts showing an example of the above-described game process performed by the CPU 311 executing the game program as contents executed in one unit time (for example, 1/60 second) in the game process. In FIG. 7 and FIG. 8, the step is abbreviated as “S”.
ゲーム処理を開始すると、CPU311は、始めに初期設定処理をする(ステップ100)。具体的には、CPU311は、メインメモリ32に記憶されている各種データを初期値に設定する。   When the game process is started, the CPU 311 first performs an initial setting process (step 100). Specifically, the CPU 311 sets various data stored in the main memory 32 to initial values.
初期設定処理を終了すると、CPU311は、ゲーム操作入力受付処理を実行する(ステップ105)。具体的には、ゲーム装置のアナログスティック15や操作ボタン14A〜Eへの入力状況を把握する。   When the initial setting process is completed, the CPU 311 executes a game operation input acceptance process (step 105). Specifically, the input status to the analog stick 15 and the operation buttons 14A to 14E of the game device is grasped.
ゲーム操作入力受付処理を終了すると、CPU311は、プレイヤオブジェクト位置姿勢更新処理を実行する(ステップ110)。具体的には、アナログスティック15等への入力状況に基づいて、プレイヤオブジェクトの仮想空間内での位置および姿勢を更新し、プレイヤオブジェクト位置姿勢データ501を更新する。   When the game operation input acceptance process ends, the CPU 311 executes a player object position / posture update process (step 110). Specifically, the position and orientation of the player object in the virtual space are updated based on the input status to the analog stick 15 or the like, and the player object position / orientation data 501 is updated.
プレイヤオブジェクト位置更新処理を終了すると、CPU311は、基準仮想カメラ設定処理を行う(ステップ115)。具体的には、CPU311はまず、プレイヤオブジェクト位置姿勢データ501を参照してプレイヤオブジェクトの位置及び姿勢を取得し、取得したプレイヤオブジェクトの位置および姿勢に基づいて、基準仮想カメラの位置および姿勢を設定する。より具体的には、プレイヤオブジェクトが向いている方向に対して、プレイヤオブジェクト310の位置から後方および上方向に所定距離だけ離れた位置を基準仮想カメラの位置(基準仮想カメラ座標系の原点の座標)として決定する。さらに、決定された基準仮想カメラの位置から、プレイヤオブジェクト310の位置を向く方向が、基準仮想カメラの撮像方向となるように基準仮想カメラの姿勢(基準仮想カメラ座標系の各軸の方向)を決定する。CPU311は、以上のようにして決定された基準仮想カメラの設定を示すように、基準仮想カメラ設定データ502を更新する。なお、このときの基準仮想カメラの姿勢が、後の処理で基準仮想カメラの姿勢の更新をする際の基準の姿勢となる。   When the player object position update process ends, the CPU 311 performs a reference virtual camera setting process (step 115). Specifically, the CPU 311 first refers to the player object position / orientation data 501 to obtain the position and orientation of the player object, and sets the position and orientation of the reference virtual camera based on the obtained position and orientation of the player object. To do. More specifically, a position that is a predetermined distance away from the position of the player object 310 in the backward and upward directions with respect to the direction in which the player object is directed is the position of the reference virtual camera (the coordinates of the origin of the reference virtual camera coordinate system). ). Further, the orientation of the reference virtual camera (the direction of each axis of the reference virtual camera coordinate system) is set so that the direction from the determined reference virtual camera to the position of the player object 310 is the imaging direction of the reference virtual camera. decide. The CPU 311 updates the reference virtual camera setting data 502 so as to indicate the setting of the reference virtual camera determined as described above. Note that the posture of the reference virtual camera at this time becomes a reference posture when the posture of the reference virtual camera is updated in a later process.
基準仮想カメラ設定処理を終了すると、CPU311は、仮想カメラ間隔設定処理を行い、基準となる仮想カメラの間隔を設定する(ステップS115)。本実施例では、基準となる仮想カメラ間隔としては、本ゲームプログラムによりあらかじめ決められた距離を用いるため、仮想カメラ間隔が当該決められた距離となるように仮想カメラ間隔データを更新する。他の実施例では、例えば、ユーザの操作に応じて基準となる仮想カメラ間隔を変更するようにしてもよい。   When the reference virtual camera setting process ends, the CPU 311 performs a virtual camera interval setting process and sets a reference virtual camera interval (step S115). In this embodiment, since a distance determined in advance by the game program is used as the reference virtual camera interval, the virtual camera interval data is updated so that the virtual camera interval becomes the determined distance. In another embodiment, for example, the reference virtual camera interval may be changed according to a user operation.
仮想カメラ間隔設定処理を終了すると、CPU311は、有効化操作入力がオンになっているかどうかを確認する(ステップ120)。具体的には、有効化操作として割り当てられたユーザ操作である、Rボタン14Kの入力がオンになっているかどうか(Rボタン14Kが押された状態かどうか)を判断する。有効化操作入力がオンになっていると判断された場合(ステップ120でYES)はステップ125に、なっていないと判断された場合(ステップ120でNO)はステップ145に進む。   When the virtual camera interval setting process is completed, the CPU 311 confirms whether the enabling operation input is turned on (step 120). Specifically, it is determined whether or not the input of the R button 14K, which is a user operation assigned as an enabling operation, is on (whether or not the R button 14K is pressed). If it is determined that the enabling operation input is on (YES in step 120), the process proceeds to step 125. If it is determined that the enabling operation input is not (NO in step 120), the process proceeds to step 145.
CPU311は、ステップ120で有効化操作入力がオンになっていると判断したときには、さらに、有効化操作入力がオフからオンになったかどうかを確認する(ステップ125)。すなわち、有効化操作入力が、現在のタイミングでオンになったものか、以前のタイミングでオンになり、オンになった状態が現在まで継続しているのかのどちらであるかを判断する。有効化操作入力が現在のタイミングでオンになったと判断された場合(ステップ125でYES)はステップ135に、オンになった状態が継続していると判断された場合(ステップ125でYES)はステップ140に進む。   When the CPU 311 determines in step 120 that the enabling operation input is turned on, the CPU 311 further checks whether the enabling operation input is turned on from off (step 125). That is, it is determined whether the validation operation input is turned on at the current timing or turned on at the previous timing, and the turned-on state continues until now. When it is determined that the enabling operation input is turned on at the current timing (YES in step 125), the process proceeds to step 135, and when it is determined that the turned-on state continues (YES in step 125). Proceed to step 140.
CPU311は、ステップ130で有効化操作入力が現在のタイミングでオンになったと判断したときには、装置回転角度データ初期化処理を行う(ステップ135)。具体的には、装置のx軸、y軸、z軸周りの回転角度データをそれぞれゼロとするように、装置回転角度データ504を更新する。この処理によって、以降の仮想ステレオカメラ設定更新処理においては、有効化操作入力が有効になったときの姿勢を基準として、当該装置基準姿勢からの装置の回転角度が求められることとなる。   When the CPU 311 determines in step 130 that the validation operation input is turned on at the current timing, the CPU 311 performs device rotation angle data initialization processing (step 135). Specifically, the device rotation angle data 504 is updated so that the rotation angle data around the x-axis, y-axis, and z-axis of the device are zero. With this processing, in the subsequent virtual stereo camera setting update processing, the rotation angle of the device from the device reference posture is obtained on the basis of the posture when the validation operation input is validated.
装置姿勢データ初期化処理が終了したとき、および、ステップ130で有効化操作入力がオンになった状態が継続していると判断されたとき、CPU311は、仮想ステレオカメラ設定更新処理を行う(ステップ140)。以下、図8のフローを参照して、仮想ステレオカメラ設定更新処理の詳細について説明する。   When the apparatus attitude data initialization process is completed and when it is determined in step 130 that the state in which the validation operation input is turned on continues, the CPU 311 performs a virtual stereo camera setting update process (step 140). Hereinafter, the details of the virtual stereo camera setting update processing will be described with reference to the flow of FIG.
仮想ステレオカメラ設定更新処理において、CPU311はまず、角速度データ検出処理を行う(ステップ200)。具体的には、CPU311は、角速度センサ40によってサンプリングされた、x軸、y軸、z軸の各軸方向についての角速度を取得する。   In the virtual stereo camera setting update processing, the CPU 311 first performs angular velocity data detection processing (step 200). Specifically, the CPU 311 obtains the angular velocities for the x-axis, y-axis, and z-axis directions sampled by the angular velocity sensor 40.
角速度データ検出処理を終了すると、CPU311は、装置回転角度データ更新処理を行う(ステップ210)。具体的には、ステップ200で検出した角速度データに基づいて、ゲーム装置が、x軸、y軸、z軸の各軸周りにどれだけの角度回転したかを算出し、算出された角度を、更新前の装置回転角度データ504を参照して取得した、直前の装置回転角度(x軸、y軸、z軸の各軸周りについての装置基準姿勢からの回転角度)に加算することによって、現在の装置の回転角度を算出する。CPU311は、算出された装置の回転角度を示すように装置回転角度データ504を更新する。   When the angular velocity data detection process ends, the CPU 311 performs a device rotation angle data update process (step 210). Specifically, based on the angular velocity data detected in step 200, the angle by which the game apparatus has rotated around each of the x-axis, y-axis, and z-axis is calculated. By adding to the previous device rotation angle (rotation angle from the device reference posture about each of the x-axis, y-axis, and z-axis) acquired with reference to the device rotation angle data 504 before update, The rotation angle of the device is calculated. The CPU 311 updates the device rotation angle data 504 to indicate the calculated device rotation angle.
装置回転角度データ更新処理を終了すると、CPU311は、更新された装置回転角度データ504に基づいて基準仮想カメラの姿勢の更新を行う(ステップ215〜ステップ245)。以下、基準仮想カメラの姿勢の更新の流れについて説明する。   When the device rotation angle data update process is completed, the CPU 311 updates the attitude of the reference virtual camera based on the updated device rotation angle data 504 (steps 215 to 245). Hereinafter, the flow of updating the attitude of the reference virtual camera will be described.
まず、CPU311は、更新された装置回転角度データ504から装置のx軸周りの回転角度を参照して、当該x軸周りの回転角度が、x軸周りしきい値データ505を参照して取得されたしきい値以下であるかどうかを確認する(ステップ215)。 装置のx軸周りの回転角度がしきい値以下であった場合(ステップ215でYES)は、基準仮想カメラを、装置の回転角度に合わせるようにx軸方向に回転させる(ステップ220)。より具体的には、基準仮想カメラ設定データ502を参照して、ステップS115で設定された基準仮想カメラの位置および姿勢を取得し、当該姿勢から、基準仮想カメラ座標系のx軸周りに、装置のx軸周りの回転角度と同じだけ基準仮想カメラを回転させる。CPU311は、回転させた基準仮想カメラの姿勢を示すように基準仮想カメラ設定データ502を更新する。装置のx軸周りの回転角度がしきい値を超えていた場合(ステップ215でNO)は、装置のx軸周りの回転角度と同じだけ仮想カメラを回転してしまうと、プレイヤキャラクタが基準仮想カメラの画角から外れてしまう。そのため、装置のx軸周りの回転角度と同じだけ回転させるのではなく、しきい値として設定されたx軸周りの回転角度だけ回転させ、回転させた基準仮想カメラの姿勢を示すように基準仮想カメラ設定データ502を更新する(ステップ225)。これによって、基準仮想カメラはしきい値として設定された角度までしか回転しないため、画面上に常にプレイヤキャラクタが表示される。なお、上記の説明および以降の説明においては、しきい値と回転角度との比較に関して、両方が正の値の場合について記載しているが、実際には、基準の位置を基に、一方向への回転角度を正、当該方向と逆方向への回転角度を負として、負方向についてもしきい値の範囲内かどうかを確認している。なお、正方向と負方向のしきい値は絶対値が同じ値としてもよいし、別々の値をとるように設定してもよい。   First, the CPU 311 refers to the rotation angle around the x-axis of the device from the updated device rotation angle data 504, and the rotation angle around the x-axis is acquired with reference to the x-axis around threshold data 505. It is confirmed whether it is below the threshold value (step 215). If the rotation angle around the x-axis of the device is equal to or less than the threshold value (YES in step 215), the reference virtual camera is rotated in the x-axis direction so as to match the rotation angle of the device (step 220). More specifically, with reference to the reference virtual camera setting data 502, the position and orientation of the reference virtual camera set in step S115 are acquired, and the apparatus is arranged around the x axis of the reference virtual camera coordinate system from the orientation. The reference virtual camera is rotated by the same angle as the rotation angle around the x axis. The CPU 311 updates the reference virtual camera setting data 502 so as to indicate the orientation of the rotated reference virtual camera. If the rotation angle of the device around the x-axis exceeds the threshold value (NO in step 215), the player character will become the reference virtual if the virtual camera is rotated by the same angle as the rotation angle of the device around the x-axis. The angle of view is out of the camera. Therefore, instead of rotating as much as the rotation angle around the x-axis of the device, the reference virtual camera is rotated so as to indicate the orientation of the rotated reference virtual camera by rotating the rotation angle around the x-axis set as the threshold value. The camera setting data 502 is updated (step 225). As a result, the reference virtual camera rotates only to the angle set as the threshold value, so that the player character is always displayed on the screen. In the above description and the following description, the comparison between the threshold value and the rotation angle is described with respect to the case where both are positive values. Assuming that the rotation angle is positive and the rotation angle in the opposite direction is negative, it is confirmed whether the negative direction is also within the threshold range. Note that the positive and negative thresholds may have the same absolute value, or may be set to take different values.
x軸周りに関して基準仮想カメラ設定データ502の更新を行った後、CPU311は次に、y軸周りについてもx軸周りと同様の処理(ステップ230〜ステップ240)を行う。すなわち、CPU311は、装置のy軸周りの回転角度またはしきい値として設定されたy軸周りの回転角度だけ、基準仮想カメラ座標系のy軸周りに基準仮想カメラを回転させて、基準仮想カメラ設定データ502を更新する。これらの処理についてはx方向の場合と同様なため、詳細の説明は省略する。   After updating the reference virtual camera setting data 502 about the x axis, the CPU 311 next performs the same processing (step 230 to step 240) about the y axis as for the x axis. That is, the CPU 311 rotates the reference virtual camera around the y-axis of the reference virtual camera coordinate system by the rotation angle around the y-axis of the apparatus or the rotation angle around the y-axis set as a threshold value. The setting data 502 is updated. Since these processes are the same as those in the x direction, detailed description thereof is omitted.
y軸周りに関して基準仮想カメラ設定データ502の更新を行った後、CPU311は次に、z軸周りに関して基準仮想カメラ設定データ502の更新を行う(ステップ245)。具体的には、CPU311は、基準仮想カメラの姿勢について、装置のz軸周りの回転角度と同じだけ、基準仮想カメラ座標系のz軸周りに基準仮想カメラを回転させて、基準仮想カメラ設定データ502を更新する。なお、x方向やy方向についての場合と異なり、基準仮想カメラの撮像方向(基準仮想カメラ座標系でのz軸方向)はおおよそプレイヤオブジェクトの方向を向いているため、基準仮想カメラ座標系のz軸周りについては、どれだけ回転してもプレイヤオブジェクトが画面上に表示されなくなることがない。そのため、z軸周りについて基準仮想カメラの姿勢の更新を行う際には、しきい値を超えているかどうかを判断することなく姿勢の更新を行っている。   After updating the reference virtual camera setting data 502 about the y axis, the CPU 311 next updates the reference virtual camera setting data 502 about the z axis (step 245). Specifically, the CPU 311 rotates the reference virtual camera around the z-axis of the reference virtual camera coordinate system by the same angle as the rotation angle around the z-axis of the apparatus with respect to the orientation of the reference virtual camera, and the reference virtual camera setting data 502 is updated. Unlike the case of the x direction and the y direction, the imaging direction of the reference virtual camera (z-axis direction in the reference virtual camera coordinate system) is substantially directed to the player object, and therefore z in the reference virtual camera coordinate system. About the axis, the player object will not be displayed on the screen no matter how much it rotates. Therefore, when updating the attitude of the reference virtual camera about the z axis, the attitude is updated without determining whether or not the threshold value is exceeded.
以上のように、ステップ215〜ステップ245の処理によって、基準仮想カメラの姿勢が変更され、基準仮想カメラ設定データ502の更新が行われる。   As described above, the orientation of the reference virtual camera is changed and the reference virtual camera setting data 502 is updated by the processing from step 215 to step 245.
基準仮想カメラ設定データ502の更新が行われると、CPU311は、仮想ステレオカメラ間隔データ503の更新を行う(ステップ250〜ステップ260)。以下、仮想ステレオカメラ間隔データ503の更新の流れについて説明する。   When the reference virtual camera setting data 502 is updated, the CPU 311 updates the virtual stereo camera interval data 503 (steps 250 to 260). Hereinafter, the flow of updating the virtual stereo camera interval data 503 will be described.
まず、CPU311は、更新された装置回転角度データ504から装置のz軸周りの回転角度を参照して、当該z軸周りの回転角度が、z軸周りしきい値データ506を参照して取得されたしきい値以下であるかどうかを確認する(ステップ250)。装置のz軸周りの回転角度がしきい値以下であった場合(ステップ250でYES)は、装置のz軸周りの回転角度の大きさに応じて仮想ステレオカメラ間隔を調整する(ステップ255)。具体的には、基準間隔データ508を参照して得られる仮想ステレオカメラ間隔の基準値を装置姿勢のz軸周りの回転角度の大きさに応じて減少させる。より具体的には、装置姿勢のz軸周りの回転角度が0度の時に基準値の100%、前記z軸周りしきい値の大きさの時に基準値の0%となるように設定する。CPU311は、仮想ステレオカメラ間隔の値を示すように仮想ステレオカメラ間隔データ503を更新する。装置のz軸周りの回転角度が前記z軸周りしきい値を超えていた場合(ステップ250でNO)は、仮想ステレオカメラ間隔がゼロとなるように仮想ステレオカメラ間隔データ503を更新する(ステップ260)。   First, the CPU 311 refers to the rotation angle around the z-axis of the device from the updated device rotation angle data 504, and the rotation angle around the z-axis is acquired with reference to the z-axis around threshold data 506. It is confirmed whether it is below the threshold value (step 250). If the rotation angle around the z-axis of the device is less than or equal to the threshold value (YES in step 250), the virtual stereo camera interval is adjusted according to the magnitude of the rotation angle around the z-axis of the device (step 255). . Specifically, the reference value of the virtual stereo camera interval obtained by referring to the reference interval data 508 is decreased according to the magnitude of the rotation angle around the z axis of the device attitude. More specifically, it is set to be 100% of the reference value when the rotation angle around the z-axis of the apparatus posture is 0 degree and 0% of the reference value when the threshold value around the z-axis is large. The CPU 311 updates the virtual stereo camera interval data 503 so as to indicate the value of the virtual stereo camera interval. If the rotation angle around the z-axis of the apparatus exceeds the threshold around the z-axis (NO in step 250), the virtual stereo camera interval data 503 is updated so that the virtual stereo camera interval becomes zero (step 260).
以上のように、ステップ250〜ステップ260の処理によって、仮想ステレオカメラ間隔データ503の更新が行われる。仮想ステレオカメラ間隔データ503の更新を行うと、CPU311は、仮想ステレオカメラ設定更新処理を終了し、元の図7のフローのステップ145に進む。   As described above, the virtual stereo camera interval data 503 is updated by the processing from step 250 to step 260. When the virtual stereo camera interval data 503 is updated, the CPU 311 ends the virtual stereo camera setting update process, and proceeds to step 145 of the original flow in FIG.
仮想ステレオカメラ設定更新処理が終了した場合、および、ステップ125で有効化操作入力がオンではないと判断された場合、CPU311は、仮想ステレオカメラ配置処理を行う(ステップ145)。   When the virtual stereo camera setting update process is completed and when it is determined in step 125 that the enabling operation input is not on, the CPU 311 performs a virtual stereo camera arrangement process (step 145).
仮想ステレオカメラ配置処理を終了すると、CPU311は、配置された右仮想カメラおよび左仮想カメラによって仮想空間を撮像し、右目用画像および左目用画像を生成し、生成した画像を表示手段上に表示する(ステップ150)。   When the virtual stereo camera placement processing is completed, the CPU 311 captures the virtual space with the placed right virtual camera and left virtual camera, generates a right-eye image and a left-eye image, and displays the generated images on the display unit. (Step 150).
図9は、仮想ステレオカメラを配置する方法を示す図である。CPU311はまず、基準仮想カメラ設定データ502を参照し、基準仮想カメラBkの設定を取得する。また、仮想ステレオカメラ間隔データ503を参照して、仮想ステレオカメラ間隔Kkを取得する。そして、図9に示すように、基準仮想カメラを、基準仮想カメラ座標系の原点Oから、x軸方向の正方向及び負方向に向かって間隔Kk/2の位置に移動して、右仮想カメラHkおよび左仮想カメラMkとして配置する。なお、左仮想カメラHk、及び右仮想カメラMkの撮像方向は互いに平行となる。   FIG. 9 is a diagram illustrating a method of arranging a virtual stereo camera. First, the CPU 311 refers to the reference virtual camera setting data 502 and acquires the setting of the reference virtual camera Bk. Further, the virtual stereo camera interval Kk is acquired with reference to the virtual stereo camera interval data 503. Then, as shown in FIG. 9, the reference virtual camera is moved from the origin O of the reference virtual camera coordinate system to the position of the interval Kk / 2 in the positive and negative directions in the x-axis direction, and the right virtual camera is moved. Arrange as Hk and left virtual camera Mk. Note that the imaging directions of the left virtual camera Hk and the right virtual camera Mk are parallel to each other.
右目用画像および左目用画像の生成および表示処理が終了すると、CPU311は、ユーザによってゲーム処理を終了する操作がされたか否かを判断する(ステップ155)。ゲーム処理を終了する操作がされたと判断した場合(ステップ155でYES)は、ゲームプログラムの実行を終了する。ユーザによってゲーム処理を終了する操作がされていないと判断した場合(ステップ155でNO)は、ステップ105からの処理を繰り返す。   When the generation and display processing of the right-eye image and the left-eye image is completed, the CPU 311 determines whether or not an operation for ending the game processing has been performed by the user (step 155). If it is determined that an operation for terminating the game process has been performed (YES in step 155), the execution of the game program is terminated. If it is determined that the user has not operated the game process (NO in step 155), the process from step 105 is repeated.
以上が、本発明の実施形態に係るゲーム装置10の説明である。本実施形態に係るゲーム装置10によれば、ユーザがゲーム装置10をz軸周り(ロール方向)に回転させることによってユーザの視認する方向と、立体視に最適な方向とのずれの大きさに応じて画像の視差を低減し、視認性を向上できる。   The above is the description of the game apparatus 10 according to the embodiment of the present invention. According to the game apparatus 10 according to the present embodiment, the magnitude of the deviation between the direction visually recognized by the user and the direction optimal for stereoscopic viewing by the user rotating the game apparatus 10 about the z axis (roll direction). Accordingly, the parallax of the image can be reduced and the visibility can be improved.
なお、本実施形態では、z軸周り(ロール方向)の回転角度について、25度をしきい値として、回転角度としきい値とを比較する場合について説明したが、当該しきい値は任意の角度であってよい。   In the present embodiment, the rotation angle around the z-axis (roll direction) has been described with reference to a case where the rotation angle is compared with the threshold value using 25 degrees as a threshold value. It may be.
また、本実施形態では、ゲーム装置10が備えるアナログスティック15による方向指示操作によりプレイヤオブジェクトの移動と姿勢を制御した。しかしながら、ゲーム装置10が他の任意の方向指示手段(スライドパッド、十字キーなど)を備えるように構成し、これを用いてプレイヤオブジェクトの移動と姿勢を制御してもよい。   In the present embodiment, the movement and posture of the player object are controlled by a direction instruction operation using the analog stick 15 provided in the game apparatus 10. However, the game apparatus 10 may be configured to include other arbitrary direction instruction means (slide pad, cross key, etc.), and the movement and posture of the player object may be controlled using this.
また、本実施形態では、立体視画像を生成するようにしたが、平面視画像(立体視でない画像)を生成する場合にも適用可能である。この場合には、基準仮想カメラで仮想空間を撮影することによりゲーム画像が生成される。   In the present embodiment, a stereoscopic image is generated. However, the present invention can also be applied to a case of generating a planar image (non-stereoscopic image). In this case, a game image is generated by shooting the virtual space with the reference virtual camera.
また、上述した説明では、本発明を携帯型のゲーム装置10に適用した場合について説明したが、本発明は携帯型ゲーム装置に限定されない。例えば、据置型ゲーム装置、携帯電話機、簡易型携帯電話機(PHS)、PDA等の携帯情報端末にも本発明の適用は可能である。また、据置型ゲーム機やパーソナルコンピュータにも本発明の適用は可能である。   In the above description, the case where the present invention is applied to the portable game apparatus 10 has been described, but the present invention is not limited to the portable game apparatus. For example, the present invention can be applied to a portable information terminal such as a stationary game apparatus, a mobile phone, a simple mobile phone (PHS), and a PDA. The present invention can also be applied to stationary game machines and personal computers.
以上、本発明を詳細に説明してきたが、前述の説明はあらゆる点において本発明の例示に過ぎず、その範囲を限定しようとするものではない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。また、当業者は、本発明の具体的な実施形態の記載から、本発明の記載及び技術常識に基づいて等価な範囲を実施することができることが理解される。また、本明細書において使用される用語は、特に言及しない限り、当該分野で通常用いられる意味で用いられることが理解されるべきである。従って、他に定義されない限り、本明細書中で使用される全ての専門用語及び技術用語は、本発明の属する分野の当業者によって一般的に理解されるのと同じ意味を有する。矛盾する場合、本明細書(定義を含めて)が優先する。   Although the present invention has been described in detail above, the above description is merely illustrative of the present invention in all respects and is not intended to limit the scope thereof. It goes without saying that various improvements and modifications can be made without departing from the scope of the present invention. It is understood that the scope of the present invention should be construed only by the claims. Moreover, it is understood that those skilled in the art can implement an equivalent range from the description of the specific embodiments of the present invention based on the description of the present invention and the common general technical knowledge. In addition, it is to be understood that the terms used in the present specification are used in the meaning normally used in the art unless otherwise specified. Thus, unless defined otherwise, all technical and technical terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. In case of conflict, the present specification, including definitions, will control.
本発明に係る画像生成プログラム、画像生成装置、画像生成システム及び画像生成方法は、視認性を向上することが可能な画像生成プログラム、画像生成装置、画像生成システム及び画像生成方法等として有用である。   The image generation program, the image generation apparatus, the image generation system, and the image generation method according to the present invention are useful as an image generation program, an image generation apparatus, an image generation system, an image generation method, and the like that can improve visibility. .
10 ゲーム装置
11 下側ハウジング
12 下側LCD
13 タッチパネル
14 操作ボタン
15 アナログスティック
16 LED
17 挿入口
18 マイクロフォン用孔
19 無線スイッチ
21 上側ハウジング
22 上側LCD
23 外側撮像部
23a 外側左撮像部
23b 外側右撮像部
24 内側撮像部
25 3D調整スイッチ
26 3Dインジケータ
28 タッチペン
31 情報処理部
311 CPU
312 GPU
313 VRAM
32 メインメモリ
33 外部メモリI/F
34 データ保存用外部メモリI/F
35 データ保存用内部メモリ
36 無線通信モジュール
37 ローカル通信モジュール
38 RTC
39 加速度センサ
40 角速度センサ
41 電源回路
42 I/F回路
43 マイク
44 スピーカ
45 外部メモリ
46 データ保存用外部メモリ
10 Game device 11 Lower housing 12 Lower LCD
13 Touch Panel 14 Operation Buttons 15 Analog Stick 16 LED
17 Insertion slot 18 Microphone hole 19 Wireless switch 21 Upper housing 22 Upper LCD
23 outer imaging unit 23a outer left imaging unit 23b outer right imaging unit 24 inner imaging unit 25 3D adjustment switch 26 3D indicator 28 touch pen 31 information processing unit 311 CPU
312 GPU
313 VRAM
32 Main memory 33 External memory I / F
34 External memory I / F for data storage
35 Internal memory for data storage 36 Wireless communication module 37 Local communication module 38 RTC
39 Acceleration sensor 40 Angular velocity sensor 41 Power supply circuit 42 I / F circuit 43 Microphone 44 Speaker 45 External memory 46 External memory for data storage

Claims (6)

  1. 表示手段を備える携帯型の表示装置のコンピュータにおいて実行される画像生成プログラムであって、
    ユーザによるオブジェクト移動操作を受付け、当該操作に基づいて仮想空間内のオブジェクトを移動させるオブジェクト移動手段、
    前記オブジェクト移動手段によって移動されたオブジェクトの仮想空間内での位置と姿勢と進行方向との少なくとも一つに基づいて、前記仮想空間内に仮想カメラを設定する仮想カメラ設定手段、
    ユーザによる有効化操作を受付け、当該有効化操作に応じて、表示装置の姿勢に応じた仮想カメラの姿勢制御である第1カメラ制御を有効化する有効化手段、
    前記第1カメラ制御が有効化されている場合は、前記仮想カメラ設定手段によって設定された仮想カメラの姿勢を、前記表示装置の姿勢に応じて変化させて、当該姿勢を変化させた仮想カメラによって前記仮想空間を撮像し、前記第1カメラ制御が有効化されていない場合は、前記仮想カメラ設定手段によって設定された仮想カメラを用いて前記仮想空間を撮像して、前記表示手段に表示する画像を生成する画像生成手段、として前記コンピュータを機能させ
    前記画像生成手段は、前記第1カメラ制御が有効化された状態から当該第1カメラ制御の有効化が解除された場合に、当該解除された時の前記表示装置の姿勢に関わらず、前記仮想カメラ設定手段によって設定された仮想カメラの姿勢を用いる、画像生成プログラム。
    An image generation program executed in a computer of a portable display device including a display unit,
    Object moving means for receiving an object moving operation by a user and moving an object in the virtual space based on the operation;
    Virtual camera setting means for setting a virtual camera in the virtual space based on at least one of a position, a posture, and a traveling direction of the object moved by the object moving means in the virtual space;
    An enabling means for accepting an enabling operation by a user and enabling first camera control, which is attitude control of a virtual camera in accordance with the attitude of the display device, according to the enabling operation;
    When the first camera control is enabled, the virtual camera posture set by the virtual camera setting unit is changed according to the posture of the display device, and the virtual camera changes the posture. When the virtual space is imaged and the first camera control is not enabled, the virtual space is imaged using the virtual camera set by the virtual camera setting unit and displayed on the display unit image generating means for generating, makes the computer function as,
    When the activation of the first camera control is canceled from the state in which the first camera control is enabled, the image generation unit is configured to output the virtual image regardless of the attitude of the display device at the time of the cancellation. An image generation program using the attitude of a virtual camera set by camera setting means .
  2. 前記画像生成手段は、
    前記第1カメラ制御が有効化されている場合に、前記第1カメラ制御が有効化された時の表示装置の姿勢を基準姿勢として、当該基準姿勢からの装置の姿勢の変化量に基づいて、前記仮想カメラの姿勢を変化させる、請求項1に記載の画像生成プログラム。
    The image generating means includes
    When the first camera control is enabled, the orientation of the display device when the first camera control is enabled is used as a reference orientation, based on the amount of change in the orientation of the device from the reference orientation, The image generation program according to claim 1, wherein the posture of the virtual camera is changed.
  3. 前記仮想カメラ設定手段は、
    前記オブジェクトが撮像範囲に含まれるように仮想カメラを設定する、請求項に記載の画像生成プログラム。
    The virtual camera setting means includes
    The image generation program according to claim 1 , wherein a virtual camera is set so that the object is included in an imaging range.
  4. 表示手段を備える携帯型の画像生成装置であって、
    ユーザによるオブジェクト移動操作を受付け、当該操作に基づいて仮想空間内のオブジェクトを移動させるオブジェクト移動手段、
    前記オブジェクト移動手段によって移動されたオブジェクトの仮想空間内での位置と姿勢と進行方向との少なくとも一つに基づいて、前記仮想空間内に仮想カメラを設定する仮想カメラ設定手段、
    ユーザによる有効化操作を受付け、当該有効化操作に応じて、表示手段の姿勢に応じた仮想カメラの姿勢制御である第1カメラ制御を有効化する有効化手段、および
    前記第1カメラ制御が有効化されている場合は、前記仮想カメラ設定手段によって設定された仮想カメラの姿勢を、前記表示手段の姿勢に応じて変化させて、当該姿勢を変化させた仮想カメラによって前記仮想空間を撮像し、前記第1カメラ制御が有効化されていない場合は、前記仮想カメラ設定手段によって設定された仮想カメラを用いて前記仮想空間を撮像して、前記表示手段に表示する画像を生成する画像生成手段、を備え
    前記画像生成手段は、前記第1カメラ制御が有効化された状態から当該第1カメラ制御の有効化が解除された場合に、当該解除された時の前記表示装置の姿勢に関わらず、前記仮想カメラ設定手段によって設定された仮想カメラの姿勢を用いる、画像生成装置。
    A portable image generating device comprising a display means,
    Object moving means for receiving an object moving operation by a user and moving an object in the virtual space based on the operation;
    Virtual camera setting means for setting a virtual camera in the virtual space based on at least one of a position, a posture, and a traveling direction of the object moved by the object moving means in the virtual space;
    An enabling means for accepting an enabling operation by a user and enabling the first camera control, which is the attitude control of the virtual camera in accordance with the attitude of the display means , according to the enabling operation, and the first camera control is effective The virtual camera set by the virtual camera setting means is changed according to the attitude of the display means , and the virtual space is imaged by the virtual camera that has changed the attitude, When the first camera control is not validated, an image generating unit that captures an image of the virtual space using the virtual camera set by the virtual camera setting unit and generates an image to be displayed on the display unit; equipped with a,
    When the activation of the first camera control is canceled from the state in which the first camera control is enabled, the image generation unit is configured to output the virtual image regardless of the attitude of the display device at the time of the cancellation. An image generation apparatus using a virtual camera attitude set by a camera setting unit .
  5. 表示手段を備える携帯型の画像生成装置において実行される画像生成方法であって、
    ユーザによるオブジェクト移動操作を受付け、当該操作に基づいて仮想空間内のオブジェクトを移動させるオブジェクト移動ステップ、
    前記オブジェクト移動ステップで移動されたオブジェクトの仮想空間内での位置と姿勢と進行方向との少なくとも一つに基づいて、前記仮想空間内に仮想カメラを設定する仮想カメラ設定ステップ、
    ユーザによる有効化操作を受付け、当該有効化操作に応じて、表示手段の姿勢に応じた仮想カメラの姿勢制御である第1カメラ制御を有効化する有効化ステップ、および
    前記第1カメラ制御が有効化されている場合は、前記仮想カメラ設定ステップによって設定された仮想カメラの姿勢を、前記表示手段の姿勢に応じて変化させて、当該姿勢を変化させた仮想カメラによって前記仮想空間を撮像し、前記第1カメラ制御が有効化されていない場合は、前記仮想カメラ設定手段によって設定された仮想カメラを用いて前記仮想空間を撮像して、前記表示手段に表示する画像を生成する画像生成ステップ、を備え
    前記画像生成ステップにおいては、前記第1カメラ制御が有効化された状態から当該第1カメラ制御の有効化が解除された場合に、当該解除された時の前記表示装置の姿勢に関わらず、前記仮想カメラ設定ステップによって設定された仮想カメラの姿勢が用いられる、画像生成方法。
    An image generation method executed in a portable image generation device including a display unit,
    An object moving step of accepting an object moving operation by a user and moving an object in the virtual space based on the operation;
    A virtual camera setting step of setting a virtual camera in the virtual space based on at least one of a position, a posture, and a traveling direction of the object moved in the object moving step in the virtual space;
    An enabling step of accepting an enabling operation by the user and enabling the first camera control, which is the attitude control of the virtual camera according to the attitude of the display means , according to the enabling operation, and the first camera control is effective The virtual camera set in the virtual camera setting step is changed according to the attitude of the display means , and the virtual space is imaged by the virtual camera that has changed the attitude, When the first camera control is not enabled, an image generation step of capturing an image of the virtual space using a virtual camera set by the virtual camera setting unit and generating an image to be displayed on the display unit; equipped with a,
    In the image generation step, when the activation of the first camera control is canceled from the state in which the first camera control is enabled, regardless of the posture of the display device at the time of the cancellation, An image generation method in which the attitude of the virtual camera set by the virtual camera setting step is used .
  6. 表示手段を備える携帯型の表示装置を含む画像生成システムであって、
    ユーザによるオブジェクト移動操作を受付け、当該操作に基づいて仮想空間内のオブジェクトを移動させるオブジェクト移動手段、
    前記オブジェクト移動手段によって移動されたオブジェクトの仮想空間内での位置と姿勢と進行方向との少なくとも一つに基づいて、前記仮想空間内に仮想カメラを設定する仮想カメラ設定手段、
    ユーザによる有効化操作を受付け、当該有効化操作に応じて、表示装置の姿勢に応じた仮想カメラの姿勢制御である第1カメラ制御を有効化する有効化手段、および
    前記第1カメラ制御が有効化されている場合は、前記仮想カメラ設定手段によって設定された仮想カメラの姿勢を、前記表示装置の姿勢に応じて変化させて、当該姿勢を変化させた仮想カメラによって前記仮想空間を撮像し、前記第1カメラ制御が有効化されていない場合は、前記仮想カメラ設定手段によって設定された仮想カメラを用いて前記仮想空間を撮像して、前記表示手段に表示する画像を生成する画像生成手段、を備え
    前記画像生成手段は、前記第1カメラ制御が有効化された状態から当該第1カメラ制御の有効化が解除された場合に、当該解除された時の前記表示装置の姿勢に関わらず、前記仮想カメラ設定手段によって設定された仮想カメラの姿勢を用いる、画像生成システム。
    An image generation system including a portable display device including a display unit,
    Object moving means for receiving an object moving operation by a user and moving an object in the virtual space based on the operation;
    Virtual camera setting means for setting a virtual camera in the virtual space based on at least one of a position, a posture, and a traveling direction of the object moved by the object moving means in the virtual space;
    An enabling means for accepting an enabling operation by a user and enabling the first camera control, which is the attitude control of the virtual camera according to the attitude of the display device, according to the enabling operation, and the first camera control is effective The virtual camera set by the virtual camera setting means is changed according to the attitude of the display device, and the virtual space is imaged by the virtual camera having the attitude changed, When the first camera control is not validated, an image generating unit that captures an image of the virtual space using the virtual camera set by the virtual camera setting unit and generates an image to be displayed on the display unit; equipped with a,
    When the activation of the first camera control is canceled from the state in which the first camera control is enabled, the image generation unit is configured to output the virtual image regardless of the attitude of the display device at the time of the cancellation. An image generation system using a virtual camera posture set by a camera setting means .
JP2011126771A 2011-06-06 2011-06-06 Image generation program, image generation method, image generation apparatus, and image generation system Active JP5764390B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011126771A JP5764390B2 (en) 2011-06-06 2011-06-06 Image generation program, image generation method, image generation apparatus, and image generation system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011126771A JP5764390B2 (en) 2011-06-06 2011-06-06 Image generation program, image generation method, image generation apparatus, and image generation system
US13/485,156 US9914056B2 (en) 2011-06-03 2012-05-31 Storage medium having stored therein an image generation program, image generation method, image generation apparatus and image generation system
US13/484,980 US9259645B2 (en) 2011-06-03 2012-05-31 Storage medium having stored therein an image generation program, image generation method, image generation apparatus and image generation system

Publications (2)

Publication Number Publication Date
JP2012252661A JP2012252661A (en) 2012-12-20
JP5764390B2 true JP5764390B2 (en) 2015-08-19

Family

ID=47525380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011126771A Active JP5764390B2 (en) 2011-06-06 2011-06-06 Image generation program, image generation method, image generation apparatus, and image generation system

Country Status (1)

Country Link
JP (1) JP5764390B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6396027B2 (en) * 2014-02-12 2018-09-26 株式会社バンダイナムコエンターテインメント Program and game device
JP6598522B2 (en) * 2015-06-12 2019-10-30 任天堂株式会社 Information processing apparatus, information processing system, information processing method, and information processing program
JP6461394B1 (en) * 2018-02-14 2019-01-30 株式会社 ディー・エヌ・エー Image generating apparatus and image generating program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0969023A (en) * 1995-06-19 1997-03-11 Matsushita Electric Ind Co Ltd Method and device for image display
JP2002298160A (en) * 2001-03-29 2002-10-11 Namco Ltd Portable image generating device and program, and information storage medium
JP3952396B2 (en) * 2002-11-20 2007-08-01 任天堂株式会社 GAME DEVICE AND INFORMATION PROCESSING DEVICE
WO2010060211A1 (en) * 2008-11-28 2010-06-03 Nortel Networks Limited Method and apparatus for controling a camera view into a three dimensional computer-generated virtual environment
JP5122659B2 (en) * 2011-01-07 2013-01-16 任天堂株式会社 Information processing program, information processing method, information processing apparatus, and information processing system

Also Published As

Publication number Publication date
JP2012252661A (en) 2012-12-20

Similar Documents

Publication Publication Date Title
JP5689707B2 (en) Display control program, display control device, display control system, and display control method
JP5122659B2 (en) Information processing program, information processing method, information processing apparatus, and information processing system
JP5702653B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP5945100B2 (en) INPUT PROCESSING PROGRAM, INPUT PROCESSING DEVICE, INPUT PROCESSING METHOD, AND INPUT PROCESSING SYSTEM
JP6148714B2 (en) Portable electronic devices
WO2011148544A1 (en) Portable electronic device
JP6242039B2 (en) Apparatus and method for gyro controlled game viewpoint with automatic centering function
JP5586545B2 (en) GAME SYSTEM, PORTABLE GAME DEVICE, INFORMATION PROCESSOR CONTROL METHOD, AND INFORMATION PROCESSOR CONTROL PROGRAM
JP6021296B2 (en) Display control program, display control device, display control system, and display control method
JP5941620B2 (en) Information processing program, information processing apparatus, information processing method, and information processing system
JP5117565B2 (en) Information processing program, information processing apparatus, information processing method, and information processing system
JP5764390B2 (en) Image generation program, image generation method, image generation apparatus, and image generation system
JP5785732B2 (en) Information processing program, imaging apparatus, imaging method, and imaging system
US8784202B2 (en) Apparatus and method for repositioning a virtual camera based on a changed game state
JP2012168783A (en) Information processor, information processing program, information processing method and information processing system
JP5759797B2 (en) Image generation program, image generation method, image generation apparatus, and image generation system
US9914056B2 (en) Storage medium having stored therein an image generation program, image generation method, image generation apparatus and image generation system
JP5770018B2 (en) Display control program, display control apparatus, display control method, and display control system
JP5639138B2 (en) Information processing program, information processing method, information processing apparatus, and information processing system
JP5714393B2 (en) Information processing program, information processing apparatus, information processing method, and information processing system
JP5620748B2 (en) Portable electronic devices
JP5777332B2 (en) GAME DEVICE, GAME PROGRAM, GAME SYSTEM, AND GAME METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150501

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150615

R150 Certificate of patent or registration of utility model

Ref document number: 5764390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250