JP2009258523A - Image display device, method for controlling image display device, and program - Google Patents

Image display device, method for controlling image display device, and program Download PDF

Info

Publication number
JP2009258523A
JP2009258523A JP2008109661A JP2008109661A JP2009258523A JP 2009258523 A JP2009258523 A JP 2009258523A JP 2008109661 A JP2008109661 A JP 2008109661A JP 2008109661 A JP2008109661 A JP 2008109661A JP 2009258523 A JP2009258523 A JP 2009258523A
Authority
JP
Japan
Prior art keywords
pitch angle
viewpoint
data
center point
allowable range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008109661A
Other languages
Japanese (ja)
Other versions
JP5174522B2 (en
Inventor
Takayuki Shinohara
隆之 篠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2008109661A priority Critical patent/JP5174522B2/en
Priority to US12/937,883 priority patent/US8797360B2/en
Priority to PCT/JP2008/072342 priority patent/WO2009128181A1/en
Publication of JP2009258523A publication Critical patent/JP2009258523A/en
Application granted granted Critical
Publication of JP5174522B2 publication Critical patent/JP5174522B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image display device capable of controlling a state of displaying an image of a virtual object which is a display target on a screen. <P>SOLUTION: A virtual space display unit 86 displays an image showing an appearance which is seen by looking visual field area determined from a view point in a virtual space in which the virtual object is arranged and from a visual line direction. A tolerance calculation unit 102 calculates a moving tolerance of a view point position and/or a change tolerance of the visual line direction on the basis of a size of an area in which the visual field area intersects with a closed area occupied by the virtual object. A view point moving unit 110 executes movement of the view point position and/or a change of the visual line direction within the tolerance according to user's view point moving operation. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像表示装置、画像表示装置の制御方法及びプログラムに関する。   The present invention relates to an image display device, a control method for the image display device, and a program.

仮想オブジェクトが配置されている仮想空間内の視点及び視線方向から決定される視野領域を見た様子を示す画像をモニタの画面などに表示する画像表示装置が知られている。例えば、特許文献1には、物体の3次元画像を簡易かつ精確に表示することができる画像表示装置に関する技術が開示されている。このような画像表示装置において、仮想空間内に配置されている仮想オブジェクトには、具体的には、例えば、航空写真や衛星写真のテクスチャが張られている複数のポリゴンによって表現される地球や、三次元モデリングを行うことによって、複数のポリゴンによって表現される山脈などが挙げられる。   There is known an image display device that displays an image showing a view of a visual field area determined from a viewpoint and a line-of-sight direction in a virtual space in which a virtual object is arranged on a monitor screen or the like. For example, Patent Document 1 discloses a technique related to an image display device that can display a three-dimensional image of an object easily and accurately. In such an image display device, the virtual object arranged in the virtual space specifically includes, for example, the earth represented by a plurality of polygons with textures of aerial photographs and satellite photographs, By performing three-dimensional modeling, mountain ranges represented by a plurality of polygons can be mentioned.

そして、このような画像表示装置では、ユーザは操作によって仮想空間内の視点を移動させることができ、あたかも空から地球を見ているかのような臨場感あふれる体験をすることができる。
米国特許第5912671号明細書
In such an image display apparatus, the user can move the viewpoint in the virtual space by an operation, and can experience an experience full of realism as if he was looking at the earth from the sky.
US Pat. No. 5,912,671

しかしながら、以上のような画像表示装置では、視点の位置や視線方向によっては、仮想オブジェクトの画像が画面に表示されない状態、あるいは、仮想オブジェクトの画像がほとんど画面に表示されない状態になることがあった(図18参照)。すると、ユーザは現在の仮想オブジェクトに対する視点の位置や視線方向を判断することができなくなってしまい、ユーザが操作によって、仮想オブジェクトを示す画像が再び画面に表示されるよう、視点の位置や視線方向を制御することが難しかった。このようなときに、例えば、仮想オブジェクトを示す画像が常に画面に表示されているなどのように、表示対象である仮想オブジェクトの画像が画面に表示される状態が制御されていることが望ましい。   However, in the image display device as described above, depending on the position of the viewpoint and the viewing direction, the virtual object image may not be displayed on the screen, or the virtual object image may be hardly displayed on the screen. (See FIG. 18). Then, the user cannot determine the viewpoint position and the line-of-sight direction for the current virtual object, and the viewpoint position and the line-of-sight direction are displayed so that an image showing the virtual object is displayed on the screen again by the user operation. It was difficult to control. In such a case, for example, it is desirable that the state in which the image of the virtual object to be displayed is displayed on the screen is controlled such that an image showing the virtual object is always displayed on the screen.

本発明は上記課題に鑑みてなされたものであって、表示対象である仮想オブジェクトの画像が画面に表示される状態を制御できる画像表示装置、画像表示装置の制御方法及びプログラムを提供することを目的とする。   The present invention has been made in view of the above problems, and provides an image display device capable of controlling a state in which an image of a virtual object to be displayed is displayed on a screen, a control method for the image display device, and a program. Objective.

上記課題を解決するために、本発明に係る画像表示装置は、仮想オブジェクトが配置されている仮想空間内の視点及び視線方向から決定される視野領域を見た様子を示す画像を表示する画像表示装置であって、前記視野領域と前記仮想オブジェクトが占める閉領域とが交わる領域の大きさに基づいて、前記視点の位置の移動許容範囲及び/又は前記視線方向の変更許容範囲を算出する許容範囲算出手段と、ユーザによる視点移動操作に応じて、前記許容範囲内で前記視点の位置の移動及び/又は前記視線方向の変更を実行する視点移動手段と、を含むことを特徴とする。   In order to solve the above-described problem, an image display device according to the present invention displays an image showing a state of viewing a visual field region determined from a viewpoint and a viewing direction in a virtual space in which a virtual object is arranged. An allowable range for calculating a movement allowable range of the viewpoint position and / or a change allowable range of the line-of-sight direction based on a size of a region where the visual field region and a closed region occupied by the virtual object intersect And a viewpoint moving means for executing movement of the position of the viewpoint and / or change of the line-of-sight direction within the allowable range in accordance with a viewpoint moving operation by a user.

また、本発明に係る画像表示装置の制御方法は、仮想オブジェクトが配置されている仮想空間内の視点及び視線方向から決定される視野領域を見た様子を示す画像を表示する画像表示装置の制御方法であって、前記視野領域と前記仮想オブジェクトが占める閉領域とが交わる領域の大きさに基づいて、前記視点の位置の移動許容範囲及び/又は前記視線方向の変更許容範囲を算出する許容範囲算出ステップと、ユーザによる視点移動操作に応じて、前記許容範囲内で前記視点の位置の移動及び/又は前記視線方向の変更を実行する視点移動ステップと、を含むことを特徴とする。   The image display apparatus control method according to the present invention controls an image display apparatus that displays an image showing a view field area determined from a viewpoint and a line-of-sight direction in a virtual space where a virtual object is arranged. An allowable range for calculating a movement allowable range of the viewpoint position and / or a change allowable range of the line-of-sight direction based on a size of a region where the visual field region and a closed region occupied by the virtual object intersect A calculating step; and a viewpoint moving step of executing movement of the position of the viewpoint and / or change of the line-of-sight direction within the allowable range in accordance with a viewpoint moving operation by a user.

また、本発明に係るプログラムは、仮想オブジェクトが配置されている仮想空間内の視点及び視線方向から決定される視野領域を見た様子を示す画像を表示する画像表示装置としてコンピュータを機能させるためのプログラムであって、前記視野領域と前記仮想オブジェクトが占める閉領域とが交わる領域の大きさに基づいて、前記視点の位置の移動許容範囲及び/又は前記視線方向の変更許容範囲を算出する許容範囲算出手段、ユーザによる視点移動操作に応じて、前記許容範囲内で前記視点の位置の移動及び/又は前記視線方向の変更を実行する視点移動手段、として前記コンピュータを機能させることを特徴とする。   Further, the program according to the present invention is for causing a computer to function as an image display device that displays an image showing a state of viewing a visual field region determined from a viewpoint and a line-of-sight direction in a virtual space where a virtual object is arranged. An allowable range for calculating an allowable range of movement of the viewpoint position and / or an allowable range of change of the line of sight based on the size of an area where the visual field area and the closed area occupied by the virtual object intersect The computer is caused to function as calculation means and viewpoint movement means for executing movement of the viewpoint position and / or change of the line-of-sight direction within the allowable range in accordance with a viewpoint movement operation by a user.

また、上記のプログラムはコンピュータ読み取り可能な情報記憶媒体に格納することもできる。   The above program can also be stored in a computer-readable information storage medium.

本発明によると、視野領域と仮想オブジェクトが占める閉領域との重なり具合により、算出される許容範囲内を視点が移動されたり、当該許容範囲内で視線方向が変更されたりするので、表示対象である仮想オブジェクトの画像が画面に表示される状態を制御することができる。   According to the present invention, the viewpoint is moved within the calculated allowable range or the line-of-sight direction is changed within the allowable range due to the overlap between the visual field region and the closed region occupied by the virtual object. It is possible to control the state in which an image of a certain virtual object is displayed on the screen.

本発明の一態様では、前記許容範囲算出手段が、前記視線方向が前記閉領域に対する接線方向に対応する方向である際の前記視点の位置及び/又は前記視線方向を前記許容範囲内と前記許容範囲外との境界として算出することを特徴とする。こうすれば、仮想オブジェクトの輪郭がモニタの画面の中央に表示されるよう、仮想オブジェクトの画像が画面に表示される状態を制御することができる。   In one aspect of the present invention, the permissible range calculation means sets the viewpoint position and / or the gaze direction within the permissible range and the permissible direction when the gaze direction is a direction corresponding to a tangential direction with respect to the closed region. It is calculated as a boundary with the outside of the range. In this way, it is possible to control the state in which the image of the virtual object is displayed on the screen so that the outline of the virtual object is displayed at the center of the monitor screen.

また、本発明の一態様では、ユーザによるピッチ角変更操作に応じて、前記視点の現在位置から、前記視点から前記視線方向に向かう直線上に存在するピッチ角変更中心点を中心にピッチ角を変更し、ピッチ角変更後の前記視点の位置から前記ピッチ角変更中心点を向くよう前記視線方向を変更するピッチ角変更手段、をさらに含み、前記許容範囲算出手段が、前記ピッチ角変更中心点と前記視点とを通る直線の方向が前記閉領域に対する接線方向に対応する方向である際の前記視点の位置及び/又は前記視線方向を前記許容範囲内と前記許容範囲外との境界として算出することを特徴とする。こうすれば、ユーザがピッチ角変更操作を実行することができる。また、ピッチ角変更中心点と視点とを通る直線に基づいて許容範囲内と許容範囲外との境界を算出することができるので、許容範囲をより容易に算出することができる。   Further, according to one aspect of the present invention, the pitch angle is changed around a pitch angle change center point existing on a straight line from the viewpoint to the line-of-sight direction from the current position of the viewpoint according to a pitch angle change operation by a user. Pitch angle changing means for changing the line-of-sight direction so as to face the pitch angle change center point from the position of the viewpoint after the pitch angle change, and the allowable range calculation means includes the pitch angle change center point The position of the viewpoint and / or the line-of-sight direction when the direction of the straight line passing through the viewpoint and the direction corresponding to the tangential direction with respect to the closed region is calculated as a boundary between the tolerance range and the tolerance range. It is characterized by that. In this way, the user can execute a pitch angle changing operation. Further, since the boundary between the allowable range and the outside of the allowable range can be calculated based on a straight line passing through the pitch angle change center point and the viewpoint, the allowable range can be calculated more easily.

また、本発明の一態様では、前記許容範囲算出手段が、ピッチ角の範囲を算出し、前記ピッチ角変更手段が、前記許容範囲算出手段が算出するピッチ角の範囲内で、ピッチ角を変更することを特徴とする。こうすれば、ピッチ角によって許容範囲を制御することができるので、許容範囲の制御がより容易になる。   In the aspect of the invention, the allowable range calculating unit calculates a pitch angle range, and the pitch angle changing unit changes the pitch angle within the pitch angle range calculated by the allowable range calculating unit. It is characterized by doing. In this way, the allowable range can be controlled by the pitch angle, so that the control of the allowable range becomes easier.

また、この態様では、前記ピッチ角変更中心点と前記視点とを通る直線と、前記仮想オブジェクトを示す領域に対して垂直な前記ピッチ角変更中心点を通る直線と、がなす角の、前記許容範囲算出手段が算出するピッチ角の範囲の最大値である最大ピッチ角に対する比率を示す相対ピッチ角データを記憶する相対ピッチ角データ記憶手段と、ユーザによる相対ピッチ角変更操作に応じて、前記相対ピッチ角データ記憶手段に記憶されている前記相対ピッチ角データを変更する相対ピッチ角データ変更手段と、前記相対ピッチ角データが示す前記最大ピッチ角に対する比率と、前記最大ピッチ角と、に基づいて、ピッチ角を算出するピッチ角算出手段と、をさらに含み、前記視点ピッチ角変更手段が、前記ピッチ角算出手段により算出されるピッチ角と、前記ピッチ角変更中心点の位置と、に基づいて、ピッチ角を変更するようにしてもよい。こうすれば、相対ピッチ角によって視点の位置を管理することができる。   Further, in this aspect, the permissible angle formed by a straight line passing through the pitch angle change center point and the viewpoint and a straight line passing through the pitch angle change center point perpendicular to the area indicating the virtual object Relative pitch angle data storage means for storing relative pitch angle data indicating a ratio to the maximum pitch angle which is the maximum value of the range of pitch angles calculated by the range calculation means, and the relative pitch angle according to a relative pitch angle change operation by the user Based on the relative pitch angle data changing means for changing the relative pitch angle data stored in the pitch angle data storage means, the ratio to the maximum pitch angle indicated by the relative pitch angle data, and the maximum pitch angle. Pitch angle calculating means for calculating a pitch angle, and the viewpoint pitch angle changing means is calculated by the pitch angle calculating means. And Ji angle, the position of the pitch angle change center point, on the basis, may be changing the pitch angle. In this way, the position of the viewpoint can be managed by the relative pitch angle.

以下、本発明の一実施形態について図面に基づき詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本実施形態に係るエンタテインメントシステム(画像表示装置)のハードウェア構成を示す図である。図1に示すように、エンタテインメントシステム10は、MPU(Micro Processing Unit)11と、メインメモリ20と、画像処理部24と、モニタ26と、入出力処理部28と、音声処理部30と、スピーカ32と、光ディスク読み取り部34と、光ディスク36と、ハードディスク38と、インタフェース(I/F)40,44と、コントローラ42と、カメラユニット46と、ネットワークインタフェース48と、を含んで構成されるコンピュータシステムである。   FIG. 1 is a diagram illustrating a hardware configuration of an entertainment system (image display apparatus) according to the present embodiment. As shown in FIG. 1, an entertainment system 10 includes an MPU (Micro Processing Unit) 11, a main memory 20, an image processing unit 24, a monitor 26, an input / output processing unit 28, an audio processing unit 30, and a speaker. 32, an optical disk reading unit 34, an optical disk 36, a hard disk 38, interfaces (I / F) 40, 44, a controller 42, a camera unit 46, and a network interface 48. It is.

図2は、MPU11の構成を示す図である。図2に示すように、MPU11は、メインプロセッサ12と、サブプロセッサ14a,14b,14c,14d,14e,14f,14g,14hと、バス16と、メモリコントローラ18と、インタフェース(I/F)22と、を含んで構成される。   FIG. 2 is a diagram illustrating the configuration of the MPU 11. As shown in FIG. 2, the MPU 11 includes a main processor 12, sub-processors 14 a, 14 b, 14 c, 14 d, 14 e, 14 f, 14 g, 14 h, a bus 16, a memory controller 18, and an interface (I / F) 22. And comprising.

メインプロセッサ12は、図示しないROM(Read Only Memory)に記憶されるオペレーティングシステム、例えばDVD(Digital Versatile Disk)−ROM等の光ディスク36から読み出されるプログラム及びデータや、通信ネットワークを介して供給されるプログラム及びデータ等に基づいて、各種情報処理を行ったり、サブプロセッサ14a乃至14hに対する制御を行ったりする。   The main processor 12 is an operating system stored in a ROM (Read Only Memory) (not shown), for example, a program and data read from an optical disc 36 such as a DVD (Digital Versatile Disk) -ROM, and a program supplied via a communication network. Based on the data and the like, various information processing is performed, and the sub-processors 14a to 14h are controlled.

サブプロセッサ14a乃至14hは、メインプロセッサ12からの指示に従って、各種情報処理を行ったり、エンタテインメントシステム10の各部を、例えばDVD−ROM等の光ディスク36から読み出されるプログラム及びデータや、通信ネットワークを介して供給されるプログラム及びデータ等に基づいて制御したりする。   The sub-processors 14a to 14h perform various types of information processing in accordance with instructions from the main processor 12, and each part of the entertainment system 10 is read from the optical disk 36 such as a DVD-ROM or the like via a communication network. Control based on supplied programs and data.

バス16は、アドレス及びデータをエンタテインメントシステム10の各部でやり取りするためのものである。メインプロセッサ12、サブプロセッサ14a乃至14h、メモリコントローラ18、インタフェース22は、バス16を介して相互にデータ授受可能に接続される。   The bus 16 is used for exchanging addresses and data among the various parts of the entertainment system 10. The main processor 12, the sub processors 14a to 14h, the memory controller 18, and the interface 22 are connected to each other via the bus 16 so as to be able to exchange data.

メモリコントローラ18は、メインプロセッサ12及びサブプロセッサ14a乃至14hからの指示に従って、メインメモリ20へのアクセスを行う。メインメモリ20には、光ディスク36やハードディスク38から読み出されたプログラム及びデータや、通信ネットワークを介して供給されたプログラム及びデータが必要に応じて書き込まれる。メインメモリ20はメインプロセッサ12やサブプロセッサ14a乃至14hの作業用としても用いられる。   The memory controller 18 accesses the main memory 20 in accordance with instructions from the main processor 12 and the sub processors 14a to 14h. Programs and data read from the optical disk 36 and the hard disk 38 and programs and data supplied via the communication network are written into the main memory 20 as necessary. The main memory 20 is also used for work of the main processor 12 and the sub processors 14a to 14h.

インタフェース22には画像処理部24及び入出力処理部28が接続される。メインプロセッサ12及びサブプロセッサ14a乃至14hと、画像処理部24又は入出力処理部28と、の間のデータ授受はインタフェース22を介して行われる。   An image processing unit 24 and an input / output processing unit 28 are connected to the interface 22. Data exchange between the main processor 12 and the sub processors 14 a to 14 h and the image processing unit 24 or the input / output processing unit 28 is performed via the interface 22.

画像処理部24は、GPU(Graphical Processing Unit)とフレームバッファとを含んで構成される。GPUは、メインプロセッサ12やサブプロセッサ14a乃至14hから供給される画像データに基づいてフレームバッファに各種画面を描画する。フレームバッファに形成された画面は、所定のタイミングでビデオ信号に変換されてモニタ26に出力される。なお、モニタ26には例えば家庭用テレビ受像機が用いられる。   The image processing unit 24 includes a GPU (Graphical Processing Unit) and a frame buffer. The GPU renders various screens in the frame buffer based on the image data supplied from the main processor 12 and the sub processors 14a to 14h. The screen formed in the frame buffer is converted into a video signal at a predetermined timing and output to the monitor 26. As the monitor 26, for example, a home television receiver is used.

入出力処理部28には、音声処理部30、光ディスク読み取り部34、ハードディスク38、インタフェース40,44が接続される。入出力処理部28は、メインプロセッサ12及びサブプロセッサ14a乃至14hと、音声処理部30、光ディスク読み取り部34、ハードディスク38、インタフェース40,44、ネットワークインタフェース48と、の間のデータ授受を制御する。   An audio processing unit 30, an optical disk reading unit 34, a hard disk 38, and interfaces 40 and 44 are connected to the input / output processing unit 28. The input / output processing unit 28 controls data exchange between the main processor 12 and the sub-processors 14a to 14h, the audio processing unit 30, the optical disc reading unit 34, the hard disk 38, the interfaces 40 and 44, and the network interface 48.

音声処理部30は、SPU(Sound Processing Unit)とサウンドバッファとを含んで構成される。サウンドバッファには、光ディスク36やハードディスク38から読み出されたゲーム音楽、ゲーム効果音やメッセージなどの各種音声データが記憶される。SPUは、これらの各種音声データを再生してスピーカ32から出力させる。なお、スピーカ32には例えば家庭用テレビ受像機の内蔵スピーカが用いられる。   The sound processing unit 30 includes an SPU (Sound Processing Unit) and a sound buffer. The sound buffer stores various audio data such as game music, game sound effects and messages read from the optical disk 36 and the hard disk 38. The SPU reproduces these various audio data and outputs them from the speaker 32. As the speaker 32, for example, a built-in speaker of a home television receiver is used.

光ディスク読み取り部34は、メインプロセッサ12及びサブプロセッサ14a乃至14hからの指示に従って、光ディスク36に記憶されたプログラムやデータを読み取る。なお、エンタテインメントシステム10は、光ディスク36以外の他のコンピュータ読み取り可能な情報記憶媒体に記憶されたプログラムやデータを読み取り可能に構成してもよい。   The optical disk reading unit 34 reads programs and data stored on the optical disk 36 in accordance with instructions from the main processor 12 and the sub processors 14a to 14h. Note that the entertainment system 10 may be configured to be able to read a program or data stored in a computer-readable information storage medium other than the optical disk 36.

光ディスク36は例えばDVD−ROM等の一般的な光ディスク(コンピュータ読み取り可能な情報記憶媒体)である。また、ハードディスク38は一般的なハードディスク装置である。光ディスク36やハードディスク38には各種プログラムやデータがコンピュータ読み取り可能に記憶される。   The optical disk 36 is a general optical disk (computer-readable information storage medium) such as a DVD-ROM. The hard disk 38 is a general hard disk device. Various programs and data are stored in the optical disk 36 and the hard disk 38 so as to be readable by a computer.

インタフェース(I/F)40,44は、コントローラ42やカメラユニット46等の各種周辺機器を接続するためのインタフェースである。このようなインタフェースとしては、例えばUSB(Universal Serial Bus)インタフェースが用いられる。   The interfaces (I / F) 40 and 44 are interfaces for connecting various peripheral devices such as the controller 42 and the camera unit 46. For example, a USB (Universal Serial Bus) interface is used as such an interface.

コントローラ42は汎用操作入力手段であり、ユーザが各種操作(例えばゲーム操作)を入力するために用いられる。入出力処理部28は、所定時間(例えば1/60秒)ごとにコントローラ42の各部の状態をスキャンし、その結果を表す操作状態をメインプロセッサ12やサブプロセッサ14a乃至14hに供給する。メインプロセッサ12やサブプロセッサ14a乃至14hは、ユーザによって行われた操作の内容をその操作状態に基づいて判断する。なお、エンタテインメントシステム10は複数のコントローラ42を接続可能に構成されており、各コントローラ42から入力される操作状態に基づいて、メインプロセッサ12やサブプロセッサ14a乃至14hが各種処理を実行するようになっている。   The controller 42 is general-purpose operation input means, and is used by the user to input various operations (for example, game operations). The input / output processing unit 28 scans the state of each unit of the controller 42 every predetermined time (for example, 1/60 seconds), and supplies the operation state representing the result to the main processor 12 and the sub processors 14a to 14h. The main processor 12 and the sub processors 14a to 14h determine the content of the operation performed by the user based on the operation state. The entertainment system 10 is configured so that a plurality of controllers 42 can be connected, and the main processor 12 and the sub-processors 14a to 14h execute various processes based on an operation state input from each controller 42. ing.

カメラユニット46は、例えば公知のデジタルカメラを含んで構成され、白黒、グレイスケール又はカラーの撮影画像を所定時間(例えば1/60秒)ごとに入力する。本実施の形態におけるカメラユニット46は、撮影画像をJPEG(Joint Photographic Experts Group)形式の画像データとして入力するようになっている。また、カメラユニット46は、例えばレンズをユーザに向けた状態でモニタ26の上に設置され、ケーブルを介してインタフェース44に接続される。ネットワークインタフェース48は入出力処理部28とネットワークとに接続されており、エンタテインメントシステム10がネットワークを介して他のエンタテインメントシステム10とデータ通信するのを中継するようになっている。   The camera unit 46 includes, for example, a known digital camera, and inputs black and white, grayscale, or color photographed images every predetermined time (for example, 1/60 seconds). The camera unit 46 in the present embodiment is configured to input a captured image as image data in JPEG (Joint Photographic Experts Group) format. The camera unit 46 is installed on the monitor 26 with the lens facing the user, for example, and is connected to the interface 44 via a cable. The network interface 48 is connected to the input / output processing unit 28 and the network, and relays that the entertainment system 10 performs data communication with other entertainment systems 10 via the network.

図3Aは、コントローラ42の一例を示す斜視図である。図3Bは、コントローラ42の一例を示す上側面図である。図3Aに示すように、コントローラ42は、コントローラケーブル62によってエンタテインメントシステム10に接続され、表面42aの左側に方向ボタン群60及び左操作スティック54が設けられ、右側にボタン群58及び右操作スティック56が設けられている。また、図3Bに示すように、コントローラ42の奥側側面には、表面42a側左右に第1の左ボタン50L、第1の右ボタン50Rがそれぞれ設けられており、裏面側左右に第2の左ボタン52L、第2の右ボタン52Rがそれぞれ設けられている。そして、コントローラ42の筐体左右をユーザが両手で持つと、左手親指が方向ボタン群60及び左操作スティック54に位置し、右手親指がボタン群58及び右操作スティック56に位置するようになっており、右手人指し指又は中指のいずれか少なくとも一方が、第1の右ボタン50R又は第2の右ボタン52Rに位置し、左手人指し指又は中指のいずれか少なくとも一方が、第1の左ボタン50L又は第2の左ボタン52Lに位置するようになっている。   FIG. 3A is a perspective view illustrating an example of the controller 42. FIG. 3B is an upper side view showing an example of the controller 42. As shown in FIG. 3A, the controller 42 is connected to the entertainment system 10 by a controller cable 62, a direction button group 60 and a left operation stick 54 are provided on the left side of the surface 42a, and a button group 58 and a right operation stick 56 are provided on the right side. Is provided. Further, as shown in FIG. 3B, on the back side surface of the controller 42, a first left button 50 </ b> L and a first right button 50 </ b> R are provided on the left and right sides of the front surface 42 a, respectively, A left button 52L and a second right button 52R are provided. When the user holds both sides of the housing of the controller 42 with both hands, the left thumb is positioned on the direction button group 60 and the left operation stick 54, and the right thumb is positioned on the button group 58 and the right operation stick 56. And at least one of the right index finger or middle finger is positioned on the first right button 50R or the second right button 52R, and at least one of the left index finger or middle finger is the first left button 50L or second The left button 52L is located.

方向ボタン群60、ボタン群58、第1の左ボタン50L、第1の右ボタン50R、第2の左ボタン52L、第2の右ボタン52Rは感圧ボタンとして構成されており、圧力センサを備えている。そして、これらのボタンをユーザが押下すると、その押圧力に応じて0〜255の値を有する256段階のディジタル値がエンタテインメントシステム10に入力されるようになっている。つまり、エンタテインメントシステム10では、コントローラ42から入力されるディジタル値が0の場合にはそのボタンが押下されておらず、255の場合には最大押圧力でボタンが押下されていること等を該ディジタル値から判断できるようになっている。   The direction button group 60, the button group 58, the first left button 50L, the first right button 50R, the second left button 52L, and the second right button 52R are configured as pressure sensitive buttons and include a pressure sensor. ing. When the user presses these buttons, a 256-step digital value having a value of 0 to 255 is input to the entertainment system 10 according to the pressing force. That is, in the entertainment system 10, when the digital value input from the controller 42 is 0, the button is not pressed, and when the digital value is 255, the digital button indicates that the button is pressed with the maximum pressing force. It can be judged from the value.

左操作スティック54及び右操作スティック56は、コントローラ42の筐体表面に直立したスティック状の操作部材であり、この直立状態から全方位に所定角度だけ傾倒自在となっている。図3Aに示すように、コントローラ42の筐体長手方向をX軸方向(図3Aにおいて右方向を正方向とする。)とし、このX軸方向に直交する筐体奥行き方向をY軸方向(図3Aにおいて手前から奥に向かう方向を正方向とする。)とすると、左操作スティック54の姿勢(操作状態)は、X軸方向及びY軸方向の傾き(姿勢データ(X,Y))として、それぞれ0〜255のディジタル値がエンタテインメントシステム10に入力されるようになっている。具体的には、X=127やX=128付近は、左操作スティック54がX軸方向に傾いていないことを示す。また、X=255は、左操作スティック54がX軸の正方向(図3Aにおいて右方向)に限界まで倒れていることを示す。さらに、X=0は、左操作スティック54がX軸の負方向(図3Aにおいて左方向)に限界まで倒れていることを示す。Y軸方向についても同様である。また、右操作スティック56についても左操作スティック54の場合と同様である。こうして、エンタテインメントシステム10では、左操作スティック54及び右操作スティック56の現在の傾き状態(姿勢)を把握できるようになっている。また、左操作スティック54及び右操作スティック56は、方向ボタン群60やボタン群58等と同様の感圧ボタンとしても構成されており、スティックの軸方向に押下できるようになっている。   The left operation stick 54 and the right operation stick 56 are stick-like operation members standing upright on the surface of the housing of the controller 42, and can be tilted by a predetermined angle in all directions from this upright state. As shown in FIG. 3A, the casing longitudinal direction of the controller 42 is the X-axis direction (the right direction in FIG. 3A is the positive direction), and the casing depth direction orthogonal to the X-axis direction is the Y-axis direction (see FIG. 3A). 3A, the direction from the front to the back is the positive direction.) The posture (operation state) of the left operation stick 54 is the inclination (posture data (X, Y)) in the X-axis direction and the Y-axis direction. Digital values of 0 to 255 are input to the entertainment system 10 respectively. Specifically, the vicinity of X = 127 or X = 128 indicates that the left operation stick 54 is not inclined in the X-axis direction. X = 255 indicates that the left operation stick 54 is tilted to the limit in the positive direction of the X axis (rightward in FIG. 3A). Further, X = 0 indicates that the left operation stick 54 has fallen to the limit in the negative direction of the X axis (leftward in FIG. 3A). The same applies to the Y-axis direction. The right operation stick 56 is the same as that of the left operation stick 54. In this way, the entertainment system 10 can grasp the current tilt state (posture) of the left operation stick 54 and the right operation stick 56. The left operation stick 54 and the right operation stick 56 are also configured as pressure-sensitive buttons similar to the direction button group 60 and the button group 58, and can be pressed in the axial direction of the stick.

また、コントローラ42は、内蔵振動子(バイブレータ)を備えている。そして、MPU11からの指示によって、このバイブレータは振動する。   The controller 42 includes a built-in vibrator (vibrator). The vibrator vibrates in accordance with an instruction from the MPU 11.

以下、以上のハードウェア構成を有するエンタテインメントシステム10を、画像表示装置として構成する一実施形態について説明する。   Hereinafter, an embodiment in which the entertainment system 10 having the above hardware configuration is configured as an image display device will be described.

まず、本実施形態の概要について説明する。本実施形態においては、エンタテインメントシステム10は、図4A〜図4Cに示すように、少なくとも1つの仮想オブジェクトが配置されている仮想空間64内の視点66(66a〜66j)から、視線方向68(68a〜68j)を見た様子(視点66の位置と視線方向68から決定される視野領域70を見た様子)を示す画像をモニタ26の画面に表示する。本実施形態においては、初期状態では、視点66aから視線方向68aを見た様子を示す画像がモニタ26の画面に表示される。そして、エンタテインメントシステム10のユーザはコントローラ42を操作することによって、視点66の位置や視線方向68を自由に移動することができる。   First, an outline of the present embodiment will be described. In the present embodiment, as shown in FIGS. 4A to 4C, the entertainment system 10 has a line-of-sight direction 68 (68a) from a viewpoint 66 (66a to 66j) in a virtual space 64 in which at least one virtual object is arranged. ˜68j) is displayed on the screen of the monitor 26, showing an appearance (viewing the visual field region 70 determined from the position of the viewpoint 66 and the line-of-sight direction 68). In the present embodiment, in the initial state, an image showing the viewing direction 68a from the viewpoint 66a is displayed on the screen of the monitor 26. The user of the entertainment system 10 can freely move the position of the viewpoint 66 and the line-of-sight direction 68 by operating the controller 42.

そして、本実施形態においては、図4Aに示すように、仮想空間64内には、地球(地表面)が表現された仮想オブジェクト(仮想地球オブジェクト72)が配置されている。そして、図4Bは、図4Aに示す仮想地球オブジェクト72に表現されている地表面の一部である第1領域72aを示しており、図4Cは、図4Aに示す仮想地球オブジェクト72に表現されている地表面の一部である第2領域72bを示している。図4A〜図4Cに示すように、仮想地球オブジェクト72の表面には山74や、丘76(76a〜76n)や、崖78が立体的に表現されている。   In the present embodiment, as shown in FIG. 4A, a virtual object (virtual earth object 72) representing the earth (the ground surface) is arranged in the virtual space 64. 4B shows a first region 72a that is a part of the ground surface represented by the virtual earth object 72 shown in FIG. 4A, and FIG. 4C is shown by the virtual earth object 72 shown in FIG. 4A. The 2nd area | region 72b which is a part of the ground surface which has been shown is shown. As shown in FIGS. 4A to 4C, mountains 74, hills 76 (76 a to 76 n), and a cliff 78 are three-dimensionally represented on the surface of the virtual earth object 72.

図5Aは視点66aから視線方向68aを見た様子を示す、モニタ26の画面に表示される画像の一例を示す図である。図5Aに示すように、本実施形態では、仮想地球オブジェクト72を示す画像の右側の一部が、陰になっており、この部分に太陽の光があたっていないことが表現されている。そして、全体的には気象衛星から見た雲の様子のような風景が表現されている。   FIG. 5A is a diagram illustrating an example of an image displayed on the screen of the monitor 26, showing a state where the viewing direction 68a is viewed from the viewpoint 66a. As shown in FIG. 5A, in the present embodiment, a part of the right side of the image showing the virtual earth object 72 is shaded, and it is expressed that the sunlight is not irradiated on this part. And overall, the landscape looks like a cloud seen from a meteorological satellite.

図5Bは視点66bから視線方向68bを見た様子を示す、モニタ26の画面に表示される画像の一例を示す図である。図5Bに示すように、エンタテインメントシステム10のユーザがコントローラ42を操作して、視点66の位置が仮想地球オブジェクト72に近づいている。ここで、視点66の位置が変更される途中で、仮想地球オブジェクト72を示す画像として日本を中心とした地図を示す画像に更新される。そして、本実施形態では、気象衛星から見た雲の様子のような風景が表現されている画像が、日本を中心とした地図を示す画像に更新される際にコントローラ42が備えるバイブレータが振動する。   FIG. 5B is a diagram showing an example of an image displayed on the screen of the monitor 26, showing a state where the line-of-sight direction 68b is viewed from the viewpoint 66b. As shown in FIG. 5B, the user of the entertainment system 10 operates the controller 42 and the position of the viewpoint 66 is approaching the virtual earth object 72. Here, while the position of the viewpoint 66 is being changed, the image showing the virtual earth object 72 is updated to an image showing a map centered on Japan. In this embodiment, the vibrator included in the controller 42 vibrates when an image representing a landscape such as a cloud seen from a weather satellite is updated to an image showing a map centered on Japan. .

図5Cは視点66cから視線方向68cを見た様子を示す、モニタ26の画面に表示される画像の一例を示す図である。図5Cに示すように、エンタテインメントシステム10のユーザがコントローラ42を操作して、視点66の位置がより仮想地球オブジェクト72に近づいている。ここで、視点66の位置が変更される途中で、仮想地球オブジェクト72を示す画像がより解像度の高い画像に更新される。また、本実施形態においては、視点66が仮想地球オブジェクト72に近づくにつれ、視点66の移動速度が遅くなっている。すなわち、視点66の位置が、視点66aから視点66cに移動するにつれ、視点66の移動速度が遅くなっている。   FIG. 5C is a diagram showing an example of an image displayed on the screen of the monitor 26, showing a state in which the viewing direction 68c is viewed from the viewpoint 66c. As shown in FIG. 5C, the user of the entertainment system 10 operates the controller 42 so that the position of the viewpoint 66 is closer to the virtual earth object 72. Here, in the middle of changing the position of the viewpoint 66, the image showing the virtual earth object 72 is updated to an image with a higher resolution. Further, in the present embodiment, as the viewpoint 66 approaches the virtual earth object 72, the moving speed of the viewpoint 66 becomes slower. That is, as the position of the viewpoint 66 moves from the viewpoint 66a to the viewpoint 66c, the moving speed of the viewpoint 66 decreases.

図5Dは視点66dから視線方向68dを見た様子を示す、モニタ26の画面に表示される画像の一例を示す図である。図5Dに示すように、エンタテインメントシステム10のユーザがコントローラ42を操作して、視点66の位置がより仮想地球オブジェクト72に近づいていて、仮想地球オブジェクト72の地表面上に立体的に表現されている山74を示す画像がモニタ26の画面に表示されている。   FIG. 5D is a diagram showing an example of an image displayed on the screen of the monitor 26, showing a state where the line-of-sight direction 68d is viewed from the viewpoint 66d. As shown in FIG. 5D, the user of the entertainment system 10 operates the controller 42 so that the position of the viewpoint 66 is closer to the virtual earth object 72 and is three-dimensionally represented on the ground surface of the virtual earth object 72. An image showing a mountain 74 is displayed on the screen of the monitor 26.

図5Eは視点66eから視線方向68eを見た様子を示す、モニタ26の画面に表示される画像の一例を示す図である。図5Eに示すように、エンタテインメントシステム10のユーザがコントローラ42を操作して、ピッチ角変更中心点80を中心にピッチ角θが変更されている(図4B参照)。ここで、ピッチ角θとは、ピッチ角変更中心点80と視点66とを通る直線と、ピッチ角変更中心点80を通る、仮想オブジェクト(本実施形態では、仮想地球オブジェクト72)を示す領域に対して垂直な直線と、がなす角である。ここで、ピッチ角変更中心点80と視点66との距離をピッチ角変更半径rと呼ぶ。このとき、モニタ26の上方には、仮想地球オブジェクト72の輪郭、すなわち、地平線B1を示す画像が表示されている。なお、ピッチ角変更中心点80の詳細については後述する。   FIG. 5E is a diagram showing an example of an image displayed on the screen of the monitor 26, showing a state where the viewing direction 68e is viewed from the viewpoint 66e. As shown in FIG. 5E, the user of the entertainment system 10 operates the controller 42 to change the pitch angle θ around the pitch angle change center point 80 (see FIG. 4B). Here, the pitch angle θ is a region indicating a straight line passing through the pitch angle changing center point 80 and the viewpoint 66 and a virtual object (in this embodiment, the virtual earth object 72) passing through the pitch angle changing center point 80. It is the angle formed by a straight line perpendicular to it. Here, the distance between the pitch angle change center point 80 and the viewpoint 66 is referred to as a pitch angle change radius r. At this time, an image showing the outline of the virtual earth object 72, that is, the horizon B1, is displayed above the monitor 26. Details of the pitch angle change center point 80 will be described later.

図5Fは視点66fから視線方向68fを見た様子を示す、モニタ26の画面に表示される画像の一例を示す図である。図5Fに示すように、エンタテインメントシステム10のユーザがコントローラ42を操作して、ピッチ角変更中心点80を中心にさらにピッチ角θが変更されている。このとき、モニタ26の中央付近には、地平線B1を示す画像が表示されている。   FIG. 5F is a diagram illustrating an example of an image displayed on the screen of the monitor 26, showing a state in which the viewing direction 68f is viewed from the viewpoint 66f. As shown in FIG. 5F, the user of the entertainment system 10 operates the controller 42 to further change the pitch angle θ around the pitch angle change center point 80. At this time, an image showing the horizon B1 is displayed near the center of the monitor 26.

ここで、ユーザがさらに、ピッチ角変更中心点80を中心にさらにピッチ角θを変更しようとしても、本実施形態においては、ピッチ角θが変更されないようになっている。このようにして、仮想地球オブジェクト72の画像がモニタ26の画面にまったく表示されなくなってしまうことや、図18に示すように、仮想地球オブジェクト72の画像がモニタ26の画面にほとんど表示されなくなってしまうことを防ぐことができるようになっている。   Here, even if the user further attempts to change the pitch angle θ around the pitch angle change center point 80, the pitch angle θ is not changed in the present embodiment. In this way, the image of the virtual earth object 72 is no longer displayed on the screen of the monitor 26, or the image of the virtual earth object 72 is hardly displayed on the screen of the monitor 26 as shown in FIG. Can be prevented.

そして、ピッチ角変更中心点80が、仮想地球オブジェクト72の表面から離れた場所に設けられているため、図5D〜図5Fに示すように、ピッチ角変更中心点80を中心にピッチ角θが変更されるにつれて、山74の頂上74aを示す画像がモニタ26の画面に表示される位置が下がるようになっている。このようにすることによって、山74の頂上74aよりも奥の画像が、ユーザに見えやすくなっている。   Since the pitch angle change center point 80 is provided at a location away from the surface of the virtual earth object 72, the pitch angle θ is set around the pitch angle change center point 80 as shown in FIGS. 5D to 5F. As the change is made, the position at which the image showing the peak 74a of the mountain 74 is displayed on the screen of the monitor 26 is lowered. By doing so, an image behind the peak 74a of the mountain 74 can be easily seen by the user.

図5Gは視点66gから視線方向68gを見た様子を示す、モニタ26の画面に表示される画像の一例を示す図である。図5Hは視点66hから視線方向68hを見た様子を示す、モニタ26の画面に表示される画像の一例を示す図である。図5Iは視点66iから視線方向68iを見た様子を示す、モニタ26の画面に表示される画像の一例を示す図である。そして、図5Jは視点66jから視線方向68jを見た様子を示す、モニタ26の画面に表示される画像の一例を示す図である。図5G〜図5Jに示すように、ここでは、丘76を示す画像がモニタ26の画面に表示されている。このとき、ユーザは、仮想地球オブジェクト72の地表面に沿って右方向に視点66が移動するようコントローラ42に対して視点移動操作を行っている。その結果、視点66が、視点66gの位置から、視点66hの位置、視点66iの位置を経由して、視点66jの位置まで移動している。視点66が視点66gの位置から視点66hの位置に移動する際に、視点66が上がっている。そして、視点66が視点66hの位置から視点66iの位置に移動する際に、視点66が下がっている。そして、視点66が視点66iの位置から視点66jの位置に移動する際に、視点66がとても上がっている。このようにして、エンタテインメントシステム10のユーザは、仮想地球オブジェクト72の地表面に沿って移動しているような感覚を体験することができる。   FIG. 5G is a diagram illustrating an example of an image displayed on the screen of the monitor 26, showing a state where the line-of-sight direction 68g is viewed from the viewpoint 66g. FIG. 5H is a diagram illustrating an example of an image displayed on the screen of the monitor 26, showing a state in which the viewing direction 68h is viewed from the viewpoint 66h. FIG. 5I is a diagram showing an example of an image displayed on the screen of the monitor 26, showing a state where the line-of-sight direction 68i is viewed from the viewpoint 66i. FIG. 5J is a diagram showing an example of an image displayed on the screen of the monitor 26, showing a state in which the viewing direction 68j is viewed from the viewpoint 66j. As shown in FIGS. 5G to 5J, here, an image showing the hill 76 is displayed on the screen of the monitor 26. At this time, the user performs a viewpoint movement operation on the controller 42 so that the viewpoint 66 moves rightward along the ground surface of the virtual earth object 72. As a result, the viewpoint 66 has moved from the position of the viewpoint 66g to the position of the viewpoint 66j via the position of the viewpoint 66h and the position of the viewpoint 66i. When the viewpoint 66 moves from the position of the viewpoint 66g to the position of the viewpoint 66h, the viewpoint 66 is raised. When the viewpoint 66 moves from the position of the viewpoint 66h to the position of the viewpoint 66i, the viewpoint 66 is lowered. When the viewpoint 66 moves from the position of the viewpoint 66i to the position of the viewpoint 66j, the viewpoint 66 is very high. In this way, the user of the entertainment system 10 can experience a feeling as if moving along the ground surface of the virtual earth object 72.

次に、本実施形態に係るエンタテインメントシステム10で実現される機能について、図6に示す機能ブロック図と、図7に示す、本実施形態に係る仮想地球オブジェクト72と視点66の位置及び視線方向68との関係の一例を説明する説明図を参照しながら説明する。   Next, with respect to the functions realized by the entertainment system 10 according to the present embodiment, the functional block diagram shown in FIG. 6 and the positions of the virtual earth object 72 and the viewpoint 66 according to the present embodiment shown in FIG. This will be described with reference to an explanatory diagram for explaining an example of the relationship.

図6に示すように、この実施形態に係るエンタテインメントシステム10は、機能的には、仮想オブジェクトデータ記憶部82、仮想オブジェクトデータ取得部84、仮想空間表示部86、視点データ記憶部88、注視点位置算出部90、ピッチ角変更中心点位置算出部92、基準距離算出部94、基準距離データ記憶部96、視点移動速度決定部98、視点移動速度データ記憶部100、許容範囲算出部102、操作状態取得部104、操作状態記憶部106、操作状態変化判断部108、視点移動部110、ピッチ角変更中心点移動部112、ピッチ角変更部114、相対ピッチ角データ変更部116、ピッチ角算出部118、視点位置修正部120、ピッチ角変更中心点位置修正部122を含むものとして機能する。なお、エンタテインメントシステム10がこれらの要素をすべて備えている必要はない。   As shown in FIG. 6, the entertainment system 10 according to this embodiment functionally includes a virtual object data storage unit 82, a virtual object data acquisition unit 84, a virtual space display unit 86, a viewpoint data storage unit 88, and a gaze point. Position calculation unit 90, pitch angle change center point position calculation unit 92, reference distance calculation unit 94, reference distance data storage unit 96, viewpoint movement speed determination unit 98, viewpoint movement speed data storage unit 100, allowable range calculation unit 102, operation State acquisition unit 104, operation state storage unit 106, operation state change determination unit 108, viewpoint movement unit 110, pitch angle change center point movement unit 112, pitch angle change unit 114, relative pitch angle data change unit 116, pitch angle calculation unit 118, a viewpoint position correction unit 120, and a pitch angle change center point position correction unit 122. The entertainment system 10 does not have to include all of these elements.

仮想オブジェクトデータ記憶部82は、メインメモリ20やハードディスク38を主として実現される。仮想オブジェクトデータ記憶部82は、仮想オブジェクトに関するポリゴンデータやテクスチャデータなどの仮想オブジェクトデータを記憶する。本実施形態においては、具体的には、例えば、仮想オブジェクトデータ記憶部82は、仮想地球オブジェクト72の地表面が表現された地表面データ124を記憶する(図8参照)。図8は、本実施形態に係る地表面データ124のデータ構造の一例を示す図である。地表面データ124は、基準面データ126と地形面データ128とを含んでいる。基準面データ126は、仮想地球オブジェクト72の基準面130(例えば、海面)を表す複数のポリゴンの仮想空間64内における位置を示すポリゴンデータである。本実施形態においては、基準面130の基本的な形状は球形である。そして、地形面データ128は、仮想地球オブジェクト72の表面に表現される山74や丘76や崖78といった地形の表面(地形面132)を表す複数のポリゴンの仮想空間64内における位置を示すポリゴンデータと、ポリゴンデータが示す各ポリゴンに対応付けられる、それぞれのポリゴンに貼り付けられるテクスチャを示すテクスチャデータとを含んでいる。なお、基準面データ126や地形面データ124は、緯度及び経度の組み合わせと、仮想空間64内における位置との対応関係を示すデータを含んでいてもよい。   The virtual object data storage unit 82 is realized mainly by the main memory 20 and the hard disk 38. The virtual object data storage unit 82 stores virtual object data such as polygon data and texture data related to the virtual object. In the present embodiment, specifically, for example, the virtual object data storage unit 82 stores ground surface data 124 representing the ground surface of the virtual earth object 72 (see FIG. 8). FIG. 8 is a diagram illustrating an example of the data structure of the ground surface data 124 according to the present embodiment. The ground surface data 124 includes reference surface data 126 and terrain surface data 128. The reference plane data 126 is polygon data indicating positions in the virtual space 64 of a plurality of polygons representing the reference plane 130 (for example, the sea surface) of the virtual earth object 72. In the present embodiment, the basic shape of the reference surface 130 is a sphere. The topographical surface data 128 is a polygon indicating the position in the virtual space 64 of a plurality of polygons representing the topographical surface (terrain surface 132) such as a mountain 74, a hill 76, and a cliff 78 expressed on the surface of the virtual earth object 72. Data and texture data indicating the texture to be attached to each polygon associated with each polygon indicated by the polygon data. Note that the reference plane data 126 and the topographic plane data 124 may include data indicating a correspondence relationship between a combination of latitude and longitude and a position in the virtual space 64.

また、仮想オブジェクトデータ記憶部82は、精度が異なる複数の基準面データ126や地形面データ128を段階的に管理して記憶するようにしても構わない。また、仮想オブジェクトデータ記憶部82は、後述する仮想オブジェクトデータ取得部84が取得するポリゴンデータやテクスチャデータを記憶するようにしても構わない。   Further, the virtual object data storage unit 82 may manage and store a plurality of reference plane data 126 and terrain plane data 128 having different accuracy in stages. Further, the virtual object data storage unit 82 may store polygon data and texture data acquired by a virtual object data acquisition unit 84 described later.

仮想オブジェクトデータ取得部84は、MPU11と、入出力処理部28と、ネットワークインタフェース48とを主として実現される。仮想オブジェクトデータ取得部84は、ネットワーク上のサーバなどの情報処理装置から、仮想オブジェクトデータを取得する。   The virtual object data acquisition unit 84 is realized mainly by the MPU 11, the input / output processing unit 28, and the network interface 48. The virtual object data acquisition unit 84 acquires virtual object data from an information processing apparatus such as a server on the network.

本実施形態においては、エンタテインメントシステム10は、エンタテインメントシステム10は、ネットワーク上のデータ提供サーバ(図示せず)とネットワークインタフェース48を経由して通信できるようになっている。そして、仮想オブジェクトデータ取得部84は、視点66の位置及び視線方向68と仮想地球オブジェクト72との位置関係を示すデータをデータ提供サーバに送信する。すると、データ提供サーバは、仮想空間64に配置すべき地表面データ124を仮想オブジェクトデータ取得部84に送信する。仮想オブジェクトデータ取得部84は、データ提供サーバから送信された地表面データ124を取得する。具体的には、例えば、仮想オブジェクトデータ取得部84は、視点66の位置に基づいて、そのときの仮想オブジェクトとの距離に応じた大きさのポリゴンデータ、及び、各ポリゴンに貼られるべきテクスチャデータをデータ提供サーバから取得する。   In the present embodiment, the entertainment system 10 can communicate with a data providing server (not shown) on the network via the network interface 48. Then, the virtual object data acquisition unit 84 transmits data indicating the positional relationship between the position of the viewpoint 66 and the line-of-sight direction 68 and the virtual earth object 72 to the data providing server. Then, the data providing server transmits the ground surface data 124 to be arranged in the virtual space 64 to the virtual object data acquisition unit 84. The virtual object data acquisition unit 84 acquires the ground surface data 124 transmitted from the data providing server. Specifically, for example, the virtual object data acquisition unit 84, based on the position of the viewpoint 66, polygon data having a size corresponding to the distance from the virtual object at that time, and texture data to be pasted on each polygon Is obtained from the data providing server.

仮想空間表示部86は、MPU11と、画像処理部24と、モニタ26と、を主として実現される。仮想空間表示部86は、仮想空間64内の視点66から視線方向68を見た様子(視点66の位置と視線方向68から決定される視野領域70を見た様子)を示す画像をモニタ26の画面に表示する。具体的には、仮想空間表示部86は、視点66の位置と視線方向68とから決定される視野領域70と、視野領域70内の仮想オブジェクトについての仮想オブジェクトデータに含まれるポリゴンデータが示す各ポリゴンの頂点の座標や、各ポリゴンに貼り付けられるテクスチャを示すテクスチャデータなどに基づく画像がモニタ26の画面に表示される。本実施形態では、具体的には、例えば、視野領域70内の仮想地球オブジェクト72についての地形面データ128に含まれるポリゴンデータが示す各ポリゴンの頂点の座標や、各ポリゴンに貼り付けられるテクスチャを示すテクスチャデータなどに基づく画像がモニタ26の画面に表示される。   The virtual space display unit 86 is realized mainly by the MPU 11, the image processing unit 24, and the monitor 26. The virtual space display unit 86 displays an image showing a state of viewing the line-of-sight direction 68 from the viewpoint 66 in the virtual space 64 (a state of viewing the visual field region 70 determined from the position of the viewpoint 66 and the line-of-sight direction 68). Display on the screen. Specifically, the virtual space display unit 86 includes a visual field area 70 determined from the position of the viewpoint 66 and the line-of-sight direction 68, and polygon data included in the virtual object data included in the virtual object data for the virtual objects in the visual field area 70. An image based on the coordinates of the vertices of the polygon, texture data indicating the texture pasted on each polygon, and the like is displayed on the screen of the monitor 26. Specifically, in the present embodiment, for example, the coordinates of the vertices of each polygon indicated by the polygon data included in the topographic surface data 128 for the virtual earth object 72 in the visual field region 70 and the texture to be pasted on each polygon are displayed. An image based on the texture data shown is displayed on the screen of the monitor 26.

ここで、仮想空間表示部86は、視点66と仮想オブジェクト(例えば、仮想地球オブジェクト72)との位置関係(例えば、距離)に応じて、モニタ26の画面に表示されるべき画像に対応する地形面データ128を選択するようにしても構わない。本実施形態においては、視点66と仮想地球オブジェクト72との距離が長い場合には、仮想空間表示部86が、仮想オブジェクトデータ記憶部82に予め記憶されている、衛星から見た雲の様子を示すテクスチャデータに基づく画像をモニタ26の画面に表示し、視点66が移動して、視点66と仮想地球オブジェクト72との距離が短くなった際に、日本を中心とした地図を示すテクスチャデータに基づく画像をモニタ26の画面に表示するようにしてもよい(図5A及び図5B参照)。なお、このとき、視点66が移動する際に、仮想オブジェクトデータ取得部84が、日本を中心とした地図を示すテクスチャデータに基づく画像を取得するようにしてもよい。このように、仮想オブジェクトデータ取得部84による画像取得の待ち時間に、仮想空間表示部86が、エンタテインメントシステム10に予め記憶されている画像を表示することで、エンタテインメントシステム10のユーザは、データ提供サーバからの画像を取得するのに必要な時間を待っている間も、画像を楽しむことができるので、画像の取得を待つことによるストレスが軽減される。   Here, the virtual space display unit 86 corresponds to the terrain corresponding to the image to be displayed on the screen of the monitor 26 according to the positional relationship (for example, distance) between the viewpoint 66 and the virtual object (for example, the virtual earth object 72). The surface data 128 may be selected. In the present embodiment, when the distance between the viewpoint 66 and the virtual earth object 72 is long, the virtual space display unit 86 displays the state of the cloud viewed from the satellite stored in the virtual object data storage unit 82 in advance. An image based on the texture data shown is displayed on the screen of the monitor 26. When the viewpoint 66 moves and the distance between the viewpoint 66 and the virtual earth object 72 becomes short, the texture data showing a map centering on Japan is displayed. The based image may be displayed on the screen of the monitor 26 (see FIGS. 5A and 5B). At this time, when the viewpoint 66 moves, the virtual object data acquisition unit 84 may acquire an image based on texture data indicating a map centering on Japan. As described above, the virtual space display unit 86 displays the image stored in advance in the entertainment system 10 during the image acquisition waiting time by the virtual object data acquisition unit 84, so that the user of the entertainment system 10 provides data. Since the user can enjoy the image while waiting for the time necessary to acquire the image from the server, the stress caused by waiting for the image acquisition is reduced.

なお、表示される画像が更新されるタイミングで仮想空間表示部86は、コントローラ42に対して、コントローラ42が備えるバイブレータを振動するように指示してもよい。具体的には、例えば、仮想オブジェクトデータ記憶部82に予め記憶されている画像がモニタ26の画面に表示されている状態から、仮想オブジェクトデータ取得部84が取得した画像がモニタ26の画面に表示されている状態に切り替わる際に、仮想空間表示部86は、コントローラ42に対して、コントローラ42が備えるバイブレータを振動するように指示してもよい。   Note that the virtual space display unit 86 may instruct the controller 42 to vibrate the vibrator included in the controller 42 at the timing when the displayed image is updated. Specifically, for example, an image acquired by the virtual object data acquisition unit 84 is displayed on the screen of the monitor 26 from a state in which an image stored in advance in the virtual object data storage unit 82 is displayed on the screen of the monitor 26. When switching to the current state, the virtual space display unit 86 may instruct the controller 42 to vibrate the vibrator included in the controller 42.

また、仮想空間表示部86は、視点66を示す位置と仮想地球オブジェクト72を示す位置との間の距離に応じた、仮想オブジェクトデータ記憶部82に記憶されている画像をモニタ26の画面に表示するようにしてもよい。具体的には、例えば、仮想空間表示部86が、視点66を示す位置と仮想地球オブジェクト72を示す位置との間の長さが長い場合には、低解像度の画像をモニタ26の画面に表示し、視点66を示す位置と仮想地球オブジェクト72を示す位置との間の長さが短い場合には、高解像度の画像をモニタ26の画面に表示するようにしてもよい(図5B〜図5D参照)。また、仮想空間表示部86が、一旦低解像度の画像をモニタ26の画面に表示しておき、仮想オブジェクトデータ取得部84による高解像度の画像の取得が完了した時点で、高解像度の画像をモニタ26の画面に表示するようにしてもよい。   Further, the virtual space display unit 86 displays an image stored in the virtual object data storage unit 82 on the screen of the monitor 26 according to the distance between the position indicating the viewpoint 66 and the position indicating the virtual earth object 72. You may make it do. Specifically, for example, when the virtual space display unit 86 has a long length between the position indicating the viewpoint 66 and the position indicating the virtual earth object 72, a low-resolution image is displayed on the screen of the monitor 26. If the length between the position indicating the viewpoint 66 and the position indicating the virtual earth object 72 is short, a high-resolution image may be displayed on the screen of the monitor 26 (FIGS. 5B to 5D). reference). The virtual space display unit 86 once displays a low-resolution image on the screen of the monitor 26, and when the acquisition of the high-resolution image by the virtual object data acquisition unit 84 is completed, the high-resolution image is monitored. You may make it display on 26 screens.

視点データ記憶部88は、メインメモリ20やハードディスク38を主として実現される。視点データ記憶部88は、仮想空間64における視点66の位置や視線方向68を示す視点データ134を記憶する(図9参照)。図9は、本実施形態に係る視点データ134のデータ構造の一例を示す図である。なお、視野領域70は、視点データ134が示す視点66の位置及び視線方向68に基づいて決定される。視点データ134の詳細については後述する。   The viewpoint data storage unit 88 is realized mainly by the main memory 20 and the hard disk 38. The viewpoint data storage unit 88 stores viewpoint data 134 indicating the position of the viewpoint 66 and the line-of-sight direction 68 in the virtual space 64 (see FIG. 9). FIG. 9 is a diagram illustrating an example of the data structure of the viewpoint data 134 according to the present embodiment. The visual field region 70 is determined based on the position of the viewpoint 66 indicated by the viewpoint data 134 and the line-of-sight direction 68. Details of the viewpoint data 134 will be described later.

注視点位置算出部90は、MPU11を主として実現される。注視点位置算出部90は、視点66の現在位置から視線方向68に向かう直線と、当該直線上に存在する仮想オブジェクトとの交点である注視点136を示す位置を算出する(図10参照)。   The gazing point position calculation unit 90 is realized mainly by the MPU 11. The gazing point position calculation unit 90 calculates a position indicating a gazing point 136 that is an intersection of a straight line from the current position of the viewpoint 66 in the line-of-sight direction 68 and a virtual object existing on the straight line (see FIG. 10).

図10は、本実施形態に係る仮想地球オブジェクト72と視点66の位置及び視線方向68との初期状態における関係の一例を示す説明図である。本実施形態においては、初期状態で視線方向68は、仮想地球オブジェクト72の地表面(例えば、基準面130や地形面132)に対して垂直な方向を向いている(図4A参照)。そして、注視点位置算出部90は、初期状態における視点66の位置から視線方向68に向かう直線と、地形面132との交点(具体的には、地形面データ128に含まれるポリゴンデータが示すポリゴンとの交点)の位置を、注視点136を示す位置として算出する。   FIG. 10 is an explanatory diagram illustrating an example of a relationship in the initial state between the virtual earth object 72, the position of the viewpoint 66, and the line-of-sight direction 68 according to the present embodiment. In the present embodiment, in the initial state, the line-of-sight direction 68 is oriented in a direction perpendicular to the ground surface of the virtual earth object 72 (for example, the reference surface 130 and the topographic surface 132) (see FIG. 4A). The gazing point position calculation unit 90 then intersects the straight line from the position of the viewpoint 66 in the initial state in the line-of-sight direction 68 with the topographic surface 132 (specifically, the polygon indicated by the polygon data included in the topographic surface data 128). Is calculated as a position indicating the gazing point 136.

なお、注視点位置算出部90は、初期状態以外の視点66の位置に基づいて注視点136を示す位置を算出しても構わない。また、注視点位置算出部90が、注視点136を示す位置を算出する際に、視線方向68が仮想オブジェクトに対して垂直な方向を向いていなくても構わない。また、注視点位置算出部90は、初期状態における視点66の位置から視線方向68に向かう直線と、基準面130との交点(基準面データ126に含まれるポリゴンデータが示すポリゴンとの交点)の位置を、注視点136を示す位置として算出しても構わない。   Note that the gazing point position calculation unit 90 may calculate the position indicating the gazing point 136 based on the position of the viewpoint 66 other than the initial state. Further, when the gazing point position calculation unit 90 calculates the position indicating the gazing point 136, the line-of-sight direction 68 does not have to be in the direction perpendicular to the virtual object. In addition, the gazing point position calculation unit 90 is an intersection of the straight line from the position of the viewpoint 66 in the initial state in the line-of-sight direction 68 and the reference plane 130 (intersection of the polygon indicated by the polygon data included in the reference plane data 126). The position may be calculated as a position indicating the gazing point 136.

ピッチ角変更中心点位置算出部92は、MPU11を主として実現される。ピッチ角変更中心点位置算出部92は、視点66から視線方向68に向かう直線上に存在するピッチ角変更中心点80の位置を算出する。ここで、ピッチ角変更中心点位置算出部92は、視線方向68が仮想オブジェクト(例えば、仮想地球オブジェクト74)を示す方向を向いている際の視点66の位置と仮想オブジェクト(例えば、仮想地球オブジェクト74)を示す位置との間に存在するピッチ角変更中心点80の位置を算出してもよい。また、ピッチ角変更中心点位置算出部92は、注視点136を示す位置と視点66の位置との関係に基づいて、注視点136を示す位置と視点66の位置との間に存在するピッチ角変更中心点80の位置を算出してもよい(図10参照)。なお、ピッチ角変更中心点位置算出部92は、注視点136を示す位置と、視点66の位置との間を、所与の比率で内分する点の位置をピッチ角変更中心点80の位置として算出するようにしても構わない。   The pitch angle change center point position calculation unit 92 is realized mainly by the MPU 11. The pitch angle change center point position calculation unit 92 calculates the position of the pitch angle change center point 80 existing on a straight line from the viewpoint 66 toward the line-of-sight direction 68. Here, the pitch angle change center point position calculation unit 92 determines the position of the viewpoint 66 and the virtual object (for example, virtual earth object) when the line-of-sight direction 68 faces the direction indicating the virtual object (for example, virtual earth object 74). The position of the pitch angle change center point 80 existing between the position 74) and the position indicated by 74) may be calculated. In addition, the pitch angle change center point position calculation unit 92, based on the relationship between the position indicating the gazing point 136 and the position of the viewpoint 66, the pitch angle existing between the position indicating the gazing point 136 and the position of the viewpoint 66. The position of the change center point 80 may be calculated (see FIG. 10). The pitch angle change center point position calculation unit 92 determines the position of the point that internally divides the position between the position indicating the gazing point 136 and the position of the viewpoint 66 at a given ratio as the position of the pitch angle change center point 80. May be calculated as:

ここで、視点データ134の詳細について説明する。本実施形態においては、視点データ134は、ピッチ角変更中心点位置データ138と、ヨー角データ140と、最大ピッチ角データ142と、相対ピッチ角データ144と、を含んでいる。   Here, the details of the viewpoint data 134 will be described. In the present embodiment, the viewpoint data 134 includes pitch angle change center point position data 138, yaw angle data 140, maximum pitch angle data 142, and relative pitch angle data 144.

ピッチ角変更中心点位置データ138は、ピッチ角変更中心点位置算出部92によって算出されるピッチ角変更中心点80の位置を示すデータであり、例えば三次元座標値によって表現される。   The pitch angle change center point position data 138 is data indicating the position of the pitch angle change center point 80 calculated by the pitch angle change center point position calculation unit 92, and is represented by, for example, a three-dimensional coordinate value.

ヨー角データ140は、図7に示すように、ピッチ角変更中心点80の位置を中心とした極座標系において、視点66の位置の、ヨー角基準方向146に対するヨー角φを示すデータである。ここで、ヨー角基準方向146は、具体的には、例えば、北を示す方向に対応する方向を示している。   As shown in FIG. 7, the yaw angle data 140 is data indicating the yaw angle φ with respect to the yaw angle reference direction 146 at the position of the viewpoint 66 in the polar coordinate system centered on the position of the pitch angle change center point 80. Here, the yaw angle reference direction 146 specifically indicates, for example, a direction corresponding to a direction indicating north.

最大ピッチ角データ142と、相対ピッチ角データ144とで、ピッチ角変更中心点80の位置を中心とした極座標系における、視点66の位置の、ピッチ角θを示している。これらのデータの詳細については、後述する。   The maximum pitch angle data 142 and the relative pitch angle data 144 indicate the pitch angle θ at the position of the viewpoint 66 in the polar coordinate system centered on the position of the pitch angle change center point 80. Details of these data will be described later.

ここで、ピッチ角変更中心点80を通る、基準面130に対応する面(例えば、基準面に平行な面)をピッチ角変更中心点基準面148と呼ぶこととすると、ヨー角φは、ヨー角基準方向146と、ピッチ角変更中心点80の位置からピッチ角θが90度である際の視点66の位置への方向と、のなす角である。ここで、ピッチ角変更中心点80の位置からピッチ角θが90度である際の視点66の位置への方向を、ヨー角方向150と呼ぶこととする。   Here, if a plane corresponding to the reference plane 130 (for example, a plane parallel to the reference plane) passing through the pitch angle change center point 80 is called a pitch angle change center point reference plane 148, the yaw angle φ is The angle formed by the angle reference direction 146 and the direction from the position of the pitch angle change center point 80 to the position of the viewpoint 66 when the pitch angle θ is 90 degrees. Here, the direction from the position of the pitch angle change center point 80 to the position of the viewpoint 66 when the pitch angle θ is 90 degrees is referred to as a yaw angle direction 150.

なお、視点データ134のデータ構造は上述のデータ構造に限定されない。   The data structure of the viewpoint data 134 is not limited to the data structure described above.

具体的には、例えば、視点データ記憶部88は、最大ピッチ角θmaxを示す最大ピッチ角データ142の代わりに、最小伏角を示す最小伏角データを記憶してもよい。なお、最小伏角と最大ピッチ角θmaxとは、和が90度である関係がある。なお、最大ピッチ角θmaxの詳細については、後述する。   Specifically, for example, the viewpoint data storage unit 88 may store minimum dip angle data indicating the minimum dip angle instead of the maximum pitch angle data 142 indicating the maximum pitch angle θmax. It should be noted that the minimum depression angle and the maximum pitch angle θmax have a relationship that the sum is 90 degrees. Details of the maximum pitch angle θmax will be described later.

また、例えば、ヨー角方向150を示すヨー角方向データや、視線方向68を示す視線方向データや、ピッチ角変更中心点移動部112によるピッチ角変更中心点80の移動の基準となるピッチ角変更中心点移動基準方向152を示すピッチ角変更中心点移動基準方向データや、ピッチ角変更部114による視点66のピッチ角の変更の基準となる方向を示すピッチ角変更基準方向154などによって視点データ134を表現しても構わない。なお、本実施形態において、ピッチ角変更中心点移動基準方向152を示すベクトルは、ヨー角方向150を示すベクトルに対して逆方向のベクトルである。そして、本実施形態において、ピッチ角変更基準方向154は、ピッチ角変更中心点80を中心とした、半径がピッチ角変更半径rである球面(以後、ピッチ角変更面156と呼ぶ。)に沿った、視点66の現在位置からピッチ角θが0度である際の視点66の位置への方向である。   Further, for example, yaw angle direction data indicating the yaw angle direction 150, line-of-sight direction data indicating the line-of-sight direction 68, and a pitch angle change serving as a reference for the movement of the pitch angle change center point 80 by the pitch angle change center point moving unit 112. Pitch angle change center point movement reference direction data indicating the center point movement reference direction 152, viewpoint data 134 based on a pitch angle change reference direction 154 indicating a direction for changing the pitch angle of the viewpoint 66 by the pitch angle changing unit 114, and the like. May be expressed. In the present embodiment, the vector indicating the pitch angle change center point movement reference direction 152 is a vector in the opposite direction to the vector indicating the yaw angle direction 150. In the present embodiment, the pitch angle change reference direction 154 is along a spherical surface (hereinafter referred to as a pitch angle change surface 156) having a radius of the pitch angle change radius r with the pitch angle change center point 80 as the center. The direction from the current position of the viewpoint 66 to the position of the viewpoint 66 when the pitch angle θ is 0 degree.

基準距離算出部94は、MPU11を主として実現される。基準距離算出部94は、仮想オブジェクトデータ(本実施形態においては、地形面データ128)に基づいて、仮想オブジェクトの表面の基準面130からの距離を示す基準距離を算出する。本実施形態においては、具体的には、例えば、基準距離算出部94が、まず、ピッチ角変更中心点80を通る、基準面130に対して垂直な直線と、地形面132との交点(具体的には、例えば、地形面データ128に含まれるポリゴンデータが示すポリゴンとの交点)であるピッチ角変更中心点投影点158の位置を算出する。そして、基準距離算出部94が、ピッチ角変更中心点投影点158と基準面130との間の距離を第1地形面距離D1として算出する(図7参照)。そして、基準距離算出部94が、視点66を通る、基準面130に対して垂直な直線と、地形面132との交点である視点投影点160の位置を算出する。そして、基準距離算出部94が、視点投影点160と基準面130との間の距離を第2地形面距離D2として算出する(図7参照)。   The reference distance calculation unit 94 is realized mainly by the MPU 11. The reference distance calculation unit 94 calculates a reference distance indicating the distance from the reference plane 130 on the surface of the virtual object based on the virtual object data (terrain surface data 128 in the present embodiment). In the present embodiment, specifically, for example, the reference distance calculation unit 94 firstly intersects the straight line passing through the pitch angle change center point 80 and the terrain surface 132 (specifically, a straight line perpendicular to the reference surface 130). Specifically, for example, the position of the pitch angle change center point projection point 158 that is an intersection with the polygon indicated by the polygon data included in the topographic surface data 128 is calculated. Then, the reference distance calculation unit 94 calculates the distance between the pitch angle change center point projection point 158 and the reference plane 130 as the first topographic plane distance D1 (see FIG. 7). Then, the reference distance calculation unit 94 calculates the position of the viewpoint projection point 160 that is the intersection of the straight line passing through the viewpoint 66 and perpendicular to the reference plane 130 and the topographic surface 132. Then, the reference distance calculation unit 94 calculates the distance between the viewpoint projection point 160 and the reference plane 130 as the second topographic plane distance D2 (see FIG. 7).

そして、第1地形面距離D1と、第2地形面距離D2とに基づいて、地形面基準距離Dを算出する。ここでは、基準距離算出部94は、第1地形面距離D1の値を地形面基準距離Dの値として算出する。   Then, the terrain surface reference distance D is calculated based on the first terrain surface distance D1 and the second terrain surface distance D2. Here, the reference distance calculation unit 94 calculates the value of the first terrain surface distance D1 as the value of the terrain surface reference distance D.

なお、基準距離算出部94は、第2地形面距離D2の値を地形面基準距離Dの値として算出しても構わない。また、基準距離算出部94は、第1地形面距離D1の値と、第2地形面距離D2の値の平均値を地形面基準距離Dの値として算出しても構わない。   The reference distance calculation unit 94 may calculate the value of the second terrain surface distance D2 as the value of the terrain surface reference distance D. Further, the reference distance calculation unit 94 may calculate an average value of the value of the first terrain surface distance D1 and the value of the second terrain surface distance D2 as the value of the terrain surface reference distance D.

基準距離データ記憶部96は、メインメモリ20やハードディスク38を主として実現される。基準距離データ記憶部96は、基準距離算出部94により算出される基準距離を示す基準距離データを記憶する。具体的には、例えば、地形面基準距離Dを示す地形面基準距離データを記憶する。   The reference distance data storage unit 96 is realized mainly by the main memory 20 and the hard disk 38. The reference distance data storage unit 96 stores reference distance data indicating the reference distance calculated by the reference distance calculation unit 94. Specifically, for example, terrain surface reference distance data indicating the terrain surface reference distance D is stored.

そして、基準距離算出部94は、算出した基準距離と、基準距離データ記憶部96に記憶されている基準距離との差が所与の値(例えば、地形面基準距離バッファΔD)より大きい場合に、基準距離データ記憶部96に記憶されている基準距離データを、基準距離算出部94が算出した基準距離を示す基準距離データに更新するようにしてもよい。   Then, the reference distance calculation unit 94 determines that the difference between the calculated reference distance and the reference distance stored in the reference distance data storage unit 96 is larger than a given value (for example, the terrain surface reference distance buffer ΔD). The reference distance data stored in the reference distance data storage unit 96 may be updated to reference distance data indicating the reference distance calculated by the reference distance calculation unit 94.

視点移動速度決定部98は、MPU11を主として実現される。視点移動速度決定部98は、ユーザによる視点移動操作に応じて、視野領域70に含まれる仮想オブジェクト(本実施形態では、仮想地球オブジェクト72)を示す位置と視点66を示す位置との関係に基づく距離である仮想オブジェクト視点間距離に基づいて、視点66の移動速度vを決定する。   The viewpoint movement speed determination unit 98 is realized mainly by the MPU 11. The viewpoint movement speed determination unit 98 is based on the relationship between the position indicating the virtual object (in this embodiment, the virtual earth object 72) included in the visual field area 70 and the position indicating the viewpoint 66 in accordance with the viewpoint movement operation by the user. Based on the distance between the virtual object viewpoints, which is the distance, the moving speed v of the viewpoint 66 is determined.

また、視点移動速度決定部98が、仮想オブジェクト視点間距離の値が増加するほど移動速度vの値が増加するよう視点66の移動速度vを決定するようにしても構わない。具体的には、例えば、視点移動速度決定部98は、移動速度vの値が、仮想オブジェクト視点間距離の値に比例するように、移動速度vの値を決定するようにしても構わない。   Alternatively, the viewpoint movement speed determination unit 98 may determine the movement speed v of the viewpoint 66 so that the value of the movement speed v increases as the value of the virtual object viewpoint distance increases. Specifically, for example, the viewpoint movement speed determination unit 98 may determine the value of the movement speed v so that the value of the movement speed v is proportional to the value of the virtual object viewpoint distance.

このようにすることで、ユーザは、視点の的確な移動操作を実行することができる。   By doing in this way, the user can perform an accurate movement operation of the viewpoint.

本実施形態においては、具体的には、例えば、視点移動速度決定部98が、ピッチ角変更中心点80とピッチ角変更中心点投影点158(あるいは地形面132)との間のピッチ角変更中心点地形面間距離d1を算出する。このとき、視点移動速度決定部98が、ピッチ角変更中心点80と基準面130との間の距離と、基準距離データ記憶部96に記憶されている地形面基準距離データが示す地形面基準距離Dとの差分の値に基づいて、ピッチ角変更中心点地形面間距離d1を算出するようにしても構わない(図7参照)。   In the present embodiment, specifically, for example, the viewpoint movement speed determination unit 98 performs the pitch angle change center between the pitch angle change center point 80 and the pitch angle change center point projection point 158 (or the topographic surface 132). The point terrain surface distance d1 is calculated. At this time, the viewpoint movement speed determination unit 98 uses the distance between the pitch angle change center point 80 and the reference plane 130 and the terrain plane reference distance indicated by the terrain plane reference distance data stored in the reference distance data storage unit 96. The pitch angle change center point distance between topographic surfaces d1 may be calculated based on the value of the difference from D (see FIG. 7).

そして、視点移動速度決定部98は、ピッチ角変更中心点地形面間距離d1の値に基づいて、ピッチ角変更半径rの値を算出する。具体的には、例えば、視点移動速度決定部98が、ピッチ角変更中心点地形面間距離d1の値と所与の値との積の値をピッチ角変更半径rの値として算出する。このように、ピッチ角変更半径rと、ピッチ角変更中心点地形面間距離d1とが所与の比率になっていても構わない。もちろん、ここで、視点移動速度決定部98が、ピッチ角変更半径rの値を算出するようにしても構わない。   Then, the viewpoint movement speed determination unit 98 calculates the value of the pitch angle change radius r based on the value of the pitch angle change center point topographic surface distance d1. Specifically, for example, the viewpoint movement speed determination unit 98 calculates the value of the product of the pitch angle change center point inter-terrain distance d1 and a given value as the value of the pitch angle change radius r. Thus, the pitch angle change radius r and the pitch angle change center point topographic surface distance d1 may be a given ratio. Of course, here, the viewpoint movement speed determination unit 98 may calculate the value of the pitch angle change radius r.

そして、本実施形態においては、仮想オブジェクト視点間距離は、ピッチ角変更中心点地形面間距離d1と、ピッチ角変更半径rとの和(d1+r)である。すなわち、視点移動速度決定部98は、(d1+r)の値に基づいて、視点66の移動速度を決定する。   In this embodiment, the distance between the virtual object viewpoints is the sum (d1 + r) of the pitch angle change center point topographic surface distance d1 and the pitch angle change radius r. That is, the viewpoint movement speed determination unit 98 determines the movement speed of the viewpoint 66 based on the value of (d1 + r).

なお、仮想オブジェクト視点間距離の算出方法はもちろん上記の方法に限定されない。   Of course, the method of calculating the distance between the virtual object viewpoints is not limited to the above method.

また、視点移動速度決定部98は、基準面130や地形面132に沿った方向への、視点66の移動速度を決定するようにしてもよい。また、基準面130や地形面132に対して垂直な方向への、視点66の移動速度を決定するようにしてもよい。また、視点移動速度決定部98が、視点66の移動速度の代わりに、ピッチ角変更中心点80の移動速度を決定するようにしても構わない。   Further, the viewpoint movement speed determination unit 98 may determine the movement speed of the viewpoint 66 in the direction along the reference plane 130 and the topographic plane 132. Further, the moving speed of the viewpoint 66 in the direction perpendicular to the reference plane 130 and the topographic plane 132 may be determined. Further, the viewpoint movement speed determination unit 98 may determine the movement speed of the pitch angle change center point 80 instead of the movement speed of the viewpoint 66.

視点移動速度データ記憶部100は、視点移動速度決定部98により決定された視点66の移動速度を示す移動速度データを記憶する。視点移動速度データ記憶部100は、操作開始時の移動速度データを記憶するようにしても構わない。なお、ここで、ピッチ角変更中心点80の移動速度を示す移動速度データを記憶するようにしても構わない。   The viewpoint movement speed data storage unit 100 stores movement speed data indicating the movement speed of the viewpoint 66 determined by the viewpoint movement speed determination unit 98. The viewpoint movement speed data storage unit 100 may store movement speed data at the start of the operation. Here, the moving speed data indicating the moving speed of the pitch angle changing center point 80 may be stored.

許容範囲算出部102は、MPU11を主として実現される。許容範囲算出部102は、視野領域70と仮想オブジェクト(本実施形態においては、例えば、仮想地球オブジェクト72)が占める閉領域とが交わる領域の大きさに基づいて、視点66の位置の移動許容範囲や、視線方向68の変更許容範囲といった許容範囲162を算出する(図11参照)。図11は、許容範囲162の一例を示す図である。そして、図12は、許容範囲162の別の一例を示す図である。許容範囲算出部102は、図12に示すように、視点66の位置の移動許容範囲だけを算出してもよいし、視線方向68の変更許容範囲だけを算出してもよい。もちろん、許容範囲算出部102が、視点66の位置の移動許容範囲と視線方向68の変更許容範囲の両方を算出してもよい。   The allowable range calculation unit 102 is realized mainly by the MPU 11. The allowable range calculation unit 102 is based on the size of the area where the visual field area 70 and the closed area occupied by the virtual object (for example, the virtual earth object 72 in the present embodiment) intersect, the allowable movement range of the position of the viewpoint 66. Alternatively, an allowable range 162 such as a change allowable range of the line-of-sight direction 68 is calculated (see FIG. 11). FIG. 11 is a diagram illustrating an example of the allowable range 162. FIG. 12 is a diagram illustrating another example of the allowable range 162. As illustrated in FIG. 12, the allowable range calculation unit 102 may calculate only the allowable movement range of the position of the viewpoint 66, or may calculate only the allowable change range of the line-of-sight direction 68. Of course, the allowable range calculation unit 102 may calculate both the allowable movement range of the position of the viewpoint 66 and the allowable change range of the line-of-sight direction 68.

本実施形態では、許容範囲算出部102は、図11に示すように、ピッチ角θの範囲を算出する。そして、許容範囲算出部102は、ピッチ角変更中心点80と視点66とを通る直線の方向が、仮想地球オブジェクト72が占める閉領域に対する接線方向に対応する方向である際の視点66の位置や視線方向68を許容範囲内と許容範囲外との境界として算出する。そして、このときの、ピッチ角θを最大ピッチ角θmaxと呼ぶこととする。   In the present embodiment, the allowable range calculation unit 102 calculates the range of the pitch angle θ as shown in FIG. Then, the allowable range calculation unit 102 determines the position of the viewpoint 66 when the direction of the straight line passing through the pitch angle change center point 80 and the viewpoint 66 is a direction corresponding to the tangential direction with respect to the closed region occupied by the virtual earth object 72. The line-of-sight direction 68 is calculated as the boundary between the allowable range and the allowable range. The pitch angle θ at this time is called the maximum pitch angle θmax.

ここで、例えば、仮想地球オブジェクト72の中心と地形面132との間の地形面中心間距離Rと、ピッチ角変更中心点地形面間距離d1とに基づいて、許容範囲算出部102は、最大ピッチ角θmaxを、θmax=sin−1{R/(R+d1)}という数式から算出される。 Here, for example, based on the terrain surface center distance R between the center of the virtual earth object 72 and the terrain surface 132 and the pitch angle change center point terrain surface distance d1, the allowable range calculation unit 102 determines the maximum The pitch angle θmax is calculated from an equation: θmax = sin −1 {R / (R + d1)}.

ここで、許容範囲算出部102は、地形面中心間距離Rの代わりに、算出が容易な、仮想地球オブジェクト72の中心と基準面との間の基準面中心間距離R’を用いて、最大ピッチ角θmaxを、概算するようにしても構わない。もちろん、このとき、許容範囲算出部102が、ピッチ角変更中心点地形面間距離d1の代わりに、ピッチ角変更中心点80と基準面130との間のピッチ角変更中心点基準面間距離d’を用いて、最大ピッチ角θmaxを算出しても構わない。また、許容範囲算出部102は、許容範囲の算出に用いる仮想オブジェクトが占める閉領域を、仮想オブジェクトに基づいて算出するようにしても構わない。具体的には、例えば、許容範囲算出部102は、仮想オブジェクトの凸包に基づいて、仮想オブジェクトが示す閉領域を算出するようにしても構わない。   Here, the permissible range calculation unit 102 uses the reference plane center-to-center distance R ′ between the center of the virtual earth object 72 and the reference plane, which is easy to calculate, instead of the topographic plane center-to-center distance R, The pitch angle θmax may be approximated. Of course, at this time, the allowable range calculation unit 102 does not use the pitch angle change center point terrain surface distance d1 but the pitch angle change center point reference surface distance d between the pitch angle change center point 80 and the reference surface 130. 'May be used to calculate the maximum pitch angle θmax. Further, the allowable range calculation unit 102 may calculate the closed region occupied by the virtual object used for calculating the allowable range based on the virtual object. Specifically, for example, the allowable range calculation unit 102 may calculate the closed region indicated by the virtual object based on the convex hull of the virtual object.

そして、本実施形態においては、視点データ記憶部88は、許容範囲算出部102が算出した最大ピッチ角θmaxを示す最大ピッチ角データ142を記憶する。   In this embodiment, the viewpoint data storage unit 88 stores maximum pitch angle data 142 indicating the maximum pitch angle θmax calculated by the allowable range calculation unit 102.

このように、許容範囲算出部102は、視線方向68が仮想オブジェクト(本実施形態においては、例えば、仮想地球オブジェクト72)が占める閉領域に対する接線方向に対応する方向である際の視点66の位置や視線方向68を許容範囲162内と許容範囲162外との境界として算出するようにしても構わない。   As described above, the allowable range calculation unit 102 determines the position of the viewpoint 66 when the line-of-sight direction 68 is a direction corresponding to the tangential direction with respect to the closed region occupied by the virtual object (for example, the virtual earth object 72 in the present embodiment). Alternatively, the line-of-sight direction 68 may be calculated as a boundary between the allowable range 162 and the outside of the allowable range 162.

操作状態取得部104は、所定時間(本実施形態においては、具体的には、例えば、1/60秒)毎に、コントローラ42の操作状態を取得する。操作状態とは、具体的には、例えば、押圧力を示すディジタル値(0〜255)や、姿勢データ(0≦X≦255,0≦Y≦255)などである。本実施形態においては、少なくとも、左操作スティック54及び右操作スティック56の操作状態を示す姿勢データと、左操作スティック54、右操作スティック56、第2の左ボタン52L、及び、第2の右ボタン52Rの押圧力を示すディジタル値を取得する。そして、操作状態取得部104は、取得した操作状態に基づいて、ユーザによって行われた操作の内容を判断する。   The operation state acquisition unit 104 acquires the operation state of the controller 42 every predetermined time (specifically, for example, 1/60 seconds in the present embodiment). Specifically, the operation state is, for example, a digital value (0 to 255) indicating a pressing force, posture data (0 ≦ X ≦ 255, 0 ≦ Y ≦ 255), or the like. In the present embodiment, at least posture data indicating the operation state of the left operation stick 54 and the right operation stick 56, the left operation stick 54, the right operation stick 56, the second left button 52L, and the second right button. A digital value indicating the pressing force of 52R is acquired. Then, the operation state acquisition unit 104 determines the content of the operation performed by the user based on the acquired operation state.

本実施形態において、具体的には、例えば、操作状態取得部104が、左操作スティック54の姿勢データを取得した場合、又は、第2の左ボタン52L、第2の右ボタン52Rの所与の値以上の押圧力を示すディジタル値を取得した場合は、ユーザによる操作がピッチ角変更中心点移動操作であると判断し、右操作スティック56の姿勢データ及び右操作スティックの所与の値以上の押圧力を示すディジタル値を取得した場合は、ユーザによる操作がピッチ角変更操作、あるいは、ヨー角変更操作であると判断する。これらの操作の内容については、後述する。   In the present embodiment, specifically, for example, when the operation state acquisition unit 104 acquires posture data of the left operation stick 54, or given given of the second left button 52L and the second right button 52R. When a digital value indicating a pressing force equal to or greater than the value is acquired, it is determined that the operation by the user is a pitch angle change center point movement operation, and the posture data of the right operation stick 56 and the given value of the right operation stick are greater than or equal to a given value. When the digital value indicating the pressing force is acquired, it is determined that the operation by the user is a pitch angle changing operation or a yaw angle changing operation. Details of these operations will be described later.

操作状態記憶部106は、メインメモリ20やハードディスク38を主として実現される。操作状態記憶部106は、操作状態取得部104が取得する操作状態を示す操作状態データを記憶する。   The operation state storage unit 106 is realized mainly by the main memory 20 and the hard disk 38. The operation state storage unit 106 stores operation state data indicating the operation state acquired by the operation state acquisition unit 104.

操作状態変化判断部108は、MPU11を主として実現される。操作状態変化判断部108は、操作状態記憶部106に記憶されている操作状態データが示す操作状態と、操作状態取得部104が検出する操作状態とを比較して、検出されたデータに変化があったか否かを判断する。   The operation state change determination unit 108 is realized mainly by the MPU 11. The operation state change determination unit 108 compares the operation state indicated by the operation state data stored in the operation state storage unit 106 with the operation state detected by the operation state acquisition unit 104, and changes are detected in the detected data. Determine if there was.

視点移動部110は、MPU11を主として実現される。視点移動部110は、ユーザによる視点移動操作に応じて、前記視点の位置の移動又は前記視線方向の変更の少なくとも一方を実行する。   The viewpoint moving unit 110 is realized mainly by the MPU 11. The viewpoint moving unit 110 executes at least one of movement of the position of the viewpoint or change of the line-of-sight direction according to a viewpoint movement operation by the user.

このとき、視点移動部110が、許容範囲算出部102によって算出された許容範囲162内で、視点の位置の移動や視線方向の変更を実行できるようにしても構わない。また、視点移動部110が、視点移動速度決定部98により決定される移動速度vで視点66の位置を移動するようにしても構わない。   At this time, the viewpoint moving unit 110 may perform movement of the viewpoint position or change of the line-of-sight direction within the allowable range 162 calculated by the allowable range calculating unit 102. Further, the viewpoint moving unit 110 may move the position of the viewpoint 66 at the moving speed v determined by the viewpoint moving speed determining unit 98.

ピッチ角変更中心点移動部112は、MPU11を主として実現される。ピッチ角変更中心点移動部112は、ユーザによるピッチ角変更中心点移動操作に応じて、ピッチ角変更中心点80の位置を移動し、視点66の位置からピッチ角変更中心点80を向くよう少なくとも視線方向68を変更する。また、ピッチ角変更中心点移動部112は、ピッチ角変更中心点80の位置を移動した際に、移動されたピッチ角変更中心点80の位置に基づいて、ヨー角φを算出するようにしてもよい。   The pitch angle changing center point moving unit 112 is realized mainly by the MPU 11. The pitch angle change center point moving unit 112 moves the position of the pitch angle change center point 80 in accordance with the pitch angle change center point movement operation by the user, and at least so as to face the pitch angle change center point 80 from the position of the viewpoint 66. The line-of-sight direction 68 is changed. The pitch angle change center point moving unit 112 calculates the yaw angle φ based on the moved position of the pitch angle change center point 80 when the position of the pitch angle change center point 80 is moved. Also good.

また、視点移動部110が、ピッチ角変更中心点移動部112によるピッチ角変更中心点80の移動と連動して、視点66を移動するようにしても構わない。具体的には、例えば、視点移動部110は、ピッチ角変更中心点移動部112によりピッチ角変更中心点80が移動する距離だけ移動をするようにしても構わない。また、ピッチ角変更中心点移動部112による移動によりピッチ角変更中心点地形面間距離d1の値が変化する際は、視点移動部110が、変化後のピッチ角変更中心点地形面間距離d1に基づいて、ピッチ角変更半径rを算出して、この算出されるピッチ角変更半径rに基づいて、視点66の位置を移動するようにしても構わない。   Further, the viewpoint moving unit 110 may move the viewpoint 66 in conjunction with the movement of the pitch angle changing center point 80 by the pitch angle changing center point moving unit 112. Specifically, for example, the viewpoint moving unit 110 may move the pitch angle changing center point moving unit 112 by the distance that the pitch angle changing center point 80 moves. Further, when the value of the pitch angle change center point terrain surface distance d1 changes due to the movement by the pitch angle change center point moving unit 112, the viewpoint moving unit 110 changes the pitch angle change center point terrain surface distance d1 after the change. The pitch angle change radius r may be calculated based on the above, and the position of the viewpoint 66 may be moved based on the calculated pitch angle change radius r.

本実施形態においては、操作状態取得部104が取得した左操作スティック54の姿勢データ(X,Y)に基づいて、左操作スティック54のY軸方向が、ピッチ角変更中心点移動基準方向152の方向に、X軸方向が、ピッチ角変更中心点移動基準方向152に対して右90度の方向に対応付けられた座標上の位置に、ピッチ角変更中心点移動部112がピッチ角変更中心点80を移動する。   In the present embodiment, based on the attitude data (X, Y) of the left operation stick 54 acquired by the operation state acquisition unit 104, the Y-axis direction of the left operation stick 54 is the pitch angle change center point movement reference direction 152. In the direction, the pitch angle change center point moving unit 112 is located at a position on the coordinates in which the X-axis direction is associated with the direction 90 degrees to the right with respect to the pitch angle change center point movement reference direction 152. Move 80.

具体的には、例えば、操作状態取得部104が、左操作スティック54が上方向に操作されていることを示す操作状態を取得すると、ピッチ角変更中心点移動部112は、ピッチ角変更中心点80を、ピッチ角変更中心点移動基準方向152の方向に移動する。また、操作状態取得部104が、左操作スティック54が下方向に操作されていることを示す操作状態を取得すると、ピッチ角変更中心点移動部112は、ピッチ角変更中心点80を、ピッチ角変更中心点移動基準方向152とは逆方向(すなわち、ヨー角方向150の方向)に移動する。そして、操作状態取得部104が、左操作スティック54が左方向(右方向)に操作されていることを示す操作状態を取得すると、ピッチ角変更中心点移動部112は、ピッチ角変更中心点80を、ピッチ角変更中心点移動基準方向152に対して左90度(右90度)の方向に移動する。   Specifically, for example, when the operation state acquisition unit 104 acquires an operation state indicating that the left operation stick 54 is operated upward, the pitch angle change center point moving unit 112 displays the pitch angle change center point. 80 is moved in the direction of the pitch angle change center point movement reference direction 152. When the operation state acquisition unit 104 acquires an operation state indicating that the left operation stick 54 is operated in the downward direction, the pitch angle change center point moving unit 112 sets the pitch angle change center point 80 to the pitch angle change center point 80. It moves in the direction opposite to the change center point movement reference direction 152 (that is, the direction of the yaw angle direction 150). When the operation state acquisition unit 104 acquires an operation state indicating that the left operation stick 54 is operated in the left direction (right direction), the pitch angle change center point moving unit 112 performs the pitch angle change center point 80. Are moved 90 degrees to the left (90 degrees to the right) with respect to the pitch angle change center point movement reference direction 152.

また、本実施形態においては、操作状態取得部104が、第2の左ボタン52Lの押圧力を示す所与の値以上のディジタル値を取得した場合は、ピッチ角変更中心点移動部112は、ピッチ角変更中心点80を、ピッチ角変更中心点基準面148に対して垂直な方向であって、仮想地球オブジェクト72から離れる方向に移動する。また、操作状態取得部104が、第2の右ボタン52Rの押圧力を示す所与の値以上のディジタル値を取得した場合は、ピッチ角変更中心点移動部112は、ピッチ角変更中心点80を、ピッチ角変更中心点基準面148に対して垂直な方向であって、仮想地球オブジェクト72に近づく方向に移動する。   In the present embodiment, when the operation state acquisition unit 104 acquires a digital value equal to or greater than a given value indicating the pressing force of the second left button 52L, the pitch angle change center point moving unit 112 The pitch angle change center point 80 is moved in a direction perpendicular to the pitch angle change center point reference plane 148 and away from the virtual earth object 72. When the operation state acquisition unit 104 acquires a digital value equal to or greater than a given value indicating the pressing force of the second right button 52R, the pitch angle change center point moving unit 112 sets the pitch angle change center point 80. Is moved in a direction perpendicular to the pitch angle change center point reference plane 148 and closer to the virtual earth object 72.

また、このとき、ピッチ角変更中心点移動部112が、視点移動速度決定部98により決定される移動速度vに基づく、ピッチ角変更中心点80の移動速度v’でピッチ角変更中心点80の位置を移動するようにしても構わない。具体的には、例えば、操作状態取得部104が取得した左操作スティック54の姿勢データの値が(X,Y)であり、ピッチ角変更中心点80の移動速度v’の値がvと等しい場合には、ピッチ角変更中心点移動部112は、ピッチ角変更中心点80の現在位置から(vX,vY)だけ移動するようにしても構わない。このように、ピッチ角変更中心点移動部112が、姿勢データなどの操作量の値と、移動速度vの値との積に基づく移動速度でピッチ角変更中心点80を移動するようにしてもよい。もちろん、視点移動部110が、操作量の値と、移動速度vの値との積に基づく移動速度で視点66を移動するようにしてもよい。また、第2の左ボタン52Lや第2の右ボタン52Rによる、ピッチ角変更中心点80のピッチ角変更中心点基準面148に対して垂直な方向への移動の際にも、視点移動速度決定部98により決定される移動速度vに基づく、ピッチ角変更中心点80の移動速度v’でピッチ角変更中心点80の位置を移動するようにしても構わない。   At this time, the pitch angle changing center point moving unit 112 moves the pitch angle changing center point 80 at the moving speed v ′ of the pitch angle changing center point 80 based on the moving speed v determined by the viewpoint moving speed determining unit 98. You may make it move a position. Specifically, for example, the value of the posture data of the left operation stick 54 acquired by the operation state acquisition unit 104 is (X, Y), and the value of the moving speed v ′ of the pitch angle change center point 80 is equal to v. In this case, the pitch angle change center point moving unit 112 may move by (vX, vY) from the current position of the pitch angle change center point 80. As described above, the pitch angle changing center point moving unit 112 may move the pitch angle changing center point 80 at a moving speed based on the product of the operation amount value such as posture data and the moving speed v. Good. Of course, the viewpoint moving unit 110 may move the viewpoint 66 at a movement speed based on the product of the value of the operation amount and the value of the movement speed v. Also, the viewpoint moving speed is determined when the second left button 52L or the second right button 52R moves the pitch angle change center point 80 in a direction perpendicular to the pitch angle change center point reference plane 148. The position of the pitch angle changing center point 80 may be moved at the moving speed v ′ of the pitch angle changing center point 80 based on the moving speed v determined by the unit 98.

ピッチ角変更部114は、MPU11を主として実現される。ピッチ角変更部114は、ユーザによるピッチ角変更操作に応じて、ピッチ角変更中心点80を中心にピッチ角θを変更し、ピッチ角変更後の視点66の位置からピッチ角変更中心点80を向くよう視線方向68を変更する。   The pitch angle changing unit 114 is realized mainly by the MPU 11. The pitch angle changing unit 114 changes the pitch angle θ around the pitch angle changing center point 80 according to the pitch angle changing operation by the user, and changes the pitch angle changing center point 80 from the position of the viewpoint 66 after the pitch angle is changed. The line-of-sight direction 68 is changed so as to face.

このとき、ピッチ角変更部114が、このピッチ角θの範囲内で、ピッチ角θを変更するようにしても構わない。   At this time, the pitch angle changing unit 114 may change the pitch angle θ within the range of the pitch angle θ.

相対ピッチ角データ変更部116は、MPU11を主として実現される。相対ピッチ角データ変更部116は、視点データ記憶部88に、相対ピッチ角データ144が記憶されている場合に、ユーザによる相対ピッチ角変更操作に応じて、相対ピッチ角データ144を変更する。ここで、相対ピッチ角データ144とは、ピッチ角変更中心点80と視点66とを通る直線と、仮想オブジェクト(本実施形態においては仮想地球オブジェクト72)を示す領域に対して垂直なピッチ角変更中心点80を通る直線と、がなす角の、最大ピッチ角θmaxに対する比率である相対ピッチ角θ’(0≦θ’≦1)を示すデータである。   The relative pitch angle data changing unit 116 is realized mainly by the MPU 11. When the relative pitch angle data 144 is stored in the viewpoint data storage unit 88, the relative pitch angle data change unit 116 changes the relative pitch angle data 144 according to the relative pitch angle change operation by the user. Here, the relative pitch angle data 144 is a pitch angle change perpendicular to a straight line passing through the pitch angle change center point 80 and the viewpoint 66 and a region indicating a virtual object (virtual earth object 72 in the present embodiment). This is data indicating the relative pitch angle θ ′ (0 ≦ θ ′ ≦ 1), which is the ratio of the angle formed by the straight line passing through the center point 80 and the maximum pitch angle θmax.

ピッチ角算出部118は、MPU11を主として実現される。ピッチ角算出部118は、相対ピッチ角データ144が示す相対ピッチ角θ’と、最大ピッチ角θmaxと、に基づいて、ピッチ角変更中心点80と前記視点とを通る直線と、前記仮想オブジェクトを示す領域に対して垂直なピッチ角変更中心点80を通る直線と、がなす角であるピッチ角θを算出する。より具体的には、例えば、ピッチ角算出部118は、最大ピッチ角θmaxが示す角度と、相対ピッチ角θ’との積(θmax×θ’)に基づいて、ピッチ角θを算出するようにしても構わない。   The pitch angle calculation unit 118 is realized mainly by the MPU 11. The pitch angle calculation unit 118, based on the relative pitch angle θ ′ indicated by the relative pitch angle data 144 and the maximum pitch angle θmax, the straight line passing the pitch angle change center point 80 and the viewpoint, and the virtual object. A pitch angle θ that is an angle formed by a straight line passing through the pitch angle change center point 80 perpendicular to the region to be shown is calculated. More specifically, for example, the pitch angle calculation unit 118 calculates the pitch angle θ based on the product (θmax × θ ′) of the angle indicated by the maximum pitch angle θmax and the relative pitch angle θ ′. It doesn't matter.

本実施形態においては、操作状態取得部104が取得した右操作スティック56の姿勢データ(X,Y)に基づいて、相対ピッチ角データ変更部116が、相対ピッチ角データ144が示す相対ピッチ角θ’の増減を実行する。また、本実施形態では、ピッチ角変更部114は、ヨー角データ140が示すヨー角φの増減、すなわち、ヨー角φの変更も実行する。具体的には、例えば、操作状態取得部104が取得したYの値が正(負)である場合に、相対ピッチ角データ変更部116が、相対ピッチ角θ’の値が減少(増加)する。また、操作状態取得部104が取得したXの値が正(負)である場合に、ピッチ角変更部114が、ヨー角φの値を増加(減少)する。   In the present embodiment, based on the posture data (X, Y) of the right operation stick 56 acquired by the operation state acquisition unit 104, the relative pitch angle data change unit 116 determines the relative pitch angle θ indicated by the relative pitch angle data 144. Increase or decrease '. In the present embodiment, the pitch angle changing unit 114 also increases or decreases the yaw angle φ indicated by the yaw angle data 140, that is, changes the yaw angle φ. Specifically, for example, when the value of Y acquired by the operation state acquisition unit 104 is positive (negative), the relative pitch angle data change unit 116 decreases (increases) the value of the relative pitch angle θ ′. . In addition, when the value of X acquired by the operation state acquisition unit 104 is positive (negative), the pitch angle changing unit 114 increases (decreases) the value of the yaw angle φ.

そして、変更される相対ピッチ角データ144に基づいて、ピッチ角算出部118がピッチ角θを算出する。そして、ピッチ角変更部114が、算出されたピッチ角θの値と、ヨー角φの値と、ピッチ角変更中心点80の現在位置とに基づいて、ピッチ角θあるいはヨー角φを変更する。このように、ピッチ角変更部114が、ピッチ角算出部118により算出されるピッチ角θと、ピッチ角変更中心点80の位置と、に基づいて、ピッチ角θやヨー角φを変更するようにしても構わない。   Based on the changed relative pitch angle data 144, the pitch angle calculation unit 118 calculates the pitch angle θ. The pitch angle changing unit 114 changes the pitch angle θ or the yaw angle φ based on the calculated value of the pitch angle θ, the value of the yaw angle φ, and the current position of the pitch angle change center point 80. . In this way, the pitch angle changing unit 114 changes the pitch angle θ and the yaw angle φ based on the pitch angle θ calculated by the pitch angle calculating unit 118 and the position of the pitch angle changing center point 80. It doesn't matter.

また、操作状態取得部104が、右操作スティック56の押圧力を示す所与の値以上のディジタル値を取得した場合は、ピッチ角θ変更部114は、ヨー角基準方向146に対するヨー角φが180度となる位置に視点66が配置されるよう、ピッチ角θを一定にしたままでヨー角φを変更する。このようにして、ユーザは、視線方向68が北方向を向くようにヨー角φを変更することができる。   When the operation state acquisition unit 104 acquires a digital value equal to or greater than a given value indicating the pressing force of the right operation stick 56, the pitch angle θ change unit 114 determines that the yaw angle φ with respect to the yaw angle reference direction 146 is The yaw angle φ is changed while the pitch angle θ is kept constant so that the viewpoint 66 is arranged at a position of 180 degrees. In this way, the user can change the yaw angle φ so that the line-of-sight direction 68 faces the north direction.

また、ピッチ角変更中心点移動部112が、ピッチ角変更中心点80の位置を移動した際、許容範囲算出部102が許容範囲を再算出するようにしても構わない。具体的には、例えば、ピッチ角変更中心点移動部112が、最大ピッチ角θmaxの値を再算出するようにしてもよい。そして、このとき、ピッチ角算出部118が、再算出される最大ピッチ角θmaxが示す角度と、相対ピッチ角θ’との積(θmax×θ’)に基づいて、ピッチ角θを再算出するようにしても構わない。そして、このとき、ピッチ角変更部114が、再算出されるピッチ角θと、ピッチ角変更中心点80の位置と、に基づいて、ピッチ角θを変更するようにしても構わない。   Further, when the pitch angle changing center point moving unit 112 moves the position of the pitch angle changing center point 80, the allowable range calculating unit 102 may recalculate the allowable range. Specifically, for example, the pitch angle change center point moving unit 112 may recalculate the value of the maximum pitch angle θmax. At this time, the pitch angle calculation unit 118 recalculates the pitch angle θ based on the product (θmax × θ ′) of the angle indicated by the recalculated maximum pitch angle θmax and the relative pitch angle θ ′. It doesn't matter if you do. At this time, the pitch angle changing unit 114 may change the pitch angle θ based on the recalculated pitch angle θ and the position of the pitch angle changing center point 80.

視点位置修正部120は、MPU11を主として実現される。視点位置修正部120は、視点移動部110による視点66の移動の際に、視点66を示す位置と仮想オブジェクト(本実施形態では仮想地球オブジェクト72)を示す位置との距離を測定し、当該距離が所与の距離より短い場合は、仮想オブジェクトから離れる方向に視点66の位置を修正する。このようにすると、視点66が地形面132と接触しそうな状況の際に、接触を回避するよう視点66が移動される。また、本実施形態においては、視点66が地形面132の下に隠れることを防ぐことができる(図5J参照)。なお、視点位置修正部120は、視点66の位置の修正の際に、コントローラ42に対して、コントローラ42が備えるバイブレータを振動するように指示してもよい。   The viewpoint position correcting unit 120 is realized mainly by the MPU 11. When the viewpoint 66 is moved by the viewpoint moving unit 110, the viewpoint position correcting unit 120 measures the distance between the position indicating the viewpoint 66 and the position indicating the virtual object (the virtual earth object 72 in the present embodiment), and the distance. Is shorter than a given distance, the position of the viewpoint 66 is corrected in a direction away from the virtual object. In this way, the viewpoint 66 is moved so as to avoid contact when the viewpoint 66 is likely to contact the topographic surface 132. Further, in the present embodiment, the viewpoint 66 can be prevented from being hidden under the topographic surface 132 (see FIG. 5J). Note that the viewpoint position correction unit 120 may instruct the controller 42 to vibrate the vibrator included in the controller 42 when the position of the viewpoint 66 is corrected.

本実施形態においては、例えば、視点位置修正部120が、視点66と視点投影点160(あるいは地形面132)との間の視点地形面間距離d2を算出する。このとき、視点位置修正部120が、視点66と基準面130との間の距離と、基準距離データ記憶部96に記憶されている地形面基準距離データが示す地形面基準距離Dとの差分の値に基づいて、視点地形面間距離d2を算出するようにしても構わない(図7参照)。   In the present embodiment, for example, the viewpoint position correcting unit 120 calculates the viewpoint terrain surface distance d2 between the viewpoint 66 and the viewpoint projection point 160 (or the terrain surface 132). At this time, the viewpoint position correcting unit 120 calculates the difference between the distance between the viewpoint 66 and the reference plane 130 and the terrain plane reference distance D indicated by the terrain plane reference distance data stored in the reference distance data storage unit 96. The distance d2 between the viewpoint terrain surfaces may be calculated based on the value (see FIG. 7).

そして、視点地形面間距離d2の値が所与の閾値である最小視点地形面間距離d2minより小さい場合は、視点位置修正部120が、視点66を視点地形面間距離d2の値が最小視点地形面間距離d2minの値以上となる位置に修正する。具体的には、例えば、視点位置修正部120が、視点地形面間距離d2の値が最小視点地形面間距離d2minの値となるよう、視点66を通る、基準面130に対して垂直な直線上を、基準面130に対して反対の方向に視点66を修正する。なお、このとき、視点位置修正部120が、ピッチ角変更中心点80の位置を併せて修正するようにしても構わない。   When the value of the viewpoint terrain surface distance d2 is smaller than the minimum viewpoint terrain surface distance d2min, which is a given threshold value, the viewpoint position correcting unit 120 determines that the viewpoint 66 has a value of the viewpoint terrain surface distance d2 of the minimum viewpoint. The position is corrected to a position that is equal to or greater than the distance between topographic surfaces d2min. Specifically, for example, the viewpoint position correction unit 120 is a straight line that passes through the viewpoint 66 and is perpendicular to the reference plane 130 so that the value of the viewpoint terrain surface distance d2 becomes the value of the minimum viewpoint terrain surface distance d2min. The viewpoint 66 is corrected in the opposite direction with respect to the reference plane 130. At this time, the viewpoint position correction unit 120 may also correct the position of the pitch angle change center point 80 together.

ピッチ角変更中心点位置修正部122は、MPU11を主として実現される。ピッチ角変更中心点位置修正部122は、視点移動部110による視点66の移動の際に、ピッチ角変更中心点80を示す位置と、仮想オブジェクト(本実施形態においては、例えば、仮想地球オブジェクト72)を示す位置とを測定し、当該距離が所与の範囲を超える場合に、当該距離がこの範囲におさまるようピッチ角変更中心点80の位置を修正する。このとき、視点移動部110は、併せて視点66の位置を修正するようにしても構わない。このようにすると、例えば、視点66の地形面132に対する位置、及び、ピッチ角変更中心点80の地形面132に対する位置の両方が所与の範囲よりも大きく変化した際に、ピッチ角変更中心点80の位置や視点66の位置を変化させることができる(図5G〜図5I参照)。   The pitch angle change center point position correction unit 122 is realized mainly by the MPU 11. When the viewpoint 66 is moved by the viewpoint moving unit 110, the pitch angle changing center point position correcting unit 122 and the position indicating the pitch angle changing center point 80 and a virtual object (in this embodiment, for example, the virtual earth object 72) are displayed. ) Is measured, and when the distance exceeds a given range, the position of the pitch angle change center point 80 is corrected so that the distance falls within this range. At this time, the viewpoint moving unit 110 may correct the position of the viewpoint 66 together. In this way, for example, when both the position of the viewpoint 66 with respect to the terrain surface 132 and the position of the pitch angle change center point 80 with respect to the terrain surface 132 change more than a given range, the pitch angle change center point is changed. The position 80 and the position of the viewpoint 66 can be changed (see FIGS. 5G to 5I).

本実施形態においては、例えば、基準距離算出部94が、基準距離データ記憶部96に記憶されている基準距離データを、基準距離算出部94が算出した基準距離を示す基準距離データに更新する際に、ピッチ角変更中心点位置修正部122が、更新前の基準距離と、更新後の基準距離との差分に基づいて、ピッチ角変更中心点80の位置を修正する。   In the present embodiment, for example, when the reference distance calculation unit 94 updates the reference distance data stored in the reference distance data storage unit 96 to reference distance data indicating the reference distance calculated by the reference distance calculation unit 94. In addition, the pitch angle change center point position correction unit 122 corrects the position of the pitch angle change center point 80 based on the difference between the reference distance before update and the reference distance after update.

次に、本実施形態に係るエンタテインメントシステム10において、所定時間(本実施形態では、1/60秒)毎に実行される処理の一例について、図7に示す説明図及び図13及び図14に示すフロー図を参照しながら説明する。   Next, in the entertainment system 10 according to the present embodiment, an example of processing executed every predetermined time (in this embodiment, 1/60 second) is shown in an explanatory diagram shown in FIG. 7 and FIGS. 13 and 14. This will be described with reference to a flow diagram.

図13及び図14は、エンタテインメントシステム10において所定時間毎に実行される処理のうち、本実施形態に関連する処理を示すフロー図である。図13及び図14に示す処理は、例えば、DVD−ROM等の情報伝達媒体を介して、あるいは、インターネット等の通信ネットワークを介してエンタテインメントシステム10に供給されるプログラムがMPU11によって実行されることによって実現される。   FIG. 13 and FIG. 14 are flowcharts showing processes related to the present embodiment among the processes executed every predetermined time in the entertainment system 10. The processing shown in FIGS. 13 and 14 is executed by the MPU 11 executing a program supplied to the entertainment system 10 via an information transmission medium such as a DVD-ROM or via a communication network such as the Internet. Realized.

まず、操作状態取得部104が、コントローラ42の操作状態を取得する(S1)。   First, the operation state acquisition unit 104 acquires the operation state of the controller 42 (S1).

そして、操作状態変化判断部108が、S1に示す処理で、コントローラ42の操作状態を取得したか否かを確認する(S2)。操作状態変化判断部108が、コントローラ42の操作状態を取得していない場合(S2:N)は、処理を終了する。   Then, the operation state change determination unit 108 confirms whether or not the operation state of the controller 42 has been acquired in the process shown in S1 (S2). If the operation state change determination unit 108 has not acquired the operation state of the controller 42 (S2: N), the process ends.

操作状態変化判断部108が、コントローラ42の操作状態を取得した場合は(S2:Y)、操作状態記憶部106に記憶されている操作状態データが示す操作状態と、S1に示す処理で操作状態取得部104により取得された操作状態とが対応するか否かを判断する(S3)。   When the operation state change determination unit 108 acquires the operation state of the controller 42 (S2: Y), the operation state indicated by the operation state data stored in the operation state storage unit 106 and the operation state in the process shown in S1 It is determined whether or not the operation state acquired by the acquisition unit 104 corresponds (S3).

ここで、操作状態記憶部106に記憶されている操作状態データが示す操作状態と、S1に示す処理で検出された操作状態とが対応する場合は(S3:Y)、基準距離データ記憶部96に記憶されている地表面基準距離データ、及び、視点移動速度データ記憶部100に記憶されている移動速度データを取得する(S4)。   Here, when the operation state indicated by the operation state data stored in the operation state storage unit 106 corresponds to the operation state detected in the process shown in S1 (S3: Y), the reference distance data storage unit 96 is used. The ground surface reference distance data stored in the table and the moving speed data stored in the viewpoint moving speed data storage unit 100 are acquired (S4).

操作状態記憶部106に記憶されている操作状態データが示す操作状態と、S1に示す処理で検出された操作状態とが対応しない場合は(S3:N)、基準距離算出部94が、地形面基準距離Dを算出し、視点移動速度決定部98が、視点66の移動速度vを決定する(S5)。そして、基準距離算出部94が、算出された地形面基準距離Dを示す地形面基準距離データを基準距離データ記憶部96に記憶する。このとき、基準距離データ記憶部96に地形面基準距離データが記憶されている場合は、基準距離算出部94が、その地形面基準距離データを更新する。そして、視点移動速度決定部98が、決定された移動速度vを示す移動速度データを視点移動速度データ記憶部100に記憶する。このとき、視点移動速度データ記憶部100に移動速度データが記憶されている場合は、視点移動速度決定部98が、その移動速度データを更新する。(S6)。   When the operation state indicated by the operation state data stored in the operation state storage unit 106 does not correspond to the operation state detected in the process shown in S1 (S3: N), the reference distance calculation unit 94 may The reference distance D is calculated, and the viewpoint movement speed determination unit 98 determines the movement speed v of the viewpoint 66 (S5). The reference distance calculation unit 94 stores the terrain surface reference distance data indicating the calculated terrain surface reference distance D in the reference distance data storage unit 96. At this time, if the terrain surface reference distance data is stored in the reference distance data storage unit 96, the reference distance calculation unit 94 updates the terrain surface reference distance data. Then, the viewpoint movement speed determination unit 98 stores movement speed data indicating the determined movement speed v in the viewpoint movement speed data storage unit 100. At this time, when movement speed data is stored in the viewpoint movement speed data storage unit 100, the viewpoint movement speed determination unit 98 updates the movement speed data. (S6).

そして、S4に示す処理で取得した移動速度データが示す移動速度v、又は、S5に示す処理で決定した移動速度vに基づいて、ピッチ角変更中心点移動部112によるピッチ角変更中心点80の移動や相対ピッチ角データ変更部116による相対ピッチ角データ144の変更を実行する(S7)。   Then, based on the movement speed v indicated by the movement speed data acquired in the process shown in S4 or the movement speed v determined in the process shown in S5, the pitch angle change center point 80 by the pitch angle change center point moving unit 112 is changed. The relative pitch angle data 144 is changed by the movement or the relative pitch angle data changing unit 116 (S7).

そして、許容範囲算出部102が、移動したピッチ角変更中心点80の位置に基づいて、最大ピッチ角θmaxを算出し、この最大ピッチ角θmaxを示す最大ピッチ角データ142に、視点データ記憶部88に記憶されている最大ピッチ角データ142を更新する(S8)。   Then, the allowable range calculation unit 102 calculates the maximum pitch angle θmax based on the moved position of the pitch angle change center point 80, and the viewpoint data storage unit 88 stores the maximum pitch angle data 142 indicating the maximum pitch angle θmax. The maximum pitch angle data 142 stored in is updated (S8).

そして、ピッチ角変更中心点移動部112は、ピッチ角変更中心点80の位置に基づいて、ヨー角φを算出し、視点データ記憶部88に記憶されているヨー角データ140を更新する(S9)。   The pitch angle change center point moving unit 112 calculates the yaw angle φ based on the position of the pitch angle change center point 80, and updates the yaw angle data 140 stored in the viewpoint data storage unit 88 (S9). ).

そして、ピッチ角算出部118が、相対ピッチ角データ144が示す相対ピッチ角θ、及び、最大ピッチ角データ142が示す最大ピッチ角θmaxに基づいて、ピッチ角θを算出する(S10)。   Then, the pitch angle calculation unit 118 calculates the pitch angle θ based on the relative pitch angle θ indicated by the relative pitch angle data 144 and the maximum pitch angle θmax indicated by the maximum pitch angle data 142 (S10).

そして、視点移動速度決定部98が、ピッチ角変更中心点地形面間距離d1、及び、ピッチ角変更中心点地形面間距離d1に所与の比率との積であるピッチ角変更半径rを算出する(S11)。   Then, the viewpoint movement speed determination unit 98 calculates a pitch angle change radius r that is a product of the pitch angle change center point terrain surface distance d1 and the pitch angle change center point terrain surface distance d1 with a given ratio. (S11).

そして、視点移動部110が、ピッチ角変更中心点80の現在位置、S11に示す処理で算出されたピッチ角変更半径r、S9に示す処理において算出されたヨー角φ、S10に示す処理において算出されたピッチ角θに基づいて、視点66の位置及び視線方向68を算出し、算出された位置に視点66を移動し、視線方向68を算出された方向に変更する(S12)。   The viewpoint moving unit 110 calculates the current position of the pitch angle change center point 80, the pitch angle change radius r calculated in the process shown in S11, the yaw angle φ calculated in the process shown in S9, and the process shown in S10. Based on the pitch angle θ, the position of the viewpoint 66 and the line-of-sight direction 68 are calculated, the viewpoint 66 is moved to the calculated position, and the line-of-sight direction 68 is changed to the calculated direction (S12).

そして、基準距離算出部94が、第1地形面距離D1の値と、第2地形面距離D2の値とを算出する(S13)。   Then, the reference distance calculation unit 94 calculates a value of the first topographic surface distance D1 and a value of the second topographic surface distance D2 (S13).

そして、基準距離算出部94が、第1地形面距離D1の値から基準距離データ記憶部96に記憶されている地形面基準距離データが示す地形面基準距離Dの値を引いた値が、地形面基準距離バッファΔDより大きく、かつ、第2地形面距離D2の値から基準距離データ記憶部96に記憶されている地形面基準距離データが示す地形面基準距離Dの値を引いた値が、地形面基準距離バッファΔDより大きいか否かを確認する(S14)。   The value obtained by subtracting the value of the terrain surface reference distance D indicated by the terrain surface reference distance data stored in the reference distance data storage unit 96 from the value of the first terrain surface distance D1 by the reference distance calculation unit 94 The value obtained by subtracting the value of the terrain surface reference distance D indicated by the terrain surface reference distance data stored in the reference distance data storage unit 96 from the value of the second terrain surface distance D2 is larger than the surface reference distance buffer ΔD. It is confirmed whether or not it is larger than the terrain surface reference distance buffer ΔD (S14).

ここで、S13に示す条件を満たしている場合は(S14:Y)、基準距離算出部94は、第1地形面距離D1と、第2地形面距離D2のうちの小さい値に、基準距離データ記憶部96に記憶されている地形面基準距離データが示す地形面基準距離Dの値を更新する(S15)。そして、ピッチ角変更中心点位置修正部122がピッチ角変更中心点80の位置、及び、視点66の位置を修正する(S16)。   Here, when the condition shown in S13 is satisfied (S14: Y), the reference distance calculation unit 94 sets the reference distance data to a smaller value of the first topographic surface distance D1 and the second topographic surface distance D2. The value of the terrain surface reference distance D indicated by the terrain surface reference distance data stored in the storage unit 96 is updated (S15). Then, the pitch angle change center point position correcting unit 122 corrects the position of the pitch angle change center point 80 and the position of the viewpoint 66 (S16).

S14に示す条件を満たしていない場合は(S14:N)、基準距離データ記憶部96に記憶されている地形面基準距離データが示す地形面基準距離Dの値から第1地形面距離D1の値を引いた値が、地形面基準距離バッファΔDより大きく、かつ、基準距離データ記憶部96に記憶されている地形面基準距離データが示す地形面基準距離Dの値から第2地形面距離D2の値を引いた値が、地形面基準距離バッファΔDより大きいか否かを確認する(S17)。ここで、S17に示す条件を満たしていない場合は(S17:N)、S19に示す処理を実行する。   When the condition shown in S14 is not satisfied (S14: N), the value of the first terrain surface distance D1 from the value of the terrain surface reference distance D indicated by the terrain surface reference distance data stored in the reference distance data storage unit 96. Is larger than the terrain surface reference distance buffer ΔD, and the second terrain surface distance D2 is calculated from the value of the terrain surface reference distance D indicated by the terrain surface reference distance data stored in the reference distance data storage unit 96. It is confirmed whether or not the value obtained by subtracting the value is larger than the terrain surface reference distance buffer ΔD (S17). If the condition shown in S17 is not satisfied (S17: N), the process shown in S19 is executed.

ここで、S17に示す条件を満たしている場合は(S17:Y)、基準距離算出部94は、第1地形面距離D1と、第2地形面距離D2のうちの大きい値に、基準距離データ記憶部96に記憶されている地形面基準距離データが示す地形面基準距離Dの値を更新する(S18)。そして、ピッチ角変更中心点位置修正部122がピッチ角変更中心点80の位置、及び、視点66の位置を修正する(S16)。   Here, when the condition shown in S17 is satisfied (S17: Y), the reference distance calculation unit 94 sets the reference distance data to a larger value of the first topographic surface distance D1 and the second topographic surface distance D2. The value of the terrain surface reference distance D indicated by the terrain surface reference distance data stored in the storage unit 96 is updated (S18). Then, the pitch angle change center point position correcting unit 122 corrects the position of the pitch angle change center point 80 and the position of the viewpoint 66 (S16).

そして、視点位置修正部120が、視点地形面間距離d2を算出する(S19)。そして、視点位置修正部120が、視点地形面間距離d2の値が最小視点地形面間距離d2minより小さいか否かを確認する(S20)。   Then, the viewpoint position correcting unit 120 calculates the viewpoint terrain surface distance d2 (S19). Then, the viewpoint position correcting unit 120 checks whether or not the value of the viewpoint terrain surface distance d2 is smaller than the minimum viewpoint terrain surface distance d2min (S20).

そして、視点地形面間距離d2の値が最小視点地形面間距離d2minより小さい場合は(S20:Y)、視点位置修正部120が、視点66を視点地形面間距離d2の値が最小視点地形面間距離d2min以上となる位置に修正する(S21)。視点地形面間距離d2の値が最小視点地形面間距離d2minより小さくない場合は(S20:N)、S22に示す処理を実行する。   When the value of the viewpoint terrain plane distance d2 is smaller than the minimum viewpoint terrain plane distance d2min (S20: Y), the viewpoint position correcting unit 120 sets the viewpoint 66 to the viewpoint terrain plane distance d2 of the minimum viewpoint terrain plane. The position is corrected to a position where the inter-surface distance is d2 min or more (S21). If the value of the viewpoint terrain surface distance d2 is not smaller than the minimum viewpoint terrain surface distance d2min (S20: N), the process shown in S22 is executed.

そして、仮想空間表示部86が、視点66の現在位置、及び、ピッチ角変更中心点80の現在位置に基づいて、仮想空間64内の視点66から視線方向68を見た様子を示す画像をモニタ26の画面に表示する(S22)。   Then, based on the current position of the viewpoint 66 and the current position of the pitch angle change center point 80, the virtual space display unit 86 monitors an image showing the viewing direction 68 from the viewpoint 66 in the virtual space 64. 26 is displayed on the screen 26 (S22).

このようにして、ユーザの操作に応じて、視点66の位置やピッチ角変更中心点80の位置が移動して、移動後の視点66の位置やピッチ角変更中心点80の位置に基づく仮想空間64を見た様子を示す画像がモニタ26の画面に表示される。   In this manner, the position of the viewpoint 66 and the position of the pitch angle change center point 80 are moved according to the user's operation, and the virtual space is based on the position of the viewpoint 66 and the position of the pitch angle change center point 80 after the movement. An image showing the state of viewing 64 is displayed on the screen of the monitor 26.

なお、本発明は上記実施形態に限定されるものではない。   The present invention is not limited to the above embodiment.

以下、本発明の変形例の実施形態について、図15のフロー図を参照しながら説明する。なお、上記実施形態と共通する点については、説明を省略する。   Hereinafter, a modified embodiment of the present invention will be described with reference to the flowchart of FIG. Note that a description of points in common with the above embodiment is omitted.

本実施形態においては、視点データ記憶部88には、移動基準点位置データ164、前方向データ166、標高データ168、視点高度データ170、ピッチ角データ172を含む視点データ134が記憶されている(図16参照)。図16は、本実施形態における視点データ134のデータ構造の一例を示す図である。また、図17は、本実施形態に係る仮想地球オブジェクトと視点の位置及び視線方向との関係の一例を説明する説明図である。   In the present embodiment, the viewpoint data storage unit 88 stores viewpoint data 134 including movement reference point position data 164, forward data 166, elevation data 168, viewpoint altitude data 170, and pitch angle data 172 ( (See FIG. 16). FIG. 16 is a diagram showing an example of the data structure of the viewpoint data 134 in the present embodiment. FIG. 17 is an explanatory diagram illustrating an example of the relationship between the virtual earth object, the viewpoint position, and the line-of-sight direction according to the present embodiment.

移動基準点位置データ164は、本実施形態では、ピッチ角変更中心点80を通る、基準面130に対して垂直な直線と、基準面130との交点である移動基準点174の位置を示すデータであり、例えば三次元座標値や、緯度及び経度を示すデータによって表現される。   In this embodiment, the movement reference point position data 164 is data indicating the position of the movement reference point 174 that is the intersection of the straight line passing through the pitch angle change center point 80 and the reference plane 130 and the reference plane 130. For example, it is represented by three-dimensional coordinate values and data indicating latitude and longitude.

前方向データ166は、基準面130の法線に対して垂直な方向であり、後述する左操作スティックの上方向の操作に対応する前方方向176を示すデータであり、例えば三次元のベクトルデータによって表現される。   The forward direction data 166 is data that is a direction perpendicular to the normal line of the reference plane 130 and indicates a forward direction 176 corresponding to an upward operation of the left operation stick described later. For example, the forward direction data 166 is represented by three-dimensional vector data. Expressed.

標高データ168は、本実施形態では、初期状態におけるピッチ角変更中心点投影点158と、移動基準点174との距離である標高を示すデータである。   In the present embodiment, the altitude data 168 is data indicating altitude, which is the distance between the pitch angle change center point projection point 158 and the movement reference point 174 in the initial state.

視点高度データ170は、本実施形態では、初期状態におけるピッチ角変更中心点投影点158と、ピッチ角変更中心点80までの距離と、視点66と、ピッチ角変更中心点80までの距離との和である視点高度を示すデータである。   In this embodiment, the viewpoint altitude data 170 includes the pitch angle change center point projection point 158 in the initial state, the distance to the pitch angle change center point 80, the viewpoint 66, and the distance to the pitch angle change center point 80. It is data indicating the viewpoint height that is the sum.

ピッチ角データ172は、ピッチ角θを示すデータである。   The pitch angle data 172 is data indicating the pitch angle θ.

本実施形態においては、まず、操作状態取得部104が操作状態を取得する(S51)。   In the present embodiment, first, the operation state acquisition unit 104 acquires an operation state (S51).

そして、左操作スティック54の姿勢データ(X,Y)を取得している場合は(S52:Y)、操作状態取得部104が取得した左操作スティック54の姿勢データ(X,Y)に基づいて、左操作スティック54のY軸方向が、前方方向176の方向に、X軸方向が、前方方向176に対して右90度の方向に対応付けられた座標上の位置に、ピッチ角変更中心点移動部112が、基準面130に沿って、移動基準点174を移動する(S53)。このとき、移動基準点位置データ164の変更に応じて、前方向データ166を変更するようにしてもよい。なお、このとき、視点高度データ170、及び、ピッチ角データ172は変更されない。一方、標高データ168は変更される。標高データ168がどのように変更されるかについては、後述する。   When the posture data (X, Y) of the left operation stick 54 is acquired (S52: Y), based on the posture data (X, Y) of the left operation stick 54 acquired by the operation state acquisition unit 104. The pitch angle change center point is located at a coordinate position where the Y-axis direction of the left operation stick 54 corresponds to the direction of the forward direction 176 and the X-axis direction corresponds to the direction of 90 degrees to the right of the forward direction 176. The moving unit 112 moves the movement reference point 174 along the reference plane 130 (S53). At this time, the forward data 166 may be changed according to the change of the movement reference point position data 164. At this time, the viewpoint altitude data 170 and the pitch angle data 172 are not changed. On the other hand, the altitude data 168 is changed. How the altitude data 168 is changed will be described later.

S52に示す条件を満たさない場合は(S52:N)、S54に示す処理を実行する。   When the condition shown in S52 is not satisfied (S52: N), the process shown in S54 is executed.

操作状態取得部104が、右操作スティック56の姿勢データ(X,Y)を取得している場合は(S54:Y)、操作状態取得部104が取得した右操作スティック56の姿勢データ(X,Y)に基づいて、ピッチ角変更部114が、ピッチ角θの増減、及び、前方向データ166の変更(すなわち、ヨー角φの増減)を実行する(S55)。具体的には、例えば、操作状態取得部104が取得したYの値が正(負)である場合に、ピッチ角変更部114が、ピッチ角θの値を減少(増加)する。また、操作状態取得部104が取得したXの値が正(負)である場合に、前方方向176が基準面130の法線方向に対して時計回り(反時計回り)に回転されるよう前方向データ166を変更する。このことによって、ピッチ角θやヨー角φが変更される。このとき、移動基準点位置データ164及び視点高度データ170は変更されない。一方、標高データ168は変更される。標高データ168がどのように変更されるかについては、後述する。   When the operation state acquisition unit 104 acquires the posture data (X, Y) of the right operation stick 56 (S54: Y), the posture data (X, Y) of the right operation stick 56 acquired by the operation state acquisition unit 104 Based on (Y), the pitch angle changing unit 114 increases / decreases the pitch angle θ and changes the forward data 166 (that is, increases / decreases the yaw angle φ) (S55). Specifically, for example, when the value of Y acquired by the operation state acquisition unit 104 is positive (negative), the pitch angle changing unit 114 decreases (increases) the value of the pitch angle θ. Further, when the value of X acquired by the operation state acquisition unit 104 is positive (negative), the front direction 176 is rotated clockwise (counterclockwise) with respect to the normal direction of the reference plane 130. The direction data 166 is changed. As a result, the pitch angle θ and the yaw angle φ are changed. At this time, the movement reference point position data 164 and the viewpoint altitude data 170 are not changed. On the other hand, the altitude data 168 is changed. How the altitude data 168 is changed will be described later.

S54に示す条件を満たさない場合は(S54:N)、S56に示す処理を実行する。   When the condition shown in S54 is not satisfied (S54: N), the process shown in S56 is executed.

操作状態取得部104が、第2の左ボタン52L又は第2の右ボタン52Rの押圧力を示す所与の値以上のディジタル値を取得した場合は(S56:Y)、視点高度データ170を変更する(S57)。具体的には、例えば、第2の左ボタン52Lの押圧力を示す所与の値以上のディジタル値を取得した場合は、視点移動部110は、視点66を、ピッチ角変更中心点80から離れる方向に移動する。また、操作状態取得部104が、第2の右ボタン52Rの押圧力を示す所与の値以上のディジタル値を取得した場合は、視点移動部110が、視点66を、ピッチ角変更中心点80に近づく方向に移動する。このとき、前方向データ166、移動基準点位置データ164、及び、ピッチ角データ172が変更されない。一方、標高データ168は変更される。標高データ168がどのように変更されるかについては、後述する。   When the operation state acquisition unit 104 acquires a digital value equal to or greater than a given value indicating the pressing force of the second left button 52L or the second right button 52R (S56: Y), the viewpoint altitude data 170 is changed. (S57). Specifically, for example, when a digital value equal to or greater than a given value indicating the pressing force of the second left button 52L is acquired, the viewpoint moving unit 110 moves the viewpoint 66 away from the pitch angle change center point 80. Move in the direction. When the operation state acquisition unit 104 acquires a digital value equal to or greater than a given value indicating the pressing force of the second right button 52R, the viewpoint moving unit 110 displays the viewpoint 66 with the pitch angle change center point 80. Move in the direction approaching. At this time, the forward data 166, the movement reference point position data 164, and the pitch angle data 172 are not changed. On the other hand, the altitude data 168 is changed. How the altitude data 168 is changed will be described later.

S56に示す条件を満たさない場合は(S56:N)、S58に示す処理を実行する。   When the condition shown in S56 is not satisfied (S56: N), the process shown in S58 is executed.

そして、ピッチ角変更中心点位置修正部112が、標高データ168を変更する(S58)。   Then, the pitch angle change center point position correction unit 112 changes the altitude data 168 (S58).

具体的には、例えば、ピッチ角変更中心点投影点158と基準面130との間の距離を第1地形面距離D1と、視点投影点160と基準面130との間の距離を第2地形面距離D2とを測定する。なお、ここで、視点投影点160を通る、基準面130に対して垂直な直線と基準面130との交点を視点基準点178とする。ここで、ピッチ角変更中心点位置修正部112が、視点基準点178の緯度及び経度を示すデータから、緯度及び経度と標高との関係が示されている標高データベースから、移動基準点174の緯度及び経度を示すデータに基づいて第1地形面距離D1を算出し、視点基準点178の緯度及び経度を示すデータに基づいて第2地形面距離D2を算出するようにしても構わない。   Specifically, for example, the distance between the pitch angle change center point projection point 158 and the reference plane 130 is the first terrain plane distance D1, and the distance between the viewpoint projection point 160 and the reference plane 130 is the second terrain. The surface distance D2 is measured. Here, an intersection of a straight line that passes through the viewpoint projection point 160 and is perpendicular to the reference plane 130 and the reference plane 130 is defined as a viewpoint reference point 178. Here, the pitch angle change center point position correction unit 112 calculates the latitude of the movement reference point 174 from the elevation database in which the relationship between the latitude and longitude and the elevation is shown from the data indicating the latitude and longitude of the viewpoint reference point 178. The first topographic surface distance D1 may be calculated based on the data indicating the longitude and the longitude, and the second topographic surface distance D2 may be calculated based on the data indicating the latitude and longitude of the viewpoint reference point 178.

そして、ピッチ角変更中心点位置修正部112が、標高データ168を変更する。具体的には、例えば、標高データ168が示す標高の値と第1地形面距離D1の値との差、及び、標高データ168が示す標高の値と第2地形面距離D2の値との差が、所定の範囲(例えば、視点高度の0.1倍)よりも大きい場合は、標高データ168を更新する。このとき、所定の範囲は、視点66が地形面132とぶつからないようにするため、後述する視点高度内分率(例えば0.2)よりも小さいことが望ましい。   Then, the pitch angle change center point position correction unit 112 changes the altitude data 168. Specifically, for example, the difference between the elevation value indicated by the elevation data 168 and the value of the first terrain surface distance D1, and the difference between the elevation value indicated by the elevation data 168 and the value of the second terrain surface distance D2. Is greater than a predetermined range (for example, 0.1 times the viewpoint altitude), the altitude data 168 is updated. At this time, the predetermined range is desirably smaller than a viewpoint altitude fraction (to be described later, for example, 0.2) in order to prevent the viewpoint 66 from colliding with the topographic surface 132.

ここで、例えば、第1地形面距離D1の値と第2地形面距離D2の値のうちの小さい方の値から視点高度の0.1倍を引いた値が、標高の値よりも小さい場合には、ピッチ角変更中心点位置修正部112が標高の値を第1地形面距離D1の値と第2地形面距離D2の値のうちの小さい方の値から視点高度の0.1倍を引いた値に変更する。一方、第1地形面距離D1の値と第2地形面距離D2の値のうちの大きい方の値に視点高度の0.1倍を足した値が、標高の値よりも大きい場合には、ピッチ角変更中心点位置修正部112が標高の値を第1地形面距離D1の値と第2地形面距離D2の値のうちの大きい方の値に視点高度の0.1倍を足した値に変更する。このようにして、標高の値は、第1地形面距離D1の値と第2地形面距離D2の値のうちの小さい方の値から視点高度の0.1倍を引いた値と、第1地形面距離D1の値と第2地形面距離D2の値のうちの大きい方の値に視点高度の0.1倍を足した値との間の範囲に収まるようになる。   Here, for example, a value obtained by subtracting 0.1 times the viewpoint altitude from the smaller one of the first terrain surface distance D1 and the second terrain surface distance D2 is smaller than the altitude value. The pitch angle changing center point position correcting unit 112 sets the altitude value to 0.1 times the viewpoint altitude from the smaller one of the first terrain surface distance D1 value and the second terrain surface distance D2 value. Change to the subtracted value. On the other hand, when the value obtained by adding 0.1 times the viewpoint altitude to the larger one of the first terrain surface distance D1 and the second terrain surface distance D2 is greater than the altitude value, A value obtained by adding 0.1 times the viewpoint altitude to the larger one of the first terrain surface distance D1 and the second terrain surface distance D2 by the pitch angle change center point position correcting unit 112. Change to In this way, the altitude value is obtained by subtracting 0.1 times the viewpoint altitude from the smaller one of the first terrain surface distance D1 value and the second terrain surface distance D2 value, It falls within a range between a value obtained by adding 0.1 times the viewpoint height to the larger value of the value of the topographic surface distance D1 and the value of the second topographic surface distance D2.

そして、ピッチ角変更中心点移動部112がピッチ角変更中心点80の位置を移動し、視点移動部110が、視点66の位置を移動する(S59)。具体的には、ピッチ角変更中心点移動部112が、移動基準点174から基準面130に対して垂直な方向に、標高の値と、視点高度に所与の比率である視点高度内分率(例えば、0.2)を掛けた値とを足した距離だけ離れた点に、ピッチ角変更中心点80を変更する。そして、視点移動部110が、ピッチ角変更中心点80を中心として、基準面130に対して垂直な方向から、前方方向176に対して反対の方向への角度がピッチ角θである方向に、ピッチ角変更中心点80から、視点高度に、1から視点高度内分率を引いた比率(例えば、0.8)を掛けて値が示す距離だけ離れた点に、視点66の位置を移動する。   The pitch angle changing center point moving unit 112 moves the position of the pitch angle changing center point 80, and the viewpoint moving unit 110 moves the position of the viewpoint 66 (S59). Specifically, the pitch angle change center point moving unit 112 has a viewpoint altitude fraction that is a given ratio of the altitude value and the viewpoint altitude in a direction perpendicular to the reference plane 130 from the movement reference point 174. The pitch angle change center point 80 is changed to a point separated by a distance obtained by adding a value multiplied by (for example, 0.2). Then, the viewpoint moving unit 110 has a pitch angle θ from the direction perpendicular to the reference plane 130 with respect to the pitch angle change center point 80 as the pitch angle θ. The position of the viewpoint 66 is moved from the pitch angle change center point 80 to a point separated by the distance indicated by the value obtained by multiplying the viewpoint altitude by a ratio obtained by subtracting the viewpoint altitude fraction from 1 (for example, 0.8). .

そして、仮想空間表示部86が、視点66の現在位置、及び、ピッチ角変更中心点80の現在位置に基づいて、仮想空間64内の視点66から視線方向68を見た様子を示す画像をモニタ26の画面に表示する(S60)。   Then, based on the current position of the viewpoint 66 and the current position of the pitch angle change center point 80, the virtual space display unit 86 monitors an image showing the viewing direction 68 from the viewpoint 66 in the virtual space 64. 26 screen (S60).

なお、本発明は上記実施形態にも限定されない。   In addition, this invention is not limited to the said embodiment.

例えば、上記実施形態では、仮想空間64内に、1つの仮想オブジェクトが存在しているが、仮想空間64内に仮想オブジェクトが複数存在していても構わない。   For example, in the above embodiment, one virtual object exists in the virtual space 64, but a plurality of virtual objects may exist in the virtual space 64.

本発明の一実施形態に係る画像表示装置として用いられるエンタテインメントシステムのハードウェア構成の一例を示すハードウェア構成図である。It is a hardware block diagram which shows an example of the hardware configuration of the entertainment system used as an image display apparatus which concerns on one Embodiment of this invention. MPUの詳細の一例を示す詳細構成図である。It is a detailed block diagram which shows an example of the detail of MPU. コントローラの一例を示す斜視図である。It is a perspective view which shows an example of a controller. コントローラの一例を示す上側面図である。It is an upper side view showing an example of a controller. 仮想空間内の視点から視線方向を見た様子の一例を示す図である。It is a figure which shows an example of a mode that looked at the gaze direction from the viewpoint in virtual space. 仮想空間内の視点から視線方向を見た様子の一例を示す図である。It is a figure which shows an example of a mode that looked at the gaze direction from the viewpoint in virtual space. 仮想空間内の視点から視線方向を見た様子の一例を示す図である。It is a figure which shows an example of a mode that looked at the gaze direction from the viewpoint in virtual space. 仮想空間内の視点から視線方向を見た様子を示す画像の一例を示す図である。It is a figure which shows an example of the image which shows a mode that the eyes | visual_axis direction was seen from the viewpoint in virtual space. 仮想空間内の視点から視線方向を見た様子を示す画像の一例を示す図である。It is a figure which shows an example of the image which shows a mode that the eyes | visual_axis direction was seen from the viewpoint in virtual space. 仮想空間内の視点から視線方向を見た様子を示す画像の一例を示す図である。It is a figure which shows an example of the image which shows a mode that the eyes | visual_axis direction was seen from the viewpoint in virtual space. 仮想空間内の視点から視線方向を見た様子を示す画像の一例を示す図である。It is a figure which shows an example of the image which shows a mode that the eyes | visual_axis direction was seen from the viewpoint in virtual space. 仮想空間内の視点から視線方向を見た様子を示す画像の一例を示す図である。It is a figure which shows an example of the image which shows a mode that the eyes | visual_axis direction was seen from the viewpoint in virtual space. 仮想空間内の視点から視線方向を見た様子を示す画像の一例を示す図である。It is a figure which shows an example of the image which shows a mode that the eyes | visual_axis direction was seen from the viewpoint in virtual space. 仮想空間内の視点から視線方向を見た様子を示す画像の一例を示す図である。It is a figure which shows an example of the image which shows a mode that the eyes | visual_axis direction was seen from the viewpoint in virtual space. 仮想空間内の視点から視線方向を見た様子を示す画像の一例を示す図である。It is a figure which shows an example of the image which shows a mode that the eyes | visual_axis direction was seen from the viewpoint in virtual space. 仮想空間内の視点から視線方向を見た様子を示す画像の一例を示す図である。It is a figure which shows an example of the image which shows a mode that the eyes | visual_axis direction was seen from the viewpoint in virtual space. 仮想空間内の視点から視線方向を見た様子を示す画像の一例を示す図である。It is a figure which shows an example of the image which shows a mode that the eyes | visual_axis direction was seen from the viewpoint in virtual space. 本発明の一実施形態に係る画像表示装置として用いられるエンタテインメントシステムの機能の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the function of the entertainment system used as an image display apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る仮想地球オブジェクトと視点の位置及び視線方向との関係の一例を説明する説明図である。It is explanatory drawing explaining an example of the relationship between the virtual earth object which concerns on one Embodiment of this invention, the position of a viewpoint, and a gaze direction. 地表面データのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of ground surface data. 視点データのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of viewpoint data. 本発明の一実施形態に係る仮想地球オブジェクトと視点の位置及び視線方向との初期状態における関係の一例を示す説明図である。It is explanatory drawing which shows an example of the relationship in the initial state of the virtual earth object which concerns on one Embodiment of this invention, the position of a viewpoint, and a gaze direction. 許容範囲の一例を示す図である。It is a figure which shows an example of a tolerance | permissible_range. 許容範囲の別の一例を示す図である。It is a figure which shows another example of a tolerance | permissible_range. 本発明の一実施形態に係るエンタテインメントシステムで行われる処理のフローの一例を示す図である。It is a figure which shows an example of the flow of the process performed with the entertainment system which concerns on one Embodiment of this invention. 本発明の一実施形態に係るエンタテインメントシステムで行われる処理のフローの一例を示す図である。It is a figure which shows an example of the flow of the process performed with the entertainment system which concerns on one Embodiment of this invention. 本発明の別の実施形態に係るエンタテインメントシステムで行われる処理のフローの一例を示す図である。It is a figure which shows an example of the flow of the process performed with the entertainment system which concerns on another embodiment of this invention. 視点データのデータ構造の別の一例を示す図である。It is a figure which shows another example of the data structure of viewpoint data. 本発明の別の実施形態に係る仮想地球オブジェクトと視点の位置及び視線方向との関係の一例を説明する説明図である。It is explanatory drawing explaining an example of the relationship between the virtual earth object which concerns on another embodiment of this invention, the position of a viewpoint, and a gaze direction. 従来の、仮想空間内の視点から視線方向を見た様子を示す画像の一例を示す図である。It is a figure which shows an example of the image which shows a mode that the gaze direction was seen from the viewpoint in the conventional virtual space.

符号の説明Explanation of symbols

10 エンタテインメントシステム、11 MPU、12 メインプロセッサ、14a〜14h サブプロセッサ、16 バス、18 メモリコントローラ、20 メインメモリ、22,40,44 インタフェース、24 画像処理部、26 モニタ、28 入出力処理部、30 音声処理部、32 スピーカ、34 光ディスク読み取り部、36 光ディスク、38 ハードディスク、42 コントローラ、42a 表面、46 カメラユニット、48 ネットワークインタフェース、50L 第1の左ボタン、50R 第1の右ボタン、52L 第2の左ボタン、52R 第2の右ボタン、54 左操作スティック、56 右操作スティック、58 ボタン群、60 方向ボタン群、62 コントローラケーブル、64 仮想空間、66 視点、68 視線方向、70 視野領域、72 仮想地球オブジェクト、74 山、74a 頂上、76 丘、78 崖、80 ピッチ角変更中心点、82 仮想オブジェクトデータ記憶部、84 仮想オブジェクトデータ取得部、86 仮想空間表示部、88 視点データ記憶部、90 注視点位置算出部、92 ピッチ角変更中心点位置算出部、94 基準距離算出部、96 基準距離データ記憶部、98 視点移動速度決定部、100 視点移動速度データ記憶部、102 許容範囲算出部、104 操作状態取得部、106 操作状態記憶部、108 操作状態変化判断部、110 視点移動部、112 ピッチ角変更中心点移動部、114 ピッチ角変更部、116 相対ピッチ角データ変更部、118 ピッチ角算出部、120 視点位置修正部、122 ピッチ角変更中心点位置修正部、124 地表面データ、126 基準面データ、128 地形面データ、130 基準面、132 地形面、134 視点データ、136 注視点、138 ピッチ角変更中心点位置データ、140 ヨー角データ、142 最大ピッチ角データ、144 相対ピッチ角データ、146 ヨー角基準方向、148 ピッチ角変更中心点基準面、150 ヨー角方向、152 ピッチ角変更中心点移動基準方向、154 ピッチ角変更基準方向、156 ピッチ角変更面、158 ピッチ角変更中心点投影点、160 視点投影点、162 許容範囲、164 移動基準点位置データ、166 前方向データ、168 標高データ、170 視点高度データ、172 ピッチ角データ、174 移動基準点、176 前方方向、178 視点基準点、B1 地平線。   10 Entertainment System, 11 MPU, 12 Main Processor, 14a-14h Sub-Processor, 16 Bus, 18 Memory Controller, 20 Main Memory, 22, 40, 44 Interface, 24 Image Processing Unit, 26 Monitor, 28 Input / Output Processing Unit, 30 Audio processing unit, 32 speaker, 34 optical disk reading unit, 36 optical disk, 38 hard disk, 42 controller, 42a surface, 46 camera unit, 48 network interface, 50L first left button, 50R first right button, 52L second Left button, 52R Second right button, 54 Left operation stick, 56 Right operation stick, 58 button group, 60 direction button group, 62 Controller cable, 64 Virtual space, 66 viewpoint, 68 line of sight Direction, 70 field of view, 72 virtual earth object, 74 mountains, 74a peak, 76 hills, 78 cliffs, 80 pitch angle change center point, 82 virtual object data storage unit, 84 virtual object data acquisition unit, 86 virtual space display unit, 88 viewpoint data storage unit, 90 gazing point position calculation unit, 92 pitch angle change center point position calculation unit, 94 reference distance calculation unit, 96 reference distance data storage unit, 98 viewpoint movement speed determination unit, 100 viewpoint movement speed data storage unit , 102 Allowable range calculation unit, 104 Operation state acquisition unit, 106 Operation state storage unit, 108 Operation state change determination unit, 110 View point movement unit, 112 Pitch angle change center point movement unit, 114 Pitch angle change unit, 116 Relative pitch angle Data change unit, 118 pitch angle calculation unit, 120 viewpoint position correction unit, 122 pitch angle change Center point position correction unit, 124 ground surface data, 126 reference plane data, 128 terrain plane data, 130 reference plane, 132 terrain plane, 134 viewpoint data, 136 gazing point, 138 pitch angle change center point position data, 140 yaw angle data 142 Maximum pitch angle data, 144 Relative pitch angle data, 146 Yaw angle reference direction, 148 Pitch angle change center point reference plane, 150 Yaw angle direction, 152 Pitch angle change center point movement reference direction, 154 Pitch angle change reference direction, 156 Pitch angle change plane, 158 Pitch angle change center point projection point, 160 viewpoint projection point, 162 tolerance, 164 movement reference point position data, 166 forward data, 168 elevation data, 170 viewpoint altitude data, 172 pitch angle data, 174 Movement reference point, 176 forward direction, 178 viewpoint base Point, B1 horizon.

Claims (8)

仮想オブジェクトが配置されている仮想空間内の視点及び視線方向から決定される視野領域を見た様子を示す画像を表示する画像表示装置であって、
前記視野領域と前記仮想オブジェクトが占める閉領域とが交わる領域の大きさに基づいて、前記視点の位置の移動許容範囲及び/又は前記視線方向の変更許容範囲を算出する許容範囲算出手段と、
ユーザによる視点移動操作に応じて、前記許容範囲内で前記視点の位置の移動及び/又は前記視線方向の変更を実行する視点移動手段と、
を含むことを特徴とする画像表示装置。
An image display device that displays an image showing a state of viewing a visual field area determined from a viewpoint and a line-of-sight direction in a virtual space where a virtual object is arranged,
An allowable range calculation means for calculating a movement allowable range of the viewpoint position and / or a change allowable range of the line-of-sight direction based on a size of an area where the visual field area and a closed area occupied by the virtual object intersect;
Viewpoint moving means for performing movement of the position of the viewpoint and / or change of the line-of-sight direction within the allowable range in accordance with a viewpoint moving operation by a user;
An image display device comprising:
前記許容範囲算出手段が、前記視線方向が前記閉領域に対する接線方向に対応する方向である際の前記視点の位置及び/又は前記視線方向を前記許容範囲内と前記許容範囲外との境界として算出する、
ことを特徴とする請求項1に記載の画像表示装置。
The allowable range calculation means calculates the position of the viewpoint and / or the visual line direction when the line-of-sight direction is a direction corresponding to a tangential direction with respect to the closed region as a boundary between the allowable range and the outside of the allowable range. To
The image display apparatus according to claim 1.
ユーザによるピッチ角変更操作に応じて、前記視点の現在位置から、前記視点から前記視線方向に向かう直線上に存在するピッチ角変更中心点を中心にピッチ角を変更し、ピッチ角変更後の前記視点の位置から前記ピッチ角変更中心点を向くよう前記視線方向を変更するピッチ角変更手段、をさらに含み、
前記許容範囲算出手段が、前記ピッチ角変更中心点と前記視点とを通る直線の方向が前記閉領域に対する接線方向に対応する方向である際の前記視点の位置及び/又は前記視線方向を前記許容範囲内と前記許容範囲外との境界として算出する、
ことを特徴とする請求項1又は2に記載の画像表示装置。
In response to the pitch angle change operation by the user, the pitch angle is changed around the pitch angle change center point existing on the straight line from the viewpoint to the line-of-sight direction from the current position of the viewpoint, and the pitch angle is changed after the pitch angle is changed. Pitch angle changing means for changing the line-of-sight direction so as to face the pitch angle change center point from the position of the viewpoint,
The allowable range calculating means is configured to determine the position of the viewpoint and / or the line-of-sight direction when a direction of a straight line passing through the pitch angle changing center point and the viewpoint is a direction corresponding to a tangential direction with respect to the closed region. Calculate as a boundary between the range and outside the allowable range,
The image display device according to claim 1, wherein
前記許容範囲算出手段が、ピッチ角の範囲を算出し、
前記視点ピッチ角変更手段が、前記許容範囲算出手段が算出するピッチ角の範囲内で、ピッチ角を変更する、
ことを特徴とする請求項3に記載の画像表示装置。
The allowable range calculating means calculates a pitch angle range;
The viewpoint pitch angle changing means changes the pitch angle within the range of the pitch angle calculated by the allowable range calculating means;
The image display device according to claim 3.
前記ピッチ角変更中心点と前記視点とを通る直線と、前記仮想オブジェクトを示す領域に対して垂直な前記ピッチ角変更中心点を通る直線と、がなす角の、前記許容範囲算出手段が算出するピッチ角の範囲の最大値である最大ピッチ角に対する比率を示す相対ピッチ角データを記憶する相対ピッチ角データ記憶手段と、
ユーザによる相対ピッチ角変更操作に応じて、前記相対ピッチ角データ記憶手段に記憶されている前記相対ピッチ角データを変更する相対ピッチ角データ変更手段と、
前記相対ピッチ角データが示す前記最大ピッチ角に対する比率と、前記最大ピッチ角と、に基づいて、ピッチ角を算出するピッチ角算出手段と、
をさらに含み、
前記ピッチ角変更手段が、前記ピッチ角算出手段により算出されるピッチ角と、前記ピッチ角変更中心点の位置と、に基づいて、ピッチ角を変更する、
ことを特徴とする請求項4に記載の画像表示装置。
The allowable range calculation means calculates an angle formed by a straight line passing through the pitch angle change center point and the viewpoint and a straight line passing through the pitch angle change center point perpendicular to the area indicating the virtual object. A relative pitch angle data storage means for storing relative pitch angle data indicating a ratio to a maximum pitch angle that is a maximum value of a range of pitch angles;
Relative pitch angle data changing means for changing the relative pitch angle data stored in the relative pitch angle data storage means in response to a relative pitch angle changing operation by a user;
A pitch angle calculating means for calculating a pitch angle based on the ratio to the maximum pitch angle indicated by the relative pitch angle data and the maximum pitch angle;
Further including
The pitch angle changing means changes the pitch angle based on the pitch angle calculated by the pitch angle calculating means and the position of the pitch angle changing center point;
The image display device according to claim 4.
仮想オブジェクトが配置されている仮想空間内の視点及び視線方向から決定される視野領域を見た様子を示す画像を表示する画像表示装置の制御方法であって、
前記視野領域と前記仮想オブジェクトが占める閉領域とが交わる領域の大きさに基づいて、前記視点の位置の移動許容範囲及び/又は前記視線方向の変更許容範囲を算出する許容範囲算出ステップと、
ユーザによる視点移動操作に応じて、前記許容範囲内で前記視点の位置の移動及び/又は前記視線方向の変更を実行する視点移動ステップと、
を含むことを特徴とする画像表示装置の制御方法。
A control method of an image display device for displaying an image showing a state of viewing a visual field region determined from a viewpoint and a line-of-sight direction in a virtual space where a virtual object is arranged,
An allowable range calculating step of calculating a movement allowable range of the viewpoint position and / or a change allowable range of the line-of-sight direction based on a size of an area where the visual field area and a closed area occupied by the virtual object intersect;
A viewpoint movement step of performing movement of the position of the viewpoint and / or change of the line-of-sight direction within the allowable range in accordance with a viewpoint movement operation by the user;
A control method for an image display device.
仮想オブジェクトが配置されている仮想空間内の視点及び視線方向から決定される視野領域を見た様子を示す画像を表示する画像表示装置としてコンピュータを機能させるためのプログラムであって、
前記視野領域と前記仮想オブジェクトが占める閉領域とが交わる領域の大きさに基づいて、前記視点の位置の移動許容範囲及び/又は前記視線方向の変更許容範囲を算出する許容範囲算出手段、
ユーザによる視点移動操作に応じて、前記許容範囲内で前記視点の位置の移動及び/又は前記視線方向の変更を実行する視点移動手段、
として前記コンピュータを機能させるためにプログラム。
A program for causing a computer to function as an image display device that displays an image showing a view of a visual field area determined from a viewpoint and a line-of-sight direction in a virtual space where a virtual object is arranged,
An allowable range calculating means for calculating a movement allowable range of the viewpoint position and / or a change allowable range of the line-of-sight direction based on a size of an area where the visual field area and the closed area occupied by the virtual object intersect;
Viewpoint moving means for performing movement of the position of the viewpoint and / or change of the line-of-sight direction within the allowable range in accordance with a viewpoint movement operation by a user;
As a program to make the computer function.
請求項7に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。   A computer-readable information storage medium storing the program according to claim 7.
JP2008109661A 2008-04-18 2008-04-18 Image display device, control method and program for image display device Active JP5174522B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008109661A JP5174522B2 (en) 2008-04-18 2008-04-18 Image display device, control method and program for image display device
US12/937,883 US8797360B2 (en) 2008-04-18 2008-12-09 Image display device, method for controlling image display device, and information storage medium
PCT/JP2008/072342 WO2009128181A1 (en) 2008-04-18 2008-12-09 Image display device, method for controlling image display device, and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008109661A JP5174522B2 (en) 2008-04-18 2008-04-18 Image display device, control method and program for image display device

Publications (2)

Publication Number Publication Date
JP2009258523A true JP2009258523A (en) 2009-11-05
JP5174522B2 JP5174522B2 (en) 2013-04-03

Family

ID=41386018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008109661A Active JP5174522B2 (en) 2008-04-18 2008-04-18 Image display device, control method and program for image display device

Country Status (1)

Country Link
JP (1) JP5174522B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015226687A (en) * 2014-06-02 2015-12-17 株式会社三洋物産 Game machine

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7245013B2 (en) * 2018-09-06 2023-03-23 キヤノン株式会社 Control device and control method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000157738A (en) * 1998-11-26 2000-06-13 Square Co Ltd Game device, image creation, and storage medium storing image creating program
JP2001353358A (en) * 2000-06-14 2001-12-25 Namco Ltd Game apparatus and information storage medium
WO2002069276A1 (en) * 2001-02-23 2002-09-06 Fujitsu Limited Display control device, information terminal device equipped with the display control device, and view point position control device
JP2004341572A (en) * 2003-05-12 2004-12-02 Namco Ltd Image generation system, program, and information storage medium
JP2006214999A (en) * 2005-02-07 2006-08-17 Denso Corp Navigation system for vehicle
JP2007299330A (en) * 2006-05-02 2007-11-15 Sony Computer Entertainment Inc Image display device and its control method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000157738A (en) * 1998-11-26 2000-06-13 Square Co Ltd Game device, image creation, and storage medium storing image creating program
JP2001353358A (en) * 2000-06-14 2001-12-25 Namco Ltd Game apparatus and information storage medium
WO2002069276A1 (en) * 2001-02-23 2002-09-06 Fujitsu Limited Display control device, information terminal device equipped with the display control device, and view point position control device
JP2004341572A (en) * 2003-05-12 2004-12-02 Namco Ltd Image generation system, program, and information storage medium
JP2006214999A (en) * 2005-02-07 2006-08-17 Denso Corp Navigation system for vehicle
JP2007299330A (en) * 2006-05-02 2007-11-15 Sony Computer Entertainment Inc Image display device and its control method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015226687A (en) * 2014-06-02 2015-12-17 株式会社三洋物産 Game machine

Also Published As

Publication number Publication date
JP5174522B2 (en) 2013-04-03

Similar Documents

Publication Publication Date Title
WO2009128181A1 (en) Image display device, method for controlling image display device, and information storage medium
US20170186219A1 (en) Method for 360-degree panoramic display, display module and mobile terminal
US20140063008A1 (en) Interactive three dimensional displays on handheld devices
US10062209B2 (en) Displaying an object in a panoramic image based upon a line-of-sight direction
JP4487188B2 (en) Information processing apparatus and method, program, and navigation apparatus
WO2012147363A1 (en) Image generation device
US20190221043A1 (en) Systems and methods for using sensing of real object position, trajectory, or attitude to enable user interaction with a virtual object
CN104536579A (en) Interactive three-dimensional scenery and digital image high-speed fusing processing system and method
JP2013127683A (en) Program, information storage medium, terminal, server, and network system
EP3128413A1 (en) Sharing mediated reality content
JP2018533317A (en) Virtual reality video transmission method, playback method, and program using them
EP3738104B1 (en) Apparatus and method for generating view images
JP4134191B2 (en) GAME DEVICE, CHARACTER DISPLAY METHOD, PROGRAM, AND RECORDING MEDIUM
JP5367954B2 (en) GAME PROGRAM, GAME DEVICE, AND STORAGE MEDIUM
JP7196089B2 (en) Virtual reality video playback method and program using the same
CN110286906A (en) Method for displaying user interface, device, storage medium and mobile terminal
JP2009259130A (en) Image display device, method for controlling the image display device, and program
JP5174522B2 (en) Image display device, control method and program for image display device
JP4878240B2 (en) Image display control device, image display method, and program
JP4958835B2 (en) Image display device, control method and program for image display device
JP2015039589A (en) Driving simulation device using mobile terminal, and driving simulation program
JP5063022B2 (en) Program, information storage medium, and image generation system
JP5998829B2 (en) Camera work control device and camera work control program
WO2023242981A1 (en) Head-mounted display, head-mounted display system, and display method for head-mounted display
JP7118383B1 (en) Display system, display method, and display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100630

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101124

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121228

R150 Certificate of patent or registration of utility model

Ref document number: 5174522

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250