JPH0991110A - Virtual three-dimensional space display device - Google Patents

Virtual three-dimensional space display device

Info

Publication number
JPH0991110A
JPH0991110A JP7250281A JP25028195A JPH0991110A JP H0991110 A JPH0991110 A JP H0991110A JP 7250281 A JP7250281 A JP 7250281A JP 25028195 A JP25028195 A JP 25028195A JP H0991110 A JPH0991110 A JP H0991110A
Authority
JP
Japan
Prior art keywords
elevation angle
line
virtual
dimensional space
sight direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7250281A
Other languages
Japanese (ja)
Inventor
Shinichi Murata
伸一 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP7250281A priority Critical patent/JPH0991110A/en
Publication of JPH0991110A publication Critical patent/JPH0991110A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Digital Computer Display Output (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow an operator to always grasp a spatial position by setting the change range of a sight line direction corresponding to the relation between the reference position of an object and the position of a sightpoint. SOLUTION: In sightpoint ground height calculating processing (S102), the land height difference between the height of the sightpoint position and the height of ground surface (reference position) is found as the sightpoint ground height. Next, in projecting object elevation angle calculating processing (S103), among the buildings constituting a town displayed now in the visual fields, the elevation angles of highest parts of those buildings are calculated from the current sightpoint position, and the largest value among those elevation angles is found as a projecting object elevation angle. Next in an elevation angle limit calculating processing (S104), the elevation angle limit range in the sight line direction is found from the calculated sightpoint ground surface height and projecting object elevation angle. Then, in sightpoint/sight line changing processing (S105), the sightpoint position or the sight line direction is changed corresponding to the kind of provided operations.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、ディスプレイ等の
表示手段に表示された仮想3次元空間内の画像に対する
視点位置や視線方向をマウス等の操作手段の操作によっ
て変化させる仮想3次元空間表示装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a virtual three-dimensional space display device for changing a viewpoint position and a line-of-sight direction with respect to an image in a virtual three-dimensional space displayed on a display means such as a display by operating an operating means such as a mouse. Regarding

【0002】[0002]

【従来の技術】近年のコンピュータグラフィックスにお
いては、ディスプレイ等の表示手段に仮想3次元空間に
よる立体的な画像を生成表示し、オペレータの指令によ
ってその視点位置(仮想3次元空間内での座標)や視点
方向(仮想3次元空間内での画像表示方向)を変化させ
て、擬似的に3次元空間を飛び回っているような体験
(以下、「フライスルー」という。)をすることができ
るようになっている。
2. Description of the Related Art In recent computer graphics, a three-dimensional image in a virtual three-dimensional space is generated and displayed on a display means such as a display, and its viewpoint position (coordinates in the virtual three-dimensional space) is instructed by an operator. And changing the viewpoint direction (image display direction in the virtual three-dimensional space) so that you can have an experience of flying around the three-dimensional space in a pseudo manner (hereinafter referred to as "fly-through"). Has become.

【0003】このような仮想3次元空間の表示では、3
次元的に表示された地形の上空をフライスルーして土地
の起伏を視覚的に観察したり、3次元的にモデリングさ
れた街並みの上空をフライスルーして市街地案内や観光
案内を行うような3次元的な視覚情報システム等に適用
される。
In such a virtual three-dimensional space display, 3 is displayed.
Fly through the three-dimensionally displayed terrain to visually observe the ups and downs of the land, and fly through the three-dimensionally modeled sky to provide city guides and tourist information. It is applied to a dimensional visual information system.

【0004】例えば、山岳地帯や市街地の上空をフライ
スルーしながらインタラクティブにコンピュータグラフ
ィックスの3次元画像を変化させる場合には、オペレー
タがマウスやジョイスティック、3次元マウス等の操作
手段を操作して、視点位置の前進や後退、上昇や下降、
視線方向の左右への回転、見上げ、見下ろしなどの指示
を行う。コンピュータは、このオペレータからの指示を
解釈してディスプレイ等に表示される仮想3次元空間内
の視点位置や視線方向を変化させ、これに対応した画像
生成に基づく表示を行っている。
For example, when interactively changing a three-dimensional image of computer graphics while flying through a mountainous area or an urban area, an operator operates an operating means such as a mouse, a joystick, or a three-dimensional mouse. Forward and backward of the viewpoint position, up and down,
Instructions such as turning the line of sight to the left, right, looking up, and looking down. The computer interprets the instruction from the operator, changes the viewpoint position and the line-of-sight direction in the virtual three-dimensional space displayed on the display, etc., and performs display based on image generation corresponding to this.

【0005】オペレータが3次元マウスのような空間の
3軸方向に沿った各座標と、各々の軸に対応する回転角
度を計測できる6自由度の操作手段を用いる場合には、
3次元マウスの前方向への移動により視点位置が前進
し、後ろ方向への移動により視点位置が後退し、上方向
への移動により視点位置が上昇し、下方向への移動によ
り視点位置が下降する。さらに、垂直軸を中心として左
右にねじると視線方向が左右に回転し、横軸を中心とし
て上下にねじると視線方向が見上げや見下ろし方向に移
動する。
When an operator uses a 6-degree-of-freedom operation means capable of measuring each coordinate along the three-axis directions of a space such as a three-dimensional mouse and the rotation angle corresponding to each axis,
Moving the 3D mouse forward moves the viewpoint position forward, moving backward moves the viewpoint position backwards, moving upward moves the viewpoint position downwards, and moving it downward moves the viewpoint position downwards. To do. Further, if the eye is twisted left and right around the vertical axis, the line-of-sight direction is rotated left and right, and if it is twisted up and down around the horizontal axis, the line-of-sight direction is moved up and down.

【0006】また、3次元マウスの各々の方向への移動
量により、視点位置や視線方向の変化量が変わるように
なっている。例えば、オペレータが3次元マウスを少し
前に動かせばこの移動量に応じて少しだけ視点位置が前
進する。一方、3次元マウスを大きく前に動かせばこの
移動量に応じて大きく視点位置が前進する。
Further, the amount of change in the viewpoint position and the line-of-sight direction changes depending on the amount of movement of the three-dimensional mouse in each direction. For example, if the operator moves the three-dimensional mouse slightly forward, the viewpoint position slightly advances according to the amount of movement. On the other hand, if the three-dimensional mouse is moved far forward, the viewpoint position greatly advances according to the amount of movement.

【0007】操作手段としてマウス(2次元的なもの)
やジョイスティックを使用する場合には、これらの操作
手段を前に動かすことで視点位置の前進、後ろに動かす
ことで視点位置の後退、左右に動かすことで視線方向の
左右への回転を行うように設定しておく。また、マウス
やジョイスティックの操作とボタン操作とを併用して視
点位置の左右への移動、視線方向の見上げや見下ろし、
視点位置の上昇、下降を設定できるようにする。
Mouse (two-dimensional) as an operating means
When using the or joystick, move these operating means forward to move the viewpoint forward, backward to move the viewpoint backward, and move left or right to rotate the line of sight left or right. Set it. Also, by using mouse and joystick operations and button operations together, you can move the viewpoint position to the left and right, look up and down in the line of sight,
Allows you to set up and down the viewpoint position.

【0008】このような操作手段をオペレータが操作す
ることにより、ディスプレイ等の仮想3次元空間内の視
点位置や視線方向を任意に変化させ、立体的な画像の表
示方向を変えてフライスルーを実現している。
An operator operates such an operating means to arbitrarily change the viewpoint position and the line-of-sight direction in a virtual three-dimensional space such as a display, thereby changing the display direction of a stereoscopic image to realize fly-through. are doing.

【0009】[0009]

【発明が解決しようとする課題】しかしながら、このよ
うな仮想3次元空間表示において、フライスルーを行う
仮想3次元空間が山岳地や市街地である場合、オペレー
タが視点位置および視線方向を操縦して上空で真上方向
を見たり、または地上近くで真下方向を見たりすると、
画面上には空の景色または地面の景色だけが一様な状態
で表示されてしまう。
However, in such a virtual three-dimensional space display, when the virtual three-dimensional space in which fly-through is performed is a mountainous area or an urban area, the operator operates the viewpoint position and the line-of-sight direction to fly over the sky. When you look at the direction directly above, or when you look directly below, near the ground,
Only the view of the sky or the view of the ground is displayed in a uniform state on the screen.

【0010】この状態を図7を用いて説明する。図7
(a)に示す視点位置S1 では視線方向が水平の場合、
視点位置S2 では視線方向が真上の場合、視点位置S3
では視線方向が真下の場合の視野を各々示している。こ
こで、地表がGの位置である場合には、視点位置S1
2 では画面上に空の景色しか表示されない状態とな
る。また、地表がG’である場合には、視点位置S2
は空の景色しか見えず視点位置S3 では地面の景色しか
見えない状態となる。
This state will be described with reference to FIG. Figure 7
At the viewpoint position S 1 shown in (a), if the line-of-sight direction is horizontal,
If the line-of-sight direction is directly above the viewpoint position S 2 , the viewpoint position S 3
Shows the visual fields when the line-of-sight direction is directly below. Here, when the ground surface is at the position G, the viewpoint position S 1 ,
In S 2 , only the scenery of the sky is displayed on the screen. When the ground surface is G ′, only the view of the sky can be seen at the viewpoint position S 2 and only the view of the ground can be seen at the viewpoint position S 3 .

【0011】このような状態では、画面上に変化の乏し
い単調が画像のみが表示されたり、奥行きの変化があま
りない平面的な画像のみが表示され、オペレータは自分
が仮想3次元空間内のどの視点位置にいてどの視線方向
を見ているのか分からなくなるという混乱状態に陥って
しまう。このような混乱状態では操作手段を操縦するこ
とを恐れてしまったり、むやみに操作手段を動かすよう
な無駄な操作を強いられることになる。
In such a state, only a monotonous image with little change is displayed on the screen, or only a planar image with little change in depth is displayed. You will end up in a confused state where you will not know which gaze direction you are looking at from the viewpoint. In such a confused state, the operator may be afraid to operate the operating means or may be forced to uselessly move the operating means.

【0012】そこで、単純に視線方向の範囲を決めてし
まうことも考えられるが、図7(b)に示すように、視
点位置S4 が地表Gに近い場合でも視点位置S4 の近く
にビルディングBなどがある場合には、上空を見上げる
とビルディングBの上層部が見えることになるため、単
純な視線方向の限定ではフライスルーを行う上で不十分
となる。
[0012] Therefore, simply it is conceivable to thereby determine the range of viewing direction, as shown in FIG. 7 (b), the viewpoint position S 4 are the building near the viewpoint position S 4 even close to the surface G When there is B or the like, the upper part of the building B can be seen when looking up at the sky, so a simple limitation of the line-of-sight direction is not sufficient for performing fly-through.

【0013】[0013]

【課題を解決するための手段】本発明はこのような課題
を解決するために成された仮想3次元空間表示装置であ
る。すなわち、本発明の仮想3次元空間表示装置は、表
示手段に表示された仮想3次元空間内の画像に対する視
点位置や視線方向を所定の操作手段の操作によって変化
させる装置であり、仮想3次元空間内における所定の基
準位置と視点位置との仮想3次元空間内での距離を算出
する位置演算手段と、この位置演算手段によって算出し
た距離に基づき、操作手段の操作による視線方向の変化
範囲を設定する視線範囲設定手段とを備えているもので
ある。
The present invention is a virtual three-dimensional space display device which has been made to solve such a problem. That is, the virtual three-dimensional space display device of the present invention is a device for changing the viewpoint position and the line-of-sight direction with respect to the image in the virtual three-dimensional space displayed on the display means by operating a predetermined operation means, and the virtual three-dimensional space. Position calculation means for calculating the distance between a predetermined reference position and the viewpoint position in the virtual three-dimensional space, and the range of change in the line-of-sight direction by the operation of the operation means is set based on the distance calculated by this position calculation means. And a line-of-sight range setting means.

【0014】この位置演算手段にて算出した地表や地表
から突出する物体などの基準位置と視点位置との位置関
係に応じて、操作手段の操作による視線方向の変化範囲
を視線範囲設定手段で設定しているため、視点位置の地
表からの高度や、視点位置から突出物体を見上げる角度
等の位置関係によって視線方向の水平面とのなす角度
(以下、「仰角」という。)を制限できるようになる。
According to the positional relationship between the viewpoint position and the reference position such as the ground surface or an object protruding from the ground surface calculated by the position calculation means, the change range of the line of sight direction by the operation of the operation means is set by the sight line range setting means. Therefore, the angle formed by the horizontal plane in the line-of-sight direction (hereinafter referred to as “elevation angle”) can be limited depending on the altitude of the viewpoint position from the ground surface and the positional relationship such as the angle of looking up the protruding object from the viewpoint position. .

【0015】[0015]

【発明の実施の形態】以下に、本発明の仮想3次元空間
表示装置における実施形態を図に基づいて説明する。図
1は本発明の実施形態を説明する図、図2はハードウェ
ア構成を説明するブロック図である。本実施形態では、
オペレータが操作手段を操作して表示手段に表示される
仮想3次元空間内の画像に対する視点位置や視線方向を
変化させるものである。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of a virtual three-dimensional space display device of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram illustrating an embodiment of the present invention, and FIG. 2 is a block diagram illustrating a hardware configuration. In this embodiment,
The operator operates the operation means to change the viewpoint position and the line-of-sight direction with respect to the image in the virtual three-dimensional space displayed on the display means.

【0016】これを実現するためのハードウェア構成と
しては、図2に示すように、CPU1、メモリー2等か
ら構成されるコンピュータ本体10(例えば、ワークス
テーションやパーソナルコンピュータ)と、操作手段で
あるマウス3、ジョイスティック4、3次元マウス5、
キーボード6(これらのうちいずれか1つでも複数でも
よい)と、出力手段であるスピーカ7、CRT8と、所
定のデータを記憶する外部記憶装置9とから構成され
る。
As a hardware configuration for realizing this, as shown in FIG. 2, a computer main body 10 (for example, a workstation or a personal computer) including a CPU 1, a memory 2 and the like, and a mouse as an operating means. 3, joystick 4, 3D mouse 5,
It is composed of a keyboard 6 (any one or more of these may be used), a speaker 7, a CRT 8 as output means, and an external storage device 9 for storing predetermined data.

【0017】オペレータは、マウス3やジョイスティッ
ク4、3次元マウス5等の操作手段を操作して、CRT
8に表示される仮想3次元空間内の画像に対する視点位
置や視線方向を変化させる。例えば、ジョイスティック
4を用いる場合には、これを操作して仮想3次元空間で
の視点位置の前進や後退、上昇や下降を行い、また視線
方向の左右への回転、見上げや見下ろしなどの指示を行
って仮想3次元空間内での画像の表示を変化させる。こ
れによって、CPU1に表示される仮想3次元空間での
例えば山岳地や市街地の上空をフライスルーできるよう
になる。
The operator operates the operating means such as the mouse 3, the joystick 4, the three-dimensional mouse 5 and the like to display the CRT.
The viewpoint position and the line-of-sight direction with respect to the image in the virtual three-dimensional space displayed in 8 are changed. For example, when the joystick 4 is used, the joystick 4 is operated to move the viewpoint position forward and backward in the virtual three-dimensional space, to move up and down, and to rotate left and right in the line-of-sight direction and to give instructions such as looking up and looking down. Go and change the display of the image in the virtual three-dimensional space. As a result, it becomes possible to fly through, for example, a mountainous area or an urban sky in the virtual three-dimensional space displayed on the CPU 1.

【0018】また、ジョイスティック4として力フィー
ドバックを備えたものを使用する場合には、スティック
部分の回転量を計測するエンコーダ部(図示せず)にト
ルクモータ(図示せず)を取り付け、制御回路(図示せ
ず)にて回転に対するトルクの発生量を制御し、スティ
ック部分の動きを重くして操作の抵抗感を発生させるよ
うにする。さらに、バイブレーション機能を備えた3次
元マウス5を用いる場合には、このバイブレーションの
間隔を制御することにより、大きな抵抗感を与えたい場
合には短い間隔のバイブレーションを与え、小さい抵抗
感を与えたい場合には長い間隔のバイブレーションを与
えるようにしている。
When the joystick 4 with force feedback is used, a torque motor (not shown) is attached to an encoder unit (not shown) for measuring the amount of rotation of the stick portion, and a control circuit ( The amount of torque generated with respect to rotation is controlled by (not shown), and the movement of the stick portion is made heavy to generate a resistance feeling of operation. Further, in the case of using the three-dimensional mouse 5 having a vibration function, by controlling the vibration interval, when a large resistance feeling is desired, a short interval vibration is applied and a small resistance feeling is desired. I'm trying to give you a long interval vibration.

【0019】このようなハードウェア構成により本実施
形態の仮想3次元空間表示装置を実現するには、図1に
示す装置内の各処理を図2に示すCPU1でのソフトウ
ェアにて構成したり、機能処理ボード上や演算用半導体
装置として構成する。
In order to realize the virtual three-dimensional space display device of this embodiment with such a hardware configuration, each processing in the device shown in FIG. 1 is configured by software in the CPU 1 shown in FIG. It is configured on a function processing board or as a semiconductor device for calculation.

【0020】次に、位置演算手段P、視線範囲設定手段
Q、視線方向復帰手段R、操作感発生手段T内の各処理
を含めた本実施形態における仮想3次元空間表示装置を
ソフトウェアにて構成した場合を例として説明する。こ
の際、図1は仮想3次元空間表示装置の動作手順を示す
フローチャートとみなす。
Next, the virtual three-dimensional space display device of the present embodiment including the processing in the position calculating means P, the line-of-sight range setting means Q, the line-of-sight direction returning means R, and the operation feeling generating means T is constituted by software. The case will be described as an example. At this time, FIG. 1 is regarded as a flowchart showing an operation procedure of the virtual three-dimensional space display device.

【0021】すなわち、本実施形態における仮想3次元
空間表示装置では、操作量入力処理(S101)、視点
地表高度算出処理(S102)、突出物体仰角算出処理
(S103)、仰角制限算出処理(S104)、視点視
線変更処理(S105)、描画処理(S106)、仰角
復帰処理(S107)、仰角操作感処理(S108)か
ら成る一連の処理を繰り返して実行し、仮想3次元空間
内でのフライスルーを実現する。
That is, in the virtual three-dimensional space display device according to this embodiment, the operation amount input process (S101), the viewpoint ground surface altitude calculation process (S102), the protruding object elevation angle calculation process (S103), and the elevation angle restriction calculation process (S104). , A viewpoint / line-of-sight changing process (S105), a drawing process (S106), an elevation angle returning process (S107), and an elevation angle operation feeling process (S108) are repeatedly executed to perform fly-through in the virtual three-dimensional space. To be realized.

【0022】これにより、仮想3次元空間内における所
定の基準位置と視点位置との仮想3次元空間内での距離
に基づき、マウス3(図2参照)等の操作手段による視
線方向の変化範囲を設定して、オペレータが視点位置や
視線方向の操縦において混乱状態に陥ることがないよう
に操作性を向上させる点に特徴がある。
Thus, based on the distance between the predetermined reference position and the viewpoint position in the virtual three-dimensional space in the virtual three-dimensional space, the range of change in the line-of-sight direction by the operating means such as the mouse 3 (see FIG. 2) is determined. It is characterized in that the operability is improved by setting it so that the operator does not fall into a confused state when manipulating the viewpoint position or the line-of-sight direction.

【0023】各処理を行うにあたり、予め図2に示す外
部記憶装置9には固定データが記憶されている。この固
定データは、例えば地形を構成する三角形ポリゴン群
と、市街地のビルディング等を構成する三角形ポリゴン
群とがある。各三角形ポリゴンはコンピュータグラフィ
ックスの描画処理に用いられる3つの頂点座標や、面の
法線ベクトル、色情報、面の光の反射係数等のデータか
ら成る。また、市街地のビルディングを構成する三角形
ポリゴンは、ビルディング毎にまとめて管理されてお
り、ビルディング全体を囲む最小直方体(以下、「バウ
ンディングボックス」という。)の情報も持っているも
のとする。
Before performing each processing, fixed data is stored in advance in the external storage device 9 shown in FIG. This fixed data includes, for example, a triangular polygon group that forms a terrain and a triangular polygon group that forms a building in an urban area. Each triangular polygon is made up of data such as three vertex coordinates used for computer graphics rendering processing, a surface normal vector, color information, and a surface light reflection coefficient. In addition, the triangular polygons that compose a building in an urban area are collectively managed for each building, and it is assumed that it also has information on a minimum rectangular parallelepiped (hereinafter referred to as a "bounding box") that surrounds the entire building.

【0024】次に、図1に示す各処理を順に説明する。
先ず、操作量入力処理(S101)では、図2に示すマ
ウス3やジョイスティック4、3次元マウス5等の操作
手段の状態を読み込み、どのような操作(操作の種類)
が行われ、その操作量がどのくらいであるかを取り出す
処理を行う。マウス3やジョイスティック4、3次元マ
ウス5等の操作手段には、予め各操作に対する意味が決
められている。例えば、ジョイスティック4の場合に
は、スティック部分を前に押せば視点位置の前進、後ろ
に引けば後退、左右に倒せば視線方向を左右に回転、ボ
タンを押しながら前に押せば視線方向を見下ろすように
変更(仰角を減らす)、ボタンを押しながら後ろに引け
ば視線方向を見上げるように変更(仰角を増やす)させ
る等の意味が決められている。
Next, the respective processes shown in FIG. 1 will be described in order.
First, in the operation amount input process (S101), the state of operation means such as the mouse 3, the joystick 4, and the three-dimensional mouse 5 shown in FIG.
Is performed, and processing for extracting how much the operation amount is is performed. The operation means such as the mouse 3, the joystick 4, and the three-dimensional mouse 5 have predetermined meanings for each operation. For example, in the case of the joystick 4, push the stick part forward to advance the viewpoint position, pull backward to move backward, tilt left or right to rotate the line of sight left or right, and press the button forward to look down the line of sight. Change (decrease the elevation angle), if you push the button and pull backwards, you can change to look up the direction of the line of sight (increase the elevation angle).

【0025】操作量入力処理(S101)では、各操作
手段に対して決められた意味に基づいて操作手段での操
作の種類およびその操作量を読み取る。例えば、ジョイ
スティック4において、ボタンが押されているとともに
スティック部分が前に押されていて、その押されている
量が0.5(単位は任意)であるということを取り出
す。
In the operation amount input process (S101), the type of operation and the operation amount of the operation means are read based on the meaning determined for each operation means. For example, in the joystick 4, it is taken out that the button is pushed and the stick portion is pushed forward, and the pushed amount is 0.5 (unit is arbitrary).

【0026】次の視点地表高度算出処理(S102)で
は、現在の仮想3次元空間内での視点位置の真下に位置
する地形の三角形ポリゴンで、その三角形ポリゴンの頂
点の標高の内で最も標高の高いものを地表の標高(基準
位置)とし、視点位置の高度とその地表の高度(基準位
置)との標高の差を、視点地表高度として求める処理を
行う。なお、地表の標高としては、このような方法のみ
ならず、視点位置の真下の位置する地形の三角形ポリゴ
ンとその近隣の三角形ポリゴンを含めて、これらの頂点
の標高から決めるようにしてもよい。
In the next viewpoint ground surface altitude calculation process (S102), the triangular polygon of the terrain located immediately below the viewpoint position in the current virtual three-dimensional space is the highest altitude among the altitudes of the vertices of the triangular polygon. The altitude is set as the altitude of the ground surface (reference position), and the difference between the altitude of the viewpoint position and the altitude of the ground surface (reference position) is calculated as the viewpoint ground surface altitude. The elevation of the ground surface is not limited to this method, but may be determined from the elevations of these vertices, including the triangular polygon of the terrain located directly below the viewpoint position and the triangular polygons in the vicinity thereof.

【0027】次いで、突出物体仰角算出処理(S10
3)では、市街地を構成するビルディングで現在表示さ
れている視野の範囲に入っているものについて、現在の
視点位置からそのビルディングの最上部の仰角を計算
し、その仰角のうちで最も大きい値を突出物体仰角とし
て求める。
Next, the projection object elevation angle calculation process (S10)
In 3), for the buildings that compose the urban area, which are within the range of the field of view currently displayed, the elevation angle of the top of the building is calculated from the current viewpoint position, and the largest value of the elevation angles is calculated. Calculate as the elevation angle of the protruding object.

【0028】図3は、ビルディングがある場合の仰角を
説明する図である。すなわち、地表G上に建てられたビ
ルディングBがある場合、このビルディングB全体を囲
む最小直方体をバウンディングボックスB’とする。こ
の際の突出物体仰角θは、視点位置Sとバウンディング
ボックスB’の隅部とを結ぶ直線の水平線の対する角度
から求められる。
FIG. 3 is a diagram for explaining the elevation angle when there is a building. That is, when there is a building B built on the ground surface G, the minimum rectangular parallelepiped surrounding the entire building B is set as the bounding box B ′. The protruding object elevation angle θ at this time is obtained from the angle of the straight horizontal line connecting the viewpoint position S and the corner of the bounding box B ′.

【0029】次に、仰角制限算出処理(S104)で
は、先に算出した視点地表高度と突出物体仰角とから視
線方向における仰角制限範囲を求める。この手順は、先
ず、視点地表高度(h)から仰角の上限値(max_a
ngle)と下限値(min_angle)とを後述す
る方法で求め、次に、突出物体仰角(building
_angle)と上限値(max_angle)とを比
較する。
Next, in the elevation angle restriction calculation process (S104), the elevation angle restriction range in the line-of-sight direction is obtained from the viewpoint ground surface altitude and the projection object elevation angle calculated previously. In this procedure, first, from the viewpoint ground surface altitude (h), the upper limit value of the elevation angle (max_a
angle) and the lower limit value (min_angle) are obtained by the method described below, and then the projecting object elevation angle (building angle) is calculated.
_Angle) and the upper limit value (max_angle) are compared.

【0030】この比較において(1)式を満たす場合に
は、上限値(max_angle)を突出物体仰角(b
uilding_angle)に修正する。
If the expression (1) is satisfied in this comparison, the upper limit value (max_angle) is set to the protruding object elevation angle (b).
Modifying to (building_angle).

【0031】[0031]

【数1】 building_angle>max_angle …(1)## EQU00001 ## building_angle> max_angle (1)

【0032】これによって得られた仰角の下限値と上限
値との間が仰角制限算出処理(S104)にて出力され
る仰角制限範囲となる。
The range between the lower limit and the upper limit of the elevation angle thus obtained is the elevation limit range output in the elevation limit calculation process (S104).

【0033】次に、視点地表高度から仰角の上限値と下
限値とを求める方法について図4に基づき説明する。図
4は高度による仰角の制限を説明する図である。この横
軸は視点地表高度を表し、縦軸は仰角を表している。ま
た、図中の曲線F1 は各高度における仰角の上限値を表
すもので、曲線F2 は各高度における仰角の下限値を表
すものである。したがって、曲線F1 と曲線F2 との間
の領域が仰角制限範囲となる。
Next, a method for obtaining the upper limit value and the lower limit value of the elevation angle from the viewpoint ground altitude will be described with reference to FIG. FIG. 4 is a diagram for explaining the limitation of the elevation angle depending on the altitude. The horizontal axis represents the viewpoint ground altitude, and the vertical axis represents the elevation angle. The curve F 1 in the figure represents the upper limit value of the elevation angle at each altitude, and the curve F 2 represents the lower limit value of the elevation angle at each altitude. Therefore, the area between the curves F 1 and F 2 is the elevation angle limit range.

【0034】例えば、図4において高度がhであった場
合、hを通過する垂線と曲線F1 との交点H1 が仰角の
上限値となり、hを通過する垂線と曲線F2 との交点H
2 が仰角の下限値となる。
For example, when the altitude is h in FIG. 4, the intersection point H 1 of the perpendicular line passing h and the curve F 1 is the upper limit of the elevation angle, and the intersection point H of the perpendicular line passing h and the curve F 2 is
2 is the lower limit of elevation.

【0035】そこで、曲線F1 、F2 は、予め対象とす
る3次元空間のデータから決定しておくが、例えば、以
下のように決めることができる。先ず、曲線F1 につい
て説明する。オペレータは表示される3次元画像が空の
みの景色となる空間的な把握が困難となり混乱状態に陥
りやすくなるが、少なくとも地平線が3次元画像の一番
下の部分に表示されるようにすれば混乱状態には陥らな
いことになる。このため、少なくとも地平線が3次元画
像の一番下の部分に表示されるような角度が仰角の上限
値となる。
Therefore, the curves F 1 and F 2 are determined in advance from the data of the target three-dimensional space, but can be determined as follows, for example. First, the curve F 1 will be described. The operator is confused because it is difficult to grasp the spatial view of the displayed 3D image only in the sky, but at least the horizon is displayed at the bottom of the 3D image. You will not be confused. Therefore, the angle at which at least the horizon is displayed at the bottom of the three-dimensional image is the upper limit of the elevation angle.

【0036】ここで、3次元空間の平面的な広がりを基
に地平線までの距離をL、垂直視野角の半分をfovと
した場合、高度hにおける仰角の上限値(max_an
gle)の関係は(2)式のようになる。
Here, when the distance to the horizon is L and the half of the vertical viewing angle is fov based on the planar spread of the three-dimensional space, the upper limit value of the elevation angle at the altitude h (max_an
The relationship of gle) is as shown in equation (2).

【0037】[0037]

【数2】 tan(fov−max_angle)=h/L …(2)Tan (fov-max_angle) = h / L (2)

【0038】この(2)式で表される曲線がF1 であ
る。
The curve represented by the equation (2) is F 1 .

【0039】次に、曲線F2 について説明する。図4に
示す曲線F2 は高度が大きくなると仰角が−π/2にな
っている。これは、視点位置の高度が高いところでは真
下を見ても広い地形の変化や街並みが3次元画像として
表示されるからである。ところが、この視点位置から真
下を見ながら高度を下げていくと、地表の景色が段々近
づいてきて真下に位置した狭い領域のみが見えるように
なり、更に高度を下げると地面のみの3次元画像となり
オペレータは空間的な把握が困難となってしまう。
Next, the curve F 2 will be described. The curve F 2 shown in FIG. 4 has an elevation angle of −π / 2 as the altitude increases. This is because when the altitude of the viewpoint is high, a wide change in the terrain and the cityscape are displayed as a three-dimensional image even when looking directly below. However, when the altitude is lowered while looking straight down from this viewpoint position, the scenery of the surface of the earth gradually approaches, and only the narrow area located directly below can be seen. It becomes difficult for the operator to grasp spatially.

【0040】そこで、地表の広がりとして半径Rの領域
が必ず3次元画像中に表示されるように仰角の下限値を
決めるようにすれば、空間的な把握が困難となることを
回避できる。これにより、仰角の下限値が−π/2であ
る最小の高度h0 は(3)式で表される。
Therefore, if the lower limit value of the elevation angle is determined so that the region of radius R is always displayed in the three-dimensional image as the spread of the ground surface, it is possible to avoid the difficulty of spatial grasping. As a result, the minimum altitude h 0 at which the lower limit of the elevation angle is −π / 2 is represented by the equation (3).

【0041】[0041]

【数3】tan(fov)=R/h0 …(3)(3) tan (fov) = R / h 0 (3)

【0042】また、高度がゼロからh0 の間の仰角の下
限値の設定の例としては、仰角の微小変化と地表面上の
長さとの関係を微分計算で求めることにより(4)式を
使うことができる。
Further, as an example of setting the lower limit value of the elevation angle between the altitude of zero and h 0 , equation (4) is obtained by calculating the relation between the minute change in elevation angle and the length on the ground surface by differential calculation. Can be used.

【0043】[0043]

【数4】 sin2 (min_angle)=h/h0 …(4)## EQU00004 ## sin 2 (min_angle) = h / h 0 (4)

【0044】なお、図4に示した曲線F1 、F2 は先に
示した(2)〜(4)式に限定されず他の数式や他の方
法によって設定してもよい。
The curves F 1 and F 2 shown in FIG. 4 are not limited to the equations (2) to (4) shown above, and may be set by other equations or other methods.

【0045】次に、図1に示す視点視線変更処理(S1
05)では、操作量入力処理(S101)によって得ら
れた操作の種類によって視点位置や視線方向を変更す
る。例えば、ジョイスティック4(図2参照)において
操作の種類が「前に押す」操作であれば、前述したよう
に「前進」を意味するので視点位置を視線方向に沿って
操作量に応じた分だけ変化させる。
Next, the viewpoint line-of-sight changing process (S1 shown in FIG.
In 05), the viewpoint position and the line-of-sight direction are changed according to the type of operation obtained by the operation amount input process (S101). For example, if the type of operation on the joystick 4 (see FIG. 2) is “push forward”, it means “forward” as described above, so that the viewpoint position corresponds to the amount of operation along the line-of-sight direction. Change.

【0046】また、本実施形態の特徴である視線方向の
仰角の変更処理については、図5〜図6に示すフローチ
ャートに沿って順に説明する。先ず、図5に示すフロー
チャートに沿って仰角の制限処理を行う。すなわち、ス
テップS201に示す仰角算出で操作手段で指示された
視線方向の仰角の変更を行う。次に、ステップS202
に示す判断で、先のステップS201で算出した新しい
仰角が、図1に示す仰角制限算出処理(S104)によ
って算出された仰角の制限範囲内であるか否かを判定す
る。
The process of changing the elevation angle in the line-of-sight direction, which is a feature of this embodiment, will be described in order with reference to the flow charts shown in FIGS. First, the elevation angle limiting process is performed according to the flowchart shown in FIG. That is, the elevation angle in the line-of-sight direction designated by the operating means is changed in the elevation angle calculation shown in step S201. Next, step S202.
By the determination shown in step S1, it is determined whether the new elevation angle calculated in step S201 is within the elevation angle limitation range calculated by the elevation angle limitation calculation process (S104) shown in FIG.

【0047】仰角の制限範囲内であればYesとなって
そのままの仰角での変更を行い、制限範囲外であればN
oとなってステップS203に示す仰角制限を行う。こ
の状態を図4を用いて説明すると、図中H3 で示される
ように仰角の上限値H1 よりも大きい仰角の場合には仰
角をH1 に制限し、また、図中H4 で示されるように仰
角の下限値H2 よりも小さい仰角の場合には仰角をH2
に制限する。
If the elevation angle is within the limit range, the answer is Yes and the elevation angle is changed as it is.
Then, the elevation angle is restricted as shown in step S203. This state will be described with reference to FIG. 4. When the elevation angle is larger than the upper limit value H 1 of the elevation angle as indicated by H 3 in the figure, the elevation angle is limited to H 1 and indicated by H 4 in the figure. When the elevation angle is smaller than the lower limit value H 2 of the elevation angle, the elevation angle is set to H 2
Restrict to

【0048】これにより、算出された仰角が制限範囲外
となっている場合には、制限範囲に収まるよう制限を行
い、オペレータが混乱状態に陥らないようにすることが
できる。特に本実施形態における仮想3次元空間表示装
置では、視点位置が高くなればなる程、視点方向におけ
る仰角の変化範囲の上限値を低くして空の景色のみが見
えるような状態を無くし、また視点位置が低くなればな
る程、視線方向における仰角の変化範囲の下限値を高く
して地面の景色のみが見えるような状態を無くすことが
できる。
As a result, when the calculated elevation angle is out of the limit range, it is possible to limit it so that it falls within the limit range and prevent the operator from being confused. Particularly, in the virtual three-dimensional space display device according to the present embodiment, the higher the viewpoint position, the lower the upper limit value of the range of elevation angle change in the viewpoint direction to eliminate the state in which only the view of the sky can be seen. The lower the position, the higher the lower limit value of the range of elevation angle change in the line-of-sight direction can be eliminated to eliminate the situation where only the scenery of the ground can be seen.

【0049】しかも、視点位置が地表に近い場合であっ
てもビルディング等の突出物体に接近している場合に
は、視線方向における仰角の上限値をこの突出物体の上
層部が見えるような値に設定することで、突出物体の上
層部まで見上げることが可能となる。
Moreover, even when the viewpoint position is close to the ground surface, when the user is approaching a projecting object such as a building, the upper limit of the elevation angle in the line-of-sight direction is set to a value such that the upper layer of the projecting object can be seen. By setting, it is possible to look up to the upper layer of the protruding object.

【0050】次に、図6に基づいて仰角が変化範囲外と
なることを許可している場合の処理について説明する。
先ず、ステップS301に示すオペレータによる操作の
有無を判断する。ここでオペレータによる操作がなかっ
た場合にはNoとなってステップS302へ進み、操作
があった場合にはYesとなってステップS304へ進
む。
Next, the processing when the elevation angle is allowed to be out of the range of change will be described with reference to FIG.
First, it is determined whether or not there is an operator's operation shown in step S301. Here, if there is no operation by the operator, the determination is No and the process proceeds to step S302, and if there is an operation, the determination is Yes and the process proceeds to step S304.

【0051】オペレータによる操作がなかった場合は、
仰角が図1に示す仰角制限算出処理(S104)で算出
されているので、ステップS302の判断によりこの仰
角が制限範囲内にあるか否かを判定する。範囲内であれ
ばそのままの仰角を用いて変更を行い、範囲外であれば
次のステップS303に示す仰角復帰処理を行う。な
お、このステップS303の仰角復帰処理は図1に示す
仰角復帰処理S107と同じものである。
If there is no operation by the operator,
Since the elevation angle is calculated in the elevation angle limitation calculation process (S104) shown in FIG. 1, it is determined whether or not this elevation angle is within the limitation range by the determination in step S302. If it is within the range, the elevation angle is changed as it is, and if it is out of the range, the elevation angle returning process shown in the next step S303 is performed. The elevation angle returning process in step S303 is the same as the elevation angle returning process S107 shown in FIG.

【0052】仰角復帰処理では、仰角を制限範囲に近づ
けるように一定角度だけ仰角を変更する処理を行う。例
えば、オペレータの操作によって視点位置の高度と仰角
とが図4に示すH3 の位置となっている場合には、オペ
レータの操作が無い段階で仰角を上限値であるH1 に変
更する。これにより、オペレータの操作で仰角が制限範
囲を外れた場合であっても、その操作が終わった段階で
仰角が制限範囲内へ収まるように自動修正される。つま
り、オペレータは所望の操作を行っているうちに空間的
な把握が困難となってしまった場合でも、操作を止めれ
ば徐々に仰角が制限範囲内に復帰して、仮想3次元空間
内での自らの位置感覚を回復できることになる。
In the elevation angle returning process, the elevation angle is changed by a fixed angle so that the elevation angle approaches the limit range. For example, when the altitude and the elevation angle of the viewpoint position are at the position of H 3 shown in FIG. 4 by the operation of the operator, the elevation angle is changed to the upper limit value H 1 when the operator does not operate. As a result, even when the elevation angle is out of the limit range due to the operator's operation, the elevation angle is automatically corrected to fall within the limit range when the operation is finished. In other words, even if the operator finds it difficult to grasp the space spatially while performing the desired operation, if the operation is stopped, the elevation angle gradually returns to within the limit range, and the operator can see the virtual three-dimensional space. You will be able to recover your sense of position.

【0053】また、図6に示すステップS301の判断
でオペレータによる操作があった場合には、ステップS
304へ進み図5に示すステップS201と同様な仰角
の算出を行う。次いで、ステップS305に示す判断
で、算出した仰角が制限範囲内にあるか否かを判定す
る。仰角が制限範囲内にある場合にはYesとなってそ
のままの仰角を用いた変更を行う。
If there is an operation by the operator in the determination of step S301 shown in FIG.
In step 304, the elevation angle is calculated similarly to step S201 shown in FIG. Next, in the determination shown in step S305, it is determined whether the calculated elevation angle is within the limit range. If the elevation angle is within the limited range, the answer is Yes and the change is made using the elevation angle as it is.

【0054】一方、仰角が制限範囲外となっている場合
にはNoとなって次のステップS306に示す仰角操作
感処理を行う。なお、ステップS306の仰角操作感処
理は図1に示す仰角操作感処理(S108)と同じもの
である。仰角操作感処理では、仰角が制限範囲から外れ
た度合いに比例する力フィードバック等の警告を操作手
段に発生させる処理を行う。
On the other hand, if the elevation angle is out of the restricted range, the determination is No and the elevation angle operation feeling process shown in the next step S306 is performed. The elevation angle operation feeling process of step S306 is the same as the elevation angle operation feeling process (S108) shown in FIG. In the elevation angle operation feeling process, a process of causing the operation means to issue a warning such as force feedback proportional to the degree to which the elevation angle deviates from the limit range.

【0055】具体的には、操作手段として力フィードバ
ック機能を備えるジョイスティック4(図2参照)を使
用している場合において、仰角が上限値よりも大きくな
っている際にオペレータがスティック部分を更に操作
(スティック部分を手前に引く操作)して仰角を大きく
しようとすると、この操作方向とは反対の方向(スティ
ック部分を前に押す方向)に向けて仰角と上限値との差
に比例したトルクを発生させる。
Specifically, when the joystick 4 having a force feedback function (see FIG. 2) is used as the operating means, the operator further operates the stick portion when the elevation angle is larger than the upper limit value. If you try to increase the elevation angle by (pulling the stick part toward you), a torque proportional to the difference between the elevation angle and the upper limit will be applied in the direction opposite to this direction (the direction that pushes the stick part forward). generate.

【0056】同様に、仰角が下限値よりも小さくなって
いる場合に、オペレータがスティック部分を更に操作
(スティック部分を前に押す操作)して仰角を小さくし
ようとすると、この操作方向とは反対の方向(スティッ
ク部分を手前に引く方向)に向けて仰角と下限値との差
に比例したトルクを発生させる。
Similarly, if the operator tries to reduce the elevation angle by further operating the stick portion (operation of pushing the stick portion forward) when the elevation angle is smaller than the lower limit value, this operation direction is opposite. A torque proportional to the difference between the elevation angle and the lower limit is generated in the direction of (the direction in which the stick portion is pulled toward you).

【0057】また、バイブレーション機能を備える3次
元マウス5(図2参照)を使用している場合には、先に
説明したトルクの代わりに所定のバイブレーションを与
えるようにする。つまり、仰角と上限値または下限値と
の差に比例した間隔(差が大きいと間隔が短く、差が小
さいと間隔が大きくなる)のバイブレーションを発生さ
せる。
When the three-dimensional mouse 5 having a vibration function (see FIG. 2) is used, a predetermined vibration is applied instead of the torque described above. That is, vibration is generated at intervals proportional to the difference between the elevation angle and the upper limit value or the lower limit value (when the difference is large, the interval is short, and when the difference is small, the interval is large).

【0058】さらに、トルクやバイブレーションの代わ
り、またはこれらのいずれかとともに所定の音を出力す
るようにしてもよい。すなわち、仰角と上限値または下
限値との差に比例した周波数(差が大きいと高い周波数
となり差が小さいと低い周波数となる)の音をサウンド
出力装置(図1参照)によって発生させ、スピーカ7
(図2参照)から出力する。
Further, a predetermined sound may be output instead of or in addition to torque or vibration. That is, the sound output device (see FIG. 1) generates a sound having a frequency proportional to the difference between the elevation angle and the upper limit value or the lower limit value (a large difference indicates a high frequency and a small difference indicates a low frequency), and the speaker 7
(See FIG. 2).

【0059】このような警告によって、オペレータは自
らの行っている操作で仰角を変更している間に所定の制
限範囲を越えてしまった場合でも、越えているか否かの
判断とともに越えている場合にはその程度を感覚的に把
握できるようになる。
By such a warning, even if the operator exceeds the predetermined limit range while changing the elevation angle by his / her own operation, if the operator exceeds the predetermined limit range with the judgment of whether or not the range is exceeded. Will be able to intuitively grasp the degree.

【0060】次に、図1に示す描画処理(S106)で
は、視点視線変更処理(S105)による新しい視点位
置と視線方向を用い、地形を構成する三角形ポリゴン群
とビルディング等を構成する三角形ポリゴン群とを、一
般的な隠面処理やシェーディング処理等を施して図2に
示すCRT8に表示させる。
Next, in the drawing process (S106) shown in FIG. 1, the new viewpoint position and line-of-sight direction obtained by the viewpoint line-of-sight changing process (S105) are used to form a triangle polygon group forming a terrain and a triangle polygon group forming a building. And are subjected to general hidden surface processing, shading processing, etc., and displayed on the CRT 8 shown in FIG.

【0061】これらS101〜S106の処理を順に実
行することにより、オペレータの操作に基づき仮想3次
元空間内の視点位置や視線方向が変更され、その視点位
置と視線方向とによって見える景色が3次元画像として
視覚提示される。この一連の処理が繰り返し実行される
ことで、高度(視点地表高度)や距離(突出物体距離)
の大きさに応じた仰角の制限範囲が設定され、空間的な
把握を失った混乱状態に陥ることなく、快適に仮想3次
元空間内を飛び回り、所望の景色を観察することができ
るようになる。
By sequentially executing the processes of S101 to S106, the viewpoint position and the line-of-sight direction in the virtual three-dimensional space are changed based on the operation of the operator, and the scenery seen by the viewpoint position and the line-of-sight direction is a three-dimensional image. Is visually presented as. By repeating this series of processing, altitude (viewpoint ground altitude) and distance (protruding object distance)
The elevation angle limit range is set according to the size of the, and it becomes possible to comfortably fly around in the virtual three-dimensional space and observe the desired scenery without falling into a confusion state where the spatial grasp is lost. .

【0062】[0062]

【発明の効果】以上説明したように本発明の仮想3次元
空間表示装置によれば次のような効果がある。すなわ
ち、本発明によれば地表や地表から突出する物体などの
基準位置と視点位置との位置関係に応じて、視線方向の
変化範囲を設定できるため、表示手段に地面のみの画像
や空のみの画像が表示されることがなくなり、オペレー
タは常に空間的な位置を把握できるようになる。
As described above, the virtual three-dimensional space display device of the present invention has the following effects. That is, according to the present invention, it is possible to set the range of change in the line-of-sight direction according to the positional relationship between the reference position and the viewpoint position such as the ground surface or an object protruding from the ground surface, so that the display means displays only the image of the ground only or the sky. The image is not displayed, and the operator can always grasp the spatial position.

【0063】また、設定した視線方向の変化範囲を越え
てしまった場合でも、その視線方向が自動的に修正され
るため、空間的な把握を失ってしまった場合でも即座に
これを回復できることになる。さらに、視線方向の変化
範囲を越えている場合には所定の警告によってそのこと
を感覚的に把握できるようになる。
Further, even if the change range of the line-of-sight direction is exceeded, the line-of-sight direction is automatically corrected, so that even if the spatial grasp is lost, it can be immediately recovered. Become. Further, when the change range of the line-of-sight direction is exceeded, it is possible to sensuously grasp the fact by a predetermined warning.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施形態を説明する図である。FIG. 1 is a diagram illustrating an embodiment of the present invention.

【図2】ハードウェア構成を説明するブロック図であ
る。
FIG. 2 is a block diagram illustrating a hardware configuration.

【図3】ビルディングがある場合の仰角を説明する図で
ある。
FIG. 3 is a diagram illustrating an elevation angle when there is a building.

【図4】高度による仰角の制限を説明する図である。FIG. 4 is a diagram for explaining elevation angle limitation according to altitude.

【図5】仰角の制限処理を説明するフローチャートであ
る。
FIG. 5 is a flowchart illustrating an elevation angle limiting process.

【図6】仰角が範囲外となった場合の処理を説明するフ
ローチャートである。
FIG. 6 is a flowchart illustrating processing when an elevation angle is out of range.

【図7】仰角による見え方を(a)、(b)において説
明する図である。
FIG. 7 is a diagram for explaining how to look at an elevation angle in (a) and (b).

【符号の説明】[Explanation of symbols]

1 CPU 2 メモリー 3 マウス 4 ジョイスティック 5 3次元マウス 6 キーボード 7 スピーカ 8 CPU 9 外部記憶装置 10 コンピュータ本体 P 位置演算手段 Q 視線範囲設定手段 R 視線方向復帰手段 T 操作感発生手段 1 CPU 2 Memory 3 Mouse 4 Joystick 5 3D Mouse 6 Keyboard 7 Speaker 8 CPU 9 External Storage Device 10 Computer Main Body P Position Calculating Means Q Sight Range Setting Means R Sight Direction Return Means T Operation Feeling Means

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 表示手段に表示された仮想3次元空間内
の画像に対する視点位置や視線方向を所定の操作手段の
操作によって変化させる仮想3次元空間表示装置であっ
て、 前記仮想3次元空間内における所定の基準位置と前記視
点位置との該仮想3次元空間内での位置関係を算出する
位置演算手段と、 前記位置演算手段によって算出した距離に基づき、前記
操作手段の操作による前記視線方向の変化範囲を設定す
る視線範囲設定手段とを備えていることを特徴とする仮
想3次元空間表示装置。
1. A virtual three-dimensional space display device for changing a viewpoint position and a line-of-sight direction with respect to an image in a virtual three-dimensional space displayed on a display means by operating a predetermined operation means, wherein the virtual three-dimensional space Position calculating means for calculating the positional relationship between the predetermined reference position and the viewpoint position in the virtual three-dimensional space, and based on the distance calculated by the position calculating means, A virtual three-dimensional space display device, comprising: a line-of-sight range setting means for setting a change range.
【請求項2】 前記操作手段の操作によって前記視線方
向を変化させる場合に、該視線方向が設定した視線方向
の変化範囲の外側になり、該操作手段の操作を止めた後
に、該視線方向を該変化範囲の内側に戻す処理を行う視
線方向復帰手段を備えていることを特徴とする請求項1
記載の仮想3次元空間表示装置。
2. When the line-of-sight direction is changed by operating the operation unit, the line-of-sight direction is outside the set range of change of the line-of-sight direction, and after the operation of the operation unit is stopped, the line-of-sight direction is changed. The line-of-sight direction returning means for performing a process of returning to the inside of the change range is provided.
The virtual three-dimensional space display device described.
【請求項3】 前記操作手段の操作によって前記視線方
向を変化させる場合に、該視線方向が設定した視線方向
の変化範囲の外側となっている間、該操作手段の操作負
荷を変化させる処理を行う操作感発生手段を備えている
ことを特徴とする請求項1または請求項2記載の仮想3
次元空間表示装置。
3. When changing the line-of-sight direction by operating the operation unit, a process of changing the operation load of the operation unit while the line-of-sight direction is outside the set range of change of the line-of-sight direction. The virtual 3 according to claim 1 or 2, further comprising an operation feeling generating means for performing the operation.
Dimensional space display device.
【請求項4】 前記操作手段の操作によって前記視線方
向を変化させる場合に、該視線方向が設定した視線方向
の変化範囲の外側となっている間、所定の音を出力する
処理を行う操作感発生手段を備えていることを特徴とす
る請求項1または請求項2記載の仮想3次元空間表示装
置。
4. When the visual line direction is changed by operating the operating means, an operational feeling of performing a process of outputting a predetermined sound while the visual line direction is outside the set change range of the visual line direction. The virtual three-dimensional space display device according to claim 1 or 2, further comprising a generation unit.
JP7250281A 1995-09-28 1995-09-28 Virtual three-dimensional space display device Pending JPH0991110A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7250281A JPH0991110A (en) 1995-09-28 1995-09-28 Virtual three-dimensional space display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7250281A JPH0991110A (en) 1995-09-28 1995-09-28 Virtual three-dimensional space display device

Publications (1)

Publication Number Publication Date
JPH0991110A true JPH0991110A (en) 1997-04-04

Family

ID=17205571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7250281A Pending JPH0991110A (en) 1995-09-28 1995-09-28 Virtual three-dimensional space display device

Country Status (1)

Country Link
JP (1) JPH0991110A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012252468A (en) * 2011-06-01 2012-12-20 Nintendo Co Ltd Information processing program, information processor, information processing system, and information processing method
US9205327B2 (en) 2011-03-08 2015-12-08 Nintento Co., Ltd. Storage medium having information processing program stored thereon, information processing apparatus, information processing system, and information processing method
US9375640B2 (en) 2011-03-08 2016-06-28 Nintendo Co., Ltd. Information processing system, computer-readable storage medium, and information processing method
US9539511B2 (en) 2011-03-08 2017-01-10 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for operating objects in a virtual world based on orientation data related to an orientation of a device
US9561443B2 (en) 2011-03-08 2017-02-07 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method
US9643085B2 (en) 2011-03-08 2017-05-09 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for controlling a virtual object using attitude data
US9925464B2 (en) 2011-03-08 2018-03-27 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for displaying an image on a display device using attitude data of a display device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9492743B2 (en) 2011-03-08 2016-11-15 Nintendo Co., Ltd. Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US9205327B2 (en) 2011-03-08 2015-12-08 Nintento Co., Ltd. Storage medium having information processing program stored thereon, information processing apparatus, information processing system, and information processing method
US9345962B2 (en) 2011-03-08 2016-05-24 Nintendo Co., Ltd. Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US9370712B2 (en) 2011-03-08 2016-06-21 Nintendo Co., Ltd. Information processing system, information processing apparatus, storage medium having information processing program stored therein, and image display method for controlling virtual objects based on at least body state data and/or touch position data
US9375640B2 (en) 2011-03-08 2016-06-28 Nintendo Co., Ltd. Information processing system, computer-readable storage medium, and information processing method
US9492742B2 (en) 2011-03-08 2016-11-15 Nintendo Co., Ltd. Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US9522323B2 (en) 2011-03-08 2016-12-20 Nintendo Co., Ltd. Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US9526981B2 (en) 2011-03-08 2016-12-27 Nintendo Co., Ltd. Storage medium having stored thereon information processing program, information processing apparatus, information processing system, and information processing method
US9539511B2 (en) 2011-03-08 2017-01-10 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for operating objects in a virtual world based on orientation data related to an orientation of a device
US9561443B2 (en) 2011-03-08 2017-02-07 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method
US9643085B2 (en) 2011-03-08 2017-05-09 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for controlling a virtual object using attitude data
US9925464B2 (en) 2011-03-08 2018-03-27 Nintendo Co., Ltd. Computer-readable storage medium, information processing system, and information processing method for displaying an image on a display device using attitude data of a display device
JP2012252468A (en) * 2011-06-01 2012-12-20 Nintendo Co Ltd Information processing program, information processor, information processing system, and information processing method

Similar Documents

Publication Publication Date Title
US6346938B1 (en) Computer-resident mechanism for manipulating, navigating through and mensurating displayed image of three-dimensional geometric model
US20230095331A1 (en) Virtual reality system and method
JP4489800B2 (en) Image generating apparatus and method, program, and recording medium
Piekarski et al. Interactive augmented reality techniques for construction at a distance of 3D geometry
US5566280A (en) 3D dynamic image production system with automatic viewpoint setting
JP4896761B2 (en) 3D map display system, 3D map display method, and program thereof
JP7361502B2 (en) System and method for adjusting stereoscopic effects
US20090244064A1 (en) Program, information storage medium, and image generation system
US20060227134A1 (en) System for interactive 3D navigation for proximal object inspection
WO2014017200A1 (en) Information processing device and program
JP3376593B2 (en) Map data display device
JP6782108B2 (en) Visible rate calculation device
JPH0991110A (en) Virtual three-dimensional space display device
JPH0991109A (en) Virtual three-dimensional space display device
JP3460719B2 (en) Map data display device and map data display method
WO2009104227A1 (en) Game device, game control method, and game control program
JP2003132375A (en) Guiding system, map data server device and map data display terminal device
JP3460720B2 (en) Map data display device and map data display method
JPH07114655A (en) Graphic processor
GB2605302A (en) Virtual reality system and method
JP2000067262A (en) Image display device/method and recording medium
JP3551185B2 (en) Map data display device and map data display method
JP3496677B2 (en) Map data display device
JP2024027840A (en) Programs and simulators
JP4219766B2 (en) Image generation program and image generation apparatus