JP4282640B2 - Information presentation method and information presentation apparatus - Google Patents

Information presentation method and information presentation apparatus Download PDF

Info

Publication number
JP4282640B2
JP4282640B2 JP2005214551A JP2005214551A JP4282640B2 JP 4282640 B2 JP4282640 B2 JP 4282640B2 JP 2005214551 A JP2005214551 A JP 2005214551A JP 2005214551 A JP2005214551 A JP 2005214551A JP 4282640 B2 JP4282640 B2 JP 4282640B2
Authority
JP
Japan
Prior art keywords
virtual environment
horizontal plane
next point
coordinates
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005214551A
Other languages
Japanese (ja)
Other versions
JP2006031719A (en
Inventor
美和子 土井
健一 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005214551A priority Critical patent/JP4282640B2/en
Publication of JP2006031719A publication Critical patent/JP2006031719A/en
Application granted granted Critical
Publication of JP4282640B2 publication Critical patent/JP4282640B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、例えば、博物館や美術館等で、展示対象物について仮想環境を用いて臨場感のある情報提示を行う情報提示方法およびそれを用いた情報提示装置に関する。   The present invention relates to an information presentation method and an information presentation apparatus using the information presentation method for presenting realistic information about a display object using a virtual environment in a museum or an art museum, for example.

博物館や美術館では展示対象物とその説明を物理的に近傍に配置して情報提示を行っている。たとえば、アンモナイトの化石であれば、化石をガラスのショーケースにいれ、その上方などにアンモナイトの説明のパネル(たとえば、「アンモナイトは古生代から中生代まで生存していた頭足類に属する化石動物」)などを提示するような形態をとっている。   In museums and art galleries, information is presented by arranging the objects to be displayed and their descriptions in the physical vicinity. For example, if it is an ammonite fossil, put the fossil in a glass showcase, and above it, a panel explaining ammonite (for example, “ammonite is a fossil animal belonging to cephalopods that survived from the Paleozoic to the Mesozoic”). It takes the form that presents.

しかしこのような形態では、アンモナイトが中生代の海の中を泳ぐ巨大な巻き貝の一種であったというイメージを把握することは難しい。また、従来の展示形式では、観覧者の見方は受け身的であるために、すぐあきてしまうなどの問題点もあった。   However, in this form, it is difficult to grasp the image that ammonite was a kind of giant snail swimming in the Mesozoic sea. In addition, the conventional display format has a problem in that the viewer's view is passive, so that he / she gets up quickly.

このような問題点を解決するために、最近では、コンピュータグラフィックスなどを用い、アンモナイトの生存していたときの環境状態を再現して、VTRなどで展示するような情報提示方法もでてきている。VTRによる情報提示方法は従来のパネルによる静的な展示方法に比較すると、アンモナイトが生存していたときの状態を容易に類推できる。しかし、VTRによる情報提示方法では、観覧者への一方的な情報提示になるため、観覧者は受け身的にならざるをえない。また、VTRでは、情報の提示が一過性になってしまうために、書誌情報は従来とおり、パネルを使用して提示する必要があった。   In order to solve such problems, there has recently been an information presentation method that uses computer graphics or the like to reproduce the environmental state when the ammonite was alive and display it on a VTR or the like. Yes. The information presentation method by the VTR can easily analogize the state when the ammonite is alive compared to the static display method by the conventional panel. However, in the information presentation method using the VTR, since the information is presented to the viewer unilaterally, the viewer must be passive. Further, in the VTR, since the presentation of information becomes transient, it is necessary to present bibliographic information using a panel as in the past.

これを是正するために、VTRに録画するかわりに、CD−ROMに記録する情報提示方法も採用されるようになってきている。   In order to correct this, an information presentation method of recording on a CD-ROM instead of recording on a VTR has been adopted.

CD−ROMを用いた情報提示方法は、たとえば、海の中を泳いでいるアンモナイトをマウスなどの入力デバイスを用いて選択すると、選択されたアンモナイトに対する書誌情報が画面上に表示されたり、あるいは音声ナレーションにより説明されるようなハイパーテキスト的提示方法をとることができる。このような方法によれば、VTRによる情報提示方法に比べると、観覧者は自分の興味のある対象を選ぶことができるぶん、参加意識が高まり、能動的な見方をできる。   For example, when an ammonite swimming in the sea is selected using an input device such as a mouse, bibliographic information for the selected ammonite is displayed on the screen, or audio is displayed. A hypertext presentation method as explained by narration can be taken. According to such a method, as compared with the information presentation method by the VTR, the viewer can select an object of his / her interest, and the participation consciousness is increased and an active view can be achieved.

ただし、CD−ROMによる情報提示方法では、各場面でのカメラ位置や、場面展開はあらかじめ決まっているので、観覧者は好きな位置からみたり、あるいは対象の位置を変えたり、あるいは、異なる場面展開にするようなことはできなかった。   However, in the information presentation method using a CD-ROM, the camera position and scene development in each scene are determined in advance, so that the viewer can look at the desired position, change the target position, or develop different scenes. I couldn't do it.

このような問題点を改善し、自由な位置からみたり、配置を変更したりできるようにするために、最近では、3次元コンピュータグラフィックス(CG)を用いて、3次元で環境を仮想的に構築する方法も採用されるようになってきている。3次元CGを用いた仮想環境では、どのような位置からみるか、どのように仮想環境の中を移動するかなどを2次元あるいは3次元の指示装置を用いて指定することができる。   In order to improve such problems and to be able to see and change the arrangement from a free position, recently, using 3D computer graphics (CG), the environment is virtually divided in 3D. Construction methods are also being adopted. In a virtual environment using a three-dimensional CG, it is possible to specify from what position to view and how to move in the virtual environment using a two-dimensional or three-dimensional instruction device.

実際には、移動は指示装置を用いて指示を行い、どの位置から見るかは、たとえば、観覧者の頭部に磁気センサを別につけ、その磁気センサから得られた座標値をもとに制御する方法がとられている。しかし、この方法では、磁気センサが高価であること、あまり大きく頭の位置が変化すると画面から大きく頭がすれてしまい、仮想環境における自分の相対的な位置をしることが難しいという問題がある。   Actually, the movement is instructed using the pointing device, and the position to be viewed is controlled based on the coordinate value obtained from the magnetic sensor attached to the viewer's head, for example. The way to do it is taken. However, this method has a problem that the magnetic sensor is expensive, and if the position of the head changes so much, the head is greatly displaced from the screen, and it is difficult to determine the relative position of yourself in the virtual environment. .

このため、単一の指示装置から、移動および視点位置を操作する方法も検討されている。しかし、移動先を指定するモードと視点位置を指定するモードの切り替えを行う方法の場合、仮想環境内を単一の指示装置を使って移動し、さらに視点位置を変更する場合、操作が煩雑になるという問題点がある。さらに、モード切り返しなしで操作をする場合には、移動をのみを指定したのに、視点位置まで変えてしまうなど、移動と視点位置の変更が影響を与えあい、容易な指示操作ができないという問題もある。また、視点位置を固定すると、対象物に近づいても、視点を対象に向けることができないなどの問題点があった。   For this reason, a method of operating the movement and the viewpoint position from a single pointing device has been studied. However, in the case of the method of switching between the mode for specifying the destination and the mode for specifying the viewpoint position, the operation is complicated when moving in the virtual environment using a single pointing device and further changing the viewpoint position. There is a problem of becoming. In addition, when operating without mode switching, there is a problem that movement and change of viewpoint position affect each other, such as changing to the viewpoint position even though only movement is specified, and easy instruction operation cannot be performed. There is also. Further, when the viewpoint position is fixed, there is a problem that the viewpoint cannot be directed toward the object even when the object is approached.

このように、従来の3次元CGを用いた仮想環境による情報提示方法においては、仮想環境内を移動する際の移動方向を視点位置との関連性を考慮して制御することが容易に行えなかった。   As described above, in the information presentation method based on the virtual environment using the conventional three-dimensional CG, it is not easy to control the moving direction when moving in the virtual environment in consideration of the relationship with the viewpoint position. It was.

仮想環境の描画速度が十分に高速で、例えば、自然な対話を実現するために応答時間の制限が0.1秒である場合には、自由に移動できるようになっていても、目的の対象物に近づくように指示装置を使って操作をすることは、比較的容易である。しかし、たとえば、遠隔地から所定の通信システムを介して仮想環境内の移動を指示する場合は、伝送遅延により応答時間の制限が守れず、描画遅れが生じることとなる。従って、応答が悪く、自由に移動できるようになっていると、かえって、自分の思うとおりの移動をすることが難しく、目的の場所に行き着けないという問題点があった。   If the drawing speed of the virtual environment is sufficiently high, for example, if the response time is limited to 0.1 seconds in order to realize a natural conversation, the target object will be able to move freely. It is relatively easy to operate the pointing device so as to approach the object. However, for example, when a movement in a virtual environment is instructed from a remote location via a predetermined communication system, the response time is not limited due to a transmission delay, and a drawing delay occurs. Therefore, if the response is poor and it is possible to move freely, there is a problem that it is difficult to move as expected and it is difficult to reach the target place.

このような場合には、目的の対象物に容易に近づけるように移動を制限する必要があるが、その制限がきついと、観覧者は自由に移動できないという不満を抱くほど、利用者側の利便性が悪くなる。   In such a case, it is necessary to restrict movement so that it can be easily brought close to the target object, but if the restriction is too tight, the convenience of the user side becomes more complaining that the viewer cannot move freely. Sexuality gets worse.

また、大きなスクリーンに仮想環境を提示し、観覧者に対し、まるで仮想の環境内に入り込んだような情報の提示方法も試みられているが、このような方法では、複数の観覧者が同一の仮想環境を体験する場合、選択された対象の書誌情報を大スクリーン上に提示すると、他の観覧者のじゃまになるという問題も発生している。   In addition, a method of presenting a virtual environment on a large screen and presenting information to a viewer as if entering the virtual environment has been attempted. However, in such a method, a plurality of viewers can share the same information. When experiencing a virtual environment, if bibliographic information of a selected target is presented on a large screen, there is a problem that other viewers get in the way.

また、仮想環境により、対象が生存していたときの状況などは知ることができるが、対象の重さや触覚に働きかけるような情報の提示などはできないという問題点があった。   In addition, the situation when the object is alive can be known from the virtual environment, but there is a problem that it is not possible to present information that acts on the weight or tactile sense of the object.

そこで、本発明は以上のような問題点に鑑みてなされたものであり、3次元CGを用いた仮想環境内を移動する際の視野範囲となるような仮想環境の表示範囲の決定が容易に行え、また、遠隔操作に伴う描画遅れにも対処できる進行方向の補正が可能な情報提示方法およびそれを用いた情報提示装置を提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and it is easy to determine a display range of a virtual environment that becomes a visual field range when moving in a virtual environment using a three-dimensional CG. It is an object of the present invention to provide an information presentation method and an information presentation apparatus using the information presentation method capable of correcting a traveling direction that can be performed and can cope with a drawing delay associated with a remote operation.

本発明は、情報提示の対象となる資料の形状を記憶する資料形状記憶手段と、前記資料が提示される仮想環境の形状を記憶する仮想環境形状記憶手段と、前記仮想環境内の前記資料の配置位置を記憶する配置記憶手段と、前記仮想環境内の現在位置からの進行方向を指示する指示手段とを備え、
前記仮想環境形状記憶手段に記憶された仮想環境の形状と前記配置記憶手段に記憶された配置位置と前記資料記憶手段に記憶された資料の形状とを基に3次元の仮想環境を構成し、
前記仮想環境内の水平面上に、2つの境界線により経路領域の定められた進行経路の一方の境界線と他方の境界線を設定し、
前記指示手段で前記仮想環境内の進行方向を指示し、
前記2つの境界線の間の経路領域内の現在位置から指示された進行方向へ予め定められた歩行速度で移動する場合の前記仮想環境内の次の地点までの前記水平面上での座標の変化分を計算し、
前記次の地点が前記経路領域内であるときには、前記水平面上の前記現在位置の座標に前記変化分を加算することにより前記水平面上の前記次の地点の座標を算出し、前記次の地点が前記経路領域外であるときには、前記次の地点が前記経路領域内となるように前記変化分を減少させるための補正を行った後、前記水平面上の前記現在位置の座標に補正された変化分を加算することにより前記水平面上の前記次の地点の座標を算出し、
前記現在位置の座標値と前記次の地点との間の前記水平面に垂直な方向の座標値の差分、及び前記歩行速度を基に、前記仮想環境内の地表の傾きを算出し、
前記次の地点の前記水平面上の座標及び当該水平面に垂直な方向の座標と、前記指示ステップで指示された進行方向及び前記第2の算出ステップで算出された地表の傾きから定める視線方向とに基づき、前記仮想環境構成手段で構成された仮想環境を描画し、
描画結果を表示手段で表示する。
The present invention includes a material shape storage unit that stores a shape of a material to be presented for information, a virtual environment shape storage unit that stores a shape of a virtual environment in which the material is presented, and a list of the material in the virtual environment. An arrangement storage means for storing the arrangement position; and an instruction means for instructing a traveling direction from the current position in the virtual environment,
Configuring a three-dimensional virtual environment based on the shape of the virtual environment stored in the virtual environment shape storage means, the arrangement position stored in the arrangement storage means, and the shape of the material stored in the material storage means;
On the horizontal plane in the virtual environment, one boundary line and the other boundary line of the travel path defined by the path region are set by two boundary lines,
Instructing the traveling direction in the virtual environment with the instruction means,
Changes in coordinates on the horizontal plane to the next point in the virtual environment when moving at a predetermined walking speed from the current position in the route area between the two boundary lines to the indicated traveling direction Calculate the minutes,
When the next point is within the route region, the coordinates of the next point on the horizontal plane are calculated by adding the change to the coordinates of the current position on the horizontal plane, and the next point is When the position is outside the route area, a correction for reducing the amount of change is performed so that the next point is within the route area, and then the amount of change corrected to the coordinates of the current position on the horizontal plane. To calculate the coordinates of the next point on the horizontal plane,
Based on the difference in coordinate values in the direction perpendicular to the horizontal plane between the coordinate value of the current position and the next point, and the walking speed, the inclination of the ground surface in the virtual environment is calculated,
A coordinate on the horizontal plane of the next point and a coordinate in a direction perpendicular to the horizontal plane; Based on the virtual environment configured by the virtual environment configuration means,
The drawing result is displayed on the display means.

本発明によれば、現在地と進行方向の傾きに沿った視線方向が自動的に決定されるので、進行に従って、視線方向まで指示する必要がなく、ユーザは単純に進む時には、進行方向のみ指示すればよいので、操作を容易にする作用がある。   According to the present invention, since the line-of-sight direction along the current position and the inclination of the traveling direction is automatically determined, there is no need to indicate the line-of-sight direction according to the traveling, and when the user simply proceeds, only the traveling direction is indicated. Therefore, there is an effect of facilitating the operation.

また、ユーザにより指示される進行方向に基づく経路が、あらかじめ定められた進行経路から大きくそれることが防がれ、ユーザが仮想空間内で迷子になる率を大幅に減らすことができ、しかも遠隔操作にて進行方向を指示する場合の描画遅れにも対処できる。   In addition, the route based on the traveling direction instructed by the user is prevented from greatly deviating from the predetermined traveling route, the rate at which the user gets lost in the virtual space can be greatly reduced, and remote It is possible to cope with a drawing delay when the direction of travel is instructed by operation.

以下、本発明の実施形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

まず、第1の実施形態について説明する。   First, the first embodiment will be described.

図1は、第1の実施形態に係る情報提示装置の構成を概略的に示したもので、資料記憶部1、背景記憶部2、配置記憶部3、仮想環境構成部4、歩行指示部5、視線方向決定部6、描画部7から構成される。   FIG. 1 schematically shows the configuration of the information presentation apparatus according to the first embodiment, and includes a material storage unit 1, a background storage unit 2, an arrangement storage unit 3, a virtual environment configuration unit 4, and a walking instruction unit 5. , A line-of-sight direction determination unit 6 and a drawing unit 7.

資料記憶部1には、情報提示の対象となる資料の物理的な形状データが、たとえば、図2に示すようなデータ構造で記憶されている。さらに、各資料についての詳細な情報も記憶されている。   The material storage unit 1 stores the physical shape data of the material that is the subject of information presentation, for example, in a data structure as shown in FIG. Further, detailed information about each material is also stored.

背景記憶部2には、資料記憶部1に記憶されている資料の提示の背景となる仮想環境の形状データを、例えば、ラスタ形式で記憶されている。   The background storage unit 2 stores the virtual environment shape data that is the background of the presentation of the material stored in the material storage unit 1 in, for example, a raster format.

配置記憶部3には、背景記憶部2に記憶された仮想環境における資料記憶部1に記憶された資料の配置位置と向き等を、例えば、x座標、y座標、z座標にて表現して記憶されている。   In the arrangement storage unit 3, the arrangement position and orientation of the material stored in the material storage unit 1 in the virtual environment stored in the background storage unit 2 are expressed by, for example, x coordinate, y coordinate, and z coordinate. It is remembered.

仮想環境構成部4は、背景記憶部2に記憶された仮想環境に対し、配置記憶部3に記憶された配置に沿って、資料記憶部1に記憶された資料を配置することにより3次元の仮想環境を構成するようになっている。   The virtual environment configuration unit 4 arranges the material stored in the material storage unit 1 in accordance with the arrangement stored in the arrangement storage unit 3 with respect to the virtual environment stored in the background storage unit 2, thereby A virtual environment is configured.

歩行指示部5は、例えば、マウス等のポインティングデバイスで、仮想環境構成部4により構成された3次元の仮想環境内における現在位置と進行方向を前進、後進、右回り、左回りのように指示するものである。言い換えれば、仮想環境構成部4により構成された3次元の仮想環境内に仮想的な人物が存在する位置と、その人物が歩行して移動する場合の進行方向を指示するものである。   The walking instruction unit 5 is, for example, a pointing device such as a mouse that instructs the current position and the traveling direction in the three-dimensional virtual environment configured by the virtual environment configuration unit 4 to move forward, backward, clockwise, and counterclockwise. To do. In other words, it indicates the position where a virtual person exists in the three-dimensional virtual environment configured by the virtual environment configuration unit 4 and the traveling direction when the person walks and moves.

視野方向決定部6では、歩行指示部5に指示された現在位置における仮想環境の例えば地形の傾斜等の形状と、同じく歩行指示部5で指示された進行方向を基に、表示範囲を設定するための(仮想的な人物の)視線方向を決定するようになっている。   In the visual field direction determination unit 6, a display range is set based on the shape of the virtual environment at the current position instructed by the walking instruction unit 5, for example, the shape of the terrain, for example, and the traveling direction instructed by the walking instruction unit 5. The line-of-sight direction (for a virtual person) is determined.

描画部7は、歩行指示部5により指示された現在位置と視線方向決定部6により決定された視線方向に基づき、仮想環境構成部4により構成された仮想環境を描画するものである。すなわち、ここで言う描画とは、仮想環境構成部4により構成された3次元の仮想環境内を人が歩いて移動したときに人の視野に入る世界を2次元に投影することである。   The drawing unit 7 draws the virtual environment configured by the virtual environment configuration unit 4 based on the current position specified by the walking instruction unit 5 and the line-of-sight direction determined by the line-of-sight direction determination unit 6. In other words, the drawing referred to here is to project in two dimensions the world that enters the field of view of a person when the person walks and moves within the three-dimensional virtual environment configured by the virtual environment configuration unit 4.

表示部8は、描画部7で仮想環境を描画した結果を表示するためのディスプレイ装置である。   The display unit 8 is a display device for displaying the result of drawing the virtual environment by the drawing unit 7.

図2は、資料記憶部1の資料の形状データの記憶例を示したもので、資料(以下、オブジェクトと呼ぶこともある)ごとにその形状データが記憶されている。例えば、「アンモナイト化石」のように、複雑な形状の場合には、その表面をおおう多角形(ポリゴン)の頂点座標の系列を記憶する。一方、「柱」の場合には、単純な図形の円柱で構成できるが、その場合には、あらかじめ基本となる円柱の形状を記憶しておき、図2にあるように、例えば、形状属性として「円柱」(円柱shape)と、基本となる円柱に対する縮尺率(lx、ly、lz)を記憶する。   FIG. 2 shows an example of storage of the shape data of the material in the material storage unit 1, and the shape data is stored for each material (hereinafter also referred to as an object). For example, in the case of a complicated shape such as “ammonite fossil”, a series of vertex coordinates of a polygon (polygon) covering the surface is stored. On the other hand, in the case of “pillar”, it can be configured by a simple figure cylinder. In that case, the shape of a basic cylinder is stored in advance, and as shown in FIG. The “cylinder” (cylinder shape) and the scale ratio (lx, ly, lz) for the basic cylinder are stored.

なお、図2では、資料の形状データをテーブル形式にて記憶するようになっているが、この場合に限らず、各資料の形状データをリスト等にて管理することも可能である。   In FIG. 2, the shape data of the material is stored in the form of a table. However, the present invention is not limited to this, and the shape data of each material can be managed in a list or the like.

仮想環境構成部4は、資料記憶部1に記憶されたオブジェクトを背景記憶部2に記憶された環境の上に、配置記憶部3に記憶された配置座標に基づいた配置をおこなう。これにより、仮想環境が設定される。その結果は、描画部7により、レンダリングされ、たとえば、スクリーン上などに表示される。仮想環境構成部4が構成した仮想環境は3次元世界である。これに対し、描画部7で描画される結果は2次元世界である。3次元世界から2次元世界への投影は、歩行指示部5により指示された仮想環境内での現在位置と視線方向決定部6により決定された視線方向により行われる。つまり、現在位置にカメラが設定され、視線方向のむきにカメラのレンズがむいた状態が2次元世界として描画されるのである。   The virtual environment configuration unit 4 arranges the object stored in the material storage unit 1 on the environment stored in the background storage unit 2 based on the arrangement coordinates stored in the arrangement storage unit 3. Thereby, a virtual environment is set. The result is rendered by the drawing unit 7 and displayed on a screen, for example. The virtual environment configured by the virtual environment configuration unit 4 is a three-dimensional world. On the other hand, the result drawn by the drawing unit 7 is a two-dimensional world. Projection from the three-dimensional world to the two-dimensional world is performed based on the current position in the virtual environment designated by the walking instruction unit 5 and the line-of-sight direction determined by the line-of-sight direction determination unit 6. That is, a state where the camera is set at the current position and the camera lens is peeled off in the direction of the line of sight is rendered as a two-dimensional world.

この現在位置を自由に変えることで丁度、カメラから3次元世界をのぞき込んでいるような状態で、3次元世界である仮想環境の中を自由に歩き回ること(ウオークスルー)ができる。このとき、現在位置が変わっても、カメラの向きが変わらないと、とんでもないところをみながらウオークスルーすることになっておしまう。この問題を解決する手段が視線方向決定部6である。   By freely changing the current position, it is possible to walk freely in the virtual environment that is the three-dimensional world (walk-through) just as if looking into the three-dimensional world from the camera. At this time, even if the current position changes, if the direction of the camera does not change, you will walk through while looking at the outrageous part. The means for solving this problem is the line-of-sight direction determination unit 6.

次に、視線方向決定部6の処理動作を図3に示すフローチャートを参照して説明する。   Next, the processing operation of the line-of-sight direction determination unit 6 will be described with reference to the flowchart shown in FIG.

まず、初期設定の一つとしてステップS1でウオークスルーにより仮想環境内を歩く速さを設定する。ここでは、仮にフレーム更新あたりの速度をvとする。次に、ステップS2で現在地の座標を設定する。これは、フレームの更新ごとに更新されたり、歩行指示部5で指示された位置となるが、仮に(tx、ty、tz)とする。次に歩行指示部5を用いて指示された進行方向を得る。たとえば、ポインティングデバイス(位置指示装置)としてマウスを用いた指示であれば、マウスを前方に進めれば前進、後方に進めれば後進として左右のずれを、それまでの進行方向からのずれの角度θとするように設定できる。3次元ポインタやジョイスティックなど他の位置指示装置を用いた場合にも同様に設定できる。なお、歩行の進行方向の指示は、水平面(例えば3次元世界の地表面に平行なxz平面)に対してのみ有効である。垂直方向に対する指示は、この場合は無視する。ここでは、仮想環境における歩行を前提としているので、あくまでも地表(あるいは歩行面)を歩いている。従って、単純な歩行移動において、垂直方向に移動するということはありえないので、無視している。ただし、異なる視点からみるための仮想的な移動をおこなう場合もあるが、ここでは、そのような場合は、歩行移動とは異なる指示方向をとると仮定している。   First, as one of the initial settings, the speed of walking in the virtual environment is set by walkthrough in step S1. Here, it is assumed that the speed per frame update is v. Next, the coordinates of the current location are set in step S2. This is the position updated every time the frame is updated or the position specified by the walking instruction unit 5, but is assumed to be (tx, ty, tz). Next, the traveling direction instructed using the walking instruction unit 5 is obtained. For example, in the case of an instruction using a mouse as a pointing device (position indicating device), if the mouse is moved forward, it will move forward, if it moves backward, it will move left and right as backward, and the angle of deviation from the previous traveling direction It can be set to be θ. The same setting can be made when another position indicating device such as a three-dimensional pointer or a joystick is used. Note that the direction of the walking direction is valid only for a horizontal plane (for example, an xz plane parallel to the ground surface of the three-dimensional world). The indication for the vertical direction is ignored in this case. Here, since it is premised on walking in a virtual environment, it is walking on the ground surface (or walking surface) to the last. Therefore, since it is impossible to move in the vertical direction in simple walking movement, it is ignored. However, there is a case where a virtual movement for viewing from a different viewpoint is performed, but here, in such a case, it is assumed that an instruction direction different from the walking movement is taken.

次に速さvと指示された進行方向から、一定時間(ここでは1フレーム)後の地点の座標値を計算する(ステップS4)。進行方向から得られるのはx座標とz座標のみである。   Next, a coordinate value of a point after a certain period of time (here, one frame) is calculated from the direction of travel designated as speed v (step S4). Only the x and z coordinates can be obtained from the direction of travel.

その結果、x座標値は、(tx±vcosθ)、z座標値は(tz±vsinθ)をとなる。前進の場合は「+」であり、後進の場合は「−」である。   As a result, the x coordinate value becomes (tx ± v cos θ), and the z coordinate value becomes (tz ± v sin θ). “+” For forward travel and “−” for reverse travel.

ステップS4で得られた座標値をもとに、仮想環境構成部4にて、仮想環境内で、このx座標とz座標値に対応するy座標ty′を得る(ステップS5)。   Based on the coordinate values obtained in step S4, the virtual environment configuration unit 4 obtains y coordinates ty ′ corresponding to the x and z coordinate values in the virtual environment (step S5).

ここまでのステップで現在位置と次の地点の座標値が求まったので、ステップS6では、この現在位置と次の地点の座標値から仮想環境の地表の傾きδを(1)式から算出する。   Since the coordinate values of the current position and the next point are obtained in the steps so far, in step S6, the inclination δ of the ground surface of the virtual environment is calculated from the equation (1) from the coordinate values of the current position and the next point.

δ=arctan(|ty−ty′|/v) …(1)
視線方向に関しては、歩行指示部5で指示された進行方向θがxz平面での角度を表現し、傾きδが、垂直方向の角度を表しているので、これをあわせて視線方向(θ、δ)として設定する。
δ = arctan (| ty-ty ′ | / v) (1)
Regarding the line-of-sight direction, the traveling direction θ instructed by the walking instruction unit 5 represents the angle in the xz plane, and the inclination δ represents the angle in the vertical direction. ).

以降、次の地点を現地点に更新して、ステップS1からステップS7を繰り返す。このことにより、仮想環境内における現在位置から指示された進行方向での地表面の傾きにあわせた視線方向を設定できる。   Thereafter, the next point is updated to the local point, and Steps S1 to S7 are repeated. Thus, it is possible to set the line-of-sight direction in accordance with the inclination of the ground surface in the traveling direction indicated from the current position in the virtual environment.

次に、図4を参照して、図3に示した視線方向の決定処理動作を具体的に説明する。   Next, the line-of-sight direction determination processing operation shown in FIG. 3 will be specifically described with reference to FIG.

図4(a)は、xz平面での新旧の進行方向の関係を示している。点線が旧い方向で、実線が歩行指示部5により指示された新しい進行方向である。新しい進行方向にあわせるために、視線方向とθを変更する必要がある。   FIG. 4A shows the relationship between the old and new traveling directions on the xz plane. The dotted line is the old direction, and the solid line is the new traveling direction instructed by the walking instruction unit 5. In order to adjust to the new direction of travel, it is necessary to change the viewing direction and θ.

そこで、図4(b)に示すように、xy平面での仮想環境の地表面の傾きにあわせて視線方向が設定される。つまり、現地点(tx、ty、tz)から地表面の傾きを考慮しないときの視線方向は、図4(b)の点線で示す方向で、単純に水平方向をみるだけである。これでは、地表の傾きが急な場合は、眼前にある地表面しか見えないが、実線で示す方向のように、地表面の傾きδ分だけ傾けることで、地表面に対して平行な視線方向になるので、進んでいく方向を無理なく見えるようになる。   Therefore, as shown in FIG. 4B, the line-of-sight direction is set in accordance with the inclination of the ground surface of the virtual environment on the xy plane. That is, the line-of-sight direction when the inclination of the ground surface from the local point (tx, ty, tz) is not considered is the direction indicated by the dotted line in FIG. In this case, when the ground surface is steep, only the ground surface in front of the eyes can be seen, but the direction of the line of sight parallel to the ground surface can be obtained by tilting the ground surface by the slope δ as shown by the solid line. So that you can see the direction you are going.

視線方向に進路の地表にあわせた修正がない場合、すなわち、図4(a)および(b)における点線で示された視線方向の場合に視野にはいる仮想環境は、例えば、図5(a)に示すように、足下ばかり見るようなものとなっているので、ほとんど地面しか視野にはいっていない。   When there is no correction according to the ground surface of the course in the line-of-sight direction, that is, in the case of the line-of-sight direction indicated by the dotted line in FIGS. 4A and 4B, the virtual environment in the visual field is, for example, FIG. ) As you can see only under your feet, almost only the ground is in view.

これに対し、視線方向が進路の地表にあわせて修正された場合、図5(b)に示すように、地表面に対して平行な視線方向が維持できるので、ユーザからすれば仮想環境内をまるで歩行しているように、何ら違和感なく視点の移動が行われたことになる。そして、例えば、仮想環境内を飛ぶ昆虫類の化石を見ながら進めるようになることがわかる。   On the other hand, when the line-of-sight direction is corrected according to the ground surface of the course, the line-of-sight direction parallel to the ground surface can be maintained as shown in FIG. The viewpoint moves without any sense of incongruity as if walking. Then, for example, it can be seen that the user proceeds while watching fossils of insects flying in the virtual environment.

また、この状態で、歩行指示部5から説明提示の指示が与えられると、仮想環境構成部4は、ほぼ視野の中央にあるオブジェクト(例えば、図5(b)の場合、昆虫の化石)に対応して資料記憶部1に記憶されている詳細情報を読み出して、それを表示部8に表示する。   Further, in this state, when an instruction for presentation is given from the walking instruction unit 5, the virtual environment configuration unit 4 applies to an object (for example, an insect fossil in the case of FIG. 5B) that is substantially in the center of the visual field. Correspondingly, the detailed information stored in the material storage unit 1 is read and displayed on the display unit 8.

以上、説明したように、上記第1の実施形態によれば、ユーザは、現在位置から所望の進行方向を歩行指示部5から指示するだけで、視線方向は視線方向決定部6において、進行方向の地表の傾きに平行に、すなわち、地表が上り坂であれば上方を、下り坂であれば下方をみるように自動的に決定されるので、ユーザからすれば何ら違和感なく視点の移動が行われたことになり、ちょうど、実際に地表を歩いているときのように、足下は傾いていても、視線は地表に対して水平にしている状態を、仮想環境においても容易に再現できる。また、仮想環境内の地形に合わせて、視線方向の修正をおこなうことで、歩行指示部5からは基本的に進行方向を指定するだけになるのでユーザの操作負担を軽減できる。   As described above, according to the first embodiment, the user simply indicates the desired traveling direction from the current position from the walking instruction unit 5, and the visual line direction is determined by the visual line direction determining unit 6. It is automatically determined so that it is parallel to the slope of the ground surface, that is, when the ground surface is uphill, it is automatically determined to look upward, and when it is downhill, it is determined to look downward. This means that even if you are actually walking on the surface of the earth, you can easily reproduce the situation in which the line of sight is level with respect to the surface of the earth, even in the virtual environment. In addition, by correcting the line-of-sight direction according to the terrain in the virtual environment, the walking instruction unit 5 basically designates the traveling direction, so that the operation burden on the user can be reduced.

なお、上記第1の実施形態では、歩行指示部5は、水平面での角度θと進行方向のみを与えるようにしているが、かならずしもこれに限定されるものではない。たとえば、図3の処理動作により求められた視線方向に対して、若干上向き、あるいは下向きの視線方向の垂直面での角度の微調整ができるようにすることも可能である。この場合の処理動作の具体例を図6に示す。   In the first embodiment, the walking instruction unit 5 gives only the angle θ on the horizontal plane and the traveling direction. However, the present invention is not limited to this. For example, it is possible to finely adjust the angle on the vertical plane of the line-of-sight direction slightly upward or downward with respect to the line-of-sight direction obtained by the processing operation of FIG. A specific example of the processing operation in this case is shown in FIG.

図6に示すフローチャートは、図3に示したフローチャートのステップS7がステップS8、ステップS9に置き換えられ、その他の部分は、図3と同一である。すなわち、図6のステップS8では、歩行指示部5で指示された垂直平面での傾きδ´を例えば、背景記憶部2から読み出して、ステップS6で求められた傾きδにδ´を加算して、視線方向(θ、δ+δ´)と決定する(ステップS9)。   In the flowchart shown in FIG. 6, step S7 in the flowchart shown in FIG. 3 is replaced with steps S8 and S9, and other parts are the same as those in FIG. That is, in step S8 of FIG. 6, the inclination δ ′ on the vertical plane instructed by the walking instruction unit 5 is read from, for example, the background storage unit 2, and δ ′ is added to the inclination δ obtained in step S6. The line-of-sight direction (θ, δ + δ ′) is determined (step S9).

これにより、背景記憶部2に記憶された背景は、季節に応じて変形することも可能である。たとえば、冬であれば、雪が降ったり情景を、秋であれば、落ち葉が地面につもった情景に応じた垂直面の微調整用の角度δ´を記憶しておき、これを切り替えることで、季節感を表現することができる。   Thereby, the background memorize | stored in the background memory | storage part 2 can also be changed according to a season. For example, in winter, it is snowing or scenes, and in autumn, the vertical angle δ ′ for fine adjustment according to the scene where the fallen leaves are connected to the ground is memorized. A feeling of the season can be expressed.

さらに、どのような仮想環境を提示するか、例えば、地形などはユーザが選択できるようにすることも可能である。   Furthermore, it is possible to allow the user to select what virtual environment is presented, for example, the terrain.

次に、第2の実施形態について説明する。   Next, a second embodiment will be described.

ここでは、仮想環境内でユーザが所望の資料(展示対象物)に容易に近づけるようにするための経路制御を行う情報提示装置について説明する。   Here, an information presentation apparatus that performs route control for allowing a user to easily approach a desired material (exhibit object) in a virtual environment will be described.

図7は、第2の実施形態に係る情報提示装置の構成を概略的に示したもので、資料記憶部1、背景記憶部2、配置記憶部3、仮想環境構成部4、歩行指示部5、経路制御決定部9、描画部7、表示部8から構成される。なお、図7において、図1と同一部分には同一符号を付し、異なる部分についてのみ説明する。   FIG. 7 schematically shows the configuration of the information presentation apparatus according to the second embodiment. The information storage unit 1, the background storage unit 2, the arrangement storage unit 3, the virtual environment configuration unit 4, and the walking instruction unit 5 are shown. , A route control determination unit 9, a drawing unit 7, and a display unit 8. In FIG. 7, the same parts as those in FIG. 1 are denoted by the same reference numerals, and only different parts will be described.

すなわち、新たに追加された経路制御決定部9には、仮想環境構成部4で構成される仮想環境内のあらかじめ定められた進行可能な経路を記憶されていて、仮想環境内の展示対象物に容易に近づけるように、歩行指示部5から指示された進行方向に基づく進行経路が、そのあらかじめ定められた進行経路からはずれないよう制御を行うものである。   In other words, the newly added route control determination unit 9 stores a predetermined advancing route in the virtual environment configured by the virtual environment configuration unit 4, and displays it in the virtual environment as an exhibition object. Control is performed so that the traveling path based on the traveling direction instructed from the walking instruction unit 5 does not deviate from the predetermined traveling path so as to be easily approached.

また、歩行指示部5から指示される仮想環境内の位置、進行方向等情報は、所定の通信システムを介して本体である情報提示装置に送信することも可能である。   Further, information such as the position in the virtual environment and the traveling direction instructed from the walking instruction unit 5 can be transmitted to the information presentation apparatus as the main body via a predetermined communication system.

次に、図8に示すフローチャートを参照して、経路制御決定部9の処理動作について説明する。   Next, the processing operation of the route control determination unit 9 will be described with reference to the flowchart shown in FIG.

まず、あらかじめ定められた進行可能な経路のxz平面における一方の経路境界R(x、z)=0と他方の経路境界L(x、z)=0を設定する(ステップS10)。図9に、あらかじめ定められた進行経路の具体例を示す。なお図9では簡単のため経路境界は直線で表している。   First, one route boundary R (x, z) = 0 and the other route boundary L (x, z) = 0 in the xz plane of a predetermined advanceable route are set (step S10). FIG. 9 shows a specific example of a predetermined traveling path. In FIG. 9, the route boundary is represented by a straight line for simplicity.

次に、歩行指示部5の指示に応じて(ステップS11)、図9に示すように、ウオークスルーを開始する地点ST(sx、sy、sz)を設定し(ステップS12)、歩行指示部5より指示されたxz平面内での進行方向(図9の実線の矢印)をあらかじめ定められた歩行速度vに基づき変化分dx、dzとして得る(ステップS13)。   Next, in response to an instruction from the walking instruction unit 5 (step S11), as shown in FIG. 9, a point ST (sx, sy, sz) at which walk-through is started is set (step S12), and the walking instruction unit 5 is set. The direction of travel in the xz plane instructed (solid arrow in FIG. 9) is obtained as changes dx and dz based on a predetermined walking speed v (step S13).

次に、開始地点からこのdx、dz分進んだ地点が、図9の一方の経路境界R(x、z)と他方の経路境界L(x、z)の間の経路領域内に含まれているのかを判定する(ステップS14)。すなわち、経路内であれば、
R(sx+dx、sz+dz)L(sx+dx、sz+dz)<0 …(2)
を満たすので、この(2)式を条件式として判定を行えばよい。
Next, the point advanced by dx and dz from the start point is included in the route region between one route boundary R (x, z) and the other route boundary L (x, z) in FIG. Is determined (step S14). In other words,
R (sx + dx, sz + dz) L (sx + dx, sz + dz) <0 (2)
Therefore, this equation (2) may be determined as a conditional expression.

(2)式を満足しない場合(例えば、移動先の地点が図9の点P2の地点)は、ステップS15に進み、変化分dx、dzを減少させるように制御する。例えば、変化分dx、dzのそれぞれに1より小さい定数kを乗じたものを新たに変化分dx、dzとすることにより変化分を減少する((3)式)。   When the expression (2) is not satisfied (for example, the destination point is the point P2 in FIG. 9), the process proceeds to step S15, and control is performed so as to decrease the changes dx and dz. For example, the change amount is reduced by multiplying each of the change amounts dx and dz by a constant k smaller than 1 as the change amounts dx and dz (Equation (3)).

dx←kdx、dz←kdz(0<k<1) …(3)
なお、変化分の制御方法は一定数を減じるような方法でもよい。このステップS15の操作により、図9の移動先の地点P2がP2′に変更になる。
dx ← kdx, dz ← kdz (0 <k <1) (3)
Note that the method for controlling the amount of change may be a method of reducing a certain number. By the operation in step S15, the destination point P2 in FIG. 9 is changed to P2 ′.

さらに、この減少した変化分進んだ地点が経路内に含まれているかどうかをステップS14に戻って再び判定を行う。もし、含まれていなければ、再度ステップS15で変化分を減じ、変化分が経路内に含まれるまでステップS14〜ステップS15を繰り返す。なお、一定回数減じる操作を繰り返したにもかかわらず、経路内に含まれない場合には、強制的にdx、dzを0にすることも可能である。   Furthermore, it returns to step S14 and it determines again whether the point advanced by the reduced change is included in the route. If not, the change is reduced again in step S15, and steps S14 to S15 are repeated until the change is included in the route. It should be noted that dx and dz can be forcibly set to 0 if they are not included in the route even though the operation of decreasing the number of times is repeated.

図9の点P2′に関しては、ステップS14に戻った時点で、経路内に含まれているので、次に、ステップS16に進む。また点P1の場合は、dx、dzの変化分が大きくなく、最初から経路内に含まれているので、ステップS15に進まずに直にステップS16に進む。   Since the point P2 ′ in FIG. 9 is included in the path when returning to step S14, the process proceeds to step S16. In the case of the point P1, since the change amount of dx and dz is not large and is included in the route from the beginning, the process proceeds directly to step S16 without proceeding to step S15.

最終的に経路内に含まれるようになると、移動先のxz平面上の座標(sx+dx、sz+dz)を決定して、ステップS16で、仮想環境構成部4にて、そその移動先である次の地点のy座標sy′を得る。すなわち、図9の地点P1あるいはP2′に対応するy座標を得る。   When finally included in the route, coordinates (sx + dx, sz + dz) on the xz plane of the movement destination are determined, and in step S16, the virtual environment configuration unit 4 determines the next movement destination. The y coordinate sy ′ of the point is obtained. That is, the y coordinate corresponding to the point P1 or P2 ′ in FIG. 9 is obtained.

さらに、ステップS17に進み、この値を新たな地点とし、ステップS12に戻り、ステップS12〜ステップS17の処理を繰り返す。すなわち、図9のP1あるいはP2′を開始点として、ステップS11以降の処理を繰り返す。   Furthermore, it progresses to step S17, makes this value a new point, returns to step S12, and repeats the process of step S12-step S17. That is, the process after step S11 is repeated with P1 or P2 'in FIG. 9 as a starting point.

以上説明したように、上記第2の実施形態によれば、歩行指示部5から進行方向を指示する際に、たとえば、所定の通信システムを介して伝送に時間がかかる遠距離にある本体の情報提示装置の仮想環境にアクセスしていて、応答時間が遅くて、歩行の指示をしすぎる可能性が高く、目的の対象物への接近が非常に困難な場合でも、経路制御決定部9において、歩行指示部5から指示された進行方向に基づく進行経路をあらかじめ定められた仮想環境内の進行経路からはずれないよう制御することにより、ユーザは、意識せずに、あらかじめ定められた一定の進行経路からはみ出すことがないので、容易に目的の対象物に接近できる。   As described above, according to the second embodiment, when the direction of travel is instructed from the walking instruction unit 5, for example, information on a main body at a long distance that takes time to transmit via a predetermined communication system Even when accessing the virtual environment of the presentation device, the response time is slow, there is a high possibility of giving too much instruction to walk, and even when it is very difficult to approach the target object, the route control determining unit 9 By controlling the travel route based on the travel direction instructed from the walking instruction unit 5 so as not to deviate from the travel route in the predetermined virtual environment, the user is unaware of the constant travel route determined in advance. Since it does not stick out, it can easily approach the target object.

また、経路制御決定部9で進行経路の制御を行うことにより、ユーザは、情報提示装置にてあらかじめ定められた進行経路から大幅にはずれることがないので、経路付近以外の仮想環境部分は、形状を簡易化でき、従って、データ量の軽減とデータ作りの軽減もはかることができる。   Further, by controlling the travel route by the route control determination unit 9, the user does not greatly deviate from the travel route determined in advance by the information presentation device. Therefore, it is possible to reduce the amount of data and the creation of data.

なお、上記第2の実施形態において、経路をはずれた場合の修正係数kは、固定であったが、必ずしもこれに限定されるものではない。たとえば、前述の第1の実施形態の場合のように、季節に応じて背景が変化し、たとえば、冬で雪が降っている状況では、経路とその周囲も白く表示されることになるので、経路境界がわかりにくく、経路がみえにくい状況が発生するが、このような場合には、修正係数kを小さめにすることで、あらかじめ定められた進行経路から一層はずれにくくするようにすることも可能である。   In the second embodiment, the correction coefficient k when the route is deviated is fixed, but is not necessarily limited to this. For example, as in the case of the first embodiment described above, the background changes according to the season. For example, in a situation where it is snowing in winter, the route and its surroundings are also displayed in white. The situation where the boundary is difficult to understand and the route is difficult to see occurs. In such a case, it is possible to make it difficult to deviate from the predetermined traveling route by reducing the correction coefficient k. is there.

次に、第3の実施形態について説明する。   Next, a third embodiment will be described.

上記第1、第2の実施形態では、ともに、仮想環境が表示されているディスプレイ装置の表示画面(表示部8)に向かって指示をするような設定である。この方法では、画面に表示されているのは、仮想環境構成部4で構成される3次元の仮想環境内のある視点から見える範囲の視野である。このため、仮想環境内でどこにいるか不明になりやすいことが問題になっている。また、博物館などでの使用を仮定したときに、一度にある一人の視野しか表示できないため、他の観覧者は、自分以外の視野で見るという不自然な状態が発生する。そこで、第3の実施態として、このような問題点を解決する情報提示方法およびこの情報提示方法を用いた情報提示装置について説明する。   In both the first and second embodiments, the setting is such that an instruction is given toward the display screen (display unit 8) of the display device on which the virtual environment is displayed. In this method, what is displayed on the screen is a visual field in a range visible from a certain viewpoint in the three-dimensional virtual environment configured by the virtual environment configuration unit 4. For this reason, it is a problem that it is difficult to know where in the virtual environment. Further, when it is assumed to be used in a museum or the like, only one person's field of view can be displayed at a time, so that an unnatural state occurs in which other viewers view with a field of view other than their own. Therefore, as a third embodiment, an information presentation method for solving such problems and an information presentation device using this information presentation method will be described.

図10は、第3の実施形態に係る情報提示装置の構成を概略的に示したもので、
資料記憶部1、背景記憶部2、配置記憶部3、仮想環境構成部4、歩行指示部5、経路制御決定部9、描画部7、表示部8、手元操作部10から構成される。なお、図10において、図1と同一部分には同一符号を付し、異なる部分についてのみ説明する。すなわち、新たに手元操作部10が追加され、表示部8は、例えば、部屋の周囲を大スクリーンで取り囲むような形態のものであってもよい。
FIG. 10 schematically shows the configuration of the information presentation apparatus according to the third embodiment.
The document storage unit 1, the background storage unit 2, the arrangement storage unit 3, the virtual environment configuration unit 4, the walking instruction unit 5, the route control determination unit 9, the drawing unit 7, the display unit 8, and the hand operation unit 10 are configured. 10, the same parts as those in FIG. 1 are denoted by the same reference numerals, and only different parts will be described. That is, the hand operating unit 10 is newly added, and the display unit 8 may be configured to surround the room with a large screen, for example.

次に、図11を参照して手元操作部10について説明する。   Next, the hand operation unit 10 will be described with reference to FIG.

手元操作部10は、各ユーザMが所持するもので、表示部8にてユーザMの周囲に仮想環境が表示されると、ユーザMの位置を仮想環境内の3次元的な位置として検知し、ユーザMの指示に応じて、そのユーザMの視野内の資料等の情報提示を行うものである。   The hand operation unit 10 is possessed by each user M, and when the virtual environment is displayed around the user M on the display unit 8, the position of the user M is detected as a three-dimensional position in the virtual environment. In response to an instruction from the user M, information such as materials in the field of view of the user M is presented.

図11において、手元操作部10は、ディスプレイ100と、説明の表示指示等を行う指示ボタン101と、仮想環境内でのユーザMの3次元的な位置を検知するための磁気などによる位置センサ102と、仮想環境構成部4と例えば無線によりデータの送受信をするための送受信部103とから構成されている。ユーザは、ひとり1台手元操作部10を持ち、表示部8で周囲に表示された仮想環境内を歩き回る。仮想環境は、例えば、図11のように、3次元の仮想環境が描画されて、その描画結果が周囲の大スクリーンに表示された古代の海中の様子である。   In FIG. 11, the hand operation unit 10 includes a display 100, an instruction button 101 for giving a description display instruction, and a position sensor 102 by magnetism for detecting the three-dimensional position of the user M in the virtual environment. And a virtual environment configuration unit 4 and, for example, a transmission / reception unit 103 for transmitting and receiving data wirelessly. Each user has one operation unit 10 at hand and walks around in the virtual environment displayed on the display unit 8. The virtual environment is an ancient underwater state in which, for example, as shown in FIG. 11, a three-dimensional virtual environment is drawn and the drawing result is displayed on the surrounding large screen.

ユーザMがどこに位置するかは、手元操作部10の位置センサ102がセンスし、それを送受信部103が仮想環境構成部4にx、y、zの座標値の組として伝える。   The position sensor 102 of the hand operation unit 10 senses where the user M is located, and the transmission / reception unit 103 notifies the virtual environment configuration unit 4 as a set of coordinate values of x, y, and z.

次に、図12に示すフローチャートを参照して手元操作部10を用いるときの処理動作で、特に、仮想環境構成部4を中心とした処理動作について説明する。   Next, processing operations when using the hand operating unit 10 with reference to the flowchart shown in FIG. 12, particularly processing operations centered on the virtual environment configuration unit 4 will be described.

まずステップS20で、位置センサ102の位置を初期化する。次に位置センサ102で得られたユーザMの仮想環境内における現在の座標値(rx、ry、rz)が送受信部104から仮想環境構成部4に送信される(ステップS21)。   First, in step S20, the position of the position sensor 102 is initialized. Next, the current coordinate values (rx, ry, rz) in the virtual environment of the user M obtained by the position sensor 102 are transmitted from the transmission / reception unit 104 to the virtual environment configuration unit 4 (step S21).

次に、ステップS22では得られた座標値(rx、ry、rz)を中心とする視野(たとえば、有効視野である上下左右20度)を設定し、その視野にどのオブジェクトが含まれるかを判定する。   Next, in step S22, a field of view (for example, 20 degrees up / down / left / right which is an effective field of view) around the obtained coordinate values (rx, ry, rz) is set, and it is determined which object is included in the field of view. To do.

そして、ステップS23では、描画部7において、判定したオブジェクトを描画し、その描画結果としての画像データを手元操作部10に送り、ディスプレイ100に描画する。   In step S23, the drawing unit 7 draws the determined object, sends image data as a drawing result to the hand operation unit 10, and draws the image on the display 100.

なお、手元操作部10の送受信の能力が低い場合には、仮想環境構成部4では、画像データを圧縮してから伝送することも可能である。この場合には、手元操作部10には、元の画像に復号するための画像復号化部が別途必要である。   Note that when the transmission / reception capability of the hand operation unit 10 is low, the virtual environment configuration unit 4 can also transmit the image data after compressing it. In this case, the hand operation unit 10 requires a separate image decoding unit for decoding the original image.

ユーザが手元操作部10のディスプレイ100に表示されているオブジェクトの説明を知りたい場合には、その旨を指示ボタン101を押下することにより指示する(ステップS24)。   When the user wants to know the description of the object displayed on the display 100 of the hand operation unit 10, he / she is instructed by pressing the instruction button 101 (step S24).

この説明表示の指示があったときは、ステップS25に進み、仮想環境構成部4は手元操作部10のディスプレイ100の中央に表示されているオブジェクトの説明が求められたと解釈し、まず、中央値(rx、ry、rz)にもっとも近いオブジェクトを探索する。そして、探索されたオブジェクトの説明(通常はテキスト)を資料記憶部1から読み出して手元操作部10に送信する。手元操作部10は受信したテキストをたとえば、図11に示したようにディスプレイ100にすでに描画しているオブジェクトに重なるように別のウインドウを用いて、描画する(ステップS26)。このとき、テキストだけでなく、音声によるナレーションを送ることも可能である。この場合には、手元操作部10にスピーカが必要である。   When there is an instruction to display this explanation, the process proceeds to step S25, where the virtual environment configuration unit 4 interprets that an explanation of the object displayed at the center of the display 100 of the hand operation unit 10 has been obtained. The object closest to (rx, ry, rz) is searched. Then, the description (usually text) of the searched object is read from the material storage unit 1 and transmitted to the hand operation unit 10. The hand operating unit 10 draws the received text using another window so as to overlap the object already drawn on the display 100 as shown in FIG. 11 (step S26). At this time, not only text but also voice narration can be sent. In this case, a speaker is required for the hand operating unit 10.

説明の指示を始めた時刻から計測し、一定時間がすぎると、説明の表示を終えるようにする(ステップS27)。あるいは、ユーザが指示ボタン102を押すことにより、説明の提示を終えるようにすることも可能である。   The measurement is started from the time when the instruction of the explanation is started, and the display of the explanation is finished when a certain time has passed (step S27). Alternatively, the presentation of the explanation can be ended by the user pressing the instruction button 102.

説明の提示を終了すると、再び、ステップS21にもどり、ユーザの位置を得て、以下、ステップS22〜ステップS27までの処理を繰り返す。   When the presentation of the explanation is finished, the process returns to step S21 again to obtain the position of the user, and the processes from step S22 to step S27 are repeated thereafter.

以上説明したように、上記第3の実施形態によれば、各ユーザが手元操作部10を用いることにより、複数のユーザが表示部8表示された1つの仮想環境を共有して、なおかつ個々のユーザが自分の得たいオブジェクトの説明を随時得ることができる。このとき、説明は説明表示の要求をしたユーザの手元操作部10にのみ表示されるので、他のユーザのじゃまをすることがない。   As described above, according to the third embodiment, each user uses the hand operation unit 10, so that a plurality of users can share one virtual environment displayed on the display unit 8, and each user can The user can obtain an explanation of the object he wants to obtain at any time. At this time, the explanation is displayed only on the hand operating unit 10 of the user who requested the explanation display, so that other users are not disturbed.

なお、手元操作部10に表示される説明は概要と詳細のようにレベル分けしておき、最初の説明表示指示に対しては概要のみ、さらに説明指示ボタン102が押されたときには、詳細(たとえば、動画による生態の説明など)を表示するようにすることも可能である。   The explanation displayed on the hand control unit 10 is classified into levels such as outline and detail, only the outline is given for the first explanation display instruction, and when the explanation instruction button 102 is further pressed, details (for example, It is also possible to display an explanation of the ecology through a video).

また、単に、文字や動画、音声だけでなく、図13に示すように、力フィードバック部11と手元操作部10を組み合わせた構成により、オブジェクトにさわったと想定したときの重量を力として帰すことも可能である。具体的には、図14に示すように、力フィードバック部11のアーム11bに手元操作部10を接続する構成になる。   Further, not only characters, moving images, and voices but also the weight when it is assumed that the object is touched can be attributed to the force by the combination of the force feedback unit 11 and the hand operation unit 10 as shown in FIG. Is possible. Specifically, as shown in FIG. 14, the hand operating unit 10 is connected to the arm 11 b of the force feedback unit 11.

このような構成において、たとえば、手元操作部10の指示ボタン101から説明表示の指示があったときには、仮想環境構成部4は、そのオブジェクトの説明と重さの情報を資料記憶部1から読み出して手元操作部10に送る。手元操作部10は、さらに重さの情報を力フィードバック部11に送り、制御部11aの制御のもと、トルク発生部11cで重さに応じたトルクを発生して、そのトルクをアーム11bを介して手元操作部10にかけることにより、ユーザは実際にそのオブジェクトを持ち上げたような体験ができるようになっている。   In such a configuration, for example, when there is an instruction to display an explanation from the instruction button 101 of the hand operation unit 10, the virtual environment configuration unit 4 reads out the description and weight information of the object from the material storage unit 1. This is sent to the local operation unit 10. The hand operating unit 10 further sends weight information to the force feedback unit 11, and under the control of the control unit 11a, the torque generating unit 11c generates a torque corresponding to the weight, and the torque is transmitted to the arm 11b. The user can experience that the object is actually lifted by being applied to the hand operation unit 10 via the hand.

さらに、図13に示すように、触覚フィードバック部12を付加することにより、オブジェクトの表面の荒さなどを体験できるようにすることもできる。具体的には、図15に示すように、触覚フィードバック部12は手元操作部10に組み込まれて構成される。このような構成により、たとえば、指示ボタン102から説明表示の指示があったときには、仮想環境構成部4は、そのオブジェクトの説明と表面の荒さ等の触覚情報を資料記憶部1から読み出して手元操作部10に送る。手元操作部10は、さらに触覚情報を触覚フィードバック部12に送り、荒さに応じて振動部12aを振動させる。ユーザは、振動部12aをさわることで、実際にそのオブジェクトにさわったような体験をできる。   Furthermore, as shown in FIG. 13, by adding the tactile feedback unit 12, it is possible to experience the roughness of the surface of the object. Specifically, as shown in FIG. 15, the tactile feedback unit 12 is configured to be incorporated in the hand operation unit 10. With such a configuration, for example, when an instruction display is instructed from the instruction button 102, the virtual environment configuration unit 4 reads out the tactile information such as the description of the object and the roughness of the surface from the material storage unit 1, and performs a hand operation. Send to part 10. The hand operation unit 10 further sends tactile information to the tactile feedback unit 12, and vibrates the vibration unit 12a according to the roughness. The user can experience as if he / she actually touched the object by touching the vibration part 12a.

本発明の第1の実施形態に係る情報提示装置の構成を概略的に示した図。The figure which showed schematically the structure of the information presentation apparatus which concerns on the 1st Embodiment of this invention. 資料記憶部の形状データの記憶例を示した図。The figure which showed the example of a memory | storage of the shape data of a data storage part. 図1の情報提示装置の処理動作を説明するためのフローチャートで、特に、視線方向決定部の処理動作の具体例を説明するためのものである。1. It is a flowchart for demonstrating the processing operation of the information presentation apparatus of FIG. 1, and is for demonstrating the specific example of the processing operation of a gaze direction determination part especially. 視線方向の決定処理動作を具体的に説明するための図。The figure for demonstrating concretely the determination processing operation | movement of a gaze direction. ウオークスルーを行うときの視線方向の重要性を説明するための図。The figure for demonstrating the importance of a gaze direction when performing walkthrough. 図1の情報提示装置の処理動作を説明するためのフローチャートで、特に、視線方向決定部の処理動作の他の具体例を説明するためのものである。FIG. 3 is a flowchart for explaining the processing operation of the information presentation apparatus in FIG. 1, particularly for explaining another specific example of the processing operation of the line-of-sight direction determination unit. 本発明の第2の実施形態に係る情報提示装置の構成を概略的に示した図。The figure which showed schematically the structure of the information presentation apparatus which concerns on the 2nd Embodiment of this invention. 図7の情報提示装置の処理動作を説明するためのフローチャートで、特に、経路制御決定部の処理動作を説明するためのものである。FIG. 8 is a flowchart for explaining the processing operation of the information presentation apparatus in FIG. 7, and in particular, for explaining the processing operation of the route control determination unit. 経路制御決定部の処理動作を具体的に説明するための図。The figure for demonstrating concretely the processing operation of a route control determination part. 本発明の第3の実施形態に係る情報提示装置の構成を概略的に示した図。The figure which showed schematically the structure of the information presentation apparatus which concerns on the 3rd Embodiment of this invention. 手元操作部の機能について説明するための図。The figure for demonstrating the function of a hand operation part. 図10の情報提示装置の処理動作を説明するためのフローチャートで、特に、手元操作部を用いたときの仮想環境構成部の処理動作について説明するためのものである。10 is a flowchart for explaining the processing operation of the information presentation apparatus in FIG. 10, in particular, for explaining the processing operation of the virtual environment configuration unit when the hand operation unit is used. 第3の実施形態に係る情報提示装置の他の構成例を具体的に示した図。The figure which showed concretely the other example of composition of the information presentation device concerning a 3rd embodiment. 力フィードバック部について説明するための図。The figure for demonstrating a force feedback part. 触覚フィードバック部について説明するための図。The figure for demonstrating a tactile feedback part.

符号の説明Explanation of symbols

1…資料記憶部、2…背景記憶部、3…配置記憶部、4…仮想環境構成部、5…歩行指示部、6…視野方向決定部、7…描画部、8…表示部、9…経路制御決定部、10…手元操作部、11…力フィードバック部、12…触覚フィードバック部。   DESCRIPTION OF SYMBOLS 1 ... Material storage part, 2 ... Background storage part, 3 ... Arrangement storage part, 4 ... Virtual environment structure part, 5 ... Walking instruction part, 6 ... Visual field direction determination part, 7 ... Drawing part, 8 ... Display part, 9 ... Route control determining unit, 10... Hand operation unit, 11 .. Force feedback unit, 12 .. Tactile feedback unit.

Claims (2)

情報提示の対象となる資料の形状を記憶する資料形状記憶手段と、
前記資料が提示される仮想環境の形状を記憶する仮想環境形状記憶手段と、
前記仮想環境内の前記資料の配置位置を記憶する配置記憶手段と、
前記仮想環境内の現在位置からの進行方向を指示する指示手段と、
を備えた情報提示装置における情報呈示方法であって、
前記仮想環境形状記憶手段に記憶された仮想環境の形状と前記配置記憶手段に記憶された配置位置と前記資料記憶手段に記憶された資料の形状とを基に3次元の仮想環境を構成する仮想環境構成ステップと、
前記仮想環境内の水平面上に、2つの境界線により経路領域の定められた進行経路の一方の境界線と他方の境界線を設定する進行経路設定ステップと、
前記指示手段で前記仮想環境内の進行方向を指示する指示ステップと、
前記2つの境界線の間の経路領域内の現在位置から前記指示ステップで指示された進行方向へ予め定められた歩行速度で移動する場合の前記仮想環境内の次の地点までの前記水平面上での座標の変化分を計算するステップと、
前記次の地点が前記経路領域内であるときには、前記水平面上の前記現在位置の座標に前記変化分を加算することにより前記水平面上の前記次の地点の座標を算出し、前記次の地点が前記経路領域外であるときには、前記次の地点が前記経路領域内となるように前記変化分を減少させるための補正を行った後、前記水平面上の前記現在位置の座標に補正された変化分を加算することにより前記水平面上の前記次の地点の座標を算出する第1の算出ステップと、
前記水平面上の前記次の地点の座標に対応する、前記水平面に垂直な方向の座標値を前記仮想環境から得るステップと、
前記現在位置の座標値と前記次の地点との間の前記水平面に垂直な方向の座標値の差分、及び前記歩行速度を基に、前記仮想環境内の地表の傾きを算出する第2の算出ステップと、
前記次の地点の前記水平面上の座標及び当該水平面に垂直な方向の座標と、前記指示ステップで指示された進行方向及び前記第2の算出ステップで算出された地表の傾きから定める視線方向とに基づき、前記仮想環境構成手段で構成された仮想環境を描画する描画ステップと、
前記描画ステップでの描画結果を表示手段で表示する表示ステップと、
を有することを特徴とする情報提示方法。
Material shape storage means for storing the shape of the material for which information is presented;
Virtual environment shape storage means for storing the shape of the virtual environment in which the material is presented;
Arrangement storage means for storing the arrangement position of the material in the virtual environment;
Instruction means for instructing a traveling direction from the current position in the virtual environment;
An information presentation method in an information presentation device comprising:
A virtual that constitutes a three-dimensional virtual environment based on the shape of the virtual environment stored in the virtual environment shape storage means, the arrangement position stored in the arrangement storage means, and the shape of the material stored in the material storage means Environment configuration steps;
A travel path setting step for setting one boundary line and the other boundary line of a travel path defined by a path area on two horizontal lines on the horizontal plane in the virtual environment;
An instruction step of instructing a traveling direction in the virtual environment by the instruction means;
On the horizontal plane from the current position in the path area between the two boundary lines to the next point in the virtual environment when moving at a predetermined walking speed in the direction of travel indicated in the instruction step Calculating a change in coordinates of
When the next point is in the route area, the coordinates of the next point on the horizontal plane are calculated by adding the change to the coordinates of the current position on the horizontal plane, and the next point is When the position is outside the route area, a correction for reducing the amount of change is performed so that the next point is within the route area, and then the amount of change corrected to the coordinates of the current position on the horizontal plane. A first calculation step of calculating the coordinates of the next point on the horizontal plane by adding
Obtaining a coordinate value in a direction perpendicular to the horizontal plane corresponding to the coordinates of the next point on the horizontal plane from the virtual environment;
A second calculation for calculating a slope of a ground surface in the virtual environment based on a difference between coordinate values in a direction perpendicular to the horizontal plane between the coordinate value of the current position and the next point and the walking speed; Steps,
The coordinates of the next point on the horizontal plane and the coordinates in the direction perpendicular to the horizontal plane, the direction of travel instructed in the instruction step, and the gaze direction determined from the inclination of the ground surface calculated in the second calculation step. A drawing step of drawing a virtual environment configured by the virtual environment configuration unit;
A display step of displaying a drawing result in the drawing step by a display means;
An information presentation method characterized by comprising:
情報提示の対象となる資料の形状を記憶する資料形状記憶手段と、
前記資料が提示される仮想環境の形状を記憶する仮想環境形状記憶手段と、
前記仮想環境内の前記資料の配置位置を記憶する配置記憶手段と、
前記仮想環境形状記憶手段に記憶された仮想環境の形状と前記配置記憶手段に記憶された配置位置と前記資料記憶手段に記憶された資料の形状とを基に3次元の仮想環境を構成する仮想環境構成手段と、
前記仮想環境内の水平面上に、2つの境界線により経路領域の定められた進行経路の一方の境界線と他方の境界線を設定する進行経路設定手段と、
前記仮想環境内の現在位置からの進行方向を指示する指示手段と、
前記2つの境界線の間の前記経路領域内の現在位置から前記指示手段で指示された進行方向へ予め定められた歩行速度で移動する場合の前記仮想環境内の次の地点までの前記水平面上での座標の変化分を計算する手段と、
前記次の地点が前記経路領域内であるときには、前記水平面上の前記現在位置の座標に前記変化分を加算することにより前記水平面上の前記次の地点の座標を算出し、前記次の地点が前記経路領域外であるときには、前記次の地点が前記経路領域内となるように前記変化分を減少させるための補正を行った後、前記水平面上の前記現在位置の座標に補正された変化分を加算することにより前記水平面上の前記次の地点の座標を算出する第1の算出手段と、
前記水平面上の前記次の地点の座標に対応する、前記水平面に垂直な方向の座標値を前記仮想環境から得て、前記現在位置と前記次の地点との間の前記水平面に垂直な方向の座標値の差分を計算し、この差分と前記歩行速度とから、前記仮想環境内の地表の傾きを算出する第2の算出手段と、
前記次の地点の前記水平面上の座標及び当該水平面に垂直な方向の座標と、前記指示手段で指示された進行方向及び前記第2の算出手段で算出された地表の傾きから定める視線方向とに基づき、前記仮想環境構成手段で構成された仮想環境を描画する描画手段と、
前記描画手段での描画結果を表示する表示手段と、
を具備することを特徴とする情報提示装置。
Material shape storage means for storing the shape of the material for which information is presented;
Virtual environment shape storage means for storing the shape of the virtual environment in which the material is presented;
Arrangement storage means for storing the arrangement position of the material in the virtual environment;
A virtual that constitutes a three-dimensional virtual environment based on the shape of the virtual environment stored in the virtual environment shape storage means, the arrangement position stored in the arrangement storage means, and the shape of the material stored in the material storage means Environmental configuration means;
A travel path setting means for setting one boundary line and the other boundary line of a travel path defined by a path area by two boundary lines on a horizontal plane in the virtual environment;
Instruction means for instructing a traveling direction from the current position in the virtual environment;
On the horizontal plane from the current position in the route area between the two boundary lines to the next point in the virtual environment when moving at a predetermined walking speed in the traveling direction instructed by the instruction means Means for calculating the change in coordinates at
When the next point is within the route region, the coordinates of the next point on the horizontal plane are calculated by adding the change to the coordinates of the current position on the horizontal plane, and the next point is When the position is outside the route area, a correction for reducing the amount of change is performed so that the next point is within the route area, and then the amount of change corrected to the coordinates of the current position on the horizontal plane. First calculating means for calculating the coordinates of the next point on the horizontal plane by adding
A coordinate value in a direction perpendicular to the horizontal plane corresponding to the coordinate of the next point on the horizontal plane is obtained from the virtual environment, and a coordinate value perpendicular to the horizontal plane between the current position and the next point is obtained . A second calculating means for calculating a difference between coordinate values and calculating a slope of the ground surface in the virtual environment from the difference and the walking speed;
A coordinate on the horizontal plane of the next point and a coordinate in a direction perpendicular to the horizontal plane; Drawing means for drawing the virtual environment configured by the virtual environment configuration means,
Display means for displaying a drawing result by the drawing means;
An information presentation device comprising:
JP2005214551A 2005-07-25 2005-07-25 Information presentation method and information presentation apparatus Expired - Fee Related JP4282640B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005214551A JP4282640B2 (en) 2005-07-25 2005-07-25 Information presentation method and information presentation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005214551A JP4282640B2 (en) 2005-07-25 2005-07-25 Information presentation method and information presentation apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP7312142A Division JPH09152954A (en) 1995-11-30 1995-11-30 Method and device for presenting information

Publications (2)

Publication Number Publication Date
JP2006031719A JP2006031719A (en) 2006-02-02
JP4282640B2 true JP4282640B2 (en) 2009-06-24

Family

ID=35897909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005214551A Expired - Fee Related JP4282640B2 (en) 2005-07-25 2005-07-25 Information presentation method and information presentation apparatus

Country Status (1)

Country Link
JP (1) JP4282640B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6357023B2 (en) * 2014-06-06 2018-07-11 任天堂株式会社 Information processing program, information processing apparatus, information processing apparatus control method, and information processing system

Also Published As

Publication number Publication date
JP2006031719A (en) 2006-02-02

Similar Documents

Publication Publication Date Title
JPH09152954A (en) Method and device for presenting information
AU2021286370B2 (en) Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods
US11120775B2 (en) Compositing an image for display
US20230087230A1 (en) Virtual reality system and method
US11030771B2 (en) Information processing apparatus and image generating method
EP3379525B1 (en) Image processing device and image generation method
CN107003512B (en) Scanning display system in head-mounted display for virtual reality
US10627628B2 (en) Information processing apparatus and image generating method
KR20160124479A (en) Master device, slave device and control method thereof
JP5745497B2 (en) Display system, display control apparatus, information processing program, and display method
JP6340464B1 (en) Program, information processing method, information processing system, head-mounted display device, information processing device
CN110622110B (en) Method and apparatus for providing immersive reality content
CN109478342B (en) Image display device and image display system
JP2018533317A (en) Virtual reality video transmission method, playback method, and program using them
JP2014110037A (en) Information processing program, display control device, display system and display method
US11182950B2 (en) Information processing device and information processing method
US20180210545A1 (en) Method Of Navigating Viewable Content Within A Virtual Environment Generated By A Virtual Reality System
JP4282640B2 (en) Information presentation method and information presentation apparatus
JP3971407B2 (en) Information presentation method
WO2021200494A1 (en) Method for changing viewpoint in virtual space
KR102192153B1 (en) Method and program for providing virtual reality image
WO2023162668A1 (en) Information processing device and floor height adjustment method
JP7027753B2 (en) Information processing equipment and programs
JP6047197B2 (en) Display system, display control apparatus, information processing program, and display method
JP2009025039A (en) System and method for navigation

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081118

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090317

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120327

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130327

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees