JP2002024862A - Display control device and method using computer - Google Patents

Display control device and method using computer

Info

Publication number
JP2002024862A
JP2002024862A JP2000206265A JP2000206265A JP2002024862A JP 2002024862 A JP2002024862 A JP 2002024862A JP 2000206265 A JP2000206265 A JP 2000206265A JP 2000206265 A JP2000206265 A JP 2000206265A JP 2002024862 A JP2002024862 A JP 2002024862A
Authority
JP
Japan
Prior art keywords
display
viewpoint
event
event information
camera viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000206265A
Other languages
Japanese (ja)
Inventor
Hisamichi Otani
尚通 大谷
Yoshitaka Kuwata
喜隆 桑田
Yuji Ishikawa
裕治 石川
Naoki Sho
直樹 庄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CAD CENTER KK
NTT Data Group Corp
Original Assignee
CAD CENTER KK
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CAD CENTER KK, NTT Data Corp filed Critical CAD CENTER KK
Priority to JP2000206265A priority Critical patent/JP2002024862A/en
Publication of JP2002024862A publication Critical patent/JP2002024862A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To automatically conduct the display control in a virtual space on a computer screen, and automatically display a display area when plotting important to a user is updated outside the display area. SOLUTION: A map display device 1 is capable of communicating with another map display device or a designated system 5 through a communication network 3, so that event information is always input. The map display device 1 automatically discriminates whether the invent information is important to the user, according to a significance point rule table when the event information is input, and if it is important, the display is changed to display the event information. The optimum camera visual point position is searched, so that there is no shielding object between the display object and the camera visual point, and the camera visual point movement is controlled automatically from the current camera visual point to the optimum camera visual point according to the attribute of the display priority content or the event information input by the user.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、コンピュータを利
用した表示制御装置及び方法に関し、特に、表示画面内
に生成されたバーチャル空間内におけるカメラ視点制御
に関する。なお、本明細書では、バーチャル空間内にお
ける視点を、「カメラ視点」という。
[0001] 1. Field of the Invention [0002] The present invention relates to a display control apparatus and method using a computer, and more particularly to a camera viewpoint control in a virtual space generated on a display screen. In this specification, a viewpoint in the virtual space is referred to as a “camera viewpoint”.

【0002】[0002]

【従来の技術】近年のコンピュータの能力向上に伴い、
表示画面内にバーチャル空間(例えば地図情報に基づい
て3次元の市街地)を生成し、その空間において、ユー
ザは、所望の位置(カメラ視点)から所望の表示対象物
(例えば市街地の建物)を見たり、カメラ視点をいろい
ろな位置に移動させて表示対象物を様々な角度から見て
みたり、まるで現実の空間を歩いているかのような視点
移動(以下、これを「ウォークスルー」という)をした
りすることができる。
2. Description of the Related Art With the recent improvement of computer capabilities,
A virtual space (for example, a three-dimensional city area based on map information) is generated in a display screen, and in that space, a user views a desired display object (for example, a building in an urban area) from a desired position (camera viewpoint). Move the camera viewpoint to various positions to see the display object from various angles, and move the viewpoint as if you are walking in the real space (hereinafter referred to as “walk-through”). Or you can.

【0003】[0003]

【発明が解決しようとする課題】コンピュータ画面上の
バーチャル空間における表示制御は、ユーザがマウス等
を操作して行なう。つまり、ユーザは、自らの操作で、
所望の表示対象物の表示位置や表示範囲(視野)を設定
したり、カメラ視点の位置を設定したり、カメラ視点を
移動したり等をしなければならない。このような操作に
は、複雑且つ困難なものが多く、地図のような広範囲な
イメージを表示する場合やソフトウェアが使いづらいも
のである場合には、ユーザは、所望の位置へカメラ視点
を移動するだけで多くの時間を費やしてしまうことが多
い。これは、コンピュータに不慣れな人間にとってはな
お更である。バーチャル空間が3次元地図である場合を
例に言うと、具体的に以下の問題がある。
Display control in a virtual space on a computer screen is performed by a user operating a mouse or the like. In other words, the user can operate
It is necessary to set the display position and display range (field of view) of a desired display target, set the position of the camera viewpoint, move the camera viewpoint, and the like. Such operations are often complicated and difficult, and when displaying a wide-range image such as a map or when the software is difficult to use, the user moves the camera viewpoint to a desired position. A lot of time is spent alone. This is even more so for those unfamiliar with computers. Taking the case where the virtual space is a three-dimensional map as an example, there are the following specific problems.

【0004】1. 3次元地図内での視点操作が難し
く、目的の建物の見やすい位置への視点移動には時間が
かかる。
[0004] 1. It is difficult to operate the viewpoint in the three-dimensional map, and it takes time to move the viewpoint to a position where the target building is easy to see.

【0005】2. 高い建物に囲まれた低い建物を表示
したい場合等、よく見える視点位置を探し出すことが容
易ではない。
[0005] 2. When it is desired to display a low building surrounded by a tall building, it is not easy to find a viewpoint position that can be seen well.

【0006】3. ウォークスルーのような低い視点で
の経路に沿った移動では、目的の場所まで正確にたどり
着くことが困難である。
[0006] 3. When moving along a path from a low viewpoint such as a walk-through, it is difficult to accurately reach a target location.

【0007】4. 経路に沿った移動中の視点画像は重
要な情報であるが、安定した視点移動操作が難しいた
め、有効に利用できない。
[0007] 4. The viewpoint image during the movement along the route is important information, but cannot be used effectively because stable viewpoint movement operation is difficult.

【0008】5. 3次元地図における自分の位置を把
握しながら、適確に目的地へたどり着くことが難しい。
[0008] 5. It is difficult to get to the destination accurately while grasping your position on the three-dimensional map.

【0009】3次元地図は、その情報量の大きさから、
例えば、消防、軍、企業などの部体が或る程度の広さの
地域に展開して部体活動を実施する際の現場指揮の支援
に利用することが考えられているが、このような現場活
動では、一刻を争う場合がある。しかし、3次元地図の
表示制御には上記1〜5の問題点があるため、現場活動
等において一刻を争う場合に、3次元地図を十分に活用
することは困難である。
[0009] The three-dimensional map, from the size of the information amount,
For example, it is considered that fire departments, military units, and business units may be deployed in a certain area to support on-site commanding when conducting unit activities. In the field activities, there are times when we fight. However, since the display control of the three-dimensional map has the above-mentioned problems 1 to 5, it is difficult to make full use of the three-dimensional map in the case of competing for an on-site activity or the like.

【0010】また、コンピュータ画面上のバーチャル空
間における表示制御では、例えば地図のような広範囲な
イメージを表示する場合、画面上にはその一部の領域し
か表示することができない。このため、表示領域外でユ
ーザにとって重要な描画更新が行なわれてもユーザはそ
れを知ることができないで、重要な情報を見逃してしま
うことがある。
[0010] In display control in a virtual space on a computer screen, when displaying a wide-range image such as a map, only a part of the area can be displayed on the screen. For this reason, even if a drawing update important for the user is performed outside the display area, the user cannot know the update and may miss important information.

【0011】従って、本発明の目的は、コンピュータ画
面上のバーチャル空間における表示制御を自動で行なえ
るようにすることにある。
Accordingly, it is an object of the present invention to enable automatic display control in a virtual space on a computer screen.

【0012】また、本発明の別の目的は、ユーザにとっ
て重要な描画更新が表示領域外で行なわれたときは自動
的にその表示領域を表示できるようにすることにある。
It is another object of the present invention to automatically display a display area when a drawing update important to a user is performed outside the display area.

【0013】[0013]

【課題を解決するための手段】本発明の第1の側面に従
う表示制御装置は、所定のイメージ(例えば電子地図)
を表示する表示手段と、所定のイメージのいずれかの領
域で発生したイベントの情報が入力されたことを検出す
る検出手段と、現在表示している領域から上記検出した
イベント情報に含まれるイベント発生領域にイメージの
表示を変更する表示変更手段とを備える。
According to a first aspect of the present invention, there is provided a display control apparatus, comprising: a predetermined image (for example, an electronic map);
Display means for displaying an event, detection means for detecting that information of an event that has occurred in any area of the predetermined image has been input, and event occurrence included in the detected event information from the currently displayed area. Display changing means for changing the display of the image in the area.

【0014】本発明の第1の側面に係る表示制御装置に
よれば、表示領域外で描画更新が行なわれたときは自動
的にその表示領域が表示される。
According to the display control device of the first aspect of the present invention, when a drawing update is performed outside the display area, the display area is automatically displayed.

【0015】本発明の第1の側面に係る好適な実施形態
では、上記入力されたイベント情報が重要か否かを判定
する判定手段を更に備え、表示変更手段が、その判定に
よって上記イベント情報が重要であると判定されたとき
にだけ表示変更を行う。具体的には、イベント情報の重
要度を算出するための参照テーブルが用意されており、
判定手段が、上記参照テーブル又はユーザ個人情報に基
づいて上記入力されたイベント情報の重要度を算出し、
その算出した重要度が一定数以上のときにそのイベント
情報が重要であると判定する。また、イベント発生領域
が複数存在する場合は、判定手段が、それらのイベント
発生領域に係るイベント情報について各々重要度を算出
して、各イベント情報を重要度の高い順に順位付けし、
表示変更手段が、その順位付けされた順番で各々のイベ
ント発生領域を表示するように表示変更するか、或い
は、表示画面上にそれら複数のイベント発生領域と同数
の表示ウィンドウを設けて各表示ウィンドウ内に各々の
イベント発生領域を表示するように表示変更する。
[0015] In a preferred embodiment according to the first aspect of the present invention, the apparatus further comprises a judging means for judging whether or not the input event information is important. The display is changed only when it is determined to be important. Specifically, a reference table for calculating the importance of the event information is prepared,
The determining means calculates the importance of the input event information based on the reference table or the user personal information,
When the calculated importance is a certain number or more, it is determined that the event information is important. Further, when there are a plurality of event occurrence areas, the determination unit calculates the importance of each of the event information related to the event occurrence areas, and ranks each event information in descending order of importance,
The display changing means changes the display so that the event occurrence areas are displayed in the ranked order, or provides the same number of display windows as the plurality of event occurrence areas on the display screen, and The display is changed so that each event occurrence area is displayed within.

【0016】本発明の第2の側面に従う表示制御装置
は、所定のイメージ(例えば電子地図)を3次元で表示
する表示手段と、その3次元イメージ(例えば電子地図
を3次元表示したバーチャル空間)のユーザ指定の領域
を隠れることなく表示できるような目的カメラ視点の位
置を決定する目的視点決定手段と、ユーザ入力される表
示優先内容(例えば、表示の迅速性、カメラ視点と表示
対象領域との位置関係(距離や方向等)の把握、或い
は、現在のカメラ視点から表示対象領域までの移動ルー
トの把握のどれを優先するのかの選択)に基づいて現在
のカメラ視点位置を前記目的カメラ視点位置へ視点変更
する視点変更手段とを備える。
A display control device according to a second aspect of the present invention includes a display unit for displaying a predetermined image (for example, an electronic map) in three dimensions, and a three-dimensional image (for example, a virtual space in which an electronic map is displayed in three dimensions). Viewpoint determining means for determining the position of the target camera viewpoint so that the user-specified region can be displayed without hiding the display region, and display priority contents input by the user (for example, promptness of display, display of the camera viewpoint and the display target region). The current camera viewpoint position is determined based on the positional relationship (distance, direction, etc.) or the grasp of the movement route from the current camera viewpoint to the display target area. Viewpoint changing means for changing the viewpoint.

【0017】本発明の第2の側面に従う表示制御装置に
よれば、コンピュータ画面上のバーチャル空間における
表示制御を自動で行うことができるので、ユーザにとっ
て便利になる。
According to the display control device according to the second aspect of the present invention, the display control in the virtual space on the computer screen can be automatically performed, which is convenient for the user.

【0018】本発明の第2の側面に係る好適な実施形態
では、目的視点決定手段が、3次元イメージのいずれか
の領域で発生したイベントの情報が入力されたときのイ
ベント情報に含まれるイベント発生の領域を隠れること
なく表示できるような目的カメラ視点の位置を決定す
る。
In a preferred embodiment according to the second aspect of the present invention, the target viewpoint determining means includes an event included in event information when event information generated in any area of the three-dimensional image is input. The position of the viewpoint of the target camera is determined so that the occurrence area can be displayed without hiding.

【0019】本発明の第2の側面に係る好適な実施形態
では、目的視点決定手段が、ユーザ指定領域又はイベン
ト発生領域が表示画面内に収まる倍率を計算し、その計
算結果に基づいて目的カメラ視点の位置を決定する。
In a preferred embodiment according to the second aspect of the present invention, the target viewpoint determining means calculates a magnification at which the user-specified area or the event occurrence area fits in the display screen, and based on the calculation result, the target camera. Determine the position of the viewpoint.

【0020】本発明の第2の側面に係る好適な実施形態
では、目的視点決定手段が、ユーザ指定領域又はイベン
ト発生領域が複数存在する場合は、それら全てのユーザ
指定領域又はイベント発生領域を含む最小範囲を計算
し、その計算結果に基づいて目的カメラ視点の位置を決
定する。
In a preferred embodiment according to the second aspect of the present invention, when there are a plurality of user-specified areas or event-occurring areas, the target viewpoint determining means includes all the user-specified areas or event-occurring areas. The minimum range is calculated, and the position of the target camera viewpoint is determined based on the calculation result.

【0021】本発明の第2の側面に係る好適な実施形態
では、視点変更手段が、現在のカメラ視点から目的カメ
ラ視点への視点変更を、視点切換え又は視点移動のどち
らかによって行なう。ここで、視点変更手段が、現在の
カメラ視点から前記目的カメラ視点へ視点移動すること
で視点変更するときは、現在のカメラ視点と前記目的カ
メラ視点との間に一定数以上の遮蔽物が存在しないよう
な、又は、カメラ視点とユーザ指定領域又はイベント発
生領域との間に一定数以上の遮蔽物が存在しないような
視点移動経路を算出する。
In a preferred embodiment according to the second aspect of the present invention, the viewpoint changing means changes the viewpoint from the current camera viewpoint to the target camera viewpoint by either viewpoint switching or viewpoint movement. Here, when the viewpoint changing means changes the viewpoint by moving the viewpoint from the current camera viewpoint to the target camera viewpoint, a certain number or more of obstacles exist between the current camera viewpoint and the target camera viewpoint. A viewpoint movement path is calculated such that no obstacle is present or a certain number or more of obstacles do not exist between the camera viewpoint and the user designated area or the event occurrence area.

【0022】本発明の第2の側面に係る好適な実施形態
では、入力されたイベント情報が重要か否かを判定する
判定手段が更に備えられ、視点変更手段が、その判定に
よってイベント情報が重要であると判定されたときにだ
け視点変更を行う。
In a preferred embodiment according to the second aspect of the present invention, a judgment means for judging whether or not the input event information is important is further provided, and the viewpoint changing means makes the event information important by the judgment. The viewpoint is changed only when it is determined that.

【0023】なお、本発明は、典型的にはコンピュータ
により実施することができるが、そのためのコンピュー
タプログラムは、ディスク型ストレージ、半導体メモリ
及び通信ネットワークなどの各種の媒体を通じてコンピ
ュータにインストール又はロードすることができる。
Note that the present invention can be typically implemented by a computer, and a computer program for this can be installed or loaded into the computer through various media such as a disk storage, a semiconductor memory, and a communication network. Can be.

【0024】[0024]

【発明の実施の形態】図1は、本発明を適用した3次元
地図表示装置の一実施形態の全体構成を示すブロック図
である。
FIG. 1 is a block diagram showing the overall configuration of an embodiment of a three-dimensional map display device to which the present invention is applied.

【0025】本実施形態に係る地図表示装置1は、消防
活動の実行又は指揮に使用されるコンピュータマシンで
あって、インターネット等の通信ネットワーク3を通じ
て、他の地図表示装置、或るいは所定のシステム(例え
ば、消防活動を指揮する管理センタのコンピュータシス
テム)5に通信可能に接続されており、入力されたイベ
ント情報の重要度に基づいて地図表示を自動制御する機
能を有している。詳述すれば、この地図表示装置1は、
地図画像を表示するための表示装置(ディスプレイ)
7、マウス、キーボード、トラックボール、磁気センサ
等の入力装置9、通信ネットワーク3を通じてデータ通
信を行なうための通信装置(例えばモデム)11、及
び、3次元の地図画像を表示するためのデータ(建物の
属性情報等)を保存している地図データベース13を有
している。また、地図表示装置1は、シミュレーション
処理部14、イベントデータ保存部15、イベント・変
更検出部17、重要度ポイントルール表保存部19、重
要度判定処理部21、最適視点探索部23、視点座標記
憶部25、経路決定アプリケーション(経路決定AP)
27、衝突判定処理部28、視点制御処理部29、及び
描画処理部31を有している。
The map display device 1 according to the present embodiment is a computer machine used for executing or commanding a fire fighting activity, and is connected to another map display device or a predetermined system via a communication network 3 such as the Internet. (For example, a computer system of a management center that directs firefighting activities) 5 and has a function of automatically controlling a map display based on the importance of input event information. Specifically, this map display device 1
Display device (display) for displaying map images
7, an input device 9 such as a mouse, a keyboard, a trackball, and a magnetic sensor; a communication device (for example, a modem) 11 for performing data communication through the communication network 3; and data (building) for displaying a three-dimensional map image. , Etc.) are stored in the map database 13. In addition, the map display device 1 includes a simulation processing unit 14, an event data storage unit 15, an event / change detection unit 17, an importance point rule table storage unit 19, an importance determination processing unit 21, an optimal viewpoint search unit 23, and viewpoint coordinates. Storage unit 25, route determination application (route determination AP)
27, a collision determination processing unit 28, a viewpoint control processing unit 29, and a drawing processing unit 31.

【0026】入力装置9は、ユーザ操作により、火災発
生や負傷者発見等のイベント情報や、カメラ視点の移動
方向や移動量などを入力することができる。また、入力
装置9は、ユーザ操作により、本実施形態の地図表示の
自動制御(カメラ視点の移動)においてユーザが何を優
先させるのかを入力することができる。例えば、地図表
示の迅速性を優先するのか、カメラ視点と表示対象物と
の位置関係(距離や方向等)の把握を優先するのか、或
いは、現在のカメラ視点から表示対象物までの移動ルー
トの把握を優先するのかの選択を入力することができ
る。
The input device 9 can input event information such as a fire occurrence or injured person detection, a moving direction and a moving amount of a camera viewpoint, etc. by a user operation. In addition, the input device 9 can input what the user gives priority to in the automatic control (movement of the camera viewpoint) of the map display according to the present embodiment by a user operation. For example, priority is given to quickness of map display, priority is given to grasping the positional relationship (distance, direction, etc.) between the camera viewpoint and the display target, or the movement route from the current camera viewpoint to the display target is determined. You can enter a choice as to whether to give priority to grasping.

【0027】シミュレーション処理部14は、地図デー
タベース内の地図データ及び建物の属性情報を元に、火
災発生や負傷者発見等のイベントを発生したり、イベン
トデータ保存部15に保存される火災状況変化履歴に基
づいて火災延焼を予測したり等の様々なシミュレーショ
ンを行なう。
The simulation processing unit 14 generates an event such as a fire occurrence or the detection of an injured person based on the map data in the map database and the attribute information of the building, and changes the fire status stored in the event data storage unit 15. Various simulations such as prediction of fire spread based on the history are performed.

【0028】イベントデータ保存部15は、火災発生、
負傷者発見、火災状況の変化履歴、消防車の移動などの
情報をイベントという単位で保存する。それらイベント
情報は、シミュレーション処理部14或いは所定のシス
テム5等から通信装置11を通じてこのイベントデータ
保存部15に保存される。
The event data storage unit 15 stores a fire,
Information such as injured persons, change history of fire conditions, and movement of fire trucks is stored in units called events. The event information is stored in the event data storage unit 15 through the communication device 11 from the simulation processing unit 14 or the predetermined system 5 or the like.

【0029】イベント・変更検出部17は、シミュレー
ション処理部14或いは通信装置11を通じてイベント
データ保存部15に入力されたイベント情報(例えば火
災発生)や、衝突判定処理部28においてカメラ視点と
表示対象物との間に遮蔽物(衝突物)が存在する(又は
一定数以上存在する)と判定されたことを検出し、検出
した内容を重要度処理判定部21に通知する。
The event / change detection unit 17 includes event information (for example, a fire occurrence) input to the event data storage unit 15 through the simulation processing unit 14 or the communication device 11, and a camera viewpoint and a display object in the collision determination processing unit 28. It is determined that a shielding object (colliding object) is present (or a certain number or more) is present, and the detected content is notified to the importance processing determination unit 21.

【0030】重要度判定処理部21は、イベント・変更
検出部17からイベント情報が通知されたときは、後述
の重要度ポイントルール表を元に、上記検出されたイベ
ント情報の重要度を決定してそのイベント情報が重要か
否かを判定する。検出されたイベント情報が重要である
と判定すれば、重要度判定処理部21は、そのイベント
情報を視点制御処理部29に通知すると共に(通知した
イベント情報は視点制御処理部29が表示する)、その
イベント情報に関して地図の表示方法(カメラ視点の移
動方法)を自動制御するか否かをユーザに選択させ、逆
に、そのイベント情報が重要でなければ、そのイベント
情報に関して処理を終える(重要でないと判定されたイ
ベント情報でもイベントデータ保存部15には保存され
るので、そのイベント情報に係る地域を地図表示すると
きはそのイベント情報は表示される)。また、重要度判
定処理部21は、重要であると判定したイベント情報が
複数ある場合には、それら複数のイベント情報を、それ
ぞれ決定した重要度にあわせて順位付けする。なお、重
要度判定処理部21は、重要度を決定するときは、ユー
ザの種類も加味するようにする。例えば、この地図表示
装置1が消防・消火活動の現場支援に利用されている場
合、ユーザの担当がエリア別に与えられているときは、
イベント発生場所の住所を優先し、ユーザの担当が役職
別に与えられているときは、その役職に大きく関連する
要素を優先するようにする。一例を言えば、ユーザの役
職が救急隊員である場合は、負傷者の有無や負傷者の種
別(老人、身障者等の有無)を優先し、ユーザの役職が
消防士である場合は、火災レベル(発火したばかりか、
延焼中か、加熱中か等)を優先するようにする。
When event information is notified from the event / change detection unit 17, the importance determination processing unit 21 determines the importance of the detected event information based on the importance point rule table described later. To determine whether the event information is important. If it is determined that the detected event information is important, the importance determination processing unit 21 notifies the event information to the viewpoint control processing unit 29 (the notified event information is displayed by the viewpoint control processing unit 29). Then, the user is allowed to select whether or not to automatically control the map display method (moving method of the camera viewpoint) with respect to the event information. Conversely, if the event information is not important, the processing is terminated with respect to the event information (important Even if the event information is determined not to be stored in the event data storage unit 15, the event information is displayed when the area related to the event information is displayed on the map. When there are a plurality of event information items determined to be important, the importance determination processing unit 21 ranks the plurality of event information items according to the determined importance values. When determining the importance level, the importance level determination processing section 21 takes into account the type of the user. For example, when this map display device 1 is used for on-site support for firefighting and firefighting activities, when the user is assigned to each area,
The address of the event occurrence place is prioritized, and when the user is assigned to each position, an element that is largely related to the position is prioritized. For example, if the position of the user is a paramedic, priority is given to the presence or absence of the injured person and the type of the injured person (presence of the elderly or disabled), and if the position of the user is a fireman, the fire level (It just fired,
Priority should be given to whether the fire is spreading or heating).

【0031】一方、カメラ視点と表示対象物との間に遮
蔽物が存在(又は一定数以上存在)するという内容をイ
ベント・変更検出部17から通知されたときは、重要度
判定処理部21は、ユーザ入力された表示優先内容(例
えば、表示の迅速性、カメラ視点と表示対象物との位置
関係の把握、現在のカメラ視点から表示対象物までの移
動ルートの把握のうちどれを優先するか)又はイベント
情報の属性(火災発生、負傷者発見など)に基づいて、
後述する複数の表示方法の重要度(適切度)を判断し、
重要であると判定した表示方法を視点制御処理部29を
通じて経路決定AP27に通知する。ここで、本実施形
態における各表示方法(カメラ視点の移動方法)につい
て説明する。
On the other hand, when the event / change detecting unit 17 notifies the event / change detecting unit 17 that a shielding object exists (or a certain number or more) exists between the camera viewpoint and the display object, , Display priority content input by the user (for example, which of priority is given to quickness of display, grasp of a positional relationship between a camera viewpoint and a display object, and grasp of a movement route from a current camera viewpoint to a display object) ) Or attribute of event information (fire occurrence, injured person detection, etc.)
Determine the importance (appropriateness) of the multiple display methods described below,
The display method determined to be important is notified to the route determination AP 27 through the viewpoint control processing unit 29. Here, each display method (method of moving the camera viewpoint) in the present embodiment will be described.

【0032】(1) ジャンプ表示 ジャンプ表示は、現在の表示されている地図範囲から表
示対象とする地図範囲へ迅速に表示を切換えるものであ
る。換言すれば、現在のカメラ視点から、最適視点探索
部23で決定される最適カメラ視点へ迅速にカメラ視点
を切換える表示方法である。この表示方法は、イベント
発生地点の位置把握には不適切であるが、表示切換えに
要する時間が少ないので、表示の迅速性を求めるときに
有効である。従って、例えば、上記表示優先内容として
「表示の迅速性」が選択されている場合には、迅速に現
在のカメラ視点から上記最適カメラ視点に切換えられる
この表示方法が選択される。
(1) Jump display The jump display is for quickly switching the display from the currently displayed map range to the map range to be displayed. In other words, this is a display method in which the camera viewpoint is quickly switched from the current camera viewpoint to the optimal camera viewpoint determined by the optimal viewpoint search unit 23. Although this display method is not suitable for grasping the position of the event occurrence point, it is effective when quick display is required because the time required for display switching is short. Therefore, for example, when "rapidity of display" is selected as the display priority content, this display method for quickly switching from the current camera viewpoint to the optimum camera viewpoint is selected.

【0033】(2)直線ウォークスルー表示 この表示方法のモデルを図2に示す。この図に示すよう
に、直線ウォークスルー表示は、現在のカメラ視点位置
Sから上記最適カメラ視点位置Eへ、直線的なウォーク
スルーによってカメラ視点を変更する表示方法である。
この表示方法では、遮蔽物等の有無に関わらずに現在の
カメラ視点Sから目的のカメラ視点Eまで直線的に移動
するので、現在のカメラ視点Sと目的のカメラ視点Eと
の直線的な距離を把握できる。なお、目的のカメラ視点
位置Eを表示対象物の位置にセットすれば、現在のカメ
ラ視点Sから表示対象物までの直線的な距離を把握する
ことができる。
(2) Straight line walk-through display A model of this display method is shown in FIG. As shown in this figure, the linear walk-through display is a display method in which the camera viewpoint is changed from the current camera viewpoint position S to the optimum camera viewpoint position E by a linear walk-through.
In this display method, the camera moves linearly from the current camera viewpoint S to the target camera viewpoint E irrespective of the presence or absence of a shield or the like. Therefore, the linear distance between the current camera viewpoint S and the target camera viewpoint E is determined. Can understand. If the target camera viewpoint position E is set to the position of the display target, the linear distance from the current camera viewpoint S to the display target can be grasped.

【0034】(3)最短経路ウォークスルー表示 この表示方法のモデルを図3に示す。この図に示すよう
に、最短経路ウォークスルー表示は、現在のカメラ視点
位置Sから目的のカメラ視点位置Eへ、道路に沿った最
短経路をウォークスルーで視点移動する表示方法であ
る。これにより、実際に車両や徒歩等で移動した場合の
視点で3次元地図を表示することができる(つまり実際
に車両や徒歩等で移動した場合の視点で街並み等を見る
ことができる)。また、勿論、目的のカメラ視点位置E
を表示対象物(例えばイベント発生地点)の位置にセッ
トすれば、現在のカメラ視点位置Sからその表示対象物
へウォークスルー表示されるので、実際に車両や徒歩等
で移動した場合の視点で移動の過程を見ることができ
る。この最短経路ウォークスルー表示は、コンピュータ
によって自動で行なわれるので、手動によるウォークス
ルーよりも当然に高速で確実なウォークスルーが可能で
ある。なお、この表示方法における最短経路は、経路決
定AP27の最短経路計算部37によって計算される。
(3) Shortest path walk-through display FIG. 3 shows a model of this display method. As shown in this figure, the shortest path walk-through display is a display method in which the viewpoint moves by walk-through the shortest path along the road from the current camera viewpoint position S to the target camera viewpoint position E. Thus, a three-dimensional map can be displayed from a viewpoint when the user actually moves by vehicle or on foot (that is, a cityscape or the like can be viewed from a viewpoint when the user actually moves by vehicle or on foot). Also, of course, the desired camera viewpoint position E
Is set to the position of a display object (for example, an event occurrence point), a walk-through display is performed from the current camera viewpoint position S to the display object. You can see the process. Since the shortest path walk-through display is automatically performed by the computer, it is naturally possible to perform the walk-through at a higher speed than the manual walk-through. The shortest route in this display method is calculated by the shortest route calculation unit 37 of the route determination AP 27.

【0035】(4)弾道移動表示 この表示方法のモデルを図4に示す。この図に示すよう
に、弾道移動表示は、現在のカメラ視点位置Sから目的
とするカメラ視点位置Eへ弾道軌道で視点移動する表示
方法である。この表示方法では、直線的なカメラ視点移
動と違って建物の上を通過するように視点移動するた
め、表示対象範囲における各建物等の位置関係を把握し
やすい。なお、この表示方法における弾道軌道は、経路
決定AP27の弾道経路計算部35によって計算され
る。
(4) Trajectory Movement Display FIG. 4 shows a model of this display method. As shown in this figure, the trajectory movement display is a display method in which the viewpoint moves from the current camera viewpoint position S to a target camera viewpoint position E in a trajectory trajectory. In this display method, since the viewpoint is moved so as to pass over the building, unlike the linear camera viewpoint movement, it is easy to grasp the positional relationship of each building and the like in the display target range. The trajectory in this display method is calculated by the trajectory calculation unit 35 of the route determination AP 27.

【0036】(5)周回表示 この表示方法のモデルを図5に示す。この図に示すよう
に、周回表示は、上記最適カメラ視点位置Eから表示対
象物Pを中心として、常にその表示対象物Pが表示の中
心になるようにした円軌道で視点移動する表示方法であ
る。これにより、注目する表示対象物の全体像が把握し
やすくなる。なお、この表示方法における円軌道は、経
路決定AP27の周回経路計算部33によって計算され
る。
(5) Circular Display A model of this display method is shown in FIG. As shown in this figure, the orbit display is a display method in which the viewpoint moves from the optimal camera viewpoint position E to the display object P in a circular orbit such that the display object P is always at the center of the display. is there. This makes it easier to grasp the entire image of the display object of interest. The circular trajectory in this display method is calculated by the orbiting route calculation unit 33 of the route determination AP 27.

【0037】(6)クローズアップ表示 この表示方法のモデルを図6に示す。この図に示すよう
に、クローズアップ表示は、まず、現在のカメラ視点位
置Sから、表示対象物Pを中心とするエリアを或る程度
広く表示できる上空位置Rへ視点移動し、その後、徐々
に表示対象物Pに近づくように目的のカメラ視点位置
(上記最適カメラ視点位置)Eへ視点移動する表示方法
である。この表示方法では、一旦弾道移動表示の場合よ
りも上空へ視点移動して或る程度の広さのエリアを表示
する。このため、弾道移動表示のときよりも、表示対象
物Pの全体像とそれを中心としたエリアにおける建物等
の位置関係を把握し易い。しかし、カメラ視点の移動経
路が長くなるので、比較的長い表示時間を要する。
(6) Close-up display FIG. 6 shows a model of this display method. As shown in this figure, the close-up display first moves the viewpoint from the current camera viewpoint position S to the sky position R where the area around the display object P can be displayed to a certain extent, and then gradually. This is a display method in which the viewpoint is moved to a target camera viewpoint position (the optimal camera viewpoint position) E so as to approach the display object P. In this display method, the viewpoint is moved to the sky once more than in the case of the trajectory movement display, and an area of a certain size is displayed. For this reason, it is easier to grasp the entire image of the display object P and the positional relationship of the building and the like in the area centered on the whole image than in the case of the trajectory movement display. However, a relatively long display time is required because the movement path of the camera viewpoint becomes long.

【0038】以上が、本実施形態における複数の表示方
法である。重要度判定処理部21は、これらの表示方法
のうち重要度であると判定した表示方法を視点制御処理
部29を通じて経路決定AP27に通知する。重要であ
ると判定した表示方法が複数ある場合には、重要度判定
処理部21は、それら複数の表示方法の各々の重要度を
決定し、重要度が一定数以上の表示方法を経路決定AP
27に通知する。もし、その表示方法においても遮蔽物
が存在(又は一定数以上存在)するという場合には、重
要度判定処理部21は、次に重要度の高い表示方法を経
路決定AP27に通知する。
The above is a plurality of display methods in the present embodiment. The importance determination processing unit 21 notifies the route determination AP 27 via the viewpoint control processing unit 29 of the display method determined to be the importance among these display methods. When there are a plurality of display methods determined to be important, the importance determination processing unit 21 determines the importance of each of the plurality of display methods, and determines a display method having a certain number or more of importance in the route determination AP.
Notify 27. If there is a shield (or a certain number or more) in the display method, the importance determination processing unit 21 notifies the route determination AP 27 of the display method with the next highest importance.

【0039】重要度ポイントルール表保存部19は、注
意が必要な要素とそれらの重要度(数値)を示した重要
度ポイントルール表を保存している。
The importance point rule table storage unit 19 stores an importance point rule table indicating elements requiring attention and their importance (numerical value).

【0040】重要度ポイントルール表の一例を図7に示
す。
FIG. 7 shows an example of the importance point rule table.

【0041】重要度ポイントルール表には、例えば、イ
ベント情報の種別や建物の種別・材質など重要度判定の
ための要素を示す「判定種別」と、各判定種別の重要度
を示す「ポイント」が記録されている。「判定種別:ポ
イント」の関係の具体例として、「火災レベル:3
0」、「階数:10」、「材質、非耐火:40」、「材
質、耐火:20」、「災害弱者在宅:100」、「危険
物取り扱い:100」、「公共建築物、病院:10
0」、「公共建築物、学校:70」、…、「重要文化
財:50」などがある。なお、これら「判定種別」う
ち、「火災レベル」については、火災状況に応じて決定
される「火災レベル」×30で、「階数」については、
燃えている建物の「階数」×10で、重要度判定処理部
21においてそれぞれポイントが決定される。例えば、
「火災レベル」は、火災状況が「加熱中」であるときは
火災レベルを「1」としてポイントは1×30=「3
0」、「発火」であれば火災レベル「2」としてポイン
トは2×30=「60」、「延焼中」であれば火災レベ
ル「3」としてポイントは3×30=「90」とされ
る。また、「階数」は、燃えている建物が3階建てであ
るときは、ポイントは3×10=「30」とされる。
The importance point rule table includes, for example, “judgment type” indicating an element for judging importance such as the type of event information and the type and material of a building, and “point” indicating importance of each judgment type. Is recorded. As a specific example of the relationship of “judgment type: point”, “fire level: 3
"0", "Floor: 10", "Material, non-fireproof: 40", "Material, fireproof: 20", "Disaster vulnerable: 100", "Dangerous goods handling: 100", "Public building, hospital: 10"
0, "public buildings, school: 70", ..., "important cultural property: 50". In addition, among these “judgment types”, “fire level” is “fire level” × 30 determined according to the fire situation, and “floor number” is
A point is determined in the importance determination processing unit 21 by “the number of floors” × 10 of the burning building. For example,
When the fire status is “heating”, the fire level is set to “1” and the point is 1 × 30 = “3”.
0 ”and“ ignition ”, the fire level is“ 2 ”and the point is 2 × 30 =“ 60 ”. If“ fire spread ”, the fire level is“ 3 ”and the point is 3 × 30 =“ 90 ”. . When the burning building has three floors, the point is set to 3 × 10 = “30”.

【0042】再び図1を参照する。Referring again to FIG.

【0043】最適視点探索部23は、ユーザ入力された
表示対象物、或いは上記検出されたイベント情報に含ま
れるイベント発生地点を表示するのに最適なカメラ視点
の位置を計算する。詳述すれば、最適視点探索部23
は、表示対象物が含まれる表示対象範囲を算出(表示対
象物が複数ある場合はそれら全てを含む表示対象範囲を
算出)して、その表示対象範囲が表示装置7の画面内に
収まるように表示対象範囲とカメラ視点との距離を算出
する。そして、最適視点探索部23は、その算出距離内
におけるカメラ視点と対象範囲間の遮蔽物の有無を考慮
して最適なカメラ視点の位置(座標)又は範囲を決定す
る。これにより、ユーザが注目したい対象物が3次元表
示された建物等の陰に入って見えない等の問題が解消さ
れる。なお、最適カメラ視点は、複数個決定される場合
もある。
The optimum viewpoint search unit 23 calculates the optimal position of the camera viewpoint for displaying the display object input by the user or the event occurrence point included in the detected event information. More specifically, the optimum viewpoint search unit 23
Calculates the display target range including the display target object (if there are a plurality of display target objects, calculates the display target range including all of them) so that the display target range falls within the screen of the display device 7. The distance between the display target range and the camera viewpoint is calculated. Then, the optimal viewpoint search unit 23 determines the optimal position (coordinates) or range of the camera viewpoint in consideration of the presence or absence of an obstacle between the camera viewpoint and the target range within the calculated distance. This solves the problem that the target object that the user wants to pay attention to is hidden behind a three-dimensionally displayed building or the like. Note that a plurality of optimal camera viewpoints may be determined.

【0044】経路決定AP27は、周回経路計算部33
と、弾道経路計算部35と、最短経路計算部37と、経
路決定処理部39とを有している。周回経路計算部33
は、表示対象物を中心とした上述の周回経路を計算す
る。弾道経路計算部35は、現在のカメラ視点位置から
上記最適カメラ視点位置までの上述した弾道経路を算出
する。最短経路計算部37は、現在のカメラ視点位置か
ら上記最適カメラ視点位置までの上記最短経路を算出す
る。経路決定処理部39は、最適視点探索部23におい
て決定された最適カメラ視点位置と、視点制御処理部2
9を通じて重要度判定処理部21から通知された表示方
法とに従って経路決定処理を行なう。通知された表示方
法に周回表示、弾道移動表示、又は最短経路ウォークス
ルー表示が含まれている場合には、経路決定処理部39
は、その表示方法における視点移動経路の算出に対応し
た経路計算部33、35、又は37に上記経路の計算を
させる。このとき、周回経路又は弾道経路を算出させる
場合には、経路決定処理部29は、算出された経路に沿
ってカメラ視点を移動するときに、カメラ視点と表示対
象物との間に遮蔽物が来るか否かを衝突判定処理部28
に判定させる。なお、最適視点探索部25において最適
カメラ視点が複数決定された場合には、経路決定処理部
29は、それら複数の視点の座標位置を順次に移動する
経路か、或いは、表示装置7の画面上にそれら複数の視
点位置と同数のウィンドウを用意して一度に各最適カメ
ラ視点から見た表示を行なうことを決定する。
The route determination AP 27 is provided with a round route calculation unit 33.
And a trajectory route calculation unit 35, a shortest route calculation unit 37, and a route determination processing unit 39. Circuit route calculation unit 33
Calculates the above-mentioned orbital path around the display object. The trajectory path calculation unit 35 calculates the above-described trajectory path from the current camera viewpoint position to the optimal camera viewpoint position. The shortest path calculation unit 37 calculates the shortest path from the current camera viewpoint position to the optimal camera viewpoint position. The route determination processing unit 39 determines the optimal camera viewpoint position determined by the optimal viewpoint search unit 23 and the viewpoint control processing unit 2
9, a route determination process is performed according to the display method notified from the importance determination processing unit 21. If the notified display method includes a lap display, a trajectory movement display, or a shortest path walk-through display, the path determination processing unit 39
Causes the route calculation unit 33, 35, or 37 corresponding to the calculation of the viewpoint movement route in the display method to calculate the above route. At this time, when calculating the orbital path or the trajectory path, when moving the camera viewpoint along the calculated path, the path determination processing unit 29 determines that an obstruction exists between the camera viewpoint and the display target. The collision determination processing unit 28 determines whether or not to come.
Is determined. When a plurality of optimal camera viewpoints are determined by the optimal viewpoint search unit 25, the route determination processing unit 29 determines whether the optimal camera viewpoint is a route that sequentially moves the coordinate positions of the plurality of viewpoints, or on the screen of the display device 7. In this case, it is determined that the same number of windows as the plurality of viewpoint positions are prepared, and the display from the optimum camera viewpoint is performed at a time.

【0045】衝突判定処理部28は、地図データベース
13内の地図データ及び建物の属性情報を元に、カメラ
視点と表示対象物との間に遮蔽物(衝突物)が存在(例
えば一定数以上存在)するか否か、換言すれば、カメラ
視点からの視線上に表示対象物以外のもの(建物など)
が存在するか否かを判定する。この判定において、遮蔽
物が存在すると判定されたときは、その判定結果は、イ
ベント・変更検出部17において検出される。
The collision judging section 28 has an obstruction (collision) between the camera viewpoint and the display object (for example, a certain number or more exists) based on the map data in the map database 13 and the attribute information of the building. ) Or not, in other words, something other than the display target (such as a building) on the line of sight from the camera viewpoint
It is determined whether or not exists. In this determination, when it is determined that a shield exists, the determination result is detected by the event / change detection unit 17.

【0046】視点制御処理部29は、重要度判定処理部
21において重要であると判定されたイベント情報を描
画処理部31に通知して、現在の表示地図範囲からイベ
ント発生地点を含む地図範囲を表示するよう表示変更さ
せる(このとき、ユーザにカメラ視点の制御を自動にす
るか手動にするかを選択させることもできる)。また、
視点制御処理部29は、経路決定AP27において決定
された内容を元に、カメラ視点位置の座標や視線方向な
どを制御して描画処理部31に通知すると共に、それら
通知した情報を視点座標記憶部25に記憶させる。カメ
ラ視点を移動するときは、視点制御処理部29は、カメ
ラ視点の移動速度や視線方向等を制御してそれらの情報
や経路決定AP27において決定された経路の情報(経
路を表す式)を描画処理部31に通知すると共に、それ
ら通知した情報を視点座標記憶部25に記憶させる。カ
メラ視点移動後、カメラ視点移動前の表示方法で地図表
示する場合は、視点制御処理部29は、視点座標記憶部
25からカメラ視点移動前に記憶させた情報を読出し、
その情報に基づいて視点移動前の表示方法を行うように
する。
The viewpoint control processing unit 29 notifies the drawing processing unit 31 of the event information determined to be important by the importance determination processing unit 21 and changes the map range including the event occurrence point from the current display map range. The display is changed to be displayed (at this time, the user can select whether to control the camera viewpoint automatically or manually). Also,
The viewpoint control processing unit 29 controls the coordinates of the camera viewpoint position, the line of sight direction, and the like based on the content determined in the route determination AP 27 to notify the drawing processing unit 31 and also transmits the notified information to the viewpoint coordinate storage unit. 25. When moving the camera viewpoint, the viewpoint control processing unit 29 controls the moving speed and the line-of-sight direction of the camera viewpoint, and draws the information and the information of the route determined by the route determination AP 27 (expression representing the route). In addition to notifying the processing unit 31, the notified information is stored in the viewpoint coordinate storage unit 25. When the map is displayed by the display method before the camera viewpoint movement after the camera viewpoint movement, the viewpoint control processing unit 29 reads the information stored before the camera viewpoint movement from the viewpoint coordinate storage unit 25,
The display method before the movement of the viewpoint is performed based on the information.

【0047】描画処理部31は、視点制御処理部29か
ら与えられる視点制御情報(表示対象物の位置情報、現
在のカメラ視点の座標情報、目的のカメラ視点の座標情
報、視線方向情報、視点移動速度情報、経路決定AP2
7において決定された経路の情報等)を元に、地図デー
タベース13から地図データ及び建物の属性情報を読出
し、且つ、イベントデータ保存部15から表示地図範囲
に係るイベント情報を読出して、3次元地図の描画処理
を行う。このとき、例えば、読出したイベント情報に火
災発生とあるときは、描画処理部31は、火災の発生し
ている建物の色を赤く表示して、ユーザに火災が発生し
ている建物を知らせる。
The drawing processing unit 31 is provided with viewpoint control information (position information of a display object, coordinate information of a current camera viewpoint, coordinate information of a target camera viewpoint, gaze direction information, viewpoint movement information) supplied from a viewpoint control processing unit 29. Speed information, route determination AP2
7), the map data and the attribute information of the building are read out from the map database 13 and the event information relating to the display map range is read out from the event data storage unit 15 based on the three-dimensional map. Is performed. At this time, for example, when the read event information indicates that a fire has occurred, the drawing processing unit 31 displays the building in which the fire has occurred in red to notify the user of the building in which the fire has occurred.

【0048】以上が、本実施形態に係る地図表示装置1
の説明である。以下、本実施形態における、イベント情
報入力からカメラ視点移動までの地図表示装置1の動作
の流れを説明する。
The above is the map display device 1 according to the present embodiment.
It is description of. Hereinafter, the flow of the operation of the map display device 1 from the input of the event information to the movement of the camera viewpoint in the present embodiment will be described.

【0049】図8は、イベント情報入力からカメラ視点
移動までの地図表示装置1の動作の流れの一例を示す。
FIG. 8 shows an example of the operation flow of the map display device 1 from the input of the event information to the movement of the camera viewpoint.

【0050】シミュレーション処理部14若しくは通信
装置11よりイベント情報、例えば「建物Aが燃え始め
た」がイベントデータ保存部15に(更に地図データベ
ース13にも)入力されたとする(ステップS1)。す
ると、イベント・変更検出部17によりイベント情報が
入力されたことを検出し(S2)、そのイベント情報を
イベント・変更検出部17から重要度判定処理部21に
渡す。重要度判定処理部21は、重要度ポイントルール
表に従って、そのイベント情報の重要度が判定する(S
3)。ここで、重要であると判定すれば、そのイベント
情報を視点制御処理部29に渡して次のステップS4に
進み、重要でないと判定すれば、この動作を終える(但
し、入力されたイベント情報は、後にそのイベント発生
地点を含む範囲を地図表示するときには地図上に反映す
るようにする)。入力されたイベント情報が複数ある場
合には、重要度判定処理部21は、重要であると判定し
たイベント情報をそれぞれの重要度に基づいて順位付け
する。
It is assumed that event information, for example, “building A has started burning” is input to the event data storage unit 15 (and also to the map database 13) from the simulation processing unit 14 or the communication device 11 (step S1). Then, the event / change detection unit 17 detects that the event information has been input (S2), and passes the event information from the event / change detection unit 17 to the importance determination processing unit 21. The importance determination processing unit 21 determines the importance of the event information in accordance with the importance point rule table (S
3). Here, if it is determined that the event information is important, the event information is passed to the viewpoint control processing unit 29, and the process proceeds to the next step S4. If it is determined that the event information is not important, the operation is terminated. Later, when displaying the map including the event occurrence point on a map, the range is reflected on the map). When there are a plurality of input event information, the importance determination processing unit 21 ranks the event information determined to be important based on the respective importances.

【0051】また、このステップS3において、ステッ
プS1で入力されたイベント情報が重要であると判定し
たときは、重要度判定処理部21は、ユーザに入力され
た表示優先内容(つまり、表示の迅速性、カメラ視点と
表示対象物との位置関係の把握、現在のカメラ視点から
表示対象物までの移動ルートの把握のうちどれを優先す
るか)に基づいて、上述した複数の表示方法の重要度
(適切度)を判断し、重要であると判定した表示方法を
視点制御処理部29に通知する。
When it is determined in step S3 that the event information input in step S1 is important, the importance determination processing unit 21 sets the display priority content input by the user (that is, quick display of the display). The importance of the above-mentioned multiple display methods on the basis of the following: the priority of grasping the positional relationship between the camera viewpoint and the display object and the movement route from the current camera viewpoint to the display object) (Appropriateness) is determined, and the viewpoint control processing unit 29 is notified of the display method determined to be important.

【0052】ステップS3において、重要であると判定
されたイベント情報及び表示方法が視点制御処理部29
に通知したときは、視点制御処理部29によって、視点
変更処理(表示地図範囲変更処理)を行ってそのイベン
ト情報をユーザに表示すると共に、ユーザに対して、カ
メラ視点の制御を「自動」で行なうか「手動」で行うか
の問い合わせをする(S4)。このとき、「自動」が選
択されたときは、次のステップS5に進み、「手動」が
選択されたときは、ユーザのカメラ視点操作に応じた描
画処理を行う。
In step S 3, the event information determined to be important and the display method are stored in the viewpoint control processing unit 29.
, The viewpoint control processing unit 29 performs a viewpoint change process (display map range change process) to display the event information to the user, and provides the user with the "automatic" control of the camera viewpoint. An inquiry is made as to whether to perform the operation or "manually" (S4). At this time, when "automatic" is selected, the process proceeds to the next step S5, and when "manual" is selected, drawing processing according to the user's camera viewpoint operation is performed.

【0053】ステップS4において、カメラ視点の制御
を自動で行うことが選択されたときは、最適視点探索部
23によって上述した最適のカメラ視点座標Eを決定
する(S5)(なお、イベント情報が複数ある場合に
は、それぞれのイベント情報について最適のカメラ視点
座標E、E、…と決定する)。次に、視点制御処理
部29から上記通知された表示方法を経路決定AP27
に通知し(S6)、経路決定AP27によってカメラ視
点の移動経路の決定処理を行なう(S7)。
[0053] In step S4, when it is selected for controlling the camera viewpoint automatically determines the camera viewpoint coordinates E 1 of the optimum as described above by the optimum viewpoint searching unit 23 (S5) (Note that the event information When there are a plurality of event information, the optimal camera viewpoint coordinates E 2 , E 3 ,... Are determined for each event information). Next, the display method notified from the viewpoint control processing unit 29 is changed to the route determination AP 27.
(S6), and the route determination AP 27 performs a process of determining the movement route of the camera viewpoint (S7).

【0054】ステップS7では、経路決定AP27の経
路決定処理部39が、現在のカメラ視点座標Sから、最
適視点探索部23で決定された最適カメラ視点座標E
への移動経路を決定する。イベント情報が複数ある場合
には、それぞれのイベント情報について決定された最適
カメラ視点座標を重要度の高い順に全てまわるように経
路決定する。例えば、現在の座標Sから第1の最適カメ
ラ視点座標Eへの経路を決定し、次に第1の最適カメ
ラ視点座標Eから第2のカメラ視点座標Eへ、次に
第2の最適カメラ視点座標Eから第3のカメラ視点座
標Eへの経路を決定する。なお、ここでは、複数の最
適カメラ視点座標と同数のウィンドウを表示画面上に設
けるようにし、各ウィンドウに各最適カメラ視点から見
た画像を表示するようにすることもできる。
In step S 7, the route determination processing unit 39 of the route determination AP 27 uses the current camera viewpoint coordinates S to determine the optimal camera viewpoint coordinates E 1 determined by the optimal viewpoint search unit 23.
Determine the route to go to. When there is a plurality of event information, a route is determined so that the optimal camera viewpoint coordinates determined for each event information are all circulated in descending order of importance. For example, to determine the route from the current coordinates S to the first optimal camera viewpoint coordinates E 1, then the first optimal camera viewpoint coordinates E 1 to the second camera viewpoint coordinates E 2, then the second determining a path from the optimum camera viewpoint coordinates E 2 to the third camera viewpoint coordinates E 3. Here, it is also possible to provide the same number of windows as the plurality of optimal camera viewpoint coordinates on the display screen, and to display an image viewed from each optimal camera viewpoint in each window.

【0055】経路決定AP27に、最短経路ウォークス
ルー表示及び周回表示が通知されている場合には、最短
経路計算処理部37において、現在のカメラ視点座標S
から最適カメラ視点座標Eへの道路に沿った最短経路
を計算し(S8)、更に、周回経路計算部33におい
て、表示対象物を中心として最適カメラ視点座標E
ら常にその表示対象物が表示の中心になるようにした円
軌道を計算する(S9)。周回経路を計算するときは、
衝突判定処理部28において、その円軌道が高層建築物
等と交差しないかどうかを判定し(S10)、もし、交
差するようならば、別の軌道での周回経路計算を行なう
(S11)。
When the shortest path walk-through display and the round display are notified to the path determination AP 27, the shortest path calculation processing section 37 causes the current camera viewpoint coordinates S
The shortest path along the road to the optimal camera viewpoint coordinates E 1 calculated from (S8), further, the circular path calculation unit 33, is always the display object from the optimal camera viewpoint coordinates E 1 around the display object A circular trajectory set to be the center of the display is calculated (S9). When calculating the orbital route,
In the collision determination processing unit 28, it is determined whether the circular track does not intersect with a high-rise building or the like (S10). If the circular track does intersect, a round path calculation on another track is performed (S11).

【0056】ステップS11において上記交差の無い円
軌道を計算できたら、カメラ視点の移動経路の決定処理
が終了し、決定された移動経路の情報を視点制御処理部
29に渡す(S12)。視点制御処理部29は、その移
動経路を基に視点制御を行うと共に、その視点制御に関
する情報を描画処理部31に通知する(S13)。描画
処理部31は、その視点制御情報、地図データベース1
3内の地図データ及び建物属性情報、及びイベントデー
タ保存部15内のイベント情報に基づいて描画処理を行
い(S14)、その処理結果を表示する(S15)。
When the above-mentioned circular trajectory without intersection is calculated in step S11, the processing for determining the moving path from the camera viewpoint is completed, and information on the determined moving path is passed to the viewpoint control processing unit 29 (S12). The viewpoint control processing unit 29 controls the viewpoint based on the movement route, and notifies the drawing processing unit 31 of information on the viewpoint control (S13). The drawing processing unit 31 stores the viewpoint control information, the map database 1
Drawing processing is performed based on the map data and building attribute information in 3 and the event information in the event data storage unit 15 (S14), and the processing result is displayed (S15).

【0057】図9は、図8のステップS3においてイベ
ント情報の重要性を判定するときの流れを示す。
FIG. 9 shows a flow for judging the importance of the event information in step S3 of FIG.

【0058】イベント情報の重要性は、既に説明したよ
うに、重要度ポイントルール表を参照し、そのイベント
が該当する「判定種別」のポイントを元に、イベント情
報をポイントで表して判定する。これに関して、イベン
ト情報が火災に関するものである場合を例に、図7に示
した重要度ポイントルール表を参照して具体的に言え
ば、まず、イベント情報に含まれる火災状況情報(例え
ば、発火、延焼中、或いは加熱中)に応じて「火災レベ
ル」を決定し、決定した火災レベル×30を算出して、
算出したポイントを重要判定処理スタート時の重要度0
に加算する(S16)。次に、火災にあっている建物の
階数情報からその階数×10を算出し、算出したポイン
トを直前の算出ポイントに加算する(S17)。次に、
火災にあっている建物が非耐火性であれば(S18で
Y)、直前の算出ポイントに40ポイント加算し(S1
9)、耐火性であれば(S18でN)、直前の算出ポイ
ントに20ポイント加算する(S20)。次に、イベン
ト情報に災害弱者(老人、身障者等)が在宅していると
いう情報が含まれていれば(S21でY)、直前の算出
ポイントに100ポイント加算する(S22)。次に、
イベント情報に危険物取扱情報(例えば火災地点がガソ
リンスタンド)が含まれていれば(S23でY)、直前
の算出ポイントに100ポイント加算する(S24)。
次に、火災にあっている建物が公共建築物である場合
(S25でY)、例えば、病院である場合は(S26で
Y)、直前の算出ポイントに100ポイント加算し(S
27)、学校である場合は(S28でY)、直前の算出
ポイントに70ポイント加算する(S29)。次に、イ
ベント情報に、火災にあっている建物に重要文化財があ
るという情報が含まれていれば(S30でY)、直前の
算出ポイントに50ポイント加算する。
As described above, the importance of the event information is determined by referring to the importance point rule table and expressing the event information as points based on the points of the “judgment type” to which the event applies. In this regard, taking the case where the event information is related to fire as an example, and referring specifically to the importance point rule table shown in FIG. 7, first, fire condition information (for example, fire , During the spread of fire, or during the heating), determine the “fire level”, calculate the determined fire level × 30,
The calculated points are assigned an importance level of 0 at the start of the importance determination process
(S16). Next, the number of floors × 10 is calculated from the information on the number of floors of the building in which the fire is occurring, and the calculated point is added to the immediately preceding calculated point (S17). next,
If the building that has been fired is non-fireproof (Y in S18), 40 points are added to the immediately preceding calculation point (S1).
9) If it is fire resistant (N in S18), 20 points are added to the immediately preceding calculation point (S20). Next, if the event information includes information indicating that a vulnerable person (an elderly person, a handicapped person, etc.) is at home (Y in S21), 100 points are added to the immediately preceding calculation point (S22). next,
If the event information includes dangerous substance handling information (for example, the fire point is a gas station) (Y in S23), 100 points are added to the immediately preceding calculation point (S24).
Next, if the building that is in the fire is a public building (Y in S25), for example, if it is a hospital (Y in S26), 100 points are added to the immediately preceding calculation point (S25).
27) If it is a school (Y in S28), 70 points are added to the immediately preceding calculation point (S29). Next, if the event information includes information indicating that the building having the fire has an important cultural property (Y in S30), 50 points are added to the immediately preceding calculation point.

【0059】以上のポイント加算の結果、合計ポイント
(重要度)が一定ポイント以上、例えば50ポイント以
上あれば(S32でY)、上記イベント情報は重要であ
ると判定し(S33)、50ポイント未満であれば(S
32でN)、重要でないと判定する(S34)。重要で
あると判定したときは、カメラ視点移動の自動制御処理
を行うようにしても良い。
As a result of the above point addition, if the total point (importance) is equal to or more than a certain point, for example, 50 points or more (Y in S32), it is determined that the event information is important (S33) and less than 50 points. If (S
32, N), it is determined that it is not important (S34). When it is determined that it is important, automatic control processing of camera viewpoint movement may be performed.

【0060】なお、イベント情報が複数検出されたとき
は、各イベント情報についてこの処理流れに基づいて重
要度を算出して重要性を判定し、重要であると判定した
イベント情報が複数あれば、重要度ポイントの高い順に
順位付けする。図10にその一例を示す。
When a plurality of event information is detected, the importance is calculated for each event information based on the processing flow to determine the importance. If there is a plurality of event information determined to be important, Rank in order of importance point. FIG. 10 shows an example.

【0061】すなわち、例えば、「イベントA:発火、
木造、平屋建て、一般住宅」、「イベントB:延焼中、
鉄筋、5階建て、病院」、「イベントC:加熱中、木
造、2階建て」、「イベントD:加熱中、木造、1階建
て、老人在宅」の4つのイベント情報が検出されたとき
は、図9に示した重要度判定処理フローに基づいてそれ
らイベント情報の重要度ポイントを算出する。その結
果、イベントAは重要度110、イベントBは重要度3
60、イベントCは重要度90、イベントDは重要度1
80となり、全てのイベント情報の重要度ポイントは5
0ポイント以上なので、全てのイベント情報は重要であ
ると判定する。このときは、重要度の高い順に順位付け
する。この結果、図10に示すように、公共性が高く災
害弱者のいる病院に関するイベント情報Bが最も重要性
(優先順位)が高くなる。上述した視点移動制御では、
既に説明したように、重要度ポイントの高いものほど重
要であるとして重要度の高いイベント情報を優先的に表
示するようにする。
That is, for example, “event A: firing,
Wooden, single-story, general house "," Event B: During the spread of fire,
When four event information items of “reinforcing bar, 5 stories, hospital”, “event C: heating, wooden, 2 stories”, and “event D: heating, wooden, 1 story, home for the elderly” are detected. The importance point of the event information is calculated based on the importance determination processing flow shown in FIG. As a result, event A has an importance of 110 and event B has an importance of 3
60, event C is importance 90, event D is importance 1
80, the importance point of all event information is 5
Since it is 0 point or more, all event information is determined to be important. At this time, the ranking is made in descending order of importance. As a result, as shown in FIG. 10, the event information B relating to the hospital having a high public nature and having the vulnerable to disaster has the highest importance (priority). In the viewpoint movement control described above,
As described above, the higher the importance point, the higher the importance of the event information.

【0062】以上、上述した実施形態によれば、カメラ
視点移動(表示変更)が自動的に行なわれるので、ユー
ザにとって便利になる。また、そのカメラ視点移動は、
ユーザ入力された表示優先内容又はイベント情報の属性
に基づいて行なわれるので、自動的にユーザにとって分
かり易い視点移動方法が提供され、3次元空間の位置把
握や迅速な現場指揮を支援することができる。
As described above, according to the above-described embodiment, the camera viewpoint movement (display change) is automatically performed, which is convenient for the user. Also, the camera viewpoint movement
Since the process is performed based on the display priority content or the attribute of the event information input by the user, a viewpoint moving method that is easily understood by the user is automatically provided, and it is possible to assist in grasping the position in the three-dimensional space and prompt commanding on the spot. .

【0063】また、上述した実施形態によれば、通信ネ
ットワーク3を通じて他の地図表示装置や所定のシステ
ム5と通信可能な状態になっていてイベント情報がいつ
でも入力されるようになっており、且つ、イベント情報
が入力されたときはそのイベント情報がユーザにとって
重要か否かを自動的に判別し自動的に表示する。これに
より、重要なイベントが発生したときや地図情報が更新
されたとき等、現在の表示領域外のものに関して重要な
情報が入力又は更新されたときは、自動的にその重要情
報に関する表示領域を表示できるので、重要情報の更新
の見落とし等の人的なケアレスミスをなくすことができ
る。
Further, according to the above-mentioned embodiment, event information can be input at any time by being communicable with another map display device or a predetermined system 5 through the communication network 3. When the event information is input, it is automatically determined whether or not the event information is important for the user, and is automatically displayed. Thus, when important information is input or updated for an item outside the current display area, such as when an important event occurs or when map information is updated, the display area for that important information is automatically changed. Since it can be displayed, it is possible to eliminate human careless mistakes such as oversight of updating of important information.

【0064】また、上述した実施形態によれば、情報の
重要度によって表示を自動制御し、不必要な情報は表示
しないように、且つ、重要な情報は、重要度の高いもの
から優先的に表示するようにする。これにより、現場活
動における指揮などの作業の効率化を図ることができ
る。
Further, according to the above-described embodiment, the display is automatically controlled according to the importance of the information, so that unnecessary information is not displayed, and important information is given priority from the one with the highest importance. To be displayed. As a result, it is possible to improve the efficiency of operations such as conducting in the on-site activities.

【0065】以上、本発明の好適な幾つかの実施形態を
説明したが、これらは本発明の説明のための例示であっ
て、本発明の範囲をこれらの実施例にのみ限定する趣旨
ではない。本発明は、他の種々の形態でも実施すること
が可能である。例えば、上述した地図表示装置1にGP
S装置を搭載し、推定現在位置から目的の位置への移動
におけるウォークスルー表示を自動的に行うようにして
も良い。
Although some preferred embodiments of the present invention have been described above, these are merely examples for describing the present invention, and are not intended to limit the scope of the present invention only to these examples. . The present invention can be implemented in other various forms. For example, the above-described map display device 1
The S device may be mounted to automatically perform a walk-through display when moving from the estimated current position to the target position.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した3次元地図表示装置の一実施
形態の全体構成を示すブロック図。
FIG. 1 is a block diagram showing an overall configuration of an embodiment of a three-dimensional map display device to which the present invention is applied.

【図2】直線ウォークスルー表示のモデルを示す図。FIG. 2 is a diagram showing a model of a straight line walk-through display.

【図3】最短経路ウォークスルー表示のモデルを示す
図。
FIG. 3 is a diagram showing a model of a shortest path walk-through display.

【図4】弾道移動表示のモデルを示す図。FIG. 4 is a diagram showing a model of trajectory movement display.

【図5】周回表示のモデルを示す図。FIG. 5 is a diagram showing a model of a rotation display.

【図6】クローズアップ表示のモデルを示す図。FIG. 6 is a diagram showing a model of a close-up display.

【図7】重要度ポイントルール表の一例を示す図。FIG. 7 is a diagram showing an example of an importance point rule table.

【図8】イベント情報入力からカメラ視点移動までの地
図表示装置1の動作の流れの一例を示す図。
FIG. 8 is a diagram showing an example of an operation flow of the map display device 1 from input of event information to movement of a camera viewpoint.

【図9】イベント情報の重要性を判定するときの流れ
図。
FIG. 9 is a flowchart for determining the importance of event information.

【図10】イベント情報が複数検出されたときの、各イ
ベント情報の重要度と順位。
FIG. 10 shows the importance and order of each piece of event information when a plurality of pieces of event information are detected.

【符号の説明】[Explanation of symbols]

1 地図表示装置 3 通信ネットワーク 7 表示装置(ディスプレイ) 9 入力装置 11 通信装置 13 地図データベース 14 シミュレーション処理部 15 イベントデータ保存部 17 イベント・変更検出部 19 重要度ポイントルール表保存部 21 重要度判定処理部 23 最適視点探索部 25 視点座標記憶部 27 経路決定アプリケーション(経路決定AP) 28 衝突判定処理部 29 視点制御処理部 31 描画処理部 33 周回経路計算部 35 弾道経路計算部 37 最短経路計算部 39 経路決定処理部 Reference Signs List 1 map display device 3 communication network 7 display device (display) 9 input device 11 communication device 13 map database 14 simulation processing unit 15 event data storage unit 17 event / change detection unit 19 importance point rule table storage unit 21 importance determination processing Unit 23 optimal viewpoint search unit 25 viewpoint coordinate storage unit 27 path determination application (path determination AP) 28 collision determination processing unit 29 viewpoint control processing unit 31 drawing processing unit 33 circuit path calculation unit 35 ballistic path calculation unit 37 shortest path calculation unit 39 Route decision processing unit

フロントページの続き (72)発明者 桑田 喜隆 東京都江東区豊洲三丁目3番3号 株式会 社エヌ・ティ・ティ・データ内 (72)発明者 石川 裕治 東京都江東区豊洲三丁目3番3号 株式会 社エヌ・ティ・ティ・データ内 (72)発明者 庄 直樹 東京都渋谷区千駄ヶ谷1丁目7番16号 株 式会社キャドセンター内 Fターム(参考) 5B050 BA09 BA17 EA24 FA02 FA06 5E501 AA01 AC15 AC25 BA03 BA05 CA02 CB02 CB09 CB14 EB05 FA14 FA36 FB04 FB22 Continued on the front page (72) Inventor Yoshitaka Kuwata 3-3-3 Toyosu, Koto-ku, Tokyo Inside NTT Data Corporation (72) Inventor Yuji Ishikawa 3-3-1, Toyosu, Koto-ku, Tokyo No. NTT Data Corporation (72) Inventor Naoki Sho 1-7-16 Sendagaya, Shibuya-ku, Tokyo F-term in Cad Center Co., Ltd. 5B050 BA09 BA17 EA24 FA02 FA06 5E501 AA01 AC15 AC25 BA03 BA05 CA02 CB02 CB09 CB14 EB05 FA14 FA36 FB04 FB22

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 所定のイメージを表示する表示手段と、 前記所定のイメージのいずれかの領域で発生したイベン
トの情報が入力されたことを検出する検出手段と、 現在表示している領域から前記検出したイベント情報に
含まれるイベント発生領域に前記イメージの表示を変更
する表示変更手段とを備える表示制御装置。
A display unit configured to display a predetermined image; a detection unit configured to detect that information of an event that has occurred in an area of the predetermined image is input; A display control device comprising: display change means for changing the display of the image in an event occurrence area included in the detected event information.
【請求項2】 前記入力されたイベント情報が重要か否
かを判定する判定手段を更に備え、 前記表示変更手段が、前記判定によって前記イベント情
報が重要であると判定されたときにだけ、前記表示変更
を行う請求項1記載の表示制御装置。
2. The apparatus according to claim 1, further comprising a determination unit configured to determine whether the input event information is important, wherein the display change unit determines that the event information is important only when the event information is determined to be important. The display control device according to claim 1, wherein the display is changed.
【請求項3】 イベント情報の重要度を算出するための
参照テーブルが用意されており、 前記判定手段が、前記参照テーブル又はユーザ個人情報
に基づいて前記入力されたイベント情報の重要度を算出
し、その算出した重要度が一定数以上のときに前記入力
されたイベント情報が重要であると判定する請求項2記
載の表示制御装置。
3. A reference table for calculating the importance of the event information is provided, and the determining means calculates the importance of the input event information based on the reference table or user personal information. 3. The display control device according to claim 2, wherein the input event information is determined to be important when the calculated importance is a certain number or more.
【請求項4】 イベント発生領域が複数存在する場合
は、 前記判定手段が、それらのイベント発生領域に係るイベ
ント情報について各々重要度を算出して、各イベント情
報を重要度の高い順に順位付けし、 前記表示変更手段が、前記順位付けされた順番で各々の
イベント発生領域を表示するように表示変更するか、或
いは、表示画面上に前記複数のイベント発生領域と同数
の表示ウィンドウを設けて各表示ウィンドウ内に各々の
イベント発生領域を表示するように表示変更する請求項
1又は3記載の表示制御装置。
4. When there are a plurality of event occurrence areas, the determination means calculates the importance of each of the event information related to the event occurrence areas, and ranks each event information in descending order of importance. The display changing means may change the display so as to display each event occurrence area in the ranked order, or provide the same number of display windows as the plurality of event occurrence areas on a display screen, and 4. The display control device according to claim 1, wherein the display is changed so that each event occurrence area is displayed in the display window.
【請求項5】 所定のイメージを3次元で表示する表示
手段と、 前記3次元イメージのユーザ指定の領域を隠れることな
く表示できるような目的カメラ視点の位置を決定する目
的視点決定手段と、 ユーザ入力される表示優先内容に基づいて現在のカメラ
視点位置を前記目的カメラ視点位置へ視点変更する視点
変更手段とを備える表示制御装置。
5. A display means for displaying a predetermined image three-dimensionally, a target viewpoint determination means for determining a position of a target camera viewpoint so that a user-specified area of the three-dimensional image can be displayed without being hidden, A display control unit that changes the viewpoint of the current camera viewpoint to the target camera viewpoint based on the input display priority content.
【請求項6】 前記目的視点決定手段が、前記3次元イ
メージのいずれかの領域で発生したイベントの情報が入
力されたときの前記イベント情報に含まれる前記イベン
ト発生の領域を隠れることなく表示できるような目的カ
メラ視点の位置を決定する請求項5記載の表示制御装
置。
6. The target viewpoint determining means can display, without hiding, a region of the event occurrence included in the event information when information of an event occurred in any region of the three-dimensional image is input. The display control device according to claim 5, wherein the position of the target camera viewpoint is determined.
【請求項7】 前記目的視点決定手段が、前記ユーザ指
定領域又は前記イベント発生領域が表示画面内に収まる
倍率を計算し、その計算結果に基づいて前記目的カメラ
視点の位置を決定する請求項5又は6記載の表示制御装
置。
7. The target viewpoint determining means calculates a magnification at which the user-specified area or the event occurrence area falls within a display screen, and determines the position of the target camera viewpoint based on the calculation result. Or the display control device according to 6.
【請求項8】 前記目的視点決定手段が、前記ユーザ指
定領域又は前記イベント発生領域が複数存在する場合は
それら全てのユーザ指定領域又はイベント発生領域を含
む最小範囲を計算し、その計算結果に基づいて前記目的
カメラ視点の位置を決定する請求項5又は6記載の表示
制御装置。
8. When there are a plurality of the user designated areas or the event occurrence areas, the destination viewpoint determining means calculates a minimum range including all the user designated areas or the event occurrence areas, and based on the calculation result. The display control device according to claim 5, wherein the position of the viewpoint of the target camera is determined by the method.
【請求項9】 前記視点変更手段が、現在のカメラ視点
から前記目的カメラ視点への視点変更を、視点切換え又
は視点移動のどちらかによって行なう請求項5記載の表
示制御装置。
9. The display control device according to claim 5, wherein the viewpoint changing means changes the viewpoint from a current camera viewpoint to the target camera viewpoint by either viewpoint switching or viewpoint movement.
【請求項10】 前記視点変更手段が、現在のカメラ視
点から前記目的カメラ視点へ視点移動することで視点変
更するときは、現在のカメラ視点と前記目的カメラ視点
との間に一定数以上の遮蔽物が存在しないような、又
は、カメラ視点と前記ユーザ指定領域又は前記イベント
発生領域との間に一定数以上の遮蔽物が存在しないよう
な視点移動経路を算出する請求項9記載の表示制御装
置。
10. When the viewpoint changing means changes the viewpoint by moving the viewpoint from the current camera viewpoint to the target camera viewpoint, a certain number or more of shields are provided between the current camera viewpoint and the target camera viewpoint. 10. The display control device according to claim 9, wherein a viewpoint movement path is calculated such that an object does not exist or a certain number or more of obstacles do not exist between a camera viewpoint and the user-specified region or the event occurrence region. .
【請求項11】 前記入力されたイベント情報が重要か
否かを判定する判定手段を更に備え、 前記視点変更手段が、前記判定によって前記イベント情
報が重要であると判定されたときにだけ、前記視点変更
を行う請求項6記載の表示制御装置。
And determining whether the input event information is important. The viewpoint changing means determines whether the event information is important only when the event information is important. The display control device according to claim 6, wherein a viewpoint is changed.
【請求項12】 所定のイメージを表示する表示ステッ
プと、 前記所定のイメージのいずれかの領域で発生したイベン
トの情報が入力されたことを検出する検出ステップと、 現在表示している領域から前記検出したイベント情報に
含まれるイベント発生領域に前記イメージの表示を変更
する表示変更ステップとを有する表示制御方法。
12. A display step of displaying a predetermined image, a detection step of detecting that information of an event occurred in any area of the predetermined image has been input, and A display change step of changing the display of the image in an event occurrence area included in the detected event information.
【請求項13】 所定のイメージを3次元で表示する表
示ステップと、 前記3次元イメージのユーザ指定の領域を隠れることな
く表示できるような目的カメラ視点の位置を決定する目
的視点決定ステップと、 ユーザ入力される表示優先内容に基づいて現在のカメラ
視点位置を前記目的カメラ視点位置へ視点変更する視点
変更ステップとを有する表示制御方法。
13. A display step of displaying a predetermined image in three dimensions, a target viewpoint determination step of determining a position of a target camera viewpoint so that a user-specified area of the three-dimensional image can be displayed without being hidden, A viewpoint changing step of changing the current camera viewpoint position to the target camera viewpoint position based on the input display priority content.
【請求項14】 所定のイメージを表示する表示ステッ
プと、 前記所定のイメージのいずれかの領域で発生したイベン
トの情報が入力されたことを検出する検出ステップと、 現在表示している領域から前記検出したイベント情報に
含まれるイベント発生領域に前記イメージの表示を変更
する表示変更ステップとをコンピュータに実行させるた
めのプログラムを記録したコンピュータ読取可能な記録
媒体。
14. A display step of displaying a predetermined image, a detection step of detecting that information of an event occurred in any area of the predetermined image has been input, and A computer-readable recording medium recording a program for causing a computer to execute a display change step of changing a display of the image in an event occurrence area included in the detected event information.
【請求項15】 所定のイメージを3次元で表示する表
示ステップと、 前記3次元イメージのユーザ指定の領域を隠れることな
く表示できるような目的カメラ視点の位置を決定する目
的視点決定ステップと、 ユーザ入力される表示優先内容に基づいて現在のカメラ
視点位置を前記目的カメラ視点位置へ視点変更する視点
変更ステップとをコンピュータに実行させるためのプロ
グラムを記録したコンピュータ読取可能な記録媒体。
15. A display step of displaying a predetermined image three-dimensionally, a target viewpoint determination step of determining a position of a target camera viewpoint so that a user-specified area of the three-dimensional image can be displayed without being hidden, A computer-readable recording medium storing a program for causing a computer to execute a viewpoint changing step of changing a current camera viewpoint position to the target camera viewpoint position based on input display priority content.
JP2000206265A 2000-07-07 2000-07-07 Display control device and method using computer Pending JP2002024862A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000206265A JP2002024862A (en) 2000-07-07 2000-07-07 Display control device and method using computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000206265A JP2002024862A (en) 2000-07-07 2000-07-07 Display control device and method using computer

Publications (1)

Publication Number Publication Date
JP2002024862A true JP2002024862A (en) 2002-01-25

Family

ID=18703216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000206265A Pending JP2002024862A (en) 2000-07-07 2000-07-07 Display control device and method using computer

Country Status (1)

Country Link
JP (1) JP2002024862A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241710A (en) * 2006-03-09 2007-09-20 Casio Comput Co Ltd Screen display controller and screen display control processing program
US7460952B2 (en) 2004-04-05 2008-12-02 Sony Corporation Navigation apparatus, and data processing method and computer program used therewith
JP2011048797A (en) * 2009-08-28 2011-03-10 Fujitsu Ltd Image display method, information processing device and image display program
JP2011530753A (en) * 2008-08-11 2011-12-22 ソニー エリクソン モバイル コミュニケーションズ, エービー Mobile electronics
US8620997B2 (en) 2009-03-24 2013-12-31 Casio Computer Co., Ltd Client apparatus, computer system, computer readable program storage medium and display method, each for detecting change of display contents in status bar area to display the change
US8683376B2 (en) 2008-03-18 2014-03-25 Casio Computer Co., Ltd Server unit, a client unit, and a recording medium in a computer system
US8797189B2 (en) 2011-03-22 2014-08-05 Mitsubishi Heavy Industries, Ltd. Control display system, method, and program
US8918450B2 (en) 2006-02-14 2014-12-23 Casio Computer Co., Ltd Server apparatuses, server control programs, and client apparatuses for a computer system in which created drawing data is transmitted to the client apparatuses
JP6225242B1 (en) * 2016-12-28 2017-11-01 株式会社コロプラ Information processing method, apparatus, and program causing computer to execute information processing method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7460952B2 (en) 2004-04-05 2008-12-02 Sony Corporation Navigation apparatus, and data processing method and computer program used therewith
US8918450B2 (en) 2006-02-14 2014-12-23 Casio Computer Co., Ltd Server apparatuses, server control programs, and client apparatuses for a computer system in which created drawing data is transmitted to the client apparatuses
JP2007241710A (en) * 2006-03-09 2007-09-20 Casio Comput Co Ltd Screen display controller and screen display control processing program
US8683376B2 (en) 2008-03-18 2014-03-25 Casio Computer Co., Ltd Server unit, a client unit, and a recording medium in a computer system
JP2011530753A (en) * 2008-08-11 2011-12-22 ソニー エリクソン モバイル コミュニケーションズ, エービー Mobile electronics
US8620997B2 (en) 2009-03-24 2013-12-31 Casio Computer Co., Ltd Client apparatus, computer system, computer readable program storage medium and display method, each for detecting change of display contents in status bar area to display the change
JP2011048797A (en) * 2009-08-28 2011-03-10 Fujitsu Ltd Image display method, information processing device and image display program
US8797189B2 (en) 2011-03-22 2014-08-05 Mitsubishi Heavy Industries, Ltd. Control display system, method, and program
JP6225242B1 (en) * 2016-12-28 2017-11-01 株式会社コロプラ Information processing method, apparatus, and program causing computer to execute information processing method
JP2018106605A (en) * 2016-12-28 2018-07-05 株式会社コロプラ Information processing method, device, and program for causing computer to execute the information processing method

Similar Documents

Publication Publication Date Title
US10677609B2 (en) Method and device for providing guidance to street view destination
Wang et al. BIM based virtual environment for fire emergency evacuation
CN105180924B (en) A kind of air navigation aid being lined up based on dining room and mobile terminal
US8692835B2 (en) Spawning projected avatars in a virtual universe
Freitag et al. Reorientation in virtual environments using interactive portals
US20140344725A1 (en) Generating data for managing encounters in a virtual world environment
US20030058283A1 (en) Method and system for providing tactical information during crisis situations
KR20060119805A (en) System, method and computer program product for user interface operations for ad-hoc sensor node tracking
US20030151592A1 (en) Method for requesting destination information and for navigating in a map view, computer program product and navigation unit
JP2007530967A (en) Route search system
US10180735B1 (en) Navigation methods for three dimensional (3D) models in mixed reality (MR) environments
EP0891579B1 (en) Control interface
JP2002024862A (en) Display control device and method using computer
Suma et al. Exploiting change blindness to expand walkable space in a virtual environment
EP3336491B1 (en) Navigation method and apparatus, and storage medium and device
US20130282280A1 (en) Control module for a route guidance system
CN108579089A (en) Virtual item control method and device, storage medium, electronic equipment
CN110215712A (en) Edit methods and device, storage medium, the electronic equipment of virtual resource
Nescher et al. Simultaneous mapping and redirected walking for ad hoc free walking in virtual environments
JP2505104B2 (en) Method and computer system for pointer remapping
Rocha et al. Navigation based application with augmented reality and accessibility
JP2008123240A (en) Building information retrieval system
Marble et al. Lessons learned from usability tests with a collaborative cognitive workspace for human-robot teams
KR101659782B1 (en) Method for providing of 3D indoor space information in user view point considering wall-collision
JP3195612B2 (en) User interface system and user interface method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20040730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040730

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20040903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041022

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080603