JP6239581B2 - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP6239581B2
JP6239581B2 JP2015256877A JP2015256877A JP6239581B2 JP 6239581 B2 JP6239581 B2 JP 6239581B2 JP 2015256877 A JP2015256877 A JP 2015256877A JP 2015256877 A JP2015256877 A JP 2015256877A JP 6239581 B2 JP6239581 B2 JP 6239581B2
Authority
JP
Japan
Prior art keywords
altitude
target point
viewpoint
dimensional image
icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015256877A
Other languages
Japanese (ja)
Other versions
JP2017120531A (en
Inventor
アルマン シモン アリ ジリエ
アルマン シモン アリ ジリエ
連秀 梁
連秀 梁
アンキット シャラマ
アンキット シャラマ
暢康 中島
暢康 中島
隆一 武藤
隆一 武藤
賢一 内藤
賢一 内藤
隆宏 渡辺
隆宏 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2015256877A priority Critical patent/JP6239581B2/en
Publication of JP2017120531A publication Critical patent/JP2017120531A/en
Application granted granted Critical
Publication of JP6239581B2 publication Critical patent/JP6239581B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

以下に記載の実施の形態は、情報処理装置、情報処理方法及びプログラムに関する。   The embodiments described below relate to an information processing apparatus, an information processing method, and a program.

地図などの表現対象は、その用途によって2次元表示される場合と、3次元表示される場合とがある。
2次元表示は、対象物の位置を直観的に把握するのに適しているという利点があるが、表現対象が3次元形状を有している場合に、対象の3次元形状を把握しにくいという欠点がある。
これに対し、3次元表示は、対象物が3次元構造を有している場合には、その構造をリアルに表現することができるが、当該3次元表示に対し所望の操作を行おうとする場合、ユーザの視点や対象点の3次元表示上での位置や角度などが分かりにくく、ユーザが混乱しやすいという欠点がある。
An expression target such as a map may be displayed two-dimensionally or three-dimensionally depending on the application.
The two-dimensional display has an advantage that it is suitable for intuitively grasping the position of the object, but it is difficult to grasp the three-dimensional shape of the object when the expression object has a three-dimensional shape. There are drawbacks.
On the other hand, in the case where the object has a three-dimensional structure, the three-dimensional display can realistically represent the structure, but when a desired operation is to be performed on the three-dimensional display. The user's viewpoint and the position and angle of the target point on the three-dimensional display are difficult to understand, and the user is confused.

特開公報2013−29958号公報JP 2013-29958 A

本発明の一の実施形態は、2次元表示と3次元表示それぞれの長所を維持しつつそれぞれの欠点を補って、ユーザの利便性を向上させる情報処理装置、情報処理方法及びプログラムを提供することを目的とする。   An embodiment of the present invention provides an information processing apparatus, an information processing method, and a program that improve the convenience of a user while maintaining the advantages of two-dimensional display and three-dimensional display, and making up for each defect. With the goal.

一の実施形態による情報処理装置は、2次元画像と、2次元画像上でユーザの視点の位置を設定するユーザアイコンと、2次元画像上で対象点の位置を設定する対象点位置アイコンと、視点の高度を調節する視点高度調節部と、対象点の高度を調節する対象点高度調節部と、視点から対象点を眺めた視界の3次元画像と、を表示部に表示させる表示制御部と、ユーザアイコンの位置、対象点位置アイコンの位置、視点高度調節部の高度および対象点高度調節部の高度を変更する入力部と、を備える。   An information processing apparatus according to an embodiment includes a two-dimensional image, a user icon that sets a position of a user's viewpoint on the two-dimensional image, a target point position icon that sets a position of a target point on the two-dimensional image, A viewpoint control unit that adjusts the altitude of the viewpoint, a target point altitude adjustment unit that adjusts the altitude of the target point, and a display control unit that displays on the display unit a three-dimensional image of the field of view when the target point is viewed from the viewpoint And an input unit for changing the position of the user icon, the position of the target point position icon, the altitude of the viewpoint altitude adjusting unit and the altitude of the target point altitude adjusting unit.

第1の実施の形態に係る情報処理システムのハードウェア構成を示す概略図である。It is the schematic which shows the hardware constitutions of the information processing system which concerns on 1st Embodiment. 第1の実施の形態に係る情報処理端末の構成を示すブロック図である。It is a block diagram which shows the structure of the information processing terminal which concerns on 1st Embodiment. 第1の実施の形態に係る情報処理端末における表示部の表示例を示す模式図である。It is a schematic diagram which shows the example of a display of the display part in the information processing terminal which concerns on 1st Embodiment. 第1の実施の形態に係る情報処理端末における表示部の表示例を示す模式図である。It is a schematic diagram which shows the example of a display of the display part in the information processing terminal which concerns on 1st Embodiment. 第1の実施の形態に係る情報処理端末における機能ブロック図である。It is a functional block diagram in the information processing terminal concerning a 1st embodiment. 第1の実施の形態に係る情報処理システムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the information processing system which concerns on 1st Embodiment. 第1の実施の形態に係る情報処理システムの動作を説明する模式図である。It is a schematic diagram explaining operation | movement of the information processing system which concerns on 1st Embodiment. 第1の実施の形態に係る情報処理システムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the information processing system which concerns on 1st Embodiment. 第1の実施の形態に係る情報処理システムの動作を説明する模式図である。It is a schematic diagram explaining operation | movement of the information processing system which concerns on 1st Embodiment. 第1の実施の形態に係る情報処理システムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the information processing system which concerns on 1st Embodiment. 第1の実施の形態に係る情報処理システムの動作を説明する模式図である。It is a schematic diagram explaining operation | movement of the information processing system which concerns on 1st Embodiment. 第1の実施の形態に係る情報処理システムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the information processing system which concerns on 1st Embodiment. 第1の実施の形態に係る情報処理システムの動作を説明する模式図である。It is a schematic diagram explaining operation | movement of the information processing system which concerns on 1st Embodiment. 第2の実施の形態に係る情報処理システムの動作を説明する模式図である。It is a schematic diagram explaining operation | movement of the information processing system which concerns on 2nd Embodiment. 第2の実施の形態に係る情報処理システムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the information processing system which concerns on 2nd Embodiment. 第3の実施の形態に係る情報処理システムの動作を説明する模式図である。It is a schematic diagram explaining operation | movement of the information processing system which concerns on 3rd Embodiment. 第3の実施の形態に係る情報処理端末における表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part in the information processing terminal which concerns on 3rd Embodiment. 第3の実施の形態に係る情報処理端末における表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part in the information processing terminal which concerns on 3rd Embodiment. 第3の実施の形態に係る情報処理端末における表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part in the information processing terminal which concerns on 3rd Embodiment. 第3の実施の形態に係る情報処理端末における表示部の表示例を示す図である。It is a figure which shows the example of a display of the display part in the information processing terminal which concerns on 3rd Embodiment.

以下、実施の形態について図面を参照して説明する。表示データの一例として地図データを2次元表示、3次元表示する場合を説明するが、これに限定されず、他にも適宜変更可能である。例えば、地図データのみを3次元表示するシステムにも、以下の実施の形態と同様のシステムが適用可能である。その他、3次元表示可能であり、様々な方向からの見え方を表示する必要のある様々な表現対象に対し同様のシステムが適用可能である。   Hereinafter, embodiments will be described with reference to the drawings. As an example of the display data, the case where the map data is displayed two-dimensionally and three-dimensionally will be described, but the present invention is not limited to this and can be changed as appropriate. For example, a system similar to the following embodiment can be applied to a system that displays only map data three-dimensionally. In addition, the same system can be applied to various expression objects that can be displayed three-dimensionally and need to display the appearance from various directions.

[第1の実施の形態]
図1は、第1の実施の形態に係る情報処理システムのハードウェア構成を示す概略図である。ソフトウェア100が搭載されたサーバ装置101(情報処理装置)と、ウェブブラウザ307が搭載された端末103とがインターネット102を介して接続されており、互いに通信が可能である。「接続」とは、必ずしも物理的に配線等により接続されていることを指すものではなく、構成要素間でデータや信号を送受信できることを意味している。サーバ装置101は、単一でなくても良く、複数のサーバ装置が互いに連携して1つのシステムを構成していてもよい。端末103は、パーソナルコンピュータ、携帯電話、タブレットコンピュータ、スマートフォンなどである。端末103は、単一でなくとも良く、1のユーザがパソコンと携帯電話など複数種類の端末を組み合わせて使用することで、本システムを利用するようにしてもよい。ソフトウェア100は、クライアント側のソフトウェア(ウェブブラウザ307)に対して、HTML、テキストデータ、画像データ等の表示を提供するサービスプログラムである。また、ソフトウェア100は、ウェブブラウザ307からの操作に従い、端末103での表示を制御する。
[First Embodiment]
FIG. 1 is a schematic diagram illustrating a hardware configuration of the information processing system according to the first embodiment. A server apparatus 101 (information processing apparatus) in which the software 100 is installed and a terminal 103 in which a web browser 307 is installed are connected via the Internet 102 and can communicate with each other. “Connection” does not necessarily mean that the connection is physically made by wiring or the like, but means that data and signals can be transmitted and received between components. The server device 101 may not be a single server, and a plurality of server devices may form a single system in cooperation with each other. The terminal 103 is a personal computer, a mobile phone, a tablet computer, a smartphone, or the like. The terminal 103 does not have to be a single terminal, and one user may use the present system by combining a plurality of types of terminals such as a personal computer and a mobile phone. The software 100 is a service program that provides display of HTML, text data, image data, and the like to client-side software (web browser 307). Further, the software 100 controls display on the terminal 103 in accordance with an operation from the web browser 307.

図2は、本実施の形態に係る端末103の構成を示すブロック図である。端末103は、CPU201(Central Processing Unit)、ROM202(Read Only Memory)、RAM203(Random Access Memory)、入出力インターフェース205、及び、これらを互いに接続するバス204を備える。   FIG. 2 is a block diagram showing a configuration of terminal 103 according to the present embodiment. The terminal 103 includes a CPU 201 (Central Processing Unit), a ROM 202 (Read Only Memory), a RAM 203 (Random Access Memory), an input / output interface 205, and a bus 204 that connects these components to each other.

入出力インターフェース205には、表示部206、入力部207、記憶部208、通信部209、及びドライブ部210等が接続される。   A display unit 206, an input unit 207, a storage unit 208, a communication unit 209, a drive unit 210, and the like are connected to the input / output interface 205.

表示部206は、例えば液晶、EL(Electro−Luminescence)、CRT(Cathode Ray Tube)等を用いた表示デバイスであり、後述する2次元地図2、3次元ビュー3などを表示する。   The display unit 206 is a display device using, for example, liquid crystal, EL (Electro-Luminescence), CRT (Cathode Ray Tube), and the like, and displays a two-dimensional map 2, a three-dimensional view 3, and the like, which will be described later.

入力部207は、例えばポインティングデバイス、キーボード、タッチパネル、その他の操作装置である。入力部207がタッチパネルを含む場合、そのタッチパネルは表示部206と一体となり得る。   The input unit 207 is, for example, a pointing device, a keyboard, a touch panel, or other operation device. When the input unit 207 includes a touch panel, the touch panel can be integrated with the display unit 206.

記憶部208は、不揮発性の記憶デバイスであり、例えばHDD(Hard Disk Drive)、フラッシュメモリ、その他の固体メモリである。記憶部208にクライアント側ソフトウェア(ウェブブラウザ307)が格納される。   The storage unit 208 is a non-volatile storage device, such as an HDD (Hard Disk Drive), a flash memory, or other solid-state memory. Client-side software (web browser 307) is stored in the storage unit 208.

ドライブ部210は、例えば光学記録媒体、フレキシブルディスク、磁気記録テープ、フラッシュメモリ等、リムーバル記録媒体211を駆動することが可能なデバイスである。   The drive unit 210 is a device that can drive the removable recording medium 211 such as an optical recording medium, a flexible disk, a magnetic recording tape, a flash memory, and the like.

通信部209は、LAN(Local Area Network)、WAN(Wide Area Network)等に接続可能な、他のデバイスと通信するためのモデム、ルータ、その他の通信機器である。通信部209は、有線及び無線のどちらを利用して通信するものであってもよい。通信部209は、端末103の本体と一体に構成されていてもよいし、別体であってもよい。   The communication unit 209 is a modem, router, or other communication device that can be connected to a LAN (Local Area Network), a WAN (Wide Area Network), or the like and communicates with other devices. The communication unit 209 may communicate using either wired or wireless communication. The communication unit 209 may be configured integrally with the main body of the terminal 103 or may be a separate body.

次に、図3A、図3Bを参照して本実施の形態に係る情報処理システムにおける動作および表示例を説明する。
図3Aは、本実施の形態に係る情報処理システムにおける表示部206の表示例を示す模式図である。表示部206は、2次元地図2(2次元画像)、2次元地図2に対応する3次元ビュー3(3次元画像)、視点高度スライダ7(視点高度調節部)、対象点高度スライダ8(対象点高度調節部)を表示する。表示内容はソフトウェア100において制御される。ソフトウェア100において選択・制御された表示データは、端末103の通信部209を介して端末103に取り込まれ、CPU201でウェブブラウザ307により処理された後、表示部206に表示される。
Next, operations and display examples in the information processing system according to the present embodiment will be described with reference to FIGS. 3A and 3B.
FIG. 3A is a schematic diagram illustrating a display example of the display unit 206 in the information processing system according to the present embodiment. The display unit 206 includes a 2D map 2 (2D image), a 3D view 3 (3D image) corresponding to the 2D map 2, a viewpoint altitude slider 7 (viewpoint altitude adjusting unit), a target point altitude slider 8 (target Point altitude adjustment section) is displayed. The display content is controlled by the software 100. Display data selected and controlled in the software 100 is taken into the terminal 103 via the communication unit 209 of the terminal 103, processed by the web browser 307 by the CPU 201, and then displayed on the display unit 206.

図3Aにおいて、2次元の地図データを2次元地図2として表示している。2次元地図2上のユーザアイコン4は本システムのユーザの視点の位置を示し、対象点位置アイコン5は当該ユーザが観察の目的とする対象点の位置を示している。また、扇型図形6は、2つの線分と、その線分を結ぶ円弧とを有していて、その2つの線分の間の角度によりユーザの視野角を示している。
一方、視点高度スライダ7は、ユーザの視点の高度を調節可能に構成される。換言すれば、視点高度スライダ7は、ユーザアイコン4の高度を調節するものである。また、対象点高度スライダ8は、観察の目的とする対象点の高度を調節可能に構成される。換言すれば、対象点高度スライダ8は、対象点位置アイコン5の高度を調節するものである。図3Aに示すように、視点高度スライダ7および対象点高度スライダ8は、軸、および軸上を上下移動させることで高度を調節するためのスライド部を備える。スライド部にはそれぞれユーザアイコン4、対象点位置アイコン5と同様の模様が表示されている。
3次元ビュー3は、地図データを3次元表示しており、ユーザアイコン4の位置から対象点位置アイコン5を見たときに、地形がどのような形に見えるかを表示する。後述するように、各アイコン4、5の位置や各高度スライダ7、8の高度を変えると、それに応じて3次元ビュー3が変わる。
In FIG. 3A, two-dimensional map data is displayed as a two-dimensional map 2. The user icon 4 on the two-dimensional map 2 indicates the position of the viewpoint of the user of this system, and the target point position icon 5 indicates the position of the target point that the user intends to observe. The fan-shaped figure 6 has two line segments and an arc connecting the line segments, and indicates the viewing angle of the user by the angle between the two line segments.
On the other hand, the viewpoint altitude slider 7 is configured to be capable of adjusting the altitude of the user's viewpoint. In other words, the viewpoint altitude slider 7 adjusts the altitude of the user icon 4. The target point altitude slider 8 is configured to be able to adjust the altitude of the target point to be observed. In other words, the target point height slider 8 adjusts the height of the target point position icon 5. As shown in FIG. 3A, the viewpoint altitude slider 7 and the target point altitude slider 8 include an axis and a slide portion for adjusting the altitude by moving up and down on the axis. The same pattern as the user icon 4 and the target point position icon 5 is displayed on the slide part.
The three-dimensional view 3 displays map data three-dimensionally, and displays how the terrain looks when the object point position icon 5 is viewed from the position of the user icon 4. As will be described later, when the positions of the icons 4 and 5 and the altitudes of the altitude sliders 7 and 8 are changed, the three-dimensional view 3 changes accordingly.

図3A以降、図中のXY軸は水平面を示し、Z軸は高度を示す。視点および対象点の水平面における位置は、水平面座標((X,Y)座標)で表すことができる。また、視点および対象点の高度はZ座標で表し、3次元座標((X,Y,Z)座標)で位置と高度を表すことができる。   In FIG. 3A and thereafter, the XY axis in the figure indicates a horizontal plane, and the Z axis indicates altitude. The position of the viewpoint and the target point in the horizontal plane can be expressed by horizontal plane coordinates ((X, Y) coordinates). Further, the altitude of the viewpoint and the target point can be expressed by Z coordinates, and the position and altitude can be expressed by three-dimensional coordinates ((X, Y, Z) coordinates).

ユーザアイコン4および対象点位置アイコン5は、ユーザの入力部207における操作で移動可能に構成される。ユーザアイコン4を、例えばマウス(入力部207の1つ)のドラッグアンドドロップ動作などにより2次元地図2上で移動させることで、ユーザの視点となる位置を自由に調節することができる。また、同様に対象点位置アイコン5をマウスのドラッグアンドドロップ動作などにより2次元地図2上で移動させることで、観測の目的とする地点(対象点)を自由に調節することができる。また、視点高度スライダ7のスライド部をマウスのドラッグアンドドロップ動作などにより操作することでユーザの視点の高度を調節でき、対象点高度スライダ8のスライド部をマウスのドラッグアンドドロップ動作などにより操作することで対象点の高度を調節することができる。   The user icon 4 and the target point position icon 5 are configured to be movable by an operation on the input unit 207 of the user. By moving the user icon 4 on the two-dimensional map 2 by, for example, dragging and dropping the mouse (one of the input units 207), the position serving as the user's viewpoint can be freely adjusted. Similarly, by moving the target point position icon 5 on the two-dimensional map 2 by using a mouse drag-and-drop operation or the like, it is possible to freely adjust the observation target point (target point). Further, the altitude of the user's viewpoint can be adjusted by operating the slide portion of the viewpoint altitude slider 7 by a drag and drop operation of the mouse, and the slide portion of the target point altitude slider 8 is operated by the drag and drop operation of the mouse. The altitude of the target point can be adjusted.

2次元地図2上で各アイコン4、5の位置が調節され、各高度スライダ7、8でユーザの視点または対象点の高度の調節がなされると、これらの調節に応じて3次元ビュー3が更新される。   When the positions of the icons 4 and 5 are adjusted on the two-dimensional map 2 and the altitude sliders 7 and 8 adjust the user's viewpoint or the altitude of the target point, the three-dimensional view 3 is changed according to these adjustments. Updated.

図3Bは、図3Aの構成に加えて、表示部206に3次元仮想空間31を更に表示した表示例を示している。3次元仮想空間31は2次元地図2および3次元ビュー3と対応したイメージである。3次元仮想空間31は、仮想カメラ9、及び対象点アイコン10を含む。
仮想カメラ9、対象点アイコン10はそれぞれユーザアイコン4、対象点位置アイコン5に対応している。仮想カメラ9は、3次元空間内におけるユーザの視点の位置と方向を示しており、また、対象点アイコン10は3次元空間内における対象点の位置を表している。
各アイコン4、5の位置や、各高度スライダ7、8のスライド部を入力部207で動かすと、CPU201で仮想カメラ9及び対象点アイコン10の座標の変化((X,Y,Z)座標の変化)が計算され、3次元仮想空間31の仮想カメラ9、対象点アイコン10の位置が変わり、更に仮想カメラ9から対象点アイコン10を眺めた場合の見え方が3次元ビュー3に反映される。
なお、3次元仮想空間31、仮想カメラ9および対象点アイコン10は、実際には表示部206に表示せず、2次元地図2、3次元ビュー3、各アイコン4、5および各高度スライダ7、8のみを表示することも可能である。
各アイコン4、5や各高度スライダ7、8等、これらの形状や位置、大きさ等は図示しているものに限らず、任意に変更可能である。例えば、各高度スライダ7,8はユーザの視点や対象点の高度を変更可能に構成されていればよく、例えばダイアル状などにすることもできる。また、各アイコン4、5の位置や各高度スライダ7、8の高度は、直接数字を入力することで座標を決定し、移動させることもできる。
FIG. 3B shows a display example in which the three-dimensional virtual space 31 is further displayed on the display unit 206 in addition to the configuration of FIG. 3A. The three-dimensional virtual space 31 is an image corresponding to the two-dimensional map 2 and the three-dimensional view 3. The three-dimensional virtual space 31 includes a virtual camera 9 and a target point icon 10.
The virtual camera 9 and the target point icon 10 correspond to the user icon 4 and the target point position icon 5, respectively. The virtual camera 9 indicates the position and direction of the user's viewpoint in the three-dimensional space, and the target point icon 10 indicates the position of the target point in the three-dimensional space.
When the positions of the icons 4 and 5 and the slide portions of the altitude sliders 7 and 8 are moved by the input unit 207, the CPU 201 changes the coordinates of the virtual camera 9 and the target point icon 10 ((X, Y, Z) coordinates). Change), the positions of the virtual camera 9 and the target point icon 10 in the three-dimensional virtual space 31 are changed, and the appearance when the target point icon 10 is viewed from the virtual camera 9 is reflected in the three-dimensional view 3. .
The three-dimensional virtual space 31, the virtual camera 9, and the target point icon 10 are not actually displayed on the display unit 206, but the two-dimensional map 2, the three-dimensional view 3, the icons 4, 5 and the altitude sliders 7, It is also possible to display only 8.
The shape, position, size, and the like of the icons 4 and 5 and the altitude sliders 7 and 8 are not limited to those shown in the figure, and can be arbitrarily changed. For example, the altitude sliders 7 and 8 only need to be configured to be able to change the user's viewpoint and the altitude of the target point, and may be in the form of a dial, for example. Further, the positions of the icons 4 and 5 and the altitudes of the altitude sliders 7 and 8 can be determined and moved by directly inputting numbers.

また、入力部207で3次元ビュー3をマウス等でドラッグアンドドロップするなどしてユーザの視点の位置や高度を自由に変化させることもできる。3次元ビュー3を変化させると、CPU201で仮想カメラ9の(X,Y,Z)座標の変化が計算され、3次元仮想空間31の仮想カメラ9の位置、高度および方向が変わり、更に2次元地図2におけるユーザアイコン4の位置及び視点高度スライダ7のスライダ部の高度が更新される。   In addition, the position and altitude of the user's viewpoint can be freely changed by dragging and dropping the three-dimensional view 3 with a mouse or the like at the input unit 207. When the three-dimensional view 3 is changed, the CPU 201 calculates a change in the (X, Y, Z) coordinates of the virtual camera 9, changes the position, altitude, and direction of the virtual camera 9 in the three-dimensional virtual space 31. The position of the user icon 4 on the map 2 and the altitude of the slider portion of the viewpoint altitude slider 7 are updated.

このように、本実施の形態に係る情報処理システムは、2次元地図2上での操作でユーザの視点や対象点の位置((X,Y)座標)や高度(Z座標)を細かく設定することができる。2次元地図2上での操作は直感的に理解しやすく、ユーザにおける操作が容易である。そして、このような2次元地図2上での操作により、3次元ビュー3の表示が更新される。3次元ビュー3を直接制御することは可能であるが、ユーザはどのような操作を行えば良いのかを直感的に理解することが一般的に難しい。本実施の形態によれば、2次元地図2上での操作により3次元ビュー3の更新が可能とされる。したがって、2次元表示・3次元表示の長所を維持しつつ短所を補うことができ、ユーザの利便性を向上させることができる。
さらに、後述するように、3次元ビュー3上での操作においてもユーザの視点の位置や高度、向きを自由に操作できる。このような2次元表示と3次元表示のインタラクションにより、2次元表示、及び3次元表示それぞれの弱点を補うことができるので、ユーザの操作を基にした操作性の高い情報処理システムを実現することができる。
As described above, the information processing system according to the present embodiment finely sets the user's viewpoint and the position ((X, Y) coordinate) and altitude (Z coordinate) of the target point by an operation on the two-dimensional map 2. be able to. The operation on the two-dimensional map 2 is easy to understand intuitively and easy for the user. The display of the three-dimensional view 3 is updated by such an operation on the two-dimensional map 2. Although it is possible to directly control the three-dimensional view 3, it is generally difficult for the user to intuitively understand what operation should be performed. According to the present embodiment, the three-dimensional view 3 can be updated by an operation on the two-dimensional map 2. Therefore, the disadvantages can be compensated while maintaining the advantages of the two-dimensional display and the three-dimensional display, and the convenience for the user can be improved.
Further, as will be described later, the position, altitude, and orientation of the user's viewpoint can be freely operated even in the operation on the three-dimensional view 3. Such interaction between two-dimensional display and three-dimensional display can compensate for weak points of both two-dimensional display and three-dimensional display, thereby realizing an information processing system with high operability based on user operations. Can do.

図4は、本実施の形態に係る端末103における機能ブロック図である。図4に示される各機能は、サーバ装置101に格納されたソフトウェア100が、サーバ装置101内のCPU(図示せず)又は端末103のCPU201によって実行されることにより実現される。
端末103は、データ取得部301、座標計算部302、UI(ユーザインターフェース)イベント管理部303、地図管理部304、表示制御部305、3次元エンジン306、ウェブブラウザ307を備える。
FIG. 4 is a functional block diagram in terminal 103 according to the present embodiment. Each function shown in FIG. 4 is realized by executing the software 100 stored in the server apparatus 101 by a CPU (not shown) in the server apparatus 101 or the CPU 201 of the terminal 103.
The terminal 103 includes a data acquisition unit 301, a coordinate calculation unit 302, a UI (user interface) event management unit 303, a map management unit 304, a display control unit 305, a three-dimensional engine 306, and a web browser 307.

端末103は、ソフトウェア100からの種々のデータを、通信部209を介してデータ取得部301で取得し、ウェブブラウザ307の3次元エンジン306に渡され、座標計算部302、UIイベント管理部303および地図管理部304でデータやユーザ操作を解析し、表示制御部305にて画像を合成し、表示部206に表示する。   The terminal 103 acquires various data from the software 100 by the data acquisition unit 301 via the communication unit 209 and passes the data to the three-dimensional engine 306 of the web browser 307, and the coordinate calculation unit 302, UI event management unit 303 and The map management unit 304 analyzes data and user operations, and the display control unit 305 combines the images and displays them on the display unit 206.

データ取得部301は、サーバ101やその他外部のデータベース等から通信部209を介して地図データ等の表示データを取得する機能を有する。   The data acquisition unit 301 has a function of acquiring display data such as map data from the server 101 or other external database via the communication unit 209.

座標計算部302は、2次元地図2におけるユーザアイコン4の位置、対象点位置アイコン5の位置、視点高度スライダ7の高度、および対象点高度スライダ8の高度から、ユーザと対象点の3次元座標((X,Y,Z)座標)を計算する。
また、座標計算部302は、ユーザと対象点の3次元座標((X,Y,Z)座標)を用いて、対象点アイコン10に向かうように仮想カメラ9の方向を計算する。
The coordinate calculation unit 302 calculates the three-dimensional coordinates of the user and the target point from the position of the user icon 4 on the two-dimensional map 2, the position of the target point position icon 5, the altitude of the viewpoint altitude slider 7, and the altitude of the target point altitude slider 8. ((X, Y, Z) coordinates) is calculated.
Further, the coordinate calculation unit 302 calculates the direction of the virtual camera 9 so as to face the target point icon 10 using the three-dimensional coordinates ((X, Y, Z) coordinates) of the user and the target point.

UIイベント管理部303は、ユーザインターフェースで生じる各種イベントを管理する。具体的には、ユーザによる2次元地図2上でのアイコン4、5の操作や、各高度スライダ7、8での高度調節、3次元ビュー3上での操作を管理する。ユーザにより各アイコン4、5や各高度スライダ7、8、3次元ビュー3が操作されると、それに応じて座標計算部302に情報が送信される。   The UI event management unit 303 manages various events that occur in the user interface. Specifically, the operation of the icons 4 and 5 on the two-dimensional map 2 by the user, the height adjustment by the height sliders 7 and 8, and the operation on the three-dimensional view 3 are managed. When the icons 4 and 5 and the altitude sliders 7 and 8 and the three-dimensional view 3 are operated by the user, information is transmitted to the coordinate calculation unit 302 accordingly.

地図管理部304は、通信部209、データ取得部301を介して取得した地図データを管理する機能を有する。   The map management unit 304 has a function of managing map data acquired via the communication unit 209 and the data acquisition unit 301.

表示制御部305は、データ取得部301で取得した表示データ、UIイベント管理部303からのユーザ操作の情報、座標計算部302で計算された視点および対象点の(X,Y,Z)座標を基に2次元地図2、3次元仮想空間31、および3次元ビュー3を合成、更新し、表示部206に表示させる。ずなわち、表示制御部305は、入力部による視点と対象点の位置または高度の調節に応じて3次元画像を更新する。   The display control unit 305 displays the display data acquired by the data acquisition unit 301, user operation information from the UI event management unit 303, the viewpoint and target point (X, Y, Z) coordinates calculated by the coordinate calculation unit 302. Based on this, the two-dimensional map 2, the three-dimensional virtual space 31, and the three-dimensional view 3 are synthesized, updated, and displayed on the display unit 206. In other words, the display control unit 305 updates the three-dimensional image according to the adjustment of the position or altitude of the viewpoint and the target point by the input unit.

3次元エンジン306は、前述の通りウェブブラウザ307の一部を構成し、CPU201と共に3次元画像の形成、及び更新等を司る演算制御部である。   The three-dimensional engine 306 constitutes a part of the web browser 307 as described above, and is an arithmetic control unit that controls the formation and update of a three-dimensional image together with the CPU 201.

次に、図5〜12を参照して本実施形態に係る情報処理システムの制御方法を説明する。図5〜12はそれぞれ、各アイコン4、5、各高度スライダ7、8のうちいずれか一つを操作した場合の制御を示すものである。   Next, a control method of the information processing system according to the present embodiment will be described with reference to FIGS. 5 to 12 show control when any one of the icons 4 and 5 and the altitude sliders 7 and 8 is operated.

図5および図6を参照して2次元地図2上のユーザアイコン4の位置を調節した場合の動作を説明する。
図5は、2次元地図2上のユーザアイコン4の位置を調節した場合の動作を示すフローチャートである。図6は、2次元地図2上でユーザアイコン4の位置を調節した場合の動作を示す概念図である。
The operation when the position of the user icon 4 on the two-dimensional map 2 is adjusted will be described with reference to FIGS.
FIG. 5 is a flowchart showing an operation when the position of the user icon 4 on the two-dimensional map 2 is adjusted. FIG. 6 is a conceptual diagram showing an operation when the position of the user icon 4 is adjusted on the two-dimensional map 2.

ユーザが入力部207の操作により、2次元地図2上のユーザアイコン4の位置を図6に示す矢印(図6の丸数字1)の方向へ変えると(S11)、UIイベント管理部303から座標計算部302に情報が送信され、座標計算部302は、変更後のユーザアイコン4の位置((X,Y)座標)を3次元仮想空間31上の水平面座標((X,Y)座標)へ変換する(S12)。更に座標計算部302は、視点高度スライダ7の高度を読み込む(S13)。座標計算部302はS12で変換した水平面座標((X,Y)座標)と、S13で読み込んだ視点高度スライダ7の高度(Z座標)に基づいて、仮想カメラ9(視点)の3次元座標((X,Y,Z)座標)を合成する(S15)。
上述のS12、S13およびS15の動作と同時に、座標計算部302は対象点位置アイコン5の位置と対象点高度スライダ8の高度を読み込む(S14)。
座標計算部302は、S15で合成した仮想カメラ9の3次元座標((X,Y,Z)座標)と、S14で読み込んだ対象点位置アイコン5の位置と対象点高度スライダ8の高度とに基づいて、仮想カメラ9が対象点アイコン10に向かうように仮想カメラ9の新しい方向を計算する(S16)。
表示制御部305は、座標計算部302によってS15で合成された仮想カメラ9の3次元座標に基づいて、3次元仮想空間31における仮想カメラ9の位置を矢印(図6の丸数字2)の方向に変化させるとともに、S16で計算された仮想カメラ9の方向に基づいて、3次元仮想空間31における仮想カメラ9を矢印(図6の丸数字3)の方向に変化させ、それに従い3次元ビュー3を更新する(S17)。
なお、S17における仮想カメラ9の位置と方向の変更は同時でなくてもよい。例えば、ステップS15において仮想カメラ9の3次元座標が((X,Y,Z)座標)が合成された際に、仮想カメラ9の位置のみ先に変更してもよい。
なお、図6に示すように、ユーザアイコン4の位置が変わると、ユーザアイコン4と対象点位置アイコン5との位置関係に従い、扇型図形6の向きも変更される。
なお、S12、S13およびS15と、S14とは同時に行われなくともよい。
When the user changes the position of the user icon 4 on the two-dimensional map 2 in the direction of the arrow shown in FIG. 6 (the circled number 1 in FIG. 6) by the operation of the input unit 207 (S11), coordinates from the UI event management unit 303 are displayed. Information is transmitted to the calculation unit 302, and the coordinate calculation unit 302 changes the position ((X, Y) coordinate) of the user icon 4 after the change to the horizontal plane coordinate ((X, Y) coordinate) in the three-dimensional virtual space 31. Conversion is performed (S12). Further, the coordinate calculation unit 302 reads the altitude of the viewpoint altitude slider 7 (S13). Based on the horizontal plane coordinates ((X, Y) coordinates) converted in S12 and the altitude (Z coordinate) of the viewpoint altitude slider 7 read in S13, the coordinate calculation unit 302 3D coordinates of the virtual camera 9 (viewpoint) ( (X, Y, Z) coordinates) are synthesized (S15).
Simultaneously with the operations of S12, S13 and S15 described above, the coordinate calculation unit 302 reads the position of the target point position icon 5 and the altitude of the target point altitude slider 8 (S14).
The coordinate calculation unit 302 sets the three-dimensional coordinates ((X, Y, Z) coordinates) of the virtual camera 9 synthesized in S15, the position of the target point position icon 5 read in S14, and the altitude of the target point altitude slider 8. Based on this, a new direction of the virtual camera 9 is calculated so that the virtual camera 9 faces the target point icon 10 (S16).
The display control unit 305 determines the position of the virtual camera 9 in the three-dimensional virtual space 31 based on the three-dimensional coordinates of the virtual camera 9 synthesized in S15 by the coordinate calculation unit 302 in the direction indicated by the arrow (circle numeral 2 in FIG. 6). And the virtual camera 9 in the three-dimensional virtual space 31 is changed in the direction of the arrow (circle numeral 3 in FIG. 6) based on the direction of the virtual camera 9 calculated in S16, and the three-dimensional view 3 is accordingly changed. Is updated (S17).
Note that the position and direction of the virtual camera 9 in S17 may not be changed simultaneously. For example, when the three-dimensional coordinates ((X, Y, Z) coordinates) of the virtual camera 9 are synthesized in step S15, only the position of the virtual camera 9 may be changed first.
As shown in FIG. 6, when the position of the user icon 4 is changed, the direction of the fan-shaped figure 6 is also changed according to the positional relationship between the user icon 4 and the target point position icon 5.
Note that S12, S13 and S15 and S14 need not be performed simultaneously.

次に、図7および図8を参照して視点高度スライダ7で視点の高度を調節した場合の動作を説明する。
図7は、視点高度スライダ7で視点の高度を調節した場合の動作を示すフローチャートである。図8は、視点高度スライダ7で視点の高度を調節した場合の動作を示す概念図である。
Next, the operation when the viewpoint altitude slider 7 is used to adjust the viewpoint altitude will be described with reference to FIGS.
FIG. 7 is a flowchart showing the operation when the viewpoint altitude slider 7 adjusts the viewpoint altitude. FIG. 8 is a conceptual diagram showing the operation when the viewpoint altitude slider 7 adjusts the viewpoint altitude.

ユーザが入力部207の操作により、視点高度スライダ7の高度を、例えば図8の矢印(図8の丸数字1)の方向へ変えると(S21)、UIイベント管理部303から座標計算部302に情報が送信され、座標計算部302は3次元仮想空間31上の仮想カメラ9の水平面座標((X,Y)座標)を読み込む(S22)。
座標計算部302は、S22で読み込んだ仮想カメラ9の水平面座標((X,Y)座標)と、S21における変更後の視点高度スライダ7の高度(Z座標)とに基づき、仮想カメラ9(視点)の3次元座標((X,Y,Z)座標)を合成する(S24)。
上述のS22、S24の動作と同時に、座標計算部302は対象点位置アイコン5の位置と対象点高度スライダ8の高度を読み込む(S23)。座標計算部302は、S24で合成した仮想カメラ9の3次元座標((X,Y,Z)座標)と、S23で読み込んだ対象点位置アイコン5の位置と対象点高度スライダ8の高度とに基づいて、仮想カメラ9が対象点アイコン10に向かうように仮想カメラ9の新しい方向を計算する(S25)。
表示制御部305は、座標計算部302によってS24で合成された仮想カメラ9の3次元座標に基づいて、3次元仮想空間31における仮想カメラ9の位置を矢印(図8の丸数字2)の方向に変化させるとともに、S25で計算された仮想カメラ9の方向に基づいて、3次元仮想空間31における仮想カメラ9を矢印(図8の丸数字3)の方向に変化させ、それに従い3次元ビュー3を更新する(S26)。
なお、S22およびS24と、S23は同時でなくともよい。また、S26における仮想カメラ9の位置と方向の変更は同時でなくてもよい。
When the user operates the input unit 207 to change the altitude of the viewpoint altitude slider 7 to, for example, the direction of the arrow in FIG. 8 (circle numeral 1 in FIG. 8) (S21), the UI event management unit 303 changes to the coordinate calculation unit 302. The information is transmitted, and the coordinate calculation unit 302 reads the horizontal plane coordinates ((X, Y) coordinates) of the virtual camera 9 on the three-dimensional virtual space 31 (S22).
The coordinate calculation unit 302 uses the virtual camera 9 (viewpoint) based on the horizontal plane coordinates ((X, Y) coordinates) of the virtual camera 9 read in S22 and the height (Z coordinate) of the changed view height slider 7 in S21. ) Three-dimensional coordinates ((X, Y, Z) coordinates) are synthesized (S24).
Simultaneously with the operations of S22 and S24 described above, the coordinate calculation unit 302 reads the position of the target point position icon 5 and the altitude of the target point altitude slider 8 (S23). The coordinate calculation unit 302 sets the three-dimensional coordinates ((X, Y, Z) coordinates) of the virtual camera 9 synthesized in S24, the position of the target point position icon 5 read in S23, and the altitude of the target point altitude slider 8. Based on this, a new direction of the virtual camera 9 is calculated so that the virtual camera 9 faces the target point icon 10 (S25).
The display control unit 305 determines the position of the virtual camera 9 in the three-dimensional virtual space 31 based on the three-dimensional coordinates of the virtual camera 9 synthesized in S24 by the coordinate calculation unit 302 in the direction indicated by the arrow (circle numeral 2 in FIG. 8). And the virtual camera 9 in the three-dimensional virtual space 31 is changed in the direction of the arrow (circle numeral 3 in FIG. 8) based on the direction of the virtual camera 9 calculated in S25, and the three-dimensional view 3 is accordingly changed. Is updated (S26).
Note that S22 and S24 and S23 do not have to be simultaneous. Moreover, the change of the position and direction of the virtual camera 9 in S26 may not be simultaneous.

次に、図9および図10を参照して2次元地図2上の対象点位置アイコン5の位置を調節した場合の動作を説明する。
図9は、2次元地図2上の対象点位置アイコン5の位置を調節した場合の動作を示すフローチャートである。図10は、2次元地図2上で対象点位置アイコン5の位置を調節した場合の動作を示す概念図である。
Next, the operation when the position of the target point position icon 5 on the two-dimensional map 2 is adjusted will be described with reference to FIGS. 9 and 10.
FIG. 9 is a flowchart showing an operation when the position of the target point position icon 5 on the two-dimensional map 2 is adjusted. FIG. 10 is a conceptual diagram showing an operation when the position of the target point position icon 5 is adjusted on the two-dimensional map 2.

ユーザが入力部207の操作により、2次元地図2上の対象点位置アイコン5の位置を図10に示す矢印(図10の丸数字1)の方向に変えると(S31)、UIイベント管理部303から座標計算部302に情報が送信され、変更後の対象点位置アイコン5の位置((X,Y)座標)が3次元仮想空間31上の水平面座標((X,Y)座標)へ変換される(S32)。更に、座標計算部302は、対象点高度スライダ8の高度(Z座標)を読み込む(S33)。
座標計算部302は、S32で変換した水平面座標((X,Y)座標)と、S33で読み込んだ対象点高度スライダ8の高度(Z座標)に基づいて、対象点アイコン10の3次元座標((X,Y,Z)座標)を合成する(S35)。
上述のS32、S33およびS35の動作と同時に、座標計算部302はユーザアイコン4の位置と視点高度スライダ7の高度を読み込む(S34)。
座標計算部302は、S35で合成した対象点アイコン10の3次元座標((X,Y,Z)座標)と、S34で読み込んだユーザアイコン4の位置と視点高度スライダ7の高度とに基づいて、仮想カメラ9が対象点アイコン10に向かうように仮想カメラ9の新しい方向を計算する(S36)。
表示制御部305は、座標計算部302によってS35で合成された対象点アイコン10の3次元座標に基づいて、3次元仮想空間31における対象点アイコン10の位置を矢印(図10の丸数字2)の方向に変化させるとともに、S36で計算された仮想カメラ9の方向に基づいて、3次元仮想空間31における仮想カメラ9の方向を矢印(図10の丸数字3)の方向に変化させ、それに従い、表示制御部305は3次元ビュー3を更新する(S37)。
なお、S37における仮想カメラ9の位置と方向の変更は同時でなくてもよい。
なお、図10に示すように、ユーザアイコン4の位置が変わると、ユーザアイコン4と対象点位置アイコン5との位置関係に従い、扇型図形6の向きも変更される。
なお、S32、S33およびS35と、S34とは同時に行われてもよいし、同時でなくともよい。
When the user changes the position of the target point position icon 5 on the two-dimensional map 2 in the direction of the arrow shown in FIG. 10 (circled numeral 1 in FIG. 10) by the operation of the input unit 207 (S31), the UI event management unit 303. Is transmitted to the coordinate calculation unit 302, and the position ((X, Y) coordinates) of the target point position icon 5 after the change is converted into horizontal plane coordinates ((X, Y) coordinates) on the three-dimensional virtual space 31. (S32). Further, the coordinate calculation unit 302 reads the altitude (Z coordinate) of the target point altitude slider 8 (S33).
The coordinate calculation unit 302 uses the three-dimensional coordinates (X) of the target point icon 10 based on the horizontal plane coordinates ((X, Y) coordinates) converted in S32 and the altitude (Z coordinate) of the target point altitude slider 8 read in S33. (X, Y, Z) coordinates) are synthesized (S35).
Simultaneously with the operations of S32, S33 and S35 described above, the coordinate calculation unit 302 reads the position of the user icon 4 and the altitude of the viewpoint altitude slider 7 (S34).
The coordinate calculation unit 302 is based on the three-dimensional coordinates ((X, Y, Z) coordinates) of the target point icon 10 synthesized in S35, the position of the user icon 4 read in S34, and the altitude of the viewpoint altitude slider 7. The new direction of the virtual camera 9 is calculated so that the virtual camera 9 faces the target point icon 10 (S36).
The display control unit 305 indicates the position of the target point icon 10 in the three-dimensional virtual space 31 based on the three-dimensional coordinates of the target point icon 10 synthesized in S35 by the coordinate calculation unit 302 (circle numeral 2 in FIG. 10). And the direction of the virtual camera 9 in the three-dimensional virtual space 31 is changed to the direction of the arrow (circle numeral 3 in FIG. 10) based on the direction of the virtual camera 9 calculated in S36. The display control unit 305 updates the three-dimensional view 3 (S37).
Note that the position and direction of the virtual camera 9 in S37 may not be changed simultaneously.
As shown in FIG. 10, when the position of the user icon 4 is changed, the direction of the fan-shaped figure 6 is also changed according to the positional relationship between the user icon 4 and the target point position icon 5.
Note that S32, S33, S35, and S34 may be performed simultaneously or not simultaneously.

図11および図12を参照して対象点高度スライダ8で対象点の高度を調節した場合の動作を説明する。
図11は、対象点高度スライダ8で対象点の高度を調節した場合の動作を示すフローチャートである。図12は、対象点高度スライダ8で対象点の高度を調節した場合の動作を示す概念図である。
The operation when the altitude of the target point is adjusted by the target point altitude slider 8 will be described with reference to FIGS.
FIG. 11 is a flowchart showing an operation when the altitude of the target point is adjusted by the target point altitude slider 8. FIG. 12 is a conceptual diagram showing an operation when the height of the target point is adjusted by the target point height slider 8.

ユーザが入力部207の操作により、対象点高度スライダ8の高度を図12の矢印(図12の丸数字1)の方向に変えると(S41)、UIイベント管理部303から座標計算部302に情報が送信され、座標計算部302は、3次元仮想空間31上の対象点アイコン10の水平面座標を読み込む(S42)。
座標計算部302は、S41における変更後の対象点高度スライダ8の高度(Z座標)、及び対象点アイコン5の水平面座標((X,Y)座標)に基づき、対象点アイコン10の3次元座標(X,Y,Z)座標を合成する(S44)。
上述のS42、S44の動作と同時に、座標計算部302はユーザアイコン4の位置と視点高度スライダ7の高度を読み込む(S43)。座標計算部302は、S44で合成した対象点アイコン10の3次元座標((X,Y,Z)座標)と、S43で読み込んだ対象点位置アイコン5の位置と対象点高度スライダ8の高度とに基づいて、仮想カメラ9が対象点アイコン10に向かうように仮想カメラ9の新しい方向を計算する(S45)。
表示制御部305は、座標計算部302によってS44で合成された対象点アイコン10の3次元座標に基づいて、3次元仮想空間31における対象点アイコン10の位置を矢印(図12の丸数2)の方向に変化させるとともに、S45で計算された仮想カメラ9の方向に基づいて、3次元仮想空間31における仮想カメラ9を矢印(図12の丸数字3)の方向に変化させ、それに従い3次元ビュー3を更新する(S46)。
なお、S46における仮想カメラ9の位置と方向の変更は同時でなくてもよい。
なお、S42およびS44と、S43とは同時に行われてもよいし、同時でなくともよい。
When the user operates the input unit 207 to change the altitude of the target point altitude slider 8 in the direction of the arrow in FIG. 12 (circle numeral 1 in FIG. 12) (S41), the UI event management unit 303 sends information to the coordinate calculation unit 302. Is transmitted, and the coordinate calculation unit 302 reads the horizontal plane coordinates of the target point icon 10 on the three-dimensional virtual space 31 (S42).
The coordinate calculation unit 302 determines the three-dimensional coordinates of the target point icon 10 based on the altitude (Z coordinate) of the target point altitude slider 8 after the change in S41 and the horizontal plane coordinates ((X, Y) coordinates) of the target point icon 5. The (X, Y, Z) coordinates are synthesized (S44).
Simultaneously with the operations of S42 and S44 described above, the coordinate calculation unit 302 reads the position of the user icon 4 and the altitude of the viewpoint altitude slider 7 (S43). The coordinate calculation unit 302 determines the three-dimensional coordinates ((X, Y, Z) coordinates) of the target point icon 10 synthesized in S44, the position of the target point position icon 5 read in S43, and the altitude of the target point altitude slider 8. Based on the above, a new direction of the virtual camera 9 is calculated so that the virtual camera 9 faces the target point icon 10 (S45).
The display control unit 305 indicates the position of the target point icon 10 in the three-dimensional virtual space 31 based on the three-dimensional coordinates of the target point icon 10 synthesized in S44 by the coordinate calculation unit 302 (circle number 2 in FIG. 12). And the virtual camera 9 in the three-dimensional virtual space 31 is changed to the direction of the arrow (circle numeral 3 in FIG. 12) based on the direction of the virtual camera 9 calculated in S45, and the three-dimensional View 3 is updated (S46).
Note that the position and direction of the virtual camera 9 in S46 may not be changed simultaneously.
Note that S42, S44, and S43 may be performed simultaneously or not simultaneously.

[第2の実施の形態]
次に、第2の実施の形態に係る情報処理システムについて説明する。第2の実施の形態の情報処理システムの全体構成は、第1の実施の形態(図1)と同様のものとすることができる。また、端末103のハードウェア構成や、機能ブロック図(図2、図4)も第1の実施の形態と同様でよい。基本的な動作も第1の実施の形態と同様である。ただし、この第2の実施の形態では、以下に示すように、ユーザが3次元ビュー上でも画面操作できるように構成されている。
[Second Embodiment]
Next, an information processing system according to the second embodiment will be described. The overall configuration of the information processing system of the second embodiment can be the same as that of the first embodiment (FIG. 1). The hardware configuration of the terminal 103 and the functional block diagrams (FIGS. 2 and 4) may be the same as those in the first embodiment. The basic operation is the same as that of the first embodiment. However, in the second embodiment, as shown below, the user can operate the screen even in the three-dimensional view.

図13及び図14を参照して、3次元ビュー3上でユーザが画面操作をした場合の動作を説明する。
図13は、3次元ビュー3上でユーザが画面操作を行った場合の画面表示例を示す。図13の3次元ビュー3上には、ユーザによる入力部207の操作で移動可能なカーソル11が表示されている。カーソル11の位置は、ユーザの視点の位置に対応している。
図14は、3次元ビュー3上のカーソル11の位置を調節した場合の動作を示すフローチャートである。
ユーザの入力部207の操作により、3次元ビュー3上のカーソル11の位置を矢印(図13の丸数字1)の方向へ移動させると(S51)、座標計算部302は、カーソル11の移動量を水平面座標((X,Y)座標)とZ座標とに分解して解析する(S52)。ここでは、移動前の3次元ビュー3上のカーソル11の位置を(X,Y,Z)、移動後の3次元ビュー3上のカーソル11の位置を(X,Y,Z)とし、3次元ビュー3上のカーソル11の移動により、3次元仮想空間31上の仮想カメラ9の位置が(X,Y,Z)から(X,Y,Z)へと移動する(図13の丸数字2)。
カーソル11が移動されると、表示制御部305は、2次元地図2におけるユーザアイコン4の位置を、図13の丸数字3に示すように、移動後のカーソル11の水平面座標(X,Y)に変更する(S53)。また、表示制御部305は、図13の丸数字4に示すように、2次元地図2における視点高度スライダ7の高度を、移動後のカーソル11の高度(Z)に変更する(S54)。
更に、表示制御部305は、S53とS54の変更に従い2次元地図2を更新する(S55)。また、表示制御部305は、3次元仮想空間31における仮想カメラ9の位置((X,Y)座標)と高度(Z座標)を移動後のカーソル11の座標((X,Y,Z)座標)に基づいて変更する。
なお、S53およびS54は同時に行われてもよいし、同時に行われなくともよい。なお、図13に示すように、ユーザアイコン4の位置が変わると、ユーザアイコン4と対象点位置アイコン5との位置関係に従い、扇型図形6の向きも変更される。
With reference to FIGS. 13 and 14, an operation when the user performs a screen operation on the three-dimensional view 3 will be described.
FIG. 13 shows a screen display example when the user performs a screen operation on the three-dimensional view 3. On the three-dimensional view 3 in FIG. 13, a cursor 11 that can be moved by the operation of the input unit 207 by the user is displayed. The position of the cursor 11 corresponds to the position of the user's viewpoint.
FIG. 14 is a flowchart showing an operation when the position of the cursor 11 on the three-dimensional view 3 is adjusted.
When the position of the cursor 11 on the three-dimensional view 3 is moved in the direction of the arrow (circle numeral 1 in FIG. 13) by the user's operation of the input unit 207 (S51), the coordinate calculation unit 302 moves the amount of movement of the cursor 11 Is decomposed into horizontal plane coordinates ((X, Y) coordinates) and Z coordinates and analyzed (S52). Here, the position of the cursor 11 on the three-dimensional view 3 before moving is (X 1 , Y 1 , Z 1 ), and the position of the cursor 11 on the three-dimensional view 3 after moving is (X 2 , Y 2 , Z 2 ) and the position of the virtual camera 9 on the three-dimensional virtual space 31 is changed from (X 1 , Y 1 , Z 1 ) to (X 2 , Y 2 , Z 2 ) by moving the cursor 11 on the three-dimensional view 3. (Circled number 2 in FIG. 13).
When the cursor 11 is moved, the display control unit 305 moves the position of the user icon 4 on the two-dimensional map 2 to the horizontal coordinate (X 2 , Y) of the cursor 11 after the movement, as indicated by a circled number 3 in FIG. 2 ) (S53). Further, the display control unit 305 changes the altitude of the viewpoint altitude slider 7 in the two-dimensional map 2 to the altitude (Z 2 ) of the cursor 11 after movement, as indicated by the circled numeral 4 in FIG. 13 (S54).
Further, the display control unit 305 updates the two-dimensional map 2 in accordance with the changes in S53 and S54 (S55). The display control unit 305 also moves the coordinates ((X 2 , Y 2 , Z) of the cursor 11 after moving the position ((X, Y) coordinates) and altitude (Z coordinates) of the virtual camera 9 in the three-dimensional virtual space 31. 2 ) Change based on coordinates).
Note that S53 and S54 may be performed simultaneously or may not be performed simultaneously. As shown in FIG. 13, when the position of the user icon 4 changes, the orientation of the sector graphic 6 is also changed according to the positional relationship between the user icon 4 and the target point position icon 5.

上述のように、本実施の形態の情報処理システムによると、2次元地図2上での操作でユーザの視点や対象点の位置や高度を細かく設定することができ、3次元ビュー3上での操作においてもユーザの視点の位置や高度、向きを自由に操作できる。したがって、2次元表示・3次元表示の長所を維持しつつ短所を補うことができ、ユーザの利便性を向上させることができる情報処理システムを実現することができる。   As described above, according to the information processing system of the present embodiment, the user's viewpoint, the position of the target point, and the altitude can be set finely by the operation on the two-dimensional map 2. In operation, the position, altitude, and orientation of the user's viewpoint can be freely controlled. Accordingly, it is possible to realize an information processing system that can compensate for the disadvantages while maintaining the advantages of the two-dimensional display and the three-dimensional display, and can improve the convenience for the user.

[第3の実施の形態]
次に、第3の実施の形態に係る情報処理システムについて説明する。第3の実施の形態の情報処理システムの全体構成は、第1の実施の形態(図1)と同様のものとすることができる。また、端末103のハードウェア構成や、機能ブロック図(図2、図4)も第1の実施の形態と同様でよい。基本的な動作も第1の実施の形態および第2の実施の形態と同様である。ただし、この第3の実施の形態では、以下に示すようなオプション動作が可能に構成されている。
[Third Embodiment]
Next, an information processing system according to the third embodiment will be described. The overall configuration of the information processing system according to the third embodiment can be the same as that of the first embodiment (FIG. 1). The hardware configuration of the terminal 103 and the functional block diagrams (FIGS. 2 and 4) may be the same as those in the first embodiment. The basic operation is also the same as that of the first embodiment and the second embodiment. However, in the third embodiment, the following optional operations are possible.

図15〜19を参照して第3の実施の形態に係る情報処理システムのオプション動作の例を示す。図15は、2次元地図2上でユーザの視野角を設定する場合の画面表示例を示す。図15の2次元地図2上には、ユーザアイコン4、対象点位置アイコン5、カーソル11に加えて、ユーザの視野角θを表す扇型図形6が示されている。図15に示すように、ユーザの視野角を表す扇型図形6は、ユーザアイコン4を中心とする扇型である。
図15の例において、ユーザアイコン4からカーソル11への方向をベクトルA、ユーザアイコン4から対象点アイコン5への方向をベクトルBとすると、ベクトルAとベクトルBのなす視野角θは以下の数式1で示される。

ユーザは、入力部207を用いてカーソル11を操作することにより扇型図形6の半径となる線分を操作することができる。ここでは、カーソル11を図15の丸数字1の位置から矢印(図15の丸数字4)の方向に操作する。
この場合、表示制御部305は、視点(ユーザアイコン4)と対象点(対象点位置アイコン5)の位置は固定したまま(図15の丸数字3、2)扇型図形6の視野角θを狭める。
図15の中央および右側に、2次元地図2におけるユーザの視野角の操作を行った場合における、3次元ビュー3の変化を示す。操作前の3次元ビュー3(図15中央)に比べ操作後の3次元ビュー3(図15右側)は、対象点へのズームインがなされた状態である。このように、扇型図形6の視野角θを変化させることでズームイン、ズームアウトを自在に行うことができる。
An example of an optional operation of the information processing system according to the third embodiment will be described with reference to FIGS. FIG. 15 shows a screen display example when setting the viewing angle of the user on the two-dimensional map 2. On the two-dimensional map 2 of FIG. 15, in addition to the user icon 4, the target point position icon 5, and the cursor 11, a fan-shaped figure 6 representing the user's viewing angle θ is shown. As shown in FIG. 15, the fan-shaped figure 6 representing the viewing angle of the user has a fan shape centered on the user icon 4.
In the example of FIG. 15, if the direction from the user icon 4 to the cursor 11 is a vector A, and the direction from the user icon 4 to the target point icon 5 is a vector B, the viewing angle θ formed by the vector A and the vector B is 1 is shown.

The user can operate the line segment that becomes the radius of the fan-shaped figure 6 by operating the cursor 11 using the input unit 207. Here, the cursor 11 is operated from the position of the circled number 1 in FIG. 15 in the direction of the arrow (circled number 4 in FIG. 15).
In this case, the display control unit 305 sets the viewing angle θ of the fan-shaped figure 6 while the positions of the viewpoint (user icon 4) and the target point (target point position icon 5) are fixed (circle numbers 3 and 2 in FIG. 15). Narrow.
In the center and the right side of FIG. 15, changes in the three-dimensional view 3 when the user's viewing angle operation is performed on the two-dimensional map 2 are shown. Compared to the three-dimensional view 3 before operation (center of FIG. 15), the three-dimensional view 3 after operation (right side of FIG. 15) is in a state in which the target point has been zoomed in. Thus, zooming in and zooming out can be performed freely by changing the viewing angle θ of the fan-shaped figure 6.

上述のように、本実施の形態の情報処理システムによると、視野のズームイン・ズームアウトを自在に行うことができるので、表示部206に表示されている表示データをより詳細に観測できる情報処理システムを実現することが可能となる。   As described above, according to the information processing system of the present embodiment, the field of view can be freely zoomed in and out, so that the information displayed on the display unit 206 can be observed in more detail. Can be realized.

[その他]
以上、実施の形態について説明したが、上述のような画面表示及び操作に限定されるものではなく、様々な追加変更が可能である。図16〜19を参照して、別の変形例を説明する。
図16には、地図データにおける任意の領域を2次元地図2として表示し、3次元ビュー3にはユーザの視点から対象点を眺めた場合の視界が表示されている。
図16上段に、視点と対象点の相対位置を表すウィジェット12(アイコン)を示す。図16下段に示すように、ウィジェット12は3次元ビュー3上に表示することができる。図16に示す例では、ウィジェット12は視点を示すユーザアイコン4’を中心とした円の−90〜90度の半円弧上に対象点位置アイコン5’を表示している。ウィジェット12のユーザアイコン4’は2次元地図2上のユーザアイコン4に対応し、対象点位置アイコン5’は2次元地図2上の対象点位置アイコン5に対応するものである。2次元地図2上でユーザアイコン4または対象点位置アイコン5の位置を調節したり、視点高度スライダ7または対象点高度スライダ8で視点(ユーザアイコン4)または対象点(対象点位置アイコン5)の高度を調節したりすると、調節に応じて3次元ビュー上のウィジェット12のユーザアイコン4’、対象点位置アイコン5’の位置が変わる。このように、ウィジェット12を表示させることにより、視点と対象点の高度差や水平方向の相対距離が一目でわかるようになっている。
[Others]
Although the embodiment has been described above, the present invention is not limited to the screen display and operation as described above, and various additional changes can be made. Another modification will be described with reference to FIGS.
In FIG. 16, an arbitrary region in the map data is displayed as the two-dimensional map 2, and the three-dimensional view 3 displays a field of view when the target point is viewed from the user's viewpoint.
The upper part of FIG. 16 shows a widget 12 (icon) representing the relative position of the viewpoint and the target point. As shown in the lower part of FIG. 16, the widget 12 can be displayed on the three-dimensional view 3. In the example shown in FIG. 16, the widget 12 displays the target point position icon 5 ′ on a semi-arc of −90 to 90 degrees of a circle centering on the user icon 4 ′ indicating the viewpoint. The user icon 4 ′ of the widget 12 corresponds to the user icon 4 on the two-dimensional map 2, and the target point position icon 5 ′ corresponds to the target point position icon 5 on the two-dimensional map 2. The position of the user icon 4 or the target point position icon 5 on the two-dimensional map 2 is adjusted, or the viewpoint (user icon 4) or the target point (target point position icon 5) is changed with the viewpoint altitude slider 7 or the target point altitude slider 8. When the altitude is adjusted, the positions of the user icon 4 ′ and the target point position icon 5 ′ of the widget 12 on the three-dimensional view change according to the adjustment. Thus, by displaying the widget 12, the altitude difference between the viewpoint and the target point and the relative distance in the horizontal direction can be known at a glance.

図17〜19を用いて、本実施形態の情報処理システムを気象情報の観測や解析に適用した例を説明する。
近年、日本各地で積乱雲からもたらされる局地的大雨のような突発的、局所的な現象による災害が社会問題となっている。こういった現象を捉えるために、より短時間で局所的現象の三次元立体構造を詳細に観測することができるフェーズドアレイ気象レーダーPAWR(Phased Array Weather Radar)の開発が進んでいる。
An example in which the information processing system of this embodiment is applied to observation and analysis of weather information will be described with reference to FIGS.
In recent years, disasters caused by sudden and local phenomena such as localized heavy rains caused by cumulonimbus clouds in various parts of Japan have become social problems. In order to capture such phenomena, phased array weather radar PAWR (Phased Array Weather Radar) capable of observing the three-dimensional structure of a local phenomenon in detail in a shorter time has been developed.

図17は、本実施の形態に係る情報処理システムを雲の観測に適用した場合の端末103の画面表示例を簡略化したものを示す。地図データにおける任意の領域を2次元地図2に表示し、2次元地図2上にユーザアイコン4、対象点位置アイコン5、視野角を表す扇型図形6が表示されている。3次元ビュー3にはユーザの視点(ユーザアイコン4)から対象点(対象点位置アイコン5)を眺めた場合の視界が表示されており、中央部に、取得した気象データを基に、雲の形や密度が表示されている。さらに、3次元ビュー3には、高度を表す縦軸13を表示することができる。   FIG. 17 shows a simplified screen display example of the terminal 103 when the information processing system according to the present embodiment is applied to cloud observation. An arbitrary area in the map data is displayed on the two-dimensional map 2, and a user icon 4, a target point position icon 5, and a fan-shaped figure 6 representing a viewing angle are displayed on the two-dimensional map 2. The field of view when the target point (target point position icon 5) is viewed from the user's viewpoint (user icon 4) is displayed in the three-dimensional view 3, and the cloud is displayed at the center based on the acquired weather data. The shape and density are displayed. Further, the three-dimensional view 3 can display a vertical axis 13 representing the altitude.

図18は、図17の例に加えて、3次元ビュー3上に北および東の方角を示す軸を表示している。決まった方向の軸14を表示することにより、ユーザの方向をさらにわかりやすくすることができる。軸14の方角、方向は図示している北や東に限定されず、任意に設定することが可能である。軸14は、視点と対象点の距離の変化によって大きさが変更される。これにより、3次元ビュー3において視点と対象点の距離を直観することができるようにもなる。   FIG. 18 displays axes indicating directions of north and east on the three-dimensional view 3 in addition to the example of FIG. By displaying the axis 14 in a fixed direction, the direction of the user can be made easier to understand. The direction and direction of the axis 14 are not limited to the north and east shown in the figure, and can be arbitrarily set. The size of the axis 14 is changed by changing the distance between the viewpoint and the target point. As a result, the distance between the viewpoint and the target point can be intuitively viewed in the three-dimensional view 3.

図19は、図17の例に加えて、縦軸13上に、視点の高度を示す印15および対象点の高度を示す印16を表示し、視点高度スライダ7と視点を示す印15を結んだ線17、対象点高度スライダ8と対象点を示す印16を結んだ線18を表示している。これらの印15、16は3次元ビュー3上の同じ縦軸13上に表示されているので、視点と対象点の相対高度がより把握しやすくなる。なお、図19において印は円形であるが、これに限定されず任意に変更可能である。線17、18は、実際には表示されなくともよい。   FIG. 19 shows a mark 15 indicating the viewpoint altitude and a mark 16 indicating the altitude of the target point on the vertical axis 13 in addition to the example of FIG. 17, and connects the viewpoint altitude slider 7 and the mark 15 indicating the viewpoint. An ellipse line 17, a line 18 connecting the target point altitude slider 8 and a mark 16 indicating the target point are displayed. Since these marks 15 and 16 are displayed on the same vertical axis 13 on the three-dimensional view 3, it becomes easier to grasp the relative altitude between the viewpoint and the target point. In addition, although the mark in FIG. 19 is circular, it is not limited to this, It can change arbitrarily. The lines 17 and 18 may not actually be displayed.

このように、本実施の形態の情報処理システムによると、2次元表示と3次元表示のインタラクションにより、それぞれの弱点を補うので、ユーザの操作を基にした操作性の高い情報処理システムを実現することができる。   As described above, according to the information processing system of the present embodiment, each weak point is compensated by the interaction between the two-dimensional display and the three-dimensional display, so that an information processing system with high operability based on the user's operation is realized. be able to.

以上、本実施の形態に係る情報処理システムを気象データの観測に適用した場合について説明したが、これらの実施の形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施の形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施の形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。例えば、本実施の形態に係る情報処理システムは、他の機器や通信ネットワークと接続せずに、スタンドアロンで実行することも可能である。   The case where the information processing system according to the present embodiment is applied to weather data observation has been described above. However, these embodiments are presented as examples and are intended to limit the scope of the invention. Not. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof. For example, the information processing system according to the present embodiment can be executed stand-alone without being connected to other devices or communication networks.

また、上記の実施形態では、ソフトウェア100はサーバ101に格納され、ネットワーク102を通じて端末に提供される構成例を説明した。これに代えて、同様のソフトウェア100が端末103側に格納されていても、同様の効果を奏し得る。すなわち、ソフトウェア100は、ネットワーク102を介したダウンロード、又はCD−ROMなどの可搬型記録媒体により端末102に提供されてもよい。   In the above embodiment, the configuration example in which the software 100 is stored in the server 101 and provided to the terminal through the network 102 has been described. Instead, the same effect can be obtained even when the same software 100 is stored on the terminal 103 side. That is, the software 100 may be provided to the terminal 102 by downloading via the network 102 or a portable recording medium such as a CD-ROM.

100・・・ソフトウェア、101・・・サーバ装置、102・・・インターネット、103・・・端末、201・・・CPU、202・・・ROM、203・・・RAM、204・・・バス、205・・・入出力インターフェース、206・・・表示部、207・・・入力部、208・・・記憶部、209・・・通信部、210・・・ドライブ部、211・・・リムーバル記録媒体、301・・・データ取得部、302・・・座標計算部、303・・・UIイベント管理部、304・・・地図管理部、305・・・表示制御部、306・・・3次元エンジン、307・・・ウェブブラウザ、2・・・2次元地図、3・・・3次元ビュー、31・・・3次元仮想空間、4、4’・・・ユーザアイコン、5、5’・・・対象点位置アイコン、6・・・扇型図形、7・・・視点高度スライダ、8・・・対象点高度スライダ、9・・・仮想カメラ、10・・・対象点、11・・・カーソル、12・・・ウィジェット、13・・・縦軸、14・・・軸、15・・・視点を示す印、16・・・対象点を示す印、17・・・視点高度スライダと視点を示す印を結んだ線、18・・・対象点高度スライダと対象点を示す印を結んだ線
DESCRIPTION OF SYMBOLS 100 ... Software, 101 ... Server apparatus, 102 ... Internet, 103 ... Terminal, 201 ... CPU, 202 ... ROM, 203 ... RAM, 204 ... Bus, 205 ... I / O interface, 206 ... Display unit, 207 ... Input unit, 208 ... Storage unit, 209 ... Communication unit, 210 ... Drive unit, 211 ... Removal recording medium, 301 ... Data acquisition unit 302 ... Coordinate calculation unit 303 ... UI event management unit 304 ... Map management unit 305 ... Display control unit 306 ... 3D engine 307 ... Web browser, 2 ... 2D map, 3 ... 3D view, 31 ... 3D virtual space, 4, 4 '... User icon, 5, 5' ... Target point Location icon, 6. Fan-shaped figure, 7 ... view point altitude slider, 8 ... target point altitude slider, 9 ... virtual camera, 10 ... target point, 11 ... cursor, 12 ... widget, 13, .. Vertical axis, 14... Axis, 15... Mark indicating the viewpoint, 16... Mark indicating the target point, 17... A line connecting the viewpoint altitude slider and the mark indicating the viewpoint. -A line connecting the target point altitude slider and the mark indicating the target point

Claims (7)

2次元画像と、前記2次元画像上でユーザの視点の位置を設定するユーザアイコンと、前記2次元画像上で対象点の位置を設定する対象点位置アイコンと、前記視点の高度を調節する視点高度調節部と、前記対象点の高度を調節する対象点高度調節部と、前記視点から前記対象点を眺めた視界の3次元画像と、を表示部に表示させる表示制御部と、
前記ユーザアイコンの位置、前記対象点位置アイコンの位置、前記視点高度調節部の高度および前記対象点高度調節部の高度を変更する入力部と、を備え、
前記入力部は、前記3次元画像を変更可能に構成され、
前記表示制御部は、前記入力部による前記位置または前記高度の調節に応じて前記3次元画像を更新し、
前記3次元画像の変更に応じて、前記2次元画像上の前記ユーザアイコンおよび前記対象点位置アイコンの位置と、前記視点高度調節部の高度および前記対象点高度調節部の高度とを更新する情報処理装置。
A two-dimensional image, a user icon for setting the position of the user's viewpoint on the two-dimensional image, a target point position icon for setting the position of the target point on the two-dimensional image, and a viewpoint for adjusting the height of the viewpoint A display control unit for displaying on the display unit an altitude adjusting unit, a target point altitude adjusting unit that adjusts the altitude of the target point, and a three-dimensional image of the field of view when the target point is viewed from the viewpoint;
An input unit for changing a position of the user icon, a position of the target point position icon, an altitude of the viewpoint altitude adjusting unit, and an altitude of the target point altitude adjusting unit;
The input unit is configured to be able to change the three-dimensional image,
The display control unit updates the three-dimensional image according to the adjustment of the position or the altitude by the input unit ,
Information for updating the positions of the user icon and the target point position icon on the two-dimensional image, the altitude of the viewpoint altitude adjusting unit, and the altitude of the target point altitude adjusting unit according to the change of the three-dimensional image. Processing equipment.
前記表示部は、前記2次元画像上に前記ユーザの視野角を表現する図形を表示可能に構成され、
前記入力部は、前記図形を操作することにより、前記ユーザの視野角を変更可能であり、
前記表示制御部は、前記入力部による前記図形の操作に従い、前記3次元画像を更新する、請求項1記載の情報処理装置。
The display unit is configured to be able to display a graphic representing the viewing angle of the user on the two-dimensional image,
The input unit can change the viewing angle of the user by operating the figure,
Wherein the display control unit, in accordance with the operation of the graphic by the input unit, and updates the 3-dimensional image, according to claim 1 Symbol placement of the information processing apparatus.
前記表示部は、前記次元画像上に前記ユーザ視点と前記対象点の相対位置を表すアイコンを表示可能に構成される、請求項1又は2記載の情報処理装置。 The display unit, the three-dimensional image on the display configured to be able to icons representing the relative position of the user's view point and said target point, the information processing apparatus according to claim 1 or 2, wherein. 前記表示部は、前記3次元画像上に、所定の方向を示し、前記視点と前記対象点の距離の変化によって大きさが変更される軸を表示する、請求項1乃至いずれか1項記載の情報処理装置。 The display unit, the upper three-dimensional image, shows a predetermined direction, displays an axis magnitude by a change in distance of the target point and the viewpoint is changed, any one of claims 1 to 3 Information processing device. 前記表示部は、前記3次元画像上に、
高度を表す縦軸と、
前記縦軸上に表示される前記視点の高度を示す印と、
前記縦軸上に表示される前記対象点の高度を示す印と、
前記視点の高度を示す印と前記視点高度調節部とを結ぶ図形と、
前記対象点の高度を示す印と前記対象点高度調節部とを結ぶ図形と、を表示する、請求項1乃至いずれか1項記載の情報処理装置。
The display unit is on the three-dimensional image.
A vertical axis representing altitude,
A mark indicating the altitude of the viewpoint displayed on the vertical axis;
A mark indicating the altitude of the target point displayed on the vertical axis;
A figure connecting the mark indicating the altitude of the viewpoint and the viewpoint altitude adjustment unit;
Altitude and the figure connecting with the target point altitude adjustment unit and the mark indicating to display the information processing apparatus according to any one of claims 1 to 4 of the target point.
2次元画像と、前記2次元画像上でユーザの視点の位置を設定するユーザアイコンと、前記2次元画像上で対象点の位置を設定する対象点位置アイコンと、前記視点の高度を調節する視点高度調節部と、前記対象点の高度を調節する対象点高度調節部と、前記視点から前記対象点を眺めた視界の3次元画像と、を表示部に表示し、
前記ユーザアイコンの位置、前記対象点位置アイコンの位置、前記視点高度調節部の高度または前記対象点高度調節部の高度を変更した場合に、前記位置または前記高度の調節に応じて前記3次元画像を更新し、
前記3次元画像を変更した場合に、前記2次元画像上の前記ユーザアイコンおよび前記対象点位置アイコンの位置と、前記視点高度調節部の高度および前記対象点高度調節部の高度とを更新する、情報処理方法。
A two-dimensional image, a user icon for setting the position of the user's viewpoint on the two-dimensional image, a target point position icon for setting the position of the target point on the two-dimensional image, and a viewpoint for adjusting the height of the viewpoint An altitude adjusting unit, a target point altitude adjusting unit that adjusts the altitude of the target point, and a three-dimensional image of a field of view when the target point is viewed from the viewpoint, are displayed on the display unit,
When the position of the user icon, the position of the target point position icon, the altitude of the viewpoint altitude adjusting unit or the altitude of the target point altitude adjusting unit is changed, the three-dimensional according to the adjustment of the position or the altitude. Update the image ,
When the three-dimensional image is changed, the positions of the user icon and the target point position icon on the two-dimensional image, the altitude of the viewpoint altitude adjusting unit, and the altitude of the target point altitude adjusting unit are updated . Information processing method.
2次元画像と、前記2次元画像上でユーザの視点の位置を設定するユーザアイコンと、前記2次元画像上に対象点の位置を設定する対象点位置アイコンと、前記視点の高度を調節する視点高度調節部と、前記対象点の高度を調節する対象点高度調節部と、前記視点から前記対象点を眺めた視界の3次元画像と、を表示させるステップと、
前記ユーザアイコンの位置、前記対象点位置アイコンの位置、前記視点高度調節部の高度および前記対象点高度調節部の高度を変更させるステップと、
前記位置または前記高度の調節に応じて前記3次元画像を更新させるステップと、
前記3次元画像を変更するステップと、
前記3次元画像の変更に応じて、前記2次元画像上の前記ユーザアイコンおよび前記対象点位置アイコンの位置と、前記視点高度調節部の高度および前記対象点高度調節部の高度とを更新させるステップと、
をコンピュータに実行させるプログラム。
A two-dimensional image, a user icon for setting the position of the user's viewpoint on the two-dimensional image, a target point position icon for setting the position of the target point on the two-dimensional image, and a viewpoint for adjusting the height of the viewpoint Displaying an altitude adjusting unit, a target point altitude adjusting unit that adjusts the altitude of the target point, and a three-dimensional image of a field of view when the target point is viewed from the viewpoint;
Changing the position of the user icon, the position of the target point position icon, the altitude of the viewpoint altitude adjusting unit and the altitude of the target point altitude adjusting unit;
Updating the three-dimensional image in response to adjustment of the position or the altitude;
Changing the three-dimensional image;
Updating the position of the user icon and the target point position icon on the two-dimensional image, the altitude of the viewpoint altitude adjusting unit, and the altitude of the target point altitude adjusting unit in response to the change of the three-dimensional image. When,
A program that causes a computer to execute.
JP2015256877A 2015-12-28 2015-12-28 Information processing apparatus, information processing method, and program Active JP6239581B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015256877A JP6239581B2 (en) 2015-12-28 2015-12-28 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015256877A JP6239581B2 (en) 2015-12-28 2015-12-28 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2017120531A JP2017120531A (en) 2017-07-06
JP6239581B2 true JP6239581B2 (en) 2017-11-29

Family

ID=59272067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015256877A Active JP6239581B2 (en) 2015-12-28 2015-12-28 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6239581B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3284866B2 (en) * 1996-02-05 2002-05-20 日本電信電話株式会社 Arbitrary screen extraction system in 3D virtual space
JPH11316824A (en) * 1998-05-06 1999-11-16 Matsushita Electric Ind Co Ltd Navigation device on vehicle
JP2010079547A (en) * 2008-09-25 2010-04-08 Yoshihiro Suee Program and method for displaying three-dimensional locus of motion of rotating ball
JP5706715B2 (en) * 2011-02-25 2015-04-22 株式会社ジオ技術研究所 3D map display system

Also Published As

Publication number Publication date
JP2017120531A (en) 2017-07-06

Similar Documents

Publication Publication Date Title
JP5726868B2 (en) Object selection device, object selection program, and object selection method
US10269178B2 (en) Method for visualising surface data together with panorama image data of the same surrounding
CN107506038B (en) Three-dimensional virtual earth interaction method based on mobile terminal
US10649638B2 (en) Immersive media content navigation and editing techniques
US20070257903A1 (en) Geographic information system (gis) for displaying 3d geospatial images with reference markers and related methods
US9525964B2 (en) Methods, apparatuses, and computer-readable storage media for providing interactive navigational assistance using movable guidance markers
JP6421670B2 (en) Display control method, display control program, and information processing apparatus
JP2017117008A5 (en)
US20130086517A1 (en) Interface for Navigating Imagery
DE112013003257T5 (en) Improved information transfer through a transparent display
JP2007052793A (en) Method for controlling location of pointer to be displayed by pointing device on display surface
JP2004234455A (en) Information processing method and image reproducing apparatus
WO2010035489A1 (en) Numerical value input device, numerical value input method, and program
JP2014203175A (en) Information processing device, information processing method, and program
JP2016184294A (en) Display control method, display control program, and information processing apparatus
JP6239581B2 (en) Information processing apparatus, information processing method, and program
TWI503800B (en) Building information model display system and method thereof
JP5513806B2 (en) Linked display device, linked display method, and program
JP5706715B2 (en) 3D map display system
KR101005594B1 (en) Method, system and computer-readable recording medium for providing aerial panoramic image
JP5229141B2 (en) Display control apparatus and display control method
CN111506280A (en) Graphical user interface for indicating off-screen points of interest
JP2021040231A (en) Image processing device and program
JP5463455B2 (en) Map display device and map display method
Lee et al. Mirage: A touch screen based mixed reality interface for space planning applications

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170710

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170831

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171101

R150 Certificate of patent or registration of utility model

Ref document number: 6239581

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150