WO2019160112A1 - 表示システム、表示制御装置、表示方法及び表示制御プログラム - Google Patents

表示システム、表示制御装置、表示方法及び表示制御プログラム Download PDF

Info

Publication number
WO2019160112A1
WO2019160112A1 PCT/JP2019/005684 JP2019005684W WO2019160112A1 WO 2019160112 A1 WO2019160112 A1 WO 2019160112A1 JP 2019005684 W JP2019005684 W JP 2019005684W WO 2019160112 A1 WO2019160112 A1 WO 2019160112A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
display control
control device
network
dimensional space
Prior art date
Application number
PCT/JP2019/005684
Other languages
English (en)
French (fr)
Inventor
裕志 鈴木
浩行 大西
孟朗 西岡
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Publication of WO2019160112A1 publication Critical patent/WO2019160112A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory

Definitions

  • the present invention relates to a display system, a display control device, a display method, and a display control program.
  • the conventional technology has a problem that it may be difficult to easily grasp the network status.
  • an image that three-dimensionally represents a network topology is displayed on a display.
  • a projected image from one viewpoint is displayed, so that a blind spot may occur.
  • the display system of the present invention is a display system having a display device having a plurality of display surfaces and a display control device for controlling the display device.
  • the display control device includes: an arrangement unit that arranges objects corresponding to each of the plurality of nodes in a virtual three-dimensional space based on the positions of the plurality of nodes included in the network and the topology information of the network; A setting unit that sets one or more viewpoints in the three-dimensional space; and a plurality of images obtained by projecting the objects arranged in the three-dimensional space from the viewpoints, and the topology information is visualized.
  • a plurality of generation units that generate a plurality of images, wherein each of the plurality of display surfaces is directed in different directions, and the generation unit generates the plurality of images. And displaying any number of images.
  • the network status can be easily grasped.
  • FIG. 1 is a diagram illustrating an example of a configuration of a display system according to the first embodiment.
  • FIG. 2 is a diagram for explaining the display device according to the first embodiment.
  • FIG. 3 is a diagram illustrating an example of a data configuration of network information according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of a data configuration of additional information according to the first embodiment.
  • FIG. 5 is a diagram for explaining the arrangement of objects in the three-dimensional space according to the first embodiment.
  • FIG. 6 is a diagram for explaining a viewpoint according to the first embodiment.
  • FIG. 7 is a diagram for explaining an image according to the first embodiment.
  • FIG. 8 is a flowchart illustrating a processing flow of the display system according to the first embodiment.
  • FIG. 9 is a diagram for explaining an image according to another embodiment.
  • FIG. 10 is a diagram illustrating an example of a computer that executes a display program.
  • FIG. 1 is a diagram illustrating an example of a configuration of a display system according to the first embodiment.
  • the display system 1 includes a display device 10, a display control device 20, and an input device 30.
  • the display device 10 includes a plurality of display surfaces. Each of the plurality of display surfaces provided in the display device 10 is directed in a different direction from each other, and displays any of the plurality of images generated by the display control device 20.
  • the display device 10 displays a hologram by displaying different images on a plurality of display surfaces.
  • the display device 10 includes a quadrangular pyramid display unit having each side as a panel having a display surface.
  • FIG. 2 is a diagram for explaining the display device according to the first embodiment.
  • FIG. 2A is a top view of the display device 10.
  • FIG. 2B is a side view of the display device 10.
  • the display device 10 includes display surfaces 111, 112, 113, and 114. Further, when the display device 10 is viewed from the side, one of the display surfaces can be seen. In the example of FIG. 2B, the display surface 111 is visible. Each display surface of the display device 10 may emit light by itself and display an image, or may reflect and display an image projected by a projector or the like.
  • the display control device 20 generates an image and causes the display device 10 to display the generated image.
  • the display control device 20 is a computer.
  • the display control device 20 may be connected to the display device 10 via a network. Further, the display control device 20 may be integrated with the display device 10.
  • the display control device 20 may be integrated with the input device 30.
  • the input device 30 receives input from the user.
  • the input device 30 is a mouse, a keyboard, a touch panel display, or the like.
  • the input device 30 may be a motion capture device that captures a user's movement.
  • the input device 30 records the movement of the user with a camera or the like, converts the recorded movement into data of a predetermined format, and transmits the data to the display control device 20.
  • the display control device 20 includes an input / output unit 21, a storage unit 22, and a control unit 23.
  • the input / output unit 21 functions as an input unit and an output unit.
  • the input / output unit 21 exchanges data with each device.
  • the input / output unit 21 may communicate with each device via a wired or wireless network.
  • the input / output unit 21 transmits image data, control signals, and the like to the display device 10.
  • the input / output unit 21 receives input of data indicating a user's movement from the input device 30.
  • the storage unit 22 is a storage device such as an HDD (Hard Disk Drive), an SSD (Solid State Drive), or an optical disk.
  • the storage unit 22 may be a semiconductor memory capable of rewriting data such as a RAM (Random Access Memory), a flash memory, and a NVSRAM (Non Volatile Static Random Access Memory).
  • the storage unit 22 stores an OS (Operating System) executed by the display control device 20 and various programs. Furthermore, the storage unit 22 stores various information used in executing the program. In addition, the storage unit 22 stores network information 221 and additional information 222.
  • the network information 221 is an example of positions of a plurality of nodes included in the network and network topology information.
  • the network information 221 will be described with reference to FIG.
  • FIG. 3 is a diagram illustrating an example of a data configuration of network information according to the first embodiment.
  • the network information 221 includes the position, hierarchy, link destination, and failure link destination for each building connected to the network.
  • the hierarchy, the link destination, and the faulty link destination are examples of topology information.
  • the item “building” of the network information 221 is information for identifying a building connected to the network.
  • the item “position” of the network information 221 indicates the position of the building in latitude and longitude.
  • the item “hierarchy” of the network information 221 is information for identifying a logical hierarchy in the network.
  • the hierarchy of a building connected to the carrier network can be 1, and the hierarchy of a building connected to a user network accommodated as a lower network in the carrier network can be 2.
  • the item “link destination” of the network information 221 is information indicating a connected building.
  • the item “failure link destination” of the network information 221 is information for identifying a building in which a failure has occurred.
  • the building A is located at the position (36,140) and is connected to the buildings B, C, D, and E, and there is a failure in the connection with the building C. It is shown.
  • the network information 221 is information for each building, but the network information 221 is not limited to information for each building, and can be information for any arbitrary component of the network.
  • the network information 221 may be information for each network device and terminal constituting the network, or may be information for each region connected to the network.
  • the additional information 222 is information about each building and is not included in the network information 221.
  • the additional information 222 will be described with reference to FIG.
  • FIG. 4 is a diagram illustrating an example of a data configuration of additional information according to the first embodiment.
  • the additional information 222 includes date and time, building, and contents.
  • the item “date and time” of the additional information 222 indicates the date and time when the additional information occurred.
  • the item “building” of the additional information 222 is information for identifying a building corresponding to the additional information.
  • the item “content” of the additional information 222 is the content of the additional information. For example, FIG. 4 shows that a packet discard occurred in a building called Building A at 18:24 on January 31, 2018.
  • the control unit 23 controls the entire display control device 20.
  • the control unit 23 is, for example, an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array).
  • the control unit 23 has an internal memory for storing programs and control data that define various processing procedures, and executes each process using the internal memory.
  • the control unit 23 functions as various processing units when various programs are operated.
  • the control unit 23 includes an arrangement unit 231, a setting unit 232, a generation unit 233, a display control unit 234, and an addition unit 235.
  • the placement unit 231 places objects corresponding to each of the plurality of nodes in a virtual three-dimensional space based on the positions of the plurality of nodes included in the network and the topology information of the network. Specifically, the arrangement unit 231 determines the coordinates indicating the position of the object corresponding to each building in the three-dimensional space based on the network information 221.
  • FIG. 5 is a diagram for explaining the arrangement of objects in the three-dimensional space according to the first embodiment.
  • the objects corresponding to the buildings A, B, C, D, and E are objects 10A, 10B, 10C, 10D, and 10E, respectively.
  • the placement unit 231 assumes an x-axis, a y-axis, a z-axis, and an origin on a predetermined map.
  • the arrangement unit 231 arranges an object corresponding to a building whose network information 221 has a hierarchy of 2 at a predetermined position on the layer L2. In addition, the arrangement unit 231 arranges an object corresponding to a building whose hierarchy of the network information 221 is 1 at a predetermined position on the layer L1.
  • the layer L1 corresponds to an aerial surface parallel to the ground in the real space.
  • the placement unit 231 places the object 10A on the layer L1, and places the objects 10B, 10C, 10D, and 10E on the layer L2. Specifically, the placement unit 231 sets the z coordinate of the object 10A to h 1 (where h 1 > 0), and sets the z coordinates of the objects 10B, 10C, 10D, and 10E to 0. Further, the placement unit 231 can determine the x-coordinate and y-coordinate of each object based on the latitude and longitude of the corresponding building.
  • the setting unit 232 sets one or more viewpoints in the three-dimensional space. Note that the generation unit 233 described later generates an image in which the three-dimensional space is viewed from the viewpoint set by the setting unit 232.
  • FIG. 6 is a diagram for explaining a viewpoint according to the first embodiment.
  • the setting unit 232 sets the height of the viewpoint higher than the position of at least one of the objects, and sets the direction of the viewpoint to a direction overlooking at least one of the objects. be able to. Specifically, the setting unit 232 sets the z coordinate h of the viewpoint to be greater than 0 or greater than h 1 and sets the viewpoint to an elevation angle ⁇ 0 degrees. As a result, the generation unit 233 can generate an image with an inclination and look down on the three-dimensional space, and can easily grasp the arrangement of each object.
  • the setting unit 232 sets a predetermined point in the three-dimensional space as a viewpoint position by rotating a predetermined point by a predetermined angle about a predetermined straight line.
  • the setting unit 232 sets the first viewpoint, sets the second viewpoint at a position obtained by rotating the first viewpoint by 90 degrees along the rotation axis parallel to the z axis, and sets the second viewpoint.
  • a third viewpoint is set at a position where the viewpoint is rotated by 90 degrees along the rotation axis, and a fourth viewpoint is set at a position where the third viewpoint is rotated by 90 degrees along the rotation axis. be able to.
  • generation part 233 can produce
  • the generation unit 233 generates a plurality of images obtained by projecting the objects arranged in the three-dimensional space from the respective viewpoints, and in which the topology information is visualized.
  • the generation unit 233 can generate a projection image using the method described in the cited document 1.
  • the generation unit 233 may generate a projection image using any known method such as Open GL (registered trademark).
  • the generation unit 233 can express the network topology information by line segments connecting the objects corresponding to the connected buildings. In addition, the generation unit 233 can make a line segment between objects corresponding to the buildings where the failure has occurred thick lines.
  • the generation unit 233 may correct the visual field or the like so that the generated image is easy for the user to see. At this time, the generation unit 233 can correct the projection image using the method described in the cited document 1.
  • the display control unit 234 displays any of the plurality of images generated by the generation unit 233 on each of the plurality of display surfaces provided in the display device 10.
  • the image displayed on the display apparatus 10 is demonstrated using FIG.
  • FIG. 7 is a diagram for explaining an image according to the first embodiment.
  • images are displayed on the display surface 111 and the display surface 114.
  • An image is also displayed on the display surface 112 and the display surface 113 (not shown).
  • the direction of each display surface of the display device 10 can be associated with the direction of the viewpoint. In that case, the display device 10 can perform a display as if the arranged object actually exists inside the quadrangular pyramid.
  • the display surface 111 displays a projected image from a viewpoint whose direction is set in a direction substantially parallel to the y-axis.
  • a thick line indicates that a failure has occurred in a link between buildings corresponding to the objects.
  • the adding unit 235 superimposes additional information on the image generated by the generating unit 233.
  • the adding unit 235 refers to the additional information 222 and acquires additional information regarding the building A.
  • the generation unit 233 superimposes a message indicating additional information on a predetermined image on which the object 10A corresponding to the building A is displayed.
  • a message “Packet discard ...” is displayed as additional information on the image on the display surface 111.
  • the generation unit 233 may display additional information on all images on which the object 10A is displayed, or may display additional information only on images requested by the user.
  • the setting unit 232 changes the viewpoint based on the data indicating the user's movement.
  • the generation unit 233 generates an image in accordance with the viewpoint change by the setting unit 232.
  • the input device 30 functioning as a motion capture device inputs data indicating the moving direction and distance to the display control device 20 when the user captures an action of moving the hand in the horizontal direction. Then, the setting unit 232 moves the viewpoint position in the same direction as the direction in which the user moves the hand. Further, when the position of one viewpoint is changed, the setting unit 232 may follow another viewpoint, or may not change the other viewpoint.
  • FIG. 8 is a flowchart illustrating a processing flow of the display system according to the first embodiment.
  • the display control device 20 refers to the network information 221 and arranges an object corresponding to a building in a three-dimensional space (step S101).
  • the display control device 20 sets a plurality of viewpoints in the three-dimensional space (step S102). For example, the display control device 20 can set four viewpoints by rotating a certain point 90 degrees along the rotation axis.
  • the display control device 20 generates a projection image from each of the set plurality of viewpoints (step S103). Further, the display control device 20 superimposes additional information on the generated image (step S104). Further, the display control device 20 displays each image on each display surface of the display device 10 (step S105). The display surfaces of the display device 10 are directed in different directions, and the display device 10 can display a hologram.
  • step S106, Yes when an operation is input (step S106, Yes), the display control device 20 returns to step S102 and resets the viewpoint. Thereafter, the display control device 20 generates an image and causes the display device 10 to display the image.
  • step S106, No the display control device 20 ends the process.
  • the display system 1 includes a display device 10 having a plurality of display surfaces and a display control device 20 that controls the display device 10.
  • the placement unit 231 of the display control device 20 places objects corresponding to each of the plurality of nodes in a virtual three-dimensional space based on the positions of the plurality of nodes included in the network and the topology information of the network.
  • the setting unit 232 of the display control device 20 sets one or more viewpoints in the three-dimensional space.
  • the generation unit 233 of the display control device 20 generates a plurality of images obtained by projecting the objects arranged in the three-dimensional space from the respective viewpoints and having the topology information visualized.
  • each of the plurality of display surfaces of the display device 10 is directed in a different direction, and displays any of the plurality of images generated by the generation unit 233.
  • the display control unit 234 is a plurality of display surfaces provided in the display device 10, and each of the plurality of display surfaces directed in different directions from any of the plurality of images generated by the generation unit 233. Is displayed.
  • the network condition can be easily grasped.
  • the display device 10 of the present embodiment has a display surface facing a plurality of different directions. For this reason, the image displayed on the display device 10 can be easily viewed by a plurality of users. Furthermore, since each user can see images from different viewpoints, various users can collect various information at the same time and discuss each other.
  • the display control device 20 sets a predetermined point in the three-dimensional space as a viewpoint position by rotating a predetermined point by a predetermined angle about a predetermined straight line as a rotation axis.
  • the display control device 20 sets the height of the viewpoint higher than the position of at least one of the objects, and sets the direction of the viewpoint to a direction overlooking at least one of the objects. Thereby, the user can grasp
  • the display control device 20 superimposes additional information on the generated image. Thereby, the user can obtain the detailed information at the same time as grasping the outline of the network status.
  • the display control device 20 receives input of data indicating the user's movement, changes the viewpoint based on the data indicating the user's movement, and generates an image according to the change of the viewpoint.
  • the user can perform a sensory operation.
  • FIG. 10 is a diagram for explaining an image according to another embodiment. As described above, in the embodiment of the present invention, a plurality of display surfaces may display projection images from the same viewpoint.
  • the setting unit 232 may set a plurality of different viewpoints or a single viewpoint.
  • the plurality of display surfaces provided in the display device 10 may display different images or the same image.
  • the adding unit 235 when a plurality of display surfaces display the same image, the adding unit 235 superimposes additional information on one image and does not superimpose additional information on the other image. May be.
  • the user who is viewing the image on which the additional information is superimposed can grasp details from the additional information, and the user who is viewing the image on which the additional information is not superimposed can grasp the overall situation.
  • each component of each illustrated device is functionally conceptual and does not necessarily need to be physically configured as illustrated.
  • the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or a part of the distribution / integration is functionally or physically distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
  • all or a part of each processing function performed in each device may be realized by a CPU and a program that is analyzed and executed by the CPU, or may be realized as hardware by wired logic.
  • the display control apparatus 20 can be implemented by installing a display program for executing the above display control as package software or online software on a desired computer.
  • the information processing apparatus can function as the display control apparatus 20 by causing the information processing apparatus to execute the display program.
  • the information processing apparatus referred to here includes a desktop or notebook personal computer.
  • the information processing apparatus includes mobile communication terminals such as smartphones, mobile phones and PHS (Personal Handyphone System), and slate terminals such as PDA (Personal Digital Assistant).
  • the display control device 20 can also be implemented as a display server device that provides a terminal device used by a user as a client and provides the client with the above-described service related to display control.
  • the display server device is implemented as a server device that provides a display service that receives information about a network as an input and outputs a plurality of images.
  • the display server device may be implemented as a Web server, or may be implemented as a cloud that provides services related to the above display control by outsourcing.
  • FIG. 10 is a diagram illustrating an example of a computer that executes a display program.
  • the computer 1000 includes a memory 1010 and a CPU 1020, for example.
  • the computer 1000 also includes a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. These units are connected by a bus 1080.
  • the memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM 1012.
  • the ROM 1011 stores a boot program such as BIOS (Basic Input Output System).
  • BIOS Basic Input Output System
  • the hard disk drive interface 1030 is connected to the hard disk drive 1090.
  • the disk drive interface 1040 is connected to the disk drive 1100.
  • a removable storage medium such as a magnetic disk or an optical disk is inserted into the disk drive 1100.
  • the serial port interface 1050 is connected to a mouse 1110 and a keyboard 1120, for example.
  • the video adapter 1060 is connected to the display 1130, for example.
  • the hard disk drive 1090 stores, for example, an OS 1091, an application program 1092, a program module 1093, and program data 1094. That is, a program that defines each process of the display control device 20 is implemented as a program module 1093 in which a code executable by a computer is described.
  • the program module 1093 is stored in the hard disk drive 1090, for example.
  • a program module 1093 for executing processing similar to the functional configuration in the display control device 20 is stored in the hard disk drive 1090.
  • the hard disk drive 1090 may be replaced by an SSD.
  • the setting data used in the processing of the above-described embodiment is stored as program data 1094 in, for example, the memory 1010 or the hard disk drive 1090. Then, the CPU 1020 reads the program module 1093 and the program data 1094 stored in the memory 1010 and the hard disk drive 1090 to the RAM 1012 as necessary, and executes the processing of the above-described embodiment.
  • the program module 1093 and the program data 1094 are not limited to being stored in the hard disk drive 1090, but may be stored in, for example, a removable storage medium and read by the CPU 1020 via the disk drive 1100 or the like. Alternatively, the program module 1093 and the program data 1094 may be stored in another computer connected via a network (LAN (Local Area Network), WAN (Wide Area Network), etc.). Then, the program module 1093 and the program data 1094 may be read by the CPU 1020 from another computer via the network interface 1070.
  • LAN Local Area Network
  • WAN Wide Area Network

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

表示制御装置(20)は、ネットワークに含まれる複数のノードの位置、及びネットワークのトポロジ情報に基いて、複数のノードのそれぞれに対応するオブジェクトを仮想的な3次元空間に配置する。また、表示制御装置(20)の3次元空間に1つ以上の視点を設定する。また、表示制御装置(20)は、3次元空間に配置されたオブジェクトを、視点のそれぞれから投影した複数の画像であって、トポロジ情報が可視化された複数の画像を生成する。また、表示装置(10)の複数の表示面のそれぞれは、互いに異なる方向に向けられ、生成された複数の画像のいずれかを表示する。

Description

表示システム、表示制御装置、表示方法及び表示制御プログラム
 本発明は、表示システム、表示制御装置、表示方法及び表示制御プログラムに関する。
 ネットワークの故障に対し迅速な対応を行うためには、ネットワークの状況を素早く把握することが重要である。そこで、従来、ネットワークの状況を把握するための技術として、ネットワークトポロジを立体的に表現した画像を生成する技術が提案されている。
特開2015-158766号公報
 しかしながら、従来の技術には、ネットワークの状況を容易に把握することが困難な場合があるという問題がある。例えば、従来の技術では、ネットワークトポロジを立体的に表現した画像がディスプレイに表示される。このとき、同時に表示される画像が1枚のみである場合、1つの視点からの投影画像のみが表示されることになるため、死角が生じることが考えられる。また、ディスプレイが1台のみである場合、複数人で画面を見ることが難しくなることが考えられる。
 上述した課題を解決し、目的を達成するために、本発明の表示システムは、複数の表示面を備えた表示装置と、前記表示装置を制御する表示制御装置と、を有する表示システムであって、前記表示制御装置は、ネットワークに含まれる複数のノードの位置、及び前記ネットワークのトポロジ情報に基いて、前記複数のノードのそれぞれに対応するオブジェクトを仮想的な3次元空間に配置する配置部と、前記3次元空間に1つ以上の視点を設定する設定部と、前記3次元空間に配置された前記オブジェクトを、前記視点のそれぞれから投影した複数の画像であって、前記トポロジ情報が可視化された複数の画像を生成する生成部と、を有し、前記複数の表示面それぞれは、互いに異なる方向に向けられ、前記生成部によって生成された前記複数の画像のいずれかを表示することを特徴とする。
 本発明によれば、ネットワークの状況を容易に把握できる。
図1は、第1の実施形態に係る表示システムの構成の一例を示す図である。 図2は、第1の実施形態に係る表示装置について説明するための図である。 図3は、第1の実施形態に係るネットワーク情報のデータ構成の一例を示す図である。 図4は、第1の実施形態に係る追加情報のデータ構成の一例を示す図である。 図5は、第1の実施形態に係る3次元空間へのオブジェクトの配置について説明するための図である。 図6は、第1の実施形態に係る視点について説明するための図である。 図7は、第1の実施形態に係る画像について説明するための図である。 図8は、第1の実施形態に係る表示システムの処理の流れを示すフローチャートである。 図9は、他の実施形態に係る画像について説明するための図である。 図10は、表示プログラムを実行するコンピュータの一例を示す図である。
 以下に、本願に係る表示システム、表示制御装置、表示方法及び表示制御プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。
[第1の実施形態の構成]
 まず、図1を用いて、第1の実施形態に係る表示システムの構成について説明する。図1は、第1の実施形態に係る表示システムの構成の一例を示す図である。図1に示すように、表示システム1は、表示装置10、表示制御装置20及び入力装置30を有する。
 表示装置10は、複数の表示面を備えている。また、表示装置10に備えられた複数の表示面のそれぞれは、互いに異なる方向に向けられ、表示制御装置20によって生成された複数の画像のいずれかを表示する。表示装置10は、複数の表示面に異なる画像を表示させることにより、ホログラムを表示する。
 本実施形態において、表示装置10は、表示面を備えたパネルを各側面とする四角錐の表示部を備えている。図2は、第1の実施形態に係る表示装置について説明するための図である。図2の(a)は、表示装置10の上面図である。また、図2の(b)は、表示装置10の側面図である。
 図2の(a)に示すように、表示装置10は、表示面111、112、113及び114を有する。また、表示装置10を横から見た場合、いずれかの表示面が見える。図2の(b)の例では、表示面111が見えている。また、表示装置10の各表示面は、自ら発光し画像を表示するものであってもよいし、プロジェクタ等によって投影された画像を反射し表示するものであってもよい。
 表示制御装置20は、画像を生成し、生成した画像を表示装置10に表示させる。例えば、表示制御装置20はコンピュータである。また、表示制御装置20は、表示装置10とネットワークで接続されたものであってもよい。また、表示制御装置20は、表示装置10と一体化されていてもよい。また、表示制御装置20は、入力装置30と一体化されていてもよい。
 入力装置30は、ユーザによる入力を受け付ける。例えば、入力装置30は、マウス、キーボード又はタッチパネルディスプレイ等である。また、入力装置30は、ユーザの動きをキャプチャするモーションキャプチャ装置であってもよい。この場合、入力装置30は、カメラ等でユーザの動きを記録し、当該記録した動きを所定の形式のデータに変換し表示制御装置20に送信する。
 ここで、表示制御装置20の構成について説明する。図1に示すように、表示制御装置20は、入出力部21、記憶部22及び制御部23を有する。入出力部21は、入力部及び出力部として機能する。
 入出力部21は、各装置との間でデータのやり取りを行う。また、入出力部21は、有線又は無線のネットワークを介して各装置との間で通信を行うものであってもよい。例えば、入出力部21は、表示装置10に対し、画像のデータ及び制御信号等を送信する。また、例えば、入出力部21は、入力装置30からユーザの動きを示すデータの入力を受け付ける。
 記憶部22は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク等の記憶装置である。なお、記憶部22は、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等のデータを書き換え可能な半導体メモリであってもよい。記憶部22は、表示制御装置20で実行されるOS(Operating System)や各種プログラムを記憶する。さらに、記憶部22は、プログラムの実行で用いられる各種情報を記憶する。また、記憶部22は、ネットワーク情報221及び追加情報222を記憶する。
 ネットワーク情報221は、ネットワークに含まれる複数のノードの位置、及びネットワークのトポロジ情報の一例である。図3を用いて、ネットワーク情報221について説明する。図3は、第1の実施形態に係るネットワーク情報のデータ構成の一例を示す図である。
 図3に示すように、ネットワーク情報221は、ネットワークに接続された建物ごとの位置、階層、リンク先、障害発生リンク先を含む。このうち、階層、リンク先及び障害発生リンク先は、トポロジ情報の一例である。
 ネットワーク情報221の項目「建物」は、ネットワークに接続された建物を識別するための情報である。また、ネットワーク情報221の項目「位置」は、建物の位置を緯度及び経度で示したものである。
 また、ネットワーク情報221の項目「階層」は、ネットワークにおける論理的な階層を識別するための情報である。例えば、キャリアネットワークに接続された建物の階層を1とし、当該キャリアネットワークに下位のネットワークとして収容されたユーザネットワークに接続された建物の階層を2とすることができる。
 また、ネットワーク情報221の項目「リンク先」は、接続された建物を示す情報である。また、ネットワーク情報221の項目「障害発生リンク先」は、障害が発生した建物を識別するための情報である。
 例えば、図3には、ビルAという建物が、(36,140)という位置にあり、ビルB、C、D及びEと接続され、ビルCとの間の接続に障害が発生していることが示されている。
 なお、本実施形態では、ネットワーク情報221を建物ごとの情報としているが、ネットワーク情報221は、建物ごとの情報に限られず、ネットワークの任意の構成要素ごとの情報とすることができる。例えば、ネットワーク情報221は、ネットワークを構成するネットワーク機器及び端末ごとの情報であってもよいし、ネットワークに接続された地域ごとの情報であってもよい。
 追加情報222は、各建物に関する情報であって、ネットワーク情報221には含まれない情報である。図4を用いて、追加情報222について説明する。図4は、第1の実施形態に係る追加情報のデータ構成の一例を示す図である。
 図4に示すように、追加情報222は、日時、建物、内容を含む。追加情報222の項目「日時」は、追加情報が発生した日時を示している。また、追加情報222の項目「建物」は、当該追加情報に対応する建物を識別するための情報である。また、追加情報222の項目「内容」は、追加情報の内容である。例えば、図4には、2018/1/31 18:24に、ビルAという建物において、パケットの廃棄が発生したことが示されている。
 制御部23は、表示制御装置20全体を制御する。制御部23は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等の電子回路や、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積回路である。また、制御部23は、各種の処理手順を規定したプログラムや制御データを格納するための内部メモリを有し、内部メモリを用いて各処理を実行する。また、制御部23は、各種のプログラムが動作することにより各種の処理部として機能する。例えば、制御部23は、配置部231、設定部232、生成部233、表示制御部234及び追加部235を有する。
 配置部231は、ネットワークに含まれる複数のノードの位置、及びネットワークのトポロジ情報に基いて、複数のノードのそれぞれに対応するオブジェクトを仮想的な3次元空間に配置する。具体的には、配置部231は、ネットワーク情報221に基づいて、各建物に対応するオブジェクトの3次元空間における位置を示す座標を決定する。
 ここで、図5を用いて、オブジェクトの配置について説明する。図5は、第1の実施形態に係る3次元空間へのオブジェクトの配置について説明するための図である。ここで、ビルA、B、C、D及びEに対応するオブジェクトを、それぞれオブジェクト10A、10B、10C、10D及び10Eとする。また、図3に示すように、配置部231は、所定の地図上に、x軸、y軸、z軸及び原点を仮定する。
 まず、配置部231は、ネットワーク情報221の階層が2である建物に対応するオブジェクトを、レイヤL2上の所定の位置に配置する。また、配置部231は、ネットワーク情報221の階層が1である建物に対応するオブジェクトを、レイヤL1上の所定の位置に配置する。ここで、レイヤL1及びレイヤL2は、それぞれz=h及びz=0で表される平面である。つまり、レイヤL2は、現実の空間の地面に対応している。一方レイヤL1は、現実の空間の地面に平行な空中の面に対応している。
 配置部231は、オブジェクト10AをレイヤL1に配置し、オブジェクト10B、10C、10D及び10EをレイヤL2に配置する。具体的には、配置部231は、オブジェクト10Aのz座標をh(ただし、h>0)とし、オブジェクト10B、10C、10D及び10Eのz座標を0とする。また、配置部231は、各オブジェクトのx座標及びy座標を、対応する建物の緯度及び経度に基づいて決定することができる。
 設定部232は、3次元空間に1つ以上の視点を設定する。なお、後述する生成部233は、設定部232によって設定された視点から3次元空間を見た画像を生成する。図6は、第1の実施形態に係る視点について説明するための図である。
 図6に示すように、設定部232は、視点の高さを、オブジェクトのうちの少なくともいずれかの位置より高く設定し、視点の方向を、オブジェクトのうちの少なくともいずれかを見下ろす方向に設定することができる。具体的には、設定部232は、視点のz座標hを0より大きく、又はhより大きく設定し、視点の仰角θ0度より大きく設定する。これにより、生成部233は、傾斜をつけて3次元空間を見下ろした画像を生成することができ、各オブジェクトの配置を容易に把握することができるようになる。
 また、設定部232は、3次元空間における所定の点を、所定の直線を回転軸として所定の角度ずつ回転させていった点を視点の位置として設定する。例えば、設定部232は、第1の視点を設定し、第1の視点をz軸と平行な回転軸に沿って90度だけ回転移動させた位置に第2の視点を設定し、第2の視点を回転軸に沿って90度だけ回転移動させた位置に第3の視点を設定し、第3の視点を回転軸に沿って90度だけ回転移動させた位置に第4の視点を設定することができる。これにより、生成部233は、3次元空間上のある点を複数の方向から見た画像を生成することができ、死角を解消することができる。
 生成部233は、3次元空間に配置されたオブジェクトを、視点のそれぞれから投影した複数の画像であって、トポロジ情報が可視化された複数の画像を生成する。例えば、生成部233は、引用文献1に記載の手法を使って投影画像を生成することができる。また、生成部233は、Open GL(登録商標)等の既知の任意の手法を使って投影画像を生成してもよい。
 また、生成部233は、ネットワークのトポロジ情報を、接続された建物に対応する各オブジェクト間を結ぶ線分によって表現することができる。また、生成部233は、障害が発生している建物間に対応するオブジェクト間の線分を太線とすることができる。
 また、生成部233は、生成した画像がユーザにとって見やすいものとなるように、視野等の補正を行ってもよい。このとき、生成部233は、投影画像の補正を、引用文献1に記載された方法を使って行うことができる。
 表示制御部234は、表示装置10に備えられた複数の表示面のそれぞれに、生成部233によって生成された複数の画像のいずれかを表示させる。ここで、図7を用いて、表示装置10に表示される画像について説明する。図7は、第1の実施形態に係る画像について説明するための図である。
 図7に示すように、表示面111及び表示面114には画像が表示される。また、図示しない表示面112及び表示面113にも画像が表示される。例えば、設定部232が、前述の通り視点を90度ずつ回転移動させながら設定した場合、表示装置10の各表示面の方向と視点の方向とを対応させることができる。その場合、表示装置10は、配置されたオブジェクトが実際に四角錐内部に存在しているかのような表示を行うことができる。
 図7に示すように、表示面111は、向きがy軸に略平行な方向に設定された視点からの投影映像を表示している。また、太線は、当該オブジェクト間に対応する建物間のリンクに障害が発生していることを示している。
 表示面111の画像からは、オブジェクト10Aがオブジェクト10C又は10Eのいずれと太線でつながれているのかを、ユーザが判断できないことが考えられる。同様に、表示面114の画像からは、オブジェクト10Aがオブジェクト10B、10C又は10Dのいずれと太線でつながれているのかを、ユーザが判断できないことが考えられる。このような場合、表示面111の画像から得られた情報と、表示面114の画像から得られた情報との両方を確認することで、オブジェクト10Aとオブジェクト10Cが太線でつながれていること、すなわちビルAとビルCとの間に障害が発生していることが明確になる。
 追加部235は、生成部233によって生成された画像に、追加の情報を重畳させる。追加部235は、追加情報222を参照し、ビルAに関する追加の情報を取得する。そして、生成部233は、ビルAに対応したオブジェクト10Aが表示された所定の画像に、追加の情報を示すメッセージを重畳させる。その結果、図7に示すように、表示面111の画像には、追加の情報として、「パケット廃棄・・・」というメッセージが表示される。ここで、生成部233は、オブジェクト10Aが表示された全ての画像に追加の情報を表示させてもよいし、ユーザから要求があった画像にのみ追加の情報を表示させてもよい。
 ここで、入出力部21が、ユーザの動きを示すデータの入力を受け付けた場合、設定部232は、ユーザの動きを示すデータに基づいて視点を変更する。その場合、生成部233は、設定部232による視点の変更に応じて画像を生成する。
 例えば、モーションキャプチャ装置として機能する入力装置30は、ユーザが手を横方向に平行移動させる動作をキャプチャした場合、移動方向や距離を示すデータを表示制御装置20に入力する。そして、設定部232は、視点の位置を、ユーザが手を動かした方向と同じ方向に移動させる。また、設定部232は、1つの視点の位置を変更した場合、他の視点を追随させるようにしてもよいし、他の視点は変更しないようにしてもよい。
[第1の実施形態の処理]
 図8を用いて、表示システム1の処理について説明する。図8は、第1の実施形態に係る表示システムの処理の流れを示すフローチャートである。まず、図8に示すように、表示制御装置20は、ネットワーク情報221を参照し、建物に対応するオブジェクトを3次元空間に配置する(ステップS101)。
 次に、表示制御装置20は、3次元空間に複数の視点を設定する(ステップS102)。例えば、表示制御装置20は、ある点を回転軸に沿って90度ずつ回転移動させていくことで4つの視点を設定することができる。
 そして、表示制御装置20は、設定した複数の視点のそれぞれからの投影画像を生成する(ステップS103)。さらに、表示制御装置20は、生成した画像に追加情報を重畳させる(ステップS104)。さらに、表示制御装置20は、各画像を、表示装置10の各表示面に表示させる(ステップS105)。表示装置10の表示面は互いに異なる方向に向けられており、表示装置10は、ホログラムを表示することができる。
 ここで、操作の入力があった場合(ステップS106、Yes)、表示制御装置20はステップS102に戻り、視点を再設定する。その後、表示制御装置20は画像を生成し、表示装置10に表示させる。また、操作の入力がない場合(ステップS106、No)、表示制御装置20は処理を終了する。
[第1の実施形態の効果]
 表示システム1は、複数の表示面を備えた表示装置10と、表示装置10を制御する表示制御装置20とを有する。表示制御装置20の配置部231は、ネットワークに含まれる複数のノードの位置、及びネットワークのトポロジ情報に基いて、複数のノードのそれぞれに対応するオブジェクトを仮想的な3次元空間に配置する。また、表示制御装置20の設定部232は、3次元空間に1つ以上の視点を設定する。また、表示制御装置20の生成部233は、3次元空間に配置されたオブジェクトを、視点のそれぞれから投影した複数の画像であって、トポロジ情報が可視化された複数の画像を生成する。また、表示装置10の複数の表示面のそれぞれは、互いに異なる方向に向けられ、生成部233によって生成された複数の画像のいずれかを表示する。また、表示制御部234は、表示装置10に備えられた複数の表示面であって、互いに異なる方向に向けられた複数の表示面のそれぞれに、生成部233によって生成された複数の画像のいずれかを表示させる。このように、本実施形態では、立体的に表現されたネットワークの状況を複数の視点から見た画像を表示するため、ネットワークの状況を容易に把握することができる。
 また、本実施形態の表示装置10は、複数の異なる方向を向いた表示面を有する。このため、表示装置10に表示された画像を複数のユーザで無理なく見ることができる。さらに、各ユーザが異なる視点からの画像を見ることができるため、複数のユーザで同時に様々な情報を収集し、互いに議論を行うことができる。
 表示制御装置20は、3次元空間における所定の点を、所定の直線を回転軸として所定の角度ずつ回転させていった点を視点の位置として設定する。これにより、表示装置10は、配置されたオブジェクトが実際にその場所に存在しているかのような表示を行うことができるため、ユーザは、ネットワークの状況を直感的に把握することができる。
 表示制御装置20は、視点の高さを、オブジェクトのうちの少なくともいずれかの位置より高く設定し、視点の方向を、オブジェクトのうちの少なくともいずれかを見下ろす方向に設定する。これにより、ユーザは、ネットワークの状況を俯瞰的に把握することができる。
 表示制御装置20は、生成した画像に、追加の情報を重畳させる。これにより、ユーザは、ネットワークの状況の概要を把握すると同時に、詳細な情報を得ることができる。
 表示制御装置20は、ユーザの動きを示すデータの入力を受け付け、ユーザの動きを示すデータに基づいて、視点を変更し、視点の変更に応じて画像を生成する。ユーザは感覚的な操作を行うことができる。
[その他の実施形態]
 図7の例では、表示面111及び114は、それぞれ異なる視点からの投影画像を表示している。一方、図10の例では、表示面111及び114は、同一の視点からの投影画像を表示している。図10は、他の実施形態に係る画像について説明するための図である。このように、本発明の実施形態では、複数の表示面が、同一の視点からの投影画像を表示するようにしてもよい。
 つまり、設定部232は、複数の異なる視点を設定してもよいし、1つの視点を設定してもよい。また、表示装置10に備えられた複数の表示面は、互いに異なる画像を表示してもよいし、同一の画像を表示してもよい。
 さらに、図10に示すように、複数の表示面が同一の画像を表示する場合、追加部235は、一方の画像に追加の情報を重畳させ、他方の画像に追加の情報を重畳させないようにしてもよい。これにより、追加の情報が重畳された画像を見ているユーザに追加の情報から詳細を把握させ、追加の情報が重畳されていない画像をみているユーザに全体の状況を把握させることができる。
[システム構成等]
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
 また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部又は一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部又は一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[プログラム]
 一実施形態として、表示制御装置20は、パッケージソフトウェアやオンラインソフトウェアとして上記の表示制御を実行する表示プログラムを所望のコンピュータにインストールさせることによって実装できる。例えば、上記の表示プログラムを情報処理装置に実行させることにより、情報処理装置を表示制御装置20として機能させることができる。ここで言う情報処理装置には、デスクトップ型又はノート型のパーソナルコンピュータが含まれる。また、その他にも、情報処理装置にはスマートフォン、携帯電話機やPHS(Personal Handyphone System)等の移動体通信端末、さらには、PDA(Personal Digital Assistant)等のスレート端末等がその範疇に含まれる。
 また、表示制御装置20は、ユーザが使用する端末装置をクライアントとし、当該クライアントに上記の表示制御に関するサービスを提供する表示サーバ装置として実装することもできる。例えば、表示サーバ装置は、ネットワークに関する情報を入力とし、複数の画像を出力とする表示サービスを提供するサーバ装置として実装される。この場合、表示サーバ装置は、Webサーバとして実装することとしてもよいし、アウトソーシングによって上記の表示制御に関するサービスを提供するクラウドとして実装することとしてもかまわない。
 図10は、表示プログラムを実行するコンピュータの一例を示す図である。コンピュータ1000は、例えば、メモリ1010、CPU1020を有する。また、コンピュータ1000は、ハードディスクドライブインタフェース1030、ディスクドライブインタフェース1040、シリアルポートインタフェース1050、ビデオアダプタ1060、ネットワークインタフェース1070を有する。これらの各部は、バス1080によって接続される。
 メモリ1010は、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、例えばディスプレイ1130に接続される。
 ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、表示制御装置20の各処理を規定するプログラムは、コンピュータにより実行可能なコードが記述されたプログラムモジュール1093として実装される。プログラムモジュール1093は、例えばハードディスクドライブ1090に記憶される。例えば、表示制御装置20における機能構成と同様の処理を実行するためのプログラムモジュール1093が、ハードディスクドライブ1090に記憶される。なお、ハードディスクドライブ1090は、SSDにより代替されてもよい。
 また、上述した実施形態の処理で用いられる設定データは、プログラムデータ1094として、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020は、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した実施形態の処理を実行する。
 なお、プログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限らず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、プログラムモジュール1093及びプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶されてもよい。そして、プログラムモジュール1093及びプログラムデータ1094は、他のコンピュータから、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
 1 表示システム
 10 表示装置
 20 表示制御装置
 30 入力装置
 21 入出力部
 22 記憶部
 23 制御部
 221 ネットワーク情報
 222 追加情報
 231 配置部
 232 設定部
 233 生成部
 234 表示制御部
 235 追加部

Claims (8)

  1.  複数の表示面を備えた表示装置と、前記表示装置を制御する表示制御装置と、を有する表示システムであって、
     前記表示制御装置は、
     ネットワークに含まれる複数のノードの位置、及び前記ネットワークのトポロジ情報に基いて、前記複数のノードのそれぞれに対応するオブジェクトを仮想的な3次元空間に配置する配置部と、
     前記3次元空間に1つ以上の視点を設定する設定部と、
     前記3次元空間に配置された前記オブジェクトを、前記視点のそれぞれから投影した複数の画像であって、前記トポロジ情報が可視化された複数の画像を生成する生成部と、
     を有し、
     前記複数の表示面のそれぞれは、互いに異なる方向に向けられ、前記生成部によって生成された前記複数の画像のいずれかを表示することを特徴とする表示システム。
  2.  前記設定部は、前記3次元空間における所定の点を、所定の直線を回転軸として所定の角度ずつ回転させていった点を前記視点の位置として設定することを特徴とする請求項1に記載の表示システム。
  3.  前記設定部は、前記視点の高さを、前記オブジェクトのうちの少なくともいずれかの位置より高く設定し、前記視点の方向を、前記オブジェクトのうちの少なくともいずれかを見下ろす方向に設定することを特徴とする請求項1又は2に記載の表示システム。
  4.  前記生成部によって生成された画像に、追加の情報を重畳させる追加部をさらに有することを特徴とする請求項1から3のいずれか1項に記載の表示システム。
  5.  ユーザの動きを示すデータの入力を受け付ける入力部をさらに有し、
     前記設定部は、前記ユーザの動きを示すデータに基づいて、前記視点を変更し、
     前記生成部は、前記設定部による前記視点の変更に応じて画像を生成することを特徴とする請求項1から4のいずれか1項に記載の表示システム。
  6.  ネットワークに含まれる複数のノードの位置、及び前記ネットワークのトポロジ情報に基いて、前記複数のノードのそれぞれに対応するオブジェクトを仮想的な3次元空間に配置する配置部と、
     前記3次元空間に1つ以上の視点を設定する設定部と、
     前記3次元空間に配置された前記オブジェクトを、前記視点のそれぞれから投影した複数の画像であって、前記トポロジ情報が可視化された複数の画像を生成する生成部と、
     表示装置に備えられた複数の表示面であって、互いに異なる方向に向けられた複数の表示面のそれぞれに、前記生成部によって生成された前記複数の画像のいずれかを表示させる表示制御部と、
     を有することを特徴とする表示制御装置。
  7.  それぞれが互いに異なる方向に向けられた複数の表示面を備えた表示装置と、前記表示装置を制御する表示制御装置と、を有する表示システムによって実行される表示制御方法であって、
     前記表示制御装置が、ネットワークに含まれる複数のノードの位置、及び前記ネットワークのトポロジ情報に基いて、前記複数のノードのそれぞれに対応するオブジェクトを仮想的な3次元空間に配置する配置工程と、
     前記表示制御装置が、前記3次元空間に1つ以上の視点を設定する設定工程と、
     前記表示制御装置が、前記3次元空間に配置された前記オブジェクトを、前記視点のそれぞれから投影した複数の画像であって、前記トポロジ情報が可視化された複数の画像を生成する生成工程と、
     前記表示制御装置が、前記生成工程によって生成された前記複数の画像のいずれかを表示する表示工程と、
     を含むことを特徴とする表示方法。
  8.  コンピュータを、請求項6に記載の表示制御装置として機能させるための表示制御プログラム。
PCT/JP2019/005684 2018-02-15 2019-02-15 表示システム、表示制御装置、表示方法及び表示制御プログラム WO2019160112A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-025374 2018-02-15
JP2018025374A JP2019144279A (ja) 2018-02-15 2018-02-15 表示システム、表示制御装置、表示方法及び表示制御プログラム

Publications (1)

Publication Number Publication Date
WO2019160112A1 true WO2019160112A1 (ja) 2019-08-22

Family

ID=67618501

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/005684 WO2019160112A1 (ja) 2018-02-15 2019-02-15 表示システム、表示制御装置、表示方法及び表示制御プログラム

Country Status (2)

Country Link
JP (1) JP2019144279A (ja)
WO (1) WO2019160112A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011483A (ja) * 1996-06-20 1998-01-16 Furukawa Electric Co Ltd:The 配線エリアの簡易表示方法
JP2015158766A (ja) * 2014-02-24 2015-09-03 日本電信電話株式会社 画面表示装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011483A (ja) * 1996-06-20 1998-01-16 Furukawa Electric Co Ltd:The 配線エリアの簡易表示方法
JP2015158766A (ja) * 2014-02-24 2015-09-03 日本電信電話株式会社 画面表示装置

Also Published As

Publication number Publication date
JP2019144279A (ja) 2019-08-29

Similar Documents

Publication Publication Date Title
US11972529B2 (en) Augmented reality system
CN110476188B (zh) 集中式渲染
US11385760B2 (en) Augmentable and spatially manipulable 3D modeling
US10607320B2 (en) Filtering of real-time visual data transmitted to a remote recipient
US10600150B2 (en) Utilizing an inertial measurement device to adjust orientation of panorama digital images
US10130885B1 (en) Viewport selection system
JP2018534661A (ja) 全天球映像マッピング
US20140320592A1 (en) Virtual Video Camera
US11552859B2 (en) Interactive graphical model-based configuration control of networked physical assets using logical transactional configuration change rules
US10331110B2 (en) Methods and systems for verifying and modifying a 3D printing process
US9245366B1 (en) Label placement for complex geographic polygons
US10740981B2 (en) Digital stages for presenting digital three-dimensional models
JP2009069310A (ja) 表示制御装置及びその方法、プログラム、記録媒体、ディスプレイ装置
CN114930285B (zh) 一种软件架构的可视化方法及装置
US10365876B2 (en) Automatic real-time configuration of a multi-head display system
WO2019160112A1 (ja) 表示システム、表示制御装置、表示方法及び表示制御プログラム
US9495124B1 (en) Device for displaying a remote display according to a monitor geometry
US10262631B1 (en) Large scale highly detailed model review using augmented reality
CN102882709A (zh) 一种云计算环境下监控系统和方法
CN116091744A (zh) 虚拟三维物体显示方法和头戴式显示设备
AU2022287679A1 (en) Responsive video canvas generation
JP7177171B2 (ja) 3dデバイスシミュレータビジュアライザのサービスとしてのプラットフォーム
JP2013125526A (ja) 画像表示装置、その制御方法及びプログラム
WO2022017119A1 (en) Mobile device based vr control
Croft et al. An Augmented Reality Command and Control Sand Table Visualization on Top of an Advanced User Interface Display on Large Touch Table Interface

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19754253

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19754253

Country of ref document: EP

Kind code of ref document: A1