JP7241812B2 - Information visualization system, information visualization method, and program - Google Patents

Information visualization system, information visualization method, and program Download PDF

Info

Publication number
JP7241812B2
JP7241812B2 JP2021099574A JP2021099574A JP7241812B2 JP 7241812 B2 JP7241812 B2 JP 7241812B2 JP 2021099574 A JP2021099574 A JP 2021099574A JP 2021099574 A JP2021099574 A JP 2021099574A JP 7241812 B2 JP7241812 B2 JP 7241812B2
Authority
JP
Japan
Prior art keywords
information
image
space
model
surrounding image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021099574A
Other languages
Japanese (ja)
Other versions
JP2021152935A (en
Inventor
裕樹 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Facilities Inc
Original Assignee
NTT Facilities Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Facilities Inc filed Critical NTT Facilities Inc
Priority to JP2021099574A priority Critical patent/JP7241812B2/en
Publication of JP2021152935A publication Critical patent/JP2021152935A/en
Application granted granted Critical
Publication of JP7241812B2 publication Critical patent/JP7241812B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、情報可視化システム、情報可視化方法、及びプログラムに関する。 The present invention relates to an information visualization system, an information visualization method, and a program.

建物の維持管理及びレイアウト設計などの各業務では、対象とされる建物の状況を正確に把握することが必要とされる。上記の各業務では、建物の図面や、建物に付帯する設備の設備台帳などが主に利用されている。関連する図面が多岐にわたる。また、図面や情報の保管者が建物の権利者と異なるなど、必要とされる情報が散在していることがある。このような場合も、多岐にわたる複数の図面を参照しなければ情報が得られないことがある。一方で、図面に書かれた情報は、専門知識を有していないと読み解くことが困難であり、利用しにくいものであった。
近年、BIM(Building Information Modeling)を利用して、建物に関する各種情報を一元的に管理することで、必要とされる情報を散在させることなく建物の管理や設計などの業務に役立てようという試みがされている。BIMは、建物を数値化して3Dモデルとして扱い、その3Dモデルに建物の諸情報を関連付けて管理する。このようなBIMを、情報可視化システムとして利用することにより、建物の各種情報を容易に利用することが可能になる。
In each business such as building maintenance management and layout design, it is necessary to accurately grasp the situation of the target building. In each of the above operations, drawings of buildings and facility ledgers of facilities attached to buildings are mainly used. There are a wide variety of related drawings. In addition, the required information may be scattered, for example, if the custodian of the drawings and information is different from the owner of the building. Even in such cases, information may not be obtained without referring to a wide variety of drawings. On the other hand, information written on drawings is difficult to read and understand unless one has specialized knowledge, and is difficult to use.
In recent years, attempts have been made to use BIM (Building Information Modeling) to centrally manage various types of information related to buildings so that necessary information is not scattered and used in operations such as building management and design. It is BIM digitizes a building, treats it as a 3D model, and manages the 3D model in association with various pieces of information about the building. By using such BIM as an information visualization system, it becomes possible to easily use various types of information on buildings.

特開平9-244522号公報JP-A-9-244522

しかしながら、BIM等を利用して、詳細な3Dモデルを作成する場合に、3Dモデルを詳細なものにするほど、3Dモデルの作成に掛かる作業量が増加する。特に既存の建物にBIM等を適用する場合には、BIM等を利用可能にするために掛るコストに見合うだけの明示的な効果は得にくいと判定される場合がある。
本発明が解決しようとする課題は、より簡易な方法で、ある位置の周囲の状況を共有可能にする情報可視化システム、情報可視化方法、及びプログラムを提供することにある。
However, when creating a detailed 3D model using BIM or the like, the more detailed the 3D model is, the more work is required to create the 3D model. In particular, when BIM or the like is applied to an existing building, it may be judged that it is difficult to obtain an explicit effect that is worth the cost of making BIM or the like available.
The problem to be solved by the present invention is to provide an information visualization system, an information visualization method, and a program that make it possible to share the situation around a certain position by a simpler method.

(1)本発明の一態様の情報可視化システムは、実空間における観測点の周囲にある対象物の状況を示す周囲画像を取得して、収集情報に追加する実画像取得部と、前記実空間に対応する3次元仮想空間の情報が空間モデル情報に登録されていて、前記空間モデル情報から所望の空間モデルを選択し、選択された前記空間モデルに、前記収集情報から選択された周囲画像を合成し、前記合成した画像に前記3次元仮想空間における仮想構造物を示す仮想空間画像を対応付けて、前記対象物の状況を表示させる表示制御部と、を備え、前記収集情報には、前記周囲画像の画像情報と、前記空間モデルと前記周囲画像とを対応付ける識別情報と、前記取得した周囲画像の日時の情報又は前記周囲画像が最新の情報であるか否かを示す情報と、が含まれる情報可視化システムである。
(2)また、上記の情報可視化システムにおいて、前記取得した周囲画像の日時の情報には、前記周囲画像の撮影日時の情報、又は前記周囲画像を格納した日時の情報が含まれる
(3)また、上記の情報可視化システムにおいて、前記表示制御部は、前記前記観測点に対応する前記3次元仮想空間における基準点の位置と、前記基準点の周りに設けられた射影面を見込む位置とを一致させる。
(4)また、上記の情報可視化システムにおいて、前記表示制御部は、前記基準点の位置と前記射影面を見込む位置とを一致させて、前記観測点に対応する空間モデルに前記周囲画像と前記仮想空間画像とを対応付ける。
(5)また、上記の情報可視化システムにおいて、前記空間モデルは、前記基準点を基準に配置された球の球面と円筒の側面の少なくとも何れかを射影面として利用するように形成されている。
(6)また、上記の情報可視化システムにおいて、前記表示制御部は、前記周囲画像と前記仮想空間画像の両方から所定の抽出条件に基づいて抽出した部分画像を重ねて表示させる。
(7)本発明の一態様の情報可視化システムは、実空間における観測点の周囲にある対象物の状況を示す周囲画像を取得して、収集情報に追加する実画像取得部と、前記実空間に対応する3次元仮想空間の情報が空間モデル情報に登録されていて、前記空間モデル情報から所望の空間モデルを選択し、選択された前記空間モデルに、前記収集情報から選択された周囲画像を合成する表示制御部と、を備え、前記収集情報には、前記周囲画像の画像情報と、前記空間モデルと前記周囲画像とを対応付ける識別情報と、前記取得した周囲画像の日時の情報又は前記周囲画像が最新の情報であるか否かを示す情報と、が含まれていて、前記合成した画像に前記3次元仮想空間における仮想構造物を示す仮想空間画像を対応付けて、前記対象物の状況を表示させる情報可視化システムである。
(8)また、上記の情報可視化システムにおいて、前記表示制御部は、前記合成した画像に対応する前記3次元仮想空間における仮想構造物を示す仮想空間画像をBIM装置によって生成させる。
)また、本発明の一態様の情報可視化方法は、実空間における観測点の周囲にある対象物の状況を示す周囲画像を取得するステップと、実空間における観測点の周囲にある対象物の状況を示す周囲画像を取得して、収集情報に追加するステップと、前記実空間に対応する3次元仮想空間の情報が空間モデル情報に登録されていて、前記空間モデル情報から所望の空間モデルを選択し、選択された前記空間モデルに、前記収集情報から選択された周囲画像を合成し、前記合成した画像に前記3次元仮想空間における仮想構造物を示す仮想空間画像を対応付けて、前記対象物の状況を表示させるステップと、を含み、前記収集情報には、前記周囲画像の画像情報と、前記空間モデルと前記周囲画像とを対応付ける識別情報と、前記取得した周囲画像の日時の情報又は前記周囲画像が最新の情報であるか否かを示す情報と、が含まれる情報可視化方法である。
10)また、本発明の一態様のプログラムは、実空間における観測点の周囲にある対象物の状況を示す周囲画像を取得して、収集情報に追加するステップと、前記実空間に対応する3次元仮想空間の情報が空間モデル情報に登録されていて、前記空間モデル情報から所望の空間モデルを選択し、選択された前記空間モデルに、前記収集情報から選択された周囲画像を合成し、前記合成した画像に前記3次元仮想空間における仮想構造物を示す仮想空間画像を対応付けて、前記対象物の状況を表示させるステップと、をコンピュータに実行させるためのプログラムであって、前記収集情報には、前記周囲画像の画像情報と、前記空間モデルと前記周囲画像とを対応付ける識別情報と、前記取得した周囲画像の日時の情報又は前記周囲画像が最新の情報であるか否かを示す情報と、が含まれるプログラムである。
(1) An information visualization system according to one aspect of the present invention includes a real image acquisition unit that acquires a surrounding image showing the situation of an object around an observation point in real space and adds it to collected information; is registered in the space model information, a desired space model is selected from the space model information, and a surrounding image selected from the collected information is applied to the selected space model. a display control unit that synthesizes and associates a virtual space image representing a virtual structure in the three-dimensional virtual space with the synthesized image and displays the situation of the object, wherein the collected information includes: Image information of the surrounding image, identification information that associates the space model with the surrounding image, and date and time information of the acquired surrounding image or information indicating whether the surrounding image is the latest information. Included is an information visualization system.
(2) In the information visualization system described above, the date and time information of the acquired surrounding image includes information on the shooting date and time of the surrounding image or information on the date and time when the surrounding image was stored.
(3) In the information visualization system described above, the display control unit estimates the position of a reference point in the three-dimensional virtual space corresponding to the observation point and a projection plane provided around the reference point. match the position.
(4) In the information visualization system described above, the display control unit aligns the position of the reference point with the position from which the projection plane is viewed, and stores the surrounding image and the Associate with the virtual space image.
(5) In the above information visualization system, the space model is formed so as to use at least one of a spherical surface of a sphere and a side surface of a cylinder arranged with reference to the reference point as a projection plane.
(6) In the above information visualization system, the display control unit superimposes and displays partial images extracted from both the surrounding image and the virtual space image based on predetermined extraction conditions.
(7) An information visualization system according to one aspect of the present invention includes a real image acquisition unit that acquires a surrounding image showing the situation of an object around an observation point in real space and adds it to collected information; is registered in the space model information, a desired space model is selected from the space model information, and a surrounding image selected from the collected information is applied to the selected space model. a display control unit for synthesizing, wherein the collected information includes: image information of the surrounding image; identification information that associates the space model with the surrounding image; date and time information of the acquired surrounding image; and information indicating whether the image is the latest information, and a virtual space image indicating a virtual structure in the three-dimensional virtual space is associated with the synthesized image to obtain the status of the object. It is an information visualization system that displays
(8) Further, in the above information visualization system, the display control unit causes the BIM device to generate a virtual space image showing a virtual structure in the three-dimensional virtual space corresponding to the synthesized image.
( 9 ) Further, the information visualization method of one aspect of the present invention includes the step of acquiring a surrounding image showing the situation of an object around an observation point in real space; a step of acquiring a surrounding image showing the situation of the space and adding it to the collected information; is selected, a surrounding image selected from the collected information is synthesized with the selected space model, and a virtual space image showing a virtual structure in the three-dimensional virtual space is associated with the synthesized image , and displaying the status of the object, wherein the collected information includes image information of the surrounding image, identification information that associates the spatial model with the surrounding image, and the date and time of the acquired surrounding image. or information indicating whether the surrounding image is the latest information .
( 10 ) In addition, a program according to one aspect of the present invention includes steps of acquiring a surrounding image showing a situation of an object around an observation point in real space and adding it to collected information ; information of a three-dimensional virtual space is registered in the space model information, a desired space model is selected from the space model information, and a surrounding image selected from the collected information is combined with the selected space model; a step of associating a virtual space image showing a virtual structure in the three-dimensional virtual space with the synthesized image and displaying the situation of the object , wherein the collecting The information includes image information of the surrounding image, identification information that associates the space model with the surrounding image, date and time information of the acquired surrounding image, or whether or not the surrounding image is the latest information. A program that contains information and

本発明によれば、より簡易な方法で、ある位置の周囲の状況を共有可能にする情報可視化システム、情報可視化方法、及びプログラムを提供できる。 According to the present invention, it is possible to provide an information visualization system, an information visualization method, and a program that make it possible to share the situation around a certain position by a simpler method.

本発明の実施形態に係る情報可視化システムの構成図である。1 is a configuration diagram of an information visualization system according to an embodiment of the present invention; FIG. 実施形態に係る射影面Sを形成する空間モデルMの一例を示す図である。It is a figure which shows an example of the space model M which forms the projection plane S which concerns on embodiment. 実施形態に係る撮像装置100の構成図である。1 is a configuration diagram of an imaging device 100 according to an embodiment; FIG. 実施形態に係る正距円筒図法による画像について示す図である。FIG. 10 is a diagram showing an image by the equirectangular projection method according to the embodiment; 実施形態に係る図4Aの画像を、中空の円筒の表面の内側に描かれた状態の一例を示す図である。FIG. 4B illustrates an example of the image of FIG. 4A drawn inside the surface of a hollow cylinder, according to an embodiment; 実施形態に係る図4Aの画像を、中空の球体の表面の内側に射影した状態の一例を示す図である。FIG. 4B is a diagram illustrating an example of a state in which the image of FIG. 4A is projected inside the surface of a hollow sphere according to the embodiment; 実施形態に係る端末装置200の構成図である。1 is a configuration diagram of a terminal device 200 according to an embodiment; FIG. 実施形態に係るBIM300による数値データに基づいた3Dモデルで3次元仮想空間を表示する一例を示す図である。It is a figure which shows an example which displays a three-dimensional virtual space by the 3D model based on the numerical data by BIM300 which concerns on embodiment. 比較例としての3次元仮想空間における対象範囲10の表示の一例を示す図である。FIG. 10 is a diagram showing an example of display of a target range 10 in a three-dimensional virtual space as a comparative example; 実施形態に係る情報提供支援装置400のハードウェア構成図である。2 is a hardware configuration diagram of an information provision support device 400 according to an embodiment; FIG. 実施形態に係る情報提供支援装置400の機能構成図である。1 is a functional configuration diagram of an information provision support device 400 according to an embodiment; FIG. 実施形態に係る空間モデル情報411の内容の一例を示す図である。It is a figure which shows an example of the content of the space model information 411 which concerns on embodiment. 実施形態に係る見込む位置情報413の内容の一例を示す図である。It is a figure which shows an example of the content of the positional information 413 to expect which concerns on embodiment. 実施形態に係る収集情報412の内容の一例を示す図である。It is a figure which shows an example of the content of the collection information 412 which concerns on embodiment. 実施形態に係る実施形態に係る3次元仮想空間における基準点R、射影面S、射影面Sを見込む位置VPの関係を示す図である。FIG. 4 is a diagram showing the relationship between a reference point R, a projection plane S, and a position VP looking into the projection plane S in a three-dimensional virtual space according to the embodiment; 実施形態に係る空間モデルMを配置した3次元仮想空間を示す図である。It is a figure which shows the three-dimensional virtual space which has arrange|positioned the space model M which concerns on embodiment. 実施形態に係る情報可視化処理の一例を示すフローチャートである。6 is a flowchart showing an example of information visualization processing according to the embodiment; 第4施形態に係る情報可視化処理の一例を示すフローチャートである。FIG. 16 is a flowchart showing an example of information visualization processing according to the fourth embodiment; FIG. 実施形態に係る観測点から視点方向を見込む画像の一例を示す図である。It is a figure which shows an example of the image which looks into a viewpoint direction from the observation point which concerns on embodiment. 第2の実施形態に係る撮像装置100から供給される複数の画像を合成する処理について説明するための図である。FIG. 11 is a diagram for explaining processing for synthesizing a plurality of images supplied from the imaging device 100 according to the second embodiment; FIG. 第4の実施形態に係る全周囲画像の歪を補正する処理を説明するための図である。FIG. 14 is a diagram for explaining processing for correcting distortion of an omnidirectional image according to the fourth embodiment; 第4の実施形態に係る全周囲画像の歪を補正する処理を説明するための図である。FIG. 14 is a diagram for explaining processing for correcting distortion of an omnidirectional image according to the fourth embodiment; 第4の実施形態に係る全周囲画像の歪を補正する処理を説明するための図である。FIG. 14 is a diagram for explaining processing for correcting distortion of an omnidirectional image according to the fourth embodiment;

以下、本発明の実施形態の情報可視化システム、情報可視化方法及びプログラムについて、添付図面を参照して説明する。 Hereinafter, an information visualization system, an information visualization method, and a program according to embodiments of the present invention will be described with reference to the accompanying drawings.

(第1の実施形態)
図1は、本発明の実施形態に係る情報可視化システムの構成図である。
(First embodiment)
FIG. 1 is a configuration diagram of an information visualization system according to an embodiment of the present invention.

[情報可視化システム]
情報可視化システム1は、撮像装置100、端末装置200、BIM300、及び、情報提供支援装置400を備える。撮像装置100、端末装置200、BIM300、及び、情報提供支援装置400は、ネットワークNWを介して接続されている。
[Information visualization system]
The information visualization system 1 includes an imaging device 100 , a terminal device 200 , a BIM 300 and an information provision support device 400 . The imaging device 100, terminal device 200, BIM 300, and information provision support device 400 are connected via a network NW.

最初に、情報可視化システム1の概要について説明する。情報可視化システム1は、実在する建物2の対象範囲10に関する情報を可視化する。例えば、対象範囲10には、実在する建物2の一部又は全部が含まれる。さらに、対象範囲10には、上記の建物に設けられた設備、什器などが含まれる。対象範囲10は、その範囲が予め決定される。例えば、対象範囲10における位置は、直交座標系(X,Y,Z)を用いて特定される。対象範囲10内に、幾つかの観測点(不図示)が設けられる。例えば、観測点Pは、観測点Pの周囲の状況を掌握しやすい位置に、その位置が決定される。以下の説明では、観測点Pを単に観測点という。 First, an overview of the information visualization system 1 will be described. An information visualization system 1 visualizes information about a target range 10 of an existing building 2 . For example, the target range 10 includes part or all of the existing building 2 . Furthermore, the target range 10 includes facilities, fixtures, and the like provided in the building. The target range 10 is predetermined in its range. For example, positions in the target range 10 are identified using a Cartesian coordinate system (X, Y, Z). Several observation points (not shown) are provided within the target range 10 . For example, the position of the observation point P is determined at a position where the situation around the observation point P can be easily grasped. In the following description, the observation point P is simply referred to as an observation point.

情報可視化システム1は、この観測点を基準にして、その周囲の状況に関する情報を可視化する。情報可視化システム1により可視化される情報には、観測点の周囲画像と、BIM300によりデータ化された3Dモデル(以下、単に3Dモデルという。)、2次元図面(2D図面)などが含まれる。観測点の周囲画像とは、撮像装置100が観測点において撮像して得た画像、又は、観測点において撮像して得た複数の画像の組のことである。例えば、観測点の位置は、撮像装置100の光学系の位置に基づいて決定される。周囲画像の詳細については後述する。なお、観測点の周囲画像は、ユーザU1が撮像装置100を操作して撮像したものであってもよく、撮像装置100が予め定められたタイミングで撮像したものであってもよい。3Dモデルとは、対象範囲10を含む建物2の構造、建物2に配置された設備、什器などを3次元情報として示す情報のことである。 The information visualization system 1 visualizes information about the surrounding situation on the basis of this observation point. The information visualized by the information visualization system 1 includes an image of the surroundings of the observation point, a 3D model converted into data by the BIM 300 (hereinafter simply referred to as a 3D model), a two-dimensional drawing (2D drawing), and the like. The surrounding image of the observation point is an image obtained by imaging the imaging device 100 at the observation point, or a set of a plurality of images obtained by imaging at the observation point. For example, the position of the observation point is determined based on the position of the optical system of imaging device 100 . Details of the surrounding image will be described later. The surrounding image of the observation point may be captured by the user U1 operating the imaging device 100, or may be captured by the imaging device 100 at a predetermined timing. The 3D model is information that indicates the structure of the building 2 including the target range 10, the equipment arranged in the building 2, fixtures, etc. as three-dimensional information.

情報可視化システム1は、観測点の周囲画像と3Dモデルの何れか一方又は両方に基づいて画像を生成して表示する。 The information visualization system 1 generates and displays an image based on one or both of the surrounding image of the observation point and the 3D model.

上記の観測点の周囲画像には、撮影範囲に含まれた対象範囲10における状況を示す正確な情報が含まれる。ただし、上記の画像情報には、画像に示されたもの(被写体)が何であるか、どのようなものであるか、また、個々の被写体の大きさや表面の状態などの物理的特徴などの諸情報は含まれていない。 The surrounding image of the observation point contains accurate information indicating the situation in the target range 10 included in the imaging range. However, the above image information does not include information such as what the object (subject) shown in the image is, what it is like, and physical characteristics such as the size and surface condition of each individual subject. No information included.

一方、3Dモデルは、3次元仮想空間に形成された仮想の構造物、及び、仮想の構造物を構成する構成要素の種類、性質、特徴量、大きさや表面の状態などの物理的特徴などの諸情報を含めることができる。上記の3Dモデルを利用することで、予め正しく登録された情報を利用することができる。ただし、登録されていない情報の有無、誤って登録された情報があることなどの検出を、3Dモデルだけで判定することは困難である。また、登録されていない情報を補う作業は容易ではない。 On the other hand, a 3D model is a virtual structure formed in a three-dimensional virtual space, and physical features such as types, properties, feature amounts, sizes, and surface conditions of constituent elements that make up the virtual structure. Information can be included. By using the above 3D model, it is possible to use information registered correctly in advance. However, it is difficult to detect the presence or absence of unregistered information, the presence of erroneously registered information, and the like using only the 3D model. Also, it is not easy to supplement information that has not been registered.

そこで、情報可視化システム1は、撮像装置100によって撮像された画像のデータとBIM300の3Dモデルとを関連付けることにより、それぞれの情報を補完して利便性を高める。観測点の周囲画像と3Dモデルの両方に基づいて画像を生成する場合を例示する。 Therefore, the information visualization system 1 associates the data of the image captured by the imaging device 100 with the 3D model of the BIM 300 to complement the respective information and enhance the convenience. The case of generating an image based on both the surrounding image of the observation point and the 3D model is illustrated.

例えば、情報可視化システム1は、周囲画像と3Dモデルに基づいた画像(3次元仮想空間における仮想構造物を示す仮想空間画像)とを対応付ける。情報可視化システム1は、対応付けられた周囲画像を表示する表示領域と3Dモデルに基づいた画像を表示する表示領域のそれぞれに共通する領域が含まれる表示画像を生成させる。 For example, the information visualization system 1 associates a surrounding image with an image based on a 3D model (a virtual space image showing a virtual structure in a 3D virtual space). The information visualization system 1 generates a display image including an area common to the display area displaying the associated surrounding image and the display area displaying the image based on the 3D model.

本実施形態では、上記の処理を、周囲画像の歪を補正する第1処理と、周囲画像と3Dモデルに基づいた画像の位置を調整する第2処理に大別する。 In this embodiment, the above processing is roughly divided into a first processing for correcting the distortion of the surrounding image and a second processing for adjusting the position of the image based on the surrounding image and the 3D model.

第1処理には、例えば、(1-1)空間モデルMを利用する方法と、(1-2)空間モデルMを利用せずに、幾何学的な演算処理を用いる方法とがある。空間モデルMとは、3次元仮想空間における仮想の構造体として形成される射影面の一例である。空間モデルM及び第1処理の詳細については後述する。 The first processing includes, for example, (1-1) a method using the space model M and (1-2) a method using geometric arithmetic processing without using the space model M. A space model M is an example of a projection plane formed as a virtual structure in a three-dimensional virtual space. Details of the space model M and the first process will be described later.

第2処理には、例えば、(2-1)空間モデルMを利用する場合に、空間モデルMに沿って画像を回転して調整する方法と、(2-2)周囲画像を3Dモデルに基づいた画像に射影して調整する方法と、(2-3)周囲画像内の特徴点と、3Dモデルに基づいた画像内の特徴点とが一致するように調整する方法とがある。 The second processing includes, for example, (2-1) a method of rotating and adjusting an image along the spatial model M when using the spatial model M, and and (2-3) a method of adjusting so that the feature points in the surrounding image match the feature points in the image based on the 3D model.

上記の第1の処理と第2の処理の各手法の組み合わせは、「(2-1)」の手法以外は任意の組み合わせを選択することができる。以下、本実施形態では、上記の「(1-1)空間モデルMを利用する方法」と「(2-1)空間モデルMを利用する場合に、空間モデルMに沿って画像を回転して調整する方法」とを組み合わせた一例を挙げ、以下に説明する。なお、その他の手法については、変形例又は第2の実施形態などで後述する。 Any combination of the methods of the first processing and the second processing can be selected except for the method of “(2-1)”. Hereinafter, in this embodiment, the above "(1-1) Method of using the space model M" and "(2-1) When using the space model M, rotate the image along the space model M An example of the combination with the "method for adjusting" will be described below. Note that other methods will be described later in a modified example, a second embodiment, or the like.

例えば、情報可視化システム1は、周囲画像と3Dモデルに基づいた画像との対応付けを、それらに共通する射影面Sを用いて実施する。情報可視化システム1は、上記の射影面Sを3次元仮想空間における仮想の構造体である空間モデルMとして扱う。3次元仮想空間における空間モデルMは、実空間における観測点に対応して設けられる。空間モデルMは、その観測点から視認できる範囲の状況が射影される仮想の面を有する。例えば、情報可視化システム1は、観測点から視認できる範囲の状況を、上記の観測点から見込む方向を維持するように空間モデルMの面に射影する。情報可視化システム1は、空間モデルMを利用して、観測点の周囲の状況に係る情報を管理してもよい。以下、その詳細について説明する。 For example, the information visualization system 1 associates the surrounding image with the image based on the 3D model using the projection plane S common to them. The information visualization system 1 treats the projection plane S as a space model M, which is a virtual structure in a three-dimensional virtual space. A space model M in the three-dimensional virtual space is provided corresponding to an observation point in the real space. The space model M has a virtual plane on which the situation within the visible range from the observation point is projected. For example, the information visualization system 1 projects the situation within the visible range from the observation point onto the surface of the space model M so as to maintain the viewing direction from the observation point. The information visualization system 1 may use the space model M to manage information related to the situation around the observation point. The details will be described below.

例えば、情報提供支援装置400は、撮像装置100によって撮像された画像のデータを収集し、収集した画像のデータに基づいた全周囲画像をBIM300に供給する。BIM300は、供給された全周囲画像と3Dモデルによる情報とを合成した画像を生成する。情報提供支援装置400は、BIM300によって生成された画像を、ユーザU2などにより操作される端末装置200からの要求に応じて、当該端末装置200の表示部に表示させる。 For example, the information provision support device 400 collects image data captured by the imaging device 100 and supplies the BIM 300 with an all-around image based on the collected image data. The BIM 300 generates an image that combines the supplied omnidirectional image and information from the 3D model. The information provision support device 400 displays the image generated by the BIM 300 on the display unit of the terminal device 200 operated by the user U2 or the like in response to a request from the terminal device 200. FIG.

情報可視化システム1は、上記のように全周囲画像と3Dモデルによる情報とを合成した画像を生成する処理を行うに当たり、空間モデルMを利用する。 The information visualization system 1 uses the spatial model M in performing the process of generating an image obtained by synthesizing the omnidirectional image and the information of the 3D model as described above.

図2は、実施形態に係る射影面Sを形成する空間モデルMの一例を示す図である。例えば、空間モデルMは、中空の球体として形成される。情報可視化システム1は、球体の表面の内側に、観測点の位置で撮影した周囲画像(全周囲画像)を射影する。球体の中心Cに視点を置くことにより、球体の表面に射影された周囲画像を球体の中心Cから見込む方向と、実空間において観測点P(図1)の位置から被写体を見込む方向とを一致させることができる。なお、空間モデルMが直交座標系の軸方向に対して傾いている場合には、空間モデルMの極方向が直交座標系の軸方向に一致するように調整するとよい。例えば、情報提供支援装置400は、図2に示すように空間モデルMの極方向を、直交座標系のZ軸方向に一致するように調整する。例えば、このように空間モデルMの傾きを調整した後、周囲画像を射影するとよい。 FIG. 2 is a diagram showing an example of the space model M forming the projection plane S according to the embodiment. For example, the space model M is formed as a hollow sphere. The information visualization system 1 projects a surrounding image (omnidirectional image) captured at the position of the observation point onto the inner surface of the sphere. By placing the viewpoint at the center C of the sphere, the direction in which the surrounding image projected onto the surface of the sphere is viewed from the center C of the sphere coincides with the direction in which the subject is viewed from the position of the observation point P (Fig. 1) in real space. can be made If the space model M is tilted with respect to the axial direction of the orthogonal coordinate system, the polar direction of the spatial model M should be adjusted to coincide with the axial direction of the orthogonal coordinate system. For example, the information provision support device 400 adjusts the polar direction of the space model M so as to match the Z-axis direction of the orthogonal coordinate system as shown in FIG. For example, after adjusting the inclination of the space model M in this way, the surrounding image may be projected.

上記の説明では、観測点における周囲画像を一例として示したが、空間モデルMに対応付ける情報の種類は、これに限らない。情報可視化システム1は、周囲画像に加えて、各種情報を空間モデルMに対応付けてもよい。例えば、情報可視化システム1は、空間モデルMを中空の球体として形成し、球体の表面に収集情報などの各種情報を関連付ける。上記の収集情報とは、観測点の周囲の状況を共有するために収集された情報のことである。上記の収集情報には、観測点の周囲を撮像して得た画像情報、画像情報と異なる種別の情報などが含まれる。画像情報と異なる種別の情報として、例えば、観測点の周囲の状況を示すテキスト(文字情報)が含まれていてもよい。 In the above description, the surrounding image at the observation point is shown as an example, but the type of information associated with the space model M is not limited to this. The information visualization system 1 may associate various types of information with the spatial model M in addition to the surrounding image. For example, the information visualization system 1 forms the space model M as a hollow sphere, and associates various types of information such as collected information with the surface of the sphere. The above collected information is information collected to share the situation around the observation point. The collected information includes image information obtained by imaging the surroundings of the observation point, information of a type different from the image information, and the like. Information different in type from the image information may include, for example, text (character information) indicating the circumstances around the observation point.

以下、情報可視化システム1に係る各装置について説明する。 Each device related to the information visualization system 1 will be described below.

[撮像装置]
撮像装置100の構成の一例について説明する。図3は、実施形態に係る撮像装置100の構成図である。撮像装置100は、その周囲を撮影し、得られる周囲画像を出力する。
[Imaging device]
An example of the configuration of the imaging device 100 will be described. FIG. 3 is a configuration diagram of the imaging device 100 according to the embodiment. The imaging device 100 captures an image of its surroundings and outputs the obtained surrounding image.

撮像装置100は、光学系111と、光学系112と、撮像部121と、撮像部122と、信号処理部130と、受付部140と、制御部150と、出力部160とを備える。 The imaging device 100 includes an optical system 111 , an optical system 112 , an imaging section 121 , an imaging section 122 , a signal processing section 130 , a reception section 140 , a control section 150 and an output section 160 .

光学系111と光学系112は、それぞれが魚眼系レンズを成し、それぞれ180度以上の画角で撮影可能とする。光学系111と光学系112は、光学系111の光軸と光学系112の光軸が略平行になるように、撮像装置100の筐体などに支持される。光学系111の光軸方向と光学系112の光軸方向は、反対方向に向けられている。 The optical system 111 and the optical system 112 each form a fish-eye lens, and are capable of photographing at an angle of view of 180 degrees or more. The optical system 111 and the optical system 112 are supported by the housing of the imaging device 100 or the like so that the optical axis of the optical system 111 and the optical axis of the optical system 112 are substantially parallel. The optical axis direction of the optical system 111 and the optical axis direction of the optical system 112 are directed in opposite directions.

撮像部121は、光学系111と対になるように設けられ、光学系111の画角の範囲内の対象物(被写体)を撮像する。撮像部122は、光学系112と対になるように設けられ、光学系112の画角の範囲内の対象物(被写体)を撮像する。 The imaging unit 121 is provided so as to be paired with the optical system 111 and images an object (subject) within the range of the angle of view of the optical system 111 . The imaging unit 122 is provided so as to be paired with the optical system 112 and images an object (subject) within the range of the angle of view of the optical system 112 .

信号処理部130は、撮像部121が撮像して得られた画像と、撮像部122が撮像して得られた画像とを合成することにより、撮像された画像から、正距円筒図法に基づいた画像又は全周囲画像などの合成画像を生成する。 The signal processing unit 130 synthesizes the image obtained by imaging by the imaging unit 121 and the image obtained by imaging by the imaging unit 122 to obtain a Generate a composite image, such as an image or an all-around image.

受付部140は、ユーザの撮像を指示する操作を受け付ける。 The accepting unit 140 accepts a user's operation of instructing imaging.

制御部150は、受付部140によって受け付けた撮像の指示に基づいて、撮像部121と撮像部122に撮像させる。制御部150は、撮像部121と撮像部122が互いに同期して撮像するように、各撮像部を制御する。制御部150は、撮像部121と撮像部122とにより撮像された結果に基づいて、信号処理部130により合成画像を生成させる。制御部150は、出力部160から、信号処理部130によって生成された合成画像を出力させる。 The control unit 150 causes the image capturing unit 121 and the image capturing unit 122 to capture an image based on the imaging instruction received by the receiving unit 140 . The control unit 150 controls each imaging unit such that the imaging unit 121 and the imaging unit 122 perform imaging in synchronization with each other. The control unit 150 causes the signal processing unit 130 to generate a composite image based on the results of imaging by the imaging unit 121 and the imaging unit 122 . The control unit 150 causes the output unit 160 to output the composite image generated by the signal processing unit 130 .

例えば、撮像装置100が合成画像として出力する周囲画像には、正距円筒図法による画像、全天周画像などの全方向の画像が含まれていることが望ましい。図4Aは、実施形態に係る正距円筒図法による画像について示す図である。正距円筒図法は、前述の図2に示すような球体の表面を展開し、その表面を長方形に射影して示す図法である。球体の緯度経度は、長方形内内で直角かつ等間隔に交差するように各部の尺度が調整される。図4Bは、図4Aの画像を、中空の円筒の表面の内側に描かれた状態の一例を示す図である。 For example, the surrounding image output by the imaging device 100 as a composite image preferably includes an omnidirectional image such as an equirectangular projection image or an omnidirectional image. FIG. 4A is a diagram showing an image by equirectangular projection according to the embodiment. The equirectangular projection is a projection method in which the surface of a sphere as shown in FIG. 2 is developed and projected into a rectangle. The latitude and longitude of the sphere are scaled so that they intersect at right angles and at equal intervals within the rectangle. FIG. 4B is a diagram illustrating an example of the image of FIG. 4A drawn inside the surface of a hollow cylinder.

以下に示す実施形態では、図4に示す正距円筒図法による画像を、図2に示す空間モデルMとしての球体の表面の内側に射影する。図5は、図4Aの画像を、中空の球体の表面の内側に射影した状態の一例を示す図である。この図5は、球体の奥行き方向に遠方側の半球を示し、近方側の半球の描画を省略している。この図5に示すように、球体の表面の内側に射影された画像は、球体の内側から球全体をみれば全天周画像になる。つまり、撮像装置100により撮像された画像を、中空の球体の表面として形成された空間モデルMの表面の内側に射影することにより、観測点の周囲の状態を示す画像情報が球体の表面に配された状態を得ることができる。なお、撮像装置100は、正距円筒図法による画像と全天周画像の少なくとも何れかの画像の一部又は全部を出力する。このような撮像装置100であれば、1回の操作で全周囲を纏めて撮影することができ、周囲を漏れなく撮影できる。 In the embodiment described below, the equirectangular projection image shown in FIG. 4 is projected inside the surface of the sphere as the space model M shown in FIG. FIG. 5 is a diagram showing an example of a state in which the image of FIG. 4A is projected inside the surface of a hollow sphere. This FIG. 5 shows the far side hemisphere in the depth direction of the sphere and omits drawing of the near side hemisphere. As shown in FIG. 5, the image projected inside the surface of the sphere becomes an omnidirectional image when the entire sphere is viewed from the inside of the sphere. That is, by projecting an image captured by the imaging device 100 onto the inside of the surface of the space model M formed as the surface of a hollow sphere, image information indicating the surrounding state of the observation point is arranged on the surface of the sphere. can be obtained. Note that the imaging apparatus 100 outputs a part or all of at least one of the equirectangular projection image and the omnidirectional image. With such an imaging device 100, it is possible to collectively photograph the entire surroundings with one operation, and to photograph the surroundings without omission.

つまり、撮像装置100は、画像を合成するためのユーザの手間を省き、更に、画像の空間方向の連続性の品質を高めることができる。また、撮像装置100は、全周囲を1回の操作で撮影することで、撮影に係る時間を短縮する。また、上記のような撮像装置100であれば、撮影漏れなどによる部分的な欠損が生じる虞がない。これらに起因して、ユーザの作業効率が高まる。 In other words, the imaging apparatus 100 saves the user the trouble of synthesizing the images, and can improve the quality of continuity of the images in the spatial direction. In addition, the imaging device 100 can shorten the time required for imaging by imaging the entire surroundings with one operation. In addition, with the image pickup apparatus 100 as described above, there is no possibility of partial loss due to omission of photographing or the like. Due to these, the work efficiency of the user is enhanced.

以下の実施形態の説明では、撮像装置100は、正距円筒図法による画像を、対象の周囲画像として出力するものとする。撮像装置100は、上記の対象の周囲画像を情報提供支援装置400に対して送信する。 In the following description of the embodiments, it is assumed that the imaging device 100 outputs an equirectangular projection image as a surrounding image of the object. The imaging device 100 transmits the surrounding image of the target to the information provision support device 400 .

[端末装置]
図6は、実施形態に係る端末装置200の構成図である。端末装置200は、例えば、CPU200Aと、RAM(Random Access Memory)200Bと、不揮発性記憶装置200Cと、可搬型記憶媒体ドライブ装置200Dと、入出力装置200Eと、通信インターフェース200Fとを備える。端末装置200は、CPU200Aに代えて、任意の形態のプロセッサを備えてもよいし、図5に示した各構成要素のうち一部を省略してもよい。
[Terminal device]
FIG. 6 is a configuration diagram of the terminal device 200 according to the embodiment. The terminal device 200 includes, for example, a CPU 200A, a RAM (Random Access Memory) 200B, a nonvolatile storage device 200C, a portable storage medium drive device 200D, an input/output device 200E, and a communication interface 200F. The terminal device 200 may include any form of processor instead of the CPU 200A, or may omit some of the components shown in FIG.

CPU200Aは、不揮発性記憶装置200Cに格納されたプログラム、又は可搬型記憶媒体ドライブ装置200Dに装着された可搬型記憶媒体に格納されたプログラムをRAM200Bに展開して実行することで、以下に説明する種々の処理を行う。RAM200Bは、CPU200Aによってワーキングエリアとして使用される。不揮発性記憶装置200Cは、例えば、HDDやフラッシュメモリ、ROM(Read Only Memory)などである。可搬型記憶媒体ドライブ装置200Dには、DVD(Digital Versatile Disc)やCD(Compact Disc)、SDカードなどの可搬型記憶媒体が装着される。入出力装置200Eは、例えば、キーボードやマウス、タッチパネル、表示装置などを含む。通信インターフェース200Fは、ネットワークNWに接続され、端末装置200における通信を制御する。 The CPU 200A expands the program stored in the nonvolatile storage device 200C or the program stored in the portable storage medium attached to the portable storage medium drive device 200D to the RAM 200B and executes the program as described below. Various processing is performed. RAM 200B is used as a working area by CPU 200A. The nonvolatile storage device 200C is, for example, an HDD, flash memory, ROM (Read Only Memory), or the like. A portable storage medium such as a DVD (Digital Versatile Disc), a CD (Compact Disc), an SD card, or the like is attached to the portable storage medium drive device 200D. The input/output device 200E includes, for example, a keyboard, mouse, touch panel, display device, and the like. The communication interface 200</b>F is connected to the network NW and controls communication in the terminal device 200 .

図6を参照して、実施形態に係る端末装置200の機能構成について説明する。端末装置200は、受付処理部211と、データ取得部212と、表示制御部213とを備える。これらの機能部は、例えば、CPU200Aがプログラムを実行することにより実現される。また、これらの機能部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)などのハードウェアによって実現されてもよいし、ソフトウェアとハードウェアが協働することで実現されてもよい。 A functional configuration of the terminal device 200 according to the embodiment will be described with reference to FIG. The terminal device 200 includes a reception processing section 211 , a data acquisition section 212 and a display control section 213 . These functional units are implemented by, for example, CPU 200A executing a program. In addition, these functional units may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), etc. It may be realized by

受付処理部211は、入出力装置200Eによって検出されたユーザの操作を受け付ける。例えば、受付処理部211は、入出力装置200Eにより表示された画像上のボタンなどを選択する操作を検出して、ユーザの操作として受け付ける。受付処理部211は、検出したユーザの操作に基づいて、情報を共有するための要求を情報提供支援装置400宛に送信する。 The reception processing unit 211 receives a user's operation detected by the input/output device 200E. For example, the reception processing unit 211 detects an operation of selecting a button or the like on an image displayed by the input/output device 200E and receives it as a user operation. The reception processing unit 211 transmits a request for sharing information to the information provision support apparatus 400 based on the detected user's operation.

データ取得部212は、情報提供支援装置400から送信された情報を取得する。情報提供支援装置400から取得する情報には、特定の観測点に対応する取得情報が含まれる。 The data acquisition unit 212 acquires information transmitted from the information provision support device 400 . The information acquired from the information provision support device 400 includes acquired information corresponding to a specific observation point.

表示制御部213は、情報提供支援装置400から送信された情報に基づいて、入出力装置200Eにおける表示部に表示させる画像を生成する。例えば、表示制御部213は、特定の観測点に対応する取得情報に基づいた閲覧画像を生成して、表示部に表示させる。 The display control unit 213 generates an image to be displayed on the display unit of the input/output device 200E based on the information transmitted from the information provision support device 400. FIG. For example, the display control unit 213 generates a browsing image based on acquired information corresponding to a specific observation point, and causes the display unit to display it.

なお、端末装置200は、受付処理部211、データ取得部212、及び、表示制御部213の一部又は全部を、Webシステムに適用されるブラウザを利用して実現してもよい。端末装置200は、予め定められたユーザに限り、その利用を許可するものとしてもよい。 Note that the terminal device 200 may realize part or all of the reception processing unit 211, the data acquisition unit 212, and the display control unit 213 using a browser applied to a web system. The terminal device 200 may be permitted to be used only by a predetermined user.

[BIM]
BIM300は、対象範囲を含む建物2に関する情報を数値化して管理するコンピュータである。例えば、図1に示すように、BIM300は、記憶部310と、制御部320とを備える。
[BIM]
The BIM 300 is a computer that quantifies and manages information about the building 2 including the target range. For example, as shown in FIG. 1, the BIM 300 includes a storage section 310 and a control section 320. FIG.

記憶部310には、建物2を3Dモデルとして数値化したデータ、建物2に関する各種図面、建物2に付帯する設備を特定するための属性情報、建物2及び付帯する設備の保守点検の履歴情報などが格納されている。例えば、建物2を3Dモデルとして数値化したデータには、建物2の構造図などのデータが含まれる。建物2に関する各種図面には、建物2の構造図、フロアごとの平面図、設備配置図、配管図、電源系統図などの各種図面の一部又は全部が含まれる。 The storage unit 310 stores data obtained by digitizing the building 2 as a 3D model, various drawings related to the building 2, attribute information for identifying equipment attached to the building 2, history information of maintenance and inspection of the building 2 and attached equipment, and the like. is stored. For example, data obtained by digitizing the building 2 as a 3D model includes data such as a structural drawing of the building 2 . Various drawings related to the building 2 include part or all of various drawings such as a structural drawing of the building 2, a plan view of each floor, an equipment layout diagram, a piping diagram, and a power system diagram.

制御部320は、プログラムを実行することにより、外部から供給される情報を受け付けて、その情報を記憶部310に書き込む。また、制御部320は、外部からの指示に応じて3Dモデルを生成し、生成した3Dモデルを記憶部310に格納する。制御部320による処理の詳細については後述する。 Control unit 320 receives information supplied from the outside and writes the information in storage unit 310 by executing a program. Also, the control unit 320 generates a 3D model according to an instruction from the outside, and stores the generated 3D model in the storage unit 310 . Details of the processing by the control unit 320 will be described later.

図7は、BIM300による数値データに基づいた3Dモデルで3次元仮想空間を表示する一例を示す図である。図7に、対象範囲10に対応する3次元仮想空間を俯瞰した図が示されている。図7に示す3次元仮想空間には、3Dモデルが存在する。その3Dモデルは、建物2の概略を示すものであることが分かる。この3Dモデルは、建物2に対する対象範囲10のデータが登録されている。この図7に示すように、3Dモデルとして、壁面に設けられた窓、装置などの構成を示す情報の登録を必須としない。なお、この図7に示す図は、天井部を削除して表示したものである。同図には、建物2の他に、新たに配置する装置の配置案が示されている。 FIG. 7 is a diagram showing an example of displaying a three-dimensional virtual space with a 3D model based on numerical data by BIM300. FIG. 7 shows a bird's-eye view of the three-dimensional virtual space corresponding to the target range 10. As shown in FIG. A 3D model exists in the three-dimensional virtual space shown in FIG. It can be seen that the 3D model shows the outline of the building 2 . In this 3D model, data of a target range 10 for the building 2 are registered. As shown in FIG. 7, it is not essential to register information indicating the configuration of windows, devices, etc. provided on the wall surface as a 3D model. It should be noted that the diagram shown in FIG. 7 is displayed with the ceiling portion removed. In addition to the building 2, the figure also shows a layout plan for a new device.

なお、図8は、比較例としての仮想空間画像の表示の一例を示す図である。図8に示す仮想空間画像は、3次元仮想空間における対象範囲10をパース図で示すものである。上記の図7に示した対象範囲を、そのままパース図にすると図8に示すような仮想空間画像が得られる。この図8に示すように、BIM300に登録された簡易なデータだけからは、図1に示すような対象範囲10の現況を識別することはできない。 FIG. 8 is a diagram showing an example of display of a virtual space image as a comparative example. The virtual space image shown in FIG. 8 is a perspective view showing the target range 10 in the three-dimensional virtual space. If the target range shown in FIG. 7 is converted into a perspective view as it is, a virtual space image as shown in FIG. 8 is obtained. As shown in FIG. 8, it is not possible to identify the current state of the target range 10 as shown in FIG. 1 from only the simple data registered in the BIM 300. FIG.

そこで、本実施形態では、次に示す情報提供支援装置400を利用することにより、簡易な方法で、特定の位置の周囲の状況を共有可能にする。 Therefore, in this embodiment, by using an information provision support device 400 described below, it is possible to share the situation around a specific position by a simple method.

[情報提供支援装置]
図9は、実施形態に係る情報提供支援装置400のハードウェア構成図である。情報提供支援装置400は、例えば、CPU400Aと、RAM400Bと、不揮発性記憶装置400Cと、可搬型記憶媒体ドライブ装置400Dと、入出力装置400Eと、通信インターフェース400Fとを備える。情報提供支援装置400は、CPU400Aに代えて、任意の形態のプロセッサを備えてもよいし、図6に示した各構成要素のうち一部を省略してもよい。
[Information provision support device]
FIG. 9 is a hardware configuration diagram of the information provision support device 400 according to the embodiment. The information provision support device 400 includes, for example, a CPU 400A, a RAM 400B, a nonvolatile storage device 400C, a portable storage medium drive device 400D, an input/output device 400E, and a communication interface 400F. The information provision support device 400 may include any form of processor instead of the CPU 400A, or may omit some of the components shown in FIG.

CPU400Aは、不揮発性記憶装置400Cに格納されたプログラム、又は可搬型記憶媒体ドライブ装置400Dに装着された可搬型記憶媒体に格納されたプログラムをRAM400Bに展開して実行することで、以下に説明する種々の処理を行う。RAM400Bは、CPU400Aによってワーキングエリアとして使用される。不揮発性記憶装置400Cは、例えば、HDDやフラッシュメモリ、ROMなどである。可搬型記憶媒体ドライブ装置400Dには、DVDやCD、SDカードなどの可搬型記憶媒体が装着される。入出力装置400Eは、例えば、キーボードやマウス、タッチパネル、表示装置などを含む。通信インターフェース400Fは、ネットワークNWに接続され、情報提供支援装置400における通信を制御する。なお、通信インターフェース400Fは、Webシステムに適用されるWebサーバとしての機能を有していてもよい。 The CPU 400A expands the program stored in the nonvolatile storage device 400C or the program stored in the portable storage medium attached to the portable storage medium drive device 400D to the RAM 400B and executes the program as described below. Various processing is performed. RAM 400B is used as a working area by CPU 400A. The nonvolatile storage device 400C is, for example, an HDD, flash memory, ROM, or the like. A portable storage medium such as a DVD, a CD, or an SD card is installed in the portable storage medium drive device 400D. The input/output device 400E includes, for example, a keyboard, mouse, touch panel, and display device. The communication interface 400</b>F is connected to the network NW and controls communication in the information provision support device 400 . Note that the communication interface 400F may have a function as a web server applied to the web system.

図10は、実施形態に係る情報提供支援装置400の機能構成図である。情報提供支援装置400は、記憶部410と、制御部420とを備える。 FIG. 10 is a functional configuration diagram of the information provision support device 400 according to the embodiment. Information provision support device 400 includes storage unit 410 and control unit 420 .

記憶部410は、RAM400B又は不揮発性記憶装置400Cに設けられた記憶領域である。記憶部410は、情報提供支援装置400からアクセス可能なNAS装置などの外部記憶装置によって実現されてもよい。 The storage unit 410 is a storage area provided in the RAM 400B or the nonvolatile storage device 400C. The storage unit 410 may be realized by an external storage device such as a NAS device that can be accessed from the information provision support device 400 .

記憶部410は、空間モデル情報411、収集情報412、見込む位置情報413、積算情報414などの情報を格納する。 The storage unit 410 stores information such as space model information 411 , collection information 412 , expected position information 413 , and integration information 414 .

空間モデル情報411は、観測点ごとに設けられた空間モデルMに関する情報を含む。図11Aは、実施形態に係る空間モデル情報411の内容の一例を示す図である。例えば、観測点に対して原則的に一つの空間モデルMが割り付けられる。空間モデル情報411には、空間モデルMに関する情報が含まれる。例えば、空間モデル情報411には、空間モデルID、エリアID、実空間上の位置、仮想空間上の位置、半径、方向などの情報が含まれる。空間モデル情報411には、空間モデルごとの情報が含まれる。 The spatial model information 411 includes information on the spatial model M provided for each observation point. FIG. 11A is a diagram showing an example of the contents of the spatial model information 411 according to the embodiment. For example, one spatial model M is assigned in principle to each observation point. The spatial model information 411 includes information about the spatial model M. FIG. For example, the space model information 411 includes information such as space model ID, area ID, position in real space, position in virtual space, radius and direction. The spatial model information 411 includes information for each spatial model.

空間モデルIDは、観測点に対して割り付けられた空間モデルMを識別するための識別情報である。例えば、空間モデルIDは、観測点を識別するための観測点ID(観測点識別情報)であってもよく、観測点の座標値、又は、座標値に基づいて生成された値であってもよい。例えば、空間モデルMには、1又は複数の周囲画像が関連付けられる。空間モデルIDは、それをキーにして、空間モデルMに関連付けられた1又は複数の周囲画像を特定することを可能にする。そのうちから選択された周囲画像が、観測点の位置から見込む画像になる。空間モデルIDを用いて空間モデルMを管理して、特定の空間モデルMに対応付けられた周囲画像を、空間モデルIDを用いて参照することができる。空間モデルMに対応する周囲画像を1:1に対応させてもよく、定めた条件により複数の周囲画像のうちから1つが選択されるようにしてもよい。 The space model ID is identification information for identifying the space model M assigned to the observation point. For example, the spatial model ID may be an observation point ID (observation point identification information) for identifying the observation point, or may be the coordinate value of the observation point, or a value generated based on the coordinate value. good. For example, the spatial model M is associated with one or more surrounding images. The spatial model ID makes it possible to identify one or more surrounding images associated with the spatial model M using it as a key. A surrounding image selected from them becomes an image seen from the position of the observation point. The spatial model ID can be used to manage the spatial model M, and the surrounding images associated with a specific spatial model M can be referenced using the spatial model ID. The surrounding images corresponding to the space model M may be associated 1:1, or one of a plurality of surrounding images may be selected according to a defined condition.

エリアIDは、空間モデルMを含むエリアを識別するための識別情報である。例えば、エリアIDは、建物における階数、同一階におけるゾーン、テナント、部屋などのように、所望の規則に従って建物内を複数のエリアに区分した場合に、区分された各エリアの識別番号などの情報を含む。 The area ID is identification information for identifying an area including the space model M. FIG. For example, the area ID is information such as the identification number of each divided area when the building is divided into multiple areas according to desired rules, such as the number of floors in the building, zones on the same floor, tenants, rooms, etc. including.

実空間上の位置は、エリア毎に決定される座標系における観測点の位置を示す。例えば、エリア毎に決定される座標系は、直交座標系又は極座標系であり、同図に示す例は直交座標系の場合である。仮想空間上の位置は、仮想空間の座標系における観測点の位置を示す。例えば、仮想空間の座標系は、直交座標系又は極座標系であり、同図に示す例は直交座標系の場合である。仮想空間上の観測点は、空間モデルMごとに決定される。本実施形態では、説明を理解しやすくするために実空間の座標系と、実空間に対応する仮想空間の座標系とを対応させる。例えば、実空間の座標系の原点と、実空間に対応する仮想空間の座標系の原点とが一致するものとする。この場合、実空間における観測点の位置と、空間モデルMの基準点の位置とが一致させることができる。なお、上記は一例であり、実空間の座標系の原点と、実空間に対応する仮想空間の座標系の原点とが異なることを制限するものではない。例えば、実空間の座標系の原点が、内装面などを基準に定められてもよく、仮想空間の座標系の原点が、壁芯などを基準に定められてもよい。
半径は、空間モデルMの大きさを示す情報である。例えば、半径(R1)を2mとし、観測点の床面からの高さを1.5mとすると、空間モデルMの下部は、床下側に張り出した状態に配置される。或いは、半径(R1)を0.5mとし、観測点の床面からの高さを1.5mとすると、空間モデルは、床上に浮いた状態に配置される。仮想空間を表示した範囲に空間モデルMが含まれる場合には、当該場所に空間モデルMに対応する半径の球が表示される。この半径は、全ての空間モデルMに同じ値を定めてもよく、用途や目的、登録者の属性などに応じて、異なる値にしてもよい。
The position on the real space indicates the position of the observation point on the coordinate system determined for each area. For example, the coordinate system determined for each area is an orthogonal coordinate system or a polar coordinate system, and the example shown in the figure is the case of the orthogonal coordinate system. The position on the virtual space indicates the position of the observation point on the coordinate system of the virtual space. For example, the coordinate system of the virtual space is an orthogonal coordinate system or a polar coordinate system, and the example shown in the figure is the case of the orthogonal coordinate system. An observation point on the virtual space is determined for each space model M. FIG. In this embodiment, the coordinate system of the real space and the coordinate system of the virtual space corresponding to the real space are made to correspond in order to facilitate understanding of the explanation. For example, it is assumed that the origin of the coordinate system of the real space coincides with the origin of the coordinate system of the virtual space corresponding to the real space. In this case, the position of the observation point in the real space and the position of the reference point of the space model M can be matched. The above is just an example, and does not limit that the origin of the coordinate system of the real space and the origin of the coordinate system of the virtual space corresponding to the real space are different. For example, the origin of the coordinate system in the real space may be determined based on the interior surface or the like, and the origin of the coordinate system in the virtual space may be determined based on the center of the wall or the like.
The radius is information indicating the size of the space model M. FIG. For example, if the radius (R1) is 2 m and the height of the observation point from the floor surface is 1.5 m, the lower part of the space model M is arranged in a state of protruding under the floor. Alternatively, if the radius (R1) is 0.5 m and the height of the observation point from the floor surface is 1.5 m, the space model will be arranged in a floating state on the floor. When the space model M is included in the range in which the virtual space is displayed, a sphere with a radius corresponding to the space model M is displayed at that location. The radius may be set to the same value for all the spatial models M, or may be set to different values according to usage, purpose, attributes of registrants, and the like.

方向は、仮想空間の座標系に対する空間モデルMの座標系の回転量を示す。例えば、方向の値は、仮想空間の座標X軸周りの空間モデルMの極方向の回転角をαで示し、仮想空間の座標Y軸周りの空間モデルMの極方向の回転角をβで示し、仮想空間の座標Z軸周りの空間モデルMの極方向の回転角をγで示す。前述の図2に示した空間モデルMは、上記のα、β、γが所望の値に調整された結果である。 The direction indicates the amount of rotation of the coordinate system of the space model M with respect to the coordinate system of the virtual space. For example, the direction value indicates the polar rotation angle of the space model M around the virtual space coordinate X axis as α, and the polar rotation angle of the space model M around the virtual space coordinate Y axis as β. , the angle of rotation in the polar direction of the space model M around the coordinate Z axis of the virtual space is denoted by γ. The spatial model M shown in FIG. 2 described above is the result of adjusting the above α, β, and γ to desired values.

見込む位置情報413は、空間モデルMの射影面Sを見込む位置VPを示す情報を含む。図11Bは、実施形態に係る見込む位置情報413の内容の一例を示す図である。例えば、空間モデルMに対して原則的に一つの見込む位置VPが割り付けられる。例えば、見込む位置情報413には、空間モデルID、仮想空間上の位置、方向、画角などの情報が含まれる。仮想空間上の位置は、空間モデルMの射影面Sを見込む位置VPを仮想空間座標の座標系で示す位置を示す。方向は、空間モデルMの射影面Sを見込む位置VPから向けた視点の方向を示す。画角は、視点の方向を基準にした視認範囲を示す。画角の値を大きくすると、広角レンズで写した画像になり、小さくすると、望遠レンズで写した画像になる。 The projected position information 413 includes information indicating the position VP where the projection plane S of the space model M is projected. FIG. 11B is a diagram showing an example of the contents of the expected position information 413 according to the embodiment. For example, the spatial model M is assigned in principle one prospective position VP. For example, the expected position information 413 includes information such as a space model ID, a position in the virtual space, a direction, and an angle of view. The position on the virtual space indicates the position where the position VP on which the projection plane S of the space model M is viewed is indicated by the coordinate system of the virtual space coordinates. The direction indicates the direction of the viewpoint directed from the position VP on which the projection plane S of the space model M is viewed. The angle of view indicates the visible range based on the direction of the viewpoint. If the value of the angle of view is increased, the image will be taken with a wide-angle lens, and if it is decreased, the image will be taken with a telephoto lens.

収集情報412については、後述する。 The collected information 412 will be described later.

前述の図10に戻り、制御部420について説明する。制御部420は、指定情報取得部421と、周囲画像取得部422と、表示制御部423と、位置導出部424と、積算処理制御部426と、出力処理部427とを備える。指定情報取得部421と周囲画像取得部422は、取得部の一例である。 Returning to FIG. 10 described above, the control unit 420 will be described. Control unit 420 includes designation information acquisition unit 421 , surrounding image acquisition unit 422 , display control unit 423 , position derivation unit 424 , integration processing control unit 426 , and output processing unit 427 . The specified information acquisition unit 421 and the surrounding image acquisition unit 422 are examples of acquisition units.

指定情報取得部421は、端末装置200におけるユーザの操作の検出結果を、端末装置200から取得する。指定情報取得部421は、端末装置200から取得した情報を、記憶部410における収集情報412に追加する。 The designated information acquisition unit 421 acquires from the terminal device 200 the detection result of the user's operation in the terminal device 200 . The specified information acquisition unit 421 adds the information acquired from the terminal device 200 to the collected information 412 in the storage unit 410 .

周囲画像取得部422は、実空間における観測点の周囲画像、実空間の状態を示す図面などを取得して、同様に収集情報412に追加する。 The ambient image acquisition unit 422 acquires the ambient image of the observation point in the real space, a drawing showing the state of the real space, and the like, and similarly adds them to the collected information 412 .

ここで、収集情報412の内容の一例について説明する。図12は、実施形態に係る収集情報412の内容の一例を示す図である。収集情報412には、空間モデルごとに収集された画像情報などが含まれる。 Here, an example of the contents of the collected information 412 will be described. FIG. 12 is a diagram showing an example of the content of collected information 412 according to the embodiment. The collected information 412 includes image information and the like collected for each space model.

例えば、収集情報412は、空間モデルID(観測点ID)、対象物、位置情報、有効フラグ、データ種別、データ識別ID(ファイル名)、日時(時刻)、画角、管理情報、基準方向(θ0φ0)、ユーザIDなどの情報を含む。 For example, the collected information 412 includes space model ID (observation point ID), object, position information, valid flag, data type, data identification ID (file name), date and time (time), angle of view, management information, reference direction ( θ0φ0), and includes information such as a user ID.

空間モデルIDは、空間モデル情報411の空間モデルIDに対応する。
対象物は、仮想空間に配置された物、仮想空間の構造物、又は、実空間の対象範囲内に配置された物を示す。この対象物は、2次元又は3次元の形状を持つものとして定義される。なお、この対象物は、仮想空間に配置された物と仮想空間の構造物の場合には、仮想空間における位置から空間モデル上に射影され、空間モデルMの観測点から視認可能になる。或いは、実空間の対象範囲内に配置された物の場合には、実空間の対象範囲の画像が空間モデル上に射影され、空間モデルMの観測点から視認可能になる。
A spatial model ID corresponds to the spatial model ID of the spatial model information 411 .
The object indicates an object arranged in the virtual space, a structure in the virtual space, or an object arranged within the target range in the real space. This object is defined as having a two-dimensional or three-dimensional shape. In the case of an object arranged in the virtual space and a structure in the virtual space, the object is projected onto the space model from the position in the virtual space and becomes visible from the observation point of the space model M. Alternatively, in the case of an object placed within the target range of the real space, the image of the target range of the real space is projected onto the space model and becomes visible from the observation point of the space model M.

位置情報は、上記空間モデルIDに対応する観測点を原点とした極座標系によって示される空間モデル上の点の位置を識別するための識別情報である。上記の対象の位置は、
例えば、上記の「対象物」を代表する点の位置、上記の「対象物」の範囲を代表する点の位置、「対象物」の重心の位置などであってもよい。また、例えば、上記の対象の位置から予め定めた範囲を「対象部」と判定するようにしてもよい。上記の対象の位置から予め定めた範囲を、上記で定めた代表点を中心とする所定の半径の円として定めてもよい。
The position information is identification information for identifying the position of a point on the space model indicated by a polar coordinate system with the observation point corresponding to the space model ID as the origin. The position of the above target is
For example, it may be the position of the point representing the above "object", the position of the point representing the range of the above "object", the position of the center of gravity of the "object", and the like. Further, for example, a predetermined range from the position of the target may be determined as the "target portion". A predetermined range from the target position may be defined as a circle with a predetermined radius centered on the representative point defined above.

有効フラグは、収集情報としての有効性を示す情報である。例えば、収集情報が利用できない状況にある場合に無効とされ、利用できる状況にある場合に有効とされる。収集情報が利用できない状況とは、データが損傷していると判定された場合、新しい情報が収集されて情報が陳腐化した場合、などの場合が含まれる。 The validity flag is information indicating validity as collected information. For example, when the collected information cannot be used, it is invalidated, and when it is available, it is validated. Situations in which the collected information is unavailable include cases such as when the data is determined to be damaged, when new information is collected and the information becomes obsolete, and the like.

データ種別は、画像、テキストなどにより示されるデータの種別を示す情報である。例えば、データの種別には、単独のファイルで全周囲を示す「全周囲画像(画像A)」、複数の画像を組み合わせることで全周囲を示す「未組合せ画像(画像B)」、各設備の個々の状態を示す「個別画像(画像C)」、ユーザが投稿したメモ、設備等の情報を示す「図面」、引き継ぎ事項などを示す「テキスト」などが含まれる。例えば、設備等の情報には、実空間又は仮想空間における設備の位置の情報が含まれていてもよい。データの種別をファイル名の拡張子を流用して識別するようにしてもよい。 The data type is information indicating the type of data indicated by an image, text, or the like. For example, the types of data include a "whole image (image A)" that shows the entire circumference in a single file, an "uncombined image (image B)" that shows the entire circumference by combining multiple images, and an image of each facility. "Individual images (image C)" indicating individual states, "drawings" indicating information such as notes posted by users and facilities, and "texts" indicating items to be handed over are included. For example, the information on equipment may include information on the location of the equipment in real space or virtual space. The type of data may be identified by using the extension of the file name.

データ識別IDは、収集情報をファイルとして扱う場合のファイル名など、収集情報として扱うデータを識別するための識別情報である。 The data identification ID is identification information for identifying data treated as collected information, such as a file name when collected information is treated as a file.

日時は、収集情報に関連する日時を示す情報である。例えば、データの種別が画像(「全周囲画像」又は「未組合せ画像」)である場合の日時は、画像の撮影日時、画像情報が格納された日時、などである。 The date and time is information indicating the date and time related to the collected information. For example, when the data type is an image ("whole image" or "uncombined image"), the date and time are the date and time when the image was captured, the date and time when the image information was stored, and the like.

画角は、情報の種別が全周囲画像(画像A)である場合に適用され、画像の範囲を指定するための情報に対応する。周囲画像取得部422は、空間モデルMに画像を割り付ける際に、画像の範囲に合せてその画像が空間モデルMを覆うように、データ識別IDによって特定される原画像の大きさを調整する。例えば、全周囲画像には、周囲を一巡できる画像と、周囲を一巡できない画像とが含まれる。周囲画像取得部42が空間モデルMに画像を割り付ける際に、当該画像が全周囲画像の一部しか有しておらず、空間モデルMが有する射影面の一部しか満たさないことがある。この場合に、周囲画像取得部422は、この画角に基づいて定まる範囲にデータ識別IDによって特定される原画像の範囲を調整する。この調整により、画像が歪むことなく当該画像を空間モデルMに割り付けることができる。例えば、画角を水平方向(θ方向)の角度で示してもよく、迎角(俯角)方向(φ方向(図2))で示してもよく、それらを組み合わせて示してもよい。なお、全周囲画像であっても、得られた画像によって天地方向が満たされない場合には、画角は、上記の範囲のφ方向(図2)の上限と下限の少なくとも何れかを含むものであってもよい。 The angle of view is applied when the type of information is the omnidirectional image (image A), and corresponds to information for designating the range of the image. When allocating an image to the space model M, the ambient image acquisition unit 422 adjusts the size of the original image specified by the data identification ID so that the image covers the space model M according to the range of the image. For example, the omnidirectional image includes an image that can be circulated around and an image that cannot be circulated around. When the ambient image acquisition unit 42 allocates an image to the space model M, the image may include only a portion of the omnidirectional image and fill only a portion of the projection plane of the space model M. In this case, the surrounding image acquisition unit 422 adjusts the range of the original image specified by the data identification ID to the range determined based on this angle of view. By this adjustment, the image can be allocated to the space model M without the image being distorted. For example, the angle of view may be indicated by the angle in the horizontal direction (θ direction), the angle of attack (depression angle) direction (φ direction (FIG. 2)), or a combination thereof. Even in the case of the omnidirectional image, if the obtained image does not satisfy the vertical direction, the angle of view includes at least one of the upper limit and the lower limit of the above range in the φ direction (FIG. 2). There may be.

基準方向(θ0φ0)は、情報の種別が全周囲画像(画像A)である場合に適用される。例えば、周囲画像取得部422は、空間モデルMに画像を割り付ける際に、基準方向θ0φ0に基づいて全周囲画像(画像A)の起点の位置を調整する。基準方向θ0に基づいて調整する場合、画像の方向が3次元仮想空間における方向に合うように、鉛直方向のz軸(図2)周りに画像を回転して、画像の方向を調整する。基準方向φ0に基づいて調整する場合、画像の方向が3次元仮想空間における方向に合うように、φ(図2)方向に画像を移動して、画像の方向を調整する。基準方向(θ0φ0)は、調整が必要となる場合の補正角であり、調整による補正を行わない場合には、その値を0にする。 The reference direction (θ0φ0) is applied when the type of information is the omnidirectional image (image A). For example, when allocating an image to the space model M, the ambient image acquisition unit 422 adjusts the position of the starting point of the omnidirectional image (image A) based on the reference direction θ0φ0. When adjusting based on the reference direction θ0, the image direction is adjusted by rotating the image around the vertical z-axis (FIG. 2) so that the image direction matches the direction in the three-dimensional virtual space. When adjusting based on the reference direction φ0, the image direction is adjusted by moving the image in the φ (FIG. 2) direction so that the image direction matches the direction in the three-dimensional virtual space. The reference direction (θ0φ0) is a correction angle when adjustment is required, and its value is set to 0 when correction by adjustment is not performed.

管理情報は、収集情報の内容に対するステータスなどの情報である。例えば、収集情報の種類が画像情報である場合、最新の情報であるか否かのフラグ、更新の要否のフラグなどを含む。収集情報の種類がテキストである場合、その内容に応じた対応策の進捗などを含む。対応策の進捗は、対策方針の検討中、対策方針が決定された後に、対策についての対応準備中、対応中、対応済み、などの各種段階を示すものであってもよい。
ユーザIDは、収集情報412に情報を書き込む処理を実施させたユーザの識別情報である。
The management information is information such as the status of the contents of the collected information. For example, if the type of collected information is image information, it includes a flag indicating whether or not the information is the latest information, a flag indicating whether or not update is necessary, and the like. If the type of collected information is text, it includes the progress of countermeasures according to the content. The progress of the countermeasures may indicate various stages such as during consideration of the countermeasures, after the countermeasures are decided, during preparation for countermeasures, during countermeasures, and after countermeasures are completed.
The user ID is identification information of the user who has executed the process of writing information in the collected information 412 .

データの幾つかの例について説明する。例えば、指定情報取得部421は、空間モデルIDを「1001」、データ識別IDを「FP001」として参照される全周囲画像(画像A)のデータを、ユーザU1の操作に基づいて撮像装置100から取得して、ユーザIDを「U1」とし、上記の各データを収集情報412に追加する。 Some examples of data are described. For example, the specified information acquisition unit 421 obtains the data of the omnidirectional image (image A) referenced with the space model ID of "1001" and the data identification ID of "FP001" from the imaging device 100 based on the operation of the user U1. It acquires, sets the user ID to “U1”, and adds each of the above data to the collected information 412 .

例えば、周囲画像取得部422は、実空間における観測点の周囲画像を、撮像装置100などから取得して、収集情報412に追加する。図12に示すように、周囲画像取得部422は、空間モデルIDを「1001」、データ識別IDを「FD002」として参照される図面のデータを、運用管理システムなどの外部装置から取得して、上記の各データを収集情報412に追加する。 For example, the ambient image acquisition unit 422 acquires the ambient image of the observation point in the real space from the imaging device 100 or the like, and adds it to the collected information 412 . As shown in FIG. 12 , the surrounding image acquisition unit 422 acquires drawing data referred to with a spatial model ID of “1001” and a data identification ID of “FD002” from an external device such as an operation management system, Add each of the above data to the collected information 412 .

また、例えば、指定情報取得部421は、空間モデルIDを「1001」、データ識別IDを「FP011」として参照される画像Cのデータを、ユーザU1の操作に基づいて撮像装置100から取得して、ユーザIDを「U1」とし、上記の各データを収集情報412に追加する。 Further, for example, the designation information acquisition unit 421 acquires the data of the image C referred to with the space model ID of "1001" and the data identification ID of "FP011" from the imaging device 100 based on the operation of the user U1. , the user ID is set to “U1”, and each of the above data is added to the collected information 412 .

なお、「FP101」として参照される周囲画像は、全周囲画像(画像A)ではなく、組み合わせることにより全周囲画像になる「未組合せ画像(画像B)」である。例えば、周囲画像取得部422は、上記の「FP101」として特定される未組合せ画像(画像B)を組み合わせて、FP102として特定される全周囲画像(画像A)を生成する。周囲画像取得部422は、生成されたFP102の全周囲画像(画像A)を、収集情報412に追加する。 It should be noted that the surrounding image referred to as "FP101" is not the omnidirectional image (image A), but the "uncombined image (image B)" that becomes the omnidirectional image by combining. For example, the ambient image acquisition unit 422 combines the uncombined image (image B) identified as “FP101” to generate the omnidirectional image (image A) identified as FP102. The ambient image acquisition unit 422 adds the generated omnidirectional image (image A) of the FP 102 to the collected information 412 .

収集情報412には、上記の画像A、画像B、画像Cなどの他にも、情報の種別が画像とは異なる情報が、上記の画像と同様に追加される。 In addition to the image A, image B, and image C described above, information whose information type is different from that of the image is added to the collected information 412 in the same manner as the image described above.

上記の通り、指定情報取得部421と周囲画像取得部422は、実画像取得部の一例である。指定情報取得部421と周囲画像取得部422は、実空間における観測点の周囲の状況を示す周囲画像(全方位画像など)を取得する。 As described above, the specified information acquisition unit 421 and the surrounding image acquisition unit 422 are examples of the actual image acquisition unit. The designated information acquisition unit 421 and the surrounding image acquisition unit 422 acquire surrounding images (such as omnidirectional images) that indicate the surroundings of the observation point in real space.

表示制御部423は、対象範囲10に対応する実空間における観測点に対応する3次元仮想空間における基準点Rの位置と、その基準点Rの周りに設けられた射影面Sを見込む位置VPの双方が所定の範囲内に収まるように、基準点Rの位置と射影面Sを見込む位置VPの3次元仮想空間における位置を調整する。図13は、実施形態に係る3次元仮想空間における基準点R、射影面S、射影面Sを見込む位置VPの関係を示す図である。基準点Rの位置は、空間モデル情報411に基づいて決定される。射影面Sを見込む位置VPは、見込む位置情報413に基づいて決定される。例えば、基準点Rの位置と、射影面Sを見込む位置VPは、ユーザの端末装置100の操作に基づいて決定され、表示制御部423によって、空間モデル情報411と見込む位置情報413の情報が更新される。 The display control unit 423 controls the position of the reference point R in the three-dimensional virtual space corresponding to the observation point in the real space corresponding to the target range 10, and the position VP looking into the projection plane S provided around the reference point R. The positions of the reference point R and the position VP looking into the projection plane S in the three-dimensional virtual space are adjusted so that both are within a predetermined range. FIG. 13 is a diagram showing the relationship between the reference point R, the projection plane S, and the position VP from which the projection plane S is viewed in the three-dimensional virtual space according to the embodiment. The position of reference point R is determined based on spatial model information 411 . A position VP from which projection plane S is viewed is determined based on position information 413 to be viewed. For example, the position of the reference point R and the position VP from which the projection plane S is expected are determined based on the user's operation of the terminal device 100, and the display control unit 423 updates the space model information 411 and the expected position information 413. be done.

なお、上記の観測点に対応する3次元仮想空間とは、その観測点に対応する「空間モデルM(図2)」を配置するための仮想の3次元空間のことである。
上記の基準点Rの周りに設けられた射影面Sは、基準点Rを基準に配置された中空の球体の表面における内側の面又は中空の円筒の側面における内側の面の少なくとも一部を含む。以下の説明において、基準点Rの周りに設けられた射影面Sは、中空の球体の内側の面を成すものとする。
The three-dimensional virtual space corresponding to the observation point is a virtual three-dimensional space for arranging the "space model M (FIG. 2)" corresponding to the observation point.
The projection plane S provided around the reference point R includes at least a part of the inner surface of the surface of the hollow sphere or the inner surface of the side surface of the hollow cylinder arranged with reference to the reference point R. . In the following description, it is assumed that the projection plane S provided around the reference point R forms the inner surface of the hollow sphere.

図14は、実施形態に係る空間モデルMを配置した3次元仮想空間を示す図である。基準点Rの周りに設けられた射影面Sは、基準点Rを中心とする球体の表面の一部又は全部である。例えば、基準点Rの周りに設けられた射影面Sは、その基準点Rに対応する空間モデルMの内面である。以下の説明において、上記の空間モデルMの内面のことを、単に射影面Sということがある。 FIG. 14 is a diagram showing a three-dimensional virtual space in which the space model M according to the embodiment is arranged. A projection plane S provided around the reference point R is part or all of the surface of a sphere with the reference point R as its center. For example, the projection plane S provided around the reference point R is the inner surface of the spatial model M corresponding to the reference point R. In the following description, the inner surface of the spatial model M may be simply referred to as a projection plane S.

また、上記の所定の範囲とは、生成される表示画像の精度に影響のない範囲に相当する微小な範囲である。例えば、表示制御部423は、基準点Rの位置と射影面Sを見込む位置VPとを一致させてもよい。この場合、表示制御部423は、基準点Rの位置と射影面Sを見込む位置VPを、空間モデル情報411を参照して、観測点の実空間上の位置に対応する位置に定めてもよい。 Further, the predetermined range is a minute range corresponding to a range that does not affect the accuracy of the generated display image. For example, the display control unit 423 may match the position of the reference point R with the position VP from which the projection plane S is viewed. In this case, the display control unit 423 may refer to the space model information 411 to determine the position VP of the reference point R and the projection plane S at positions corresponding to the positions of the observation points in the real space. .

表示制御部423は、射影面Sに射影された周囲画像(図5参照)と3次元仮想空間における仮想構造物を示す仮想空間画像(図8参照)とを対応付ける。表示制御部423は、対応付けた周囲画像と仮想空間画像とにおいて、周囲画像を表示する表示領域と、仮想空間画像を表示する表示領域のそれぞれに共通する領域が含まれる表示画像を、BIM300によって生成させるようにBIM300を制御する。なお、上記の共通する領域とは、例えば、対象範囲10内の一部であって、表示画像に基づいて検討、検証などを実施する対象物を含む領域のことである。 The display control unit 423 associates the surrounding image (see FIG. 5) projected onto the projection plane S with the virtual space image (see FIG. 8) showing the virtual structure in the three-dimensional virtual space. The display control unit 423 causes the BIM 300 to display a display image including an area common to the display area for displaying the surrounding image and the display area for displaying the virtual space image in the associated surrounding image and virtual space image. Control BIM 300 to generate. Note that the above-mentioned common area is, for example, a part of the target range 10 and includes an object to be examined, verified, etc. based on the display image.

表示制御部423は、基準点Rの位置又は射影面Sを見込む位置VPを基準に位置を定め、その定めた位置から見込む仮想構造物を仮想空間画像に示すように、仮想構造物に基づいた表示画像を、BIM300によって生成させるようにBIM300を制御する。表示制御部423は、予め、空間モデルMと、周囲画像と、仮想空間画像との3つの相対的な位置関係を調整する。その調整方法として下記が挙げられる。例えば、第1の調整方法として、表示制御部423は、空間モデルMに対して周囲画像の位置を調整し、その後に、3次元仮想空間に対する空間モデルMの方向を調整する。或いは、第2の調整方法として、表示制御部423は、空間モデルMに対する位置を、周囲画像と仮想空間画像とを独立に調整する。第3の調整方法として、表示制御部423は、まず周囲画像と仮想空間画像との相対位置を調整し、その後に、それらの画像を纏めて空間モデルMに対する位置を調整する。これらの何れかを実施することにより、表示制御部423は、少なくとも3次元仮想空間における周囲画像の代表点の方向を調整する。 The display control unit 423 determines the position based on the position of the reference point R or the position VP from which the projection plane S is viewed, and displays the virtual structure viewed from the determined position in the virtual space image based on the virtual structure. The BIM 300 is controlled so that the display image is generated by the BIM 300 . The display control unit 423 adjusts in advance three relative positional relationships among the space model M, the surrounding image, and the virtual space image. The adjustment method includes the following. For example, as a first adjustment method, the display control unit 423 adjusts the position of the surrounding image with respect to the space model M, and then adjusts the direction of the space model M with respect to the three-dimensional virtual space. Alternatively, as a second adjustment method, the display control unit 423 adjusts the position with respect to the space model M independently of the surrounding image and the virtual space image. As a third adjustment method, the display control unit 423 first adjusts the relative positions of the surrounding image and the virtual space image, and then adjusts the position with respect to the space model M collectively. By performing any of these, the display control unit 423 adjusts the direction of the representative point of the surrounding image in at least the three-dimensional virtual space.

表示制御部423は、空間モデルMと、周囲画像と、仮想空間画像との3つの相対的な位置関係を調整した後に、周囲画像から抽出した範囲と仮想空間画像から抽出した範囲の双方に共通する範囲が含まれる表示画像を、BIM300によって生成するようにBIM300を制御する。表示制御部423は、周囲画像と仮想空間画像の少なくとも何れか一方を透過性のある透過画像に変換し、その透過画像を他方の画像に重なる位置に配置する。このような制御を受けて、BIM300は、上記の他方の画像を上記の透過画像越しに視認可能な表示画像を生成する。 After adjusting the three relative positional relationships among the space model M, the surrounding image, and the virtual space image, the display control unit 423 adjusts the range extracted from the surrounding image and the range extracted from the virtual space image. The BIM 300 is controlled so that the BIM 300 generates a display image including the range to be displayed. The display control unit 423 converts at least one of the surrounding image and the virtual space image into a transparent image, and arranges the transparent image at a position overlapping the other image. Under such control, the BIM 300 generates a display image in which the other image can be viewed through the transparent image.

出力処理部427は、端末装置200からの要求に応じて、要求に対する所望の情報を端末装置200に対して出力する。 The output processing unit 427 outputs desired information for the request to the terminal device 200 in response to the request from the terminal device 200 .

[BIM300における処理について]
BIM300は、3次元仮想空間における3Dモデルのデータ登録、作図、描画、編集、表示等の処理を実施する。例えば、BIM300は、ユーザの操作などに従い、建物2などの構造物を数値化した3Dモデルを構築する。BIM300は、3Dモデルのデータ(以下、3Dモデルデータという。)を特定のファイル形式のデータにして、他のBIMソフト、CADソフト、ビューワーソフトなどを実行するコンピュータとそのデータを共有することができる。
[Regarding processing in BIM300]
The BIM 300 performs processing such as data registration, drawing, drawing, editing, and display of a 3D model in a 3D virtual space. For example, the BIM 300 builds a 3D model in which structures such as the building 2 are digitized according to user's operations. The BIM 300 converts 3D model data (hereinafter referred to as 3D model data) into data in a specific file format, and can share that data with computers that run other BIM software, CAD software, viewer software, and the like. .

本実施形態におけるBIM300は、数値情報として登録された数値データの他に、撮像装置100などにより撮像された画像データを取得して、描画などの処理に利用する。実施形態のBIM300は、例えば、全天球画像、正距円筒図法などの画像のデータを利用する。BIM300は、対応する関係にある全天球画像と3Dモデルデータによる画像とを同じ視点上で重ね合わせる。例えば、全天球画像のデータには、現状の壁面の利用状況が含まれている。一方、3Dモデルデータには、壁面の利用状況についての詳細な情報が含まれていないものとする。BIM300は、画像情報として取得した「現状」の情報と、3Dモデルデータによる「数値データ」、「幾何学モデルデータ」などの情報を組み合わせることで、各データに不足している情報を互いに補う。ユーザは、この結果として得られた画像から、状況を直感的に認識することができ、更には、数値データに基づいた客観的なデータを得ることができる。 The BIM 300 in this embodiment acquires image data captured by the imaging device 100 or the like in addition to numerical data registered as numerical information, and uses the data for processing such as drawing. The BIM 300 of the embodiment uses, for example, data of images such as omnidirectional images and equirectangular projections. The BIM 300 superimposes a corresponding omnidirectional image and an image based on 3D model data on the same viewpoint. For example, the omnidirectional image data includes the current wall usage status. On the other hand, it is assumed that the 3D model data does not contain detailed information about the usage status of the wall surface. The BIM 300 combines "current" information acquired as image information with information such as "numerical data" and "geometric model data" based on 3D model data, thereby supplementing information that is lacking in each data. The user can intuitively recognize the situation from the image obtained as a result, and can obtain objective data based on numerical data.

BIM300は、全天球画像データと3Dモデルデータのそれぞれに基づいた画像を描画する際には、3点透視図法と2点透視図法の何れかのパースペクティブ(透視図法)に揃える。BIM300は、全天球画像データと3Dモデルデータのパースペクティブを揃えて、3次元仮想空間における画像を合成する。 When the BIM 300 draws an image based on each of the omnidirectional image data and the 3D model data, it aligns the perspective (perspective drawing method) with either the three-point perspective method or the two-point perspective method. The BIM 300 aligns the perspectives of the omnidirectional image data and the 3D model data to synthesize an image in a three-dimensional virtual space.

(BIM300が表示する画像情報)
ところで、BIM300が3次元仮想空間で扱うデータ(3Dモデルデータ)は、3次元形式である。一方、撮像装置100などにより生成される全天球画像は、2次元形式の情報である。全天球画像を面に表示することは容易であるが、そのまま3次元形式の情報として利用できるものではない。このように全天球画像と3Dモデルデータの2つのデータのデータ構造が異なり、そのまま合成することは困難である。
(Image information displayed by BIM300)
By the way, data (3D model data) handled by the BIM 300 in a three-dimensional virtual space is in a three-dimensional format. On the other hand, the omnidirectional image generated by the imaging device 100 or the like is information in a two-dimensional format. It is easy to display an omnidirectional image on a surface, but it cannot be used as it is as three-dimensional information. As described above, the data structures of the omnidirectional image and the 3D model data are different, and it is difficult to combine them as they are.

そこで、本実施形態のBIM300は、3次元仮想空間におけるオブジェクトの面に、2次元形式の画像のデータをマッピングすることで、上記の形式が互いに異なるデータを利用可能にする。
以下に一例として示す3次元仮想空間におけるオブジェクトは、中空の球体(空間モデルM)であり、前述の空間モデルMに相当する。BIM300は、この球体の表面の内側に、2次元形式の画像のデータをマッピングする。
Therefore, the BIM 300 of the present embodiment maps 2D format image data onto the surface of an object in a 3D virtual space, thereby making it possible to use data in different formats.
An object in the three-dimensional virtual space shown below as an example is a hollow sphere (space model M) and corresponds to the space model M described above. BIM 300 maps image data in two-dimensional format inside the surface of this sphere.

(BIM300が表示する画像の範囲)
BIM300による表示範囲を、広角にするほど画像にゆがみが生じる。通常視認される画像(標準的な画角の画像)との差が生じると不自然さが出る。これに対して、表示範囲を標準にすれば、画像に生じたゆがみが目立つことはなく、空間認識が容易である。
(Range of image displayed by BIM300)
The wider the display range of the BIM 300, the more the image is distorted. If there is a difference from an image that is normally viewed (an image with a standard angle of view), it will look unnatural. On the other hand, if the display range is standardized, the distortion produced in the image is not conspicuous, and spatial recognition is facilitated.

BIM300は、全天球画像と3Dモデルデータに基づく画像の双方を、仮想の球体の表面の内側にマッピングして、それぞれのデータに基づいて描画する。BIM300が仮想の球体表面の一部を選択して、選択した範囲を2次元の画像(2Dビュー)として表示する。上記の通り、球体の表面の内側(射影面S)にマッピングされた画像を切り出して、2次元の画像として表示するが、球体の中心に射影面Sを見込む位置VPを配置していることにより、射影面Sが曲面であることによる歪の発生は軽減する。 The BIM 300 maps both the omnidirectional image and the image based on the 3D model data inside the surface of the virtual sphere, and draws based on the respective data. BIM 300 selects a portion of the virtual spherical surface and displays the selected area as a two-dimensional image (2D view). As described above, the image mapped inside the surface of the sphere (projection plane S) is cut out and displayed as a two-dimensional image. , the occurrence of distortion due to the projection plane S being a curved surface is reduced.

BIM300は、表示制御部423からの制御により、例えば、全天球画像(周囲画像)から抽出した範囲と、3Dモデルデータに基づく画像(仮想空間画像)から抽出した範囲の双方に共通する範囲が含まれる表示画像を生成してもよい。 Under the control of the display control unit 423, the BIM 300 detects, for example, a range common to both the range extracted from the omnidirectional image (surrounding image) and the range extracted from the image (virtual space image) based on the 3D model data. An included display image may be generated.

なお、BIM300は、表示制御部423からの制御により、周囲画像と仮想空間画像の少なくとも何れか一方を透過性のある透過画像に変換してもよい。例えば、BIM300は、その透過画像を他方の画像に重なる位置に配置する。これにより、BIM300は、上記の他方の画像を上記の透過画像越しに視認可能とする表示画像を生成する。 Note that the BIM 300 may convert at least one of the surrounding image and the virtual space image into a transparent image under the control of the display control unit 423 . For example, the BIM 300 places the transparent image at a position overlapping the other image. Thereby, the BIM 300 generates a display image that allows the other image to be visible through the transparent image.

図15Aは、実施形態に係る情報可視化処理の一例を示すフローチャートである。現場の画像は、撮像装置100によって撮影される。 FIG. 15A is a flowchart illustrating an example of information visualization processing according to the embodiment; An image of the site is captured by the imaging device 100 .

まず、周囲画像取得部422は、撮像装置100から画像を取得し(S11)、収集情報412に追加する。周囲画像取得部422は、S11において取得した画像が、写真データの合成を必要とする画像であるか否かを、収集情報412のデータ種別に基づいて判定する(S12)。写真データの合成が必要な画像とは、加工をせずに全周囲画像として扱うことができない画像のことである。写真データの合成を必要とする画像である場合には(S12:YES)、周囲画像取得部422は、取得した複数の画像を組み合わせて、画像を撮像した観測点を基準にした全周囲画像を生成し(S13)、生成した画像を、その種別が全周囲画像であるものとして収集情報412に追加する。 First, the ambient image acquisition unit 422 acquires an image from the imaging device 100 (S11) and adds it to the collected information 412. FIG. The surrounding image acquisition unit 422 determines whether or not the image acquired in S11 is an image that requires compositing of photo data, based on the data type of the collected information 412 (S12). An image that requires photographic data synthesis is an image that cannot be treated as an all-around image without being processed. If the image requires photographic data synthesis (S12: YES), the ambient image acquisition unit 422 combines the multiple acquired images to obtain an all-surrounding image based on the observation point where the image was captured. is generated (S13), and the generated image is added to the collected information 412 as a type of an all-surrounding image.

写真データの合成を必要とする画像ではない場合(S12:NO)、又は、S13における処理を終えた後に、指定情報取得部421は、BIM300からの情報に基づいて、対象範囲10の3Dモデルデータの有無を判定する(S14)。対象範囲10の3Dモデルデータが無い場合(S14:NO)には、指定情報取得部421は、3Dモデルデータを生成するように制御する(S15)。例えば、指定情報取得部421は、BIM300を制御して、BIM300により3Dモデルデータを生成させる。 If the image does not require photographic data synthesis (S12: NO), or after the processing in S13 is finished, the designation information acquisition unit 421 acquires the 3D model data of the target range 10 based on the information from the BIM 300. (S14). If there is no 3D model data for the target range 10 (S14: NO), the designation information acquisition unit 421 controls to generate 3D model data (S15). For example, the specified information acquisition unit 421 controls the BIM 300 to generate 3D model data.

なお、比較例のBIMには、3Dモデルデータとして様々なデータが揃わないと既存の状況を表すことはできないものとされるものがある。これに対し、本実施形態のBIM300は、3Dモデルデータとして、検討の目的に関連する最低限の既存要素(既設物)の情報が含まれていればよいものである。例えば、部屋などの内装についての情報を整理する目的であれば、部屋の形状を示す情報が入力されていればよい。例えば、2次元図面(2D図面)に内壁面、天井面、床面を示すことで、部屋の形状を示すことができる。その部屋に設けられている窓や設備などの情報は必須の情報としない。これらの情報は、後述する画像を重ねる処理で補完される。 In some BIMs of the comparative example, the existing situation cannot be expressed unless various data are prepared as 3D model data. On the other hand, the BIM 300 of the present embodiment only needs to include, as 3D model data, minimum information on existing elements (existing objects) related to the purpose of study. For example, for the purpose of arranging information about the interior of a room or the like, information indicating the shape of the room may be input. For example, the shape of the room can be shown by showing the inner wall surface, the ceiling surface, and the floor surface in a two-dimensional drawing (2D drawing). Information such as windows and equipment provided in the room is not essential information. These pieces of information are complemented by a process of superimposing images, which will be described later.

対象範囲10の3Dモデルデータが有る場合(S14:YES)、又は、S15における処理を終えた後に、指定情報取得部421は、撮像装置100又は端末装置200から観測点の位置を取得する(S16)。 If there is 3D model data of the target range 10 (S14: YES), or after the processing in S15 is finished, the specified information acquisition unit 421 acquires the position of the observation point from the imaging device 100 or the terminal device 200 (S16 ).

次に、指定情報取得部421は、空間モデル情報411に登録されている空間モデルMのうちに所望の空間モデルMが有るか否かを判定する(S17)。空間モデル情報411内に所望の空間モデルMが無いと判定した場合(S17:NO)、指定情報取得部421は、空間モデルMを空間モデル情報411の観測ポイントに追加する(S18)。指定情報取得部421は、BIM300を制御して、BIM300により空間モデルMを3Dモデルデータに追加する。 Next, the designation information acquisition unit 421 determines whether or not there is a desired space model M among the space models M registered in the space model information 411 (S17). When it is determined that the desired space model M does not exist in the space model information 411 (S17: NO), the designation information acquisition unit 421 adds the space model M to the observation points of the space model information 411 (S18). The specified information acquisition unit 421 controls the BIM 300 to add the space model M to the 3D model data by the BIM 300 .

空間モデル情報411内に所望の空間モデルMが有ると判定した場合(S17:YES)、又は、S18における処理を終えた後に、表示制御部423は、周辺画像を加工する(S19)。例えば、カメラから出力された全周囲画像(正距円筒画像)の中央部が必ずしもカメラの正面に一致しないことがある。カメラの正面の向きを画像の起点にした全周囲画像(正距円筒画像)である場合には、表示制御部423は、データ上の起点の位置を補正する。表示制御部423は、上記で決定した補正量を、収集情報412の「基準方向」に反映する。 When it is determined that the desired space model M is present in the space model information 411 (S17: YES), or after finishing the processing in S18, the display control unit 423 processes the peripheral image (S19). For example, the central portion of the omnidirectional image (equirectangular image) output from the camera may not always match the front of the camera. In the case of an omnidirectional image (equirectangular image) whose starting point is the front direction of the camera, the display control unit 423 corrects the position of the starting point on the data. The display control unit 423 reflects the determined correction amount in the “reference direction” of the collected information 412 .

また、画像の範囲や大きさが、BIM300のデータとして利用することが適当ではない場合には、表示制御部423は、BIM300のデータとして利用できるように、予め定められた規格に従って画像の一部を抽出(トリミング)し、また、画像の大きさを調整するなどの加工を、周辺画像に対して施す。表示制御部423は、上記で決定した調整量を、収集情報412の「画角」に反映する。 Further, when the range and size of the image are not suitable for use as BIM 300 data, the display control unit 423 converts a part of the image according to a predetermined standard so that it can be used as BIM 300 data. is extracted (trimmed), and processing such as adjusting the size of the image is applied to the peripheral image. The display control unit 423 reflects the adjustment amount determined above in the “angle of view” of the collected information 412 .

次に、表示制御部423は、空間モデル情報411に登録されている空間モデルMのうちから所望の空間モデルMを選択し、選択された空間モデルMに、収集情報412から選択された周辺画像(全周囲画像)を合成する(S20)。なお、空間モデルMと、周囲画像と、仮想空間画像との3つに、相対的な位置にずれが生じている場合には、表示制御部423は、互いの位置関係を、空間モデルを基準にして調整してもよい。 Next, the display control unit 423 selects a desired space model M from among the space models M registered in the space model information 411, and adds the peripheral image selected from the collected information 412 to the selected space model M. (Surrounding image) are synthesized (S20). Note that when there is a relative positional deviation between the space model M, the surrounding image, and the virtual space image, the display control unit 423 determines the positional relationship of each other based on the space model. can be adjusted by

表示制御部423は、端末装置200に表示する画像の方向を定める視点の方向(視点方向)を、端末装置200から取得する(S21)。
表示制御部423は、観測点から視点方向を見込む画像を端末装置200に表示させる(S22)。図16は、実施形態に係る観測点から視点方向を見込む画像の一例を示す図である。例えば、同図に示すように、対象範囲10内に新たに設置を予定する装置と既存の装置とが干渉することが、明らかになる。
The display control unit 423 acquires from the terminal device 200 the direction of the viewpoint (viewpoint direction) that determines the direction of the image to be displayed on the terminal device 200 (S21).
The display control unit 423 causes the terminal device 200 to display an image looking in the viewpoint direction from the observation point (S22). FIG. 16 is a diagram illustrating an example of an image viewed in a viewpoint direction from an observation point according to the embodiment; For example, as shown in the figure, it becomes clear that a new device scheduled to be installed within the target range 10 interferes with an existing device.

表示制御部423は、端末装置200からの指示に従い、視点方向が異なる他の方向を表示するか否かを判定し(S23)、他の方向を表示すると判定した場合には(S23:YES)、S21以降の処理を繰り返す。S23における判定処理により他の方向を表示すると判定しなかった場合には(S23:NO)、図示する一連の処理を終える。 The display control unit 423 determines whether or not to display another direction with a different viewpoint direction according to an instruction from the terminal device 200 (S23), and when it determines to display another direction (S23: YES). , S21 and subsequent steps are repeated. If it is determined not to display another direction by the determination processing in S23 (S23: NO), the illustrated series of processing ends.

以上に示した処理により、情報提供支援装置400は、より簡易な方法で、ある観測点の位置の周囲の状況を共有可能にする。情報提供支援装置400を各種業務の用途に適用して、上記の画像に基づいて所望の情報を共有してもよい。 Through the processing described above, the information provision support device 400 makes it possible to share the situation around the position of a certain observation point by a simpler method. The information provision support apparatus 400 may be applied to various business uses to share desired information based on the above images.

なお、空間モデルMとして設定した射影面Sは、表示する画像を見込む基準点Rと、3次元仮想空間に設けられた仮想構造物とを結ぶ仮想の直線に交差するように設けられる。例えば、射影面Sの位置は、基準点Rと仮想構造物との間である。 The projection plane S set as the space model M is provided so as to intersect a virtual straight line connecting the reference point R from which the image to be displayed is viewed and the virtual structure provided in the three-dimensional virtual space. For example, the position of the projection plane S is between the reference point R and the virtual structure.

(第1の実施形態の変形例その1)
第1の実施形態の変形例その1について説明する。第1の実施形態では、周囲画像と仮想空間画像の少なくとも何れか一方を透過性のある透過画像に変換し、他方の画像を上記の透過画像越しに表示することについて説明したが、これに代えて、本変形例では、透過させずに表示することについて説明する。
(Modification 1 of the first embodiment)
Modification 1 of the first embodiment will be described. In the first embodiment, at least one of the surrounding image and the virtual space image is converted into a transmissive image, and the other image is displayed through the transmissive image. Therefore, in this modified example, display without transmission will be described.

表示制御部423は、周囲画像と仮想空間画像の少なくとも何れか一方の画像から所定の抽出条件に基づいて一部を抽出し、抽出した部分画像を、他方の画像に重ねて配置する。例えば、壁面、床面、天井などで隠れる範囲に布設された屋内配線、配管などの情報が、BIM300に登録されているとする。表示制御部423が、周囲画像をBIM300に供給すると、BIM300は、供給した周囲画像を下敷きにして、屋内配線、配管などを抽出した部分画像を、その周囲画像の上に重ねて配置する。
或いは、上記の屋内配線、配管などの対象物を含む画像情報と、上記の対象物以外の範囲を示すマスク情報とが、BIM300に登録されているとする。表示制御部423が、周囲画像をBIM300に供給すると、BIM300は、供給した周囲画像を下敷きにして、対象物を含む画像情報のうち、マスク情報により指定される範囲以外を、その周囲画像の上に重ねて配置する。
The display control unit 423 extracts a part of at least one of the surrounding image and the virtual space image based on a predetermined extraction condition, and superimposes the extracted partial image on the other image. For example, assume that the BIM 300 registers information about indoor wiring and piping installed in areas hidden by walls, floors, ceilings, and the like. When the display control unit 423 supplies the surrounding image to the BIM 300, the BIM 300 superimposes the partial image of the indoor wiring, piping, etc. on the surrounding image based on the supplied surrounding image.
Alternatively, it is assumed that the BIM 300 is registered with image information including objects such as indoor wiring and piping, and mask information indicating a range other than the above objects. When the display control unit 423 supplies the surrounding image to the BIM 300, the BIM 300 uses the supplied surrounding image as an underlay, and out of the image information including the target object, the area other than the range specified by the mask information is displayed on the surrounding image. placed on top of each other.

本変形例によれば、BIM300が抽出した部分画像を周囲画像に重ねて配置する表示画像を生成することが可能になる。なお、情報提供支援装置400は、上記の表示画像の生成を、BIM300を制御することによって実施するようにしてもよい。 According to this modification, it is possible to generate a display image in which the partial image extracted by the BIM 300 is superimposed on the surrounding image. Note that the information provision support apparatus 400 may control the BIM 300 to generate the above display image.

なお、情報提供支援装置400は、端末装置200からの制御を受けて、周囲画像と仮想空間画像の少なくとも何れか一方を透過画像に変換し、他方の画像を上記の透過画像越しに表示する第1表示モードと、本変形で例示した透過させずに表示する第2表示モードとを切り替えて、又は、両者を組み合わせて表示するようにしてもよい。 Note that the information provision support device 400 receives control from the terminal device 200, converts at least one of the surrounding image and the virtual space image into a transparent image, and displays the other image through the transparent image. 1 display mode and the second display mode in which the image is displayed without being transparent, as exemplified in the present modification, may be switched, or both may be combined for display.

(第1の実施形態の変形例その2)
第1の実施形態の変形例その2について説明する。第1の実施形態では、撮像装置100が正距円筒図法に基づく画像又は全周囲画像を周囲画像として撮像し、情報提供支援装置400は、周囲画像を生成する合成処理を不要とする場合を例示して説明した。これに代えて、本実施形態では、情報提供支援装置400は、撮像装置100から供給される複数の画像を合成して周囲画像を生成する合成処理を実施する場合を例示する。第1の実施形態との相違点を中心に説明する。
(Modification 2 of the first embodiment)
Modification 2 of the first embodiment will be described. In the first embodiment, the imaging device 100 captures an image based on equirectangular projection or a omnidirectional image as a surrounding image, and the information provision support device 400 does not require a synthesis process for generating the surrounding image. explained. Instead of this, in the present embodiment, the information provision support device 400 synthesizes a plurality of images supplied from the imaging device 100 to perform synthesis processing to generate a surrounding image. The description will focus on differences from the first embodiment.

実施形態の撮像装置100は、超広角レンズ、広角レンズ、標準レンズなどを用いる。超広角レンズ、広角レンズ、標準レンズなどのレンズは、前述の第1の実施形態に示した魚眼レンズに比べて画角が狭い。超広角レンズ、広角レンズ、標準レンズを使用して全周囲を撮影する場合には、全周囲を3以上の複数に分割して撮像する。情報提供支援装置400は、これらの全周囲を3以上の複数に分割して撮像された画像を取得して、これらの画像を組み合わせる合成処理を施す。 The imaging device 100 of the embodiment uses a super-wide-angle lens, a wide-angle lens, a standard lens, and the like. A lens such as a super-wide-angle lens, a wide-angle lens, and a standard lens has a narrower angle of view than the fish-eye lens shown in the first embodiment. When the entire surroundings are photographed using a super-wide-angle lens, a wide-angle lens, and a standard lens, the entire surroundings are divided into three or more and photographed. The information provision support device 400 acquires images captured by dividing the entire surroundings into three or more pluralities, and performs synthesis processing of combining these images.

図17は、実施形態に係る撮像装置100から供給される複数の画像を合成する処理について説明するための図である。 FIG. 17 is a diagram for explaining processing for synthesizing a plurality of images supplied from the imaging device 100 according to the embodiment.

例えば、撮像装置100は、90度以上180度未満の画角を有する超広角レンズを利用して撮影した画像を用いて撮像する。撮像装置100は、光軸を、XC軸の正方向と負方向、YC軸の正方向と負方向、ZC軸の正方向と負方向のそれぞれに向けて、計6枚の画像を撮影する。なお、XC軸、YC軸、ZC軸は、点Cを原点とする直交座標である。この撮像装置100は、上記の各画像に、撮影時の光軸の方向、画像の向きに関する情報を付与してもよい。撮像装置100は、上記の各画像を、情報提供支援装置400に供給する。情報提供支援装置400は、取得した画像を、全周囲画像として、収集情報412に追加する。 For example, the imaging apparatus 100 captures an image using an ultra-wide-angle lens having an angle of view of 90 degrees or more and less than 180 degrees. The imaging device 100 directs the optical axis in the positive and negative directions of the XC axis, the positive and negative directions of the YC axis, and the positive and negative directions of the ZC axis, and takes a total of six images. The XC axis, YC axis, and ZC axis are orthogonal coordinates with the point C as the origin. The imaging apparatus 100 may add information regarding the direction of the optical axis at the time of imaging and the orientation of the image to each of the images. The imaging device 100 supplies each of the above images to the information provision support device 400 . The information provision support device 400 adds the acquired image to the collected information 412 as a omnidirectional image.

情報提供支援装置400は、観測点に対応する点Cを中心にして、取得した画像を同図に示すように配置する。 The information provision support device 400 arranges the obtained images as shown in the figure, centering on the point C corresponding to the observation point.

例えば、XC軸の正方向の画像と負方向の画像を、XC軸に直交するように配置して、その位置をx軸の正方向と負方向にする。例えば、その位置を決定するXC軸の正方向と負方向の値を、絶対値が等しくなるようにする。つまり、C点からの距離が等しい位置にXC軸の正方向の画像と負方向の画像が配置される。YC軸に対応する画像、ZC軸に対応する画像も、上記のXC軸に対応する画像と同様にする。 For example, an image in the positive direction and an image in the negative direction of the XC axis are arranged so as to be orthogonal to the XC axis, and their positions are in the positive and negative directions of the x axis. For example, the positive and negative values of the XC axis that determine the position are made equal in absolute value. In other words, the image in the positive direction and the image in the negative direction of the XC axis are arranged at positions at equal distances from point C. FIG. The image corresponding to the YC axis and the image corresponding to the ZC axis are also the same as the image corresponding to the XC axis.

上記のように6枚の画像を配置することにより、点Cを囲む立方体が形成される。情報提供支援装置400は、立方体の各面の内側に描かれた画像を、空間モデルMとする球体の表面の内側に射影する。これにより、情報提供支援装置400は、空間モデルMに射影された全周囲画像を生成する。 By arranging the six images as described above, a cube surrounding point C is formed. The information provision support device 400 projects the image drawn inside each face of the cube onto the inside of the surface of the sphere as the space model M. FIG. As a result, the information provision support device 400 generates an all-surrounding image projected onto the space model M. FIG.

上記の実施形態によれば、第1の実施形態と共通する効果を奏することの他に、撮像装置100から供給される複数の画像を合成して周囲画像を生成することができる。 According to the above-described embodiment, it is possible to combine a plurality of images supplied from the imaging device 100 to generate a surrounding image, in addition to achieving the same effects as the first embodiment.

なお、上記の方法で撮影する際には、撮像装置100の位置を管理して、その光軸方向を正確に向けることが重要である。例えば、撮像装置100は、上記の各画像を撮影する際に、光軸の方向を、基準とする座標軸の方向に正確に向け、撮影時の位置が基準とする座標軸の原点の位置からずれないようにするとよい。 It is important to manage the position of the image pickup device 100 and accurately orient the optical axis direction when photographing by the above method. For example, the imaging apparatus 100 accurately orients the direction of the optical axis in the direction of the reference coordinate axis when capturing each of the above images, so that the position at the time of capturing does not deviate from the position of the origin of the reference coordinate axis. It is better to

(第1の実施形態の変形例その3)
第1の実施形態の変形例その3について説明する。第1の実施形態では、「(1-1)空間モデルMを利用する方法」と「(2-1)空間モデルMを利用する場合に、空間モデルMに沿って画像を回転して調整する方法」とを組み合わせた事例について説明した。本変形例では、「(2-1)空間モデルMを利用する場合に、空間モデルMに沿って画像を回転して調整する方法」に代えて、「(2-3)周囲画像の特徴点と、3Dモデルに基づいた画像の特徴点とが一致するように調整する方法」について説明する。第1の実施形態との相違点を中心に説明する。
(Modification 3 of the first embodiment)
Modification 3 of the first embodiment will be described. In the first embodiment, "(1-1) a method of using the space model M" and "(2-1) when using the space model M, adjust by rotating the image along the space model M He explained the case of combining "method". In this modification, instead of "(2-1) a method of adjusting by rotating an image along the space model M when using the space model M", "(2-3) feature points of the surrounding image and the feature points of the image based on the 3D model”. The description will focus on differences from the first embodiment.

前述の図8に示す仮想空間の画像における点T1は、この仮想空間内の位置を特定する特徴を有する点である。これに対応する実空間の周辺画像、すなわち前述の図4Aに示す画像内に、上記の点T1に対応する点T2が特定できるものとする。その点T2を、図4A中に示す。 A point T1 in the image of the virtual space shown in FIG. 8 is a point having a feature specifying a position in the virtual space. It is assumed that a point T2 corresponding to the point T1 can be identified in the peripheral image of the real space corresponding to this, that is, the image shown in FIG. 4A. The point T2 is shown in FIG. 4A.

例えば、図15Aに示したS19の処理を終えた後、情報提供支援装置400は、撮像装置100から取得した情報に基づいて下記の処理をする。
撮像装置100は、上記の点T1、点T2に対応する実空間における点T3(図1参照)の視覚的な特徴量を検出し、その特徴量を情報提供支援装置400に供給する。例えば、撮像装置100は、点T3を中心とする周囲の色、明るさ等から、点T3を特徴づけることができる特徴量(以下、特徴量Tという。)を決定する。
For example, after finishing the processing of S19 shown in FIG. 15A, the information provision support device 400 performs the following processing based on the information acquired from the imaging device 100. FIG.
The imaging device 100 detects the visual feature quantity of the point T3 (see FIG. 1) in the real space corresponding to the points T1 and T2, and supplies the feature quantity to the information provision support device 400. FIG. For example, the imaging apparatus 100 determines a feature amount (hereinafter referred to as feature amount T) that can characterize the point T3 from the color, brightness, etc. of the surroundings centering on the point T3.

制御部420は、実空間において検出された特徴量Tに基づいて、図4Aに示す画像内の点として、特徴量Tから特定される点を抽出する。抽出された点が点T2になる。なお、制御部420は、上記の抽出のための処理を、画像処理のパターンマッチングなどの手法により実施してもよい。その際に、制御部420は、特徴量を強調するための処理として、色フィルタ、明るさ又は色成分ごとの2値化、輪郭強調、コントラスト調整、歪補正などの処理を適宜選択して、良好に特徴点が抽出できるような順に実施してもよい。 Based on the feature amount T detected in the real space, the control unit 420 extracts points specified from the feature amount T as points in the image shown in FIG. 4A. The extracted point becomes point T2. It should be noted that the control unit 420 may perform the processing for the above extraction by a technique such as pattern matching of image processing. At that time, the control unit 420 appropriately selects processing such as a color filter, binarization for each brightness or color component, contour enhancement, contrast adjustment, and distortion correction as the processing for emphasizing the feature amount. It may be performed in the order in which feature points can be extracted satisfactorily.

制御部420は、ユーザにより指定された仮想空間の画像(図8)中の点T1を取得する。制御部420は、上記の点T1の位置に点T2の位置が重なるように、空間モデルMに、周辺画像を合成する(S20)。なお、制御部420は、この合成の際に、周辺画像が空間モデルMにマッピングできるように調整する変換処理を実施してもよい。 The control unit 420 acquires the point T1 in the virtual space image (FIG. 8) designated by the user. The control unit 420 synthesizes the peripheral image with the space model M so that the position of the point T2 overlaps with the position of the point T1 (S20). Note that the control unit 420 may perform conversion processing for adjusting so that the peripheral image can be mapped onto the space model M at the time of this synthesis.

以降の処理は、前述したとおりである。 Subsequent processing is as described above.

上記の実施形態によれば、第1の実施形態と共通する効果を奏することの他に、実空間における周囲画像と仮想空間における仮想空間画像とを、射影面を利用しないで関連付けることができる。 According to the above-described embodiment, in addition to the effects common to those of the first embodiment, the surrounding image in the real space and the virtual space image in the virtual space can be associated without using the projection plane.

(第2の実施形態)
第2の実施形態について説明する。第1の実施形態では、「(1-1)空間モデルMを利用する方法」と「(2-1)空間モデルMを利用する場合に、空間モデルMに沿って画像を回転して調整する方法」とを組み合わせた事例について説明した。これに代えて、第2の実施形態では、「(1-2)空間モデルMを利用しない方法」と「(2-2)周囲画像を3Dモデルに基づいた画像に射影して調整する方法」とを組み合わせた一例を挙げ、以下に説明する。第1の実施形態との相違点を中心に説明する。
(Second embodiment)
A second embodiment will be described. In the first embodiment, "(1-1) a method of using the space model M" and "(2-1) when using the space model M, adjust by rotating the image along the space model M He explained the case of combining "method". Instead of this, in the second embodiment, "(1-2) a method not using the spatial model M" and "(2-2) a method for adjusting by projecting the surrounding image onto an image based on the 3D model". will be described below. The description will focus on differences from the first embodiment.

図15Bは、実施形態に係る情報可視化処理の一例を示すフローチャートである。 15B is a flowchart illustrating an example of information visualization processing according to the embodiment; FIG.

S11からS16までの処理は、図15Aと同様である。S16までの処理を終えた後、表示制御部423は、端末装置200に表示する画像の方向を定める視点の方向(視点方向)を、端末装置200から取得する(S31)。 The processing from S11 to S16 is the same as in FIG. 15A. After completing the processing up to S16, the display control unit 423 acquires from the terminal device 200 the direction of the viewpoint (viewpoint direction) that determines the direction of the image to be displayed on the terminal device 200 (S31).

制御部420は、所望の観測点から見込む画像になるように、S31において指定された視点の方向に基づいて全周囲画像の歪を補正する(S32)。全周囲画像の歪を補正する処理の詳細については後述する。 The control unit 420 corrects the distortion of the omnidirectional image based on the direction of the viewpoint specified in S31 so that the image can be viewed from a desired observation point (S32). The details of the processing for correcting the distortion of the omnidirectional image will be described later.

制御部420は、歪補正後の画像の位置補正が必要か否かを判定する(S33)。
歪補正後の画像の位置補正が必要な場合、制御部420は、歪補正後の画像の位置補正を実施する(S34)。
The control unit 420 determines whether or not position correction of the image after distortion correction is necessary (S33).
If position correction of the image after distortion correction is necessary, the control unit 420 performs position correction of the image after distortion correction (S34).

歪補正後の画像の位置補正が必要ではない場合、又は、S34の処理を終えた後、制御部420は、歪補正後の画像の位置補正を実施する(S34)。例えば、制御部420は、3次元仮想空間におけるオブジェクトの面に、2次元形式の画像のデータをマッピングする。制御部420は、自らの処理によって、歪補正後の画像の位置補正を実施する。或いは、制御部420は、BIM300を制御して、BIM300の処理により歪補正後の画像の位置補正を実施させてもよい。この場合、BIM300が、歪補正後の画像の位置補正を実施する。 If the position correction of the image after distortion correction is not necessary, or after the process of S34 is completed, the control unit 420 performs the position correction of the image after distortion correction (S34). For example, the control unit 420 maps 2D format image data onto the surface of the object in the 3D virtual space. The control unit 420 corrects the position of the distortion-corrected image by its own processing. Alternatively, the control unit 420 may control the BIM 300 to perform position correction of the image after distortion correction by processing of the BIM 300 . In this case, the BIM 300 performs position correction of the image after distortion correction.

表示制御部423は、観測点から視点方向を見込む画像を端末装置200に表示させる(S35)。これにより、前述の図16に示すような画像が生成され、対象範囲10内に新たに設置を予定する装置と既存の装置とが干渉することが、明らかになる。 The display control unit 423 causes the terminal device 200 to display an image looking in the viewpoint direction from the observation point (S35). As a result, an image as shown in FIG. 16 described above is generated, and it becomes clear that the device to be newly installed within the target range 10 interferes with the existing device.

表示制御部423は、端末装置200からの指示に従い、視点方向が異なる他の方向を表示するか否かを判定し(S36)、他の方向を表示すると判定した場合には(S36:YES)、S31以降の処理を繰り返す。S36における判定処理により他の方向を表示すると判定しなかった場合には(S36:NO)、図示する一連の処理を終える。 The display control unit 423 determines whether or not to display another direction with a different viewpoint direction according to an instruction from the terminal device 200 (S36), and when it determines to display another direction (S36: YES). , S31 and subsequent steps are repeated. If it is determined not to display another direction by the determination processing in S36 (S36: NO), the illustrated series of processing ends.

図18から図20は、全周囲画像の歪を補正する処理を説明するための図である。
図18に、全周囲画像の画素構成を示す。この全周囲画像が、正距円筒図法によるものである場合、全周囲画像の縦横比は、1対2である。この全周囲画像は、縦v(ピクセル)・横u(ピクセル)の画素を有する。単位画素の偏平率が1であれば、横の画素数(u)は、縦の画素数(v)の2倍の画素数になる。画像の中心を原点とする2次元座標を定義する。
18 to 20 are diagrams for explaining the process of correcting the distortion of the omnidirectional image.
FIG. 18 shows the pixel configuration of the omnidirectional image. If this omnidirectional image is in the equirectangular projection, the aspect ratio of the omnidirectional image is 1:2. This omnidirectional image has pixels of vertical v (pixels) and horizontal u (pixels). If the aspect ratio of a unit pixel is 1, the number of horizontal pixels (u) is twice the number of vertical pixels (v). Define two-dimensional coordinates with the center of the image as the origin.

全周囲画像内の任意の点PPの位置(u1,v1)を、下記の式(1)により極座標(r、θ、φ)に変換できる。 The position (u1, v1) of any point PP in the omnidirectional image can be converted to polar coordinates (r, θ, φ) by the following equation (1).

θ=(u1/u)x360
φ=(v1/v)x360 ・・・(1)
θ=(u1/u)×360
φ=(v1/v)×360 (1)

球の半径rを単位量にすることで、全周囲画像内の任意の点Pの位置(θ,φ)を、下記の式(2)に示すようにベクトルの式で示すことができる。 By making the radius r of the sphere a unit quantity, the position (θ, φ) of an arbitrary point P in the omnidirectional image can be represented by a vector equation as shown in Equation (2) below.

PP=kP
PP=[u1 v1]
k=[(360/u) (360/v)]
P=[θ φ]
・・・(2)
PP = kP
PP=[u1 v1] T
k = [(360/u) (360/v)]
P = [θ φ] T
... (2)

図19に、空間モデルMを示す球に射影された全周囲画像を、表示画像に射影する場合を例示する。
図19(a)は、空間モデルMを示す球と表示画像が射影される面(以下、表示面という。)を接するように配置した状態を示す。この図に示す例では、球が表示面にその原点O(0、0)で接している。空間モデルMを示す球上の点P(θ、φ)は、表示面上の点PP(x、y)に射影される。
図19(b)は、図19(a)に示す状態を、表示面のy軸方向に沿って球の上方、つまり球の極方向から平面視した図である。同図からも明らかなように、xは、θの関数になる。その関係を式(3)に示す。
FIG. 19 illustrates a case where the omnidirectional image projected onto the sphere representing the space model M is projected onto the display image.
FIG. 19(a) shows a state in which a sphere representing the space model M and a plane onto which a display image is projected (hereinafter referred to as a display plane) are arranged so as to be in contact with each other. In the example shown in this figure, the sphere touches the display surface at its origin O(0,0). A point P(θ, φ) on the sphere representing the space model M is projected onto a point PP(x, y) on the display surface.
FIG. 19(b) is a plan view of the state shown in FIG. 19(a) from above the sphere along the y-axis direction of the display surface, that is, from the polar direction of the sphere. As is clear from the figure, x is a function of θ. The relationship is shown in Formula (3).

x=Atanθ ・・・(3) x=Atan θ (3)

上記の式(3)におけるAは、表示面に接する球の半径である。 A in the above equation (3) is the radius of the sphere in contact with the display surface.

図19(c)は、図19(a)に示す状態を、表示面のx軸方向に沿って球の側方、つまり球の極方向と直交する方向から見た立面図である。同図からも明らかなように、yは、φの関数になる。その関係を式(4)に示す。 FIG. 19(c) is an elevational view of the state shown in FIG. 19(a) viewed from the side of the sphere along the x-axis direction of the display surface, that is, from a direction orthogonal to the polar direction of the sphere. As is clear from the figure, y is a function of φ. The relationship is shown in Formula (4).

y=Atanφ ・・・(4) y=Atanφ (4)

図20に、空間モデルMを示す球が表示面の原点O以外で接する場合を例示する。図20は、図19(b)に示した状態から、+x軸方向にΔxだけ移動した点で球が接している状態を示す。この場合のxとθの関係を式(5)に示す。 FIG. 20 illustrates a case where the sphere representing the space model M touches other than the origin O of the display surface. FIG. 20 shows a state where the sphere is in contact at a point moved by Δx in the +x-axis direction from the state shown in FIG. 19(b). The relationship between x and θ in this case is shown in equation (5).

x=Atan(θ+θ) ・・・(5) x=Atan(θ 0 +θ) (5)

式(5)におけるθは、球の軸周りの回転角である。
同様に、図19(c)に示した状態から、+y軸方向にΔyだけ移動した点で球が接している場合のyとφの関係を式(6)に示す。
θ 0 in equation (5) is the rotation angle around the axis of the sphere.
Similarly, the relationship between y and φ when the sphere touches at a point moved by Δy in the +y-axis direction from the state shown in FIG. 19C is shown in Equation (6).

y=Atan(φ+φ) ・・・(6) y=Atan(φ 0 +φ) (6)

式(6)におけるφは、球をx軸方向に平行な軸周りに回転した際の回転角である。 φ 0 in equation (6) is the rotation angle when the sphere is rotated around an axis parallel to the x-axis direction.

上記の通り、本実施形態で示した関係式を利用することにより、全周囲画像上の位置を、表示面に射影することができる。この処理により、全周囲画像の歪を補正した画像を算術的な方法で補正することができる。 As described above, by using the relational expressions shown in this embodiment, the positions on the omnidirectional image can be projected onto the display surface. By this processing, the distortion-corrected image of the omnidirectional image can be corrected by an arithmetic method.

上記の実施形態によれば、第1の実施形態と共通する効果を奏することの他に、実空間における周囲画像と仮想空間における仮想空間画像とを、空間モデルMの射影面を利用しないで関連付けることができる。 According to the above-described embodiment, in addition to the effects common to those of the first embodiment, the surrounding image in the real space and the virtual space image in the virtual space are associated without using the projection plane of the space model M. be able to.

少なくとも上記の何れかの実施形態によれば、情報提供支援装置400は、実空間における観測点の周囲の状況を示す周囲画像を取得する実画像取得部(指定情報取得部421と周囲画像取得部422)と、その周囲画像を表示する表示領域と仮想空間画像を表示する表示領域のそれぞれに共通する領域が含まれる表示画像をBIM300に生成させる表示制御部423と、を備えるようにしたことにより、より簡易な方法で、ある位置の周囲の状況を共有可能にする。
また、表示制御部423は、実空間における観測点に対応する3次元仮想空間における基準点Rの位置と基準点Rの周りに設けられた射影面Sを見込む位置VPの双方が所定の範囲内に収まるように、基準点Rの位置と射影面Sを見込む位置VPの3次元仮想空間における位置を調整し、射影面Sに射影された周囲画像と3次元仮想空間における仮想構造物を示す仮想空間画像とを対応付けて、その対応付けた周囲画像を表示する表示領域と前記仮想空間画像を表示する表示領域のそれぞれに共通する領域が含まれる表示画像を画像生成部に生成させる。これにより、より簡易な方法で、ある位置の周囲の状況を共有可能にする。
According to at least one of the above embodiments, the information provision support device 400 includes a real image acquisition unit (designated information acquisition unit 421 and surrounding image acquisition unit 422), and a display control unit 423 that causes the BIM 300 to generate a display image including an area common to the display area for displaying the surrounding image and the display area for displaying the virtual space image. , allows sharing of the surroundings of a location in a simpler way.
Further, the display control unit 423 controls whether both the position of the reference point R in the three-dimensional virtual space corresponding to the observation point in the real space and the position VP on which the projection plane S provided around the reference point R is viewed are within a predetermined range. , the position of the reference point R and the position VP looking into the projection plane S in the three-dimensional virtual space are adjusted so that the surrounding image projected onto the projection plane S and the virtual structure in the three-dimensional virtual space are shown. space image, and causes the image generation unit to generate a display image including an area common to the display area displaying the associated surrounding image and the display area displaying the virtual space image. This makes it possible to share the surroundings of a location in a simpler way.

また、上記の実施形態によれば、BIM300に登録する情報は、3Dモデルとして利用する範囲の概略の情報であってよい。これにより、ユーザは、3Dモデルとして利用するのに必要とされる最小限の情報を作図するだけで、詳細な情報まで作図するのと同等の効果が得られる。 Further, according to the above-described embodiment, the information registered in the BIM 300 may be general information about the range to be used as the 3D model. As a result, the user can obtain the same effect as drawing detailed information only by drawing the minimum information required to use it as a 3D model.

また、上記の実施形態によれば、情報提供支援装置400は、実空間の現実の状態を、実空間で撮影した画像として取得する。情報提供支援装置400が3Dモデルにその画像を重ねた画像を提供することにより、ユーザは、3Dモデルとしてモデリングされた結果だけの情報よりも、現実の状態の見落としや思い込みを低減できる。 Further, according to the above embodiment, the information provision support device 400 acquires the actual state of the real space as an image captured in the real space. By providing an image in which the image is superimposed on the 3D model by the information provision support device 400, the user can reduce oversight and prejudice of the actual state compared to the information only as a result of modeling as the 3D model.

また、上記の実施形態によれば、BIM300は、3Dモデルに寸法や、構成品の種別情報などの情報を付与する。情報可視化システム1は、実空間の現実の状態をBIM300上で容易に対比できるようにする。これにより、BIM300を利用する各種業務の効率を高めることができる。BIM300を利用する各種業務には、例えば、設計業務、監理業務、管理業務、数量算定などの積算業務などの寸法を利用する業務が含まれる。 Further, according to the above embodiment, the BIM 300 provides the 3D model with information such as dimensions and component type information. The information visualization system 1 makes it possible to easily compare the actual state of the real space on the BIM 300 . As a result, the efficiency of various tasks using the BIM 300 can be improved. The various types of work using the BIM 300 include, for example, design work, supervision work, management work, and work that uses dimensions, such as estimation work such as quantity calculation.

また、上記の実施形態によれば、情報可視化システム1は、実空間の現実の状態を反映したパース図(俯瞰図)を作成する。BIM300が、上記の空間モデルMを利用して、観測点の周囲画像の一部又は全部に基づいたパース図を作成することで、実空間の現実の状態を客観的に容易に判別できるようになる。 Further, according to the above embodiment, the information visualization system 1 creates a perspective view (bird's-eye view) that reflects the actual state of the real space. The BIM 300 uses the above space model M to create a perspective view based on part or all of the surrounding image of the observation point, so that the actual state of the real space can be objectively and easily determined. Become.

さらに、そのパース図によって、直感的に理解しやすい情報を提供することが可能になる。特に、対象範囲10内に既存物があり、新たに設ける計画物と既存物との関係を示す場合などに有効である。上記のパース図によれば、計画物(新設物)と既存物との干渉が明らかになる。また、上記のパース図は、既存物を撤去する際にも、撤去後の状態を検討するうえで必要な情報をユーザに提供する。
例えば、設計者は、計画物(新設物)と既存物との干渉が無いように調整した後に、その計画を決定する。その計画を実施する場合の積算処理が必要とされる場合には、積算処理制御部426が、指定の範囲の積算処理をBIM300に実施させてもよい。その場合、表示制御部423は、その結果を取得して、積算情報414に追加する。
Furthermore, the perspective view makes it possible to provide intuitively understandable information. In particular, it is effective when there is an existing object within the target range 10 and the relationship between the new planned object and the existing object is indicated. According to the perspective view above, the interference between the plan (new construction) and the existing construction becomes clear. Also, the above perspective view provides the user with necessary information for examining the state after removal even when the existing object is removed.
For example, the designer determines the plan after making adjustments so that there is no interference between the planned object (new object) and the existing object. If integration processing is required to implement the plan, the integration processing control unit 426 may cause the BIM 300 to perform integration processing within a specified range. In that case, the display control unit 423 acquires the result and adds it to the integration information 414 .

さらに、上記のパース図は、対象範囲10の管理者、利用者などに上記の関係を示す場合などの説明用資料として適している。管理者、利用者などの説明を受ける説明会参加者にも説明が理解しやすくなり、その説明を納得してもらいやすくなる。また、説明会参加者が、質疑や議論の場に参加しやすくなり、その場で得られた説明会参加者の意見に基づいて、設計の改善を図ることが容易になる。 Furthermore, the above perspective view is suitable as an explanatory material for showing the above relationship to the administrator, user, etc. of the target range 10 . It becomes easier for the participants of the briefing session who receive the explanations from managers, users, etc., to understand the explanations, and to be easily convinced by the explanations. In addition, it becomes easier for the participants of the briefing to participate in questions and discussions, and it becomes easier to improve the design based on the opinions of the participants of the briefing obtained on the spot.

また、上記の実施形態によれば、対象範囲10の画像を撮像装置100により撮影するという簡易な作業により、対象範囲10の正確な情報を漏らさずに得ることが可能になる。
撮像装置100に対する比較例として、現場の状況を点群情報として取得するレーザスキャナが知られている。情報可視化システム1は、壁面などの状況などを取得する際などに、レーザスキャナなどの特殊な装置を利用することなく、撮像装置100を利用することで必要とされる情報を容易に得ることができる。なお、情報可視化システム1は、上記のように簡易な作業を提供するものであり、維持管理の業務に適用してもよい。
Further, according to the above-described embodiment, it is possible to obtain accurate information of the target range 10 without omission by a simple operation of capturing an image of the target range 10 with the imaging device 100 .
As a comparative example for the imaging device 100, a laser scanner is known that acquires the site situation as point group information. The information visualization system 1 can easily obtain necessary information by using the imaging device 100 without using a special device such as a laser scanner when acquiring the situation of a wall surface or the like. can. The information visualization system 1 provides simple work as described above, and may be applied to maintenance work.

なお、情報可視化システム1は、維持管理の業務の他、建物2に対する設計業務、監理業務、管理業務など以外の業務や用途に適用可能である。 In addition to maintenance work, the information visualization system 1 can be applied to work and applications other than design work, supervision work, and management work for the building 2 .

以上、本発明の実施形態について説明したが、図1に示す情報可視化システム1は、内部にコンピュータシステムを有している。そして、上述した処理に関する一連の処理の過程は、プログラムの形式でコンピュータ読み取り可能な記憶媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここで、コンピュータ読み取り可能な記憶媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリなどをいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。また、ここでいう「コンピュータシステム」とは、OSなども含むものとする。 Although the embodiment of the present invention has been described above, the information visualization system 1 shown in FIG. 1 has a computer system inside. A series of processes related to the above-described processes are stored in a computer-readable storage medium in the form of a program, and the above processes are performed by reading and executing this program by a computer. Here, computer-readable storage media include magnetic disks, magneto-optical disks, CD-ROMs, DVD-ROMs, semiconductor memories, and the like. Alternatively, the computer program may be distributed to a computer via a communication line, and the computer receiving the distribution may execute the program. In addition, the term "computer system" as used herein includes an OS and the like.

以上、本発明の一実施形態について説明したが、本発明の実施形態は上記のものに限定されない。例えば、各実施形態とその変形例に例示した手法は、例示した組合せ以外の組みにしてもよい。また、本発明の実施形態は、上記の実施形態を次のように変形したものとすることができる。
例えば、上記の実施形態では、本発明に関連する構成を便宜上、情報可視化システム1を、撮像装置100、端末装置200、BIM300、及び、情報提供支援装置400に分けて説明した。撮像装置100、端末装置200、BIM300、及び、情報提供支援装置400の分割を、上記に例示したものと変更してもよく、各装置同士を一体化してもよい。また、各装置に含まれる一部の構成を、他の装置の構成に含めて構成してもよい。
Although one embodiment of the present invention has been described above, the embodiment of the present invention is not limited to the above. For example, the methods exemplified in each embodiment and its modifications may be combined in combinations other than the exemplified combinations. Moreover, the embodiment of the present invention can be modified from the above embodiment as follows.
For example, in the above-described embodiments, the information visualization system 1 was divided into the imaging device 100, the terminal device 200, the BIM 300, and the information provision support device 400 for convenience of explanation of the configuration related to the present invention. The division of the imaging device 100, the terminal device 200, the BIM 300, and the information provision support device 400 may be changed from those illustrated above, and the respective devices may be integrated. Also, a part of the configuration included in each device may be included in the configuration of another device.

なお、図に示したデータ構造は説明を容易にするために表の形式にしたものを示しているが、データ構造の形式は他の形式であってもよい。 Note that the data structure shown in the figure is shown in a tabular format for ease of explanation, but the format of the data structure may be another format.

なお、上記の実施形態では、撮像装置100により撮影された実空間の画像を利用する方法について例示したが、これに代えて、建物などをモデル化した3次元モデルに基づいて生成された画像を利用してもよい。 In the above-described embodiment, the method of using the image of the real space captured by the imaging device 100 is exemplified. may be used.

なお、情報可視化システム1は、建物2に対する設計業務、管理業務など以外の業務や用途に適用可能である。 Note that the information visualization system 1 can be applied to tasks and uses other than design work and management work for the building 2 .

1 情報可視化システム、100 撮像装置、200 端末装置、300 BIM(画像生成部)、400 情報提供支援装置、410 記憶部、411 空間モデル情報、412 収集情報、413 見込む位置情報、414 積算情報、420 制御部、421 指定情報取得部、422 周囲画像取得部(実画像取得部)、423 表示制御部、424 位置導出部、426 積算処理制御部、427 出力処理部。 1 information visualization system, 100 imaging device, 200 terminal device, 300 BIM (image generation unit), 400 information provision support device, 410 storage unit, 411 space model information, 412 collected information, 413 expected position information, 414 integration information, 420 Control unit 421 Specified information acquisition unit 422 Surrounding image acquisition unit (actual image acquisition unit) 423 Display control unit 424 Position derivation unit 426 Integration processing control unit 427 Output processing unit.

Claims (10)

実空間における観測点の周囲にある対象物の状況を示す周囲画像を取得して、収集情報に追加する実画像取得部と、
前記実空間に対応する3次元仮想空間の情報が空間モデル情報に登録されていて、前記空間モデル情報から所望の空間モデルを選択し、選択された前記空間モデルに、前記収集情報から選択された周囲画像を合成し、前記合成した画像に前記3次元仮想空間における仮想構造物を示す仮想空間画像を対応付けて、前記対象物の状況を表示させる表示制御部と、
を備え、
前記収集情報には、
前記周囲画像の画像情報と、
前記空間モデルと前記周囲画像とを対応付ける識別情報と、
前記取得した周囲画像の日時の情報又は前記周囲画像が最新の情報であるか否かを示す情報と、が含まれる、
情報可視化システム。
a real image acquisition unit that acquires a surrounding image showing the situation of an object around an observation point in real space and adds it to collected information ;
Information of a three-dimensional virtual space corresponding to the real space is registered in the space model information, a desired space model is selected from the space model information, and the selected space model is selected from the collected information. a display control unit that synthesizes surrounding images, associates a virtual space image showing a virtual structure in the three-dimensional virtual space with the synthesized image , and displays the situation of the object;
with
The collected information includes:
image information of the surrounding image;
identification information that associates the spatial model with the surrounding image;
information indicating the date and time of the acquired surrounding image or information indicating whether the surrounding image is the latest information;
Information visualization system.
前記取得した周囲画像の日時の情報には、前記周囲画像の撮影日時の情報、又は前記周囲画像を格納した日時の情報が含まれる、
請求項1に記載の情報可視化システム。
The date and time information of the acquired surrounding image includes information on the shooting date and time of the surrounding image or information on the date and time when the surrounding image is stored.
The information visualization system according to claim 1.
前記表示制御部は、
前記観測点に対応する前記3次元仮想空間における基準点の位置と、前記基準点の周りに設けられた射影面を見込む位置とを一致させる
請求項1又は請求項2に記載の情報可視化システム。
The display control unit
3. The information visualization system according to claim 1, wherein a position of a reference point in the three-dimensional virtual space corresponding to the observation point is matched with a position on which a projection plane provided around the reference point is viewed.
前記表示制御部は、
前記基準点の位置と前記射影面を見込む位置とを一致させて、前記観測点に対応する空間モデルに前記周囲画像と前記仮想空間画像とを対応付ける
請求項3に記載の情報可視化システム。
The display control unit
4. The information visualization system according to claim 3, wherein the position of the reference point and the position from which the projection plane is viewed are matched, and the surrounding image and the virtual space image are associated with the space model corresponding to the observation point.
前記空間モデルは、前記基準点を基準に配置された球の球面と円筒の側面の少なくとも何れかを射影面として利用するように形成されている、
請求項4に記載の情報可視化システム。
The space model is formed so as to use at least one of a spherical surface of a sphere and a side surface of a cylinder arranged with reference to the reference point as a projection plane.
The information visualization system according to claim 4.
前記表示制御部は、
前記周囲画像と前記仮想空間画像の両方から所定の抽出条件に基づいて抽出した部分画像を重ねて表示させる、
請求項1から請求項5の何れか1項に記載の情報可視化システム。
The display control unit
overlapping and displaying partial images extracted based on predetermined extraction conditions from both the surrounding image and the virtual space image;
The information visualization system according to any one of claims 1 to 5.
実空間における観測点の周囲にある対象物の状況を示す周囲画像を取得して、収集情報に追加する実画像取得部と、a real image acquisition unit that acquires a surrounding image showing the situation of an object around an observation point in real space and adds it to collected information;
前記実空間に対応する3次元仮想空間の情報が空間モデル情報に登録されていて、前記空間モデル情報から所望の空間モデルを選択し、選択された前記空間モデルに、前記収集情報から選択された周囲画像を合成する表示制御部と、 Information of a three-dimensional virtual space corresponding to the real space is registered in the space model information, a desired space model is selected from the space model information, and the selected space model is selected from the collected information. a display control unit that synthesizes a surrounding image;
を備え、 with
前記収集情報には、 The collected information includes:
前記周囲画像の画像情報と、 image information of the surrounding image;
前記空間モデルと前記周囲画像とを対応付ける識別情報と、 identification information that associates the spatial model with the surrounding image;
前記取得した周囲画像の日時の情報又は前記周囲画像が最新の情報であるか否かを示す情報と、が含まれていて、 Information indicating the date and time of the acquired surrounding image or information indicating whether the surrounding image is the latest information,
前記合成した画像に前記3次元仮想空間における仮想構造物を示す仮想空間画像を対応付けて、前記対象物の状況を表示させる、 displaying the situation of the object by associating the synthesized image with a virtual space image showing a virtual structure in the three-dimensional virtual space;
情報可視化システム。 Information visualization system.
前記表示制御部は、 The display control unit
前記合成した画像に対応する前記3次元仮想空間における仮想構造物を示す仮想空間画像をBIM装置によって生成させる、 causing a BIM device to generate a virtual space image showing a virtual structure in the three-dimensional virtual space corresponding to the synthesized image;
請求項1から請求項7の何れか1項に記載の情報可視化システム。The information visualization system according to any one of claims 1 to 7.
実空間における観測点の周囲にある対象物の状況を示す周囲画像を取得して、収集情報に追加するステップと、
前記実空間に対応する3次元仮想空間の情報が空間モデル情報に登録されていて、前記空間モデル情報から所望の空間モデルを選択し、選択された前記空間モデルに、前記収集情報から選択された周囲画像を合成し、前記合成した画像に前記3次元仮想空間における仮想構造物を示す仮想空間画像を対応付けて、前記対象物の状況を表示させるステップと、
を含み、
前記収集情報には、
前記周囲画像の画像情報と、
前記空間モデルと前記周囲画像とを対応付ける識別情報と、
前記取得した周囲画像の日時の情報又は前記周囲画像が最新の情報であるか否かを示す情報と、が含まれる、
情報可視化方法。
Acquiring a surrounding image showing the situation of an object around the observation point in real space and adding it to the collected information ;
Information of a three-dimensional virtual space corresponding to the real space is registered in the space model information, a desired space model is selected from the space model information, and the selected space model is selected from the collected information. a step of synthesizing a surrounding image, associating a virtual space image showing a virtual structure in the three-dimensional virtual space with the synthesized image , and displaying the situation of the object;
including
The collected information includes:
image information of the surrounding image;
identification information that associates the spatial model with the surrounding image;
information indicating the date and time of the acquired surrounding image or information indicating whether the surrounding image is the latest information;
Information visualization method.
実空間における観測点の周囲にある対象物の状況を示す周囲画像を取得して、収集情報に追加するステップと、
前記実空間に対応する3次元仮想空間の情報が空間モデル情報に登録されていて、前記空間モデル情報から所望の空間モデルを選択し、選択された前記空間モデルに、前記収集情報から選択された周囲画像を合成し、前記合成した画像に前記3次元仮想空間における仮想構造物を示す仮想空間画像を対応付けて、前記対象物の状況を表示させるステップと、
をコンピュータに実行させるためのプログラムであって、
前記収集情報には、
前記周囲画像の画像情報と、
前記空間モデルと前記周囲画像とを対応付ける識別情報と、
前記取得した周囲画像の日時の情報又は前記周囲画像が最新の情報であるか否かを示す情報と、が含まれる、
プログラム
Acquiring a surrounding image showing the situation of an object around the observation point in real space and adding it to the collected information ;
Information of a three-dimensional virtual space corresponding to the real space is registered in the space model information, a desired space model is selected from the space model information, and the selected space model is selected from the collected information. a step of synthesizing a surrounding image, associating a virtual space image showing a virtual structure in the three-dimensional virtual space with the synthesized image , and displaying the situation of the object;
A program for causing a computer to execute
The collected information includes:
image information of the surrounding image;
identification information that associates the spatial model with the surrounding image;
information indicating the date and time of the acquired surrounding image or information indicating whether the surrounding image is the latest information;
program .
JP2021099574A 2016-11-17 2021-06-15 Information visualization system, information visualization method, and program Active JP7241812B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021099574A JP7241812B2 (en) 2016-11-17 2021-06-15 Information visualization system, information visualization method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016224308A JP2018081570A (en) 2016-11-17 2016-11-17 Information visualization system, information visualization method, and program
JP2021099574A JP7241812B2 (en) 2016-11-17 2021-06-15 Information visualization system, information visualization method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016224308A Division JP2018081570A (en) 2016-11-17 2016-11-17 Information visualization system, information visualization method, and program

Publications (2)

Publication Number Publication Date
JP2021152935A JP2021152935A (en) 2021-09-30
JP7241812B2 true JP7241812B2 (en) 2023-03-17

Family

ID=62197822

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016224308A Pending JP2018081570A (en) 2016-11-17 2016-11-17 Information visualization system, information visualization method, and program
JP2021099574A Active JP7241812B2 (en) 2016-11-17 2021-06-15 Information visualization system, information visualization method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016224308A Pending JP2018081570A (en) 2016-11-17 2016-11-17 Information visualization system, information visualization method, and program

Country Status (1)

Country Link
JP (2) JP2018081570A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018081570A (en) * 2016-11-17 2018-05-24 株式会社Nttファシリティーズ Information visualization system, information visualization method, and program
CN111538414B (en) * 2020-04-28 2021-06-11 北京航空航天大学 Maintenance visual automatic judgment method and system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052152A (en) 1999-08-17 2001-02-23 Canon Inc Method and device for composing image, and storage medium
JP2012065329A (en) 2011-10-18 2012-03-29 Fujifilm Corp Image display device, image display method, and image display program
JP2013149042A (en) 2012-01-18 2013-08-01 Hitachi Plant Technologies Ltd Facility maintenance management system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011150508A (en) * 2010-01-21 2011-08-04 Taisei Corp Facility management support device and method
JP6374754B2 (en) * 2014-10-14 2018-08-15 日本放送協会 Image composition apparatus and program thereof
JP2018081570A (en) * 2016-11-17 2018-05-24 株式会社Nttファシリティーズ Information visualization system, information visualization method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001052152A (en) 1999-08-17 2001-02-23 Canon Inc Method and device for composing image, and storage medium
JP2012065329A (en) 2011-10-18 2012-03-29 Fujifilm Corp Image display device, image display method, and image display program
JP2013149042A (en) 2012-01-18 2013-08-01 Hitachi Plant Technologies Ltd Facility maintenance management system

Also Published As

Publication number Publication date
JP2021152935A (en) 2021-09-30
JP2018081570A (en) 2018-05-24

Similar Documents

Publication Publication Date Title
JP7231306B2 (en) Method, Apparatus and System for Automatically Annotating Target Objects in Images
JP6951595B2 (en) Housing data collection and model generation methods
US11051000B2 (en) Method for calibrating cameras with non-overlapping views
KR101871764B1 (en) Industrial infrastructure management platform building system based on virtual reality
JP7241812B2 (en) Information visualization system, information visualization method, and program
WO2017203710A1 (en) Three-dimensional model generation system, three-dimensional model generation method, and program
JP2006053694A (en) Space simulator, space simulation method, space simulation program and recording medium
JP2007072537A (en) 360-degree image photographing device
JPWO2017203709A1 (en) 3D model generation system, 3D model generation method, and program
JP2010109783A (en) Electronic camera
WO2020001039A1 (en) System and method for multi-user augmented reality shopping
JP2010287174A (en) Furniture simulation method, device, program, recording medium
WO2020075252A1 (en) Information processing device, program, and information processing method
US11922568B2 (en) Finite aperture omni-directional stereo light transport
JP6854631B2 (en) Information visualization system, information visualization method, and program
Rodríguez‐Gonzálvez et al. A hybrid approach to create an archaeological visualization system for a Palaeolithic cave
JP7133900B2 (en) Shooting position specifying system, shooting position specifying method, and program
WO2023088127A1 (en) Indoor navigation method, server, apparatus and terminal
CN114089836B (en) Labeling method, terminal, server and storage medium
JP6817736B2 (en) Information sharing support system, information sharing support method, and program
Bui et al. Integrating videos with LIDAR scans for virtual reality
Wahbeh et al. Toward the Interactive 3D Modelling Applied to Ponte Rotto in Rome
JP7439398B2 (en) Information processing equipment, programs and information processing systems
JP7045863B2 (en) Information management system, information management method, and program
CN112652005A (en) Method and system for generating three-dimensional pattern

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210713

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230307

R150 Certificate of patent or registration of utility model

Ref document number: 7241812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150