JP2024039070A - Feature management system - Google Patents

Feature management system Download PDF

Info

Publication number
JP2024039070A
JP2024039070A JP2024010759A JP2024010759A JP2024039070A JP 2024039070 A JP2024039070 A JP 2024039070A JP 2024010759 A JP2024010759 A JP 2024010759A JP 2024010759 A JP2024010759 A JP 2024010759A JP 2024039070 A JP2024039070 A JP 2024039070A
Authority
JP
Japan
Prior art keywords
feature
point cloud
dimensional
cloud data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024010759A
Other languages
Japanese (ja)
Inventor
成典 田中
Shigenori Tanaka
健二 中村
Kenji Nakamura
龍一 今井
Ryuichi Imai
義典 塚田
Yoshinori Tsukada
喜政 梅▲原▼
Yoshimasa Umehara
順俊 平野
Yoritoshi Hirano
庄治 大月
Shoji Otsuki
恭介 田中
Kyosuke Tanaka
義和 川村
Yoshikazu Kawamura
博 楠本
Hiroshi Kusumoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Insiek Co Ltd
Intelligent Style Co Ltd
Original Assignee
Nippon Insiek Co Ltd
Intelligent Style Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Insiek Co Ltd, Intelligent Style Co Ltd filed Critical Nippon Insiek Co Ltd
Priority to JP2024010759A priority Critical patent/JP2024039070A/en
Publication of JP2024039070A publication Critical patent/JP2024039070A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system capable of efficiently managing features.
SOLUTION: A captured image of a feature imaged by a camera 244 of a mobile terminal device 240 is transmitted to a server device 210 by image transmitting means 242. At this time, if the camera 244 has an imaging position addition function, an imaging position (position by absolute coordinates) is also transmitted to the server device 210. Receiving means 216 of the server device 210 receives the captured image and the imaging position. Based on the imaging position, two-dimensional projection image generating means 218 generates two-dimensional projection images for a plurality of angles when viewing surrounding three-dimensional point cloud data from the imaging position. Comparison means 220 selects a two-dimensional projection image that best matches the received captured image from among the plurality of generated two-dimensional projection images. As a result, the captured image of the feature is recorded in association with the feature of the selected two-dimensional projection image.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2024,JPO&INPIT

Description

この発明は、地物を計測した点群データを用いた地物管理システムに関するものである。 The present invention relates to a feature management system using point cloud data obtained by measuring features.

無人航空機(UAV)や自動車などにレーザ測量装置を搭載し、地表面の形状や地物を計測することが行われている。たとえば、自動車を用いたMMS(モービル・マッピング・システム)では、自動車の天井にGPS受信機、動画撮像カメラ、IMU、レーザスキャナを搭載し、自動車によって道路などを走行しながら計測を行う。動画撮像カメラは、アナログ、ディジタルどちらでもよい。 BACKGROUND ART Laser surveying devices are mounted on unmanned aerial vehicles (UAVs), automobiles, and the like to measure the shape of the ground surface and terrestrial features. For example, in an MMS (mobile mapping system) using a car, a GPS receiver, a video camera, an IMU, and a laser scanner are mounted on the ceiling of the car, and measurements are taken while the car is driving on a road. The video camera may be either analog or digital.

このような計測によって、地表面や地物外形を示す三次元点群データを得ることができる。GPSによって得た位置およびレーザスキャナの走査方向と距離によって、それぞれの三次元点群データには、絶対座標(平面直角座標、緯度・経度・標高など)による位置が付されている。また、動画撮像カメラによって地表面や地物が撮像されて動画データ(静止画データ)が生成される。この動画データには、刻々と変化する撮像位置が紐付けられて記録される。 Through such measurements, it is possible to obtain three-dimensional point cloud data indicating the ground surface and the contours of features. Based on the position obtained by GPS and the scanning direction and distance of the laser scanner, each three-dimensional point group data is assigned a position in absolute coordinates (plane rectangular coordinates, latitude, longitude, altitude, etc.). Further, the ground surface and terrestrial features are imaged by a video camera to generate video data (still image data). This moving image data is recorded in association with a constantly changing imaging position.

三次元点群データを得ることで、地表面や地物の現状を知ることができ、保守、地図作成などに役立てることができる。 Obtaining 3D point cloud data allows us to know the current state of the ground surface and features, which can be useful for maintenance, map creation, etc.

発明者らは、三次元点群データ中の地物に対して、その領域を絶対座標で示すデータや名称などを含む属性データを付与することを提唱している。 The inventors have proposed that attribute data, including data indicating the area in absolute coordinates, a name, etc., be assigned to features in three-dimensional point cloud data.

しかしながら、上記属性データによって、標準化が進みデータ蓄積の豊富化が進んでいるが、その一方で、当該属性データを保守等に利用する際に、効率良く地物を管理することのできるシステムが望まれている。たとえば、各地物の外観を撮像した写真を適切に管理することが望まれている。 However, although the above attribute data has been standardized and data has become more abundant, it is desirable to have a system that can efficiently manage features when using the attribute data for maintenance, etc. It is rare. For example, it is desired to appropriately manage photographs taken of the appearance of each feature.

この発明は、上記のような問題点を解決して、地物を効率よく管理することのできるシステムを提供することを目的とする。 An object of the present invention is to provide a system that can solve the above-mentioned problems and efficiently manage terrestrial features.

この発明の独立して適用可能な特徴を以下に列挙する。 The independently applicable features of the invention are listed below.

(1)(2)(3)この発明に係る地物管理システムは、サーバ装置と前記サーバ装置と通信可能な端末装置とを備えた地物管理システムであって、前記サーバ装置は、位置の定義された地物を含む三次元点群データを記録する記録部と、前記端末装置から送信されてきた地物を含む撮像画像と撮像位置を受信する受信手段と、前記受信した撮像位置を中心として、前記三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記受信した地物を含む撮像画像と前記生成された各二次元投影画像との比較に基づいて、地物の撮像画像と地物の三次元点群データとを対応付ける撮像画像・点群データ対応手段とを備え、前記端末装置は、カメラによって撮像された地物を含む撮像画像を撮像位置とともに地物管理サーバ装置に送信する画像送信手段とを備えたことを特徴としている。 (1)(2)(3) A feature management system according to the present invention is a feature management system comprising a server device and a terminal device capable of communicating with the server device, wherein the server device is configured to a recording unit that records three-dimensional point cloud data including defined features; a receiving unit that receives a captured image including the features and an imaging position transmitted from the terminal device; The three-dimensional point cloud data is projected onto a plane from different angles to generate two-dimensional projected images from a plurality of angles, and the captured image including the received feature and each of the generated two-dimensional projected images are generated. The terminal device includes a captured image/point cloud data correspondence means for associating a captured image of the feature with three-dimensional point cloud data of the feature based on a comparison with the feature, the terminal device including the feature imaged by the camera. The present invention is characterized by comprising an image transmitting means for transmitting the captured image together with the captured position to the feature management server device.

したがって、地物の三次元点群データに対応付けて、当該地物を撮像した写真を記録しておくことができる。 Therefore, a photograph of the feature can be recorded in association with the three-dimensional point cloud data of the feature.

(4)この発明に係る地物管理システムは、撮像画像・点群データ対応手段が、前記撮像画像中の地物の外形形状を示す撮像画像外形形状生成手段と、前記各二次元投影画像中の地物の外形形状を示す二次元投影画像外形形状生成手段と、前記撮像画像中の地物の外形形状と前記各二次元投影画像中の地物の外形形状を比較して、外形形状が合致する二次元投影画像を選択し、地物の撮像画像と地物の三次元点群データとを対応付ける手段とを備えることを特徴としている。 (4) In the feature management system according to the present invention, the captured image/point cloud data correspondence means includes a captured image outer shape generating means that indicates the outer shape of the feature in the captured image, and a captured image outer shape generating means that indicates the outer shape of the feature in the captured image; A two-dimensional projection image outer shape generation means that shows the outer shape of the feature in the captured image and the outer shape of the feature in each of the two-dimensional projection images are compared to determine the outer shape. The present invention is characterized by comprising means for selecting a matching two-dimensional projection image and associating the captured image of the feature with the three-dimensional point cloud data of the feature.

したがって、角度によって変化が明確な外形形状を用いることで、マッチング処理を容易に行うことができる。 Therefore, by using an external shape that clearly changes depending on the angle, matching processing can be easily performed.

(5)この発明に係る地物管理システムは、サーバ装置の記録部は、地物の外形を囲った外形領域、地物名を記録しており、前記撮像画像・点群データ対応手段は、前記撮像画像中から地物部分を抽出して地物名を推定する地物推定手段を有し、前記受信した撮像位置を中心として、推定した地物名と同じ地物名を有する地物の三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記受信した地物部分の撮像画像と前記生成された各二次元投影画像との比較に基づいて、地物の撮像画像と地物の三次元点群データとを対応付けることを特徴としている。 (5) In the feature management system according to the present invention, the recording unit of the server device records the outer shape area surrounding the outer shape of the feature and the feature name, and the captured image/point cloud data correspondence means: a feature estimation means for extracting a feature part from the captured image and estimating a feature name; The three-dimensional point cloud data is projected onto a plane from different angles to generate two-dimensional projected images from a plurality of angles, and the received captured image of the feature portion is compared with each of the generated two-dimensional projected images. The feature is that a captured image of a feature is associated with three-dimensional point cloud data of the feature based on the following.

したがって、所定の地物のみを対象としてマッチングを行うことができ、その精度を高めることができる。 Therefore, matching can be performed only on predetermined terrestrial features, and the accuracy can be improved.

(6)この発明に係る地物管理システムは、サーバ装置の記録部は、地物の外形を囲った外形領域、地物名を記録しており、前記端末装置の画像送信手段は、操作者の入力を受けて、撮像画像中の地物のバウンダリボックスおよび地物名を付与してサーバ装置に送信し、前記撮像画像・点群データ対応手段は、前記受信した撮像位置を中心として、送信されてきた地物名と同じ地物名を有する地物の三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記受信した地物部分の撮像画像と前記生成された各二次元投影画像との比較に基づいて、地物の撮像画像と地物の三次元点群データとを対応付けることを特徴としている。 (6) In the feature management system according to the present invention, the recording unit of the server device records the outer shape area surrounding the outer shape of the feature and the feature name, and the image transmitting means of the terminal device In response to the input, the boundary box and feature name of the feature in the captured image are added to the server device, and the captured image/point cloud data correspondence means transmits the data centering on the received imaging position. The three-dimensional point cloud data of a feature having the same feature name as the received feature name is projected onto a plane from different angles to generate two-dimensional projected images from a plurality of angles, and the received feature portion is The method is characterized in that the captured image of the feature is associated with the three-dimensional point cloud data of the feature based on a comparison between the captured image and each of the generated two-dimensional projection images.

したがって、所定の地物のみを対象としてマッチングを行うことができ、その精度を高めることができる。 Therefore, matching can be performed only on predetermined terrestrial features, and the accuracy can be improved.

(7)この発明に係る地物管理システムは、撮影画像・点群データ対応手段が、前記撮像位置の近傍に仮想撮像位置を複数個生成し、各仮想撮像位置を基準として三次元点群データを平面投影した二次元投影画像を生成することを特徴としている。 (7) In the feature management system according to the present invention, the captured image/point cloud data correspondence means generates a plurality of virtual imaging positions in the vicinity of the imaging position, and uses each virtual imaging position as a reference to generate three-dimensional point cloud data. It is characterized by generating a two-dimensional projection image that is a two-dimensional projection image.

したがって、より正確に撮像位置を特定することができる。 Therefore, the imaging position can be specified more accurately.

(8)この発明に係る地物管理システムは、撮影画像・点群データ対応手段が、地物に対する撮像位置および撮像方向も特定することを特徴としている。 (8) The feature management system according to the present invention is characterized in that the photographed image/point cloud data correspondence means also specifies the imaging position and imaging direction with respect to the feature.

したがって、撮像位置だけでなく撮像方向も特定し、この情報を利用することができる。 Therefore, not only the imaging position but also the imaging direction can be specified and this information can be used.

(9)この発明に係る地物管理システムは、端末装置から送信される地物の撮影画像には、撮像方向も付されており、前記撮影画像・点群データ対応手段は、前記撮影方向に基づいて、前記二次元投影画像を生成する角度を絞り込むことを特徴としている。 (9) In the feature management system according to the present invention, an imaging direction is also attached to a photographed image of a feature transmitted from a terminal device, and the photographed image/point cloud data correspondence means The present invention is characterized in that the angle at which the two-dimensional projection image is generated is narrowed down based on the above-described method.

したがって、マッチング処理を迅速化することができる。 Therefore, matching processing can be speeded up.

(10)この発明に係る地物管理システムは、三次元点群データ、前記属性データの外形領域は、絶対座標にて示されることを特徴としている。 (10) The feature management system according to the present invention is characterized in that the three-dimensional point cloud data and the external shape area of the attribute data are indicated in absolute coordinates.

したがって、属性データと三次元点群データとを独立して記録することができ、三次元点群データから生成した属性データを他の三次元点群データのために用いることができる。 Therefore, attribute data and three-dimensional point group data can be recorded independently, and attribute data generated from three-dimensional point group data can be used for other three-dimensional point group data.

(11)この発明に係る地物管理システムは、地物抽出手段が、過去の地物の撮像位置と撮像方向に基づいて、地物の外形領域データまたは地物の三次元点群データを平面に投影し、過去二次元投影画像を生成して、これを第2の端末装置に送信し、当該第2の端末装置は、カメラによる撮像の際に、カメラのファインダー画像に前記位置二次元投影画像を重ねて表示することを特徴としている。 (11) In the feature management system according to the present invention, the feature extraction means extracts external shape area data of the feature or three-dimensional point cloud data of the feature based on the past imaging position and imaging direction of the feature. , generates a past two-dimensional projected image, and transmits it to a second terminal device, and when the second terminal device takes an image with the camera, the second terminal device displays the two-dimensional projected image of the position on the finder image of the camera. It is characterized by displaying images in an overlapping manner.

したがって、過去の撮像時と同じ位置同じ角度から地物を撮像することが容易となる。 Therefore, it becomes easy to image the terrestrial feature from the same position and angle as in the past image capturing.

(12)この発明に係る地物管理システムは、サーバ装置が、前記三次元点群データを記録する点群データサーバ装置と、前記外形領域を含む属性データを記録する属性データサーバ装置とを備えることを特徴としている。 (12) In the feature management system according to the present invention, the server device includes a point cloud data server device that records the three-dimensional point cloud data, and an attribute data server device that records attribute data including the external shape area. It is characterized by

したがって、独立して属性データを記録する属性データサーバ装置を設け、これを利用することができる。 Therefore, it is possible to provide and utilize an attribute data server device that records attribute data independently.

(13)この発明に係る地物管理システムは、地物を含む撮像画像を撮像した際の撮像位置を中心として、前記三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記撮像画像と前記生成された各二次元投影画像との比較に基づいて、地物の撮像画像と地物の三次元点群データとを対応付けることを特徴としている。 (13) The feature management system according to the present invention projects the three-dimensional point cloud data onto a plane from different angles, centering on the imaging position at which the captured image including the feature is captured, and from a plurality of angles. A two-dimensional projection image of the feature is generated, and the captured image of the feature is associated with three-dimensional point cloud data of the feature based on a comparison between the captured image and each of the generated two-dimensional projection images. There is.

したがって、地物の三次元点群データに対応付けて、当該地物を撮像した写真を記録しておくことができる。 Therefore, a photograph of the feature can be recorded in association with the three-dimensional point cloud data of the feature.

(14)(15)(16)この発明に係る地物管理システムは、サーバ装置が、位置の定義された第1領域および第2領域の区別がなされた三次元点群データを記録する記録部と、前記端末装置から送信されてきた第1領域および第2領域を含む撮像画像と撮像位置を受信する受信手段と、前記撮像画像に基づいて、第1領域および第2領域を他の部分から区別して抽出する領域推定手段と、前記受信した撮像位置を中心として、第1領域および第2領域の区別された前記三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記第1領域および第2領域の区別された撮像画像と前記生成された各二次元投影画像との比較に基づいて、撮影画像と三次元点群データとを対応付ける撮像画像・点群データ対応手段とを備え、前記端末装置は、カメラによって撮像された第1領域および第2領域を含む撮像画像を撮像位置とともに地物管理サーバ装置に送信する画像送信手段とを備えたことを特徴としている。 (14)(15)(16) In the feature management system according to the present invention, the server device has a recording unit that records three-dimensional point cloud data in which a first area and a second area in which positions are defined are distinguished. a receiving means for receiving a captured image including a first area and a second area and an image capturing position transmitted from the terminal device; a region estimating means for distinguishing and extracting, and a plane projection of the differentiated three-dimensional point group data of the first region and the second region centering on the received imaging position from different angles, and A two-dimensional projection image is generated, and the captured image is associated with three-dimensional point cloud data based on a comparison between the differentiated captured images of the first region and the second region and each of the generated two-dimensional projection images. The terminal device includes a captured image/point cloud data correspondence means, and the terminal device includes an image transmitting means for transmitting the captured image including the first area and the second area captured by the camera to the feature management server device together with the captured position. It is characterized by the fact that it is equipped with

したがって、地物全体ではなくその一部である部分的な領域しか撮像されていなくとも、撮像位置や方向を特定することができる。 Therefore, even if only a partial area of a part of the terrestrial feature is imaged instead of the entire terrestrial feature, the imaging position and direction can be specified.

(17)(18)(19)この発明に係る地物管理システムは、サーバ装置が、地物を含む三次元点群データおよび過去の撮像位置、撮像方向を記録する記録部と、前記過去の撮像位置、撮像方向に基づいて、地物の三次元点群データまたはその三次元モデルを平面に投影して過去二次元投影画像を生成し、端末装置に送信する過去二次元投影画像生成手段とを備え、端末装置が、地物を撮像するためのカメラのファインダー画像に、サーバ装置から受信した過去二次元投影画像を透過画像として重ねて表示部に表示する表示手段とを備えたことを特徴としている。 (17)(18)(19) In the feature management system according to the present invention, the server device includes a recording unit that records three-dimensional point cloud data including features, past imaging positions, and imaging directions; a past two-dimensional projected image generating means for generating a past two-dimensional projected image by projecting three-dimensional point cloud data of a feature or its three-dimensional model onto a plane based on an imaging position and an imaging direction, and transmitting the past two-dimensional projected image to a terminal device; characterized in that the terminal device is equipped with display means for displaying a past two-dimensional projected image received from the server device as a transparent image on a display unit superimposed on a finder image of a camera for imaging a terrestrial feature. It is said that

したがって、過去の画像を参照しながら撮像位置を合わせて、過去の撮像時と同じ位置・方向にて撮像を行うことができる。 Therefore, by adjusting the imaging position while referring to past images, it is possible to perform imaging at the same position and direction as in the past imaging.

(20)この発明に係る地物管理方法は、地物を含む三次元点群データおよび過去の撮像位置、撮像方向を記録しておき、前記過去の撮像位置、撮像方向に基づいて、地物の三次元点群データまたはその三次元モデルを平面に投影して過去二次元投影画像を生成し、カメラのファインダー画像に、過去二次元投影画像を重ねて表示することを特徴としている。 (20) The feature management method according to the present invention records three-dimensional point cloud data including features, past imaging positions, and imaging directions, and based on the past imaging positions and imaging directions, A past two-dimensional projected image is generated by projecting three-dimensional point cloud data or a three-dimensional model thereof onto a plane, and the past two-dimensional projected image is displayed superimposed on the camera's finder image.

したがって、過去の画像を参照しながら撮像位置を合わせて、過去の撮像時と同じ位置・方向にて撮像を行うことができる。 Therefore, by adjusting the imaging position while referring to past images, it is possible to perform imaging at the same position and direction as in the past imaging.

(21)(22)この発明に係る地物管理システムは、サーバ装置と当該サーバ装置と通信可能な携帯端末装置とを備えた地物管理システムであって、前記サーバ装置が、地物を含む三次元点群データおよび過去の撮像位置、撮像方向を記録する記録部と、撮像位置、撮像方向を端末装置に送信する送信手段とを備え、前記端末装置は、受信した撮像位置、撮像方向を、表示部において地図上に表示する表示手段を備えたことを特徴としている。 (21)(22) The feature management system according to the present invention is a feature management system comprising a server device and a mobile terminal device capable of communicating with the server device, wherein the server device includes a feature including a feature. The terminal device includes a recording unit that records three-dimensional point cloud data, past imaging positions, and imaging directions, and transmitting means that transmits the imaging positions and imaging directions to a terminal device, and the terminal device transmits the received imaging positions and imaging directions. The present invention is characterized in that the display unit includes display means for displaying on a map.

したがって、過去の撮像位置、撮像方向を容易に知ることができる。 Therefore, past imaging positions and imaging directions can be easily known.

(23)(24)(25)この発明に係る地物管理システムは、サーバ装置と当該サーバ装置と通信可能な端末装置とを備えた地物管理システムであって、前記サーバ装置は、道路表示地物を含む反射強度付きの三次元点群データおよび前記道路表示地物の外形を囲った外形領域データを記録しており、前記端末装置は、前記サーバ装置から前記道路表示地物の外形領域データを取得する外形領域データ取得手段と、当該道路表示地物の外形領域データに対応する三次元点群データを、前記サーバ装置から取得する三次元点群データ取得手段と、取得した道路表示地物の外形領域と三次元点群データとを重ねて表示部に表示する表示手段とを備えたことを特徴としている。 (23)(24)(25) A feature management system according to the present invention is a feature management system comprising a server device and a terminal device capable of communicating with the server device, wherein the server device includes a road display Three-dimensional point cloud data with reflection intensity including features and external shape area data surrounding the external shape of the road display feature are recorded, and the terminal device receives the external shape area of the road display feature from the server device. a contour area data acquisition means for acquiring data; a three-dimensional point cloud data acquisition means for acquiring three-dimensional point cloud data corresponding to the contour area data of the road display feature from the server device; The present invention is characterized by comprising display means for displaying an object's external shape area and three-dimensional point cloud data in a superimposed manner on a display section.

したがって、道路表示地物の劣化の程度を容易に判定することができる。 Therefore, the degree of deterioration of the road display feature can be easily determined.

(26)この発明に係る地物管理方法は、道路表示地物を含む反射強度付きの三次元点群データおよび前記道路表示地物の外形を囲った外形領域データを記録しておき、前記道路表示地物の外形領域データを取得し、当該道路表示地物の外形領域データに対応する三次元点群データを取得し、取得した道路表示地物の外形領域と三次元点群データとを重ねて表示部に表示することを特徴としている。 (26) The feature management method according to the present invention records three-dimensional point cloud data with reflection intensity including road display features and external shape area data surrounding the outer shape of the road display features, and Obtain the outer shape area data of the displayed feature, obtain 3D point cloud data corresponding to the outer shape region data of the road display feature, and overlap the obtained outer shape region of the road display feature with the 3D point cloud data. The feature is that the information is displayed on the display section.

したがって、道路表示地物の劣化の程度を容易に判定することができる。 Therefore, the degree of deterioration of the road display feature can be easily determined.

「受信手段」は、実施形態においては、ステップS602に対応して属性データサーバ装置60が行う処理がこれに対応する。 In the embodiment, the "receiving means" corresponds to the process performed by the attribute data server device 60 in response to step S602.

「撮像画像・点群データ対応手段」は、実施形態においては、ステップS701~S707がこれに対応する。 In the embodiment, the "captured image/point cloud data correspondence means" corresponds to steps S701 to S707.

「画像送信手段」は、実施形態においては、ステップS602がこれに対応する。 In the embodiment, the "image transmitting means" corresponds to step S602.

「外形領域データ取得手段」は、実施形態においては、ステップS651がこれに対応する。 In the embodiment, the "outline area data acquisition means" corresponds to step S651.

「三次元点群データ取得手段」は、実施形態においては、ステップS652がこれに対応する。 In the embodiment, the "three-dimensional point group data acquisition means" corresponds to step S652.

「表示手段」は、実施形態においては、ステップS653がこれに対応する。 In the embodiment, the "display means" corresponds to step S653.

「プログラム」とは、CPUにより直接実行可能なプログラムだけでなく、ソース形式のプログラム、圧縮処理がされたプログラム、暗号化されたプログラム等を含む概念である。 The term "program" is a concept that includes not only programs that can be directly executed by a CPU, but also programs in source format, compressed programs, encrypted programs, and the like.

この発明の一実施形態による地物管理システムの機能ブロック図である。FIG. 1 is a functional block diagram of a feature management system according to an embodiment of the present invention. 地物管理システムのシステム構成である。This is the system configuration of the feature management system. 携帯端末装置21のハードウエア構成である。This is the hardware configuration of the mobile terminal device 21. 属性サーバ装置60のハードウエア構成である。This is the hardware configuration of the attribute server device 60. 端末プログラムのフローチャートである。3 is a flowchart of a terminal program. 三次元点群データの例である。This is an example of three-dimensional point cloud data. 地盤点を検出するための処理を示す図である。It is a figure which shows the process for detecting a ground point. 地物の設計データの例である。This is an example of design data for features. 地物の平面図に三次元点群データを重ねた状態を示す図である。It is a diagram showing a state in which three-dimensional point cloud data is superimposed on a plan view of a feature. 地物の三次元点群データ例である。This is an example of three-dimensional point cloud data of a feature. 属性データの項目例である。This is an example of an item of attribute data. 地物の三次元点群データに基づいて地物名を推定する処理を説明するための図である。FIG. 3 is a diagram for explaining a process of estimating a feature name based on three-dimensional point cloud data of the feature. 地物管理処理のフローチャートである。It is a flowchart of feature management processing. 地物管理処理のフローチャートである。It is a flowchart of feature management processing. 地物管理処理のフローチャートである。It is a flowchart of feature management processing. ユーザによって撮像された地物の撮像画像である。This is a captured image of a feature taken by a user. 三次元点群データに基づいて生成した地物の三次元モデルを示す図である。FIG. 3 is a diagram showing a three-dimensional model of a feature generated based on three-dimensional point cloud data. 角度を変えて投影して生成した二次元投影画像の例である。This is an example of a two-dimensional projected image generated by projecting at different angles. 撮像画像から地物の輪郭を抽出した輪郭画像である。This is a contour image obtained by extracting the contour of a feature from a captured image. 二次元投影画像の地物の輪郭線に基づいて切り出した地物の撮像画像である。This is a captured image of a feature cut out based on the contour of the feature in a two-dimensional projection image. 撮像位置Pと仮想位置P1、P2・・・P23、P24を示す図である。It is a diagram showing an imaging position P and virtual positions P1, P2...P23, P24. ユーザによって地物がマークされた撮像画像を示す図である。FIG. 3 is a diagram showing a captured image in which features are marked by a user. カメラのファインダー画面に前回画像を重ねて表示した例である。This is an example of displaying the previous image superimposed on the camera's finder screen. 第2の実施形態による地物管理システムの機能ブロック図である。FIG. 2 is a functional block diagram of a feature management system according to a second embodiment. 地物管理処理のフローチャートである。It is a flowchart of feature management processing. センターラインの輝度つき三次元点群データと外形領域とを重ねて表示した状態を示す図である。FIG. 7 is a diagram showing a state in which three-dimensional point cloud data with brightness of a center line and an outline area are displayed in an overlapping manner. この発明の第3の実施形態による点群データ管理システムの機能ブロック図である。FIG. 3 is a functional block diagram of a point cloud data management system according to a third embodiment of the present invention. 点群データ管理システムのシステム構成である。This is the system configuration of a point cloud data management system. 端末装置のハードウエア構成である。This is the hardware configuration of the terminal device. 地物の三次元点群データの取得と三次元モデル生成のフローチャートである。It is a flowchart of acquiring three-dimensional point cloud data of a feature and generating a three-dimensional model. 地物の三次元点群データの取得と三次元モデル生成のフローチャートである。It is a flowchart of acquiring three-dimensional point cloud data of a feature and generating a three-dimensional model. 地物の外形形状の表示例である。This is an example of displaying the external shape of a feature. 図33Aは第1の方向からの地物の第1三次元点群データであり、図33Bは第2の方向からの地物の第2三次元点群データである。FIG. 33A is first three-dimensional point group data of a feature viewed from a first direction, and FIG. 33B is second three-dimensional point group data of a feature viewed from a second direction. 合成された三次元点群データである。This is synthesized three-dimensional point cloud data. 図35Aは生成された三次元モデルである。図35Bは、計測方向の表示例である。FIG. 35A shows the generated three-dimensional model. FIG. 35B is a display example of the measurement direction. 図36Aは第1三次元点群データ、図36Bは第2三次元点群データ、図36Cは合成三次元点群データである。36A shows the first three-dimensional point group data, FIG. 36B shows the second three-dimensional point group data, and FIG. 36C shows the composite three-dimensional point group data. 第4の実施形態による点群データ管理システムの機能ブロック図である。FIG. 3 is a functional block diagram of a point cloud data management system according to a fourth embodiment. 経時変化取得のためのフローチャートである。It is a flowchart for acquiring a change over time. 経時変化取得のためのフローチャートである。It is a flowchart for acquiring a change over time. 地物の経時変化の表示例である。This is an example of displaying changes in features over time. 日時の異なる三次元点群データの選択を求める画面例である。This is an example of a screen that requests selection of three-dimensional point cloud data with different dates and times. 第5の実施形態による地物検索システムの機能ブロック図である。It is a functional block diagram of a feature search system according to a fifth embodiment. 地物検索システムのシステム構成である。This is the system configuration of the feature search system. 地物検索のフローチャートである。It is a flowchart of feature search. 動画データの構成を示す図である。FIG. 3 is a diagram showing the structure of video data. 撮像エリアを示す図である。FIG. 3 is a diagram showing an imaging area. 動画抽出のフローチャートである。It is a flowchart of video extraction. 各時刻における撮像軌跡200と地物106との関係を示す図である。3 is a diagram showing the relationship between an imaging trajectory 200 and a terrestrial feature 106 at each time. FIG. 検索対象地物にマークが付された画像を示す図である。FIG. 13 is a diagram showing an image in which search target features are marked.

1.第1の実施形態
1.1全体構成
図1に、この発明の一実施形態による地物管理システムの全体構成を示す。サーバ装置210の記録部214には、地物を含む絶対座標による三次元点群データ222が記録されている。
1. First embodiment
1.1 Overall Configuration FIG. 1 shows the overall configuration of a feature management system according to an embodiment of the present invention. The recording unit 214 of the server device 210 records three-dimensional point group data 222 in absolute coordinates including terrestrial objects.

携帯端末装置240は、カメラ244を備えている。カメラ244によって撮像された地物の撮像画像は、画像送信手段242によってサーバ装置210に送信される。この際、カメラ244に撮像位置付加機能があれば当該撮像位置(絶対座標による位置)が併せてサーバ装置210に送信される。カメラ244にかかる機能がなければ、GPS等による撮像位置が付されてサーバ装置210に送信される。 The mobile terminal device 240 includes a camera 244. The captured image of the feature captured by the camera 244 is transmitted to the server device 210 by the image transmitting means 242. At this time, if the camera 244 has an imaging position addition function, the imaging position (position based on absolute coordinates) is also transmitted to the server device 210. If the camera 244 does not have such a function, it is sent to the server device 210 with an image capturing position by GPS or the like attached thereto.

サーバ装置210の受信手段216は、撮像画像および撮像位置を受信する。二次元投影画像生成手段218は、撮像位置に基づいて、当該撮像位置から周囲の三次元点群データを見た時の二次元投影画像を複数の角度について生成する。比較手段220は、生成された複数の二次元投影画像のうち、受信した撮像画像と最も良く合致する二次元投影画像を選択する。 The receiving means 216 of the server device 210 receives the captured image and the captured position. Based on the imaging position, the two-dimensional projection image generation means 218 generates two-dimensional projection images at a plurality of angles when viewing the surrounding three-dimensional point group data from the imaging position. The comparison unit 220 selects a two-dimensional projection image that best matches the received captured image from among the plurality of generated two-dimensional projection images.

これにより、当該撮像された地物の画像を選択された二次元投影画像の地物と対応付けて記録する。このようにして、三次元点群データに対し、外観状況などを示す撮像画像を関連づけて記録することができる。
As a result, the captured image of the feature is recorded in association with the feature of the selected two-dimensional projection image. In this way, the three-dimensional point cloud data can be recorded in association with a captured image showing the external appearance and the like.

1.2システム構成
図2に、一実施形態による点群データ管理システムのシステム構成を示す。この実施形態では、点群サーバ装置40a、40b・・・40nおよび属性データサーバ装置60によって、サーバ装置が構成されている。
1.2 System Configuration FIG. 2 shows the system configuration of a point cloud data management system according to one embodiment. In this embodiment, the point cloud server devices 40a, 40b, . . . , 40n and the attribute data server device 60 constitute a server device.

インターネット上には点群サーバ装置40a、40b・・・40nが設けられている。また、属性データサーバ装置60も設けられている。これらサーバ装置40a、40b・・・40n、60に、インターネットを介して通信可能に端末装置20a・・・20n、携帯端末装置20a・・・20nが設けられている。 Point cloud server devices 40a, 40b, . . . 40n are provided on the Internet. An attribute data server device 60 is also provided. These server devices 40a, 40b...40n, 60 are provided with terminal devices 20a...20n and mobile terminal devices 20a...20n so as to be able to communicate via the Internet.

携帯端末装置21のハードウエア構成を、図3に示す。CPU(GPU等でもよい。以下同じ)80には、メモリ82、タッチ・ディスプレイ84、不揮発性メモリ86、通信回路92、カメラ88、GPS受信機98が接続されている。通信回路92は、インターネットに接続するためのものである。携帯端末装置21としては、スマートフォン、タブレット、ウエアラブルコンピュータなどを用いることができる。 The hardware configuration of the mobile terminal device 21 is shown in FIG. A memory 82 , a touch display 84 , a nonvolatile memory 86 , a communication circuit 92 , a camera 88 , and a GPS receiver 98 are connected to the CPU (or a GPU or the like; the same applies hereinafter) 80 . The communication circuit 92 is for connecting to the Internet. As the mobile terminal device 21, a smartphone, a tablet, a wearable computer, etc. can be used.

不揮発性メモリ86には、オペレーティングシステム94、携帯端末プログラム96が記録されている。携帯端末プログラム96は、オペレーティングシステム94と協働してその機能を発揮するものである。 An operating system 94 and a mobile terminal program 96 are recorded in the nonvolatile memory 86. The mobile terminal program 96 cooperates with the operating system 94 to perform its functions.

属性データサーバ装置60のハードウエア構成を、図4に示す。CPU81には、メモリ83、ディスプレイ85、ハードディスク87、DVD-ROMドライブ89、キーボード/マウス91、通信回路93が接続されている。通信回路93は、インターネットに接続するためのものである。 The hardware configuration of the attribute data server device 60 is shown in FIG. A memory 83, a display 85, a hard disk 87, a DVD-ROM drive 89, a keyboard/mouse 91, and a communication circuit 93 are connected to the CPU 81. The communication circuit 93 is for connecting to the Internet.

ハードディスク87には、オペレーティングシステム95、属性サーバプログラム97が記録されている。属性サーバプログラム97は、オペレーティングシステム95と協働してその機能を発揮するものである。これらプログラムは、DVD-ROM99に記録されていたものを、DVD-ROMドライブ89を介して、ハードディスク87にインストールしたものである。 An operating system 95 and an attribute server program 97 are recorded on the hard disk 87. The attribute server program 97 cooperates with the operating system 95 to perform its functions. These programs were recorded on the DVD-ROM 99 and installed on the hard disk 87 via the DVD-ROM drive 89.

端末装置20a・・・20n、点群サーバ装置40a、40b・・・40nのハードウエア構成も同様である。ただし、端末装置20aにおいては、属性サーバプログラム97に代えて端末プログラムが記録されている。また、点群サーバ装置40a、40b・・・40nにおいては、属性サーバプログラム97に代えて点群サーバプログラムが記録されている。
The hardware configurations of the terminal devices 20a...20n and the point cloud server devices 40a, 40b...40n are also similar. However, in the terminal device 20a, a terminal program is recorded instead of the attribute server program 97. Furthermore, in the point cloud server devices 40a, 40b, . . . , 40n, a point cloud server program is recorded instead of the attribute server program 97.

1.3点群データの公開処理
測量事業者は、自動車などに搭載したMMSなどにより道路および地物の三次元点群データおよび動画を生成する。生成された三次元点群データは、たとえば、DVD-ROMなどの記録媒体に記録され、端末装置20のハードディスク87に取り込まれる。
1.3 Public processing of point cloud data Surveying companies generate 3D point cloud data and videos of roads and features using MMS installed in cars and the like. The generated three-dimensional point group data is recorded, for example, on a recording medium such as a DVD-ROM, and is imported into the hard disk 87 of the terminal device 20.

ここで、地物とは、たとえば、道路設計基準情報(距離標、道路中心線、測点など)、道路面地物(車道部、歩道部、軌道敷など)、道路面と領域を共有する地物(停止線、区画線、横断歩道、路面標示など)、道路面以外の地物(標識柱、照明柱、信号機、歩道橋など)、道路面を指示する地物(擁壁、橋梁、法面、トンネル、シェッド等)である。なお、道路地物には限らない。 Here, features include, for example, road design standard information (distance markers, road center lines, measurement points, etc.), road surface features (roadway sections, sidewalk sections, trackbeds, etc.), and those that share an area with the road surface. Features (stop lines, lane markings, crosswalks, road markings, etc.), features other than the road surface (signposts, lighting poles, traffic lights, pedestrian bridges, etc.), features that indicate the road surface (retaining walls, bridges, road markings, etc.) surface, tunnel, shed, etc.). Note that this is not limited to road features.

測量事業者は、端末プログラムを起動し記録された三次元点群データに基づいて属性データを生成する。図5に、端末プログラム96における属性データ生成処理のフローチャートを示す。 The surveying company starts the terminal program and generates attribute data based on the recorded three-dimensional point cloud data. FIG. 5 shows a flowchart of attribute data generation processing in the terminal program 96.

端末装置20aのCPU81は、まず、記録されている三次元点群データを読み出す(ステップS1)。三次元点群データの例を図6に示す。この実施形態では、測定対象の色、レーザの反射強度も含めて計測を行った三次元点群データとしている。また、三次元点群データには、測定方法・測定機器の情報が記録されている。 The CPU 81 of the terminal device 20a first reads out the recorded three-dimensional point group data (step S1). An example of three-dimensional point cloud data is shown in FIG. In this embodiment, the three-dimensional point group data is measured including the color of the object to be measured and the reflection intensity of the laser. Additionally, information on the measurement method and measuring equipment is recorded in the three-dimensional point cloud data.

CPU80は、この三次元点群データにおいて、所定距離内にある点同士をクラスタとしてまとめる。これにより、さまざまな大きさのクラスタが形成されることになる。そして、CPU81は、所定体積、所定点群数以下、所定点群密度以下などのクラスタをノイズとして除去する(ステップS2)。 The CPU 80 groups points within a predetermined distance from each other as a cluster in this three-dimensional point group data. This results in the formation of clusters of various sizes. Then, the CPU 81 removes clusters having a predetermined volume, a predetermined number of points or less, a predetermined point group density or less, as noise (step S2).

続いて、CPU81は、Cloth Simulation(クロスシミュレーション)手法などを用いて、地盤点(地表面)の抽出を行う(ステップS2)。地盤点抽出において、まず、CPU80は、三次元点群データの標高値を反転する。たとえば、図7Aに示すような断面の三次元点群データ(図においては点群を線として表している)があれば、図7Bに示すような反転三次元点群データが得られる。 Subsequently, the CPU 81 extracts a ground point (ground surface) using a cloth simulation method or the like (step S2). In ground point extraction, the CPU 80 first inverts the elevation value of the three-dimensional point group data. For example, if there is three-dimensional point group data of a cross section as shown in FIG. 7A (the point group is represented as a line in the figure), inverted three-dimensional point group data as shown in FIG. 7B can be obtained.

次に、CPU81は、反転三次元点群データに対して上方向から布をかけたようにシミュレーションを行う。図7Cに、シミュレーションされた布を破線にて示す。続いてCPU81は、当該シミュレーションされた布が接する三次元点群データを地盤点として抽出する。次に、CPU81は標高値を再反転して、図7Dに示すような地盤点を得る。 Next, the CPU 81 performs a simulation on the inverted three-dimensional point group data as if a cloth was applied from above. In FIG. 7C, the simulated cloth is shown in dashed lines. Subsequently, the CPU 81 extracts three-dimensional point group data in contact with the simulated cloth as ground points. Next, the CPU 81 inverts the elevation value again to obtain a ground point as shown in FIG. 7D.

このようにして抽出された地盤点は、概ね正確であるが、図7Dに示すように、地物の存在する近傍100において一部地物を含んでしまうことがある。そこで、抽出された各地盤点によって形成される線の法線方向を算出し、当該法線が上下方向に対して所定角度以上(たとえば30度以上)の部分を地盤点から除く。これにより、図7Eに示すような地盤点を得ることができる。 The ground points extracted in this way are generally accurate, but as shown in FIG. 7D, they may include some features in the vicinity 100 where the features exist. Therefore, the normal direction of the line formed by each extracted ground point is calculated, and portions where the normal line is at a predetermined angle or more (for example, 30 degrees or more) with respect to the vertical direction are excluded from the ground points. Thereby, a ground point as shown in FIG. 7E can be obtained.

なお、この実施形態では、地盤点抽出にCloth Simulation(クロスシミュレーション)を用いたが、最下点抽出方法など他の方法によって地盤点を抽出してもよい。 Note that in this embodiment, Cloth Simulation is used to extract the ground points, but the ground points may be extracted by other methods such as the lowest point extraction method.

以上のようにして地盤点を抽出すると、CPU81は、三次元点群データから地盤点を取り除く。これにより、地盤の上に存在する地物のみの三次元点群データが得られる(ステップS4)。 After extracting the ground points as described above, the CPU 81 removes the ground points from the three-dimensional point group data. As a result, three-dimensional point group data of only the features existing on the ground is obtained (step S4).

次に、CPU81は、ハードディスク87に記録されている地物の平面的配置を示す設計データを読み出す。この設計データは、上記三次元点群データを計測した地物の設計時の図面である。図8に、設計図の例を示す。CPU80は、この設計データに基づいて、各地物の平面形状を抽出する(ステップS5)。この実施形態では、地物の平面外形形状を内包する矩形として平面形状を抽出するようにしている。なお、各地物の平面外形形状をそのまま平面形状として抽出するようにしてもよい。 Next, the CPU 81 reads out the design data recorded on the hard disk 87 indicating the planar arrangement of the features. This design data is a drawing at the time of designing the feature obtained by measuring the three-dimensional point group data. FIG. 8 shows an example of a design drawing. The CPU 80 extracts the planar shape of each feature based on this design data (step S5). In this embodiment, the planar shape is extracted as a rectangle that includes the planar outer shape of the feature. Note that the planar external shape of each feature may be extracted as is as a planar shape.

続いて、CPU81は、この平面形状に地物のみの三次元点群データを重ねる。平面形状の基となった設計データの絶対座標と、三次元点群データの絶対座標を合致させて重ね合わせを行う。なお、この際、平面形状の高さ方向の位置を、三次元点群データの地盤点(地表面)の高さ(標高)に合わせるようにする。合致させた状態を示すのが図9である。図9においては、図7、図8の地物のうち歩道橋の部分のみを示している。枠線300で示すのが歩道橋(地物)の平面外形形状を囲う矩形の平面形状であり、この平面形状300と歩道橋(地物)の三次元点群データの位置が合致していることがわかる。なお、平面外形形状は、本来平面で表されるものであるが、図9においては、分かりやすくするため高さを持たせて示している。 Subsequently, the CPU 81 superimposes three-dimensional point cloud data of only the features on this planar shape. Overlay is performed by matching the absolute coordinates of the design data that is the basis of the planar shape with the absolute coordinates of the three-dimensional point group data. At this time, the position of the planar shape in the height direction is made to match the height (elevation) of the ground point (ground surface) of the three-dimensional point cloud data. FIG. 9 shows the matched state. In FIG. 9, only the pedestrian bridge portion of the features shown in FIGS. 7 and 8 is shown. The frame line 300 indicates a rectangular planar shape that surrounds the planar outline of the pedestrian bridge (feature), and it is confirmed that this planar shape 300 matches the position of the three-dimensional point cloud data of the pedestrian bridge (feature). Recognize. Note that although the planar external shape is originally expressed as a plane, in FIG. 9 it is shown with a height for ease of understanding.

CPU81は、各地物について、地物の平面形状に対応する三次元点群データのうち最も標高の高いものを選択する。その高さを平面形状に与えて、地物の領域を決定する。これにより、図10に示すように、地物を囲う立体形状(直方体)を特定することができる。CPU81は、このようにして生成した立体形状を外形領域データとして記録する。この実施形態では、平面形状と水平方位高の絶対座標による位置と高さとによって外形領域データを記録するようにしている。 For each feature, the CPU 81 selects the one with the highest elevation among the three-dimensional point cloud data corresponding to the planar shape of the feature. The area of the feature is determined by giving the height to the planar shape. Thereby, as shown in FIG. 10, a three-dimensional shape (cuboid) surrounding the feature can be specified. The CPU 81 records the three-dimensional shape thus generated as external shape area data. In this embodiment, external area data is recorded based on the planar shape and the position and height based on absolute coordinates of horizontal azimuth height.

次に、CPU81は、三次元点群データに各地物の領域を重ねて、ディスプレイ84に表示する。操作者は、この画面をみて各地物の領域をマウス91によって選択する。これにより、地物名などの属性データの入力画面が表示されるので、操作者がこの入力を行う。また、外形領域データの立体形状の頂点の座標に基づいて、中心位置(その他、地物を代表する位置を用いてもよい)の座標を算出し地物の座標位置とする。このようにして、属性データを生成し記録することができる。図11に、この実施形態における属性データの項目を示す。作成日時は、三次元点群データの作成日時(計測日時)である。地物名は、地物の名称である。地物領域は、上記地物の外形を示す外形データである。地物位置は、上記にて算出した中心位置である。この実施形態では、三次元点群データは、XML形式にて記録するようにしている。 Next, the CPU 81 superimposes each feature area on the three-dimensional point cloud data and displays it on the display 84. The operator looks at this screen and selects the region of each feature using the mouse 91. As a result, an input screen for attribute data such as feature names is displayed, and the operator performs this input. Further, based on the coordinates of the vertices of the three-dimensional shape of the external area data, the coordinates of the center position (other positions representative of the feature may be used) are calculated and used as the coordinate position of the feature. In this way, attribute data can be generated and recorded. FIG. 11 shows items of attribute data in this embodiment. The creation date and time is the creation date and time (measurement date and time) of the three-dimensional point cloud data. The feature name is the name of the feature. The feature area is external shape data indicating the external shape of the feature. The feature position is the center position calculated above. In this embodiment, three-dimensional point group data is recorded in XML format.

なお、上記では、地物名を操作者が入力するようにしているが、三次元点群データに基づいて地物名を推定するようにしてもよい。たとえば、図12に示すように、地物の三次元点群データ6を異なる角度の平面に投影して、当該投影した画像と地物名を学習データとして深層学習プログラム(その他の機械学習プログラムを用いてもよい)を学習させる。さまざまな地物について学習を行い、学習済みの地物推定プログラムを得る。この地物推定プログラムに、地物の推定を行う対象の三次元点群データを与え、自動的に地物名を推定して付与するようにしてもよい。あるいは、推定した地物名を表示し、操作者に確認をさせるようにしてもよい。 Note that, in the above description, the operator inputs the name of the feature, but the name of the feature may be estimated based on three-dimensional point cloud data. For example, as shown in FIG. 12, three-dimensional point cloud data 6 of a feature is projected onto a plane at different angles, and the projected image and feature name are used as learning data to run a deep learning program (or other machine learning program). may also be used). Learn about various features and obtain a trained feature estimation program. This feature estimation program may be provided with three-dimensional point cloud data of a target for feature estimation, and the feature name may be automatically estimated and assigned. Alternatively, the estimated feature name may be displayed and the operator may be asked to confirm it.

また、三次元点群データ6と外形領域がずれている可能性もあるので、ディスプレイ85に表示し、両者の位置が合致するように操作者がマウスなどで位置合わせをするようにしてもよい。 Furthermore, since there is a possibility that the three-dimensional point cloud data 6 and the external area are misaligned, it may be displayed on the display 85 and the operator may use a mouse or the like to align the two so that their positions match. .

以上のようにして属性データを得ることができる。 Attribute data can be obtained as described above.

なお、上記では、平面データに高さを与えることによって地物の外形領域を決定するようにしている。しかし、設計データなどの平面データが無い場合には、三次元点群データ自体から外形領域を決定するようにしてもよい。 Note that in the above, the external shape area of the feature is determined by giving the height to the planar data. However, if there is no plane data such as design data, the outer shape area may be determined from the three-dimensional point group data itself.

たとえば、次のようにして外形領域を決定する。三次元空間を小さな立方体グリッドで分割し、上下左右斜めに隣接するグリッドに点が存在する場合、これらを一つにまとめていく。たとえば、コネクテッド・コンポーネントを用いた空間ラベリングの手法を用いることができる。 For example, the outline area is determined as follows. The three-dimensional space is divided into small cubic grids, and if there are points in adjacent grids vertically, horizontally, horizontally, and diagonally, they are combined into one. For example, spatial labeling techniques using connected components can be used.

点の存在するグリッドとしてまとめられた各領域について、所定体積、所定点群数以下、所定点群密度以下などの領域はノイズであるとして除去する。残った各領域が地物に対応する領域となる。各領域について、その外形を囲う直方体を設定する。この直方体が地物の外形領域である。 For each region organized as a grid where points exist, regions having a predetermined volume, a predetermined number of points or less, a predetermined point group density or less are removed as noise. Each remaining area becomes an area corresponding to a feature. For each region, set a rectangular parallelepiped that encloses its outer shape. This rectangular parallelepiped is the outer shape area of the feature.

以上のようにして、端末装置20において三次元点群データに対応する属性データを生成することができる。測量事業者は、納品先にこの三次元点群データと属性データを納品する。 As described above, attribute data corresponding to three-dimensional point cloud data can be generated in the terminal device 20. The surveying company delivers this three-dimensional point cloud data and attribute data to the delivery destination.

また、測量事業者の判断により、属性データのみを属性データサーバ装置60にアップロードすることができる。これにより、三次元点群データを必要とする企業が、属性データサーバ装置60にアクセスして属性データを参照することができる。属性データに、対応する三次元点群データの提供企業の情報を記録しておけば、三次元点群データを必要とする企業が、これに基づいて測量事業者に三次元点群データの入手依頼を行うことができる。 Furthermore, only attribute data can be uploaded to the attribute data server device 60 at the discretion of the surveying company. This allows companies that require three-dimensional point cloud data to access the attribute data server device 60 and refer to the attribute data. If the information of the company providing the corresponding 3D point cloud data is recorded in the attribute data, the company that requires the 3D point cloud data can request the surveying company to obtain the 3D point cloud data based on this information. You can make requests.

また、三次元点群データを点群サーバ装置40にアップロードするようにしてもよい。三次元点群データの依頼者が地方公共団体などである場合、所定の点群サーバ装置40にアップロードするように求めることもある。これにより、三次元点群データと属性データが、インターネット上で公開されることになる。 Further, the three-dimensional point cloud data may be uploaded to the point cloud server device 40. If the requester for the three-dimensional point cloud data is a local government or the like, it may be requested to upload it to a predetermined point cloud server device 40. As a result, the three-dimensional point cloud data and attribute data will be made public on the Internet.

さらに、三次元点群データや属性データの外形領域データは、絶対座標にて示されている。したがって、異なる事業者が、それぞれ異なる点群サーバ装置にアップロードした同一地物についての三次元点群データが複数個ある場合、少なくとも一つの属性データがアップロードされていれば、これら複数の三次元点群データを取得することができる。たとえば、同一地物について、事業者によって異なる方向からの三次元点群データがある場合、両者を取得することで、より完全な三次元点群データを得ることができる。
Furthermore, the three-dimensional point group data and the external area data of the attribute data are indicated in absolute coordinates. Therefore, if there are multiple pieces of 3D point cloud data about the same feature uploaded by different businesses to different point cloud server devices, if at least one attribute data has been uploaded, these multiple 3D point cloud data Group data can be obtained. For example, if three-dimensional point cloud data regarding the same feature is available from different directions depending on the operator, more complete three-dimensional point cloud data can be obtained by acquiring both.

1.4地物管理処理
図13に、地物管理処理のフローチャートを示す。たとえば損傷の生じている地物の近くに行って、ユーザ(当該地物の管理担当者など)が携帯端末装置21のカメラ88にて、地物を撮像する(ステップS601)。携帯端末装置21のCPU80(以下、携帯端末装置21と省略することがある)は、ユーザの操作に応じて、このようにして生成された撮像画像を、属性データサーバ装置60に送信する(ステップS602)。この際、携帯端末装置21は、撮像時にGPS受信機98にて取得した位置(撮像位置)を、併せて送信する。図16に、撮像画像の例を示す。
1.4 Feature management processing Figure 13 shows a flowchart of feature management processing. For example, a user (such as a person in charge of managing the feature) goes near a damaged feature and captures an image of the feature using the camera 88 of the mobile terminal device 21 (step S601). The CPU 80 of the mobile terminal device 21 (hereinafter sometimes abbreviated as the mobile terminal device 21) transmits the captured image thus generated to the attribute data server device 60 in response to the user's operation (step S602). At this time, the mobile terminal device 21 also transmits the position (imaging position) acquired by the GPS receiver 98 at the time of imaging. FIG. 16 shows an example of a captured image.

これを受けた属性データサーバ装置60のCPU81(以下属性データサーバ装置60と省略することがある)は、当該撮像位置の近傍の地物の属性データを取得する(ステップS701)。属性データには、地物の種別(地物名)や地物の位置が記録されているので、撮像位置から所定距離内にある地物を抽出する。 Having received this, the CPU 81 of the attribute data server device 60 (hereinafter sometimes abbreviated as the attribute data server device 60) acquires attribute data of a feature near the imaging position (step S701). Since the attribute data records the type of feature (feature name) and the location of the feature, features within a predetermined distance from the imaging position are extracted.

次に、属性データサーバ装置60は、抽出した地物の外形領域に基づいて、各点群サーバ装置40a、40b・・・40nに対して、当該外形領域に含まれる三次元点群データ(すなわち地物の三次元点群データ)を記録していれば送信するように依頼する(ステップS702)。 Next, based on the extracted external area of the feature, the attribute data server device 60 sends three-dimensional point cloud data included in the external area (i.e. If the user has recorded three-dimensional point cloud data of the feature, a request is made to send it (step S702).

点群サーバ装置40a、40b・・・40nのうち、対応する三次元点群データを記録保持している点群サーバ装置40は、これに応じて当該地物の三次元点群データを属性データサーバ装置60に返信する(ステップS801)。 Among the point cloud server devices 40a, 40b...40n, the point cloud server device 40 that records and holds the corresponding three-dimensional point cloud data converts the three-dimensional point cloud data of the feature into attribute data. A reply is sent to the server device 60 (step S801).

属性データサーバ装置60は、受信した地物の三次元点群データに基づいて外形を表す三次元モデル(絶対座標にて特定される三次元モデル)を生成する(ステップS703)。なお、この三次元モデルは、予め生成して記録しておいてもよい。各地物について生成された三次元モデルの例を、図17に示す。 The attribute data server device 60 generates a three-dimensional model (three-dimensional model specified by absolute coordinates) representing the external shape based on the received three-dimensional point group data of the feature (step S703). Note that this three-dimensional model may be generated and recorded in advance. An example of a three-dimensional model generated for each feature is shown in FIG. 17.

次に、各地物について生成された三次元モデルについて、図17に示す撮像位置PHを中心として、角度を変えながら二次元投影画像を生成する(ステップS704)。生成された二次元投影画像の例を図18A、B、Cに示す。図18は、3つの角度からの二次元投影画像のみを示しているが、他の角度からの二次元投影画像も同様に生成される。 Next, for the three-dimensional model generated for each feature, a two-dimensional projection image is generated while changing the angle around the imaging position PH shown in FIG. 17 (step S704). Examples of generated two-dimensional projection images are shown in FIGS. 18A, B, and C. Although FIG. 18 shows only two-dimensional projection images from three angles, two-dimensional projection images from other angles are similarly generated.

続いて、属性データサーバ装置60は、撮像画像に写し出された地物の輪郭画像を生成する。撮像画像から、そこに写し出された所定のオブジェクト(ここでは地物)の輪郭を抽出する処理は、たとえばMask R-CNN(https://github.com/matterport/Mask_RCNN)によって行うことができる。図19に輪郭画像を示す。 Subsequently, the attribute data server device 60 generates a contour image of the feature depicted in the captured image. The process of extracting the outline of a predetermined object (here, a terrestrial feature) depicted in a captured image can be performed using, for example, Mask R-CNN (https://github.com/matterport/Mask_RCNN). FIG. 19 shows a contour image.

属性データサーバ装置60は、図19の輪郭化された撮像画像と、図18に示す各二次元投影画像とを比較し、最も良くマッチングするものを選択する(ステップS705)。このマッチングには、たとえばSIFT、SURF、KAZE、A-KAZEを用いることができる。たとえば、図18Bの二次元投影画像が選択されたものとする。このマッチングにより、図18Bを生成した際の角度に基づいて、撮像方向も得ることができる。 The attribute data server device 60 compares the contoured captured image in FIG. 19 with each two-dimensional projection image shown in FIG. 18, and selects the one that best matches the image (step S705). For example, SIFT, SURF, KAZE, and A-KAZE can be used for this matching. For example, assume that the two-dimensional projection image in FIG. 18B is selected. Through this matching, the imaging direction can also be obtained based on the angle at which FIG. 18B was generated.

次に、属性データサーバ装置60は、選択された二次元投影画像の中にある地物の外形を抽出する。さらに、この外形に基づいて撮像画像を切り取り、地物のみの撮像画像を得る(ステップS706)。切り取って得られた地物画像を図20に示す。 Next, the attribute data server device 60 extracts the outline of the feature in the selected two-dimensional projection image. Furthermore, the captured image is cut out based on this external shape to obtain a captured image of only the feature (step S706). FIG. 20 shows the feature image obtained by cutting.

属性データサーバ装置60は、地物画像および撮像位置、撮像方向を当該地物の属性データに対応付けて記録する(ステップS707)。 The attribute data server device 60 records the feature image, the imaging position, and the imaging direction in association with the attribute data of the feature (step S707).

したがって、各端末装置20a・・・20nや各携帯端末装置21a・・・21nから、属性データサーバ装置60にアクセスして、各地物の撮像画像を閲覧・取得することができる。これによって、各地物の管理を容易に行うことができる。また、現場において撮像を行う者も、自ら地物の三次元点群データに対する紐付けを行う必要なく、対応づけを自動的に行うことができる。
Therefore, each of the terminal devices 20a...20n and each of the mobile terminal devices 21a...21n can access the attribute data server device 60 to view and obtain captured images of each feature. This allows each feature to be easily managed. Furthermore, the person who takes the image at the site can automatically make the association without having to make the association with the three-dimensional point cloud data of the feature himself.

1.5その他
(1)上記実施形態では、二次元投影画像を生成する際に、携帯端末装置21から受信した撮像位置をそのまま用いている。しかし、その位置精度に問題がある場合には、図21に示すように、受信した撮像位置Pの周りに仮想位置P1、P2・・・P23、P24を設定し、それぞれを中心として二次元投影画像を生成するようにしてもよい。
1.5Other
(1) In the above embodiment, when generating a two-dimensional projection image, the imaging position received from the mobile terminal device 21 is used as is. However, if there is a problem with the positional accuracy, as shown in FIG. An image may also be generated.

これらによって生成された二次元投影画像について撮像画像とのマッチングを行い、最も良く合致する二次元投影画像を選択する。選択された二次元投影画像に対応する仮想位置を、修正された撮像位置として記録する。 The two-dimensional projection images generated by these are matched with the captured image, and the best matching two-dimensional projection image is selected. A virtual position corresponding to the selected two-dimensional projection image is recorded as a corrected imaging position.

また、平面的な位置(緯度経度)だけでなく、高さ(標高)についても受信した高さに対して上下に変化させて仮想位置を設定するようにしてもよい。 Furthermore, the virtual position may be set by changing not only the planar position (latitude and longitude) but also the height (elevation) upward or downward relative to the received height.

(2)上記実施形態では、撮像画像の地物の輪郭と、二次元投影画像の地物の輪郭(三次元モデル)とを比較してマッチングを行うようにしている。しかし、三次元点群データを二次元投影し、点群データと撮像画像とを比較するようにしてもよい。この場合、撮像画像がカラーであれば、二次元投影した点群データも計測時の色データに基づいてカラーとし、色も含めたマッチングを行うことで合致度の判定精度を高めることができる。 (2) In the above embodiment, matching is performed by comparing the contour of the feature in the captured image and the contour of the feature (three-dimensional model) in the two-dimensional projection image. However, the three-dimensional point group data may be two-dimensionally projected and the point group data and the captured image may be compared. In this case, if the captured image is in color, the two-dimensionally projected point cloud data is also colored based on the color data at the time of measurement, and matching including color is performed to improve the accuracy of determining the degree of matching.

(3)上記実施形態では、撮像位置から所定範囲内にある地物の全てについて二次元投影画像を生成し、撮像画像全体とマッチングを行うようにしている。しかし、撮像画像中に地物が実質的に一つだけ撮像されているような場合には、撮像画像中の地物名を特定し、特定された地物名の三次元点群データのみを対象として二次元投影画像を生成し、地物の撮像画像とのマッチングを行うようにしてもよい。 (3) In the above embodiment, two-dimensional projection images are generated for all of the terrestrial objects within a predetermined range from the imaging position, and matching is performed with the entire captured image. However, if only one feature is captured in the captured image, the name of the feature in the captured image is specified, and only the 3D point cloud data of the identified feature name is extracted. A two-dimensional projection image may be generated as a target, and matching with a captured image of a feature may be performed.

この場合、たとえば、図22に示すように、携帯端末装置21を操作して、ユーザが撮像画像中から注目する地物の部分にマークを付して、属性データサーバ装置60に送信するようにしてもよい。この際、ユーザは、携帯端末装置21を操作し、地物名(予め定められた地物名のプルダウンメニューから選択することが好ましい)を入力し、併せて送信する。 In this case, for example, as shown in FIG. 22, the user operates the mobile terminal device 21 to mark the part of the feature of interest in the captured image and sends it to the attribute data server device 60. You can. At this time, the user operates the mobile terminal device 21, inputs a feature name (preferably selected from a pull-down menu of predetermined feature names), and also sends the name.

属性サーバ装置60においては、撮像位置から所定範囲内にある地物のうち、送られてきた地物名のものを選択し、二次元投影画像を生成する。この時、各地物ごとに異なる角度からの二次元投影画像を生成する。 The attribute server device 60 selects the sent feature name from among the features within a predetermined range from the imaging position, and generates a two-dimensional projection image. At this time, two-dimensional projected images from different angles are generated for each feature.

マッチングにおいては、ユーザが選択した地物の撮像画像と、各地物の二次元投影画像とを比較する。最も良く合致した地物の二次元投影画像に対応付けて地物の撮像画像を記録する。 In matching, a captured image of a feature selected by the user is compared with a two-dimensional projected image of each feature. The captured image of the feature is recorded in association with the two-dimensional projected image of the feature that best matches.

なお、マッチングは、三次元モデルを用いてもよいし、点群データにて行うようにしてもよい。 Note that matching may be performed using a three-dimensional model or using point cloud data.

また、上記では、ユーザが地物名を入力するようにしている。しかし、携帯端末装置21または属性データサーバ装置60において、撮像された画像中のオブジェクトを識別し、地物名を判別するようにしてもよい。各地物の画像と地物名とを学習データとして学習したディープラーニング等の学習モデルを用い、画像中の地物を抽出してその地物名を得ることができる(たとえば、YOLO、Mask R-CNNなどのプログラムを用いることができる)。この場合、ユーザが撮像画像中から地物を選択し、選択された地物の地物名を携帯端末装置21または属性データサーバ装置60が自動的に判定するようにすることが好ましい。 Furthermore, in the above example, the user inputs the name of the feature. However, the portable terminal device 21 or the attribute data server device 60 may identify the object in the captured image and determine the name of the feature. Using a learning model such as deep learning that has learned the image and name of each feature as learning data, it is possible to extract the feature in the image and obtain the feature name (for example, YOLO, Mask R- Programs such as CNN can be used). In this case, it is preferable that the user selects a feature from the captured image, and that the mobile terminal device 21 or the attribute data server device 60 automatically determines the feature name of the selected feature.

(4)上記実施形態では、撮像位置から所定範囲内にある地物について二次元投影画像を生成し、撮像画像とマッチングを行うようにしている。そのマッチングにおいては、画像情報のみを用いている。 (4) In the above embodiment, a two-dimensional projection image is generated for a feature within a predetermined range from the imaging position, and matching is performed with the captured image. In the matching, only image information is used.

しかし、撮像画像中の各地物の地物名をユーザが入力し、あるいは携帯端末装置21や属性データサーバ装置60にて自動判定(上述のYOLO等を用いる)し、当該地物名も含めてマッチングを行うようにしてもよい。 However, if the user inputs the feature name of each feature in the captured image, or the mobile terminal device 21 or the attribute data server device 60 automatically determines the feature name (using the above-mentioned YOLO, etc.), Matching may also be performed.

また、複数の地物が撮像画像中にある場合画像から各地物名を特定し、一方、
属性データから各地物の地物名を取得し、これら地物名の位置関係(画像上での順番)も含めてマッチングを行うようにしてもよい。
In addition, when multiple features are present in a captured image, the names of each feature are identified from the image, while
The names of each feature may be obtained from the attribute data, and matching may be performed including the positional relationships (order on the image) of these feature names.

(5)上記実施形態では、三次元点群データおよび属性データにおいて絶対座標を用いて表現するようにしている。しかし、三次元点群データと属性データが対応付けられていれば、必ずしも絶対座標である必要はない。 (5) In the above embodiment, three-dimensional point group data and attribute data are expressed using absolute coordinates. However, as long as the three-dimensional point cloud data and attribute data are associated with each other, the coordinates do not necessarily have to be absolute coordinates.

(6)上記実施形態では、撮像位置の周囲に地物が多く存在すればマッチングの精度が向上する。しかし、道路と法面しか撮像画像中に写っていないような場合であっても、撮像位置を特定することができる。 (6) In the above embodiment, the accuracy of matching improves if there are many terrestrial objects around the imaging position. However, even in a case where only a road and a slope appear in the captured image, the imaging position can be specified.

たとえば、標識などの地物のない山間の道路において事故が生じ、その現場の撮像写真に基づいて、事故現場を特定する場合になどにも用いることができる。この場合、撮像画像を画像セグメンテーション手法の一つであるSegNetなどの深層学習によって学習されたモデルにて、道路面と法面に分離する。一方、三次元点群データにて各位置からの道路面と法面を分離した二次元平面画像を生成する。両者が最も良く合致する点が、撮像位置(事故現場)であると判定することができる。 For example, it can be used when an accident occurs on a mountain road without features such as signs, and the accident site is identified based on a photograph taken at the scene. In this case, the captured image is separated into road surfaces and slope surfaces using a model learned through deep learning such as SegNet, which is one of the image segmentation methods. On the other hand, a two-dimensional plane image is generated by separating the road surface and slope from each position using three-dimensional point cloud data. It can be determined that the point where the two best match is the imaging position (accident site).

また、一つの地物において同じような構造が複数箇所ある場合(たとえば橋の橋桁)に、各箇所ごとに上述の仮想撮像位置、撮像方向を設定して二次元投影画像を生成してマッチングを行うことにより、撮像された位置が特定できる。これにより、いずれの箇所(複数あるうちのいずれの橋桁)が撮像されたのかを特定することができる。 In addition, when a single feature has multiple similar structures (for example, a bridge girder), matching can be performed by setting the above-mentioned virtual imaging position and imaging direction for each location and generating a two-dimensional projection image. By doing so, the location where the image was taken can be specified. Thereby, it is possible to specify which location (which bridge girder among a plurality of bridge girders) has been imaged.

(7)上記実施形態では、携帯端末装置21から撮像画像、撮像位置を属性データサーバ装置60に送信するようにしている。しかし、携帯端末装置21に地磁気センサ(方位を取得)、ジャイロセンサ(ピッチ、ロール等の傾き)などを設けて、撮像方向も送信するようにしてもよい。属性データサーバ装置60では、受信した撮像方向に基づいて、その前後の角度についてのみ二次元平面画像を生成する。これにより、マッチング精度を高めることができる。 (7) In the above embodiment, the captured image and the captured position are transmitted from the mobile terminal device 21 to the attribute data server device 60. However, the mobile terminal device 21 may be provided with a geomagnetic sensor (to obtain orientation), a gyro sensor (to detect inclinations such as pitch and roll), and the imaging direction may also be transmitted. Based on the received imaging direction, the attribute data server device 60 generates two-dimensional plane images only for the front and rear angles. Thereby, matching accuracy can be improved.

(8)上記実施形態では、カメラにて地物を撮像する際に、過去の履歴は用いられていなかった。しかし、カメラにて地物を撮像する際に、その撮像位置、撮像方向を属性データサーバ装置60に送信し、過去に近傍において同様の方向から撮像された結果が保存されていれば、これを取得するようにしてもよい。属性データサーバ装置60は、過去の撮像位置、撮像方向に基づいて二次元投影画像を生成し、これを携帯端末装置21に送信する。過去二次元投影画像を受信した携帯端末装置21は、図23に示すように、その過去画像IMをカメラのファインダー画面に透過画像として重ねて表示する。図23では、一部の地物の過去画像IMのみを表示しているが、過去画像全体を表示するようにしてもよい。 (8) In the above embodiment, past history is not used when capturing an image of a feature with a camera. However, when imaging a feature with a camera, the imaging position and imaging direction are sent to the attribute data server device 60, and if the results of previous imaging from a similar direction in the vicinity are stored, this can be transmitted. You may also obtain it. The attribute data server device 60 generates a two-dimensional projection image based on the past imaging position and imaging direction, and transmits this to the mobile terminal device 21 . The mobile terminal device 21 that has received the past two-dimensional projected image displays the past image IM on the finder screen of the camera in an overlapping manner as a transparent image, as shown in FIG. In FIG. 23, only past images IM of some features are displayed, but the entire past image may be displayed.

これにより、過去に撮像した位置と同じ位置にて撮像を行う必要がある場合に、その位置や方向を合致させるのが容易となる。たとえば、特定の地物の経時変化を観測する場合などに有効である。 This makes it easy to match the positions and directions when it is necessary to take an image at the same position as a position where an image was taken in the past. For example, it is effective when observing changes over time of specific features.

なお、過去の二次元投影画像に代えて、過去の撮像画像を透過画像として重ねて表示するようにしてもよい。 In addition, instead of a past two-dimensional projected image, a past captured image may be displayed superimposed as a transparent image.

さらに、過去の画像を重ねて表示することに代えて、あるいはこれに加えて、地図上に過去の撮像時の撮像位置と撮像方向を示すようにしてもよい。この際、現在の撮像位置と撮像方向も示すことで、過去の撮像位置と撮像方向に合致させて撮像を行うことが容易となる。 Furthermore, instead of or in addition to displaying past images in an overlapping manner, the imaging position and imaging direction at the time of past imaging may be shown on the map. At this time, by also indicating the current imaging position and imaging direction, it becomes easy to perform imaging matching the past imaging position and imaging direction.

(9)上記実施形態では、撮像画像中の地物を特定してその輪郭と、三次元点群データの輪郭とに基づいてマッチングを行うようにしている。しかし、撮像画像中から、地物及び地物以外の全ての輪郭(エッジ)を抽出し、これと三次元点群データの輪郭とをマッチングさせるようにしてもよい。撮像画像からのエッジ抽出には、たとえば、プレウイット・フィルタ、ソーベル・フィルタ、ラプラシアン・フィルタ、LoGフィルタ、DoGフィルタ、Canny方、Hough変換などを用いることができる。 (9) In the above embodiment, a feature in the captured image is identified and matching is performed based on its outline and the outline of the three-dimensional point cloud data. However, all contours (edges) of terrestrial objects and other than the terrestrial objects may be extracted from the captured image and matched with the contours of the three-dimensional point group data. For edge extraction from a captured image, for example, a Prewitt filter, a Sobel filter, a Laplacian filter, a LoG filter, a DoG filter, a Canny method, a Hough transform, etc. can be used.

(10)上記実施形態では、第1点群サーバ装置40a、第2点群サーバ装置40bが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (10) In the above embodiment, the first point cloud server device 40a and the second point cloud server device 40b are constructed as separate server devices, but they may be constructed as a single server device.

(11)上記実施形態では、第1点群サーバ装置40a、第2点群サーバ装置40bと属性データサーバ装置60とが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (11) In the above embodiment, the first point cloud server device 40a, the second point cloud server device 40b, and the attribute data server device 60 are constructed as separate server devices, but they are constructed as a single server device. You can leave it there.

(12)上記実施形態では、属性データサーバ装置によってステップS702、S703、S704、S705、S706の処理を行っている。しかし、これを携帯端末装置や端末装置において実行し、抽出した地物の画像を属性データサーバ装置に送信して記録するようにしてもよい。 (12) In the above embodiment, steps S702, S703, S704, S705, and S706 are performed by the attribute data server device. However, this may be executed on a mobile terminal device or a terminal device, and the image of the extracted feature may be transmitted to the attribute data server device and recorded.

(13)上記実施形態では、携帯端末装置によって地物を撮像し、撮像した画像を送信するようにしている。しかし、カメラなどで撮像した画像をPC等の端末装置に取り込んで、送信するようにしてもよい。 (13) In the above embodiment, the mobile terminal device captures an image of a feature and transmits the captured image. However, an image captured by a camera or the like may be imported into a terminal device such as a PC and transmitted.

(14)上記実施形態および変形例は、その本質に反しない限り、他の実施形態と組み合わせて実行可能である。
(14) The above embodiments and modified examples can be implemented in combination with other embodiments unless it contradicts the essence thereof.

2.第2の実施形態
2.1全体構成
図24に、第2の実施形態による地物管理システムの機能ブロック図を示す。この実施形態においては、属性サーバ装置211と三次元点群サーバ装置213とによってサーバ装置が構成されている。
2. Second embodiment
2.1 Overall Configuration FIG. 24 shows a functional block diagram of the feature management system according to the second embodiment. In this embodiment, an attribute server device 211 and a three-dimensional point cloud server device 213 constitute a server device.

端末装置260の外形領域データ取得手段262は、属性サーバ装置211から道路表示物(地物)の外形領域データ224を取得する。この外形領域データは、センターラインなど道路標示物の設置時のものを用いることが好ましい。 The outer shape area data acquisition means 262 of the terminal device 260 acquires the outer shape area data 224 of the road display object (terrestrial feature) from the attribute server device 211. It is preferable to use the external shape area data at the time of installation of a road marking such as a center line.

三次元点群データ取得手段264は、外形領域データ224に基づいて当該外形領域に含まれる道路表示物の三次元点群データ222を取得する。この三次元点群データ222には、各点の輝度も含まれている。 The three-dimensional point cloud data acquisition means 264 acquires three-dimensional point cloud data 222 of the road display object included in the contour area based on the contour area data 224. This three-dimensional point group data 222 also includes the brightness of each point.

表示手段266は、上記取得した外形領域データによる外形領域と三次元点群データの各点を輝度付き(輝度が高いと明るく低いと暗く)で表示する。これにより、道路表示物の設置時の状況が外形領域として示され、現在の状況が三次元点群データの輝度として示される。したがって、道路表示物の補修の必要性、補修箇所などを知ることができる。
The display means 266 displays each point of the three-dimensional point group data and the outer shape region based on the acquired outer shape region data with brightness (high brightness means bright, low brightness dark). As a result, the situation at the time the road display object was installed is shown as the outer shape area, and the current situation is shown as the brightness of the three-dimensional point group data. Therefore, it is possible to know the necessity of repairing the road display object, the repair location, etc.

2.2システム構成
システム構成は、第1の実施形態において示した図2と同様である。また、点群サーバ装置40、属性データサーバ装置60、端末装置20、携帯端末装置21のハードウエア構成も、第1の実施形態と同様である。
2.2 System Configuration The system configuration is the same as that shown in FIG. 2 in the first embodiment. Furthermore, the hardware configurations of the point cloud server device 40, attribute data server device 60, terminal device 20, and mobile terminal device 21 are also the same as in the first embodiment.

2.3地物管理処理
図25に、地物管理処理のフローチャートを示す。図において、端末装置として示しているのは端末プログラムのフローチャート、属性データサーバ装置として示しているのは属性データサーバプログラムのフローチャート、点群サーバ装置として示しているのは点群サーバプログラムのフローチャートである。
2.3 Feature management processing Figure 25 shows a flowchart of feature management processing. In the figure, the terminal device is shown as a flowchart of the terminal program, the attribute data server device is shown as the flowchart of the attribute data server program, and the point cloud server device is shown as the flowchart of the point cloud server program. be.

まず、端末装置20bのCPU81(以下端末装置20bと省略することがある)は、属性データサーバ装置60にアクセスし、所望の道路表示物の存在する場所を指定する(ステップS651)。場所の指定は、たとえば緯度経度などで範囲を指定して行う。住所を入力するようにし、これを緯度経度の範囲に変換してもよい。 First, the CPU 81 of the terminal device 20b (hereinafter sometimes abbreviated as the terminal device 20b) accesses the attribute data server device 60 and specifies the location where a desired road display object exists (step S651). The location is specified by specifying a range using latitude and longitude, for example. You may enter an address and convert it to a latitude and longitude range.

これを受けて、属性サーバ装置60のCPU(以下属性サーバ装置と省略することがある)は、属性データを検索し当該指定された場所内にある道路表示物の外形領域データを抽出する(ステップS751)。ここで、道路表示物とは、地物の一つであり、道路面に表示された識別マークである。たとえば、センターライン、横断歩道などである。 In response to this, the CPU of the attribute server device 60 (hereinafter sometimes abbreviated as the attribute server device) searches the attribute data and extracts the external shape area data of the road display object within the specified location (step S751). Here, the road display object is one of the features, and is an identification mark displayed on the road surface. For example, center lines, crosswalks, etc.

属性サーバ装置60は、抽出した外形領域データ(平面形状データとその絶対座標における位置と高さ)、地物名(センターライン、横断歩道など)などを端末装置20bに送信する。外形領域データが複数抽出されている場合には、これら複数の外形領域データを送信する。 The attribute server device 60 transmits the extracted external shape area data (planar shape data and its position and height in absolute coordinates), feature names (center line, crosswalk, etc.), etc. to the terminal device 20b. If a plurality of pieces of outline area data are extracted, these pieces of outline area data are transmitted.

端末装置20bは、各点群サーバ装置40a・・・40nにアクセスし、受信した外形領域データの三次元点群データを返信するように要求する(ステップS652)。なお、同一の道路表示物について複数の外形領域データが存在する場合には、端末装置20bにおいて外形領域データの測定日時を表示し、ユーザに選択させるようにしてもよい。ユーザは、最も古い、あるいは道路表示物の設置時の外形領域データを選択する。端末装置20bは、選択された外形領域データに基づいて、三次元点群データを要求する。 The terminal device 20b accesses each of the point cloud server devices 40a...40n and requests them to return the three-dimensional point cloud data of the received external shape area data (step S652). In addition, when a plurality of external area data exist for the same road display object, the measurement date and time of the external area data may be displayed on the terminal device 20b, and the user may be allowed to select one. The user selects the oldest or outer shape area data at the time of installation of the road display object. The terminal device 20b requests three-dimensional point group data based on the selected external area data.

これを受けて、点群サーバ装置40a・・・40nのうち、当該外形領域データに含まれる三次元点群データを記録している点群サーバ装置は、当該三次元点群データを、各外形領域データに対応付けて端末装置20bに送信する(ステップS851)。 In response, among the point cloud server devices 40a...40n, the point cloud server device that records the three-dimensional point cloud data included in the external shape area data records the three-dimensional point cloud data for each external shape. It is associated with the area data and transmitted to the terminal device 20b (step S851).

端末装置20bは、受信した外形領域データに三次元点群データの輝度を重ねて表示する(ステップS653)。その表示例を図26に示す。ここでは、センターラインの道路表示物を例として示す。外形領域データに基づいて表示されているのが外形領域600である。高輝度領域602は、輝度の高い三次元点群データによって表示される領域である。三次元点群データは点であるが、図26においては、集合しているため領域として示されている。 The terminal device 20b displays the brightness of the three-dimensional point group data superimposed on the received external shape area data (step S653). An example of the display is shown in FIG. Here, a center line road display is shown as an example. The outline area 600 is displayed based on the outline area data. The high brightness area 602 is an area displayed using three-dimensional point cloud data with high brightness. Although the three-dimensional point group data consists of points, in FIG. 26 they are shown as areas because they are gathered.

外形領域600の中が、全て高輝度領域602にて埋まっていれば、当該センターラインは剥がれ等がなく健全であると判断できる。センターラインに、剥がれや傷などがあれば当該部分のレーザの反射強度は低くなる。したがって、図26に示すように、外形領域600の中に、低輝度領域604が表示されることになる。これにより、補修の必要なセンターラインや補修箇所を知ることができる。
If the entire outer area 600 is filled with the high brightness area 602, it can be determined that the center line is healthy with no peeling or the like. If there is peeling or scratches on the center line, the laser reflection intensity at that part will be low. Therefore, as shown in FIG. 26, a low brightness area 604 is displayed within the external area 600. This allows you to know the center line and repair areas that need repair.

2.4その他
(1)上記実施形態では、平面的な領域を持つ矩形の地物(道路表示物)を対象として説明を行った。しかし、立体的な領域をつ直方体の地物であって、表面が他の部分よりも反射強度の高い地物を対象として、同様の処理を行うことができる。
2.4 Others
(1) In the above embodiment, a rectangular feature (road display object) having a planar area was described. However, similar processing can be performed on a rectangular parallelepiped feature with a three-dimensional area and whose surface has a higher reflection intensity than other parts.

(2)上記実施形態では、矩形の道路表示物を対象としている。しかし、外形領域データとして道路表示物に沿った形状(たとえば道路上に表示された文字の形状)を外形形状データとして記録していれば、そのような形状の道路表示物にも適用することができる。 (2) In the above embodiment, a rectangular road display object is targeted. However, if the shape along the road display object (for example, the shape of a character displayed on the road) is recorded as the outer shape data, it can be applied to road display objects with such a shape. can.

(3)上記実施形態では、三次元点群データの輝度を、外形形状と比較するようにしている。しかし、三次元点群データ自体(輝度値なし)を表示して、外形形状と比較するようにしてもよい。 (3) In the above embodiment, the brightness of the three-dimensional point group data is compared with the external shape. However, the three-dimensional point group data itself (without brightness values) may be displayed and compared with the external shape.

(4)上記実施形態では、第1点群サーバ装置40a、第2点群サーバ装置40bが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (4) In the above embodiment, the first point cloud server device 40a and the second point cloud server device 40b are constructed as separate server devices, but they may be constructed as a single server device.

(5)上記実施形態では、第1点群サーバ装置40a、第2点群サーバ装置40bと属性データサーバ装置60とが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (5) In the above embodiment, the first point cloud server device 40a, the second point cloud server device 40b, and the attribute data server device 60 are constructed as separate server devices, but they are constructed as a single server device. You can leave it there.

(6)上記実施形態および変形例は、その本質に反しない限り、他の実施形態と組み合わせて実行可能である。
(6) The above embodiments and modified examples can be implemented in combination with other embodiments unless it contradicts the essence thereof.

3.第3の実施形態
3.1全体構成
図27に、この発明の第3の実施形態による点群データ管理システムの全体構成を示す。第1点群サーバ装置40aには、地物を含む絶対座標による第1方向からの第1三次元点群データファイルが記録されている。第2点群サーバ装置40bには、地物を含む絶対座標による第2方向からの第2三次元点群データファイルが記録されている。属性データサーバ装置60には、地物の外形を囲った絶対座標による外形領域データが記録されている。
3. Third embodiment
3.1 Overall Configuration FIG. 27 shows the overall configuration of a point cloud data management system according to the third embodiment of the present invention. The first point cloud server device 40a records a first three-dimensional point cloud data file from a first direction using absolute coordinates including terrestrial objects. The second point cloud server device 40b records a second three-dimensional point cloud data file from a second direction using absolute coordinates including terrestrial objects. The attribute data server device 60 records external area data based on absolute coordinates surrounding the external shape of a feature.

端末装置20は、これらサーバ装置と通信可能である。端末装置20の三次元点群データ取得手段22は、所望の地物の外形領域データを、属性データサーバ装置60から取得する。三次元点群データ取得手段22は、取得した地物の外形領域データに基づいて、第1点群サーバ装置40aにアクセスし、当該領域に含まれる三次元点群データを第1三次元点群データとして取得する。さらに、三次元点群データ取得手段22は、取得した地物の外形領域データに基づいて、第1点群サーバ装置40bにアクセスし、当該領域に含まれる三次元点群データを第2三次元点群データとして取得する。 The terminal device 20 can communicate with these server devices. The three-dimensional point cloud data acquisition means 22 of the terminal device 20 acquires external area data of a desired feature from the attribute data server device 60. The three-dimensional point cloud data acquisition means 22 accesses the first point cloud server device 40a based on the acquired external shape area data of the feature, and converts the three-dimensional point cloud data included in the area into a first three-dimensional point cloud. Obtain as data. Further, the three-dimensional point cloud data acquisition means 22 accesses the first point cloud server device 40b based on the acquired external shape area data of the feature, and transfers the three-dimensional point cloud data included in the area to the second three-dimensional point cloud data. Acquire as point cloud data.

三次元モデル構築手段24は、上記取得した第1三次元点群データと第2三次元点群データに基づいて、当該地物の三次元形状を構築する。このように、絶対座標の付された外形領域データであることを利用して、インターネット上などに分散して記録されている、対象となる地物の異なる方向からの三次元点群データを集めることができる。したがって、より完全な地物の三次元モデルを形成することができる。
The three-dimensional model construction means 24 constructs a three-dimensional shape of the feature based on the first three-dimensional point group data and second three-dimensional point group data acquired above. In this way, by taking advantage of the fact that the external area data has absolute coordinates, it is possible to collect three-dimensional point cloud data from different directions of the target feature, which is recorded dispersedly on the Internet. be able to. Therefore, a more complete three-dimensional model of the feature can be formed.

3.2システム構成
図28に、第3の実施形態による点群データ管理システムのシステム構成を示す。インターネット上には点群サーバ装置40a、40b・・・40nが設けられている。また、属性データサーバ装置60も設けられている。これらサーバ装置40a、40b・・・40n、60に、インターネットを介して通信可能に端末装置20a、20b・・・20nが設けられている。
3.2 System Configuration FIG. 28 shows the system configuration of the point cloud data management system according to the third embodiment. Point cloud server devices 40a, 40b, . . . 40n are provided on the Internet. An attribute data server device 60 is also provided. These server devices 40a, 40b...40n, 60 are provided with terminal devices 20a, 20b...20n so as to be able to communicate via the Internet.

端末装置20のハードウエア構成を、図29に示す。CPU80には、メモリ82、ディスプレイ84、ハードディスク86、DVD-ROMドライブ88、キーボード/マウス90、通信回路92が接続されている。通信回路92は、インターネットに接続するためのものである。 The hardware configuration of the terminal device 20 is shown in FIG. 29. A memory 82, a display 84, a hard disk 86, a DVD-ROM drive 88, a keyboard/mouse 90, and a communication circuit 92 are connected to the CPU 80. The communication circuit 92 is for connecting to the Internet.

ハードディスク86には、オペレーティングシステム94、端末プログラム96が記録されている。端末プログラム96は、オペレーティングシステム94と協働してその機能を発揮するものである。これらプログラムは、DVD-ROM98に記録されていたものを、DVD-ROMドライブ88を介して、ハードディスク86にインストールしたものである。 An operating system 94 and a terminal program 96 are recorded on the hard disk 86. The terminal program 96 cooperates with the operating system 94 to perform its functions. These programs were recorded on the DVD-ROM 98 and installed on the hard disk 86 via the DVD-ROM drive 88.

点群サーバ装置40、属性データサーバ装置60も、同様のハードウエア構成である。ただし、点群サーバ装置40においては、端末プログラム96に代えて、点群サーバプログラムが記録されている。また、属性データサーバ装置60においては、端末プログラム96に代えて、属性データサーバプログラムが記録されている。
The point cloud server device 40 and the attribute data server device 60 also have similar hardware configurations. However, in the point cloud server device 40, instead of the terminal program 96, a point cloud server program is recorded. Furthermore, in the attribute data server device 60, instead of the terminal program 96, an attribute data server program is recorded.

3.3三次元モデル構築処理
次に、上記のようにして公開された複数の三次元点群データに基づいて、三次元モデルを構築する処理について説明する。
3.3 Three-dimensional model construction process Next, the process of constructing a three-dimensional model based on the plurality of three-dimensional point group data released as described above will be described.

以下では、特定の地物についての三次元モデルを構築する場合について説明する。 Below, a case will be described in which a three-dimensional model of a specific feature is constructed.

図30、図31に、三次元モデル構築のフローチャートを示す。図において、端末装置として示しているのは端末プログラムのフローチャート、属性データサーバ装置として示しているのは属性データサーバプログラムのフローチャート、点群サーバ装置として示しているのは点群サーバプログラムのフローチャートである。 30 and 31 show flowcharts of three-dimensional model construction. In the figure, the terminal device is shown as a flowchart of the terminal program, the attribute data server device is shown as the flowchart of the attribute data server program, and the point cloud server device is shown as the flowchart of the point cloud server program. be.

まず、端末装置20bのCPU80(以下端末装置20bと省略することがある)は、属性データサーバ60にアクセスし、所望の地物の存在する場所を指定する(ステップS11)。場所の指定は、たとえば緯度経度などで範囲を指定して行う。住所、地名を入力(あるいは検索)するようにし、これを緯度経度の範囲に変換してもよい。また、地図上でクリックや選択した範囲を緯度経度の範囲に変換してもよい。 First, the CPU 80 of the terminal device 20b (hereinafter sometimes abbreviated as the terminal device 20b) accesses the attribute data server 60 and specifies the location where a desired feature exists (step S11). The location is specified by specifying a range using latitude and longitude, for example. It is also possible to input (or search) an address or place name, and convert this into a range of latitude and longitude. Furthermore, the range clicked or selected on the map may be converted into a range of latitude and longitude.

これを受けて、属性サーバ装置60のCPU(以下属性サーバ装置と省略することがある)は、属性データを検索し当該指定された場所内(場所外の近傍を含めてもよい)にある外形領域データを抽出する(ステップS21)。属性サーバ装置60は、抽出した外形領域データ(平面形状データとその絶対座標における位置と高さ)、地物名などを端末装置20bに送信する。 In response to this, the CPU of the attribute server device 60 (hereinafter sometimes abbreviated as the attribute server device) searches the attribute data and searches for the external shape within the specified location (which may include the vicinity outside the location). Region data is extracted (step S21). The attribute server device 60 transmits the extracted external shape area data (planar shape data and its position and height in absolute coordinates), feature name, etc. to the terminal device 20b.

端末装置20bは、受信した外形領域データに基づいて外形領域と地物名をディスプレイ84に表示する(ステップS12)。表示例を、図32に示す。各地物の外形領域102~112が示され、その近傍に地物名が示されている。 The terminal device 20b displays the outer shape area and the feature name on the display 84 based on the received outer shape area data (step S12). A display example is shown in FIG. The outline areas 102 to 112 of each feature are shown, and the name of the feature is shown in the vicinity.

ユーザは、端末装置20bのマウス90を操作し、所望の地物の外形領域を選択する。ここでは、建物の外形領域110が選択されたものとして説明を進める。この選択を受けて、端末装置20bは、建物の外形領域110の外形領域データを指定して、三次元点群データの要求を各点群サーバ装置40a~40nに送信する(ステップS13)。 The user operates the mouse 90 of the terminal device 20b to select the outer shape area of the desired feature. Here, the explanation will proceed assuming that the external area 110 of the building has been selected. In response to this selection, the terminal device 20b specifies the external area data of the external area 110 of the building and transmits a request for three-dimensional point cloud data to each of the point cloud server devices 40a to 40n (step S13).

この要求を受けた各点群サーバ装置40a~40nは、当該外形領域110内の三次元点群データを自らが保持しているかどうかを判断し、保持していれば返送する。ここでは、点群サーバ装置40a~40nのうち、点群サーバ装置40a、40bの2つが、建物の外形領域110の三次元点群データを保持しているものとして説明を進める。 Each of the point cloud server devices 40a to 40n that receives this request determines whether or not it holds the three-dimensional point cloud data within the relevant external area 110, and if so, returns the data. Here, the explanation will proceed assuming that two of the point cloud server devices 40a to 40n, point cloud server devices 40a and 40b, hold three-dimensional point cloud data of the external area 110 of the building.

点群サーバ装置40aのCPU(以下、点群サーバ装置40aと省略することがある)は、当該建物の外形領域110の三次元点群データを、端末装置20bに返信する(ステップS31)。 The CPU of the point cloud server device 40a (hereinafter sometimes abbreviated as point cloud server device 40a) returns the three-dimensional point cloud data of the external area 110 of the building to the terminal device 20b (step S31).

同様に、点群サーバ装置40bのCPU(以下、点群サーバ装置40bと省略することがある)は、当該建物の外形領域110の三次元点群データを、端末装置20bに返信する(ステップS41)。 Similarly, the CPU of the point cloud server device 40b (hereinafter sometimes abbreviated as point cloud server device 40b) returns the three-dimensional point cloud data of the external area 110 of the building to the terminal device 20b (step S41 ).

なお、点群サーバ装置40a、40bは、指定された外形領域110に対して、計測誤差を考慮して広くした領域の三次元点群データを送信するようにしている。計測誤差は、計測方法・機器によって異なるので、当該三次元点群データがどのような計測方法・機器によって計測されたのかにより異なる。したがって、計測方法・機器により上記の広くした領域は異なる。 Note that the point cloud server devices 40a and 40b transmit three-dimensional point cloud data of an area widened in consideration of measurement errors to the designated external area 110. Measurement errors vary depending on the measurement method and equipment, and therefore vary depending on the measurement method and equipment used to measure the three-dimensional point cloud data. Therefore, the widened area described above differs depending on the measurement method and equipment.

端末装置20bは、点群サーバ装置40aからの三次元点群データ(第1三次元点群データ)と、点群サーバ装置40bからの三次元点群データ(第2三次元点群データ)とを受信する。図33Aに第1三次元点群データ、図33Bに第2三次元点群データの例を示す。図33A、図33Bに示すように、第1三次元点群データは、紙面に向かって、直方体の手前側から計測したものである。第2三次元点群データは、紙面に向かって、直方体の後ろ側から計測したものである。 The terminal device 20b receives three-dimensional point cloud data (first three-dimensional point cloud data) from the point cloud server device 40a and three-dimensional point cloud data (second three-dimensional point cloud data) from the point cloud server device 40b. receive. FIG. 33A shows an example of the first three-dimensional point group data, and FIG. 33B shows an example of the second three-dimensional point group data. As shown in FIGS. 33A and 33B, the first three-dimensional point group data is measured from the front side of the rectangular parallelepiped toward the page. The second three-dimensional point group data is measured from the back side of the rectangular parallelepiped toward the page.

端末装置20bは、第1三次元点群データと第2三次元点群データの位置を合わせて合成し、図34に示すような合成三次元点群データを生成する(ステップS14)。この図からも明らかなように、第1三次元点群データ、第2三次元点群データ単独の場合よりも、情報量の多い(手前側と後ろ側からの計測データの双方を持つ)三次元点群データを得ることができる。 The terminal device 20b aligns and synthesizes the first three-dimensional point group data and the second three-dimensional point group data, and generates synthesized three-dimensional point group data as shown in FIG. 34 (step S14). As is clear from this figure, the 3D point cloud data (which has measurement data from both the front side and the back side) has a larger amount of information than the 1st 3D point cloud data and the 2nd 3D point cloud data alone. Original point cloud data can be obtained.

このようにして得られた合成三次元点群データは、様々な用途に用いることができる。この実施形態では、合成三次元点群データに基づいて、地物の三次元モデルを生成するようにしている。 The composite three-dimensional point group data obtained in this way can be used for various purposes. In this embodiment, a three-dimensional model of a feature is generated based on synthetic three-dimensional point cloud data.

端末装置20bは、合成三次元点群データに基づいて、地物の外形面を生成する(ステップS15)。この処理は、たとえば、三次元凸包アルゴリズム(http:/www.qhull.org/download/)によって行うことができる。図35Aに、生成された地物の三次元モデルを示す。第1三次元点群データのみで生成した三次元モデル、第2三次元点群データのみで生成した三次元モデルよりも完成度の高い三次元モデルを生成することができる。端末装置20bは、これをディスプレイ84に表示するとともに、ハードディスク86に記録する(ステップS15)。 The terminal device 20b generates an external surface of the feature based on the composite three-dimensional point group data (step S15). This processing can be performed, for example, by a three-dimensional convex hull algorithm (http:/www.qhull.org/download/). FIG. 35A shows the generated three-dimensional model of the feature. It is possible to generate a three-dimensional model with a higher degree of completeness than a three-dimensional model generated using only the first three-dimensional point group data and a three-dimensional model generated only using the second three-dimensional point group data. The terminal device 20b displays this on the display 84 and records it on the hard disk 86 (step S15).

この実施形態によれば、同一地物について、インターネット上に点在する複数の三次元点群データを容易に検索し、これを合成して合成三次元点群データを得ることができる。また、同一地物についての複数の三次元点群データのうちいずれか一つに基づいて、一つの属性データが生成されていれば、上記の検索や合成を行うことができる。これは、属性データが三次元点群データとは独立しており、属性データの外形領域データが絶対座標にて定義されているからである。
According to this embodiment, it is possible to easily search for a plurality of three-dimensional point cloud data scattered on the Internet regarding the same feature, and to synthesize these three-dimensional point cloud data to obtain composite three-dimensional point cloud data. Further, if one attribute data is generated based on any one of a plurality of three-dimensional point cloud data regarding the same feature, the above-described search and synthesis can be performed. This is because the attribute data is independent of the three-dimensional point group data, and the external area data of the attribute data is defined using absolute coordinates.

3.4その他
(1)上記実施形態では、2つの三次元点群データを取得して合成三次元点群データを得ている。しかし、3つ以上の三次元点群データを取得して合成三次元点群データを生成してもよい。
3.4 Others
(1) In the above embodiment, two three-dimensional point group data are acquired to obtain composite three-dimensional point group data. However, three or more three-dimensional point group data may be acquired to generate composite three-dimensional point group data.

(2)上記実施形態では、一つの地物についての合成三次元点群データを得るようにしている。しかし、複数の地物についての合成三次元点群データを得るようにしてもよい。また、所定範囲内にある地物全てについての合成三次元データを得るようにしてもよい。このような例を、図36A、図36B、図36Cに示す。図36Aが第1三次元点群データ、図36Bが第2三次元点群データ、図36Cが合成三次元点群データである。 (2) In the above embodiment, composite three-dimensional point group data about one feature is obtained. However, composite three-dimensional point cloud data regarding a plurality of terrestrial features may be obtained. Alternatively, composite three-dimensional data for all terrestrial features within a predetermined range may be obtained. Such examples are shown in FIGS. 36A, 36B, and 36C. 36A is the first three-dimensional point group data, FIG. 36B is the second three-dimensional point group data, and FIG. 36C is the composite three-dimensional point group data.

(3)上記実施形態においては、計測方向の異なる三次元点群データを合成している。しかし、地物までの計測距離の異なる三次元点群データや計測機器の異なる(たとえば、MMSとUAVによる計測)三次元点群データを合成してもよい。 (3) In the above embodiment, three-dimensional point group data with different measurement directions are combined. However, three-dimensional point cloud data with different measured distances to terrestrial features or three-dimensional point cloud data with different measuring instruments (for example, measurements by MMS and UAV) may be combined.

(4)上記実施形態においては、ステップS21において、場所に対して属性データが一つだけ見いだされた場合について説明した。しかし、異なる測定事業者が同一の場所について三次元点群データを作成し、それぞれが属性データをアップロードしている場合や、同一の事業者であっても、異なる時期に同一の場所について三次元点群データを作成し、それぞれが属性データをアップロードしている場合がある。このような場合には、指定された場所に対して複数の属性データが見いだされる。この場合、属性データサーバ装置60は、複数の属性データがある旨を端末装置20bに送信する。端末装置20bは、複数の属性データについて作成日時、作成機器などをディスプレイ84に表示し、操作者に選択させる。選択された属性データに基づいて、外形領域を送信する(ステップS21)。 (4) In the above embodiment, a case has been described in which only one piece of attribute data is found for a location in step S21. However, in some cases, different measurement companies create 3D point cloud data for the same location and each uploads attribute data, or even if the same measurement company creates 3D point cloud data for the same location at different times. In some cases, point cloud data is created and attribute data is uploaded for each. In such cases, multiple attribute data will be found for the specified location. In this case, the attribute data server device 60 transmits to the terminal device 20b that there is a plurality of attribute data. The terminal device 20b displays the creation date and time, creation device, etc. for a plurality of attribute data on the display 84, and allows the operator to make a selection. Based on the selected attribute data, the external shape area is transmitted (step S21).

(5)上記実施形態では、端末装置20bが三次元点群データ要求を行っている(ステップS13)。しかし、属性データサーバ装置60がこれを行い、その結果を端末装置20bに送信するようにしてもよい。 (5) In the above embodiment, the terminal device 20b requests three-dimensional point group data (step S13). However, the attribute data server device 60 may perform this and transmit the result to the terminal device 20b.

(6)上記実施形態では、端末装置20bにおいて三次元点群データの合成や三次元モデルの生成を行っている。しかし、いずれか一方または双方を、属性データサーバ装置60にて行い、その結果を端末装置20bに送信するようにしてもよい。 (6) In the above embodiment, the terminal device 20b synthesizes three-dimensional point group data and generates a three-dimensional model. However, either one or both may be performed by the attribute data server device 60, and the results may be transmitted to the terminal device 20b.

(7)上記実施形態では、ステップS14において、端末装置20bが三次元点群データを取得した際に、いずれの方向から計測したものであるかを表示していない。しかし、これを明確にするために、取得した三次元点群データに付されているデータに基づいて、図35Bに示すように、矢印にて、地物に対する計測方向と距離を表示するようにしてもよい。矢印の根元が計測位置、矢印の方向が計測方向である。図35Bの場合であれば、2カ所から計測された三次元点群データが存在することが明確となる。 (7) In the above embodiment, when the terminal device 20b acquires the three-dimensional point group data in step S14, it does not display which direction the data was measured from. However, in order to clarify this, the measurement direction and distance to the feature are displayed using arrows, as shown in Figure 35B, based on the data attached to the acquired three-dimensional point cloud data. You can. The base of the arrow is the measurement position, and the direction of the arrow is the measurement direction. In the case of FIG. 35B, it is clear that there is three-dimensional point group data measured from two locations.

したがって、この画面表示に基づいて、次に計測を行う場合、合成三次元点群データの品質を向上するのであれば、矢印とは異なる方向から計測することが好ましいことが分かる。また、地物の時間的な変化を知りたいのであれば、矢印と同じ位置、方向から計測を行うのが好ましい。 Therefore, it can be seen that when performing the next measurement based on this screen display, it is preferable to measure from a direction different from the arrow if the quality of the composite three-dimensional point cloud data is to be improved. Furthermore, if you want to know the temporal changes of a feature, it is preferable to measure from the same position and direction as the arrow.

(8)上記実施形態では、第1・第2の三次元点群データを単純に合成して合成三次元点群データを生成している。しかし、三次元点群データのうち、同一箇所について第1三次元点群データと第2三次元点群データが存在する場合、当該箇所においては、測定精度の高い三次元点群データのみを採用して合成三次元点群データを生成するようにしてもよい。 (8) In the above embodiment, the first and second three-dimensional point group data are simply combined to generate composite three-dimensional point group data. However, if the first 3D point cloud data and the second 3D point cloud data exist for the same location in the 3D point cloud data, only the 3D point cloud data with high measurement accuracy will be used for that location. Alternatively, synthetic three-dimensional point group data may be generated.

(9)上記実施形態では、第1点群サーバ装置40a、第2点群サーバ装置40bが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (9) In the above embodiment, the first point cloud server device 40a and the second point cloud server device 40b are constructed as separate server devices, but they may be constructed as a single server device.

(10)上記実施形態では、第1点群サーバ装置40a、第2点群サーバ装置40bと属性データサーバ装置60とが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (10) In the above embodiment, the first point cloud server device 40a, the second point cloud server device 40b, and the attribute data server device 60 are constructed as separate server devices, but they are constructed as a single server device. You can leave it there.

(11)上記実施形態および変形例は、その本質に反しない限り、他の実施形態と組み合わせて実行可能である。
(11) The above embodiments and modified examples can be implemented in combination with other embodiments unless it contradicts the essence thereof.

4.第4の実施形態
4.1全体構成
図37に、この発明の第2の実施形態による点群データ管理システムの全体構成を示す。第1点群サーバ装置40aには、地物を含む絶対座標による第1日時における第1三次元点群データファイルが記録されている。第2点群サーバ装置40bには、地物を含む絶対座標による第2日時における第2三次元点群データファイルが記録されている。属性データサーバ装置60には、地物の外形を囲った絶対座標による外形領域データが記録されている。
4. Fourth embodiment
4.1 Overall Configuration FIG. 37 shows the overall configuration of a point cloud data management system according to the second embodiment of the present invention. The first point cloud server device 40a records a first three-dimensional point cloud data file at a first date and time based on absolute coordinates including terrestrial objects. The second point cloud server device 40b records a second three-dimensional point cloud data file at a second date and time based on absolute coordinates including terrestrial objects. The attribute data server device 60 records external area data based on absolute coordinates surrounding the external shape of a feature.

端末装置20は、これらサーバ装置と通信可能である。端末装置20の三次元点群データ取得手段22は、所望の地物の外形領域データを、属性データサーバ装置60から取得する。三次元点群データ取得手段22は、取得した地物の外形領域データに基づいて、第1点群サーバ装置40aにアクセスし、当該領域に含まれる三次元点群データを第1三次元点群データとして取得する。さらに、三次元点群データ取得手段22は、取得した地物の外形領域データに基づいて、第1点群サーバ装置40bにアクセスし、当該領域に含まれる三次元点群データを第2三次元点群データとして取得する。 The terminal device 20 can communicate with these server devices. The three-dimensional point cloud data acquisition means 22 of the terminal device 20 acquires external area data of a desired feature from the attribute data server device 60. The three-dimensional point cloud data acquisition means 22 accesses the first point cloud server device 40a based on the acquired external shape area data of the feature, and converts the three-dimensional point cloud data included in the area into a first three-dimensional point cloud. Obtain as data. Further, the three-dimensional point cloud data acquisition means 22 accesses the first point cloud server device 40b based on the acquired external shape area data of the feature, and transfers the three-dimensional point cloud data included in the area to the second three-dimensional point cloud data. Acquire as point cloud data.

経時変化取得手段25は、取得した第1日時における第1三次元点群データと第2日時における第2三次元点群データとに基づいて、第1日時と第2日時における地物の形状変化を算出する。
The temporal change acquisition means 25 detects changes in the shape of the feature between the first date and time and the second date and time based on the acquired first three-dimensional point cloud data at the first date and time and second three-dimensional point cloud data at the second date and time. Calculate.

4.2システム構成
システム構成は、第3の実施形態と同じである。
4.2 System Configuration The system configuration is the same as the third embodiment.

4.3経時変化算出処理
次に、公開された複数の三次元点群データに基づいて、地物の経時変化を取得する処理について説明する。
4.3 Process for calculating changes over time Next, a process for obtaining changes over time of features based on a plurality of published three-dimensional point cloud data will be described.

図38、図39に、地物の経時変化取得のフローチャートを示す。図において、端末装置として示しているのは端末プログラムのフローチャート、属性データサーバ装置として示しているのは属性データサーバプログラムのフローチャート、点群サーバ装置として示しているのは点群サーバプログラムのフローチャートである。 FIGS. 38 and 39 show flowcharts for acquiring changes in features over time. In the figure, the terminal device is shown as a flowchart of the terminal program, the attribute data server device is shown as the flowchart of the attribute data server program, and the point cloud server device is shown as the flowchart of the point cloud server program. be.

まず、端末装置20bのCPU80(以下端末装置20bと省略することがある)は、属性データサーバ60にアクセスし、所望の地物の存在する場所を指定する(ステップS11)。場所の指定は、たとえば緯度経度などで範囲を指定して行う。住所、地名を入力(あるいは検索)するようにし、これを緯度経度の範囲に変換してもよい。また、地図上でクリックや選択した範囲を緯度経度の範囲に変換してもよい。 First, the CPU 80 of the terminal device 20b (hereinafter sometimes abbreviated as the terminal device 20b) accesses the attribute data server 60 and specifies the location where a desired feature exists (step S11). The location is specified by specifying a range using latitude and longitude, for example. It is also possible to input (or search) an address or place name, and convert this into a range of latitude and longitude. Furthermore, the range clicked or selected on the map may be converted into a range of latitude and longitude.

これを受けて、属性サーバ装置60のCPU(以下属性サーバ装置と省略することがある)は、属性データを検索し当該指定された場所内にある外形領域データを抽出する(ステップS21)。属性サーバ装置60は、抽出した外形領域データ(平面形状データとその絶対座標における位置と高さ)、地物名などを端末装置20bに送信する。 In response to this, the CPU of the attribute server device 60 (hereinafter sometimes abbreviated as the attribute server device) searches the attribute data and extracts external shape area data within the specified location (step S21). The attribute server device 60 transmits the extracted external shape area data (planar shape data and its position and height in absolute coordinates), feature name, etc. to the terminal device 20b.

端末装置20bは、受信した外形領域データに基づいて外形領域と地物名をディスプレイ84に表示する(ステップS12)。表示例を、図32に示す。各地物の外形領域102~112が示され、その近傍に地物名が示されている。 The terminal device 20b displays the outer shape area and the feature name on the display 84 based on the received outer shape area data (step S12). A display example is shown in FIG. The outline areas 102 to 112 of each feature are shown, and the name of the feature is shown in the vicinity.

ユーザは、端末装置20bのマウス90を操作し、所望の地物の外形領域を選択する。ここでは、建物の外形領域110が選択されたものとして説明を進める。この選択を受けて、端末装置20bは、建物の外形領域110の外形領域データを指定して、三次元点群データの要求を各点群サーバ装置40a~40nに送信する(ステップS13)。 The user operates the mouse 90 of the terminal device 20b to select the outer shape area of the desired feature. Here, the explanation will proceed assuming that the external area 110 of the building has been selected. In response to this selection, the terminal device 20b specifies the external area data of the external area 110 of the building and transmits a request for three-dimensional point cloud data to each of the point cloud server devices 40a to 40n (step S13).

この要求を受けた各点群サーバ装置40a~40nは、当該外形領域110内の三次元点群データを自らが保持しているかどうかを判断し、保持していれば返送する。ここでは、点群サーバ装置40a~40nのうち、点群サーバ装置40a、40bの2つが、建物の外形領域110の三次元点群データを保持しているものとして説明を進める。 Each of the point cloud server devices 40a to 40n that receives this request determines whether or not it holds the three-dimensional point cloud data within the relevant external area 110, and if so, returns the data. Here, the explanation will proceed assuming that two of the point cloud server devices 40a to 40n, point cloud server devices 40a and 40b, hold three-dimensional point cloud data of the external area 110 of the building.

点群サーバ装置40aのCPU(以下、点群サーバ装置40aと省略することがある)は、当該建物の外形領域110の三次元点群データを、端末装置20bに返信する(ステップS31)。 The CPU of the point cloud server device 40a (hereinafter sometimes abbreviated as point cloud server device 40a) returns the three-dimensional point cloud data of the external area 110 of the building to the terminal device 20b (step S31).

同様に、点群サーバ装置40bのCPU(以下、点群サーバ装置40bと省略することがある)は、当該建物の外形領域110の三次元点群データを、端末装置20bに返信する(ステップS41)。 Similarly, the CPU of the point cloud server device 40b (hereinafter sometimes abbreviated as point cloud server device 40b) returns the three-dimensional point cloud data of the external area 110 of the building to the terminal device 20b (step S41 ).

端末装置20bは、点群サーバ装置40aからの三次元点群データ(第1三次元点群データ)と、点群サーバ装置40bからの三次元点群データ(第2三次元点群データ)とを受信する。ここで、第1三次元点群データと第2三次元点群データは、実質的に同じ方向から地物を計測したものである。ただし、その計測日時が異なっている。 The terminal device 20b receives three-dimensional point cloud data (first three-dimensional point cloud data) from the point cloud server device 40a and three-dimensional point cloud data (second three-dimensional point cloud data) from the point cloud server device 40b. receive. Here, the first three-dimensional point group data and the second three-dimensional point group data are obtained by measuring the terrestrial feature from substantially the same direction. However, the measurement date and time are different.

端末装置20bは、第1三次元点群データに基づいて地物の第1日時における三次元モデルを生成する(ステップS17)。また、第2三次元点群データに基づいて地物の第2日時における三次元モデルを生成する(ステップS17)。 The terminal device 20b generates a three-dimensional model of the feature at the first date and time based on the first three-dimensional point group data (step S17). Furthermore, a three-dimensional model of the feature at the second date and time is generated based on the second three-dimensional point group data (step S17).

端末装置20bは、生成した第1日時の三次元モデルと第2日時の三次元モデルを、ディスプレイ84に比較可能に表示する(ステップS18)。たとえば、図40に示すように、第1日時の三次元モデル120と第2日時の三次元モデル122を表示する。その下には、地物名と計測年月日が示されている。したがって、図40の例であれば、2010年2月24日におけるビルの外形と、2019年3月5日におけるビルの外形が変化していることが比較して分かる。 The terminal device 20b displays the generated three-dimensional model of the first date and time and the three-dimensional model of the second date and time on the display 84 so that they can be compared (step S18). For example, as shown in FIG. 40, a three-dimensional model 120 for a first date and time and a three-dimensional model 122 for a second date and time are displayed. Below that, the feature name and measurement date are shown. Therefore, in the example of FIG. 40, it can be seen by comparison that the outer shape of the building on February 24, 2010 and the outer shape of the building on March 5, 2019 have changed.

なお、比較を容易にするために、両者を異なる色で重ねて表示するようにしてもよい。 Note that, in order to facilitate comparison, both may be displayed in different colors in an overlapping manner.

また、たとえば、第1日時において地物が存在せず、第2日時において地物が存在するような状況があれば(たとえば、道路標識が新たに設置されたなど)、第2日時において当該場所の計測データがあれば地物の三次元点群データを得ることができる。ただし、第1日時において当該場所の計測データがあったとしても、地物の三次元点群データは得られない。したがって、これに基づく三次元モデルを表示することで、第1日時には地物がなく、第2日時には地物が存在することが明確となる。 Also, for example, if there is a situation where a feature does not exist at the first date and time but does exist at the second date and time (for example, a new road sign has been installed), then if there is measurement data for that location at the second date and time, then 3D point cloud data for the feature can be obtained. However, even if there is measurement data for that location at the first date and time, 3D point cloud data for the feature cannot be obtained. Therefore, by displaying a 3D model based on this, it becomes clear that the feature does not exist at the first date and time but does exist at the second date and time.

なお、上記のような経時比較の目的からは、地物に対する計測方向が同じ(あるいは類似した)三次元点群データを用いることが好ましい。
Note that for the purpose of the above-mentioned comparison over time, it is preferable to use three-dimensional point group data in which the measurement direction with respect to the feature is the same (or similar).

4.4その他
(1)上記実施形態では、2つの日時における三次元点群データによってそれぞれ三次元モデルを生成し、比較を行うようにしている。しかし、3つ以上の日時における三次元点群データを取得して、それぞれ三次元モデルを生成し、比較を行うようにしてもよい。
4.4 Others
(1) In the above embodiment, three-dimensional models are generated using three-dimensional point cloud data at two dates and times, and the models are compared. However, it is also possible to acquire three-dimensional point cloud data at three or more dates and times, generate three-dimensional models for each, and compare them.

(2)上記実施形態では、一つの地物についての経時比較を行うようにしている。しかし、複数の地物についての経時比較を行うようにしてもよい。また、所定範囲内にある地物全てについての経時比較を行うようにしてもよい。 (2) In the above embodiment, a comparison is made over time for one feature. However, comparison over time may be performed for a plurality of terrestrial features. Alternatively, comparison over time may be performed for all terrestrial features within a predetermined range.

(3)上記実施形態では、端末装置20bが三次元点群データ要求を行っている(ステップS13)。しかし、属性データサーバ装置60がこれを行い、その結果を端末装置20bに送信するようにしてもよい。 (3) In the above embodiment, the terminal device 20b requests three-dimensional point group data (step S13). However, the attribute data server device 60 may perform this and transmit the result to the terminal device 20b.

(6)上記実施形態では、端末装置20bにおいて三次元モデルの生成を行っている。しかし、属性データサーバ装置60にて行い、その結果を端末装置20bに送信するようにしてもよい。 (6) In the above embodiment, the three-dimensional model is generated in the terminal device 20b. However, the attribute data server device 60 may perform the process and send the result to the terminal device 20b.

(7)上記実施形態では、ステップS17において、端末装置20bが三次元点群データを取得した際に、各三次元点群データがいつ計測されたものであるかを表示していない。しかし、これを明確にするために、取得した三次元点群データに付されているデータに基づいて、図41に示すように、各三次元点群データの測定日時を表示するようにしてもよい。多くの日時の三次元点群データが存在する場合には、このような表示を行うことが好ましい。ユーザは、これを見て、比較したい年月日を所定数選択し、三次元モデルを表示させることができる。 (7) In the above embodiment, when the terminal device 20b acquires the three-dimensional point group data in step S17, it does not display when each three-dimensional point group data was measured. However, in order to clarify this, the measurement date and time of each 3D point cloud data may be displayed based on the data attached to the acquired 3D point cloud data, as shown in FIG. good. When three-dimensional point group data for many dates and times exists, it is preferable to perform such display. The user can view this, select a predetermined number of dates to compare, and display the three-dimensional model.

(8)上記実施形態および変形例は、その本質に反しない限り、他の実施形態と組み合わせて実行可能である。たとえば、同一日時(同一月や同一年でもよい)において異なる方向からの複数の三次元点群データがある場合には、合成三次元点群データを生成して三次元モデルを生成し、これを他の日時の三次元モデルと比較するようにしてもよい。 (8) The above embodiments and modified examples can be implemented in combination with other embodiments unless it contradicts the essence thereof. For example, if there is multiple 3D point cloud data from different directions at the same date and time (even the same month or year), create a 3D model by generating composite 3D point cloud data, and then It may also be compared with three-dimensional models of other dates and times.

(9)上記実施形態では、第1点群サーバ装置40a、第2点群サーバ装置40bが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (9) In the above embodiment, the first point cloud server device 40a and the second point cloud server device 40b are constructed as separate server devices, but they may be constructed as a single server device.

(10)上記実施形態では、第1点群サーバ装置40a、第2点群サーバ装置40bと属性データサーバ装置60とが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (10) In the above embodiment, the first point cloud server device 40a, the second point cloud server device 40b, and the attribute data server device 60 are constructed as separate server devices, but they are constructed as a single server device. You can leave it there.

(11)上記実施形態では、検索された動画データを端末装置において再生するようにしている。この際、当該動画を撮像した近傍の地図や三次元点群データなどを併せて表示するようにしてもよい。また、動画の再生に合致するように、時間とともに変化する撮像位置から見た三次元点群データを表示するようにしてもよい。 (11) In the above embodiment, the searched video data is played back on the terminal device. At this time, a map or three-dimensional point cloud data of the vicinity where the video was captured may also be displayed. Furthermore, three-dimensional point group data viewed from an imaging position that changes over time may be displayed to match the playback of a moving image.

(12)上記実施形態では、2つの時点の地物の三次元モデルを比較表示するようにしている。しかし、両者について、三次元モデルの外形線の法線ベクトルを表示して、表面の角度変化を分かりやすくしてもよい。 (12) In the above embodiment, three-dimensional models of features at two points in time are displayed for comparison. However, for both, the normal vector of the outline of the three-dimensional model may be displayed to make it easier to understand the change in surface angle.

また、微小エリア(25cm立方領域)に区分して、当該エリア内の点の数を比較して表示してもよい。これにより、地物表面の粗さ度合いを比較することができる。 Alternatively, it may be divided into minute areas (25 cm cubic area) and the number of points within the areas may be compared and displayed. This allows the degree of roughness of the surface of the feature to be compared.

さらにまた、各点や各エリアの反射強度を比較してもよい。これによって、表面の滑らかさを比較することができる。 Furthermore, the reflection intensity of each point or area may be compared. This allows the smoothness of the surfaces to be compared.

また、三次元モデルの体積を比較するようにしてもよい。これにより、植栽などの成長、葉の付き具合などを比較できる。 Alternatively, the volumes of three-dimensional models may be compared. This allows you to compare the growth of plants, the condition of leaves, etc.

(13)上記実施形態および変形例は、その本質に反しない限り、他の実施形態と組み合わせて実行可能である。
(13) The above embodiments and modified examples can be implemented in combination with other embodiments unless it contradicts the essence thereof.

5.第5の実施形態
5.1全体構成
図42に、この発明の第5の実施形態による地物検索システムの機能ブロック図を示す。地物検索サーバ装置150の記録部158には、三次元点群データの地物名、外形領域、位置などの属性データ、動画データが記録されている。
5. Fifth embodiment
5.1 Overall Configuration FIG. 42 shows a functional block diagram of a feature search system according to the fifth embodiment of the present invention. The recording unit 158 of the feature search server device 150 records attribute data such as feature names, external areas, and positions of three-dimensional point cloud data, and video data.

地物検索サーバ装置150の属性データ送信手段150は、記録部158に記録されている三次元点群データに対応する地物名または外形領域を読み出して、端末装置40に送信する。端末装置40の地物属性データ表示手段182は受信した地物の地物名または外形領域を、表示部188に表示する。 The attribute data transmitting means 150 of the feature search server device 150 reads the feature name or external shape area corresponding to the three-dimensional point cloud data recorded in the recording unit 158 and transmits it to the terminal device 40 . The feature attribute data display means 182 of the terminal device 40 displays the feature name or outer shape area of the received feature on the display unit 188.

端末装置40を操作する操作者は、マウス90を用いて表示された地物の地物名または外形領域を見て、動画を検索したい地物を選択する。選択情報送信手段184は、いずれの地物が選択されたかを、地物検索サーバ装置150に送信する。 An operator operating the terminal device 40 uses the mouse 90 to look at the feature name or outline area of the displayed feature and selects the feature for which the moving image is to be searched. Selection information transmitting means 184 transmits which feature has been selected to feature search server device 150.

地物検索サーバ装置150の地物位置取得手段154は、選択された地物の位置を取得する。動画データ送信手段156は、動画データを時間順に探索し、地物位置の近傍の撮像位置情報が付された部分を抽出する。抽出した動画データを、端末装置40に送信する。端末装置40の動画再生手段186は、受信した動画データを表示部188において再生する。 The feature position acquisition means 154 of the feature search server device 150 obtains the position of the selected feature. The video data transmitting means 156 searches the video data in chronological order and extracts a portion attached with imaging position information in the vicinity of the feature position. The extracted video data is transmitted to the terminal device 40. The video playback means 186 of the terminal device 40 plays back the received video data on the display unit 188.

これにより、膨大な量の動画データ中から、所望の地物が撮像されている箇所を容易に検索して表示することができる。
This makes it possible to easily search for and display locations where desired terrestrial features are imaged from a huge amount of video data.

5.2システム構成
図43に、第3の実施形態による点群データ管理システムのシステム構成を示す。インターネット上には点群サーバ装置40a、40b・・・40nが設けられている。また、地物検索サーバ装置62も設けられている。点群サーバ装置40a、40b・・・40nには、計測された地物の三次元点群データと計測時に撮像された動画データ(撮像位置情報付き)が記録されている。地物検索サーバ装置62には、図11に示すような属性データが記録されている。これらサーバ装置40a、40b・・・40n、60に、インターネットを介して通信可能に端末装置20a、20b・・・20nが設けられている。
5.2 System Configuration FIG. 43 shows the system configuration of the point cloud data management system according to the third embodiment. Point cloud server devices 40a, 40b, . . . 40n are provided on the Internet. A feature search server device 62 is also provided. The point cloud server devices 40a, 40b, . . . , 40n record three-dimensional point cloud data of measured features and video data (with imaging position information) captured at the time of measurement. Attribute data as shown in FIG. 11 is recorded in the feature search server device 62. These server devices 40a, 40b...40n, 60 are provided with terminal devices 20a, 20b...20n so as to be able to communicate via the Internet.

端末装置20のハードウエア構成は、図29と同様である。点群サーバ装置40、地物検索サーバ装置62も、同様のハードウエア構成である。ただし、点群サーバ装置40においては、端末プログラム96に代えて、点群サーバプログラムが記録されている。また、地物検索サーバ装置62においては、端末プログラム96に代えて、地物検索サーバプログラムが記録されている。
The hardware configuration of the terminal device 20 is the same as that shown in FIG. 29. The point cloud server device 40 and the feature search server device 62 also have similar hardware configurations. However, in the point cloud server device 40, instead of the terminal program 96, a point cloud server program is recorded. Furthermore, in the feature search server device 62, a feature search server program is recorded in place of the terminal program 96.

5.3地物検索処理
図44に、地物検索のフローチャートを示す。図において、端末装置として示しているのは端末プログラムのフローチャート、地物検索サーバ装置として示しているのは地物検索サーバプログラムのフローチャートである。
5.3 Feature Search Process Figure 44 shows a flowchart of feature search. In the figure, what is shown as a terminal device is a flowchart of a terminal program, and what is shown as a feature search server device is a flowchart of a feature search server program.

まず、端末装置20bのCPU80(以下端末装置20bと省略することがある)は、地物検索サーバ装置62にアクセスし、所望の地物の存在する場所を指定する(ステップS11)。場所の指定は、たとえば緯度経度などで範囲を指定して行う。住所、地名を入力(あるいは検索)するようにし、これを緯度経度の範囲に変換してもよい。また、地図上でクリックや選択した範囲を緯度経度の範囲に変換してもよい。 First, the CPU 80 of the terminal device 20b (hereinafter sometimes abbreviated as the terminal device 20b) accesses the feature search server device 62 and specifies the location where a desired feature exists (step S11). The location is specified by specifying a range using latitude and longitude, for example. It is also possible to input (or search) an address or place name, and convert this into a range of latitude and longitude. Furthermore, the range clicked or selected on the map may be converted into a range of latitude and longitude.

これを受けて、地物検索サーバ装置62のCPU(以下地物検索サーバ装置62と省略することがある)は、属性データを検索し当該指定された場所内にある外形領域データを抽出する(ステップS51)。地物検索サーバ装置62は、抽出した外形領域データ(平面形状データとその絶対座標における位置と高さ)、地物名などを端末装置20bに送信する。 In response to this, the CPU of the feature search server device 62 (hereinafter sometimes abbreviated as feature search server device 62) searches the attribute data and extracts the external shape area data within the specified location ( Step S51). The feature search server device 62 transmits the extracted external shape area data (planar shape data and its position and height in absolute coordinates), feature name, etc. to the terminal device 20b.

端末装置20bは、受信した外形領域データに基づいて外形領域と地物名をディスプレイ84に表示する(ステップS12)。表示例を、図32に示す。各地物の外形領域102~112が示され、その近傍に地物名が示されている。 The terminal device 20b displays the outer shape area and the feature name on the display 84 based on the received outer shape area data (step S12). A display example is shown in FIG. The outline areas 102 to 112 of each feature are shown, and the name of the feature is shown in the vicinity.

ユーザは、端末装置20bのマウス90を操作し、所望の地物の外形領域を選択する。ここでは、標識の外形領域106が選択されたものとして説明を進める。この選択を受けて、端末装置20bは、標識の外形領域106の外形領域データを指定して、この標識が撮像されている動画の部分を検索する指示を、地物検索サーバ装置62に送信する(ステップS19)。 The user operates the mouse 90 of the terminal device 20b to select the outer shape area of the desired feature. Here, the description will proceed assuming that the outer shape area 106 of the marker has been selected. In response to this selection, the terminal device 20b specifies the outer shape area data of the outer shape region 106 of the sign and sends an instruction to the feature search server device 62 to search for the part of the video in which this sign is imaged. (Step S19).

地物検索サーバ装置62は、指定された地物の属性データを読み出し、地物の位置(絶対座標による位置)を取得する(ステップS52)。次に、地物検索サーバ装置62は、この地物位置に基づいて、撮像動画データ162において当該地物が撮像されている部分を抽出する(ステップS53)。 The feature search server device 62 reads the attribute data of the specified feature and acquires the location of the feature (position based on absolute coordinates) (step S52). Next, the feature search server device 62 extracts the portion where the feature is imaged in the captured video data 162 based on the location of the feature (step S53).

図45に、撮像動画データ162のデータ構成を示す。動画本体データ170に関連づけて、撮像時刻を示すタイムスタンプTS1、TS2・・・が関連づけて記録されている。また、撮像したカメラ(もしくはカメラを搭載した車など)の位置が絶対座標にて記録されている。また、図示していないが、撮像動画データ162には、当該動画全体としての撮像エリア情報が関連づけられて記録されている。 FIG. 45 shows the data structure of the captured moving image data 162. Time stamps TS1, TS2, . . . indicating imaging times are recorded in association with the moving image body data 170. Additionally, the position of the camera that captured the image (or the vehicle equipped with the camera, etc.) is recorded in absolute coordinates. Further, although not shown, the captured moving image data 162 is recorded in association with imaging area information for the entire moving image.

図46に撮像エリア情報の考え方を示す。実線で示すのが撮像経路Rである。開始点Sから撮像を開始し、終了点Eまで撮像を行ったことが示されている。この撮像経路Rを外包する破線にて示すのが撮像エリアARである。撮像エリアARは、たとえば、対角の絶対座標(撮像エリア情報)によって特定される。 FIG. 46 shows the concept of imaging area information. The imaging path R is indicated by a solid line. It is shown that imaging started from the starting point S and was performed until the ending point E. An imaging area AR is shown by a broken line surrounding this imaging path R. The imaging area AR is specified, for example, by diagonal absolute coordinates (imaging area information).

図47に、ステップS53の動画部分の抽出処理の詳細を示す。地物検索サーバ装置62は、検索対象である地物の位置に基づいて、当該計測位置が撮像エリア内に含まれる動画データ162を選択する(ステップS531)。このようにして選択された動画データ162には、地物を撮像した部分が含まれる可能性がある。地物検索サーバ装置62は、選択された動画データ162のそれぞれについて、当該撮像された部分があるかどうかを検索する。 FIG. 47 shows details of the moving image portion extraction process in step S53. The feature search server device 62 selects the video data 162 in which the measurement position is included in the imaging area based on the position of the feature to be searched (step S531). The video data 162 selected in this way may include a portion where a terrestrial feature is imaged. The feature search server device 62 searches for each of the selected video data 162 to see if the imaged portion exists.

ステップS533において、地物検索サーバ装置62は、動画データ162に記録された撮像位置を時刻順に読み出す(ステップS533)。図45の例であれば、撮像位置PS1、PS2・・・PSnを読み出すことになる。 In step S533, the feature search server device 62 reads out the imaging positions recorded in the video data 162 in chronological order (step S533). In the example of FIG. 45, the imaging positions PS1, PS2, . . . PSn are read out.

地物検索サーバ装置62は、読み出した撮像位置PS1、PS2・・・PSnのうち、最も地物の位置に近い撮像位置PSfを特定する(ステップS534)。地物検索サーバ装置62は、最も近い撮像位置PSfと地物位置との距離が所定値以下であるかどうかを判断する(ステップS535)。所定値以下であれば、当該箇所に地物が撮像されていることになる。地物検索サーバ装置62は、特定した撮像位置PSfの前後所定時間分の動画データを抽出する(ステップS536)。撮像位置PSfと地物位置との距離が所定値を超えていれば、動画部分の抽出は行わない。 The feature search server device 62 identifies the imaging position PSf closest to the location of the feature among the read imaging positions PS1, PS2, . . . PSn (step S534). The feature search server device 62 determines whether the distance between the closest imaging position PSf and the feature position is less than or equal to a predetermined value (step S535). If it is less than or equal to the predetermined value, it means that a feature is being imaged at the location. The feature search server device 62 extracts video data for a predetermined period of time before and after the identified imaging position PSf (step S536). If the distance between the imaging position PSf and the feature position exceeds a predetermined value, the moving image portion is not extracted.

以上の処理を、ステップS531にて選択した動画全てについて行う(ステップS532、S537)。 The above process is performed for all the videos selected in step S531 (steps S532, S537).

以上のようにして、動画データの部分を抽出すると、地物検索サーバ装置62は、これを端末装置20bに送信する(ステップS54)。 After extracting the video data portion as described above, the feature search server device 62 transmits it to the terminal device 20b (step S54).

端末装置20bは、これを受けて、ディスプレイ84に抽出した動画データの部分を表示する(ステップS20)。なお、複数の動画データがある場合には、再生前に、撮像日時とともに動画データを一覧表示し、ユーザに選択させて再生することが好ましい。 In response to this, the terminal device 20b displays the extracted video data portion on the display 84 (step S20). Note that when there is a plurality of moving image data, it is preferable to display a list of the moving image data together with the imaging date and time before playback, and allow the user to select and play back.

ユーザは、この動画を見て、検索対象とした地物の状況を画像として把握することができる。たとえば、図32の画面表示にて特定することが可能な地物の状態(ボルトやナットに付された緩み検出マーク(たとえば合いマーク)の確認、外観劣化状況の確認など)を知りたい時などに用いることができる。 By watching this video, the user can understand the situation of the search target feature as an image. For example, when you want to know the condition of features that can be identified on the screen display in Figure 32 (checking looseness detection marks (for example, matching marks) attached to bolts and nuts, checking the state of appearance deterioration, etc.) It can be used for.

なお、上記の検出マークの確認や、外観劣化状況の確認は、画像処理やAIによって端末装置が行うようにしてもよい。
Note that the above-mentioned confirmation of the detection mark and confirmation of the state of appearance deterioration may be performed by the terminal device using image processing or AI.

5.4その他
(1)上記実施形態では、属性データの地物位置および動画データの撮像位置を絶対座標にて示している。したがって、動画データのそれぞれに対応する属性データを用意しなくとも、属性データが一つあれば複数の動画データから地物を検索することができる。
5.4 Others
(1) In the above embodiment, the feature position of attribute data and the imaging position of video data are indicated in absolute coordinates. Therefore, without having to prepare attribute data corresponding to each piece of video data, it is possible to search for a feature from a plurality of video data as long as there is one piece of attribute data.

なお、各動画データに対応して属性データを設ける場合であれば、地物位置および撮像位置は、両データ間で整合が取れていればよく絶対座標とする必要はない。また、動画データに対応した属性データがある場合には、地物位置と撮像位置に基づく検索ではなく、地物の三次元点群データを作成した日時と撮影日時に基づく検索を行うこともできる。 In addition, if attribute data is provided corresponding to each video data, the terrestrial feature position and the imaging position do not need to be absolute coordinates as long as they are consistent. Additionally, if there is attribute data corresponding to the video data, it is also possible to search based on the date and time when the 3D point cloud data of the feature was created and the date and time of shooting, instead of searching based on the feature location and imaging location. .

(2)上記実施形態では、図32に示すように外形領域と地物名とによって検索したい地物を特定するようにしている。しかし、外形領域を表示せず、地物名だけを表示してユーザに選択させるようにしてもよい。 (2) In the above embodiment, as shown in FIG. 32, the feature to be searched for is specified by the outer shape area and the feature name. However, it is also possible to display only the name of the feature without displaying the external area and to allow the user to select it.

(3)上記実施形態では、地物が撮像されている動画の部分を抽出して再生するようにしている。しかし、これに加えて、動画中の地物にマークを施して再生するようにしてもよい。 (3) In the above embodiment, the portion of the video in which the feature is captured is extracted and played back. However, in addition to this, it is also possible to mark the features in the video and play it back.

地物検索サーバ装置62は、以下のような処理を行うことで、これを実現することができる。たとえば、図48に示すような地物の外形領域があるとき、標識106を検索対象としたとする。この外形領域が配置された空間に、動画を撮像した際の軌跡200を描く。この軌跡200には時刻が付されているので各点における撮像時刻を知ることができる。各撮像時刻t1、t2・・・において、対象とする地物106がいずれの方向に、どのような距離で存在するかを判定する。 The feature search server device 62 can realize this by performing the following processing. For example, when there is an external shape area of a feature as shown in FIG. 48, let us assume that the sign 106 is the search target. A trajectory 200 when a moving image is captured is drawn in the space in which this outer shape area is arranged. Since time is attached to this trajectory 200, the imaging time at each point can be known. At each imaging time t1, t2, . . . , it is determined in which direction and at what distance the target feature 106 exists.

この方向と距離に基づいて、撮像動画の対応する同時刻において、地物106がどのように撮像されるかを算出する。このようにして生成した地物106の外形領域の各時刻における見え方を、抽出した動画に重ねて、端末装置20bに送信する。 Based on this direction and distance, it calculates how the feature 106 is imaged at the corresponding time in the captured video. The appearance of the outer region of the feature 106 generated in this way at each time is superimposed on the extracted video and transmitted to the terminal device 20b.

端末装置20bにおいてこれを再生すると、図49に示すように、画像中の目的とする地物を囲うように外形領域の枠が表示されることになる。したがって、ユーザは、目的とする地物を容易に動画中から見いだすことができる。 When this is played back on the terminal device 20b, a frame of the external area will be displayed to surround the target feature in the image, as shown in FIG. Therefore, the user can easily find the target feature in the video.

(4)上記実施形態では、点群サーバ装置40と検索サーバ装置62とが別のサーバ装置として構築されていたが、単一のサーバ装置として構築されていてもよい。 (4) In the above embodiment, the point cloud server device 40 and the search server device 62 are constructed as separate server devices, but they may be constructed as a single server device.

(5)上記実施形態では、動画を検索する場合について説明した。しかし、同様の処理にて、撮像場所と撮像時間の付された静止画を検索することもできる。 (5) In the above embodiment, the case where a video is searched has been described. However, the same process can also be used to search for still images with an image capture location and image capture time attached.

(6)上記実施形態および変形例は、その本質に反しない限り、他の実施形態と組み合わせて実行可能である。
(6) The above embodiments and modified examples can be implemented in combination with other embodiments unless it contradicts the essence thereof.

Claims (26)

サーバ装置と前記サーバ装置と通信可能な端末装置とを備えた地物管理システムであって、
前記サーバ装置は、
位置の定義された地物を含む三次元点群データを記録する記録部と、
前記端末装置から送信されてきた地物を含む撮像画像と撮像位置を受信する受信手段と、
前記受信した撮像位置を中心として、前記三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記受信した地物を含む撮像画像と前記生成された各二次元投影画像との比較に基づいて、地物の撮像画像と地物の三次元点群データとを対応付ける撮像画像・点群データ対応手段とを備え、
前記端末装置は、
カメラによって撮像された地物を含む撮像画像を撮像位置とともに地物管理サーバ装置に送信する画像送信手段とを備えたことを特徴とする地物管理システム。
A feature management system comprising a server device and a terminal device capable of communicating with the server device,
The server device includes:
a recording unit that records three-dimensional point cloud data including features with defined positions;
receiving means for receiving a captured image including a feature and a captured position transmitted from the terminal device;
Centering the received imaging position, the three-dimensional point cloud data is projected onto a plane from different angles to generate two-dimensional projected images from a plurality of angles, and the captured image including the received terrestrial feature and the generated image are generated. and a captured image/point cloud data correspondence means for associating the captured image of the feature with the three-dimensional point cloud data of the feature based on the comparison with each of the two-dimensional projected images,
The terminal device is
1. A feature management system comprising: image transmitting means for transmitting a captured image including a feature captured by a camera to a feature management server device along with an imaging position.
位置の定義された地物を含む三次元点群データを記録する記録部と、
端末装置から送信されてきた地物を含む撮像画像と撮像位置を受信する受信手段と、
前記受信した撮像位置を中心として、前記三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記受信した地物を含む撮像画像と前記生成された各二次元投影画像との比較に基づいて、地物の撮像画像と地物の三次元点群データとを対応付ける撮像画像・点群データ対応手段と、
を備えたサーバ装置。
a recording unit that records three-dimensional point cloud data including features with defined positions;
a receiving means for receiving a captured image including a feature and a captured position transmitted from a terminal device;
Centering the received imaging position, the three-dimensional point cloud data is projected onto a plane from different angles to generate two-dimensional projected images from a plurality of angles, and the captured image including the received terrestrial feature and the generated image are generated. a captured image/point cloud data correspondence means for associating the captured image of the feature with the three-dimensional point cloud data of the feature based on the comparison with each of the two-dimensional projected images;
A server device equipped with
サーバ装置をコンピュータによって実現するためのサーバプログラムであって、コンピュータを、
端末装置から送信されてきた地物を含む撮像画像と撮像位置を受信する受信手段と、
前記受信した撮像位置を中心として、記録部に記録された位置の定義された地物を含む三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記受信した地物を含む撮像画像と前記生成された各二次元投影画像との比較に基づいて、地物の撮像画像と地物の三次元点群データとを対応付ける撮像画像・点群データ対応手段として機能させるためのサーバプログラム。
A server program for realizing a server device by a computer, the computer
a receiving means for receiving a captured image including a feature and a captured position transmitted from a terminal device;
Centering on the received imaging position, three-dimensional point cloud data including defined features recorded in the recording unit is projected onto a plane from different angles to generate two-dimensional projected images from a plurality of angles. and a captured image/point cloud that associates the captured image of the feature with the three-dimensional point cloud data of the feature based on a comparison between the received captured image including the feature and each of the generated two-dimensional projection images. A server program that functions as a data handling means.
請求項1~3のいずれかのシステム、装置またはプログラムにおいて、
前記撮像画像・点群データ対応手段は、
前記撮像画像中の地物の外形形状を示す撮像画像外形形状生成手段と、
前記各二次元投影画像中の地物の外形形状を示す二次元投影画像外形形状生成手段と、
前記撮像画像中の地物の外形形状と前記各二次元投影画像中の地物の外形形状を比較して、外形形状が合致する二次元投影画像を選択し、地物の撮像画像と地物の三次元点群データとを対応付ける手段とを備えることを特徴とするシステム、装置またはプログラム。
The system, device or program according to any one of claims 1 to 3,
The captured image/point cloud data correspondence means includes:
a captured image outer shape generating means that indicates an outer shape of a feature in the captured image;
a two-dimensional projection image outer shape generation means that indicates the outer shape of the feature in each of the two-dimensional projection images;
Compare the external shape of the feature in the captured image with the external shape of the feature in each of the two-dimensional projection images, select a two-dimensional projection image whose external shape matches, and compare the captured image of the feature with the feature A system, device, or program comprising means for associating three-dimensional point cloud data of
請求項1~4のいずれかのシステム、装置またはプログラムにおいて、
前記サーバ装置の記録部は、地物の外形を囲った外形領域、地物名を記録しており、
前記撮像画像・点群データ対応手段は、
前記撮像画像中から地物部分を抽出して地物名を推定する地物推定手段を有し、
前記受信した撮像位置を中心として、推定した地物名と同じ地物名を有する地物の三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記受信した地物部分の撮像画像と前記生成された各二次元投影画像との比較に基づいて、地物の撮像画像と地物の三次元点群データとを対応付けることを特徴とするシステム、装置またはプログラム。
In the system, device or program according to any one of claims 1 to 4,
The recording unit of the server device records an outer shape area surrounding the outer shape of the feature and a feature name,
The captured image/point cloud data correspondence means includes:
comprising a feature estimation means for extracting a feature part from the captured image and estimating a feature name;
Centering on the received imaging position, three-dimensional point cloud data of features having the same feature name as the estimated feature name is projected onto a plane from different angles to generate two-dimensional projected images from multiple angles. and, based on a comparison between the received captured image of the feature portion and each of the generated two-dimensional projection images, the captured image of the feature is associated with the three-dimensional point cloud data of the feature. A system, device or program.
請求項1~4のいずれかのシステム、装置またはプログラムにおいて、
前記サーバ装置の記録部は、地物の外形を囲った外形領域、地物名を記録しており、
前記端末装置の画像送信手段は、操作者の入力を受けて、撮像画像中の地物のバウンダリボックスおよび地物名を付与してサーバ装置に送信し、
前記撮像画像・点群データ対応手段は、
前記受信した撮像位置を中心として、送信されてきた地物名と同じ地物名を有する地物の三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記受信した地物部分の撮像画像と前記生成された各二次元投影画像との比較に基づいて、地物の撮像画像と地物の三次元点群データとを対応付けることを特徴とするシステム、装置またはプログラム。
In the system, device or program according to any one of claims 1 to 4,
The recording unit of the server device records an outer shape area surrounding the outer shape of the feature and a feature name,
The image transmitting means of the terminal device receives an input from an operator, adds a boundary box and a feature name of a feature in the captured image, and transmits the result to the server device;
The captured image/point cloud data correspondence means includes:
Three-dimensional point cloud data of a feature having the same feature name as the transmitted feature name is projected onto a plane from different angles, centering on the received imaging position, to create two-dimensional projected images from multiple angles. and, based on a comparison between the received captured image of the feature portion and each of the generated two-dimensional projection images, the captured image of the feature is associated with the three-dimensional point cloud data of the feature. A system, device, or program that
請求項1~6のいずれかのシステム、装置またはプログラムにおいて、
前記撮影画像・点群データ対応手段は、前記撮像位置の近傍に仮想撮像位置を複数個生成し、各仮想撮像位置を基準として三次元点群データを平面投影した二次元投影画像を生成することを特徴とするシステム、装置またはプログラム。
The system, device or program according to any one of claims 1 to 6,
The photographed image/point cloud data correspondence means generates a plurality of virtual imaging positions in the vicinity of the imaging position, and generates a two-dimensional projection image in which three-dimensional point cloud data is projected onto a plane using each virtual imaging position as a reference. A system, device or program characterized by:
請求項1~7のいずれかのシステム、装置またはプログラムにおいて、
前記撮影画像・点群データ対応手段は、地物に対する撮像位置および撮像方向も特定することを特徴とするシステム、装置またはプログラム。
The system, device or program according to any one of claims 1 to 7,
A system, device, or program characterized in that the photographed image/point cloud data correspondence means also specifies an imaging position and an imaging direction with respect to a terrestrial feature.
請求項1~8のいずれかのシステム、装置またはプログラムにおいて、
前記端末装置から送信される地物の撮影画像には、撮像方向も付されており、
前記撮影画像・点群データ対応手段は、前記撮影方向に基づいて、前記二次元投影画像を生成する角度を絞り込むことを特徴とするシステム、装置またはプログラム。
The system, device or program according to any one of claims 1 to 8,
An imaging direction is also attached to the photographed image of the feature transmitted from the terminal device,
A system, device, or program, wherein the photographed image/point cloud data correspondence means narrows down the angle for generating the two-dimensional projection image based on the photographing direction.
請求項1~9のいずれかのシステム、装置またはプログラムにおいて、
前記三次元点群データ、前記属性データの外形領域は、絶対座標にて示されることを特徴とするシステム、装置またはプログラム。
The system, device or program according to any one of claims 1 to 9,
A system, device, or program characterized in that the three-dimensional point group data and the outer shape area of the attribute data are indicated in absolute coordinates.
請求項1~10のいずれかのシステム、装置またはプログラムにおいて、
前記地物抽出手段は、過去の地物の撮像位置と撮像方向に基づいて、地物の外形領域データまたは地物の三次元点群データを平面に投影し、過去二次元投影画像を生成して、これを第2の端末装置に送信し、
当該第2の端末装置は、カメラによる撮像の際に、カメラのファインダー画像に前記位置二次元投影画像を重ねて表示することを特徴とするシステム、装置またはプログラム。
The system, device or program according to any one of claims 1 to 10,
The feature extracting means projects the external shape area data of the feature or the three-dimensional point cloud data of the feature onto a plane based on the imaging position and imaging direction of the feature in the past, and generates a past two-dimensional projection image. and send this to the second terminal device,
A system, device, or program characterized in that the second terminal device displays the two-dimensional positional projection image superimposed on a finder image of the camera when capturing an image with the camera.
請求項1~11のいずれかのシステム、装置またはプログラムにおいて、
前記サーバ装置は、
前記三次元点群データを記録する点群データサーバ装置と、
前記外形領域を含む属性データを記録する属性データサーバ装置とを備えることを特徴とするシステム、装置またはプログラム。
The system, device or program according to any one of claims 1 to 11,
The server device includes:
a point cloud data server device that records the three-dimensional point cloud data;
A system, device, or program comprising: an attribute data server device that records attribute data including the external shape area.
位置の定義された地物を含む三次元点群データを記録し、
地物を含む撮像画像を撮像した際の撮像位置を中心として、前記三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、
前記撮像画像と前記生成された各二次元投影画像との比較に基づいて、地物の撮像画像と地物の三次元点群データとを対応付けることを特徴とする地物管理方法。
Record 3D point cloud data including features with defined positions,
generating two-dimensional projected images from a plurality of angles by projecting the three-dimensional point cloud data onto a plane from different angles, centering on the imaging position at which the captured image including the terrestrial feature was captured;
A feature management method characterized by associating a captured image of the feature with three-dimensional point cloud data of the feature based on a comparison between the captured image and each of the generated two-dimensional projection images.
サーバ装置と前記サーバ装置と通信可能な端末装置とを備えた地物管理システムであって、
前記サーバ装置は、
位置の定義された第1領域および第2領域の区別がなされた三次元点群データを記録する記録部と、
前記端末装置から送信されてきた第1領域および第2領域を含む撮像画像と撮像位置を受信する受信手段と、
前記撮像画像に基づいて、第1領域および第2領域を他の部分から区別して抽出する領域推定手段と、
前記受信した撮像位置を中心として、第1領域および第2領域の区別された前記三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記第1領域および第2領域の区別された撮像画像と前記生成された各二次元投影画像との比較に基づいて、撮影画像と三次元点群データとを対応付ける撮像画像・点群データ対応手段とを備え、
前記端末装置は、
カメラによって撮像された第1領域および第2領域を含む撮像画像を撮像位置とともに地物管理サーバ装置に送信する画像送信手段とを備えたことを特徴とする地物管理システム。
A feature management system comprising a server device and a terminal device capable of communicating with the server device,
The server device includes:
a recording unit that records three-dimensional point group data in which a first area and a second area with defined positions are distinguished;
Receiving means for receiving a captured image including a first area and a second area and an image capturing position transmitted from the terminal device;
region estimating means for distinguishing and extracting a first region and a second region from other parts based on the captured image;
Centering the received imaging position, the differentiated three-dimensional point group data of the first region and the second region are projected onto a plane from different angles to generate two-dimensional projected images from a plurality of angles, and the a captured image/point cloud data correspondence means for associating the captured image with the three-dimensional point cloud data based on a comparison between the differentiated captured images of the first region and the second region and each of the generated two-dimensional projection images; Equipped with
The terminal device is
1. A feature management system comprising: image transmitting means for transmitting a captured image including a first region and a second region captured by a camera to a feature management server device together with an imaging position.
位置の定義された第1領域および第2領域の区別がなされた三次元点群データを記録する記録部と、
端末装置から送信されてきた第1領域および第2領域を含む撮像画像と撮像位置を受信する受信手段と、
前記撮像画像に基づいて、第1領域および第2領域を他の部分から区別して抽出する領域推定手段と、
前記受信した撮像位置を中心として、第1領域および第2領域の区別された前記三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記第1領域および第2領域の区別された撮像画像と前記生成された各二次元投影画像との比較に基づいて、撮影画像と三次元点群データとを対応付ける撮像画像・点群データ対応手段と、
を備えたサーバ装置。
a recording unit that records three-dimensional point group data in which a first area and a second area with defined positions are distinguished;
receiving means for receiving a captured image including the first region and the second region and the captured position transmitted from the terminal device;
region estimating means for distinguishing and extracting a first region and a second region from other parts based on the captured image;
Centering the received imaging position, the differentiated three-dimensional point group data of the first region and the second region are projected onto a plane from different angles to generate two-dimensional projected images from a plurality of angles, and the a captured image/point cloud data correspondence means for associating the captured image with the three-dimensional point cloud data based on a comparison between the differentiated captured images of the first region and the second region and each of the generated two-dimensional projection images; ,
A server device equipped with
サーバ装置をコンピュータによって実現するためのサーバプログラムであって、コンピュータを、
端末装置から送信されてきた第1領域および第2領域を含む撮像画像と撮像位置を受信する受信手段と、
前記撮像画像に基づいて、第1領域および第2領域を他の部分から区別して抽出する領域推定手段と、
前記受信した撮像位置を中心として、記録部に記録された第1領域および第2領域の区別された前記三次元点群データを、異なる角度から平面投影して、複数の角度からの二次元投影画像を生成し、前記第1領域および第2領域の区別された撮像画像と前記生成された各二次元投影画像との比較に基づいて、撮影画像と三次元点群データとを対応付ける撮像画像・点群データ対応手段として機能させるためのサーバプログラム。
A server program for realizing a server device by a computer, the computer
receiving means for receiving a captured image including the first region and the second region and the captured position transmitted from the terminal device;
region estimating means for distinguishing and extracting a first region and a second region from other parts based on the captured image;
Centering on the received imaging position, the differentiated three-dimensional point group data of the first area and the second area recorded in the recording unit are projected onto a plane from different angles, and two-dimensional projection is performed from a plurality of angles. A captured image that generates an image and associates the captured image with three-dimensional point cloud data based on a comparison between the differentiated captured images of the first region and the second region and each of the generated two-dimensional projection images. A server program that functions as a point cloud data compatible means.
サーバ装置と当該サーバ装置と通信可能な携帯端末装置とを備えた地物管理システムであって、
前記サーバ装置は、
地物を含む三次元点群データおよび過去の撮像位置、撮像方向を記録する記録部と、
前記過去の撮像位置、撮像方向に基づいて、地物の三次元点群データまたはその三次元モデルを平面に投影して過去二次元投影画像を生成し、端末装置に送信する過去二次元投影画像生成手段とを備え、
前記端末装置は、
地物を撮像するためのカメラのファインダー画像に、サーバ装置から受信した過去二次元投影画像を透過画像として重ねて表示部に表示する表示手段とを備えたことを特徴とする地物管理システム。
A feature management system comprising a server device and a mobile terminal device capable of communicating with the server device,
The server device includes:
a recording unit that records three-dimensional point cloud data including terrestrial objects, past imaging positions, and imaging directions;
A past two-dimensional projected image is generated by projecting the three-dimensional point cloud data of the feature or its three-dimensional model onto a plane based on the past imaging position and imaging direction, and the past two-dimensional projected image is transmitted to the terminal device. and generating means,
The terminal device is
1. A feature management system comprising: display means for superimposing a past two-dimensional projection image received from a server device as a transparent image on a finder image of a camera for capturing an image of the feature on a display unit.
地物を含む三次元点群データおよび過去の撮像位置、撮像方向を記録する記録部と、
前記過去の撮像位置、撮像方向に基づいて、地物の三次元点群データまたはその三次元モデルを平面に投影して過去二次元投影画像を生成し、携帯端末装置に送信する過去二次元投影画像生成手段と、
を備えたサーバ装置。
a recording unit that records three-dimensional point cloud data including terrestrial objects, past imaging positions, and imaging directions;
Past two-dimensional projection of generating a past two-dimensional projection image by projecting three-dimensional point cloud data of the feature or its three-dimensional model onto a plane based on the past imaging position and imaging direction, and transmitting the generated past two-dimensional projection image to a mobile terminal device. image generating means;
A server device equipped with
コンピュータによってサーバ装置を実現するためのサーバプログラムであって、コンピュータを、
記録部に記録された過去の撮像位置、撮像方向に基づいて、地物の三次元点群データまたはその三次元モデルを平面に投影して過去二次元投影画像を生成し、端末装置に送信する過去二次元投影画像生成手段として機能させるためのサーバプログラム。
A server program for realizing a server device using a computer, the computer
Based on the past imaging position and imaging direction recorded in the recording unit, project the 3D point cloud data of the feature or its 3D model onto a plane to generate a past 2D projection image, and send it to the terminal device. A server program for functioning as a past two-dimensional projection image generation means.
地物を含む三次元点群データおよび過去の撮像位置、撮像方向を記録しておき、
前記過去の撮像位置、撮像方向に基づいて、地物の三次元点群データまたはその三次元モデルを平面に投影して過去二次元投影画像を生成し、
カメラのファインダー画像に、過去二次元投影画像を重ねて表示することを特徴とする地物管理方法。
Record 3D point cloud data including terrestrial objects, past imaging positions, and imaging directions.
generating a past two-dimensional projected image by projecting three-dimensional point cloud data of the feature or its three-dimensional model onto a plane based on the past imaging position and imaging direction;
A feature management method characterized by displaying past two-dimensional projected images superimposed on a camera finder image.
サーバ装置と当該サーバ装置と通信可能な携帯端末装置とを備えた地物管理システムであって、
前記サーバ装置は、
地物を含む三次元点群データおよび過去の撮像位置、撮像方向を記録する記録部と、
撮像位置、撮像方向を端末装置に送信する送信手段とを備え、
前記端末装置は、
受信した撮像位置、撮像方向を、表示部において地図上に表示する表示手段を備えたことを特徴とする地物管理システム。
A feature management system comprising a server device and a mobile terminal device capable of communicating with the server device,
The server device includes:
a recording unit that records three-dimensional point cloud data including terrestrial objects, past imaging positions, and imaging directions;
and transmitting means for transmitting the imaging position and imaging direction to the terminal device,
The terminal device is
A feature management system comprising: a display unit that displays the received imaging position and imaging direction on a map on a display unit.
地物を含む三次元点群データおよび過去の撮像位置、撮像方向を記録しておき、
前記過去の撮像位置、撮像方向を地図上に表示することを特徴とする地物管理方法。
Record 3D point cloud data including terrestrial objects, past imaging positions, and imaging directions.
A feature management method characterized by displaying the past imaging positions and imaging directions on a map.
サーバ装置と当該サーバ装置と通信可能な端末装置とを備えた地物管理システムであって、
前記サーバ装置は、道路表示地物を含む反射強度付きの三次元点群データおよび前記道路表示地物の外形を囲った外形領域データを記録しており、
前記端末装置は、
前記サーバ装置から前記道路表示地物の外形領域データを取得する外形領域データ取得手段と、
当該道路表示地物の外形領域データに対応する三次元点群データを、前記サーバ装置から取得する三次元点群データ取得手段と、
取得した道路表示地物の外形領域と三次元点群データとを重ねて表示部に表示する表示手段と、
を備えたことを特徴とする地物管理システム。
A feature management system comprising a server device and a terminal device capable of communicating with the server device,
The server device records three-dimensional point cloud data with reflection intensity including road display features and external shape area data surrounding the outer shape of the road display features,
The terminal device is
external shape area data acquisition means for acquiring external shape area data of the road display feature from the server device;
3D point cloud data acquisition means for acquiring 3D point cloud data corresponding to the external shape area data of the road display feature from the server device;
a display means for superimposing and displaying the acquired outer shape area of the road display feature and three-dimensional point cloud data on a display unit;
A feature management system characterized by:
サーバ装置から前記道路表示地物の外形領域データを取得する外形領域データ取得手段と、
当該道路表示地物の外形領域データに対応する三次元点群データを、前記サーバ装置から取得する三次元点群データ取得手段と、
取得した道路表示地物の外形領域と三次元点群データとを重ねて表示部に表示する表示手段と、
を備えた端末装置。
External shape area data acquisition means for acquiring external shape area data of the road display feature from a server device;
three-dimensional point cloud data acquisition means for acquiring three-dimensional point cloud data corresponding to the external shape area data of the road display feature from the server device;
a display means for superimposing and displaying the acquired outer shape area of the road display feature and three-dimensional point cloud data on a display unit;
A terminal device equipped with
コンピュータによって端末装置を実現するためのサーバプログラムであって、コンピュータを、
サーバ装置から前記道路表示地物の外形領域データを取得する外形領域データ取得手段と、
当該道路表示地物の外形領域データに対応する三次元点群データを、前記サーバ装置から取得する三次元点群データ取得手段と、
取得した道路表示地物の外形領域と三次元点群データとを重ねて表示部に表示する表示手段として機能させるための端末プログラム。
A server program for realizing a terminal device by a computer, which
External shape area data acquisition means for acquiring external shape area data of the road display feature from a server device;
three-dimensional point cloud data acquisition means for acquiring three-dimensional point cloud data corresponding to the external shape area data of the road display feature from the server device;
A terminal program for functioning as a display means for superimposing and displaying the acquired external area of a road display feature and three-dimensional point cloud data on a display unit.
道路表示地物を含む反射強度付きの三次元点群データおよび前記道路表示地物の外形を囲った外形領域データを記録しておき、
前記道路表示地物の外形領域データを取得し、
当該道路表示地物の外形領域データに対応する三次元点群データを取得し、
取得した道路表示地物の外形領域と三次元点群データとを重ねて表示部に表示することを特徴とする地物管理方法。


Recording three-dimensional point cloud data with reflection intensity including the road display feature and external shape area data surrounding the outer shape of the road display feature,
Obtaining the outer shape area data of the road display feature,
Obtaining three-dimensional point cloud data corresponding to the outer shape area data of the road display feature,
A feature management method characterized by displaying an acquired external shape area of a road display feature and three-dimensional point cloud data on a display unit in an overlapping manner.


JP2024010759A 2019-03-29 2024-01-29 Feature management system Pending JP2024039070A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024010759A JP2024039070A (en) 2019-03-29 2024-01-29 Feature management system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019065920A JP7307908B2 (en) 2019-03-29 2019-03-29 Feature management system
JP2023051608A JP7467722B2 (en) 2019-03-29 2023-03-28 Feature Management System
JP2024010759A JP2024039070A (en) 2019-03-29 2024-01-29 Feature management system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2023051608A Division JP7467722B2 (en) 2019-03-29 2023-03-28 Feature Management System

Publications (1)

Publication Number Publication Date
JP2024039070A true JP2024039070A (en) 2024-03-21

Family

ID=72716588

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019065920A Active JP7307908B2 (en) 2019-03-29 2019-03-29 Feature management system
JP2023051608A Active JP7467722B2 (en) 2019-03-29 2023-03-28 Feature Management System
JP2024010759A Pending JP2024039070A (en) 2019-03-29 2024-01-29 Feature management system

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2019065920A Active JP7307908B2 (en) 2019-03-29 2019-03-29 Feature management system
JP2023051608A Active JP7467722B2 (en) 2019-03-29 2023-03-28 Feature Management System

Country Status (1)

Country Link
JP (3) JP7307908B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5500388B2 (en) * 2011-02-16 2014-05-21 アイシン・エィ・ダブリュ株式会社 Shooting position specifying system, shooting position specifying program, and shooting position specifying method
US9851877B2 (en) 2012-02-29 2017-12-26 JVC Kenwood Corporation Image processing apparatus, image processing method, and computer program product
JP6590653B2 (en) * 2014-11-19 2019-10-16 首都高技術株式会社 Point cloud data utilization system
WO2017164288A1 (en) 2016-03-24 2017-09-28 日本電気株式会社 System, terminal, method, and program for displaying images
JP6610640B2 (en) * 2016-10-28 2019-11-27 Jfeスチール株式会社 Position recognition method and system, and abnormality determination method and system
CN108871314B (en) * 2018-07-18 2021-08-17 江苏实景信息科技有限公司 Positioning and attitude determining method and device

Also Published As

Publication number Publication date
JP7467722B2 (en) 2024-04-15
JP7307908B2 (en) 2023-07-13
JP2020165778A (en) 2020-10-08
JP2023083310A (en) 2023-06-15

Similar Documents

Publication Publication Date Title
JP7485749B2 (en) Video-based localization and mapping method and system - Patents.com
TWI798305B (en) Systems and methods for updating highly automated driving maps
Neitzel et al. Mobile 3D mapping with a low-cost UAV system
KR100912715B1 (en) Method and apparatus of digital photogrammetry by integrated modeling for different types of sensors
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
JP7360111B2 (en) Point cloud data management system
CN111540048A (en) Refined real scene three-dimensional modeling method based on air-ground fusion
JP2008527542A (en) Navigation and inspection system
JP6950832B2 (en) Position coordinate estimation device, position coordinate estimation method and program
KR20110044217A (en) Method of displaying navigation data in 3d
KR20120132704A (en) Bird's-eye image forming device, bird's-eye image forming method, and recording medium
JP2005268847A (en) Image generating apparatus, image generating method, and image generating program
JP2011170599A (en) Outdoor structure measuring instrument and outdoor structure measuring method
US20230138487A1 (en) An Environment Model Using Cross-Sensor Feature Point Referencing
JP2022042146A (en) Data processor, data processing method, and data processing program
JPWO2016031229A1 (en) Road map creation system, data processing device and in-vehicle device
JP2009140402A (en) Information display device, information display method, information display program, and recording medium with recorded information display program
KR101047378B1 (en) Outdoor advertisement measuring system
WO2010068185A1 (en) Method of generating a geodetic reference database product
JP7467722B2 (en) Feature Management System
Cho 3D organization of 2D urban imagery
CN110617800A (en) Emergency remote sensing monitoring method, system and storage medium based on civil aircraft
WO2024062602A1 (en) Three-dimensionalization system, three-dimensionalization method, and recording medium for recording program
CN111220156B (en) Navigation method based on city live-action
CN111275823B (en) Target associated data display method, device and system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240301