JP6730501B1 - Automatic plotting apparatus, automatic plotting method, and automatic plotting program - Google Patents
Automatic plotting apparatus, automatic plotting method, and automatic plotting program Download PDFInfo
- Publication number
- JP6730501B1 JP6730501B1 JP2019185268A JP2019185268A JP6730501B1 JP 6730501 B1 JP6730501 B1 JP 6730501B1 JP 2019185268 A JP2019185268 A JP 2019185268A JP 2019185268 A JP2019185268 A JP 2019185268A JP 6730501 B1 JP6730501 B1 JP 6730501B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- line
- point cloud
- normal vector
- learned model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 31
- 238000000605 extraction Methods 0.000 claims abstract description 33
- 238000010801 machine learning Methods 0.000 claims abstract description 27
- 239000000284 extract Substances 0.000 claims abstract description 6
- 238000004364 calculation method Methods 0.000 claims description 40
- 238000012800 visualization Methods 0.000 claims description 40
- 238000004040 coloring Methods 0.000 claims description 19
- 239000003086 colorant Substances 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 2
- 238000007794 visualization technique Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract description 4
- 230000008569 process Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 11
- 238000005259 measurement Methods 0.000 description 8
- 238000011960 computer-aided design Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012876 topography Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Instructional Devices (AREA)
Abstract
【課題】測量対象を表す点群の分布状態を色の違いで表現したカラー画像から地図を自動作成するための装置を提供する。【解決手段】自動図化装置は、線で表現された地図を自動作成するための装置であって、測量対象を表す点群の分布状態を色の違いで表現したカラー画像から、線で表現すべき部分を含む画像を第1の学習済みモデルを用いて抽出する線抽出部と、線抽出部により抽出した画像に基づいて細線化画像を生成する細線化画像生成部と、を有する。第1の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、線の画像を教師画像として、機械学習を実行することにより得られた学習済みモデルである。【選択図】図2PROBLEM TO BE SOLVED: To provide an apparatus for automatically creating a map from a color image in which a distribution state of a point cloud representing a survey target is represented by a difference in color. An automatic plotting device is a device for automatically creating a map represented by a line, and represents a distribution state of a point cloud representing a survey target by a color difference from a color image. A line extraction unit that extracts an image including a portion to be used by using the first learned model, and a thinned image generation unit that generates a thinned image based on the image extracted by the line extraction unit. The first learned model is a learned model obtained by executing machine learning using an image including a portion to be expressed by a line as an input image and a line image as a teacher image. [Selection diagram] Figure 2
Description
本発明は、測量対象を表す点群の分布状態を色の違いで表現したカラー画像から線で表現された地図を自動作成するための装置、方法およびプログラムに関する。 The present invention relates to an apparatus, a method and a program for automatically creating a map represented by lines from a color image in which a distribution state of point groups representing a survey target is represented by different colors.
近年、ドローン(UAV、無人航空機)など飛行体を用いた航空レーザ測量技術の高度化が著しい。航空レーザ測量は、計測領域の上空を飛行する飛行体から地表に向けてレーザ光を照射しつつ、地物からの反射光を計測することにより行われる。航空レーザ測量によれば、地形や建物などをあらわす情報として三次元点群データを取得することが可能となる。三次元点群データは、空間座標情報(三次元の位置)とその位置でのカラー情報とを含んで構成される(たとえば、特許文献1参照)。 In recent years, the sophistication of aeronautical laser surveying technology using a flying body such as a drone (UAV, unmanned aerial vehicle) has been remarkable. The aviation laser survey is performed by measuring the reflected light from the feature while irradiating a laser beam from the flying object flying above the measurement area toward the ground surface. According to aerial laser surveying, it is possible to acquire three-dimensional point cloud data as information representing topography and buildings. The three-dimensional point cloud data is configured to include spatial coordinate information (three-dimensional position) and color information at that position (for example, see Patent Document 1).
土木、建設、防災、等の分野では、航空レーザ測量により得られた三次元点群データを利用して、地形、道路、樹木、建物、等、測量対象を線で表現した地図が作成される。 In the fields of civil engineering, construction, disaster prevention, etc., three-dimensional point cloud data obtained by aerial laser surveying is used to create maps that represent the surveyed objects such as topography, roads, trees, buildings, etc. with lines. ..
従来この種の地図の作成は、オペレータが三次元点群データの画像を視認しつつ、マウスなどの入力装置を操作して線を描くことにより行われていたため、非常に効率が悪いという問題があった。 Conventionally, this kind of map was created by an operator operating an input device such as a mouse to draw a line while visually recognizing the image of the three-dimensional point cloud data, so that there is a problem that it is very inefficient. there were.
そこで、本発明は、測量対象を表す点群の分布状態を色の違いで表現したカラー画像から地図を自動作成するための装置、方法およびプログラムを提供する。 Therefore, the present invention provides an apparatus, a method, and a program for automatically creating a map from a color image in which the distribution state of a point cloud representing a survey target is represented by different colors.
上記課題を解決するために、請求項1記載の発明は、線で表現された地図を自動作成するための装置であって、測量により得られた三次元点群データから測量対象を表す点群の法線ベクトルを求める法線ベクトル算出部と、水平面または垂直面に対する前記法線ベクトルの角度を求める角度算出部と、前記角度に応じて測量対象の各部に色付けをすることにより、前記測量対象を表す点群の分布状態を色の違いで表現したカラー画像を生成する点群分布可視化部と、前記点群分布可視化部により生成されたカラー画像から、線で表現すべき部分を含む画像を第1の学習済みモデルを用いて抽出する線抽出部と、前記線抽出部により抽出された画像に基づいて細線化画像を生成する細線化画像生成部と、を有し、前記第1の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、線の画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであり、前記点群分布可視化部は、前記法線ベクトルの角度と予め設定した色相環との関係とに基づいて、前記法線ベクトルの始点ごとに色付けを行うことを特徴とする自動図化装置である。In order to solve the above-mentioned problems, the invention according to claim 1 is an apparatus for automatically creating a map represented by a line, and a point cloud representing a survey target from three-dimensional point cloud data obtained by surveying. A normal vector calculation unit that obtains a normal vector of the measurement object, an angle calculation unit that obtains an angle of the normal vector with respect to a horizontal plane or a vertical plane, and by coloring each part of the measurement object according to the angle, the measurement object From the color image generated by the point cloud distribution visualization unit that generates a color image in which the distribution state of the point cloud is represented by different colors, and the color image generated by the point cloud distribution visualization unit, an image including a portion to be represented by a line is displayed. A line extracting unit that extracts using a first learned model; and a thinned image generating unit that generates a thinned image based on the image extracted by the line extracting unit, and the first learning The trained model is a trained model obtained by executing machine learning by using an image including a portion to be represented by a line as an input image, and a line image as a teacher image, and the point cloud distribution visualization unit is The automatic plotting device is characterized in that coloring is performed at each starting point of the normal vector based on the relationship between the angle of the normal vector and a preset hue circle.
請求項2記載の発明は、前記細線化画像生成部は、前記線抽出部により抽出した画像に基づいて、細線化画像を第2の学習済みモデルを用いて生成し、前記第2の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、太さ1ピクセルの線画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであることを特徴とする請求項1記載の自動図化装置である。In the invention according to claim 2, the thinned image generation unit generates a thinned image using a second learned model based on the image extracted by the line extraction unit, and the second learned image is generated. The model is a learned model obtained by executing machine learning using an image including a portion to be represented by a line as an input image and a line image having a thickness of 1 pixel as a teacher image. It is the automatic plotting device according to item 1.
請求項3記載の発明は、線で表現された地図を自動作成する方法であって、測量により得られた三次元点群データから測量対象を表す点群の法線ベクトルを求める法線ベクトル算出ステップと、水平面または垂直面に対する前記法線ベクトルの角度を求める角度算出ステップと、前記角度に応じて測量対象の各部に色付けをすることにより、前記測量対象を表す点群の分布状態を色の違いで表現したカラー画像を生成する点群分布可視化ステップと、前記点群分布可視化ステップにより生成されたカラー画像から、線で表現すべき部分を含む画像を第1の学習済みモデルを用いて抽出する線抽出ステップと、前記線抽出ステップにより抽出された画像に基づいて細線化画像を生成する細線化画像生成ステップと、を含み、前記第1の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、線の画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであり、前記点群分布可視化ステップは、前記法線ベクトルの角度と予め設定した色相環との関係とに基づいて、前記法線ベクトルの始点ごとに色付けを行うことを特徴とする自動図化方法である。The invention according to claim 3 is a method for automatically creating a map represented by a line, in which normal vector calculation for obtaining a normal vector of a point cloud representing a survey target from three-dimensional point cloud data obtained by surveying A step, an angle calculation step of obtaining an angle of the normal vector with respect to a horizontal plane or a vertical plane, and by coloring each part of the survey target according to the angle, the distribution state of the point cloud representing the survey target is colored. From the color image generated by the point cloud distribution visualization step to generate a color image represented by the difference and the point cloud distribution visualization step, an image including a portion to be represented by a line is extracted using the first learned model. Line extraction step, and a thinned image generation step for generating a thinned image based on the image extracted by the line extraction step, the first learned model, the portion to be represented by a line The image including the input image, the image of the line as a teacher image is a learned model obtained by executing machine learning, the point cloud distribution visualization step, the angle of the normal vector and the preset hue The automatic plotting method is characterized in that coloring is performed for each starting point of the normal vector based on the relationship with the ring.
請求項4記載の発明にあっては、前記細線化画像生成ステップは、前記線抽出ステップにより抽出された画像に基づいて、細線化画像を第2の学習済みモデルを用いて生成し、前記第2の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、太さ1ピクセルの線画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであることを特徴とする請求項3記載の自動図化方法である。In the invention according to claim 4, in the thinned image generating step, a thinned image is generated using a second learned model based on the image extracted in the line extracting step, and the thinned image is generated. The trained model of 2 is a trained model obtained by executing machine learning using an image including a portion to be expressed by a line as an input image and a line image with a thickness of 1 pixel as a teacher image. It is the automatic plotting method according to claim 3.
請求項5記載の発明にあっては、コンピュータを、線で表現された地図を自動作成するための装置として機能させるためのプログラムであって、測量により得られた三次元点群データから測量対象を表す点群の法線ベクトルを求める法線ベクトル算出ステップと、水平面または垂直面に対する前記法線ベクトルの角度を求める角度算出ステップと、前記角度に応じて測量対象の各部に色付けをすることにより、前記測量対象を表す点群の分布状態を色の違いで表現したカラー画像を生成する点群分布可視化ステップと、前記点群分布可視化ステップにより生成されたカラー画像から、線で表現すべき部分を含む画像を第1の学習済みモデルを用いて抽出する線抽出ステップと、前記線抽出ステップにより抽出された画像に基づいて細線化画像を生成する細線化画像生成ステップと、を有し、前記第1の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、線の画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであり、前記点群分布可視化ステップは、前記法線ベクトルの角度と予め設定した色相環との関係とに基づいて、前記法線ベクトルの始点ごとに色付けを行うことを特徴とする自動図化プログラムである。According to another aspect of the present invention, there is provided a program for causing a computer to function as a device for automatically creating a map represented by a line, which is a survey target from three-dimensional point cloud data obtained by surveying. By calculating the normal vector of the point vector representing the point vector, the angle calculating step of calculating the angle of the normal vector with respect to the horizontal plane or the vertical plane, and coloring each part of the surveying object according to the angle. A point cloud distribution visualization step of generating a color image in which a distribution state of the point cloud representing the survey target is expressed by a color difference, and a portion to be represented by a line from the color image generated by the point cloud distribution visualization step A line extraction step of extracting an image using the first learned model, and a thinned image generation step of generating a thinned image based on the image extracted by the line extraction step, The first trained model is a trained model obtained by executing machine learning by using an image including a portion to be represented by a line as an input image and a line image as a teacher image, and the point cloud distribution The visualization step is an automatic plotting program characterized by performing coloring at each starting point of the normal vector based on the relationship between the angle of the normal vector and a preset hue circle.
請求項6記載の発明にあっては、前記細線化画像生成ステップは、前記線抽出ステップにより抽出された画像に基づいて、細線化画像を第2の学習済みモデルを用いて生成するステップであり、前記第2の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、太さ1ピクセルの線画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであることを特徴とする請求項5記載の自動図化プログラムである。In the invention according to claim 6, the thinned image generating step is a step of generating a thinned image using the second learned model based on the image extracted in the line extracting step. The second learned model is a learned model obtained by executing machine learning using an image including a portion to be expressed by a line as an input image and a line image having a thickness of 1 pixel as a teacher image. The automatic plotting program according to claim 5, wherein the automatic plotting program is provided.
請求項1、請求項3及び請求項5記載の発明によれば、測量により得られた三次元点群データから点群の法線ベクトルを求め、その法線ベクトルの水平面または垂直面に対する角度を求め、その角度に応じて測量対象の各部に色付けをしたカラー画像を生成することにより、測量により得られた三次元点群データの計測時間帯が日中であるか夜間であるかを問わず、当該三次元点群データから測量対象を表す点群の分布状態を色の違いで表現したカラー画像を生成することができる。According to the inventions of claim 1, claim 3 and claim 5, the normal vector of the point cloud is obtained from the three-dimensional point cloud data obtained by the survey, and the angle of the normal vector with respect to the horizontal plane or the vertical plane is determined. The color image is generated by coloring each part of the surveyed object according to the angle, and the 3D point cloud data obtained by the surveying is measured regardless of whether it is during the day or at night. From the three-dimensional point cloud data, it is possible to generate a color image in which the distribution state of the point cloud representing the survey target is represented by the difference in color.
その結果、測量対象を表す点群の分布状態を色の違いで表現したカラー画像が得られることにより、測量対象の境界や輪郭を機械的に判別し易くなるため、線で表現すべき部分の画像の抽出精度が向上し、自動作成される地図の精度が向上する。As a result, a color image that represents the distribution of the point cloud that represents the survey target using different colors is obtained, which makes it easier to mechanically determine the boundaries and contours of the survey target. The accuracy of image extraction is improved, and the accuracy of automatically created maps is improved.
また、線で表現すべき部分を含む画像を入力画像とし、線の画像を教師画像として、機械学習を実行することにより得られた第1の学習済みモデルを用いて、測量対象を表す点群の分布状態を色の違いで表現したカラー画像から、線で表現すべき部分を含む画像を抽出し、その抽出された画像に基づいて細線化画像を生成することにより、測量対象を線で表現した地図を自動作成することができる。そして、第1の学習済みモデルの機械学習が進むにつれて、線で表現すべき部分の画像の抽出精度が向上し、自動作成される地図の精度が向上する。その結果、測量対象を表す点群の分布状態を色の違いで表現したカラー画像から測量対象の輪郭を形成する線を明確に抽出することが可能となり、地図化作業を迅速かつ容易に行うことが可能となる。In addition, an image including a portion to be expressed by a line is used as an input image, a line image is used as a teacher image, and a first trained model obtained by executing machine learning is used to represent a point cloud representing a survey target. Represent the surveyed object with a line by extracting an image that includes the part that should be represented by a line from the color image that expresses the distribution state of the with different colors and generating a thinned image based on the extracted image. The created map can be created automatically. Then, as the machine learning of the first learned model advances, the extraction accuracy of the image of the portion to be represented by the line improves, and the accuracy of the map automatically created improves. As a result, it is possible to clearly extract the line forming the contour of the survey target from the color image in which the distribution state of the point cloud representing the survey target is represented by different colors, and to perform the mapping work quickly and easily. Is possible.
さらに、法線ベクトルの角度と予め設定した色相環との関係とに基づいて、法線ベクトルの始点ごとに色付けを行うことにより、法線ベクトルの角度に応じて測量対象の各部に色付けをしたカラー画像を比較的小さい計算量で生成することができるので、地図の自動作成に要する計算量を比較的小さくできる。Further, based on the relationship between the angle of the normal vector and the preset hue circle, each starting point of the normal vector is colored to color each part of the survey target according to the angle of the normal vector. Since a color image can be generated with a relatively small calculation amount, the calculation amount required for automatic map creation can be made relatively small.
請求項2、請求項4及び請求項6記載の発明によれば、線で表現すべき部分を含む画像を入力画像とし、太さ1ピクセルの線画像を教師画像として機械学習を実行することにより得られた第2の学習済みモデルを用いて、線を表現する細線化画像が生成されるので、第2の学習済みモデルの機械学習が進むにつれて、生成される細線化画像の精度が向上し、自動作成される地図の精度が向上する。According to the second, fourth and sixth aspects of the invention, the machine learning is executed by using an image including a portion to be expressed by a line as an input image and a line image having a thickness of 1 pixel as a teacher image. Since the thinned image representing the line is generated using the obtained second trained model, the accuracy of the generated thinned image improves as the machine learning of the second trained model progresses. , The accuracy of automatically created maps is improved.
本発明の一実施形態について添付図面を参照しつつ説明する。
1.地図作成の作業工程
まず、航空測量により得られた三次元点群データを利用して、地形、道路、樹木、建物、等、測量対象を線で表現した平面図(地図)を作成する作業工程について説明する。ここでは、ドローンを用いた航空レーザ測量により得られた三次元点群データから地図を作成する作業工程について、図1を参照して説明する。
An embodiment of the present invention will be described with reference to the accompanying drawings.
1. Work process of map creation First, the work process of creating a plan view (map) in which the surveyed objects such as topography, roads, trees, buildings, etc. are represented by lines using the 3D point cloud data obtained by aerial survey. Will be described. Here, a work process of creating a map from three-dimensional point cloud data obtained by aerial laser surveying using a drone will be described with reference to FIG.
図1には、ドローン撮影工程P1、三次元点群データ生成工程P2および図化工程P3からなる一連の作業工程が示されている。 FIG. 1 shows a series of work processes including a drone photographing process P1, a three-dimensional point cloud data generation process P2, and a plotting process P3.
ドローン撮影工程P1は、計測領域の上空にドローンを飛行させ、そのドローンに搭載した光学カメラ、レーザ測距装置、高度計、等を用いて計測領域に存在する測量対象(地形、建物、等)に関する測量データ(画像データ、距離データ、高度データ、等)D1を取得する工程である。 The drone photographing step P1 relates to a survey target (terrain, building, etc.) existing in the measurement area by flying the drone over the measurement area and using an optical camera, a laser range finder, an altimeter, etc. mounted on the drone. This is a step of acquiring survey data (image data, distance data, altitude data, etc.) D1.
三次元点群データ生成工程P2は、ドローン撮影工程P1により取得した測量データD1から、公知の三次元形状復元計算処理および点群編集処理を経て、三次元点群データD2を作成する工程である。この工程は、三次元点群データ作成用の公知のソフトウエアをインストールしたコンピュータ(図示省略)を使用することにより自動化される。 The three-dimensional point cloud data generation step P2 is a step of creating three-dimensional point cloud data D2 from the survey data D1 acquired in the drone photographing step P1 through known three-dimensional shape restoration calculation processing and point cloud editing processing. .. This process is automated by using a computer (not shown) in which known software for creating three-dimensional point cloud data is installed.
図化工程P3は、三次元点群データ生成工程P2により得られた三次元点群データD2から、測量対象を線で表現した地図Fを作成する工程である。この工程は、図2に示す一実施形態の自動図化装置100により自動化される。 The plotting step P3 is a step of creating a map F in which a survey target is represented by a line from the three-dimensional point cloud data D2 obtained in the three-dimensional point cloud data generation step P2. This step is automated by the automatic plotting apparatus 100 of the embodiment shown in FIG.
2.自動図化装置の構成
図2に示すように、一実施形態の自動図化装置100は、法線ベクトル算出部110と、角度算出部120と、点群分布可視化部130と、線抽出部140と、細線化画像生成部150と、図化部160と、を有する。この自動図化装置100は、一実施形態の自動図化プログラムをコンピュータにインストールし実行することにより実現される。
2. Configuration of Automatic Plotting Device As shown in FIG. 2, an automatic plotting device 100 according to an embodiment includes a normal vector calculation unit 110, an angle calculation unit 120, a point cloud distribution visualization unit 130, and a line extraction unit 140. And a thinned image generation unit 150 and a plotting unit 160. The automatic plotting apparatus 100 is realized by installing and executing the automatic plotting program of one embodiment in a computer.
法線ベクトル算出部110は、三次元点群データ生成工程P2(図1)により得られた三次元点群データD2から点群の法線ベクトルnを求める機能ブロックである。点群の法線ベクトルnを求める方法は任意である。 The normal vector calculation unit 110 is a functional block that calculates the normal vector n of the point cloud from the three-dimensional point cloud data D2 obtained in the three-dimensional point cloud data generation step P2 (FIG. 1). The method for obtaining the normal vector n of the point group is arbitrary.
点群の法線ベクトルnを求める方法には、点群から曲面を求め、その曲面から各点の法線を計算する方法と、点群から直接法線を計算する方法と、がある。前者の方法は、三次元点群データD2にノイズによる点が混在していると不正確な曲面が求められるため、ノイズに弱いという欠点がある。一方、後者の方法は、対象点近傍の点を複数個考慮して法線を求めるため、ノイズの効果は相対的に小さくなるという利点がある。 There are two methods for obtaining the normal vector n of the point group: a method of obtaining a curved surface from the point group and calculating the normal line of each point from the curved surface; The former method has a drawback that it is vulnerable to noise because an inaccurate curved surface is required if points due to noise are mixed in the three-dimensional point group data D2. On the other hand, the latter method has an advantage that the effect of noise is relatively small because the normal line is obtained by considering a plurality of points near the target point.
法線ベクトル算出部110では、後者の方法すなわち、点群から直接法線を計算する方法を採用している。この方法では、点群の位置座標について主成分分析を行い、得られた3つの固有値のうち一番小さい固有値に対応する固有ベクトルを法線ベクトルnとして求める。 The normal vector calculation unit 110 adopts the latter method, that is, the method of directly calculating the normal line from the point cloud. In this method, the principal component analysis is performed on the position coordinates of the point cloud, and the eigenvector corresponding to the smallest eigenvalue of the obtained three eigenvalues is obtained as the normal vector n.
角度算出部120は、水平面または垂直面に対する法線ベクトルnの角度を求める機能ブロックである。水平面(xy平面)に対する法線ベクトルnの角度θは、式1により求められる。ここで、a1、a2およびa3は法線ベクトルの成分である。 The angle calculator 120 is a functional block that calculates the angle of the normal vector n with respect to the horizontal plane or the vertical plane. The angle θ of the normal vector n with respect to the horizontal plane (xy plane) is calculated by Equation 1. Here, a 1 , a 2 and a 3 are components of the normal vector.
また、垂直面(xz平面、yz平面)に対する法線ベクトルnの角度φは、式2により求められる。 Further, the angle φ of the normal vector n with respect to the vertical plane (xz plane, yz plane) is calculated by Equation 2.
点群分布可視化部130は、角度算出部120により求めた法線ベクトルnの角度θまたはφに応じて測量対象の各部に色付けをしたカラー画像Gを生成する。この実施形態では、点群分布可視化部130は、図3に示すように、法線ベクトルnの角度θまたはφと予め設定した色相環HCとの関係とに基づいて、法線ベクトルnの始点ごとに色付けを行うことによりカラー画像Gを生成する。 The point cloud distribution visualization unit 130 generates a color image G in which each part of the survey target is colored according to the angle θ or φ of the normal vector n calculated by the angle calculation unit 120. In this embodiment, the point cloud distribution visualization unit 130, as shown in FIG. 3, based on the relationship between the angle θ or φ of the normal vector n and the preset hue circle HC, the starting point of the normal vector n. A color image G is generated by coloring each color.
色相環HCは、色相のみの変化を平面上に表したものである。色相は、心軸O回りの矢印H方向に赤〜緑〜青と変化していく。赤と緑の間にはこれらを混ぜ合わせた黄色(255、255、0)があり、緑と青の間、青と赤の間にもこれらを混ぜ合わせた色があり、色相は徐々に変化していく。法線ベクトルnの角度θまたはφと予め設定した色相環HCとの関係とに基づいて、法線ベクトルnの始点ごとに色付けを行うことは、具体的には、法線ベクトルnの始点の色をその法線ベクトルnが指し示す色相環HC上の点の色に決定することを意味する。 The hue circle HC represents a change in hue only on a plane. The hue changes from red to green to blue in the direction of arrow H around the axis O. There is yellow (255, 255, 0) that is a mixture of these between red and green, and there is also a mixture of these between green and blue, and between blue and red, and the hue gradually changes. I will do it. Coloring for each starting point of the normal vector n based on the relationship between the angle θ or φ of the normal vector n and the preset hue circle HC is, specifically, to specify the starting point of the normal vector n. This means that the color is determined to be the color of the point on the hue circle HC indicated by the normal vector n.
線抽出部140は、点群分布可視化部130により生成されたカラー画像Gから、線で表現すべき部分の画像(以下、「線表現目標画像」とも称す)LGを第1の学習済みモデルLM1を用いて抽出する機能ブロックである。 From the color image G generated by the point cloud distribution visualization unit 130, the line extraction unit 140 extracts an image of a portion to be expressed by a line (hereinafter, also referred to as “line expression target image”) LG as a first learned model LM1. Is a functional block extracted by using.
第1の学習済みモデルLM1は、図4に示すように、線で表現すべき部分の複数の画像IG01、IG02、IG03、・・・を入力画像LD1とし、それぞれの画像IG01、IG02、IG03、・・・に対応する線の画像LI01、LI02、LI03、・・・を教師画像TD1として、所定の学習アルゴリズムによる機械学習を実行することにより得られた学習済みモデルである。 As shown in FIG. 4, the first learned model LM1 has a plurality of images IG01, IG02, IG03,... Of a portion to be represented by lines as input images LD1, and the respective images IG01, IG02, IG03, Are trained models obtained by executing machine learning by a predetermined learning algorithm with the images LI01, LI02, LI03,... Of the lines corresponding to... As the teacher images TD1.
細線化画像生成部150は、線抽出部140により抽出された線表現目標画像LGに基づき、細線化画像TLを第2の学習済みモデルLM2を用いて生成する機能ブロックである。ここで、細線化画像TLは、太さ1ピクセルの線画像である。 The thinned image generation unit 150 is a functional block that generates the thinned image TL based on the line representation target image LG extracted by the line extraction unit 140 using the second learned model LM2. Here, the thinned image TL is a line image having a thickness of 1 pixel.
第2の学習済みモデルLM2は、図5に示すように、線で表現すべき部分を含む複数の画像IG11、IG12、IG13、・・・を入力画像LD2とし、それぞれの画像IG11、IG12、IG13、・・・に対応する太さ1ピクセルの線画像TL11、TL12、TL13、・・・を教師画像TD2として、所定の学習アルゴリズムによる機械学習を実行することにより得られた学習済みモデルである。ここで、入力画像LD2は、太さ2ピクセル以上の線画像である。 As shown in FIG. 5, the second learned model LM2 has a plurality of images IG11, IG12, IG13,... Containing portions to be expressed by lines as input images LD2, and respective images IG11, IG12, IG13. , Which are 1-pixel-thick line images TL11, TL12, TL13,... As teacher images TD2, are learned models obtained by executing machine learning by a predetermined learning algorithm. Here, the input image LD2 is a line image having a thickness of 2 pixels or more.
図化部160は、細線化画像生成部150により生成された細線化画像TLからなる地図Fすなわち、測定対象を線で表現したCAD(Computer Aided Design)図面ファイルを自動生成する機能ブロックである。 The plotting unit 160 is a functional block that automatically generates a map F including the thinned image TL generated by the thinned image generating unit 150, that is, a CAD (Computer Aided Design) drawing file in which a measurement target is expressed by a line.
3.自動図化装置の動作
つぎに、自動図化装置100の動作を、図6のフロー図に従って説明する。ここで説明する動作内容は、図化工程P3(図1)の内容に相当する。すなわち、図化工程P3は、図6に示すように、法線ベクトル算出ステップS1と、角度算出ステップS2と、点群分布可視化ステップS3と、線抽出ステップS4と、細線化画像生成ステップS5と、図化ステップS6と、により構成される。これらのステップS1〜S6は、一実施形態の自動図化プログラムにより実現される処理内容を示すものである。
3. Operation of Automatic Plotting Device Next, the operation of the automatic plotting device 100 will be described with reference to the flowchart of FIG. The operation content described here corresponds to the content of the plotting process P3 (FIG. 1). That is, as shown in FIG. 6, the plotting process P3 includes a normal vector calculation step S1, an angle calculation step S2, a point cloud distribution visualization step S3, a line extraction step S4, and a thinned image generation step S5. , And the plotting step S6. These steps S1 to S6 show the processing contents realized by the automatic plotting program of one embodiment.
法線ベクトル算出ステップS1は、三次元点群データ生成工程P2(図1)により得られた三次元点群データから点群の法線ベクトルnを求めるステップである。 The normal vector calculation step S1 is a step of obtaining the normal vector n of the point cloud from the three-dimensional point cloud data obtained in the three-dimensional point cloud data generation step P2 (FIG. 1).
角度算出ステップS2は、法線ベクトル算出ステップS1により求めた法線ベクトルnの水平面に対する角度θまたは垂直面に対する角度φを求めるステップである。 The angle calculation step S2 is a step of obtaining the angle θ of the normal vector n obtained in the normal vector calculation step S1 with respect to the horizontal plane or the angle φ with respect to the vertical plane.
点群分布可視化ステップS3は、角度算出ステップS2により求めた法線ベクトルnの角度θまたはφに応じて測量対象の各部に色付けをしたカラー画像Gを生成するステップである。この実施形態では、点群分布可視化ステップS3では、図3に示すように、法線ベクトルnの角度θまたはφと予め設定した色相環HCとの関係とに基づいて、法線ベクトルnの始点ごとに色付けを行うことによりカラー画像Gを生成する。 The point cloud distribution visualization step S3 is a step of generating a color image G in which each part of the survey target is colored according to the angle θ or φ of the normal vector n obtained in the angle calculation step S2. In this embodiment, in the point cloud distribution visualization step S3, as shown in FIG. 3, the starting point of the normal vector n is calculated based on the relationship between the angle θ or φ of the normal vector n and the preset hue circle HC. A color image G is generated by coloring each color.
線抽出ステップS4は、点群分布可視化ステップS3により生成されたカラー画像Gから、線で表現すべき部分の画像LGを第1の学習済みモデルLM1を用いて抽出するステップである。 The line extraction step S4 is a step of extracting the image LG of the portion to be represented by a line from the color image G generated in the point cloud distribution visualization step S3 using the first learned model LM1.
細線化画像生成ステップS5は、線抽出ステップS4により抽出された画像LGに基づき、細線化画像TLを第2の学習済みモデルLM2を用いて生成するステップである。 The thinned image generation step S5 is a step of generating the thinned image TL using the second learned model LM2 based on the image LG extracted in the line extraction step S4.
図化ステップS6は、細線化画像生成ステップS5により生成された細線化画像TLからなる地図(CAD図面ファイル)を自動生成するステップである。 The plotting step S6 is a step of automatically generating a map (CAD drawing file) including the thinned image TL generated in the thinned image generating step S5.
4.一実施形態の作用・効果
つぎに、上記のように構成された自動図化装置100の作用・効果について説明する。
自動図化装置100は、線で表現すべき部分を含む複数の画像IG01、IG02、IG03、・・・を入力画像LD1とし、それぞれの画像IG01、IG02、IG03、・・・に対応する線の画像LI01、LI02、LI03、・・・を教師画像TD1として、所定の学習アルゴリズムによる機械学習を実行することにより得られた第1の学習済みモデルLM1を用いて、測量対象を表す点群の分布状態を色の違いで表現したカラー画像Gから、線表現目標画像LGを抽出し、その抽出された線表現目標画像LGに基づいて細線化画像TLを生成することにより、測量対象を線で表現した地図Fを自動作成することができる。そして、第1の学習済みモデルLM1の機械学習が進むにつれて、線で表現すべき部分の画像LGの抽出精度が向上し、自動作成される地図Fの精度が向上する。
4. Action/Effect of One Embodiment Next, the action/effect of the automatic plotting apparatus 100 configured as described above will be described.
The automatic plotting apparatus 100 sets a plurality of images IG01, IG02, IG03,... Containing portions to be expressed by lines as input images LD1 and displays lines corresponding to the respective images IG01, IG02, IG03,. The images LI01, LI02, LI03,... Are used as teacher images TD1 and the first learned model LM1 obtained by executing machine learning by a predetermined learning algorithm is used to distribute the point cloud representing the survey target. The line representation target image LG is extracted from the color image G representing the state by the color difference, and the thinned image TL is generated based on the extracted line representation target image LG to represent the surveyed object by a line. The created map F can be automatically created. Then, as the machine learning of the first learned model LM1 progresses, the extraction accuracy of the image LG of the portion to be represented by the line improves, and the accuracy of the map F automatically created improves.
また、自動図化装置100によれば、線を表す複数の画像IG11、IG12、IG13、・・・を入力画像LD2とし、それぞれの画像IG11、IG12、IG13、・・・に対応する太さ1ピクセルの線画像TL11、TL12、TL13、・・・を教師画像TD2として、所定の学習アルゴリズムによる機械学習を実行することにより得られた第2の学習済みモデルLM2を用いて、細線化画像TLが生成されるので、第2の学習済みモデルLM2の機械学習が進むにつれて、生成される細線化画像TLの精度が向上し、自動作成される地図Fの精度が向上する。 Further, according to the automatic plotting apparatus 100, a plurality of images IG11, IG12, IG13,... Representing lines are used as the input image LD2, and the thickness 1 corresponding to each of the images IG11, IG12, IG13,. Using the line images TL11, TL12, TL13,... Of pixels as the teacher image TD2, the thinned image TL is obtained by using the second learned model LM2 obtained by executing machine learning by a predetermined learning algorithm. Since it is generated, as the machine learning of the second learned model LM2 proceeds, the precision of the thinned image TL that is generated is improved, and the precision of the map F that is automatically created is improved.
また、自動図化装置100は、ドローン撮影により得られた三次元点群データD2から点群の法線ベクトルnを求め、その法線ベクトルnの水平面に対する角度θまたは垂直面に対する角度φを求め、その角度θまたはφに応じて測量対象の各部に色付けをしたカラー画像Gを生成する。このように、法線ベクトルnの角度θまたはφに基づいてカラー画像Gを生成することにより、ドローン撮影により得られた三次元点群データD2の計測時間帯が日中であるか夜間であるかを問わず、当該三次元点群データD2から測量対象を表す点群の分布状態を色の違いで表現したカラー画像Gを生成することができる。法線ベクトルnの水平面に対する角度θに基づく彩色は、地形などの地図Fを作成するのに適している。法線ベクトルnの垂直面に対する角度φに基づく彩色は、建物・構造物などの地図Fを作成するのに適している。 Further, the automatic plotting apparatus 100 obtains the normal vector n of the point cloud from the three-dimensional point cloud data D2 obtained by drone photography, and obtains the angle θ of the normal vector n with respect to the horizontal plane or the angle φ with respect to the vertical plane. , And generates a color image G in which each part of the survey target is colored according to the angle θ or φ. As described above, by generating the color image G based on the angle θ or φ of the normal vector n, the measurement time zone of the three-dimensional point cloud data D2 obtained by drone photography is daytime or nighttime. Regardless of this, it is possible to generate a color image G in which the distribution state of the point cloud representing the survey target is represented by the difference in color from the three-dimensional point cloud data D2. The coloring based on the angle θ of the normal vector n with respect to the horizontal plane is suitable for creating the map F such as the terrain. Coloring based on the angle φ of the normal vector n with respect to the vertical plane is suitable for creating a map F of a building/structure or the like.
図7の左側の画像G11は、日中に取得したカラー情報を有する三次元点群データD2による地形の画像を例示している。この画像G11を法線ベクトル算出部110、角度算出部120および点群分布可視化部130で処理することにより、図7の右側に例示するカラー画像G12(G)が得られる。カラー画像G12(G)では、測量対象を表す点群の分布状態が色の違いで表現されている。 An image G11 on the left side of FIG. 7 exemplifies a topographic image based on the three-dimensional point cloud data D2 having color information acquired during the day. By processing this image G11 by the normal vector calculation unit 110, the angle calculation unit 120, and the point cloud distribution visualization unit 130, a color image G12 (G) illustrated on the right side of FIG. 7 is obtained. In the color image G12 (G), the distribution state of the point cloud representing the survey target is represented by the difference in color.
図8の左側の画像G21は、夜間に取得した三次元点群データD2による建物を多く含む画像を例示している。画像G21は、カラー情報を有していないモノトーンの画像である。この画像G21を法線ベクトル算出部110、角度算出部120および点群分布可視化部130で処理することにより、図7の右側に例示するカラー画像G22(G)が得られる。カラー画像G22(G)では、測量対象を表す点群の分布状態が色の違いで表現されている。 An image G21 on the left side of FIG. 8 exemplifies an image including many buildings based on the three-dimensional point cloud data D2 acquired at night. The image G21 is a monotone image having no color information. By processing this image G21 by the normal vector calculation unit 110, the angle calculation unit 120, and the point cloud distribution visualization unit 130, a color image G22 (G) illustrated on the right side of FIG. 7 is obtained. In the color image G22(G), the distribution state of the point cloud representing the survey target is represented by the difference in color.
このように、測量対象を表す点群の分布状態を色の違いで表現したカラー画像Gが得られることにより、測量対象の境界や輪郭を機械的に判別し易くなるため、線で表現すべき部分の画像LGの線抽出部140による抽出精度が向上し、自動作成される地図Fの精度が向上する。 As described above, since the color image G in which the distribution state of the point cloud representing the survey target is represented by the difference in color is obtained, it becomes easy to mechanically determine the boundary or contour of the survey target, and therefore it should be represented by a line. The accuracy of extraction of the partial image LG by the line extraction unit 140 is improved, and the accuracy of the map F that is automatically created is improved.
また、自動図化装置100によれば、法線ベクトルnの角度θまたはφと予め設定した色相環HCとの関係とに基づいて、法線ベクトルnの始点ごとに色付けを行うことにより、測量対象の各部に色付けをしたカラー画像Gを生成するので、カラー画像Gを比較的小さい計算量で生成することができるので、地図Fの自動作成に要する計算量を比較的小さくできる。 Further, according to the automatic plotting apparatus 100, the surveying is performed by coloring each starting point of the normal vector n based on the relationship between the angle θ or φ of the normal vector n and the preset hue circle HC. Since the color image G in which each part of the target is colored is generated, the color image G can be generated with a relatively small calculation amount, and thus the calculation amount required for automatically creating the map F can be relatively reduced.
図9の左側の画像は、線抽出部140に入力されるカラー画像G31(G)を例示している。このカラー画像G31(G)を線抽出部140で処理することにより、図9の中央に例示する線抽出画像OPが得られる。この線抽出画像OPにおいては、カラー画像G31から抽出された線表現目標画像LG内の線で表現すべき部分である認識された部分が白抜きの領域で表現されている。この線抽出画像OPを細線化画像生成部150で処理することにより、図9の右側に例示する細線化画像TLが生成される。 The image on the left side of FIG. 9 exemplifies the color image G31 (G) input to the line extraction unit 140. By processing this color image G31 (G) by the line extraction unit 140, the line extraction image OP illustrated in the center of FIG. 9 is obtained. In this line extraction image OP, the recognized portion, which is the portion to be represented by the line in the line representation target image LG extracted from the color image G31, is represented by a white area. By processing the line-extracted image OP by the thinned-image generation unit 150, the thinned-image TL illustrated on the right side of FIG. 9 is generated.
第1の学習済みモデルLM1の機械学習が進むにつれて、図9の中央に例示する線抽出画像OPの精度が向上し、第2の学習済みモデルLM2の機械学習が進むにつれて、図9の右側に例示する細線化画像TLの精度が向上する。その結果、図化部160から出力される地図F(図1)の精度が向上する。 As the machine learning of the first learned model LM1 progresses, the accuracy of the line extraction image OP illustrated in the center of FIG. 9 improves, and as the machine learning of the second learned model LM2 progresses, the right side of FIG. The accuracy of the illustrated thinned image TL is improved. As a result, the accuracy of the map F (FIG. 1) output from the plotting unit 160 is improved.
その結果、測量対象を表す点群の分布状態を色の違いで表現したカラー画像から測量対象の輪郭を形成する線を明確に抽出することが可能となり、地図化作業を迅速かつ容易に行うことが可能となる。 As a result, it is possible to clearly extract the line forming the contour of the survey target from the color image in which the distribution state of the point cloud representing the survey target is represented by different colors, and to perform the mapping work quickly and easily. Is possible.
なお、上記実施形態では、自動図化装置100が法線ベクトル算出部110、角度算出部120および点群分布可視化部130を備え、点群分布可視化部130により生成されたカラー画像Gが線抽出部140に入力されるように構成されているが、法線ベクトル算出部110、角度算出部120および点群分布可視化部130とは異なる手段によりカラー画像Gが生成され、そのカラー画像Gが線抽出部140に入力されるように構成されてもよい。この場合、自動図化装置100の構成要素として、法線ベクトル算出部110、角度算出部120および点群分布可視化部130を省略することが可能である。 In the above embodiment, the automatic plotting apparatus 100 includes the normal vector calculation unit 110, the angle calculation unit 120, and the point cloud distribution visualization unit 130, and the color image G generated by the point cloud distribution visualization unit 130 is line-extracted. The color image G is generated by a unit different from the normal vector calculation unit 110, the angle calculation unit 120, and the point cloud distribution visualization unit 130, although the color image G is input to the unit 140. It may be configured to be input to the extraction unit 140. In this case, the normal vector calculation unit 110, the angle calculation unit 120, and the point cloud distribution visualization unit 130 can be omitted as components of the automatic plotting apparatus 100.
100 点群分布可視化装置
110 法線ベクトル算出部
120 角度算出部
130 点群分布可視化部
140 線抽出部
150 細線化画像生成部
160 図化部
D1 測量データ
D2 三次元点群データ
F 地図
G 点群分布可視化画像、カラー画像
G12 点群分布可視化画像
G22 点群分布可視化画像
HC 色相環
LD1 入力画像
LD2 入力画像
ld 線データ
LG 線で表現すべき部分の画像、線表現目標画像
IG01、IG02、IG03、・・・ 線で表現すべき部分を含む画像
IG11、IG12、IG13、・・・ 線を表す画像
LI01、LI02、LI03、・・・ 線の画像
LM1 第1の学習済みモデル
LM2 第2の学習済みモデル
n 法線ベクトル
P1 ドローン撮影工程
P2 三次元点群データ生成工程
P3 点群分布可視化工程
P4 図作成工程
pd 点データ
S1 法線ベクトル算出ステップ
S2 角度算出ステップ
S3 点群分布可視化ステップ
S4 線抽出ステップ
S5 細線化画像生成ステップ
S6 図化ステップ
TD1 教師画像
TD2 教師画像
TL 細線化画像
TL11、TL12、TL13、・・・ 太さ1ピクセルの線画像
θ 角度
φ 角度
100 point cloud distribution visualization device 110 normal vector calculation unit 120 angle calculation unit 130 point cloud distribution visualization unit 140 line extraction unit 150 thinned image generation unit 160 plotting unit D1 survey data D2 three-dimensional point cloud data F map G point cloud Distribution visualization image, color image G12 point cloud distribution visualization image G22 point cloud distribution visualization image HC hue circle LD1 input image LD2 input image ld line data LG image of portion to be expressed by line, line expression target image IG01, IG02, IG03, ... Images including parts to be expressed by lines IG11, IG12, IG13, ... Images representing lines LI01, LI02, LI03, ... Line images LM1 First learned model LM2 Second learned Model n Normal vector P1 Drone imaging process P2 Three-dimensional point cloud data generation process P3 Point cloud distribution visualization process P4 Drawing process pd Point data S1 Normal vector calculation step S2 Angle calculation step S3 Point cloud distribution visualization step S4 Line extraction step S5 Thin line image generation step S6 Visualization step TD1 Teacher image TD2 Teacher image TL Thin line images TL11, TL12, TL13,... Line image with a thickness of 1 pixel θ Angle φ Angle
Claims (6)
測量により得られた三次元点群データから測量対象を表す点群の法線ベクトルを求める法線ベクトル算出部と、A normal vector calculation unit that obtains a normal vector of the point cloud representing the survey target from the three-dimensional point cloud data obtained by the survey,
水平面または垂直面に対する前記法線ベクトルの角度を求める角度算出部と、An angle calculation unit for obtaining an angle of the normal vector with respect to a horizontal plane or a vertical plane,
前記角度に応じて測量対象の各部に色付けをすることにより、前記測量対象を表す点群の分布状態を色の違いで表現したカラー画像を生成する点群分布可視化部と、By coloring each part of the surveying object according to the angle, a point cloud distribution visualization unit that generates a color image expressing the distribution state of the point cloud representing the surveying object with different colors,
前記点群分布可視化部により生成されたカラー画像から、線で表現すべき部分を含む画像を第1の学習済みモデルを用いて抽出する線抽出部と、From the color image generated by the point cloud distribution visualization unit, a line extraction unit that extracts an image including a portion to be represented by a line using the first learned model,
前記線抽出部により抽出された画像に基づいて細線化画像を生成する細線化画像生成部と、を有し、A thinned image generation unit that generates a thinned image based on the image extracted by the line extraction unit,
前記第1の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、線の画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであり、The first learned model is an learned image obtained by executing machine learning, with an image including a portion to be expressed by a line as an input image, and a line image as a teacher image,
前記点群分布可視化部は、前記法線ベクトルの角度と予め設定した色相環との関係とに基づいて、前記法線ベクトルの始点ごとに色付けを行うことを特徴とする自動図化装置。The point group distribution visualization unit performs coloring at each starting point of the normal vector based on the relationship between the angle of the normal vector and a preset hue circle.
測量により得られた三次元点群データから測量対象を表す点群の法線ベクトルを求める法線ベクトル算出ステップと、A normal vector calculation step of obtaining a normal vector of the point cloud representing the survey target from the three-dimensional point cloud data obtained by the survey,
水平面または垂直面に対する前記法線ベクトルの角度を求める角度算出ステップと、An angle calculation step of obtaining an angle of the normal vector with respect to a horizontal plane or a vertical plane,
前記角度に応じて測量対象の各部に色付けをすることにより、前記測量対象を表す点群の分布状態を色の違いで表現したカラー画像を生成する点群分布可視化ステップと、By coloring each part of the surveying object according to the angle, a point cloud distribution visualization step of generating a color image expressing the distribution state of the point cloud representing the surveying object with a color difference,
前記点群分布可視化ステップにより生成されたカラー画像から、線で表現すべき部分を含む画像を第1の学習済みモデルを用いて抽出する線抽出ステップと、From the color image generated by the point cloud distribution visualization step, a line extraction step of extracting an image including a portion to be expressed by a line using the first learned model,
前記線抽出ステップにより抽出された画像に基づいて細線化画像を生成する細線化画像生成ステップと、を含み、A thinned image generating step of generating a thinned image based on the image extracted by the line extracting step,
前記第1の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、線の画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであり、The first learned model is an learned image obtained by executing machine learning, with an image including a portion to be expressed by a line as an input image, and a line image as a teacher image,
前記点群分布可視化ステップは、前記法線ベクトルの角度と予め設定した色相環との関係とに基づいて、前記法線ベクトルの始点ごとに色付けを行うことを特徴とする自動図化方法。The automatic visualization method, wherein in the point cloud distribution visualization step, coloring is performed for each starting point of the normal vector based on the relationship between the angle of the normal vector and a preset hue circle.
測量により得られた三次元点群データから測量対象を表す点群の法線ベクトルを求める法線ベクトル算出ステップと、A normal vector calculation step of obtaining a normal vector of the point cloud representing the survey target from the three-dimensional point cloud data obtained by the survey,
水平面または垂直面に対する前記法線ベクトルの角度を求める角度算出ステップと、 An angle calculation step of obtaining an angle of the normal vector with respect to a horizontal plane or a vertical plane,
前記角度に応じて測量対象の各部に色付けをすることにより、前記測量対象を表す点群の分布状態を色の違いで表現したカラー画像を生成する点群分布可視化ステップと、By coloring each part of the surveying object according to the angle, a point cloud distribution visualization step of generating a color image expressing the distribution state of the point cloud representing the surveying object with a color difference,
前記点群分布可視化ステップにより生成されたカラー画像から、線で表現すべき部分を含む画像を第1の学習済みモデルを用いて抽出する線抽出ステップと、From the color image generated by the point cloud distribution visualization step, a line extraction step of extracting an image including a portion to be expressed by a line using the first learned model,
前記線抽出ステップにより抽出された画像に基づいて細線化画像を生成する細線化画像生成ステップと、を有し、A thinned image generating step of generating a thinned image based on the image extracted by the line extracting step,
前記第1の学習済みモデルは、線で表現すべき部分を含む画像を入力画像とし、線の画像を教師画像として、機械学習を実行することにより得られた学習済みモデルであり、The first learned model is an learned image obtained by executing machine learning, with an image including a portion to be expressed by a line as an input image, and a line image as a teacher image,
前記点群分布可視化ステップは、前記法線ベクトルの角度と予め設定した色相環との関係とに基づいて、前記法線ベクトルの始点ごとに色付けを行うことを特徴とする自動図化プログラム。An automatic plotting program characterized in that the point cloud distribution visualization step performs coloring for each starting point of the normal vector based on the relationship between the angle of the normal vector and a preset hue circle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019185268A JP6730501B1 (en) | 2019-10-08 | 2019-10-08 | Automatic plotting apparatus, automatic plotting method, and automatic plotting program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019185268A JP6730501B1 (en) | 2019-10-08 | 2019-10-08 | Automatic plotting apparatus, automatic plotting method, and automatic plotting program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6730501B1 true JP6730501B1 (en) | 2020-07-29 |
JP2021060860A JP2021060860A (en) | 2021-04-15 |
Family
ID=71738524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019185268A Active JP6730501B1 (en) | 2019-10-08 | 2019-10-08 | Automatic plotting apparatus, automatic plotting method, and automatic plotting program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6730501B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113899360A (en) * | 2021-12-10 | 2022-01-07 | 北京主线科技有限公司 | Generation and precision evaluation method and device for port automatic driving high-precision map |
JP7366472B1 (en) | 2022-07-05 | 2023-10-23 | 吉谷土木株式会社 | Planting support methods and field work support systems, etc. |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0272491A (en) * | 1988-09-08 | 1990-03-12 | Sony Corp | Picture conversion processor |
JPH06111027A (en) * | 1992-07-15 | 1994-04-22 | Canon Inc | Method and device for outputting image |
JP4276473B2 (en) * | 2003-06-03 | 2009-06-10 | 独立行政法人科学技術振興機構 | Image creating method, program, recording medium, image creating apparatus, slope vector diagram |
JP5074622B2 (en) * | 2005-11-01 | 2012-11-14 | 株式会社日立ソリューションズ | Geographic image processing system |
JP5817422B2 (en) * | 2011-10-18 | 2015-11-18 | 朝日航洋株式会社 | Building extraction apparatus, method and program |
JP6964031B2 (en) * | 2018-03-27 | 2021-11-10 | Tasmit株式会社 | Pattern edge detection method |
-
2019
- 2019-10-08 JP JP2019185268A patent/JP6730501B1/en active Active
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113899360A (en) * | 2021-12-10 | 2022-01-07 | 北京主线科技有限公司 | Generation and precision evaluation method and device for port automatic driving high-precision map |
JP7366472B1 (en) | 2022-07-05 | 2023-10-23 | 吉谷土木株式会社 | Planting support methods and field work support systems, etc. |
JP2024007317A (en) * | 2022-07-05 | 2024-01-18 | 吉谷土木株式会社 | Planting support method, field work support system and the like |
JP7438516B2 (en) | 2022-07-05 | 2024-02-27 | 吉谷土木株式会社 | Planting support methods and field work support systems, etc. |
Also Published As
Publication number | Publication date |
---|---|
JP2021060860A (en) | 2021-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113034689B (en) | Laser point cloud-based terrain three-dimensional model, terrain map construction method and system, and storage medium | |
CN111629193B (en) | Live-action three-dimensional reconstruction method and system | |
CN104637370B (en) | A kind of method and system of Photogrammetry and Remote Sensing synthetic instruction | |
CN108090957B (en) | BIM-based terrain mapping method | |
CN111724477A (en) | Method for constructing multi-level three-dimensional terrain model through multi-source data fusion | |
CN108427438A (en) | Flight environment of vehicle detection method, device, electronic equipment and storage medium | |
JP2023072064A (en) | Performing 3d reconstruction via unmanned aerial vehicle | |
CN109685886A (en) | A kind of distribution three-dimensional scenic modeling method based on mixed reality technology | |
JP6730501B1 (en) | Automatic plotting apparatus, automatic plotting method, and automatic plotting program | |
CN112652065A (en) | Three-dimensional community modeling method and device, computer equipment and storage medium | |
JP2012137933A (en) | Position specifying method of planimetric features to be photographed, program thereof, display map, photographic position acquiring method, program thereof and photographic position acquiring device | |
US20200079504A1 (en) | Environment map automatic creation device | |
KR20130102873A (en) | Method for generating three-dimensional modeling data of the structure using color groud lidar measurement data | |
US20230184564A1 (en) | High-precision map construction method, electronic device, and storage medium | |
CN106969721A (en) | A kind of method for three-dimensional measurement and its measurement apparatus | |
JP2018031693A (en) | Isolation evaluation method, isolation evaluation device and isolation evaluation program for aerial power transmission line, and method for displaying isolation evaluation data | |
KR100732915B1 (en) | Method for three-dimensional determining of basic design road route using digital photommetry and satellite image | |
JP6730502B1 (en) | Point cloud distribution visualization device, point cloud distribution visualization method, and point cloud distribution visualization program | |
CN115825067A (en) | Geological information acquisition method and system based on unmanned aerial vehicle and electronic equipment | |
JP7140933B1 (en) | machine learning system | |
JP4852006B2 (en) | Spatial information database generation device and spatial information database generation program | |
KR101979879B1 (en) | Apparatus and method for post-processing about aerial photogrammetry output | |
CN117557931A (en) | Planning method for meter optimal inspection point based on three-dimensional scene | |
KR102041320B1 (en) | Precision-Location Based Optimized 3D Map Delivery System | |
Chen et al. | Generate 3D triangular meshes from spliced point clouds with cloudcompare |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191105 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20191206 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200413 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200612 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200624 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200702 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6730501 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200612 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |