JP2022159560A - Shape measuring method, device and program for three dimensional measurement object - Google Patents

Shape measuring method, device and program for three dimensional measurement object Download PDF

Info

Publication number
JP2022159560A
JP2022159560A JP2022131862A JP2022131862A JP2022159560A JP 2022159560 A JP2022159560 A JP 2022159560A JP 2022131862 A JP2022131862 A JP 2022131862A JP 2022131862 A JP2022131862 A JP 2022131862A JP 2022159560 A JP2022159560 A JP 2022159560A
Authority
JP
Japan
Prior art keywords
data
dimensional
measurement object
point cloud
dimensional measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022131862A
Other languages
Japanese (ja)
Other versions
JP7394935B2 (en
Inventor
茂雄 草木
Shigeo Kusaki
誉光 森
Yoshimitsu Mori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mr Support Inc
Original Assignee
Mr Support Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mr Support Inc filed Critical Mr Support Inc
Publication of JP2022159560A publication Critical patent/JP2022159560A/en
Priority to JP2023200482A priority Critical patent/JP2024009279A/en
Application granted granted Critical
Publication of JP7394935B2 publication Critical patent/JP7394935B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce temporal and human costs by executing a series of work from a survey of a three-dimensional survey object to creation of various reports precisely at one-stop.
SOLUTION: An analyzer 30 obtains points at a reflection point from a three-dimensional measurement object by laser light emitted by a three-dimensional scanner 10 as point group data made into three-dimensional coordinates, analyzes the obtained point group data, generates shape confirmation data of the three-dimensional measurement object, creates longitudinal and traverse data between any two points input by an input device 31 to convert it into design data, and outputs both data to an output device 32.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、例えば、道路の傷やいたみ等、路面のクラック調査、轍調査、縦横断調査等、測量対象物を立体的にとらえることができる、三次元測定対象物の形状測定方法、及び装置、並びにプログラムに関する。 INDUSTRIAL APPLICABILITY The present invention is a method and apparatus for measuring the shape of a three-dimensional measurement object, which can three-dimensionally capture the object to be surveyed, for example, road surface cracks, ruts, longitudinal and cross-sectional investigations, etc. , as well as programs.

例えば、特許文献1に、現場に持ち込んだトータルステーション等の測量計により、任意位置の三次元座標の計測を行う技術が記載されている。 For example, Patent Literature 1 describes a technique of measuring three-dimensional coordinates of an arbitrary position using a surveying instrument such as a total station brought into the field.

特許文献1に記載された技術によれば、座標が既知の2つの基準位置にプリズムや反射光等の反射部材を置き、トータルステーションから反射部材に向けて測定用の光を投光し、その反射光の位相差に基づき各基準位置までの距離を測定するとともに、測定用の光の投光方向の水平角度や鉛直角度を測定する。そして、測定した距離、水平角度、鉛直角度、及び既知の基準位置の位置座標等に基づいて幾何学的計算を行うことにより、測定位置の三次元座標を求めることができる。 According to the technique described in Patent Document 1, a reflecting member such as a prism or reflected light is placed at two reference positions whose coordinates are known, light for measurement is projected from the total station toward the reflecting member, and the light is reflected. The distance to each reference position is measured based on the phase difference of light, and the horizontal angle and vertical angle of the light projection direction for measurement are also measured. Then, the three-dimensional coordinates of the measurement position can be obtained by performing geometrical calculations based on the measured distance, horizontal angle, vertical angle, positional coordinates of the known reference position, and the like.

特開2013-32983号公報JP 2013-32983 A

ところで、土木建築業界において、測量データは、ますます正確なデータが求められている。例えば、道路の傷やいたみ等の路面のクラック調査、轍調査、縦横断調査(切削量のボリューム)等、三次元測定対象物を立体的にとらえた正確な測量は、人が実際に現場へ足を運んで目視確認を行い、測量計で測量地点のデータをとり、測量成果報告書を作成する必要がある。また、その作業はそれぞれ専門の会社が行っている。このため、作業に要する時間、人的コストが高く、したがって、実際の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図るためのツールの出現がのぞまれていた。 By the way, in the civil engineering and construction industry, more and more accurate survey data are required. For example, accurate surveying that three-dimensionally captures a three-dimensional measurement object, such as road surface crack surveys such as road scratches and damage, rut surveys, longitudinal and cross-sectional surveys (volume of cutting amount), etc. It is necessary to visit the site and visually confirm, take data of the survey point with a survey meter, and create a survey result report. The work is done by specialized companies. For this reason, the time required for the work and the human cost are high. The emergence of tools was hoped for.

本発明は上記した課題を解決するためになされたものであり、三次元測量対象物の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図った、三次元測定対象物の形状測定方法、及び装置、並びにプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems. It is an object of the present invention to provide a method and apparatus for measuring the shape of a three-dimensional measurement object, and a program for reducing the cost.

上記した課題を解決するために、本発明は、(1)三次元測定対象物の形状測定方法であって、三次元走査装置により照射されるレーザ光により前記三次元測定対象物からの反射点における各点が3次元座標化された点群データとして取得する第1のステップと、前記取得した点群データを解析装置によって解析し、前記三次元測定対象物の形状確認データを生成すると共に、入力装置によって入力される任意の2点間の縦横断データを作成して設計データに変換し、それぞれ出力装置に出力する第2のステップと、を有することを特徴とする。 In order to solve the above-described problems, the present invention provides (1) a method for measuring the shape of a three-dimensional measurement object, wherein a laser beam irradiated by a three-dimensional scanning device reflects a reflection point from the three-dimensional measurement object. A first step of acquiring point cloud data in which each point in the three-dimensional coordinates is converted into point cloud data, analyzing the acquired point cloud data with an analysis device, and generating shape confirmation data of the three-dimensional measurement object, and a second step of creating longitudinal and cross-sectional data between any two points input by the input device, converting them into design data, and outputting them to the output device.

(1)の構成において、前記第1のステップは、トータルステーションによる観測結果を前記解析装置が利用可能なファイル形式に変換して前記点群データに反映させ、色マッピング処理により生成されるPTSファイルと、基準点SIMAデータとを統合して前記解析装置に入力することを特徴とする。 In the configuration of (1), the first step converts observation results from the total station into a file format that can be used by the analysis device, reflects them in the point cloud data, and converts them into a PTS file generated by color mapping processing. , and the reference point SIMA data are integrated and input to the analysis device.

(1)の構成において、前記第2のステップは、線形を基準とした路線測量により得られる前記線形の主要点の位置座標と、取り込んだ中間座標とに基づき路線計算を行い、前記路線計算の結果に基づき、三角網による縦横断図を作成することを特徴とする。 In the configuration of (1), the second step performs route calculation based on the position coordinates of the main points of the alignment obtained by route surveying with the alignment as a reference and the captured intermediate coordinates. Based on the results, it is characterized by creating a longitudinal and cross-sectional view using a triangular network.

また、本発明は、三次元測定対象物の形状測定装置であって、照射されるレーザ光により前記三次元測定対象物からの反射点における各点が3次元座標化された点群データとして取得する三次元走査装置と、前記取得した点群データを解析し、前記三次元測定対象物の形状確認データを生成すると共に、指定された任意の2点間の縦横断データを作成して設計データに変換し、出力装置にそれぞれ出力する解析装置と、を備えたことを特徴とする。 Further, the present invention provides a shape measuring apparatus for a three-dimensional measurement object, in which each point in the reflection point from the three-dimensional measurement object is acquired as point cloud data in which each point is three-dimensionally coordinated by an irradiated laser beam. A three-dimensional scanning device that analyzes the acquired point cloud data, generates shape confirmation data of the three-dimensional measurement object, and creates longitudinal and cross-sectional data between any two specified points to create design data and an analysis device that converts to and outputs to an output device respectively.

また、本発明は、三次元測定対象物の形状測定装置のためのプログラムであって、前記形状測定装置に、三次元走査装置により照射されるレーザ光により前記三次元測定対象物
からの反射点における各点が3次元座標化された点群データとして取得する処理と、前記取得した点群データを解析し、前記三次元測定対象物の形状確認データを生成すると共に、指定された任意の2点間の縦横断データを作成して設計データに変換し、出力する処理と、を実行させることを特徴とする。
Further, the present invention is a program for a shape measuring device for a three-dimensional measurement object, wherein the shape measuring device receives a laser beam emitted from a three-dimensional scanning device and detects a reflection point from the three-dimensional measurement object. A process of acquiring point cloud data in which each point is converted into three-dimensional coordinates, analyzing the acquired point cloud data, generating shape confirmation data of the three-dimensional measurement object, and specifying any two specified A process of creating vertical and cross-sectional data between points, converting it into design data, and outputting the data is executed.

本発明によれば、三次元測量対象物の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図った、三次元測定対象物の形状測定方法、及び装置、並びにプログラムを提供することができる。 According to the present invention, a series of tasks from surveying a three-dimensional survey object to creating various reports can be accurately realized in one stop, and a three-dimensional measurement object can be measured to reduce time and human costs. A shape measuring method, an apparatus, and a program can be provided.

本発明の実施の形態に係る三次元測定対象物の形状測定装置の構成を示すブロック図である。1 is a block diagram showing the configuration of a shape measuring apparatus for a three-dimensional measurement object according to an embodiment of the present invention; FIG. 本発明の実施の形態に係る三次元測定対象物の形状測定装置の処理動作を示すフローチャートである。4 is a flow chart showing processing operations of the shape measuring apparatus for a three-dimensional measurement object according to the embodiment of the present invention; 本発明の実施の形態に係る三次元測定対象物の形状測定装置の処理動作を示すフローチャートである(図2の続き)。FIG. 3 is a flow chart showing the processing operation of the shape measuring apparatus for a three-dimensional measurement object according to the embodiment of the present invention (continuation of FIG. 2); 本発明の実施の形態に係る三次元測定対象物の形状測定装置により生成される座標化され色マッピングされた点群データの一例を示す図である。FIG. 4 is a diagram showing an example of coordinated and color-mapped point cloud data generated by the shape measuring apparatus for a three-dimensional measurement object according to the embodiment of the present invention; 本発明の実施の形態に係る三次元測定対象物の形状測定装置により生成される三次元測定対象物の現況平面画像の一例を示す図である。FIG. 2 is a diagram showing an example of a current plane image of a three-dimensional measurement object generated by the three-dimensional measurement object shape measuring apparatus according to the embodiment of the present invention; 本発明の実施の形態に係る三次元測定対象物の形状測定装置により生成される現況縦横断図の一例を示す図である。It is a figure which shows an example of the present condition longitudinal cross-sectional view produced|generated by the shape measuring apparatus of the three-dimensional measurement object which concerns on embodiment of this invention. 撮像部が撮像した道路に反射材を散布した場合の画像を示す図である。It is a figure which shows the image at the time of scattering a reflecting material on the road imaged by the imaging part. 三次元走査装置が取得した点群データを図7に示す画像に合成した合成画像を示す図である。FIG. 8 is a diagram showing a synthesized image obtained by synthesizing the point cloud data acquired by the three-dimensional scanning device with the image shown in FIG. 7; 第3実施例に係る三次元測定対象物の形状測定装置の構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of a shape measuring apparatus for a three-dimensional measurement object according to a third embodiment; UAVの撮像部が異なる時刻で同領域を撮像した道路を含む複数の画像を示す図である。FIG. 10 is a diagram showing a plurality of images including a road captured in the same area at different times by the imaging unit of the UAV; 図10に示す画像から車両を除外した合成画像を示す図である。FIG. 11 is a diagram showing a synthesized image obtained by excluding a vehicle from the image shown in FIG. 10; 図11に示す合成画像を解析することにより生成され、色彩情報を含む三次元点群データを示す図である。12 is a diagram showing three-dimensional point cloud data including color information generated by analyzing the composite image shown in FIG. 11; FIG. 色彩情報が補正された点群データを示す図である。It is a figure which shows the point-group data by which color information was correct|amended. 第4実施例に係る三次元測定対象物の形状測定装置の構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of a shape measuring apparatus for a three-dimensional measurement object according to a fourth embodiment; 電子マーキングが追加された点群データを示す図である。FIG. 10 is a diagram showing point cloud data with electronic markings added; 拡大された電子マーキングの点群データを示す図である。FIG. 4 is a diagram showing point cloud data of enlarged electronic markings;

(第1実施形態の構成)
以下、本発明の実施の形態(以下、本実施形態という)に係る三次元測定対象物の形状測定装置について図面を参照しながら詳細に説明する。なお、実施形態の説明の全体を通して同じ要素には同じ番号又は符号を付している。
(Configuration of the first embodiment)
Hereinafter, a shape measuring apparatus for a three-dimensional measurement object according to an embodiment of the present invention (hereinafter referred to as the present embodiment) will be described in detail with reference to the drawings. The same numbers or symbols are given to the same elements throughout the description of the embodiment.

図1に示すように、本実施形態に係る三次元測定対象物の形状測定装置100は、例えば、PC(Personal Computer)等により実現され、装置本体である解析装置30と、キーボードやマウス等の入力装置31と、LCD(Liquid Crystal Display)モニタ、プリンタ等の出力装置32とから構成される。なお、解析装置30は、三次元走査装置(3Dスキャナ)10と、トータルステーション(TS)20とは、オフラインで接続される。 As shown in FIG. 1, a shape measuring apparatus 100 for a three-dimensional measurement object according to the present embodiment is realized by, for example, a PC (Personal Computer) or the like, and includes an analysis apparatus 30 as a device main body, a keyboard, a mouse, or the like. It is composed of an input device 31 and an output device 32 such as an LCD (Liquid Crystal Display) monitor and a printer. Note that the analysis device 30 is connected offline to the three-dimensional scanning device (3D scanner) 10 and the total station (TS) 20 .

三次元走査装置10は、道路等の三次元測定対象物に対してレーザ光を照射し、そのレーザ光の多数の反射点の各点を三次元座標化された点の群(以下、点群データという)として取り込み、解析装置30へ出力する。 The three-dimensional scanning device 10 irradiates a three-dimensional measurement object such as a road with a laser beam, and a group of points (hereinafter referred to as a point group data) and output to the analysis device 30 .

トータルステーション20は、位置座標が既知の2つの基準位置(基準点)に反射部材を置き、その反射部材に向けて測定用光を投光し、その反射光の位相差に基づき各基準位置までの距離を測定して水平角度や鉛直角度を求め、解析装置30に対し、測量データの共通フォーマットとして知られているSIMA(Surveying Instruments Manufacturers’ Association)データとして出力する。 The total station 20 places reflecting members at two reference positions (reference points) whose position coordinates are known, projects measurement light toward the reflecting members, and measures the distance to each reference position based on the phase difference of the reflected light. Distances are measured to obtain horizontal and vertical angles, which are output to the analysis device 30 as SIMA (Surveying Instruments Manufacturers' Association) data known as a common format for survey data.

解析装置30は、図示省略したプログラムを逐次読み出し実行することにより、三次元走査装置10から取得した点群データ、及び/又はトータルステーション20から取得したSIMAデータを解析して道路の形状確認データを生成すると共に、入力装置31によって入力される任意の2点間の縦・横断図を作成して設計データに変換し、それぞれ出力装置32に出力(表示又は印刷)する機能を有する。 The analysis device 30 sequentially reads and executes a program (not shown) to analyze the point cloud data acquired from the three-dimensional scanning device 10 and/or the SIMA data acquired from the total station 20 to generate road shape confirmation data. In addition, it has a function of creating longitudinal and transverse views between any two points input by the input device 31, converting them into design data, and outputting (displaying or printing) them to the output device 32 respectively.

このため、解析装置30は、図1にそのプログラム構造をブロックで展開して示したように、点群データ取得部301と、SIMAデータ取得部302と、SIMA統合部303と、平面画像合成部304と、平面資料作成部305と、線形作成部306と、路線計算部307と、三角網縦横断データ取得部308と、出来形管理部309と、設計データ及び納品データ作成部310と、を含み構成される。 For this reason, the analysis device 30 includes a point cloud data acquisition unit 301, a SIMA data acquisition unit 302, a SIMA integration unit 303, and a plane image synthesis unit, as shown by expanding the program structure in blocks in FIG. 304, plane material creation unit 305, alignment creation unit 306, route calculation unit 307, triangular network longitudinal and cross-section data acquisition unit 308, finished shape management unit 309, and design data and delivery data creation unit 310. Consists of.

点群データ取得部301は、三次元走査装置10により照射されるレーザ光により三次元測定対象物である道路からの反射点における各点が3次元座標化された点群データとして取得し、SIMA統合部303へ出力する。 A point cloud data acquisition unit 301 acquires point cloud data in which each point of a reflection point from a road, which is a three-dimensional measurement object, is converted into three-dimensional coordinates by laser light irradiated by the three-dimensional scanning device 10, and SIMA Output to the integration unit 303 .

SIMAデータ取得部302は、トータルステーション20により出力される基準点を含むSIMAデータ(点番、点名、X,Y,Z)を、解析装置30が読み込み可能なCSV(Comma Separated Values)形式のデータにファイル変換し、XY座標を入れ替えてSIMA統合部303へ出力する。 The SIMA data acquisition unit 302 converts SIMA data (point number, point name, X, Y, Z) including reference points output from the total station 20 into data in a CSV (Comma Separated Values) format that can be read by the analysis device 30. File conversion is performed, the XY coordinates are exchanged, and the data is output to the SIMA integration unit 303 .

SIMA統合部303は、SIMAデータ取得部302から出力されるCSVデータを点群データ取得部301から出力される点群データに反映させ、更に、色マッピング処理により生成される点群のPTSファイルのX,Yを入れ替えて読み込み、基準点SIMAデータと統合して平面画像合成部304に出力する。 The SIMA integration unit 303 reflects the CSV data output from the SIMA data acquisition unit 302 in the point cloud data output from the point cloud data acquisition unit 301, and further converts the PTS file of the point cloud generated by the color mapping process. X and Y are exchanged and read, integrated with the reference point SIMA data, and output to the planar image synthesizing unit 304 .

平面画像合成部304は、SIMA統合部303により出力される統合データに縮尺を固定した現況平面画像を合成し、合成TIFF(Tagged Image File Format)データとして平面資料作成部305へ出力する。 Planar image synthesizing unit 304 synthesizes a current planar image whose scale is fixed with the integrated data output from SIMA integrating unit 303 , and outputs the synthesized TIFF (Tagged Image File Format) data to planar material creating unit 305 .

平面資料作成部305は、基準点SIMAデータと平面画像合成部304から出力されるTIFFデータを基に平面資料を作成し、線形作成部306へ出力する。平面資料作成部305は、更に、作成した平面資料をPDF(Portable Document Format)及びAutoCAD(登録商標)の標準ファイル形式であるDWG(Drawing)にファイルに変換し、設計データ及び納品データ作成部301へ出力する。 A planar material creating unit 305 creates a planar material based on the reference point SIMA data and the TIFF data output from the planar image synthesizing unit 304 , and outputs the created planar material to the line creating unit 306 . The planar material creation unit 305 further converts the created planar material into PDF (Portable Document Format) and DWG (Drawing), which is the standard file format of AutoCAD (registered trademark), into a file, and the design data and delivery data creation unit 301 Output to

線形作成部306は、平面資料作成部305から出力される平面資料に基づき、IP(Intersection Point)点を作成し、路線計算部307へそのIP座標(SIMAデータ)を出力すると共に、そのSIMAデータをPDFにファイル変換して設計データ及び納品データ作成部310へそのPDFデータを出力する。 The alignment creation unit 306 creates IP (Intersection Point) points based on the plane data output from the plane data creation unit 305, outputs the IP coordinates (SIMA data) to the route calculation unit 307, and converts the SIMA data is converted into a PDF file, and the PDF data is output to the design data and delivery data creation unit 310 .

路線計算部307は、SIMA統合部303から出力される統合データに示される線形を基準とする路線測量によって得られる線形の主要点の位置座標と、線形作成部306から出力されるIP座標に基づき、入力装置31から入力される、曲線パラメータ、縦断要素、幅員、任意測点により、路線全体で三次元座標値を求める路線計算を実行し、その結果を三角網縦横断データ取得部308へ出力する。 The route calculation unit 307 calculates the coordinates based on the position coordinates of the main points of the line obtained by the route survey based on the line shown in the integrated data output from the SIMA integration unit 303 and the IP coordinates output from the line creation unit 306. , the curve parameters, longitudinal elements, width, and arbitrary survey points input from the input device 31 are used to perform route calculation for obtaining three-dimensional coordinate values for the entire route, and the results are output to the triangular network longitudinal and cross section data acquisition unit 308. do.

三角網縦横断データ取得部308は、路線計算部307から出力される三次元座標値に基づき、指定される任意の2点間の縦横断データ(縦横断図)をSIMAデータとして設計データ及び納品データ作成部310へ出力する。 Based on the three-dimensional coordinate values output from the route calculation unit 307, the triangular network longitudinal and cross-sectional data acquisition unit 308 acquires longitudinal and cross-sectional data (longitudinal and cross-sectional views) between any two specified points as SIMA data for design data and delivery. Output to data creation unit 310 .

設計データ及び納品データ作成部310は、三角網縦横断データ取得部308から出力される横断SIMAデータに基づき現況縦横断データを出力装置32へ出力する。 The design data and delivery data creation unit 310 outputs current longitudinal and cross-sectional data to the output device 32 based on the cross-sectional SIMA data output from the triangular network longitudinal and cross-sectional data acquisition unit 308 .

出来形管理部309は、作成した基本設計データを用い、現場での出来形を測定し、出来形の良否判定が可能な設計と出来形の差を出力し、更に、基本設計データと、測定した出来形測定データとを読み込み、設計データ及び納品データ作成部310を介して出来形帳票を作成する。 The workmanship management unit 309 uses the created basic design data to measure the workmanship at the site, outputs the difference between the design and the workmanship that can determine the quality of the workmanship. The finished product measurement data is read, and a finished product form is created via the design data and delivery data creating unit 310 .

設計データ及び納品データ作成部310は、横断SIMAデータを線形データALG(ER Mapper Algorithm Data)にファイル変換して3Dビューア用の縦横断図を作成して出力装置32へ表示する。設計データ及び納品データ作成部310は、他に、平面資料作成部305から出力されるPDFあるいはDWGフォーマットの平面資料から、所定様式の概況平面図、面積体積計算書を作成し、また、線形作成部306から出力されるPDF形式の路線測量計算書を作成して路線計算部307へ出力し、更に、路線計算部307により出力されるPDFと三次元座標データに基づき、所定様式のクラック、轍調査資料を生成し、それぞれ出力装置32へ出力する。 The design data and delivery data creation unit 310 converts the cross-sectional SIMA data into linear data ALG (ER Mapper Algorithm Data), creates a vertical cross-sectional view for a 3D viewer, and displays it on the output device 32 . The design data and delivery data creation unit 310 also creates a general plan view and an area volume calculation sheet in a predetermined format from the planar material in PDF or DWG format output from the planar material creation unit 305, and also creates a line. A route survey calculation sheet in PDF format output from the unit 306 is created and output to the route calculation unit 307. Further, based on the PDF output from the route calculation unit 307 and the three-dimensional coordinate data, cracks and ruts in a predetermined format are generated. Investigation materials are generated and output to the output device 32 respectively.

(第1実施形態の動作)
以下、図2、図3のフローチャート、及び図4~図6に示す画像を参照しながら、図1に示す本実施形態に係る三次元測定対象物の形状測定装置100の処理動作について説明する。なお、図2は3D事前測量、図3は、3D事前測量により作成される基本設計データに基づき施工された三次元測定対象物が発注者の意図する規格基準に対してどの程度の精度で施工されたか、その施工技術の度合を管理する出来形計測の処理の流れを示す。
(Operation of the first embodiment)
Hereinafter, the processing operation of the three-dimensional measurement object shape measuring apparatus 100 according to the present embodiment shown in FIG. 1 will be described with reference to the flowcharts of FIGS. 2 and 3 and the images shown in FIGS. Figure 2 shows the 3D pre-survey, and Figure 3 shows the accuracy of the three-dimensional measurement object constructed based on the basic design data created by the 3D pre-survey against the standards intended by the ordering party. It shows the flow of the finished shape measurement process that manages the degree of construction technology.

ここでは、三次元測定対象物である道路にあらかじめ基準点が設置されており、光波測距儀とトランシットが一体化されたトータルステーション20が、ダイポイント、主要点観測の結果をSIMAデータと互換のあるCADデータとして出力する。そして、このCADデータと基準点SIMAデータとに基づき、主要点を折れ線状に配置し、各点における隣接点間の交角(夾角)と距離を測定して点の位置を求めるトラバース計算を行い(ステップS101)、点番、点名、X,Y,ZからなるSIMAデータを生成する。 Here, reference points are set in advance on the road, which is the object of three-dimensional measurement, and the total station 20, which integrates the light wave rangefinder and the transit, converts the results of die point and principal point observations into SIMA data. Output as certain CAD data. Then, based on this CAD data and the reference point SIMA data, the main points are arranged in a polygonal line, the intersection angle (included angle) and the distance between adjacent points at each point are measured, and the position of the point is calculated by traverse calculation ( Step S101), SIMA data consisting of point numbers, point names, and X, Y, and Z are generated.

一方、三次元走査装置10は、道路に対してレーザ光を照射し、そのレーザ光の多数の反射点の各点を三次元座標化された点群データを生成する。三次元走査装置10は、レーザの照射から受光までの時間により、設置位置から反射点までの距離を算出し、調査範囲の反射点の三次元座標化された位置(X,Y,Z)を算出し、調査範囲の反射点の各位置をまとめた点群データとして出力する。この点群データにより、三次元測定対象物の道路の絵柄を描画することができる。 On the other hand, the three-dimensional scanning device 10 irradiates a road with laser light and generates point group data in which each point of a large number of reflection points of the laser light is three-dimensionally coordinated. The three-dimensional scanning device 10 calculates the distance from the installation position to the reflection point from the time from laser irradiation to light reception, and calculates the three-dimensional coordinate position (X, Y, Z) of the reflection point in the investigation range. Calculate and output as point cloud data summarizing each position of reflection points in the investigation range. Using this point group data, it is possible to draw a pattern of the road of the three-dimensional measurement object.

解析装置30は、三次元走査装置10から取得される点群データ、トータルステーション20から取得されるSIMAデータに基づき以下の処理を実行する。すなわち、点群データ取得部301が、三次元走査装置10によりスキャンされ出力された点群データを取得してSIMA統合部303へ出力し、SIMAデータ取得部302が、トータルステーション20により観測され出力されるSIMAデータを取得し、CSV形式にファイル変換し、X,Y座標を入れ替えたCSVファイルを生成してSIMA統合部303へ出力する(ステップS102)。 The analysis device 30 executes the following processes based on the point cloud data acquired from the three-dimensional scanning device 10 and the SIMA data acquired from the total station 20 . That is, the point cloud data acquisition unit 301 acquires the point cloud data scanned and output by the three-dimensional scanning device 10 and outputs it to the SIMA integration unit 303, and the SIMA data acquisition unit 302 observes and outputs the data by the total station 20. SIMA data is acquired, file-converted into a CSV format, a CSV file in which the X and Y coordinates are exchanged is generated, and output to the SIMA integration unit 303 (step S102).

SIMA統合部303は、SIMAデータ取得部302から出力されるCSVデータを点群データ取得部301から出力される点群データに反映させ、更に、色マッピングにより点群のPTSファイルを生成する(ステップS103)。図4に、点群データの一例が示されている。 The SIMA integration unit 303 reflects the CSV data output from the SIMA data acquisition unit 302 in the point cloud data output from the point cloud data acquisition unit 301, and further generates a point cloud PTS file by color mapping (step S103). FIG. 4 shows an example of point cloud data.

続いて、SIMA統合部303は、生成したPTSファイルのX,Yを入れ替えて読み込み、基準点SIMAデータと統合し、更に、ステップS101のトラバース計算により得られる、人孔、道路幅員、クラック形状等の主要点情報をDXFデータ、SIMAデータに変換したファイルを結合して平面画像合成部304に出力する(ステップS104)。 Subsequently, the SIMA integration unit 303 reads the generated PTS file by replacing X and Y, integrates it with the reference point SIMA data, and furthermore, the manhole, road width, crack shape, etc. obtained by the traverse calculation in step S101. are converted into DXF data and SIMA data and output to the plane image synthesizing unit 304 (step S104).

平面画像合成部304は、フリーフォームNURBS(Non-Uniform Rational Basis Spline(非一様有理Bスプライン)モデリングに特化した商用の製造業向け3次元CADソフトウェアであるライノセラス(登録商標)の画面上で施工範囲を画定してDXFデータを出力し(ステップS105)、SIMA統合部303により出力される統合データに縮尺を固定した現況平面画像を合成し、合成TIFFデータとして平面資料作成部305へ出力する(ステップS106)。図5に、現況平面画像の一例が示されている。 The planar image synthesizing unit 304 generates images on the screen of Rhinoceras (registered trademark), which is commercial three-dimensional CAD software for the manufacturing industry, specializing in free-form NURBS (Non-Uniform Rational Basis Spline) modeling. The construction area is defined and DXF data is output (step S105), the integrated data output by the SIMA integration unit 303 is synthesized with the current situation planar image with a fixed scale, and output as synthesized TIFF data to the planar material creation unit 305. (Step S106) Fig. 5 shows an example of the current plane image.

平面資料作成部305は、基準点SIMAデータと平面画像合成部304から出力されるTIFFデータを基に平面資料を作成し、線形作成部306へ出力する(ステップS106)。平面資料作成部305は、更に、作成した平面資料をPDF及びDWGにファイルに変換し、設計データ及び納品データ作成部310へ出力する。 The planar material creating unit 305 creates a planar material based on the reference point SIMA data and the TIFF data output from the planar image synthesizing unit 304, and outputs it to the line creating unit 306 (step S106). The planar material creating unit 305 further converts the created planar material into PDF and DWG files, and outputs the files to the design data and delivery data creating unit 310 .

続いて、線形作成部306は、平面資料作成部305から出力される平面資料に基づき、道路中心線の平面線形において、円曲線や緩和曲線を両側から挟む2つの直線部の延長線の交点であるIP点を作成し(ステップS107)、路線計算部307へそのIP座標(SIMAデータ)を出力する。線形作成部306は、更に、SIMAデータをPDFにファイル変換して設計データ及び納品データ作成部310へそのPDFデータを出力する。 Next, based on the plane data output from the plane data creation section 305, the alignment creation unit 306 creates a plane alignment of the road centerline at the intersection of the extension lines of the two straight sections sandwiching the circular curve and transition curve from both sides. A certain IP point is created (step S107), and its IP coordinates (SIMA data) are output to the route calculation unit 307. FIG. The linear creation unit 306 further converts the SIMA data into a PDF file and outputs the PDF data to the design data and delivery data creation unit 310 .

路線計算部307は、SIMA統合部303から出力される統合データに示される線形を基準とする路線測量によって得られる線形の主要点の位置座標と、線形作成部306から出力されるIP座標とに基づき、入力装置31を介してユーザによって入力される、曲線パラメータ、縦断要素、幅員、任意測点により、路線全体で三次元座標値を求める路線計算を実行し、その結果を三角網縦横断データ取得部308へ出力する(ステップS108)。路線計算部307は、更に、線形を基準として路面の損傷を調査(路面調査)し、クラックや轍の調査資料作成のために、その結果をPDF、3Dデータに変換して、設計データ及び納品データ作成部310に出力する(ステップS109)。路線計算部307による3Dデータへの変換にあたり、ライノセラス(登録商標)でデータ処理した結果が反映される。 The route calculation unit 307 combines the position coordinates of the principal points of the line obtained by the route survey on the basis of the line shown in the integrated data output from the SIMA integration unit 303 and the IP coordinates output from the line creation unit 306. Based on this, the curve parameters, longitudinal elements, width, and arbitrary survey points input by the user through the input device 31 are used to calculate the three-dimensional coordinate values for the entire route. Output to the acquisition unit 308 (step S108). The route calculation unit 307 further investigates damage to the road surface (road surface investigation) based on the alignment, converts the results into PDF and 3D data in order to create survey materials for cracks and ruts, and converts the results into design data and delivery. It is output to the data creation unit 310 (step S109). When the route calculation unit 307 converts the data into 3D data, the result of data processing by Rhinoceras (registered trademark) is reflected.

三角網縦横断データ取得部308は、路線計算部307から出力される三次元座標値に基づき任意の2点間における三角網縦横断SIMAデータを作成し(ステップS110)、設計データ及び納品データ作成部310へ出力する。設計データ及び納品データ作成部310は、三角網縦横断データ取得部308から出力される横断SIMAデータに基づき現況縦横断データを出力装置32へ出力する(ステップS111)。ここで出力される現況縦横断データは、図3にその詳細を示す出来形計測でも使用される。図6に、現況縦横断データにより作成される現況縦横断図の一例が示されている。 The triangular network longitudinal and transverse data acquisition unit 308 creates triangular network longitudinal and transverse SIMA data between any two points based on the three-dimensional coordinate values output from the route calculation unit 307 (step S110), and creates design data and delivery data. Output to unit 310 . The design data and delivery data creation unit 310 outputs the current longitudinal and cross-sectional data to the output device 32 based on the cross-sectional SIMA data output from the triangular network longitudinal and cross-sectional data acquisition unit 308 (step S111). The current longitudinal and cross-sectional data output here are also used in finished shape measurement, the details of which are shown in FIG. FIG. 6 shows an example of a current longitudinal/cross-sectional view created from the current longitudinal/cross-sectional data.

設計データ及び納品データ作成部310は、更に、横断SIMAデータを線形データALGにファイル変換して3Dビューア用の縦横断図を含む基本設計データ作成して出力装置32に出力する。設計データ及び納品データ作成部310は、他に、平面資料作成部305から出力されるPDFあるいはDWGフォーマットの平面資料から、所定様式の概況平面図、面積体積計算書を作成し、また、線形作成部306から出力されるPDF形式の路線測量計算書を作成して路線計算部307へ出力し、更に、路線計算部307により出力されるPDFと三次元座標データに基づき、所定様式のクラック、轍調査資料を生成し、それぞれ出力装置32へ出力する。 The design data and delivery data creation unit 310 further converts the transverse SIMA data into linear data ALG, creates basic design data including longitudinal and transverse views for the 3D viewer, and outputs the basic design data to the output device 32 . The design data and delivery data creation unit 310 also creates a general plan view and an area volume calculation sheet in a predetermined format from the planar material in PDF or DWG format output from the planar material creation unit 305, and also creates a line. A route survey calculation sheet in PDF format output from the unit 306 is created and output to the route calculation unit 307. Further, based on the PDF output from the route calculation unit 307 and the three-dimensional coordinate data, cracks and ruts in a predetermined format are generated. Investigation materials are generated and output to the output device 32 respectively.

次に、図3を参照しながら、縦横断計画出来形計測(3D事前測量から3D出来形計測)について説明する。出来形管理部309は、設計データ及び納品データ作成部310から出力される基本設計データに基づき、現状横断データ解析、及び縦断線形変化点ごとの縦断曲線諸量を計算する縦横断計画を行い(ステップS201)、入力される基準点SIMAデータに基づき、3次元設計データを作成してXML(Extensible Markup Language)形式のファイルを出力する(ステップS202)。 Next, referring to FIG. 3, longitudinal and cross-section planning finished shape measurement (from 3D preliminary survey to 3D finished shape measurement) will be described. Based on the design data and the basic design data output from the delivery data creation unit 310, the finished shape management unit 309 analyzes the current cross-sectional data, and performs longitudinal and cross-sectional planning to calculate the vertical curve various amounts for each vertical line change point ( Step S201) Based on the input reference point SIMA data, three-dimensional design data is created and an XML (Extensible Markup Language) format file is output (step S202).

続いて、出来形管理部309は、そのXMLファイルに基づき、トータルステーション20を用いた出来形計測を行い(ステップS203)、その結果を設計データ及び納品データ作成部310を介してPDF及びXMLのファィル形式で出力装置32へ出力する。 Subsequently, the finished shape management unit 309 performs finished shape measurement using the total station 20 based on the XML file (step S203), and converts the results into PDF and XML files via the design data and delivery data creation unit 310. format to the output device 32 .

また、出来形管理部309は、基準点SIMAデータ、及び三角網縦横断データ取得部208から出力される線形データ(ALG)、そして、三次元走査装置10、及びトータルステーション20により観測され出力される3Dデータに基づき、図2にフローチャートで示した3D事前測量と同じ工程でデータ解析を行う(ステップS204)。そして、入力されXMLファイルの3次元設計データに基づき出来形縦横断データを出力し、3D事前測量縦横断データとの対比資料を作成すべく、設計データ及び納品データ作成部310を介し、PDF又はDWG形式の3D出来形成果資料を出力装置32へ出力する(ステップS205)。 In addition, the finished shape management unit 309 collects the reference point SIMA data, the linear data (ALG) output from the triangular net vertical and cross data acquisition unit 208, and the data observed and output by the three-dimensional scanning device 10 and the total station 20. Based on the 3D data, data analysis is performed in the same process as the 3D preliminary survey shown in the flowchart of FIG. 2 (step S204). Then, based on the three-dimensional design data of the input XML file, the completed vertical and cross-sectional data is output, and the PDF or The 3D finished product data in DWG format is output to the output device 32 (step S205).

(第1実施形態の効果)
以上説明のように本実施形態に係る三次元測定対象物の形状測定装置100は、解析装置30が、三次元走査装置10により照射されるレーザ光により、道路等の三次元測定対象からの反射点における各点が3次元座標化された点群データとして取得し、当該取得した点群データを解析し、三次元測定対象物の形状確認データを生成すると共に、入力装置31によって入力される任意の2点間の縦・横断図を作成して設計データに変換し、それぞれ出力装置32に出力する。このことにより、三次元測量対象物の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図ることができる。
(Effect of the first embodiment)
As described above, the shape measuring apparatus 100 of the three-dimensional measurement object according to the present embodiment is configured such that the analysis device 30 detects the reflection from the three-dimensional measurement object such as a road by the laser light emitted by the three-dimensional scanning device 10. Each point is acquired as point cloud data in which each point is converted into three-dimensional coordinates, the acquired point cloud data is analyzed, and shape confirmation data of the three-dimensional measurement object is generated. are created, converted into design data, and output to the output device 32 respectively. As a result, a series of tasks from surveying a three-dimensional survey object to creating various reports can be accurately realized in one stop, and time and personnel costs can be reduced.

具体的に、従来、作業員が、メジャー、あるいはトータルステーション20等の測量計を設置し、時間をかけて測定していた、クラック調査、轍調査、縦横断調査(切削量のボリューム調査)等の現地調査を、三次元走査装置10を使用した形状測定装置100により短時間で実施でき、かつ、トータルステーション20を使用して得られる測量データと併用することにより、詳細な測量データを所得できる。これにより、従来、把握できなかった三次元測定対象物の形状や変化を現地に何度も赴くことなく把握することができるようになる。このことにより、例えば、3日程度要していたこれら調査を、2時間程度まで短縮できることが確認された。また、従来、道路の轍や縦横断調査をそれぞれの専門会社が行っていたが、これをワンストップで行えるようになり、測量作業の時間的、人員的な負担を大幅に削減すことができ、また、効率化が図れることから、大幅なコストダウンが可能になる。 Specifically, conventionally, workers installed a measuring instrument such as a measure or a total station 20 and took time to measure, such as crack investigation, rut investigation, longitudinal and cross-sectional investigation (volume investigation of cutting amount). A field survey can be performed in a short time by the shape measuring device 100 using the three-dimensional scanning device 10, and detailed survey data can be obtained by using the survey data obtained by using the total station 20 together. As a result, it becomes possible to grasp the shape and change of the three-dimensional measurement object, which could not be grasped conventionally, without visiting the site many times. As a result, it was confirmed that, for example, these investigations, which used to take about three days, can be shortened to about two hours. In the past, road rut and longitudinal cross-section surveys were conducted by separate companies, but now this can be done on a one-stop basis, greatly reducing the time and personnel burden of surveying work. In addition, since efficiency can be improved, a significant cost reduction is possible.

なお、本実施形態に係る三次元測定対象物の形状測定装置100において、三次元測定対象物として道路のみ例示したが、道路に限らず、例えば、森林における樹木等の形態を定量化する用途、あるいは、工事計画、施工、面積、地図作成等、各種用途への適用が可能である。 In addition, in the three-dimensional measurement object shape measuring apparatus 100 according to the present embodiment, only the road was exemplified as the three-dimensional measurement object, but it is not limited to roads. Alternatively, it can be applied to various uses such as construction planning, execution, area, map creation, and the like.

(三次元測定対象物の形状測定方法)
また、本実施形態に係る三次元測定対象物の形状測定方法は、少なくとも、図1に示す三次元走査装置10と、入力装置31と出力装置32とを有する解析装置30とを用いることにより実現される。そして、その方法は、例えば、図2に示すように、三次元走査装置10により照射されるレーザ光により三次元測定対象からの反射点における各点が3次元座標化された点群データとして取得する第1のステップ(S103)と、取得した点群データを解析装置30によって解析し、三次元測定対象物の形状確認データを生成すると共に、入力装置31によって入力される任意の2点間の縦・横断図を作成して設計データに変換し、それぞれ出力装置32に出力する第2のステップ(S104~S111)と、を有するものである。
(Method for measuring the shape of a three-dimensional object)
Further, the method for measuring the shape of a three-dimensional measurement object according to the present embodiment is realized by using at least the three-dimensional scanning device 10 shown in FIG. be done. In this method, for example, as shown in FIG. 2, each point in the reflection point from the three-dimensional measurement target is acquired as point cloud data in which each point is three-dimensionally coordinated by the laser beam irradiated by the three-dimensional scanning device 10. a first step ( S103 ), the acquired point cloud data is analyzed by the analysis device 30 to generate shape confirmation data of the three-dimensional measurement object, and between any two points input by the input device 31 and a second step (S104 to S111) of creating longitudinal and transverse views, converting them into design data, and outputting them to the output device 32, respectively.

また、本実施形態に係る三次元測定対象物の形状測定方法において、第1のステップは、トータルステーション20による観測結果を解析装置30が利用可能なファイル形式に変換して点群データに反映させ、色マッピング処理により生成されるPTSファイルと、基準点SIMAデータとを統合して解析装置30に入力してもよい(ステップS101~S104)。また、第2のステップは、線形を基準とした路線測量により得られる線形の主要点の位置座標と、取り込んだ中間座標とに基づき路線計算を行い、路線計算の結果に基づき、三角網による縦横断図を作成してもよい(ステップS105~S111)。 Further, in the method for measuring the shape of a three-dimensional measurement object according to the present embodiment, the first step is to convert the observation result by the total station 20 into a file format that can be used by the analysis device 30 and reflect it in the point cloud data, The PTS file generated by the color mapping process and the reference point SIMA data may be integrated and input to the analysis device 30 (steps S101 to S104). In the second step, route calculation is performed based on the position coordinates of the main points of the alignment obtained by route surveying with the alignment as a reference, and the captured intermediate coordinates. A transverse view may be created (steps S105 to S111).

本実施形態に係る三次元測定対象物の形状測定方法によれば、三次元測量対象物の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図った、三次元測定対象物の形状測定方法を提供することができる。 According to the method for measuring the shape of a three-dimensional measurement object according to the present embodiment, a series of operations from surveying the three-dimensional measurement object to creating various reports can be accurately realized in one stop, reducing time and human costs. It is possible to provide a method for measuring the shape of a three-dimensional measurement object that reduces the

(プログラム)
また、本実施形態に係るプログラムは、三次元測定対象物の形状測定装置100のためのプログラムである。そしてそのプログラムは、解析装置30に、上記した本実施形態に係る三次元測定対象物の形状測定方法における各ステップと同様の処理を実行させるものであり、重複を回避する意味で各処理の説明を省略する。
(program)
Also, the program according to the present embodiment is a program for the shape measuring apparatus 100 for a three-dimensional measurement object. The program causes the analysis device 30 to execute the same processing as each step in the method for measuring the shape of the three-dimensional measurement object according to the present embodiment described above. omitted.

本実施形態に係るプログラムによれば、解析装置30が、上記した本実施形態に係るプログラムを読み出し実行することにより、三次元測量対象物の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図った、三次元測定対象物の形状測定装置100を提供することができる。 According to the program according to the present embodiment, the analysis device 30 reads out and executes the program according to the present embodiment described above, so that a series of tasks from surveying the three-dimensional survey object to creating various reports can be accurately performed. It is possible to provide the shape measuring apparatus 100 for a three-dimensional measurement object that can be realized as a one-stop shop and that can reduce time and personnel costs.

[第2実施形態]
上記第1実施形態では、三次元走査装置10は、道路等の三次元測定対象物に対してレーザ光を照射し、そのレーザ光の多数の反射点の各点を三次元座標化して点群データを生成していた。
ところで、施工直後の道路や雨天時又は雨が止んだ直後の道路は、雨水等の影響で光沢のある黒色面が形成される。
[Second embodiment]
In the first embodiment, the three-dimensional scanning device 10 irradiates a three-dimensional measurement object such as a road with laser light, converts each point of a large number of reflection points of the laser light into three-dimensional coordinates, and obtains a point cloud. was generating data.
By the way, roads that have just been constructed or roads that are raining or just after the rain stops form a glossy black surface due to the influence of rainwater and the like.

しかしながら、三次元走査装置10は、そのような光沢のある黒色面の計測には適していない。
つまり、三次元走査装置10で、このような道路に雨水が残っているような場所を計測しようとすると、レーザ光が上手く反射されず、その結果、レーザ光の少数の反射点の各点が少なくなるため、それに基づいて三次元座標化された点群データも少なくなり、十分な点群データが得られないという課題がある。
なお、雨水に限らず、道路に水が散布されたり、元々、適切な反射が得られ難い素材が用いられている場合も同様の課題がある。
However, the three-dimensional scanning device 10 is not suitable for measuring such glossy black surfaces.
In other words, when the three-dimensional scanning device 10 attempts to measure such a place where rainwater remains on the road, the laser light is not reflected well, and as a result, each point of the small number of reflection points of the laser light is Since the number of points is reduced, the number of point cloud data converted into three-dimensional coordinates is also reduced, and there is a problem that sufficient point cloud data cannot be obtained.
In addition to rainwater, the same problem occurs when water is sprayed on the road, or when a material that is originally difficult to obtain appropriate reflection is used.

そこで、第2実施例では、そのような状況でも、良好に点群データを得ることができる手法について、以下、図7及び図8を参照しながら説明する。
なお、以下では、第1実施形態と同様の点については、説明を省略し、第1実施形態と主に異なる点について説明するものとする。
また、以下の説明では、適切なレーザ光の反射が得られない箇所のことをレーザ光不適面という場合がある。
図7は、撮像部が撮像した道路に反射材50を散布した場合の画像を示す図であり、図8は、三次元走査装置10が取得した点群データを図7に示す画像に合成した合成画像を示す図である。
Therefore, in the second embodiment, a method for obtaining good point cloud data even in such a situation will be described below with reference to FIGS. 7 and 8. FIG.
In addition, below, description shall be abbreviate|omitted about the same point as 1st Embodiment, and mainly a different point from 1st Embodiment shall be demonstrated.
Further, in the following description, a portion where appropriate laser light reflection cannot be obtained may be referred to as a laser light unsuitable surface.
FIG. 7 is a diagram showing an image captured by the imaging unit when the reflecting material 50 is scattered on the road, and FIG. 8 is an image obtained by synthesizing the point cloud data acquired by the three-dimensional scanning device 10 with the image shown in FIG. FIG. 10 is a diagram showing a synthesized image;

図7に示すように、雨水等の影響で適切なレーザ光の反射が得られないレーザ光不適面に対して小麦粉等からなる反射材50を散布する。
なお、この反射材50は、小麦粉等に限らず、例えば、ガラスビーズ混入の塗料からなる液状のものであってもよい。
As shown in FIG. 7, a reflecting material 50 made of wheat flour or the like is sprinkled on the laser beam unsuitable surface where appropriate laser beam reflection cannot be obtained due to the influence of rainwater or the like.
The reflecting material 50 is not limited to wheat flour or the like, and may be a liquid material made of paint mixed with glass beads, for example.

そして、そのように反射材50を散布した後に、三次元走査装置10を用いるようにすると、そのレーザ光が反射材50によって上手く反射されるため、図8に示すように、レーザ光の多数の反射点を得ることができる。
この結果、図8に示すように、その反射点の各点を三次元座標化した点群データも多数得られ、良好な点群データを生成することができる。
なお、このような反射材散布によるレーザ光不適面の点群取得方法をMRP法と呼ぶ場合がある。
Then, when the three-dimensional scanning device 10 is used after the reflecting material 50 is dispersed in this manner, the laser light is effectively reflected by the reflecting material 50, and as shown in FIG. A reflection point can be obtained.
As a result, as shown in FIG. 8, a large number of point cloud data in which each point of the reflection point is three-dimensionally coordinated can be obtained, and good point cloud data can be generated.
Incidentally, such a point group acquisition method of a laser beam unsuitable surface by scattering a reflecting material may be called an MRP method.

[第3実施形態]
上記第1実施形態では、SIMA統合部303は、SIMAデータ取得部302から出力されるCSVデータを点群データ取得部301から出力される点群データに反映させ、更に、色マッピングにより点群のPTSファイルを生成していたが、第3実施形態では、さらに、色彩がより鮮明な点群データを得るために、点群データに色彩情報を補正する方法について、以下、図9~図13を参照しながら説明する。
なお、第3実施形態の説明においても第1実施形態と同様の点については説明を省略する場合がある。
[Third embodiment]
In the first embodiment, the SIMA integration unit 303 reflects the CSV data output from the SIMA data acquisition unit 302 in the point cloud data output from the point cloud data acquisition unit 301, and further converts the point cloud by color mapping. Although the PTS file was generated, in the third embodiment, in order to obtain point cloud data with clearer colors, a method for correcting color information in point cloud data will be described below with reference to FIGS. 9 to 13. Description will be made with reference to this.
In the description of the third embodiment as well, the description of the same points as in the first embodiment may be omitted.

図9は、第3実施例に係る三次元測定対象物の形状測定装置100の構成を示すブロック図である。
図10は、UAV40の撮像部が異なる時刻で同領域を撮像した道路を含む複数の画像を示す図であり、図10(a)は、第1時刻で同領域を撮像した道路を含む画像を示す図であり、図10(b)は、第1時刻よりも後である第2時刻で同領域を撮像した道路を含む画像を示す図である。
図11は、図10に示す画像から車両を除外した合成画像を示す図である。
図12は、図11に示す合成画像を解析することにより生成され、色彩情報を含む三次元点群データを示す図である。
図13は、色彩情報が補正された点群データを示す図である。
FIG. 9 is a block diagram showing the configuration of a shape measuring apparatus 100 for a three-dimensional measurement object according to the third embodiment.
10A and 10B are diagrams showing a plurality of images including the road captured in the same area at different times by the imaging unit of the UAV 40. FIG. 10A shows an image including the road captured in the same area at the first time. FIG. 10(b) is a diagram showing an image including the road taken in the same region at a second time later than the first time.
FIG. 11 is a diagram showing a synthesized image obtained by excluding the vehicle from the image shown in FIG.
FIG. 12 is a diagram showing three-dimensional point cloud data that is generated by analyzing the composite image shown in FIG. 11 and includes color information.
FIG. 13 is a diagram showing point cloud data in which color information has been corrected.

図9に示すように、第3実施例に係る三次元測定対象の形状測定装置100は、解析装置30と、入力装置31と、出力装置32とから構成され、解析装置30には、三次元走査装置10と、トータルステーション20と、さらに、UAV(Unmanned Aerial Vehicle)40が、オフラインで接続される。
なお、点群データの色彩情報の補正には、以下で説明するように解析装置30及びUAV40が用いられる。
As shown in FIG. 9, a shape measuring apparatus 100 for three-dimensional measurement according to the third embodiment includes an analysis device 30, an input device 31, and an output device 32. The analysis device 30 includes a three-dimensional A scanning device 10, a total station 20, and a UAV (Unmanned Aerial Vehicle) 40 are connected offline.
Note that the analysis device 30 and the UAV 40 are used for correcting the color information of the point cloud data as described below.

UAV40は、解析装置30とオフラインで接続されており、遠隔操作により飛行可能な無人機である。
そして、UAV40は、道路等の三次元測定対象物の画像を撮像するための撮像部(図示しない)を備えている。
The UAV 40 is connected offline to the analysis device 30 and is an unmanned aerial vehicle that can fly by remote control.
The UAV 40 has an imaging unit (not shown) for capturing an image of a three-dimensional measurement object such as a road.

このUAV40の撮像部が撮像した画像を図10(a)及び図10(b)に示している。
具体的には、図10(a)及び図10(b)は、三次元走査装置10の有効範囲を含む同領域を、UAV40の撮像部で異なる時刻に撮像した道路等の三次元測定対象物を含む画像である。
なお、上述のように、UAV40はオフラインで解析装置30に接続されており、UAV40が撮像したその複数の画像は、後述するフォトレタッチ部311に出力できるようになっている。
Images captured by the imaging unit of the UAV 40 are shown in FIGS. 10(a) and 10(b).
Specifically, FIGS. 10A and 10B show three-dimensional measurement objects such as roads captured at different times by the imaging unit of the UAV 40 in the same area including the effective range of the three-dimensional scanning device 10. is an image containing
As described above, the UAV 40 is connected offline to the analysis device 30, and the plurality of images captured by the UAV 40 can be output to the photo retouching unit 311, which will be described later.

第3実施例の解析装置30は、フォトレタッチ部311と、画像測量解析部312と、色彩情報補正部313と、を含む点を除き、上記第1実施形態の解析装置30と同じ構成を有している。 The analysis device 30 of the third embodiment has the same configuration as the analysis device 30 of the first embodiment except that it includes a photo retouching unit 311, an image survey analysis unit 312, and a color information correction unit 313. is doing.

フォトレタッチ部311は、UAV40から出力される道路等の三次元測定対象物を含む複数の画像を合成することにより、図11に示すような非三次元測定対象の車両を除外した合成画像を生成し、画像測量解析部312へ出力する。 The photo retouching unit 311 synthesizes a plurality of images output from the UAV 40, including roads and other objects for three-dimensional measurement, to generate a synthesized image as shown in FIG. and output to the image survey analysis unit 312 .

画像測量解析部312は、フォトレタッチ部311から出力される合成画像を解析することにより、図12に示すような色彩情報を含む三次元点群データを生成し、色彩情報補正部313へ出力する。 The image survey analysis unit 312 analyzes the composite image output from the photo retouching unit 311 to generate three-dimensional point cloud data including color information as shown in FIG. .

そして、色彩情報補正部313が、画像測量解析部312から出力される色彩情報を含む三次元点群データを用いて、SIMA係合部303から出力される点群のPTSファイルに三次元点群データの持つ色彩情報を補正し、より鮮明な色彩情報を持つ三次元点群データとして、その点群のPTSファイルを平面画像合成部304及び路線計算部307へ出力する。 Then, the color information correction unit 313 uses the 3D point cloud data including the color information output from the image survey analysis unit 312 to convert the 3D point cloud data into the PTS file of the point cloud output from the SIMA engagement unit 303 . The color information of the data is corrected, and the PTS file of the point cloud is output to the plane image synthesizing unit 304 and the route calculation unit 307 as three-dimensional point cloud data having clearer color information.

具体的には、SIMA係合部303から出力される点群のPTSファイルの色彩情報を含む三次元点群データは、三次元走査装置10によって取得されたデータに基づいたもののため、道路上に描かれている白線等の色彩情報が不鮮明である場合がある一方、UAV40によって取得された画像に基づく色彩情報を含む三次元点群データは、道路上に描かれている白線等の色彩情報が鮮明であるため、色彩情報補正部313では、道路上の白線等の色彩情報を補正する処理が行われる。 Specifically, the three-dimensional point cloud data including the color information of the PTS file of the point cloud output from the SIMA engagement unit 303 is based on the data acquired by the three-dimensional scanning device 10. While the color information such as the white lines drawn on the road may be unclear, the 3D point cloud data including the color information based on the image acquired by the UAV 40 has the color information such as the white lines drawn on the road. Since the image is clear, the color information correction unit 313 performs processing for correcting color information such as white lines on the road.

このように、第3実施例では、UAV40及び解析装置30を用いて、点群のPTSファイルに色彩情報を補正することにより、色彩がより鮮明な点群データを得ることができ、この補正によって、図13に示すように、例えば、道路に描かれた白線等の細部をよく確認することができる状態にすることができる。 Thus, in the third embodiment, by correcting the color information of the PTS file of the point cloud using the UAV 40 and the analysis device 30, point cloud data with clearer colors can be obtained. For example, as shown in FIG. 13, details such as white lines drawn on the road can be clearly confirmed.

[第4実施形態]
上記第3実施形態では、UAV40を用いることで色彩情報を補正する場合について説明したが、UAV40を用いて三次元点群データを補正する、つまり、三次元走査装置10のレーザ光が届かないような範囲のために、三次元走査装置10によって取得したデータに基づいた三次元点群データで点群が不足している箇所の点群を補足してもよく、第4実施形態では、以下、図14を参照しながら、UAV40を用いて、三次元走査装置10による点群データを補足する方法について説明する。
[Fourth embodiment]
In the above-described third embodiment, the case of correcting the color information by using the UAV 40 has been described. For this range, the 3D point cloud data based on the data acquired by the 3D scanning device 10 may be used to supplement the point cloud where the point cloud is insufficient. Referring to FIG. 14, a method of supplementing point cloud data from the three-dimensional scanning device 10 using the UAV 40 will be described.

図14は、第4実施例に係る三次元測定対象物の形状測定装置100の構成を示すブロック図である。
なお、図14を参照しながら、以下、具体的に第4実施形態について説明するが、第4実施形態でも、第1実施形態と同様の点については説明を省略する場合がある。
また、UAV40について、第3実施形態で既に説明している内容についても省略する場合がある。
FIG. 14 is a block diagram showing the configuration of a shape measuring apparatus 100 for a three-dimensional measurement object according to the fourth embodiment.
Although the fourth embodiment will be specifically described below with reference to FIG. 14, the description of the same points as those of the first embodiment may be omitted in the fourth embodiment as well.
In addition, the contents of the UAV 40 that have already been explained in the third embodiment may also be omitted.

図14に示すように、第4実施例に係る三次元測定対象の形状測定装置100は、解析装置30と、入力装置31と、出力装置32とから構成され、解析装置30には、三次元走査装置10と、トータルステーション20と、さらに、UAV40が、オフラインで接続される。
なお、三次元走査装置10による点群データへの補足には、以下で説明するようにUAV40及び解析装置30が用いられる。
As shown in FIG. 14, a shape measuring apparatus 100 for three-dimensional measurement according to the fourth embodiment includes an analysis device 30, an input device 31, and an output device 32. The analysis device 30 includes a three-dimensional The scanning device 10, total station 20, and UAV 40 are connected offline.
Note that the UAV 40 and the analysis device 30 are used to supplement the point cloud data by the three-dimensional scanning device 10 as described below.

UAV40は、解析装置30にオフラインで接続され、遠隔操作により飛行可能な無人機であり、また、UAV40が道路等の三次元測定対象物の画像を撮像するための撮像部(図示しない)を備えていることは第3実施形態で説明したとおりである。
そして、第3実施形態で説明したのと同様に、UAV40の撮像部が異なる時刻で三次元走査装置10の有効範囲以外の領域を含む同領域を撮像した道路等の三次元測定対象物を含む複数の画像は、フォトレタッチ部311に出力される。
The UAV 40 is connected offline to the analysis device 30 and is an unmanned aerial vehicle capable of flying by remote control. It is as described in the third embodiment.
Then, in the same manner as described in the third embodiment, the imaging unit of the UAV 40 captures the same area including the area outside the effective range of the three-dimensional scanning device 10 at different times. A plurality of images are output to the photo retouching unit 311 .

第4実施例の解析装置30は、フォトレタッチ部311と、画像測量解析部312と、点群データ合成部314と、を含む点を除き、上記第1実施形態の解析装置30と同じ構成を有している。 The analysis device 30 of the fourth embodiment has the same configuration as the analysis device 30 of the first embodiment except that it includes a photo retouching unit 311, an image survey analysis unit 312, and a point cloud data synthesis unit 314. have.

第3実施形態と同様に、フォトレタッチ部311は、UAV40から出力される道路等の三次元測定対象物を含む複数の画像を合成することにより、非三次元測定対象の車両を除外して三次元走査装置10の有効範囲以外の領域を含む合成画像を生成し、画像測量解析部312へ出力する。 As in the third embodiment, the photo retouching unit 311 synthesizes a plurality of images including a three-dimensional measurement object such as a road output from the UAV 40, thereby excluding a non-three-dimensional measurement object vehicle and performing a three-dimensional image. A composite image including areas outside the effective range of the source scanning device 10 is generated and output to the image survey analysis unit 312 .

そして、画像測量解析部312が、画像測量解析部312から出力される三次元走査装置10の有効範囲以外の領域を含む合成画像を解析することにより、三次元走査装置10の有効範囲以外の領域を含む三次元点群データを生成し、点群データ合成部314へ出力する。 Then, the image survey analysis unit 312 analyzes the composite image including the area outside the effective range of the three-dimensional scanning device 10 output from the image survey analysis unit 312, thereby determining the area outside the effective range of the three-dimensional scanning device 10. , and outputs it to the point cloud data synthesizing unit 314 .

そうすると、点群データ合成部314は、点群データ取得部301から出力される点群データの点群が不足している箇所を補足するように、画像測量解析部312から出力される三次元点群データの点群を部分的に合成し、部分的な点群の補足が行われた三次元点群データをSIMA統合部303へ出力する。 Then, the point cloud data synthesizing unit 314 synthesizes the three-dimensional points output from the image survey analysis unit 312 so as to supplement the points where the point cloud of the point cloud data output from the point cloud data acquisition unit 301 is insufficient. The point cloud of the cloud data is partially synthesized, and the three-dimensional point cloud data in which the partial point cloud is supplemented is output to the SIMA integration unit 303 .

このように、第4実施例では、三次元走査装置10によって取得されたデータに基づく三次元点群データで点群が不足している箇所の点群をUAV40を用いることで補足するので、より完全な三次元点群データを生成することができる。 As described above, in the fourth embodiment, the UAV 40 is used to supplement the point cloud in the three-dimensional point cloud data based on the data acquired by the three-dimensional scanning device 10, where the point cloud is insufficient. A complete 3D point cloud data can be generated.

[第5実施形態]
上記第1実施形態で説明したトータルステーション20を、三次元走査装置10によって取得されたデータに基づく三次元点群データにおける境界がわかり難い箇所を境界がわかりやすくするのに用いてもよく、第5実施形態では、トータルステーション20を用いて、そのような境界をわかりやすくする方法について説明する。
[Fifth embodiment]
The total station 20 described in the first embodiment may be used to make the boundaries of the three-dimensional point cloud data based on the data acquired by the three-dimensional scanning device 10 easier to understand. In the embodiment, a method for making such boundaries easier to understand using the total station 20 will be described.

つまり、点群による現況観測では情報量が膨大であるため、三次元走査装置10によって取得されたデータに基づく三次元点群データでは、部分的に拡大していくと、車道と歩道との境目やマンホールの境界等が見えなくなるが、トータルステーション20を用いて、その境界がわかるように電子マーキングを付けることが可能であり、以下、図15及び図16を参照しながら、点群データへの電子マーキングについて説明する。
なお、第5実施形態においても、第1実施形態と同様の点については説明を省略する場合がある。
In other words, since the amount of information is enormous in current situation observation using point clouds, the 3D point cloud data based on the data acquired by the 3D scanning device 10, when partially enlarged, shows the boundary between the roadway and the sidewalk. However, it is possible to use the total station 20 to add electronic markings so that the boundaries can be seen. Explain marking.
In addition, also in the fifth embodiment, the description of the same points as in the first embodiment may be omitted.

図15は、電子マーキングが追加された点群データを示す図であり、図16は、拡大された電子マーキングの点群データを示す図である。
例えば、トータルステーション20は、道路の車道と歩道との境界(車道と歩道を分ける白線の境界)におけるマーキング点の観測結果を電子マーキング用のSIMAデータとして解析装置30のSIMAデータ取得部302へ出力する。
FIG. 15 is a diagram showing point cloud data to which electronic markings have been added, and FIG. 16 is a diagram showing enlarged point cloud data of electronic markings.
For example, the total station 20 outputs the observation result of the marking points at the boundary between the roadway and the sidewalk (the boundary between the roadway and the sidewalk) as SIMA data for electronic marking to the SIMA data acquisition unit 302 of the analysis device 30. .

そして、SIMAデータ取得部302は、トータルステーション20により出力される電子マーキング用のSIMAデータを、解析装置30が読み込み可能な電子マーキング用のCSV形式のデータにファイル変換し、XY座標を入れ替えてSIMA統合部303へ出力する。 Then, the SIMA data acquisition unit 302 converts the SIMA data for electronic marking output by the total station 20 into CSV-format data for electronic marking that can be read by the analysis device 30, replaces the XY coordinates, and integrates SIMA. Output to unit 303 .

そうすると、SIMA統合部303は、SIMAデータ取得部302から出力される電子マーキング用のCSVデータを点群データ取得部301から出力される点群データに反映させ、更に、色マッピング処理により電子マーキングが追加された点群のPTSファイルを生成する。 Then, the SIMA integration unit 303 reflects the CSV data for electronic marking output from the SIMA data acquisition unit 302 in the point cloud data output from the point cloud data acquisition unit 301, and performs electronic marking by color mapping processing. Generate a PTS file of the added point cloud.

例えば、白線の境界を示すように、電子マーキングMが追加された点群データの一例は、図15に示すものであり、電子マーキングMを結ぶ線上が白線の境界になっている。
そして、その電子マーキングMの周辺を拡大していくと、図15では、なんとなく見えていた白線の状態がぼやけて行き、図16に示すように、白線の状態がわからなくなるが、先に述べたように、電子マーキングMを結ぶ線上に白線の境界が存在するため、図16に示すように、白線の状態がわからなくなっても、電子マーキングMによって境界がどこにあるのかを知ることができる。
For example, FIG. 15 shows an example of point cloud data to which electronic markings M have been added so as to indicate white line boundaries, and the line connecting the electronic markings M is the white line boundary.
Then, when the periphery of the electronic marking M is enlarged, the state of the white line that was vaguely visible in FIG. 15 becomes blurred, and the state of the white line becomes unclear as shown in FIG. As shown in FIG. 16, since the boundary of the white line exists on the line connecting the electronic markings M, it is possible to know where the boundary is by the electronic marking M even if the state of the white line is unknown.

このように、第5実施例では、点群データに電子マーキングを追加することにより、拡大によって境界がわからなくなるような場合であっても、図16に示すように、電子マーキングMを目印として、スピーディー且つ正確に道路の車道と歩道との境界を見分けることができる。
さらに、追加された電子マーキングと、点群データに示される道路の車道と歩道との境界と、の距離が所定の閾値を超える場合、点群データにエラーがあることを推測することができる。
As described above, in the fifth embodiment, by adding the electronic marking to the point cloud data, even if the boundary becomes unclear due to the enlargement, as shown in FIG. To speedily and accurately distinguish a boundary between a carriageway and a sidewalk of a road.
Furthermore, if the distance between the added electronic marking and the carriageway-sidewalk boundary of the road shown in the point cloud data exceeds a predetermined threshold, it can be inferred that there is an error in the point cloud data.

以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described using the embodiments, it goes without saying that the technical scope of the present invention is not limited to the scope described in the above embodiments. It is obvious to those skilled in the art that various modifications or improvements can be made to the above embodiments. Moreover, it is clear from the description of the scope of the claims that the forms with such modifications or improvements can also be included in the technical scope of the present invention.

10 三次元走査装置
20 トータルステーション
30 解析装置
31 入力装置
32 出力装置
40 UAV
50 反射材
100 形状測定装置
301 点群データ取得部
302 SIMAデータ取得部
303 SIMA統合部
304 平面画像合成部
305 平面資料作成部
306 線形作成部
307 路線計算部
308 三角網縦横断データ取得部
309 出来形管理部
310 設計データ及び納品データ作成部
311 フォトレタッチ部
312 画像測量解析部
313 色彩情報補正部
314 点群データ合成部
M 電子マーキング
10 three-dimensional scanning device 20 total station 30 analysis device 31 input device 32 output device 40 UAV
50 Reflector 100 Shape measuring device 301 Point cloud data acquisition unit 302 SIMA data acquisition unit 303 SIMA integration unit 304 Planar image synthesizing unit 305 Planar material creation unit 306 Line creation unit 307 Route calculation unit 308 Triangular network vertical cross-section data acquisition unit 309 Done Shape management unit 310 Design data and delivery data creation unit 311 Photo retouching unit 312 Image survey analysis unit 313 Color information correction unit 314 Point cloud data synthesis unit M Electronic marking

本発明は、例えば、道路の傷やいたみ等、路面のクラック調査、轍調査、縦横断調査等、測量対象物を立体的にとらえることができる、三次元測定対象物の形状測定方法、及び装置、並びにプログラムに関する。 INDUSTRIAL APPLICABILITY The present invention is a method and apparatus for measuring the shape of a three-dimensional measurement object, which can three-dimensionally capture the object to be surveyed, for example, road surface cracks, ruts, longitudinal and cross-sectional investigations, etc. , as well as programs.

例えば、特許文献1に、現場に持ち込んだトータルステーション等の測量計により、任意位置の三次元座標の計測を行う技術が記載されている。 For example, Patent Literature 1 describes a technique of measuring three-dimensional coordinates of an arbitrary position using a surveying instrument such as a total station brought into the field.

特許文献1に記載された技術によれば、座標が既知の2つの基準位置にプリズムや反射光等の反射部材を置き、トータルステーションから反射部材に向けて測定用の光を投光し、その反射光の位相差に基づき各基準位置までの距離を測定するとともに、測定用の光の投光方向の水平角度や鉛直角度を測定する。そして、測定した距離、水平角度、鉛直角度、及び既知の基準位置の位置座標等に基づいて幾何学的計算を行うことにより、測定位置の三次元座標を求めることができる。 According to the technique described in Patent Document 1, a reflecting member such as a prism or reflected light is placed at two reference positions whose coordinates are known, light for measurement is projected from the total station toward the reflecting member, and the light is reflected. The distance to each reference position is measured based on the phase difference of light, and the horizontal angle and vertical angle of the light projection direction for measurement are also measured. Then, the three-dimensional coordinates of the measurement position can be obtained by performing geometrical calculations based on the measured distance, horizontal angle, vertical angle, positional coordinates of the known reference position, and the like.

特開2013-32983号公報JP 2013-32983 A

ところで、土木建築業界において、測量データは、ますます正確なデータが求められている。例えば、道路の傷やいたみ等の路面のクラック調査、轍調査、縦横断調査(切削量のボリューム)等、三次元測定対象物を立体的にとらえた正確な測量は、人が実際に現場へ足を運んで目視確認を行い、測量計で測量地点のデータをとり、測量成果報告書を作成する必要がある。また、その作業はそれぞれ専門の会社が行っている。このため、作業に要する時間、人的コストが高く、したがって、実際の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図るためのツールの出現がのぞまれていた。 By the way, in the civil engineering and construction industry, more and more accurate survey data are required. For example, accurate surveying that three-dimensionally captures a three-dimensional measurement object, such as road surface crack surveys such as road scratches and damage, rut surveys, longitudinal and cross-sectional surveys (volume of cutting amount), etc. It is necessary to visit the site and visually confirm, take data of the survey point with a survey meter, and create a survey result report. The work is done by specialized companies. For this reason, the time required for the work and the human cost are high. The emergence of tools was hoped for.

本発明は上記した課題を解決するためになされたものであり、三次元測量対象物の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図った、三次元測定対象物の形状測定方法、及び装置、並びにプログラムを提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems. It is an object of the present invention to provide a method and apparatus for measuring the shape of a three-dimensional measurement object, and a program for reducing the cost.

上記した課題を解決するために、本発明の形状確認図の生成方法は、三次元走査装置によりレーザ光が照射することにより三次元測定対象物からの反射点における各点が3次元座標化された点群データを取得し、前記点群データに、トータルステーションによる観測結果を反映させて前記三次元測定対象物の第1形状確認データを生成し、UAVから出力された前記三次元測定対象物を含む複数の画像を合成することにより、前記三次元測定対象物を含む画像に含まれる非三次元測定対象を除外した合成画像を生成し、前記第1形状確認データの少なくとも一部に対して、前記合成画像を解析することにより前記点群データに対応するように生成した色彩情報を付加して、第2形状確認データを生成し、前記第2形状確認データを出力して前記三次元測定対象物の形状確認図を生成することを特徴とする。 In order to solve the above-described problems, the method for generating a shape confirmation diagram of the present invention is such that each point in the reflection point from the three-dimensional measurement object is three-dimensionally coordinated by irradiating laser light with a three-dimensional scanning device. obtaining the point cloud data, reflecting the observation result by the total station in the point cloud data to generate the first shape confirmation data of the three-dimensional measurement object, and measuring the three-dimensional measurement object output from the UAV; By synthesizing a plurality of images including the three-dimensional measurement object, generating a synthesized image excluding non-three-dimensional measurement objects included in the image including the three-dimensional measurement object, and for at least part of the first shape confirmation data, Adding color information generated so as to correspond to the point cloud data by analyzing the synthesized image, generating second shape confirmation data, outputting the second shape confirmation data, and outputting the three-dimensional measurement object It is characterized by generating a shape confirmation diagram of an object.

本発明の形状確認図の生成方法において、前記三次元測定対象物の形状確認図は、路面のクラック調査、轍調査、縦横断調査の何れかに使用されることを特徴とする。In the method for generating a shape confirmation diagram of the present invention, the shape confirmation diagram of the three-dimensional measurement object is used for any one of road surface crack investigation, rut investigation, and longitudinal and cross-sectional investigation.

本発明によれば、三次元測量対象物の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図った、三次元測定対象物の形状確認図を提供することができる。 According to the present invention, a series of tasks from surveying a three-dimensional survey object to creating various reports can be accurately realized in one stop, and a three-dimensional measurement object can be measured to reduce time and human costs. A shape confirmation drawing can be provided.

本発明の実施の形態に係る三次元測定対象物の形状測定装置の構成を示すブロック図である。1 is a block diagram showing the configuration of a shape measuring apparatus for a three-dimensional measurement object according to an embodiment of the present invention; FIG. 本発明の実施の形態に係る三次元測定対象物の形状測定装置の処理動作を示すフローチャートである。4 is a flow chart showing processing operations of the shape measuring apparatus for a three-dimensional measurement object according to the embodiment of the present invention; 本発明の実施の形態に係る三次元測定対象物の形状測定装置の処理動作を示すフローチャートである(図2の続き)。FIG. 3 is a flow chart showing the processing operation of the shape measuring apparatus for a three-dimensional measurement object according to the embodiment of the present invention (continuation of FIG. 2); 本発明の実施の形態に係る三次元測定対象物の形状測定装置により生成される座標化され色マッピングされた点群データの一例を示す図である。FIG. 4 is a diagram showing an example of coordinated and color-mapped point cloud data generated by the shape measuring apparatus for a three-dimensional measurement object according to the embodiment of the present invention; 本発明の実施の形態に係る三次元測定対象物の形状測定装置により生成される三次元測定対象物の現況平面画像の一例を示す図である。FIG. 2 is a diagram showing an example of a current plane image of a three-dimensional measurement object generated by the three-dimensional measurement object shape measuring apparatus according to the embodiment of the present invention; 本発明の実施の形態に係る三次元測定対象物の形状測定装置により生成される現況縦横断図の一例を示す図である。It is a figure which shows an example of the present condition longitudinal cross-sectional view produced|generated by the shape measuring apparatus of the three-dimensional measurement object which concerns on embodiment of this invention. 撮像部が撮像した道路に反射材を散布した場合の画像を示す図である。It is a figure which shows the image at the time of scattering a reflecting material on the road imaged by the imaging part. 三次元走査装置が取得した点群データを図7に示す画像に合成した合成画像を示す図である。FIG. 8 is a diagram showing a synthesized image obtained by synthesizing the point cloud data acquired by the three-dimensional scanning device with the image shown in FIG. 7; 第3実施例に係る三次元測定対象物の形状測定装置の構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of a shape measuring apparatus for a three-dimensional measurement object according to a third embodiment; UAVの撮像部が異なる時刻で同領域を撮像した道路を含む複数の画像を示す図である。FIG. 10 is a diagram showing a plurality of images including a road captured in the same area at different times by the imaging unit of the UAV; 図10に示す画像から車両を除外した合成画像を示す図である。FIG. 11 is a diagram showing a synthesized image obtained by excluding a vehicle from the image shown in FIG. 10; 図11に示す合成画像を解析することにより生成され、色彩情報を含む三次元点群データを示す図である。12 is a diagram showing three-dimensional point cloud data including color information generated by analyzing the composite image shown in FIG. 11; FIG. 色彩情報が補正された点群データを示す図である。It is a figure which shows the point-group data by which color information was correct|amended. 第4実施例に係る三次元測定対象物の形状測定装置の構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of a shape measuring apparatus for a three-dimensional measurement object according to a fourth embodiment; 電子マーキングが追加された点群データを示す図である。FIG. 10 is a diagram showing point cloud data with electronic markings added; 拡大された電子マーキングの点群データを示す図である。FIG. 4 is a diagram showing point cloud data of enlarged electronic markings;

(第1実施形態の構成)
以下、本発明の実施の形態(以下、本実施形態という)に係る三次元測定対象物の形状測定装置について図面を参照しながら詳細に説明する。なお、実施形態の説明の全体を通して同じ要素には同じ番号又は符号を付している。
(Configuration of the first embodiment)
Hereinafter, a shape measuring apparatus for a three-dimensional measurement object according to an embodiment of the present invention (hereinafter referred to as the present embodiment) will be described in detail with reference to the drawings. The same numbers or symbols are given to the same elements throughout the description of the embodiment.

図1に示すように、本実施形態に係る三次元測定対象物の形状測定装置100は、例えば、PC(Personal Computer)等により実現され、装置本体である解析装置30と、キーボードやマウス等の入力装置31と、LCD(Liquid Crystal Display)モニタ、プリンタ等の出力装置32とから構成される。なお、解析装置30は、三次元走査装置(3Dスキャナ)10と、トータルステーション(TS)20とは、オフラインで接続される。 As shown in FIG. 1, a shape measuring apparatus 100 for a three-dimensional measurement object according to the present embodiment is realized by, for example, a PC (Personal Computer) or the like, and includes an analysis apparatus 30 as a device main body, a keyboard, a mouse, or the like. It is composed of an input device 31 and an output device 32 such as an LCD (Liquid Crystal Display) monitor and a printer. Note that the analysis device 30 is connected offline to the three-dimensional scanning device (3D scanner) 10 and the total station (TS) 20 .

三次元走査装置10は、道路等の三次元測定対象物に対してレーザ光を照射し、そのレーザ光の多数の反射点の各点を三次元座標化された点の群(以下、点群データという)として取り込み、解析装置30へ出力する。 The three-dimensional scanning device 10 irradiates a three-dimensional measurement object such as a road with a laser beam, and a group of points (hereinafter referred to as a point group data) and output to the analysis device 30 .

トータルステーション20は、位置座標が既知の2つの基準位置(基準点)に反射部材を置き、その反射部材に向けて測定用光を投光し、その反射光の位相差に基づき各基準位置までの距離を測定して水平角度や鉛直角度を求め、解析装置30に対し、測量データの共通フォーマットとして知られているSIMA(Surveying Instruments Manufacturers’ Association)データとして出力する。 The total station 20 places reflecting members at two reference positions (reference points) whose position coordinates are known, projects measurement light toward the reflecting members, and measures the distance to each reference position based on the phase difference of the reflected light. Distances are measured to obtain horizontal and vertical angles, which are output to the analysis device 30 as SIMA (Surveying Instruments Manufacturers' Association) data known as a common format for survey data.

解析装置30は、図示省略したプログラムを逐次読み出し実行することにより、三次元走査装置10から取得した点群データ、及び/又はトータルステーション20から取得したSIMAデータを解析して道路の形状確認データを生成すると共に、入力装置31によって入力される任意の2点間の縦・横断図を作成して設計データに変換し、それぞれ出力装置32に出力(表示又は印刷)する機能を有する。 The analysis device 30 sequentially reads and executes a program (not shown) to analyze the point cloud data acquired from the three-dimensional scanning device 10 and/or the SIMA data acquired from the total station 20 to generate road shape confirmation data. In addition, it has a function of creating longitudinal and transverse views between any two points input by the input device 31, converting them into design data, and outputting (displaying or printing) them to the output device 32 respectively.

このため、解析装置30は、図1にそのプログラム構造をブロックで展開して示したように、点群データ取得部301と、SIMAデータ取得部302と、SIMA統合部303と、平面画像合成部304と、平面資料作成部305と、線形作成部306と、路線計算部307と、三角網縦横断データ取得部308と、出来形管理部309と、設計データ及び納品データ作成部310と、を含み構成される。 For this reason, the analysis device 30 includes a point cloud data acquisition unit 301, a SIMA data acquisition unit 302, a SIMA integration unit 303, and a plane image synthesis unit, as shown by expanding the program structure in blocks in FIG. 304, plane material creation unit 305, alignment creation unit 306, route calculation unit 307, triangular network longitudinal and cross-section data acquisition unit 308, finished shape management unit 309, and design data and delivery data creation unit 310. Consists of.

点群データ取得部301は、三次元走査装置10により照射されるレーザ光により三次元測定対象物である道路からの反射点における各点が3次元座標化された点群データとして取得し、SIMA統合部303へ出力する。 A point cloud data acquisition unit 301 acquires point cloud data in which each point of a reflection point from a road, which is a three-dimensional measurement object, is converted into three-dimensional coordinates by laser light irradiated by the three-dimensional scanning device 10, and SIMA Output to the integration unit 303 .

SIMAデータ取得部302は、トータルステーション20により出力される基準点を含むSIMAデータ(点番、点名、X,Y,Z)を、解析装置30が読み込み可能なCSV(Comma Separated Values)形式のデータにファイル変換し、XY座標を入れ替えてSIMA統合部303へ出力する。 The SIMA data acquisition unit 302 converts SIMA data (point number, point name, X, Y, Z) including reference points output from the total station 20 into data in a CSV (Comma Separated Values) format that can be read by the analysis device 30. File conversion is performed, the XY coordinates are exchanged, and the data is output to the SIMA integration unit 303 .

SIMA統合部303は、SIMAデータ取得部302から出力されるCSVデータを点群データ取得部301から出力される点群データに反映させ、更に、色マッピング処理により生成される点群のPTSファイルのX,Yを入れ替えて読み込み、基準点SIMAデータと統合して平面画像合成部304に出力する。 The SIMA integration unit 303 reflects the CSV data output from the SIMA data acquisition unit 302 in the point cloud data output from the point cloud data acquisition unit 301, and further converts the PTS file of the point cloud generated by the color mapping process. X and Y are exchanged and read, integrated with the reference point SIMA data, and output to the planar image synthesizing unit 304 .

平面画像合成部304は、SIMA統合部303により出力される統合データに縮尺を固定した現況平面画像を合成し、合成TIFF(Tagged Image File Format)データとして平面資料作成部305へ出力する。 Planar image synthesizing unit 304 synthesizes a current planar image whose scale is fixed with the integrated data output from SIMA integrating unit 303 , and outputs the synthesized TIFF (Tagged Image File Format) data to planar material creating unit 305 .

平面資料作成部305は、基準点SIMAデータと平面画像合成部304から出力されるTIFFデータを基に平面資料を作成し、線形作成部306へ出力する。平面資料作成部305は、更に、作成した平面資料をPDF(Portable Document Format)及びAutoCAD(登録商標)の標準ファイル形式であるDWG(Drawing)にファイルに変換し、設計データ及び納品データ作成部301へ出力する。 A planar material creating unit 305 creates a planar material based on the reference point SIMA data and the TIFF data output from the planar image synthesizing unit 304 , and outputs the created planar material to the line creating unit 306 . The planar material creation unit 305 further converts the created planar material into PDF (Portable Document Format) and DWG (Drawing), which is the standard file format of AutoCAD (registered trademark), into a file, and the design data and delivery data creation unit 301 Output to

線形作成部306は、平面資料作成部305から出力される平面資料に基づき、IP(Intersection Point)点を作成し、路線計算部307へそのIP座標(SIMAデータ)を出力すると共に、そのSIMAデータをPDFにファイル変換して設計データ及び納品データ作成部310へそのPDFデータを出力する。 The alignment creation unit 306 creates IP (Intersection Point) points based on the plane data output from the plane data creation unit 305, outputs the IP coordinates (SIMA data) to the route calculation unit 307, and converts the SIMA data is converted into a PDF file, and the PDF data is output to the design data and delivery data creation unit 310 .

路線計算部307は、SIMA統合部303から出力される統合データに示される線形を基準とする路線測量によって得られる線形の主要点の位置座標と、線形作成部306から出力されるIP座標に基づき、入力装置31から入力される、曲線パラメータ、縦断要素、幅員、任意測点により、路線全体で三次元座標値を求める路線計算を実行し、その結果を三角網縦横断データ取得部308へ出力する。 The route calculation unit 307 calculates the coordinates based on the position coordinates of the main points of the line obtained by the route survey based on the line shown in the integrated data output from the SIMA integration unit 303 and the IP coordinates output from the line creation unit 306. , the curve parameters, longitudinal elements, width, and arbitrary survey points input from the input device 31 are used to perform route calculation for obtaining three-dimensional coordinate values for the entire route, and the results are output to the triangular network longitudinal and cross section data acquisition unit 308. do.

三角網縦横断データ取得部308は、路線計算部307から出力される三次元座標値に基づき、指定される任意の2点間の縦横断データ(縦横断図)をSIMAデータとして設計データ及び納品データ作成部310へ出力する。 Based on the three-dimensional coordinate values output from the route calculation unit 307, the triangular network longitudinal and cross-sectional data acquisition unit 308 acquires longitudinal and cross-sectional data (longitudinal and cross-sectional views) between any two specified points as SIMA data for design data and delivery. Output to data creation unit 310 .

設計データ及び納品データ作成部310は、三角網縦横断データ取得部308から出力される横断SIMAデータに基づき現況縦横断データを出力装置32へ出力する。 The design data and delivery data creation unit 310 outputs current longitudinal and cross-sectional data to the output device 32 based on the cross-sectional SIMA data output from the triangular network longitudinal and cross-sectional data acquisition unit 308 .

出来形管理部309は、作成した基本設計データを用い、現場での出来形を測定し、出来形の良否判定が可能な設計と出来形の差を出力し、更に、基本設計データと、測定した出来形測定データとを読み込み、設計データ及び納品データ作成部310を介して出来形帳票を作成する。 The workmanship management unit 309 uses the created basic design data to measure the workmanship at the site, outputs the difference between the design and the workmanship that can determine the quality of the workmanship. The finished product measurement data is read, and a finished product form is created via the design data and delivery data creating unit 310 .

設計データ及び納品データ作成部310は、横断SIMAデータを線形データALG(ER Mapper Algorithm Data)にファイル変換して3Dビューア用の縦横断図を作成して出力装置32へ表示する。設計データ及び納品データ作成部310は、他に、平面資料作成部305から出力されるPDFあるいはDWGフォーマットの平面資料から、所定様式の概況平面図、面積体積計算書を作成し、また、線形作成部306から出力されるPDF形式の路線測量計算書を作成して路線計算部307へ出力し、更に、路線計算部307により出力されるPDFと三次元座標データに基づき、所定様式のクラック、轍調査資料を生成し、それぞれ出力装置32へ出力する。 The design data and delivery data creation unit 310 converts the cross-sectional SIMA data into linear data ALG (ER Mapper Algorithm Data), creates a vertical cross-sectional view for a 3D viewer, and displays it on the output device 32 . The design data and delivery data creation unit 310 also creates a general plan view and an area volume calculation sheet in a predetermined format from the planar material in PDF or DWG format output from the planar material creation unit 305, and also creates a line. A route survey calculation sheet in PDF format output from the unit 306 is created and output to the route calculation unit 307. Further, based on the PDF output from the route calculation unit 307 and the three-dimensional coordinate data, cracks and ruts in a predetermined format are generated. Investigation materials are generated and output to the output device 32 respectively.

(第1実施形態の動作)
以下、図2、図3のフローチャート、及び図4~図6に示す画像を参照しながら、図1に示す本実施形態に係る三次元測定対象物の形状測定装置100の処理動作について説明する。なお、図2は3D事前測量、図3は、3D事前測量により作成される基本設計データに基づき施工された三次元測定対象物が発注者の意図する規格基準に対してどの程度の精度で施工されたか、その施工技術の度合を管理する出来形計測の処理の流れを示す。
(Operation of the first embodiment)
Hereinafter, the processing operation of the three-dimensional measurement object shape measuring apparatus 100 according to the present embodiment shown in FIG. 1 will be described with reference to the flowcharts of FIGS. 2 and 3 and the images shown in FIGS. Figure 2 shows the 3D pre-survey, and Figure 3 shows the accuracy of the three-dimensional measurement object constructed based on the basic design data created by the 3D pre-survey against the standards intended by the ordering party. It shows the flow of the finished shape measurement process that manages the degree of construction technology.

ここでは、三次元測定対象物である道路にあらかじめ基準点が設置されており、光波測距儀とトランシットが一体化されたトータルステーション20が、ダイポイント、主要点観測の結果をSIMAデータと互換のあるCADデータとして出力する。そして、このCADデータと基準点SIMAデータとに基づき、主要点を折れ線状に配置し、各点における隣接点間の交角(夾角)と距離を測定して点の位置を求めるトラバース計算を行い(ステップS101)、点番、点名、X,Y,ZからなるSIMAデータを生成する。 Here, reference points are set in advance on the road, which is the object of three-dimensional measurement, and the total station 20, which integrates the light wave rangefinder and the transit, converts the results of die point and principal point observations into SIMA data. Output as certain CAD data. Then, based on this CAD data and the reference point SIMA data, the main points are arranged in a polygonal line, the intersection angle (included angle) and the distance between adjacent points at each point are measured, and the position of the point is calculated by traverse calculation ( Step S101), SIMA data consisting of point numbers, point names, and X, Y, and Z are generated.

一方、三次元走査装置10は、道路に対してレーザ光を照射し、そのレーザ光の多数の反射点の各点を三次元座標化された点群データを生成する。三次元走査装置10は、レーザの照射から受光までの時間により、設置位置から反射点までの距離を算出し、調査範囲の反射点の三次元座標化された位置(X,Y,Z)を算出し、調査範囲の反射点の各位置をまとめた点群データとして出力する。この点群データにより、三次元測定対象物の道路の絵柄を描画することができる。 On the other hand, the three-dimensional scanning device 10 irradiates a road with laser light and generates point group data in which each point of a large number of reflection points of the laser light is three-dimensionally coordinated. The three-dimensional scanning device 10 calculates the distance from the installation position to the reflection point from the time from laser irradiation to light reception, and calculates the three-dimensional coordinate position (X, Y, Z) of the reflection point in the investigation range. Calculate and output as point cloud data summarizing each position of reflection points in the investigation range. Using this point group data, it is possible to draw a pattern of the road of the three-dimensional measurement object.

解析装置30は、三次元走査装置10から取得される点群データ、トータルステーション20から取得されるSIMAデータに基づき以下の処理を実行する。すなわち、点群データ取得部301が、三次元走査装置10によりスキャンされ出力された点群データを取得してSIMA統合部303へ出力し、SIMAデータ取得部302が、トータルステーション20により観測され出力されるSIMAデータを取得し、CSV形式にファイル変換し、X,Y座標を入れ替えたCSVファイルを生成してSIMA統合部303へ出力する(ステップS102)。 The analysis device 30 executes the following processes based on the point cloud data acquired from the three-dimensional scanning device 10 and the SIMA data acquired from the total station 20 . That is, the point cloud data acquisition unit 301 acquires the point cloud data scanned and output by the three-dimensional scanning device 10 and outputs it to the SIMA integration unit 303, and the SIMA data acquisition unit 302 observes and outputs the data by the total station 20. SIMA data is acquired, file-converted into a CSV format, a CSV file in which the X and Y coordinates are exchanged is generated, and output to the SIMA integration unit 303 (step S102).

SIMA統合部303は、SIMAデータ取得部302から出力されるCSVデータを点群データ取得部301から出力される点群データに反映させ、更に、色マッピングにより点群のPTSファイルを生成する(ステップS103)。図4に、点群データの一例が示されている。 The SIMA integration unit 303 reflects the CSV data output from the SIMA data acquisition unit 302 in the point cloud data output from the point cloud data acquisition unit 301, and further generates a point cloud PTS file by color mapping (step S103). FIG. 4 shows an example of point cloud data.

続いて、SIMA統合部303は、生成したPTSファイルのX,Yを入れ替えて読み込み、基準点SIMAデータと統合し、更に、ステップS101のトラバース計算により得られる、人孔、道路幅員、クラック形状等の主要点情報をDXFデータ、SIMAデータに変換したファイルを結合して平面画像合成部304に出力する(ステップS104)。 Subsequently, the SIMA integration unit 303 reads the generated PTS file by replacing X and Y, integrates it with the reference point SIMA data, and furthermore, the manhole, road width, crack shape, etc. obtained by the traverse calculation in step S101. are converted into DXF data and SIMA data and output to the plane image synthesizing unit 304 (step S104).

平面画像合成部304は、フリーフォームNURBS(Non-Uniform Rational Basis Spline(非一様有理Bスプライン)モデリングに特化した商用の製造業向け3次元CADソフトウェアであるライノセラス(登録商標)の画面上で施工範囲を画定してDXFデータを出力し(ステップS105)、SIMA統合部303により出力される統合データに縮尺を固定した現況平面画像を合成し、合成TIFFデータとして平面資料作成部305へ出力する(ステップS106)。図5に、現況平面画像の一例が示されている。 The planar image synthesizing unit 304 generates images on the screen of Rhinoceras (registered trademark), which is commercial three-dimensional CAD software for the manufacturing industry, specializing in free-form NURBS (Non-Uniform Rational Basis Spline) modeling. The construction area is defined and DXF data is output (step S105), the integrated data output by the SIMA integration unit 303 is synthesized with the current situation planar image with a fixed scale, and output as synthesized TIFF data to the planar material creation unit 305. (Step S106) Fig. 5 shows an example of the current plane image.

平面資料作成部305は、基準点SIMAデータと平面画像合成部304から出力されるTIFFデータを基に平面資料を作成し、線形作成部306へ出力する(ステップS106)。平面資料作成部305は、更に、作成した平面資料をPDF及びDWGにファイルに変換し、設計データ及び納品データ作成部310へ出力する。 The planar material creating unit 305 creates a planar material based on the reference point SIMA data and the TIFF data output from the planar image synthesizing unit 304, and outputs it to the line creating unit 306 (step S106). The planar material creating unit 305 further converts the created planar material into PDF and DWG files, and outputs the files to the design data and delivery data creating unit 310 .

続いて、線形作成部306は、平面資料作成部305から出力される平面資料に基づき、道路中心線の平面線形において、円曲線や緩和曲線を両側から挟む2つの直線部の延長線の交点であるIP点を作成し(ステップS107)、路線計算部307へそのIP座標(SIMAデータ)を出力する。線形作成部306は、更に、SIMAデータをPDFにファイル変換して設計データ及び納品データ作成部310へそのPDFデータを出力する。 Next, based on the plane data output from the plane data creation section 305, the alignment creation unit 306 creates a plane alignment of the road centerline at the intersection of the extension lines of the two straight sections sandwiching the circular curve and transition curve from both sides. A certain IP point is created (step S107), and its IP coordinates (SIMA data) are output to the route calculation unit 307. FIG. The linear creation unit 306 further converts the SIMA data into a PDF file and outputs the PDF data to the design data and delivery data creation unit 310 .

路線計算部307は、SIMA統合部303から出力される統合データに示される線形を基準とする路線測量によって得られる線形の主要点の位置座標と、線形作成部306から出力されるIP座標とに基づき、入力装置31を介してユーザによって入力される、曲線パラメータ、縦断要素、幅員、任意測点により、路線全体で三次元座標値を求める路線計算を実行し、その結果を三角網縦横断データ取得部308へ出力する(ステップS108)。路線計算部307は、更に、線形を基準として路面の損傷を調査(路面調査)し、クラックや轍の調査資料作成のために、その結果をPDF、3Dデータに変換して、設計データ及び納品データ作成部310に出力する(ステップS109)。路線計算部307による3Dデータへの変換にあたり、ライノセラス(登録商標)でデータ処理した結果が反映される。 The route calculation unit 307 combines the position coordinates of the principal points of the line obtained by the route survey on the basis of the line shown in the integrated data output from the SIMA integration unit 303 and the IP coordinates output from the line creation unit 306. Based on this, the curve parameters, longitudinal elements, width, and arbitrary survey points input by the user through the input device 31 are used to calculate the three-dimensional coordinate values for the entire route. Output to the acquisition unit 308 (step S108). The route calculation unit 307 further investigates damage to the road surface (road surface investigation) based on the alignment, converts the results into PDF and 3D data in order to create survey materials for cracks and ruts, and converts the results into design data and delivery. It is output to the data creation unit 310 (step S109). When the route calculation unit 307 converts the data into 3D data, the result of data processing by Rhinoceras (registered trademark) is reflected.

三角網縦横断データ取得部308は、路線計算部307から出力される三次元座標値に基づき任意の2点間における三角網縦横断SIMAデータを作成し(ステップS110)、設計データ及び納品データ作成部310へ出力する。設計データ及び納品データ作成部310は、三角網縦横断データ取得部308から出力される横断SIMAデータに基づき現況縦横断データを出力装置32へ出力する(ステップS111)。ここで出力される現況縦横断データは、図3にその詳細を示す出来形計測でも使用される。図6に、現況縦横断データにより作成される現況縦横断図の一例が示されている。 The triangular network longitudinal and transverse data acquisition unit 308 creates triangular network longitudinal and transverse SIMA data between any two points based on the three-dimensional coordinate values output from the route calculation unit 307 (step S110), and creates design data and delivery data. Output to unit 310 . The design data and delivery data creation unit 310 outputs the current longitudinal and cross-sectional data to the output device 32 based on the cross-sectional SIMA data output from the triangular network longitudinal and cross-sectional data acquisition unit 308 (step S111). The current longitudinal and cross-sectional data output here are also used in finished shape measurement, the details of which are shown in FIG. FIG. 6 shows an example of a current longitudinal/cross-sectional view created from the current longitudinal/cross-sectional data.

設計データ及び納品データ作成部310は、更に、横断SIMAデータを線形データALGにファイル変換して3Dビューア用の縦横断図を含む基本設計データ作成して出力装置32に出力する。設計データ及び納品データ作成部310は、他に、平面資料作成部305から出力されるPDFあるいはDWGフォーマットの平面資料から、所定様式の概況平面図、面積体積計算書を作成し、また、線形作成部306から出力されるPDF形式の路線測量計算書を作成して路線計算部307へ出力し、更に、路線計算部307により出力されるPDFと三次元座標データに基づき、所定様式のクラック、轍調査資料を生成し、それぞれ出力装置32へ出力する。 The design data and delivery data creation unit 310 further converts the transverse SIMA data into linear data ALG, creates basic design data including longitudinal and transverse views for the 3D viewer, and outputs the basic design data to the output device 32 . The design data and delivery data creation unit 310 also creates a general plan view and an area volume calculation sheet in a predetermined format from the planar material in PDF or DWG format output from the planar material creation unit 305, and also creates a line. A route survey calculation sheet in PDF format output from the unit 306 is created and output to the route calculation unit 307. Further, based on the PDF output from the route calculation unit 307 and the three-dimensional coordinate data, cracks and ruts in a predetermined format are generated. Investigation materials are generated and output to the output device 32 respectively.

次に、図3を参照しながら、縦横断計画出来形計測(3D事前測量から3D出来形計測)について説明する。出来形管理部309は、設計データ及び納品データ作成部310から出力される基本設計データに基づき、現状横断データ解析、及び縦断線形変化点ごとの縦断曲線諸量を計算する縦横断計画を行い(ステップS201)、入力される基準点SIMAデータに基づき、3次元設計データを作成してXML(Extensible Markup Language)形式のファイルを出力する(ステップS202)。 Next, referring to FIG. 3, longitudinal and cross-section planning finished shape measurement (from 3D preliminary survey to 3D finished shape measurement) will be described. Based on the design data and the basic design data output from the delivery data creation unit 310, the finished shape management unit 309 analyzes the current cross-sectional data, and performs longitudinal and cross-sectional planning to calculate the vertical curve various amounts for each vertical line change point ( Step S201) Based on the input reference point SIMA data, three-dimensional design data is created and an XML (Extensible Markup Language) format file is output (step S202).

続いて、出来形管理部309は、そのXMLファイルに基づき、トータルステーション20を用いた出来形計測を行い(ステップS203)、その結果を設計データ及び納品データ作成部310を介してPDF及びXMLのファィル形式で出力装置32へ出力する。 Subsequently, the finished shape management unit 309 performs finished shape measurement using the total station 20 based on the XML file (step S203), and converts the results into PDF and XML files via the design data and delivery data creation unit 310. format to the output device 32 .

また、出来形管理部309は、基準点SIMAデータ、及び三角網縦横断データ取得部208から出力される線形データ(ALG)、そして、三次元走査装置10、及びトータルステーション20により観測され出力される3Dデータに基づき、図2にフローチャートで示した3D事前測量と同じ工程でデータ解析を行う(ステップS204)。そして、入力されXMLファイルの3次元設計データに基づき出来形縦横断データを出力し、3D事前測量縦横断データとの対比資料を作成すべく、設計データ及び納品データ作成部310を介し、PDF又はDWG形式の3D出来形成果資料を出力装置32へ出力する(ステップS205)。 In addition, the finished shape management unit 309 collects the reference point SIMA data, the linear data (ALG) output from the triangular net vertical and cross data acquisition unit 208, and the data observed and output by the three-dimensional scanning device 10 and the total station 20. Based on the 3D data, data analysis is performed in the same process as the 3D preliminary survey shown in the flowchart of FIG. 2 (step S204). Then, based on the three-dimensional design data of the input XML file, the completed longitudinal and cross-sectional data is output, and the PDF or The 3D finished product data in DWG format is output to the output device 32 (step S205).

(第1実施形態の効果)
以上説明のように本実施形態に係る三次元測定対象物の形状測定装置100は、解析装置30が、三次元走査装置10により照射されるレーザ光により、道路等の三次元測定対象からの反射点における各点が3次元座標化された点群データとして取得し、当該取得した点群データを解析し、三次元測定対象物の形状確認データを生成すると共に、入力装置31によって入力される任意の2点間の縦・横断図を作成して設計データに変換し、それぞれ出力装置32に出力する。このことにより、三次元測量対象物の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図ることができる。
(Effect of the first embodiment)
As described above, the shape measuring apparatus 100 of the three-dimensional measurement object according to the present embodiment is configured such that the analysis device 30 detects the reflection from the three-dimensional measurement object such as a road by the laser light emitted by the three-dimensional scanning device 10. Each point is acquired as point cloud data in which each point is converted into three-dimensional coordinates, the acquired point cloud data is analyzed, and shape confirmation data of the three-dimensional measurement object is generated. are created, converted into design data, and output to the output device 32 respectively. As a result, a series of tasks from surveying a three-dimensional survey object to creating various reports can be accurately realized in one stop, and time and personnel costs can be reduced.

具体的に、従来、作業員が、メジャー、あるいはトータルステーション20等の測量計を設置し、時間をかけて測定していた、クラック調査、轍調査、縦横断調査(切削量のボリューム調査)等の現地調査を、三次元走査装置10を使用した形状測定装置100により短時間で実施でき、かつ、トータルステーション20を使用して得られる測量データと併用することにより、詳細な測量データを所得できる。これにより、従来、把握できなかった三次元測定対象物の形状や変化を現地に何度も赴くことなく把握することができるようになる。このことにより、例えば、3日程度要していたこれら調査を、2時間程度まで短縮できることが確認された。また、従来、道路の轍や縦横断調査をそれぞれの専門会社が行っていたが、これをワンストップで行えるようになり、測量作業の時間的、人員的な負担を大幅に削減すことができ、また、効率化が図れることから、大幅なコストダウンが可能になる。 Specifically, conventionally, workers installed a measuring instrument such as a measure or a total station 20 and took time to measure, such as crack investigation, rut investigation, longitudinal and cross-sectional investigation (volume investigation of cutting amount). A field survey can be performed in a short time by the shape measuring device 100 using the three-dimensional scanning device 10, and detailed survey data can be obtained by using the survey data obtained by using the total station 20 together. As a result, it becomes possible to grasp the shape and change of the three-dimensional measurement object, which could not be grasped conventionally, without visiting the site many times. As a result, it was confirmed that, for example, these investigations, which used to take about three days, can be shortened to about two hours. In the past, road rut and longitudinal cross-section surveys were conducted by separate companies, but now this can be done on a one-stop basis, greatly reducing the time and personnel burden of surveying work. In addition, since efficiency can be improved, a significant cost reduction is possible.

なお、本実施形態に係る三次元測定対象物の形状測定装置100において、三次元測定対象物として道路のみ例示したが、道路に限らず、例えば、森林における樹木等の形態を定量化する用途、あるいは、工事計画、施工、面積、地図作成等、各種用途への適用が可能である。 In addition, in the three-dimensional measurement object shape measuring apparatus 100 according to the present embodiment, only the road was exemplified as the three-dimensional measurement object, but it is not limited to roads. Alternatively, it can be applied to various uses such as construction planning, execution, area, map creation, and the like.

(三次元測定対象物の形状測定方法)
また、本実施形態に係る三次元測定対象物の形状測定方法は、少なくとも、図1に示す三次元走査装置10と、入力装置31と出力装置32とを有する解析装置30とを用いることにより実現される。そして、その方法は、例えば、図2に示すように、三次元走査装置10により照射されるレーザ光により三次元測定対象からの反射点における各点が3次元座標化された点群データとして取得する第1のステップ(S103)と、取得した点群データを解析装置30によって解析し、三次元測定対象物の形状確認データを生成すると共に、入力装置31によって入力される任意の2点間の縦・横断図を作成して設計データに変換し、それぞれ出力装置32に出力する第2のステップ(S104~S111)と、を有するものである。
(Method for measuring the shape of a three-dimensional object)
Further, the method for measuring the shape of a three-dimensional measurement object according to the present embodiment is realized by using at least the three-dimensional scanning device 10 shown in FIG. be done. In this method, for example, as shown in FIG. 2, each point in the reflection point from the three-dimensional measurement target is acquired as point cloud data in which each point is three-dimensionally coordinated by the laser beam irradiated by the three-dimensional scanning device 10. a first step ( S103 ), the acquired point cloud data is analyzed by the analysis device 30 to generate shape confirmation data of the three-dimensional measurement object, and between any two points input by the input device 31 and a second step (S104 to S111) of creating longitudinal and transverse views, converting them into design data, and outputting them to the output device 32, respectively.

また、本実施形態に係る三次元測定対象物の形状測定方法において、第1のステップは、トータルステーション20による観測結果を解析装置30が利用可能なファイル形式に変換して点群データに反映させ、色マッピング処理により生成されるPTSファイルと、基準点SIMAデータとを統合して解析装置30に入力してもよい(ステップS101~S104)。また、第2のステップは、線形を基準とした路線測量により得られる線形の主要点の位置座標と、取り込んだ中間座標とに基づき路線計算を行い、路線計算の結果に基づき、三角網による縦横断図を作成してもよい(ステップS105~S111)。 Further, in the method for measuring the shape of a three-dimensional measurement object according to the present embodiment, the first step is to convert the observation result by the total station 20 into a file format that can be used by the analysis device 30 and reflect it in the point cloud data, The PTS file generated by the color mapping process and the reference point SIMA data may be integrated and input to the analysis device 30 (steps S101 to S104). In the second step, route calculation is performed based on the position coordinates of the main points of the alignment obtained by route surveying with the alignment as a reference, and the captured intermediate coordinates. A transverse view may be created (steps S105 to S111).

本実施形態に係る三次元測定対象物の形状測定方法によれば、三次元測量対象物の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図った、三次元測定対象物の形状測定方法を提供することができる。 According to the method for measuring the shape of a three-dimensional measurement object according to the present embodiment, a series of operations from surveying the three-dimensional measurement object to creating various reports can be accurately realized in one stop, reducing time and human costs. It is possible to provide a method for measuring the shape of a three-dimensional measurement object that reduces the

(プログラム)
また、本実施形態に係るプログラムは、三次元測定対象物の形状測定装置100のためのプログラムである。そしてそのプログラムは、解析装置30に、上記した本実施形態に係る三次元測定対象物の形状測定方法における各ステップと同様の処理を実行させるものであり、重複を回避する意味で各処理の説明を省略する。
(program)
Also, the program according to the present embodiment is a program for the shape measuring apparatus 100 for a three-dimensional measurement object. The program causes the analysis device 30 to execute the same processing as each step in the method for measuring the shape of the three-dimensional measurement object according to the present embodiment described above. omitted.

本実施形態に係るプログラムによれば、解析装置30が、上記した本実施形態に係るプログラムを読み出し実行することにより、三次元測量対象物の測量から各種報告書作成に至る一連の作業を正確にワンストップで実現し、時間的、人的コストの削減を図った、三次元測定対象物の形状測定装置100を提供することができる。 According to the program according to the present embodiment, the analysis device 30 reads out and executes the program according to the present embodiment described above, so that a series of tasks from surveying the three-dimensional survey object to creating various reports can be accurately performed. It is possible to provide the shape measuring apparatus 100 for a three-dimensional measurement object that can be realized as a one-stop shop and that can reduce time and personnel costs.

[第2実施形態]
上記第1実施形態では、三次元走査装置10は、道路等の三次元測定対象物に対してレーザ光を照射し、そのレーザ光の多数の反射点の各点を三次元座標化して点群データを生成していた。
ところで、施工直後の道路や雨天時又は雨が止んだ直後の道路は、雨水等の影響で光沢のある黒色面が形成される。
[Second embodiment]
In the first embodiment, the three-dimensional scanning device 10 irradiates a three-dimensional measurement object such as a road with laser light, converts each point of a large number of reflection points of the laser light into three-dimensional coordinates, and obtains a point cloud. was generating data.
By the way, roads that have just been constructed or roads that are raining or just after the rain stops form a glossy black surface due to the influence of rainwater and the like.

しかしながら、三次元走査装置10は、そのような光沢のある黒色面の計測には適していない。
つまり、三次元走査装置10で、このような道路に雨水が残っているような場所を計測しようとすると、レーザ光が上手く反射されず、その結果、レーザ光の少数の反射点の各点が少なくなるため、それに基づいて三次元座標化された点群データも少なくなり、十分な点群データが得られないという課題がある。
なお、雨水に限らず、道路に水が散布されたり、元々、適切な反射が得られ難い素材が用いられている場合も同様の課題がある。
However, the three-dimensional scanning device 10 is not suitable for measuring such glossy black surfaces.
In other words, when the three-dimensional scanning device 10 attempts to measure such a place where rainwater remains on the road, the laser light is not reflected well, and as a result, each point of the small number of reflection points of the laser light is Since the number of points is reduced, the number of point cloud data converted into three-dimensional coordinates is also reduced, and there is a problem that sufficient point cloud data cannot be obtained.
In addition to rainwater, the same problem occurs when water is sprayed on the road, or when a material that is originally difficult to obtain appropriate reflection is used.

そこで、第2実施例では、そのような状況でも、良好に点群データを得ることができる手法について、以下、図7及び図8を参照しながら説明する。
なお、以下では、第1実施形態と同様の点については、説明を省略し、第1実施形態と主に異なる点について説明するものとする。
また、以下の説明では、適切なレーザ光の反射が得られない箇所のことをレーザ光不適面という場合がある。
図7は、撮像部が撮像した道路に反射材50を散布した場合の画像を示す図であり、図8は、三次元走査装置10が取得した点群データを図7に示す画像に合成した合成画像を示す図である。
Therefore, in the second embodiment, a method for obtaining good point cloud data even in such a situation will be described below with reference to FIGS. 7 and 8. FIG.
In addition, below, description shall be abbreviate|omitted about the same point as 1st Embodiment, and mainly a different point from 1st Embodiment shall be demonstrated.
Further, in the following description, a portion where appropriate laser light reflection cannot be obtained may be referred to as a laser light unsuitable surface.
FIG. 7 is a diagram showing an image captured by the imaging unit when the reflecting material 50 is scattered on the road, and FIG. 8 is an image obtained by synthesizing the point cloud data acquired by the three-dimensional scanning device 10 with the image shown in FIG. FIG. 10 is a diagram showing a synthesized image;

図7に示すように、雨水等の影響で適切なレーザ光の反射が得られないレーザ光不適面に対して小麦粉等からなる反射材50を散布する。
なお、この反射材50は、小麦粉等に限らず、例えば、ガラスビーズ混入の塗料からなる液状のものであってもよい。
As shown in FIG. 7, a reflecting material 50 made of wheat flour or the like is sprinkled on the laser beam unsuitable surface where appropriate laser beam reflection cannot be obtained due to the influence of rainwater or the like.
The reflecting material 50 is not limited to wheat flour or the like, and may be a liquid material made of paint mixed with glass beads, for example.

そして、そのように反射材50を散布した後に、三次元走査装置10を用いるようにすると、そのレーザ光が反射材50によって上手く反射されるため、図8に示すように、レーザ光の多数の反射点を得ることができる。
この結果、図8に示すように、その反射点の各点を三次元座標化した点群データも多数得られ、良好な点群データを生成することができる。
なお、このような反射材散布によるレーザ光不適面の点群取得方法をMRP法と呼ぶ場合がある。
Then, when the three-dimensional scanning device 10 is used after the reflecting material 50 is dispersed in this manner, the laser light is effectively reflected by the reflecting material 50, and as shown in FIG. A reflection point can be obtained.
As a result, as shown in FIG. 8, a large number of point cloud data in which each point of the reflection point is three-dimensionally coordinated can be obtained, and good point cloud data can be generated.
Incidentally, such a point group acquisition method of a laser beam unsuitable surface by scattering a reflecting material may be called an MRP method.

[第3実施形態]
上記第1実施形態では、SIMA統合部303は、SIMAデータ取得部302から出力されるCSVデータを点群データ取得部301から出力される点群データに反映させ、更に、色マッピングにより点群のPTSファイルを生成していたが、第3実施形態では、さらに、色彩がより鮮明な点群データを得るために、点群データに色彩情報を補正する方法について、以下、図9~図13を参照しながら説明する。
なお、第3実施形態の説明においても第1実施形態と同様の点については説明を省略する場合がある。
[Third Embodiment]
In the first embodiment, the SIMA integration unit 303 reflects the CSV data output from the SIMA data acquisition unit 302 in the point cloud data output from the point cloud data acquisition unit 301, and further converts the point cloud by color mapping. Although the PTS file was generated, in the third embodiment, in order to obtain point cloud data with clearer colors, a method for correcting color information in point cloud data will be described below with reference to FIGS. 9 to 13. Description will be made with reference to this.
In the description of the third embodiment as well, the description of the same points as in the first embodiment may be omitted.

図9は、第3実施例に係る三次元測定対象物の形状測定装置100の構成を示すブロック図である。
図10は、UAV40の撮像部が異なる時刻で同領域を撮像した道路を含む複数の画像を示す図であり、図10(a)は、第1時刻で同領域を撮像した道路を含む画像を示す図であり、図10(b)は、第1時刻よりも後である第2時刻で同領域を撮像した道路を含む画像を示す図である。
図11は、図10に示す画像から車両を除外した合成画像を示す図である。
図12は、図11に示す合成画像を解析することにより生成され、色彩情報を含む三次元点群データを示す図である。
図13は、色彩情報が補正された点群データを示す図である。
FIG. 9 is a block diagram showing the configuration of a shape measuring apparatus 100 for a three-dimensional measurement object according to the third embodiment.
10A and 10B are diagrams showing a plurality of images including the road captured in the same area at different times by the imaging unit of the UAV 40. FIG. 10A shows an image including the road captured in the same area at the first time. FIG. 10(b) is a diagram showing an image including the road taken in the same region at a second time later than the first time.
FIG. 11 is a diagram showing a synthesized image obtained by excluding the vehicle from the image shown in FIG.
FIG. 12 is a diagram showing three-dimensional point cloud data that is generated by analyzing the composite image shown in FIG. 11 and includes color information.
FIG. 13 is a diagram showing point cloud data in which color information has been corrected.

図9に示すように、第3実施例に係る三次元測定対象の形状測定装置100は、解析装置30と、入力装置31と、出力装置32とから構成され、解析装置30には、三次元走査装置10と、トータルステーション20と、さらに、UAV(Unmanned Aerial Vehicle)40が、オフラインで接続される。
なお、点群データの色彩情報の補正には、以下で説明するように解析装置30及びUAV40が用いられる。
As shown in FIG. 9, a shape measuring apparatus 100 for three-dimensional measurement according to the third embodiment includes an analysis device 30, an input device 31, and an output device 32. The analysis device 30 includes a three-dimensional A scanning device 10, a total station 20, and a UAV (Unmanned Aerial Vehicle) 40 are connected offline.
Note that the analysis device 30 and the UAV 40 are used for correcting the color information of the point cloud data as described below.

UAV40は、解析装置30とオフラインで接続されており、遠隔操作により飛行可能な無人機である。
そして、UAV40は、道路等の三次元測定対象物の画像を撮像するための撮像部(図示しない)を備えている。
The UAV 40 is connected offline to the analysis device 30 and is an unmanned aerial vehicle that can fly by remote control.
The UAV 40 has an imaging unit (not shown) for capturing an image of a three-dimensional measurement object such as a road.

このUAV40の撮像部が撮像した画像を図10(a)及び図10(b)に示している。
具体的には、図10(a)及び図10(b)は、三次元走査装置10の有効範囲を含む同領域を、UAV40の撮像部で異なる時刻に撮像した道路等の三次元測定対象物を含む画像である。
なお、上述のように、UAV40はオフラインで解析装置30に接続されており、UAV40が撮像したその複数の画像は、後述する画像合成部311に出力できるようになっている。
Images captured by the imaging unit of the UAV 40 are shown in FIGS. 10(a) and 10(b).
Specifically, FIGS. 10A and 10B show three-dimensional measurement objects such as roads captured at different times by the imaging unit of the UAV 40 in the same area including the effective range of the three-dimensional scanning device 10. is an image containing
As described above, the UAV 40 is connected offline to the analysis device 30, and the plurality of images captured by the UAV 40 can be output to the image synthesizing unit 311, which will be described later.

第3実施例の解析装置30は、画像合成部311と、画像測量解析部312と、色彩情報補正部313と、を含む点を除き、上記第1実施形態の解析装置30と同じ構成を有している。 The analysis device 30 of the third embodiment has the same configuration as the analysis device 30 of the first embodiment except that it includes an image synthesis unit 311, an image survey analysis unit 312, and a color information correction unit 313. is doing.

画像合成部311は、UAV40から出力される道路等の三次元測定対象物を含む複数の画像を合成することにより、図11に示すような非三次元測定対象の車両を除外した合成画像を生成し、画像測量解析部312へ出力する。 The image synthesizing unit 311 synthesizes a plurality of images output from the UAV 40, including roads and other 3D measurement objects, to generate a synthesized image excluding non-3D measurement target vehicles, as shown in FIG. and output to the image survey analysis unit 312 .

画像測量解析部312は、画像合成部311から出力される合成画像を解析することにより、図12に示すような色彩情報を含む三次元点群データを生成し、色彩情報補正部313へ出力する。 The image survey analysis unit 312 analyzes the synthesized image output from the image synthesis unit 311 to generate three-dimensional point cloud data including color information as shown in FIG. .

そして、色彩情報補正部313が、画像測量解析部312から出力される色彩情報を含む三次元点群データを用いて、SIMA係合部303から出力される点群のPTSファイルに三次元点群データの持つ色彩情報を補正し、より鮮明な色彩情報を持つ三次元点群データとして、その点群のPTSファイルを平面画像合成部304及び路線計算部307へ出力する。 Then, the color information correction unit 313 uses the 3D point cloud data including the color information output from the image survey analysis unit 312 to convert the 3D point cloud data into the PTS file of the point cloud output from the SIMA engagement unit 303 . The color information of the data is corrected, and the PTS file of the point cloud is output to the plane image synthesizing unit 304 and the route calculation unit 307 as three-dimensional point cloud data having clearer color information.

具体的には、SIMA係合部303から出力される点群のPTSファイルの色彩情報を含む三次元点群データは、三次元走査装置10によって取得されたデータに基づいたもののため、道路上に描かれている白線等の色彩情報が不鮮明である場合がある一方、UAV40によって取得された画像に基づく色彩情報を含む三次元点群データは、道路上に描かれている白線等の色彩情報が鮮明であるため、色彩情報補正部313では、道路上の白線等の色彩情報を補正する処理が行われる。 Specifically, the three-dimensional point cloud data including the color information of the PTS file of the point cloud output from the SIMA engagement unit 303 is based on the data acquired by the three-dimensional scanning device 10. While the color information such as the white lines drawn on the road may be unclear, the 3D point cloud data including the color information based on the image acquired by the UAV 40 has the color information such as the white lines drawn on the road. Since the image is clear, the color information correction unit 313 performs processing for correcting color information such as white lines on the road.

このように、第3実施例では、UAV40及び解析装置30を用いて、点群のPTSファイルに色彩情報を補正することにより、色彩がより鮮明な点群データを得ることができ、この補正によって、図13に示すように、例えば、道路に描かれた白線等の細部をよく確認することができる状態にすることができる。 Thus, in the third embodiment, by correcting the color information of the PTS file of the point cloud using the UAV 40 and the analysis device 30, point cloud data with clearer colors can be obtained. For example, as shown in FIG. 13, details such as white lines drawn on the road can be clearly confirmed.

[第4実施形態]
上記第3実施形態では、UAV40を用いることで色彩情報を補正する場合について説明したが、UAV40を用いて三次元点群データを補正する、つまり、三次元走査装置10のレーザ光が届かないような範囲のために、三次元走査装置10によって取得したデータに基づいた三次元点群データで点群が不足している箇所の点群を補足してもよく、第4実施形態では、以下、図14を参照しながら、UAV40を用いて、三次元走査装置10による点群データを補足する方法について説明する。
[Fourth Embodiment]
In the above-described third embodiment, the case of correcting the color information by using the UAV 40 has been described. For this range, the 3D point cloud data based on the data acquired by the 3D scanning device 10 may be used to supplement the point cloud where the point cloud is insufficient. Referring to FIG. 14, a method of supplementing point cloud data from the three-dimensional scanning device 10 using the UAV 40 will be described.

図14は、第4実施例に係る三次元測定対象物の形状測定装置100の構成を示すブロック図である。
なお、図14を参照しながら、以下、具体的に第4実施形態について説明するが、第4実施形態でも、第1実施形態と同様の点については説明を省略する場合がある。
また、UAV40について、第3実施形態で既に説明している内容についても省略する場合がある。
FIG. 14 is a block diagram showing the configuration of a shape measuring apparatus 100 for a three-dimensional measurement object according to the fourth embodiment.
Although the fourth embodiment will be specifically described below with reference to FIG. 14, the description of the same points as those of the first embodiment may be omitted in the fourth embodiment as well.
In addition, the contents of the UAV 40 that have already been explained in the third embodiment may also be omitted.

図14に示すように、第4実施例に係る三次元測定対象の形状測定装置100は、解析装置30と、入力装置31と、出力装置32とから構成され、解析装置30には、三次元走査装置10と、トータルステーション20と、さらに、UAV40が、オフラインで接続される。
なお、三次元走査装置10による点群データへの補足には、以下で説明するようにUAV40及び解析装置30が用いられる。
As shown in FIG. 14, a shape measuring apparatus 100 for three-dimensional measurement according to the fourth embodiment includes an analysis device 30, an input device 31, and an output device 32. The analysis device 30 includes a three-dimensional The scanning device 10, total station 20, and UAV 40 are connected offline.
Note that the UAV 40 and the analysis device 30 are used to supplement the point cloud data by the three-dimensional scanning device 10 as described below.

UAV40は、解析装置30にオフラインで接続され、遠隔操作により飛行可能な無人機であり、また、UAV40が道路等の三次元測定対象物の画像を撮像するための撮像部(図示しない)を備えていることは第3実施形態で説明したとおりである。
そして、第3実施形態で説明したのと同様に、UAV40の撮像部が異なる時刻で三次元走査装置10の有効範囲以外の領域を含む同領域を撮像した道路等の三次元測定対象物を含む複数の画像は、画像合成部311に出力される。
The UAV 40 is connected offline to the analysis device 30 and is an unmanned aerial vehicle capable of flying by remote control. It is as described in the third embodiment.
Then, in the same manner as described in the third embodiment, the imaging unit of the UAV 40 captures the same area including the area outside the effective range of the three-dimensional scanning device 10 at different times. A plurality of images are output to the image synthesizing unit 311 .

第4実施例の解析装置30は、画像合成部311と、画像測量解析部312と、点群データ合成部314と、を含む点を除き、上記第1実施形態の解析装置30と同じ構成を有している。 The analysis device 30 of the fourth embodiment has the same configuration as the analysis device 30 of the first embodiment, except that it includes an image synthesis unit 311, an image survey analysis unit 312, and a point cloud data synthesis unit 314. have.

第3実施形態と同様に、画像合成部311は、UAV40から出力される道路等の三次元測定対象物を含む複数の画像を合成することにより、非三次元測定対象の車両を除外して三次元走査装置10の有効範囲以外の領域を含む合成画像を生成し、画像測量解析部312へ出力する。 As in the third embodiment, the image synthesizing unit 311 synthesizes a plurality of images including a three-dimensional measurement object such as a road output from the UAV 40, thereby excluding a non-three-dimensional measurement object vehicle and performing a three-dimensional measurement. A composite image including areas outside the effective range of the source scanning device 10 is generated and output to the image survey analysis unit 312 .

そして、画像測量解析部312が、画像測量解析部312から出力される三次元走査装置10の有効範囲以外の領域を含む合成画像を解析することにより、三次元走査装置10の有効範囲以外の領域を含む三次元点群データを生成し、点群データ合成部314へ出力する。 Then, the image survey analysis unit 312 analyzes the composite image including the area outside the effective range of the three-dimensional scanning device 10 output from the image survey analysis unit 312, thereby determining the area outside the effective range of the three-dimensional scanning device 10. , and outputs it to the point cloud data synthesizing unit 314 .

そうすると、点群データ合成部314は、点群データ取得部301から出力される点群データの点群が不足している箇所を補足するように、画像測量解析部312から出力される三次元点群データの点群を部分的に合成し、部分的な点群の補足が行われた三次元点群データをSIMA統合部303へ出力する。 Then, the point cloud data synthesizing unit 314 synthesizes the three-dimensional points output from the image survey analysis unit 312 so as to supplement the points where the point cloud of the point cloud data output from the point cloud data acquisition unit 301 is insufficient. The point cloud of the cloud data is partially synthesized, and the three-dimensional point cloud data in which the partial point cloud is supplemented is output to the SIMA integration unit 303 .

このように、第4実施例では、三次元走査装置10によって取得されたデータに基づく三次元点群データで点群が不足している箇所の点群をUAV40を用いることで補足するので、より完全な三次元点群データを生成することができる。 As described above, in the fourth embodiment, the UAV 40 is used to supplement the point cloud in the three-dimensional point cloud data based on the data acquired by the three-dimensional scanning device 10, where the point cloud is insufficient. A complete 3D point cloud data can be generated.

[第5実施形態]
上記第1実施形態で説明したトータルステーション20を、三次元走査装置10によって取得されたデータに基づく三次元点群データにおける境界がわかり難い箇所を境界がわかりやすくするのに用いてもよく、第5実施形態では、トータルステーション20を用いて、そのような境界をわかりやすくする方法について説明する。
[Fifth embodiment]
The total station 20 described in the first embodiment may be used to make the boundaries of the three-dimensional point cloud data based on the data acquired by the three-dimensional scanning device 10 easier to understand. In the embodiment, a method for making such boundaries easier to understand using the total station 20 will be described.

つまり、点群による現況観測では情報量が膨大であるため、三次元走査装置10によって取得されたデータに基づく三次元点群データでは、部分的に拡大していくと、車道と歩道との境目やマンホールの境界等が見えなくなるが、トータルステーション20を用いて、その境界がわかるように電子マーキングを付けることが可能であり、以下、図15及び図16を参照しながら、点群データへの電子マーキングについて説明する。
なお、第5実施形態においても、第1実施形態と同様の点については説明を省略する場合がある。
In other words, since the amount of information is enormous in current situation observation using point clouds, the 3D point cloud data based on the data acquired by the 3D scanning device 10, when partially enlarged, shows the boundary between the roadway and the sidewalk. However, it is possible to use the total station 20 to add electronic markings so that the boundaries can be seen. Explain marking.
In addition, also in the fifth embodiment, the description of the same points as in the first embodiment may be omitted.

図15は、電子マーキングが追加された点群データを示す図であり、図16は、拡大された電子マーキングの点群データを示す図である。
例えば、トータルステーション20は、道路の車道と歩道との境界(車道と歩道を分ける白線の境界)におけるマーキング点の観測結果を電子マーキング用のSIMAデータとして解析装置30のSIMAデータ取得部302へ出力する。
FIG. 15 is a diagram showing point cloud data to which electronic markings have been added, and FIG. 16 is a diagram showing enlarged point cloud data of electronic markings.
For example, the total station 20 outputs the observation result of the marking points at the boundary between the roadway and the sidewalk (the boundary between the roadway and the sidewalk) as SIMA data for electronic marking to the SIMA data acquisition unit 302 of the analysis device 30. .

そして、SIMAデータ取得部302は、トータルステーション20により出力される電子マーキング用のSIMAデータを、解析装置30が読み込み可能な電子マーキング用のCSV形式のデータにファイル変換し、XY座標を入れ替えてSIMA統合部303へ出力する。 Then, the SIMA data acquisition unit 302 converts the SIMA data for electronic marking output by the total station 20 into CSV-format data for electronic marking that can be read by the analysis device 30, replaces the XY coordinates, and integrates SIMA. Output to unit 303 .

そうすると、SIMA統合部303は、SIMAデータ取得部302から出力される電子マーキング用のCSVデータを点群データ取得部301から出力される点群データに反映させ、更に、色マッピング処理により電子マーキングが追加された点群のPTSファイルを生成する。 Then, the SIMA integration unit 303 reflects the CSV data for electronic marking output from the SIMA data acquisition unit 302 in the point cloud data output from the point cloud data acquisition unit 301, and performs electronic marking by color mapping processing. Generate a PTS file of the added point cloud.

例えば、白線の境界を示すように、電子マーキングMが追加された点群データの一例は、図15に示すものであり、電子マーキングMを結ぶ線上が白線の境界になっている。
そして、その電子マーキングMの周辺を拡大していくと、図15では、なんとなく見えていた白線の状態がぼやけて行き、図16に示すように、白線の状態がわからなくなるが、先に述べたように、電子マーキングMを結ぶ線上に白線の境界が存在するため、図16に示すように、白線の状態がわからなくなっても、電子マーキングMによって境界がどこにあるのかを知ることができる。
For example, FIG. 15 shows an example of point cloud data to which electronic markings M have been added so as to indicate white line boundaries, and the line connecting the electronic markings M is the white line boundary.
Then, when the periphery of the electronic marking M is enlarged, the state of the white line that was vaguely visible in FIG. 15 becomes blurred, and the state of the white line becomes unclear as shown in FIG. As shown in FIG. 16, since the boundary of the white line exists on the line connecting the electronic markings M, it is possible to know where the boundary is by the electronic marking M even if the state of the white line is unknown.

このように、第5実施例では、点群データに電子マーキングを追加することにより、拡大によって境界がわからなくなるような場合であっても、図16に示すように、電子マーキングMを目印として、スピーディー且つ正確に道路の車道と歩道との境界を見分けることができる。
さらに、追加された電子マーキングと、点群データに示される道路の車道と歩道との境界と、の距離が所定の閾値を超える場合、点群データにエラーがあることを推測することができる。
As described above, in the fifth embodiment, by adding the electronic marking to the point cloud data, even if the boundary becomes unclear due to the enlargement, as shown in FIG. To speedily and accurately distinguish a boundary between a carriageway and a sidewalk of a road.
Furthermore, if the distance between the added electronic marking and the carriageway-sidewalk boundary of the road shown in the point cloud data exceeds a predetermined threshold, it can be inferred that there is an error in the point cloud data.

以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described using the embodiments, it goes without saying that the technical scope of the present invention is not limited to the scope described in the above embodiments. It is obvious to those skilled in the art that various modifications or improvements can be made to the above embodiments. Moreover, it is clear from the description of the scope of the claims that the forms with such modifications or improvements can also be included in the technical scope of the present invention.

10 三次元走査装置
20 トータルステーション
30 解析装置
31 入力装置
32 出力装置
40 UAV
50 反射材
100 形状測定装置
301 点群データ取得部
302 SIMAデータ取得部
303 SIMA統合部
304 平面画像合成部
305 平面資料作成部
306 線形作成部
307 路線計算部
308 三角網縦横断データ取得部
309 出来形管理部
310 設計データ及び納品データ作成部
311 画像合成部
312 画像測量解析部
313 色彩情報補正部
314 点群データ合成部
M 電子マーキング
10 three-dimensional scanning device 20 total station 30 analysis device 31 input device 32 output device 40 UAV
50 Reflector 100 Shape measuring device 301 Point cloud data acquisition unit 302 SIMA data acquisition unit 303 SIMA integration unit 304 Planar image synthesizing unit 305 Planar material creation unit 306 Line creation unit 307 Route calculation unit 308 Triangular network vertical cross-section data acquisition unit 309 Done Shape management unit 310 Design data and delivery data creation unit 311 Image synthesizing unit
312 image survey analysis unit 313 color information correction unit 314 point cloud data synthesis unit M electronic marking

Claims (5)

三次元測定対象物の形状測定方法であって、
三次元走査装置により照射されるレーザ光により前記三次元測定対象物からの反射点における各点が3次元座標化された点群データとして取得する第1のステップと、
前記取得した点群データを解析装置によって解析し、前記三次元測定対象物の形状確認データを生成すると共に、入力装置によって入力される任意の2点間の縦横断データを作成して設計データに変換し、それぞれ出力装置に出力する第2のステップと、
を有することを特徴とする三次元測定対象物の形状測定方法。
A method for measuring the shape of a three-dimensional measurement object,
A first step of obtaining point cloud data in which each point of the reflection point from the three-dimensional measurement object is converted into three-dimensional coordinates by laser light irradiated by a three-dimensional scanning device;
The acquired point cloud data is analyzed by an analysis device to generate shape confirmation data of the three-dimensional measurement object, and longitudinal and cross-sectional data between any two points input by an input device is created and used as design data. a second step of converting and respectively outputting to an output device;
A method for measuring the shape of a three-dimensional measurement object, comprising:
前記第1のステップは、
トータルステーションによる観測結果を前記解析装置が利用可能なファイル形式に変換して前記点群データに反映させ、色マッピング処理により生成されるPTSファイルと、基準点SIMAデータとを統合して前記解析装置に入力することを特徴とする請求項1に記載の三次元測定対象物の形状測定方法。
The first step includes
The observation results from the total station are converted into a file format that can be used by the analysis device, reflected in the point cloud data, and the PTS file generated by the color mapping process and the reference point SIMA data are integrated and sent to the analysis device. 2. The method for measuring the shape of a three-dimensional measurement object according to claim 1, wherein the shape of the three-dimensional measurement object is input.
前記第2のステップは、
線形を基準とした路線測量により得られる前記線形の主要点の位置座標と、取り込んだ中間座標とに基づき路線計算を行い、前記路線計算の結果に基づき、三角網による縦横断図を作成することを特徴とする請求項1に記載の三次元測定対象物の形状測定方法。
The second step includes
Calculating a route based on the positional coordinates of the main points of the alignment obtained by route surveying with the alignment as a reference and the captured intermediate coordinates, and creating a longitudinal and cross-sectional map using a triangular network based on the results of the route calculation. The method for measuring the shape of a three-dimensional measurement object according to claim 1, characterized by:
三次元測定対象物の形状測定装置であって、
照射されるレーザ光により前記三次元測定対象物からの反射点における各点が3次元座標化された点群データとして取得する三次元走査装置と、
前記取得した点群データを解析し、前記三次元測定対象物の形状確認データを生成すると共に、指定された任意の2点間の縦横断データを作成して設計データに変換し、出力装置にそれぞれ出力する解析装置と、を備えたことを特徴とする形状測定装置。
A shape measuring device for a three-dimensional measurement object,
a three-dimensional scanning device that obtains point cloud data in which each point in the reflection point from the three-dimensional measurement object is converted into three-dimensional coordinates by the irradiated laser light;
Analyzing the obtained point cloud data, generating shape confirmation data of the three-dimensional measurement object, creating longitudinal and cross-sectional data between any two specified points, converting it into design data, and outputting it to the output device A shape measuring device comprising: an analysis device for outputting each;
三次元測定対象物の形状測定装置のためのプログラムであって、
前記形状測定装置に、
三次元走査装置により照射されるレーザ光により前記三次元測定対象物からの反射点における各点が3次元座標化された点群データとして取得する処理と、
前記取得した点群データを解析し、前記三次元測定対象物の形状確認データを生成すると共に、指定された任意の2点間の縦横断データを作成して設計データに変換し、出力する処理と、を実行させるプログラム。
A program for a shape measuring device for a three-dimensional measurement object,
In the shape measuring device,
A process of acquiring point cloud data in which each point in the reflection point from the three-dimensional measurement object is converted into three-dimensional coordinates by a laser beam irradiated by a three-dimensional scanning device;
A process of analyzing the obtained point cloud data, generating shape confirmation data of the three-dimensional measurement object, creating longitudinal and cross-sectional data between any two specified points, converting it into design data, and outputting it. and the program that causes it to run.
JP2022131862A 2016-07-27 2022-08-22 Method, device, and program for measuring the shape of a three-dimensional measurement object Active JP7394935B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023200482A JP2024009279A (en) 2016-07-27 2023-11-28 Shape measuring method, device and program for three dimensional measurement object

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016147236 2016-07-27
JP2016147236 2016-07-27
JP2017141901A JP7208708B2 (en) 2016-07-27 2017-07-21 Shape measurement method, apparatus, and program for three-dimensional measurement object

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017141901A Division JP7208708B2 (en) 2016-07-27 2017-07-21 Shape measurement method, apparatus, and program for three-dimensional measurement object

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023200482A Division JP2024009279A (en) 2016-07-27 2023-11-28 Shape measuring method, device and program for three dimensional measurement object

Publications (2)

Publication Number Publication Date
JP2022159560A true JP2022159560A (en) 2022-10-17
JP7394935B2 JP7394935B2 (en) 2023-12-08

Family

ID=61195030

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017141901A Active JP7208708B2 (en) 2016-07-27 2017-07-21 Shape measurement method, apparatus, and program for three-dimensional measurement object
JP2022131862A Active JP7394935B2 (en) 2016-07-27 2022-08-22 Method, device, and program for measuring the shape of a three-dimensional measurement object
JP2023200482A Pending JP2024009279A (en) 2016-07-27 2023-11-28 Shape measuring method, device and program for three dimensional measurement object

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017141901A Active JP7208708B2 (en) 2016-07-27 2017-07-21 Shape measurement method, apparatus, and program for three-dimensional measurement object

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023200482A Pending JP2024009279A (en) 2016-07-27 2023-11-28 Shape measuring method, device and program for three dimensional measurement object

Country Status (1)

Country Link
JP (3) JP7208708B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7539681B2 (en) * 2018-11-20 2024-08-26 株式会社エムアールサポート Ortho-image creation system, ortho-image creation method, and anti-aircraft sign and road survey method used therein
WO2020255548A1 (en) * 2019-06-17 2020-12-24 株式会社エムアールサポート Orthoimage creation system, orthoimage creation method, ground control points for use in orthoimage creation method, and road surveying method
JP2021082058A (en) * 2019-11-20 2021-05-27 株式会社豊田中央研究所 Travel path estimation device and travel path estimation program
CN112613277B (en) * 2020-12-09 2024-05-28 万兴科技(湖南)有限公司 Method, system and storage medium for converting PDF document into DXF document
JP2024095068A (en) * 2022-12-28 2024-07-10 日立Astemo株式会社 On-vehicle processing device and object recognition method

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010085131A (en) * 2008-09-30 2010-04-15 Taisei Corp Finished work confirming system, finished work confirmation program, and finished work confirmation method
JP2010530997A (en) * 2007-04-19 2010-09-16 テレ アトラス ベスローテン フエンノートシャップ Method and apparatus for generating road information
JP2011257276A (en) * 2010-06-09 2011-12-22 Ihi Corp Topographical data acquisition method
US8537338B1 (en) * 2011-08-24 2013-09-17 Hrl Laboratories, Llc Street curb and median detection using LIDAR data
US20140146173A1 (en) * 2012-11-26 2014-05-29 Trimble Navigation Limited Integrated Aerial Photogrammetry Surveys
CN104123730A (en) * 2014-07-31 2014-10-29 武汉大学 Method and system for remote-sensing image and laser point cloud registration based on road features
JP2015087307A (en) * 2013-10-31 2015-05-07 株式会社トプコン Three-dimensional measurement system and survey system
JP2015206768A (en) * 2014-04-23 2015-11-19 株式会社東芝 Foreground area extraction device, foreground area extraction method and program
JP2016045150A (en) * 2014-08-26 2016-04-04 株式会社トプコン Point group position data processing device, point group position data processing system, point group position data processing method, and program
JP2016105081A (en) * 2014-11-19 2016-06-09 首都高技術株式会社 Point group data utilization system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007057498A (en) * 2005-08-26 2007-03-08 Matsushita Electric Works Ltd Laser topography observation system
JP2008045890A (en) * 2006-08-11 2008-02-28 Public Works Research Institute Ground displacement measuring system, light reflector installation method used for it, and light reflector installation apparatus
JP2010177743A (en) * 2009-01-27 2010-08-12 Casio Hitachi Mobile Communications Co Ltd Image photographing device, and program
JP5384316B2 (en) * 2009-12-24 2014-01-08 株式会社パスコ Displacement measuring device, displacement measuring method, and displacement measuring program
JP2013190272A (en) * 2012-03-13 2013-09-26 Kyushu Univ Three-dimensional laser measuring apparatus and three-dimensional laser measuring method
JP6006179B2 (en) * 2013-06-20 2016-10-12 株式会社パスコ Data analysis apparatus, data analysis method, and program
JP6432825B2 (en) * 2014-08-22 2018-12-05 株式会社Ihi Method and apparatus for aligning three-dimensional point cloud data and moving body system thereof

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010530997A (en) * 2007-04-19 2010-09-16 テレ アトラス ベスローテン フエンノートシャップ Method and apparatus for generating road information
JP2010085131A (en) * 2008-09-30 2010-04-15 Taisei Corp Finished work confirming system, finished work confirmation program, and finished work confirmation method
JP2011257276A (en) * 2010-06-09 2011-12-22 Ihi Corp Topographical data acquisition method
US8537338B1 (en) * 2011-08-24 2013-09-17 Hrl Laboratories, Llc Street curb and median detection using LIDAR data
US20140146173A1 (en) * 2012-11-26 2014-05-29 Trimble Navigation Limited Integrated Aerial Photogrammetry Surveys
JP2015087307A (en) * 2013-10-31 2015-05-07 株式会社トプコン Three-dimensional measurement system and survey system
JP2015206768A (en) * 2014-04-23 2015-11-19 株式会社東芝 Foreground area extraction device, foreground area extraction method and program
CN104123730A (en) * 2014-07-31 2014-10-29 武汉大学 Method and system for remote-sensing image and laser point cloud registration based on road features
JP2016045150A (en) * 2014-08-26 2016-04-04 株式会社トプコン Point group position data processing device, point group position data processing system, point group position data processing method, and program
JP2016105081A (en) * 2014-11-19 2016-06-09 首都高技術株式会社 Point group data utilization system

Also Published As

Publication number Publication date
JP2024009279A (en) 2024-01-19
JP2018025553A (en) 2018-02-15
JP7394935B2 (en) 2023-12-08
JP7208708B2 (en) 2023-01-19

Similar Documents

Publication Publication Date Title
JP7208708B2 (en) Shape measurement method, apparatus, and program for three-dimensional measurement object
Fawzy 3D laser scanning and close-range photogrammetry for buildings documentation: A hybrid technique towards a better accuracy
Duque et al. Bridge deterioration quantification protocol using UAV
Riveiro et al. Terrestrial laser scanning and limit analysis of masonry arch bridges
Murphy et al. Historic building information modelling (HBIM)
Guan et al. A review on UAV-based remote sensing technologies for construction and civil applications
Riveiro et al. Validation of terrestrial laser scanning and photogrammetry techniques for the measurement of vertical underclearance and beam geometry in structural inspection of bridges
Mill et al. Combined 3D building surveying techniques–terrestrial laser scanning (TLS) and total station surveying for BIM data management purposes
JP2018025553A5 (en)
Turkan et al. Automated progress tracking using 4D schedule and 3D sensing technologies
Larsen et al. Surveying and digital workflow in energy performance retrofit projects using prefabricated elements
Zhang et al. Automated progress control using laser scanning technology
CN106524920A (en) Application of field measurement in construction project based on three-dimensional laser scanning
Manish et al. Image-aided LiDAR mapping platform and data processing strategy for stockpile volume estimation
Wang et al. Application of 3D laser scanning technology using laser radar system to error analysis in the curtain wall construction
Lee et al. Vision-based inspection of prefabricated components using camera poses: Addressing inherent limitations of image-based 3D reconstruction
Biswas Automatic planning for scanning: Optimizing 3D laser scanning operations using BIM and TLS
Kortaberria et al. Accuracy evaluation of dense matching techniques for casting part dimensional verification
Wysocki et al. Unlocking point cloud potential: Fusing MLS point clouds with semantic 3D building models while considering uncertainty
Ergun et al. A case study on the historical peninsula of Istanbul based on three-dimensional modeling by using photogrammetry and terrestrial laser scanning
Pérez et al. Field Work’s Optimization for the Digital Capture of Large University Campuses, Combining Various Techniques of Massive Point Capture
Rashidi et al. Capturing geometry for labeling and mapping built infrastructure: an overview of technologies
Turkan et al. Towards automated progress tracking of erection of concrete structures
KR101237434B1 (en) Realistic 3D Architecture Modeling Method using Survey Instrument
Turkan et al. Automated progress tracking of erection of concrete structures

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231128

R150 Certificate of patent or registration of utility model

Ref document number: 7394935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150