JP2018116005A - Three-dimensional data processing apparatus, three-dimensional data measuring machine, and three-dimensional data processing method - Google Patents

Three-dimensional data processing apparatus, three-dimensional data measuring machine, and three-dimensional data processing method Download PDF

Info

Publication number
JP2018116005A
JP2018116005A JP2017008233A JP2017008233A JP2018116005A JP 2018116005 A JP2018116005 A JP 2018116005A JP 2017008233 A JP2017008233 A JP 2017008233A JP 2017008233 A JP2017008233 A JP 2017008233A JP 2018116005 A JP2018116005 A JP 2018116005A
Authority
JP
Japan
Prior art keywords
data
dimensional
comparison
comparison data
dimensional measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017008233A
Other languages
Japanese (ja)
Inventor
希佳哉 榊
Kiyona Sakaki
希佳哉 榊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2017008233A priority Critical patent/JP2018116005A/en
Publication of JP2018116005A publication Critical patent/JP2018116005A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress a computational complexity from increasing without lowering difference extraction precision when extracting a difference between three-dimensional data obtained through three-dimensional measurement at different points of time.SOLUTION: A three-dimensional data processing apparatus 130 comprises an image recognition part 133 and a difference extraction part 135. Reference data and comparison data are three-dimensional data obtained through three-dimensional measurement at mutually different points of time. The image recognition part 133 determines, from images photographed in parallel with the three-dimensional measurement for obtaining the comparison data, whether features present at the point of time when three-dimensional measurement for obtaining the reference data is performed are still present even at the point of time when the three-dimensional measurement for obtaining the comparison data is performed. The difference extraction part 135 adjusts the comparison data within different wide and narrow ranges according to a determination result of the image recognition part 133 to position the reference data and comparison data, and then extracts differences between the reference data and comparison data.SELECTED DRAWING: Figure 3

Description

本発明は、三次元データ処理装置、三次元データ計測機および三次元データ処理方法に関するものである。   The present invention relates to a three-dimensional data processing device, a three-dimensional data measuring instrument, and a three-dimensional data processing method.

特許文献1に記載されているように、近年、道路管理台帳の高精度化等の需要から、道路周辺の地物の三次元計測を行う需要があり、MMSが開発されている。「MMS」は、Mobile Mapping Systemの略語である。MMSでは、計測車両に三次元計測装置が搭載されており、計測車両の走行中に道路、および、道路周辺の地物を計測して三次元の点群データを取得することで、三次元の地図データを生成することができる。   As described in Patent Document 1, in recent years, there has been a demand for three-dimensional measurement of features around roads due to demand for high accuracy of road management ledgers, and MMS has been developed. “MMS” is an abbreviation for Mobile Mapping System. In MMS, a measuring vehicle is equipped with a three-dimensional measuring device, and the three-dimensional point cloud data is acquired by measuring roads and features around the road while the measuring vehicle is running. Map data can be generated.

非特許文献1に記載されているように、MMSの応用技術として、三次元地図である静的情報に、車両、天候、渋滞および事故等の動的情報を紐付けたダイナミックマップの開発が行われており、車両の自動運転技術等への活用が期待されている。   As described in Non-Patent Document 1, as an application technology of MMS, development of a dynamic map in which dynamic information such as vehicles, weather, traffic jams, and accidents is linked to static information that is a three-dimensional map is performed. It is expected to be used for automatic driving technology of vehicles.

特開2009−204615号公報JP 2009-204615 A

日経パソコン編集部、“ダイナミックマップ”、[online]、平成28年7月19日、ITpro、[平成28年10月11日検索]、インターネット<URL:http://itpro.nikkeibp.co.jp/atcl/keyword/15/050900002/062100011/>Nikkei PC Editing Department, “Dynamic Map”, [online], July 19, 2016, ITpro, [October 11, 2016 search], Internet <URL: http: // itpro. nikkeibp. co. jp / atcl / keyword / 15/0500900002/062100011 />

静的情報に動的情報を紐付けるためには、三次元の地図データから動的情報を抽出する必要がある。動的情報を抽出するため、基準となる三次元の地図データである基準地図データと、基準地図データと同じ場所で異なる時刻に得られた三次元の地図データである比較地図データとを比較し、時間経過による変化点を抽出する技術が開発されている。   In order to link dynamic information to static information, it is necessary to extract dynamic information from three-dimensional map data. In order to extract dynamic information, the reference map data, which is the reference three-dimensional map data, is compared with the comparison map data, which is the three-dimensional map data obtained at the same location as the reference map data at different times. A technique for extracting a change point over time has been developed.

時間経過による変化点は、基準地図データおよび比較地図データの差分に該当する。上記技術では、以下の手順で差分が抽出される。
(1)基準地図データの点群と比較地図データの点群とを比較し、点群の特徴が類似している箇所である類似箇所の抽出を行う。
(2)類似箇所の抽出後、両地図データの照合を行う。照合では、一方の地図データに対して、もう一方の地図データを平行移動または回転する処理を繰り返す。このとき、平行移動および回転の度に、両地図データにおける類似箇所の位置の一致具合を数値化する。
(3)(2)で数値化した類似箇所の位置の一致具合から、基準地図データおよび比較地図データが重なったかを判定する。このとき、重なった地図データにおいて、位置が大きく異なる点群を、差分として抽出する。
The change point over time corresponds to the difference between the reference map data and the comparison map data. In the above technique, the difference is extracted by the following procedure.
(1) The point group of the reference map data is compared with the point group of the comparative map data, and a similar part that is a part where the features of the point group are similar is extracted.
(2) After extracting similar parts, the two map data are collated. In the collation, the process of translating or rotating the other map data is repeated for one map data. At this time, the degree of coincidence of the positions of similar parts in both map data is digitized for each translation and rotation.
(3) It is determined whether or not the reference map data and the comparison map data are overlapped from the degree of coincidence of the positions of the similar parts digitized in (2). At this time, point groups with greatly different positions are extracted as differences in the overlapped map data.

上記技術では、基準地図データおよび比較地図データ間の差分である変化点の数が多いほど、基準地図データおよび比較地図データの照合の演算量が増大し、照合が困難となる。   In the above technique, as the number of change points that are differences between the reference map data and the comparison map data increases, the amount of calculation for matching the reference map data and the comparison map data increases, and the matching becomes difficult.

本発明は、異なる時点での三次元計測により得られた三次元データ間の差分を抽出する際に、差分の抽出精度を劣化させることなく、演算量の増大を抑制することを目的とする。   An object of the present invention is to suppress an increase in the amount of calculation without degrading the accuracy of extracting a difference when extracting a difference between three-dimensional data obtained by three-dimensional measurement at different time points.

本発明の一態様に係る三次元データ処理装置は、
ある時点での三次元計測により得られた三次元データである基準データと、前記基準データとは異なる時点での三次元計測により得られた三次元データである比較データとの差分を抽出する三次元データ処理装置であり、
前記比較データを得るための三次元計測と並行して撮影された画像から、前記基準データを得るための三次元計測が行われた時点で存在する地物が前記比較データを得るための三次元計測が行われた時点でも存在するかどうかを判定する画像認識部と、
前記画像認識部の判定結果によって広狭の異なる範囲内で前記基準データと前記比較データとの少なくともいずれかを調整することにより、前記基準データと前記比較データとの位置合わせを行ってから、前記基準データと前記比較データとの差分を抽出する差分抽出部とを備える。
A three-dimensional data processing apparatus according to one aspect of the present invention is provided.
A tertiary that extracts a difference between reference data that is three-dimensional data obtained by three-dimensional measurement at a certain time point and comparison data that is three-dimensional data obtained by three-dimensional measurement at a time point different from the reference data. An original data processing device,
A feature existing at the time when the three-dimensional measurement for obtaining the reference data is performed from an image photographed in parallel with the three-dimensional measurement for obtaining the comparison data is a three-dimensional for obtaining the comparison data. An image recognition unit that determines whether or not it exists even at the time of measurement;
The reference data and the comparison data are aligned by adjusting at least one of the reference data and the comparison data within a wide and narrow range depending on the determination result of the image recognition unit, and then the reference data A difference extraction unit for extracting a difference between the data and the comparison data;

本発明では、基準データと比較データとの差分を抽出する際に、画像認識機能を活用することで、差分の抽出精度を劣化させることなく、演算量の増大を抑制することができる。   In the present invention, when the difference between the reference data and the comparison data is extracted, by utilizing the image recognition function, it is possible to suppress an increase in the amount of calculation without deteriorating the difference extraction accuracy.

実施の形態1に係る計測車両の構成を示す図。FIG. 3 shows a configuration of a measurement vehicle according to Embodiment 1. 実施の形態1に係る三次元データ計測機の構成を示す図。FIG. 3 is a diagram showing a configuration of a three-dimensional data measuring device according to the first embodiment. 実施の形態1に係る三次元データ計測機の構成を示すブロック図。FIG. 3 is a block diagram showing a configuration of a three-dimensional data measuring device according to Embodiment 1. 実施の形態1に係る三次元データ処理装置の差分抽出部の動作を示すフローチャート。5 is a flowchart showing an operation of a difference extraction unit of the three-dimensional data processing apparatus according to the first embodiment.

以下、本発明の実施の形態について、図を用いて説明する。各図中、同一または相当する部分には、同一符号を付している。実施の形態の説明において、同一または相当する部分については、説明を適宜省略または簡略化する。なお、本発明は、以下に説明する実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。例えば、以下に説明する実施の形態は、部分的に実施されても構わない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals. In the description of the embodiments, the description of the same or corresponding parts will be omitted or simplified as appropriate. The present invention is not limited to the embodiments described below, and various modifications can be made as necessary. For example, the embodiment described below may be partially implemented.

実施の形態1.
本実施の形態について、図1から図4を用いて説明する。
Embodiment 1 FIG.
This embodiment will be described with reference to FIGS.

***構成の説明***
図1を参照して、本実施の形態に係る計測車両100の構成を説明する。
*** Explanation of configuration ***
With reference to FIG. 1, the structure of the measurement vehicle 100 which concerns on this Embodiment is demonstrated.

計測車両100は、三次元データ計測機101と、計測台車102とを備える。   The measurement vehicle 100 includes a three-dimensional data measurement machine 101 and a measurement carriage 102.

三次元データ計測機101は、画像認識機能と三次元計測機能との両方を有する装置である。   The three-dimensional data measuring machine 101 is an apparatus having both an image recognition function and a three-dimensional measurement function.

計測台車102は、本実施の形態では車両であるが、道路上を移動する機能を有する移動体であれば、車両以外の移動体で代替されてもよい。   The measurement carriage 102 is a vehicle in the present embodiment, but may be replaced with a moving body other than the vehicle as long as it has a function of moving on the road.

図2および図3を参照して、本実施の形態に係る三次元データ計測機101の構成を説明する。   With reference to FIG. 2 and FIG. 3, the structure of the three-dimensional data measuring device 101 which concerns on this Embodiment is demonstrated.

三次元データ計測機101は、レーザスキャナ110と、カメラ120と、三次元データ処理装置130とを備える。レーザスキャナ110およびカメラ120は、それぞれ三次元データ処理装置130に電気的に接続されている。   The three-dimensional data measuring machine 101 includes a laser scanner 110, a camera 120, and a three-dimensional data processing device 130. The laser scanner 110 and the camera 120 are each electrically connected to the three-dimensional data processing device 130.

三次元データ計測機101は、図示していない移動体通信網等のネットワークを介して、データサーバ200と通信可能である。   The three-dimensional data measuring device 101 can communicate with the data server 200 via a network such as a mobile communication network (not shown).

三次元データ処理装置130は、計算機である。三次元データ処理装置130は、プロセッサ141を備えるとともに、メモリ142および図示していない通信装置といった他のハードウェアを備える。プロセッサ141は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。   The three-dimensional data processing device 130 is a computer. The three-dimensional data processing device 130 includes a processor 141 and other hardware such as a memory 142 and a communication device (not shown). The processor 141 is connected to other hardware via a signal line, and controls these other hardware.

三次元データ処理装置130は、機能要素として、データ記録部131と、第1データ生成部132と、画像認識部133と、第2データ生成部134と、差分抽出部135とを備える。データ記録部131、第1データ生成部132、画像認識部133、第2データ生成部134および差分抽出部135の機能は、ソフトウェアにより実現される。   The three-dimensional data processing apparatus 130 includes a data recording unit 131, a first data generation unit 132, an image recognition unit 133, a second data generation unit 134, and a difference extraction unit 135 as functional elements. The functions of the data recording unit 131, the first data generation unit 132, the image recognition unit 133, the second data generation unit 134, and the difference extraction unit 135 are realized by software.

プロセッサ141は、各種処理を行うICである。「IC」は、Integrated Circuitの略語である。プロセッサ141は、例えば、CPUである。「CPU」は、Central Processing Unitの略語である。   The processor 141 is an IC that performs various processes. “IC” is an abbreviation for Integrated Circuit. The processor 141 is, for example, a CPU. “CPU” is an abbreviation for Central Processing Unit.

メモリ142は、例えば、フラッシュメモリまたはRAMである。「RAM」は、Random Access Memoryの略語である。   The memory 142 is, for example, a flash memory or a RAM. “RAM” is an abbreviation for Random Access Memory.

図示していないが、通信装置は、レーザスキャナ110、カメラ120およびデータサーバ200から各種データを受信するレシーバと、レーザスキャナ110、カメラ120およびデータサーバ200に各種データを送信するトランスミッタとを含む。通信装置は、例えば、通信チップまたはNICである。「NIC」は、Network Interface Cardの略語である。   Although not shown, the communication device includes a receiver that receives various data from the laser scanner 110, the camera 120, and the data server 200, and a transmitter that transmits various data to the laser scanner 110, the camera 120, and the data server 200. The communication device is, for example, a communication chip or a NIC. “NIC” is an abbreviation for Network Interface Card.

三次元データ処理装置130は、ハードウェアとして、入力装置およびディスプレイを備えていてもよい。   The three-dimensional data processing device 130 may include an input device and a display as hardware.

入力装置は、例えば、マウス、キーボードまたはタッチパネルである。   The input device is, for example, a mouse, a keyboard, or a touch panel.

ディスプレイは、例えば、LCDである。「LCD」は、Liquid Crystal Displayの略語である。   The display is, for example, an LCD. “LCD” is an abbreviation for Liquid Crystal Display.

メモリ142には、データ記録部131、第1データ生成部132、画像認識部133、第2データ生成部134および差分抽出部135の機能を実現するプログラムである三次元データ処理プログラムが記憶されている。三次元データ処理プログラムは、プロセッサ141に読み込まれ、プロセッサ141によって実行される。メモリ142には、OSも記憶されている。「OS」は、Operating Systemの略語である。プロセッサ141は、OSを実行しながら、三次元データ処理プログラムを実行する。なお、三次元データ処理プログラムの一部または全部がOSに組み込まれていてもよい。   The memory 142 stores a three-dimensional data processing program that is a program for realizing the functions of the data recording unit 131, the first data generation unit 132, the image recognition unit 133, the second data generation unit 134, and the difference extraction unit 135. Yes. The three-dimensional data processing program is read into the processor 141 and executed by the processor 141. The memory 142 also stores an OS. “OS” is an abbreviation for Operating System. The processor 141 executes a three-dimensional data processing program while executing the OS. A part or all of the three-dimensional data processing program may be incorporated in the OS.

三次元データ処理プログラムおよびOSは、補助記憶装置に記憶されていてもよい。補助記憶装置は、例えば、フラッシュメモリまたはHDDである。「HDD」は、Hard Disk Driveの略語である。補助記憶装置に記憶されている三次元データ処理プログラムおよびOSは、メモリ142にロードされ、プロセッサ141によって実行される。   The three-dimensional data processing program and the OS may be stored in the auxiliary storage device. The auxiliary storage device is, for example, a flash memory or an HDD. “HDD” is an abbreviation for Hard Disk Drive. The three-dimensional data processing program and OS stored in the auxiliary storage device are loaded into the memory 142 and executed by the processor 141.

三次元データ処理装置130は、プロセッサ141を代替する複数のプロセッサを備えていてもよい。これら複数のプロセッサは、三次元データ処理プログラムの実行を分担する。それぞれのプロセッサは、プロセッサ141と同じように、各種処理を行うICである。   The three-dimensional data processing apparatus 130 may include a plurality of processors that replace the processor 141. The plurality of processors share the execution of the three-dimensional data processing program. Each processor is an IC that performs various processes in the same manner as the processor 141.

データ記録部131、第1データ生成部132、画像認識部133、第2データ生成部134および差分抽出部135の処理の結果を示す情報、データ、信号値および変数値は、メモリ142、補助記憶装置、または、プロセッサ141内のレジスタまたはキャッシュメモリに記憶される。   Information, data, signal values, and variable values indicating the processing results of the data recording unit 131, the first data generation unit 132, the image recognition unit 133, the second data generation unit 134, and the difference extraction unit 135 are stored in the memory 142 and auxiliary storage. It is stored in a device or a register or cache memory in the processor 141.

三次元データ処理プログラムは、磁気ディスクおよび光ディスクといった可搬記録媒体に記憶されてもよい。   The three-dimensional data processing program may be stored in a portable recording medium such as a magnetic disk and an optical disk.

***動作の説明***
図3を参照して、本実施の形態に係る三次元データ計測機101の動作を説明する。三次元データ計測機101の動作は、本実施の形態に係る三次元データ処理方法に相当する。
*** Explanation of operation ***
With reference to FIG. 3, the operation of the three-dimensional data measuring apparatus 101 according to the present embodiment will be described. The operation of the three-dimensional data measuring device 101 corresponds to the three-dimensional data processing method according to the present embodiment.

三次元データ処理装置130は、基準データと比較データとの差分を抽出する。基準データは、ある時点での三次元計測により得られた三次元データである。三次元データは、具体的には、三次元の点群データである。比較データは、基準データとは異なる時点での三次元計測により得られた三次元データである。ここでは、基準データを得るための三次元計測が行われた時点を「基準時点」、比較データを得るための三次元計測が行われた時点を「比較時点」と称する。比較時点は、本実施の形態では基準時点よりも後の時点であるが、基準時点よりも前の時点であってもよい。   The three-dimensional data processing device 130 extracts a difference between the reference data and the comparison data. The reference data is three-dimensional data obtained by three-dimensional measurement at a certain time. Specifically, the three-dimensional data is three-dimensional point cloud data. The comparison data is three-dimensional data obtained by three-dimensional measurement at a different time from the reference data. Here, the time point at which the three-dimensional measurement for obtaining the reference data is performed is referred to as “reference time point”, and the time point at which the three-dimensional measurement for obtaining the comparison data is performed is referred to as “comparison time point”. The comparison time point is a time point after the reference time point in the present embodiment, but may be a time point before the reference time point.

レーザスキャナ110は、比較データを得るための三次元計測を行う。具体的には、レーザスキャナ110は、計測台車102の周辺の三次元計測を行う。レーザスキャナ110は、三次元計測の結果をスキャンデータとして第1データ生成部132へ出力する。   The laser scanner 110 performs three-dimensional measurement for obtaining comparison data. Specifically, the laser scanner 110 performs three-dimensional measurement around the measurement carriage 102. The laser scanner 110 outputs the result of the three-dimensional measurement to the first data generation unit 132 as scan data.

カメラ120は、レーザスキャナ110による三次元計測と並行して画像を撮影する。具体的には、カメラ120は、計測台車102の周辺の画像を撮影する。カメラ120は、撮影した画像を撮影データとして画像認識部133へ出力する。   The camera 120 captures an image in parallel with the three-dimensional measurement by the laser scanner 110. Specifically, the camera 120 captures an image around the measurement carriage 102. The camera 120 outputs the captured image to the image recognition unit 133 as captured data.

データサーバ200は、三次元データ処理装置130で取得および処理された三次元の点群データ等を保存し、無線通信等でデータ記録部131へ送信する。   The data server 200 stores the three-dimensional point cloud data and the like acquired and processed by the three-dimensional data processing device 130 and transmits the data to the data recording unit 131 by wireless communication or the like.

データ記録部131は、データサーバ200から、パターン画像データと、パターンマッチング情報付きの基準データとを受信する。データ記録部131は、パターン画像データを画像認識部133へ、パターンマッチング情報付きの基準データを差分抽出部135へ出力する。また、データ記録部131は、受信したパターン画像データと、パターンマッチング情報付きの基準データとをメモリ142に保存する。   The data recording unit 131 receives pattern image data and reference data with pattern matching information from the data server 200. The data recording unit 131 outputs the pattern image data to the image recognition unit 133 and the reference data with pattern matching information to the difference extraction unit 135. The data recording unit 131 stores the received pattern image data and reference data with pattern matching information in the memory 142.

パターン画像データは、比較データを得るための三次元計測が行われる以前に、また、パターンマッチング情報付きの基準データは、基準データと比較データとの差分の抽出が行われる以前に、データ記録部131に保存される必要がある。   The pattern image data is recorded before the three-dimensional measurement for obtaining the comparison data, and the reference data with pattern matching information is recorded before the difference between the reference data and the comparison data is extracted. 131 need to be stored.

パターン画像データは、本実施の形態では、基準時点においてカメラ120により撮影された画像であるが、カメラ120とは異なる手段により得られた画像であってもよい。基準データは、本実施の形態では、基準時点におけるレーザスキャナ110による三次元計測の結果から得られた三次元の点群データであるが、レーザスキャナ110とは異なる手段により得られた三次元データであってもよい。   In the present embodiment, the pattern image data is an image taken by the camera 120 at the reference time, but may be an image obtained by means different from the camera 120. In this embodiment, the reference data is three-dimensional point group data obtained from the result of three-dimensional measurement by the laser scanner 110 at the reference time point. However, the three-dimensional data obtained by means different from the laser scanner 110 is used. It may be.

本実施の形態において、パターン画像データは、基準データを得るための三次元計測が行われた日時以降に形状および位置が変化している可能性が低い地物の画像である。パターン画像データの好適な例としては、信号機の画像、および、道路標識の画像がある。   In the present embodiment, the pattern image data is an image of a feature that is unlikely to change in shape and position after the date and time when three-dimensional measurement for obtaining reference data is performed. Preferable examples of the pattern image data include a traffic light image and a road sign image.

第1データ生成部132は、スキャンデータの入力を受ける。第1データ生成部132は、スキャンデータから三次元の点群データを生成し、第2データ生成部134へ出力する。   The first data generation unit 132 receives input of scan data. The first data generation unit 132 generates three-dimensional point group data from the scan data, and outputs it to the second data generation unit 134.

画像認識部133は、パターン画像データと、撮影データとの入力を受ける。画像認識部133は、画像認識の手法により、カメラ120から入力された撮影データから、事前にデータ記録部131によりメモリ142に保存されているパターン画像データにマッチしている箇所を抽出する。画像認識部133は、抽出した箇所の位置情報をパターンマッチング情報として第2データ生成部134へ出力する。画像認識の手法としては、テンプレートマッチング法等、任意の手法を用いることができる。   The image recognition unit 133 receives input of pattern image data and shooting data. The image recognizing unit 133 extracts a portion that matches the pattern image data stored in the memory 142 in advance by the data recording unit 131 from the photographing data input from the camera 120 by an image recognition method. The image recognition unit 133 outputs the extracted location information as pattern matching information to the second data generation unit 134. As an image recognition method, an arbitrary method such as a template matching method can be used.

このように、画像認識部133は、比較データを得るための三次元計測と並行して撮影された画像から、基準時点に存在する地物が比較時点でも存在するかどうかを判定する。画像認識部133は、任意の手法により、画像から地物を検出してよいが、本実施の形態では、パターンマッチングにより、画像から地物を検出する。   As described above, the image recognition unit 133 determines whether or not the feature existing at the reference time point also exists from the image photographed in parallel with the three-dimensional measurement for obtaining the comparison data. The image recognition unit 133 may detect the feature from the image by an arbitrary method, but in the present embodiment, the feature is detected from the image by pattern matching.

第2データ生成部134は、パターンマッチング情報と、三次元の点群データとの入力を受ける。第2データ生成部134は、三次元の点群データにパターンマッチング情報を紐付けて、パターンマッチング情報付きの比較データを生成し、差分抽出部135へ出力する。パターンマッチング情報の紐付けは、パターンマッチング情報に含まれるマッチング箇所の位置情報と、三次元の点群データに含まれる各点データが持っている位置情報とを比較して行われる。三次元の各点データに対しては、パターン画像データに該当する地物か否かを区別するパラメータであるパターン該当フラグが定義されている。パターンマッチング情報に含まれるマッチング箇所の位置情報と一致する点データに対応するパターン該当フラグは有効、その他は無効に設定される。   The second data generation unit 134 receives input of pattern matching information and three-dimensional point cloud data. The second data generation unit 134 associates pattern matching information with the three-dimensional point cloud data, generates comparison data with pattern matching information, and outputs the comparison data to the difference extraction unit 135. The pattern matching information is linked by comparing the position information of the matching portion included in the pattern matching information with the position information held by each point data included in the three-dimensional point cloud data. For each piece of three-dimensional point data, a pattern corresponding flag, which is a parameter for distinguishing whether or not the feature corresponds to the pattern image data, is defined. The pattern corresponding flag corresponding to the point data matching the position information of the matching portion included in the pattern matching information is set valid, and the others are set invalid.

差分抽出部135は、パターンマッチング情報付きの基準データと、パターンマッチング情報付きの比較データとの入力を受ける。差分抽出部135は、基準データと、比較データとの地物の位置情報を照合し、位置が一致しない点群データを、差分三次元点群データとしてメモリ142に保存する。メモリ142に保存された差分三次元点群データは、適宜外部に出力される。   The difference extraction unit 135 receives input of reference data with pattern matching information and comparison data with pattern matching information. The difference extraction unit 135 collates the position information of the feature with the reference data and the comparison data, and stores the point cloud data whose positions do not match in the memory 142 as the difference 3D point cloud data. The difference 3D point cloud data stored in the memory 142 is appropriately output to the outside.

図4を参照して、差分抽出部135の具体的な動作を説明する。   A specific operation of the difference extraction unit 135 will be described with reference to FIG.

ステップS1では、パターンマッチング地物個数取得処理が行われる。ステップS2では、パターンマッチング地物個数判定処理が行われる。ステップS3からステップS6では、照合範囲代入処理が行われる。ステップS7では、照合初期設定処理が行われる。ステップS8では、比較データ移動回転処理が行われる。ステップS9では、一致度計算処理が行われる。ステップS10では、終了フラグ判定処理が行われる。ステップS11では、差分抽出処理が行われる。   In step S1, pattern matching feature number acquisition processing is performed. In step S2, pattern matching feature number determination processing is performed. In step S3 to step S6, a collation range substitution process is performed. In step S7, collation initial setting processing is performed. In step S8, a comparison data movement / rotation process is performed. In step S9, a coincidence degree calculation process is performed. In step S10, an end flag determination process is performed. In step S11, a difference extraction process is performed.

ステップS1において、差分抽出部135は、第2データ生成部134の出力である比較データに紐付けられたパターンマッチング情報をもとに、パターンマッチングにより検出された地物の数Nを取得する。   In step S <b> 1, the difference extraction unit 135 acquires the number N of features detected by pattern matching based on the pattern matching information associated with the comparison data that is the output of the second data generation unit 134.

ステップS2において、差分抽出部135は、ステップS1で取得したNの値が0であるか、1であるか、2であるか、それとも3以上であるかを判定する。Nの値が0の場合は、ステップS3の照合範囲代入処理が行われる。Nの値が1の場合は、ステップS4の照合範囲代入処理が行われる。Nの値が2の場合は、ステップS5の照合範囲代入処理が行われる。Nの値が3以上の場合は、ステップS6の照合範囲代入処理が行われる。なお、ステップS2における判定条件に、パターンマッチングにより検出された地物の幾何学的な配置関係等の条件が加えられてもよい。また、処理の分岐数が、4つではなく、3つ以下または5つ以上でもよい。   In step S <b> 2, the difference extraction unit 135 determines whether the value of N acquired in step S <b> 1 is 0, 1, 2 or 3 or more. When the value of N is 0, the collation range substitution process of step S3 is performed. When the value of N is 1, the collation range substitution process of step S4 is performed. When the value of N is 2, the collation range substitution process of step S5 is performed. When the value of N is 3 or more, the collation range substitution process of step S6 is performed. In addition, conditions, such as the geometric arrangement relationship of the feature detected by pattern matching, may be added to the determination conditions in step S2. Further, the number of processing branches may be three or less or five or more instead of four.

ステップS3からステップS6において、差分抽出部135は、ステップS8で行う比較データの移動および回転の振れ幅の上限値を設定する。上限値が大きいほど、移動および回転の範囲が大きくなり、範囲が大きいほど、繰り返し処理を行う回数が多くなるため、計算量が多くなる。ステップS3からステップS6では、Nの個数により、異なる上限値が設定される。   In step S3 to step S6, the difference extraction unit 135 sets an upper limit value of the shift width of the comparison data movement and rotation performed in step S8. The larger the upper limit value is, the larger the range of movement and rotation is. The larger the range is, the larger the number of iterations is to be performed, resulting in a larger calculation amount. In steps S3 to S6, different upper limit values are set depending on the number of N.

ここでは、パターン画像データとして、形状および位置の変化の可能性が低い地物の画像が選ばれているため、パターン該当フラグが有効の点データは、パターン該当フラグが無効の点データに比べ、差分三次元点群データに入る確率が低い。そのため、パターンマッチングにより検出された地物の位置情報を用いることで、後の照合に要する処理数を制限することができる。   Here, since the image of the feature with a low possibility of change in shape and position is selected as the pattern image data, the point data in which the pattern corresponding flag is valid is compared with the point data in which the pattern corresponding flag is invalid, The probability of entering differential 3D point cloud data is low. Therefore, by using the position information of the features detected by pattern matching, the number of processes required for subsequent verification can be limited.

ステップS7において、差分抽出部135は、同一三次元空間上に、基準データと、比較データとを配置する。ステップS2でNが0以外と判定されている場合、すなわち、パターンマッチングにより検出された地物がある場合は、その地物が重なるように基準データと、比較データとが配置される。   In step S7, the difference extraction unit 135 arranges reference data and comparison data in the same three-dimensional space. If N is determined to be other than 0 in step S2, that is, if there is a feature detected by pattern matching, the reference data and the comparison data are arranged so that the feature overlaps.

ステップS8において、差分抽出部135は、ステップS3からステップS6のいずれかで設定した上限値を超えない範囲で、比較データを移動または回転させる。なお、比較データではなく、基準データが移動または回転させられてもよいし、基準データと比較データとの両方が移動または回転させられてもよい。   In step S8, the difference extraction unit 135 moves or rotates the comparison data within a range that does not exceed the upper limit set in any of steps S3 to S6. Note that not the comparison data but the reference data may be moved or rotated, or both the reference data and the comparison data may be moved or rotated.

ステップS9において、差分抽出部135は、基準データと、比較データとにおける点群データの一致度を計算する。   In step S9, the difference extraction unit 135 calculates the degree of coincidence of the point cloud data between the reference data and the comparison data.

ステップS10において、差分抽出部135は、終了フラグが有効であるか、それとも無効であるかを判定する。終了フラグが有効の場合は、ステップS11の差分抽出処理が行われる。終了フラグが無効の場合は、ステップS8の比較データ移動回転処理が再び行われる。終了フラグは、ステップS9で計算された一致度が一定の値以下になった場合に有効に設定されるものとする。なお、終了フラグは、一致度以外に、ステップS8の比較データ移動回転処理の繰り返し回数、基準データと比較データとの一致度の極限値、または、これらの複合条件に基づいて設定されてもよい。   In step S10, the difference extraction unit 135 determines whether the end flag is valid or invalid. If the end flag is valid, the difference extraction process in step S11 is performed. If the end flag is invalid, the comparison data movement / rotation process in step S8 is performed again. The end flag is set to be valid when the degree of coincidence calculated in step S9 is below a certain value. The end flag may be set based on the number of repetitions of the comparison data movement / rotation process in step S8, the limit value of the degree of coincidence between the reference data and the comparison data, or a composite condition thereof, in addition to the degree of coincidence. .

ステップS11において、差分抽出部135は、ステップS10までで重ねた基準データと、比較データとにおいて、重ならない点群データを差分として抽出する。   In step S11, the difference extraction unit 135 extracts point cloud data that does not overlap as a difference in the reference data and the comparison data overlapped up to step S10.

このように、差分抽出部135は、画像認識部133の判定結果によって広狭の異なる範囲内で比較データを調整することにより、基準データと比較データとの位置合わせを行ってから、基準データと比較データとの差分を抽出する。具体的には、差分抽出部135は、画像認識部133により基準時点に存在する地物が比較時点でも存在すると判定された場合、ステップS7で基準データと比較データとにおける地物の位置を一致させる調整をしてから、ステップS8で上記範囲内での調整をすることにより、基準データと比較データとの位置合わせを行う。そして、差分抽出部135は、ステップS9以降で基準データと比較データとの差分を抽出する。なお、差分抽出部135は、基準データと比較データとの位置合わせを行う際に、比較データを調整する代わりに、基準データを調整してもよいし、基準データと比較データとの両方を調整してもよい。すなわち、差分抽出部135は、基準データと比較データとの少なくともいずれか調整すればよい。   As described above, the difference extraction unit 135 adjusts the comparison data within different ranges depending on the determination result of the image recognition unit 133 to align the reference data with the comparison data, and then compares the comparison data with the reference data. Extract differences from data. Specifically, if the image recognition unit 133 determines that the feature existing at the reference time is also present at the comparison time, the difference extraction unit 135 matches the position of the feature in the reference data and the comparison data in step S7. After the adjustment to be performed, the reference data and the comparison data are aligned by adjusting within the above range in step S8. And the difference extraction part 135 extracts the difference of reference | standard data and comparison data after step S9. Note that the difference extraction unit 135 may adjust the reference data instead of adjusting the comparison data when aligning the reference data and the comparison data, or adjust both the reference data and the comparison data. May be. That is, the difference extraction unit 135 may adjust at least one of the reference data and the comparison data.

本実施の形態では、差分抽出部135は、画像認識部133により基準時点に存在する地物として比較時点でも存在すると判定された物の数に応じて、比較データの調整の範囲を設定する。具体的には、差分抽出部135は、画像認識部133により基準時点に存在する地物として比較時点でも存在すると判定された物の数を段階分けし、当該地物の数が多い段階ほど、ステップS8における比較データの調整の範囲を狭く設定する。なお、本実施の形態では、4段階の段階分けが行われるが、3段階以下、あるいは、5段階以上の段階分けが行われてもよい。   In the present embodiment, the difference extraction unit 135 sets the range of adjustment of the comparison data according to the number of objects that are determined by the image recognition unit 133 to exist at the comparison time as the features existing at the reference time. Specifically, the difference extraction unit 135 divides the number of objects determined by the image recognition unit 133 to exist at the comparison time as the features existing at the reference time, and the comparison in step S8 is performed as the number of the features increases. Set the data adjustment range narrow. In this embodiment, four stages are divided, but three stages or less, or five stages or more may be performed.

***実施の形態の効果の説明***
本実施の形態では、基準データと比較データとの差分を抽出する際に、画像認識機能を活用することで、差分の抽出精度を劣化させることなく、演算量の増大を抑制することができる。
*** Explanation of the effect of the embodiment ***
In the present embodiment, when the difference between the reference data and the comparison data is extracted, an increase in the amount of calculation can be suppressed without degrading the difference extraction accuracy by utilizing the image recognition function.

本実施の形態では、三次元データ計測機101が、画像認識、三次元データ生成、および、複数三次元データの差分抽出を行うための計算機である三次元データ処理装置130と、道路上の地物の位置情報を取得するためのレーザスキャナ110と、道路上の地物を撮影するカメラ120とを備える。三次元データ処理装置130は、事前に入力されたパターン画像データをもとに、撮影データから地物の画像を抽出する画像認識部133を備える。三次元データ処理装置130は、さらに、三次元データの点群に含まれる各点の位置情報と、パターンマッチングにより検出された地物の位置情報とを紐付ける第1データ生成部132を備える。三次元データ処理装置130は、さらに、事前に生成されたパターンマッチング情報付きの三次元データと、計測により得られたパターンマッチング情報付きの三次元データとを比較することで、時間経過により生じた差分を抽出する差分抽出部135を備える。差分抽出部135は、比較する三次元データ間で一致する地物の有無によって、比較する三次元データの照合範囲に制限をかけることで演算量の増大を抑える。このような構成を採用したことにより、本実施の形態では、三次元データの照合が困難となるような、差分を多く含む三次元データについても、照合の計算量を低減し、かつ、照合の成立性を確保することができる。   In the present embodiment, the three-dimensional data measuring machine 101 includes a three-dimensional data processing device 130 that is a computer for performing image recognition, three-dimensional data generation, and differential extraction of a plurality of three-dimensional data, and a ground on a road. A laser scanner 110 for acquiring position information of an object and a camera 120 for photographing a feature on a road are provided. The three-dimensional data processing apparatus 130 includes an image recognition unit 133 that extracts an image of a feature from photographed data based on pattern image data input in advance. The three-dimensional data processing device 130 further includes a first data generation unit 132 that associates position information of each point included in the point group of the three-dimensional data with position information of the feature detected by pattern matching. The three-dimensional data processing device 130 is further generated over time by comparing the three-dimensional data with pattern matching information generated in advance with the three-dimensional data with pattern matching information obtained by measurement. A difference extraction unit 135 for extracting the difference is provided. The difference extraction unit 135 suppresses an increase in the amount of calculation by limiting the collation range of the three-dimensional data to be compared depending on the presence or absence of features that match between the three-dimensional data to be compared. By adopting such a configuration, in the present embodiment, it is possible to reduce the amount of collation for three-dimensional data including a large amount of differences and make it difficult to collate three-dimensional data. The feasibility can be secured.

本実施の形態では、MMSにおける三次元地図生成に画像認識技術を採り入れることで、三次元地図間で位置および形状の変化が少ない地物を検出することができる。そして、そのような時間経過による変化が少ない地物の有無または個数等の情報から、照合処理における繰り返し処理の回数に制限をかけることで、処理時間の短縮、および、処理の発散の防止を可能とし、変化点の抽出精度の劣化を抑制することができる。   In the present embodiment, by adopting an image recognition technique for generating a 3D map in MMS, it is possible to detect a feature with little change in position and shape between 3D maps. And, by limiting the number of repetitive processes in the collation process from information such as the presence / absence or number of features that change little over time, processing time can be reduced and process divergence can be prevented. As a result, it is possible to suppress deterioration in extraction accuracy of change points.

***他の構成***
三次元データ処理装置130は、計測車両100の外部に設置されてもよい。また、三次元データ処理装置130は、複数の計算機で構成され、各計算機で処理を分担してもよい。
*** Other configurations ***
The three-dimensional data processing device 130 may be installed outside the measurement vehicle 100. The three-dimensional data processing apparatus 130 may be composed of a plurality of computers, and each computer may share processing.

本実施の形態では、データ記録部131、第1データ生成部132、画像認識部133、第2データ生成部134および差分抽出部135の機能がソフトウェアにより実現されるが、変形例として、データ記録部131、第1データ生成部132、画像認識部133、第2データ生成部134および差分抽出部135の機能がソフトウェアとハードウェアとの組み合わせにより実現されてもよい。すなわち、データ記録部131、第1データ生成部132、画像認識部133、第2データ生成部134および差分抽出部135の機能の一部が専用の電子回路により実現され、残りがソフトウェアにより実現されてもよい。この変形例について、主に本実施の形態との差異を説明する。   In the present embodiment, the functions of the data recording unit 131, the first data generation unit 132, the image recognition unit 133, the second data generation unit 134, and the difference extraction unit 135 are realized by software. The functions of the unit 131, the first data generation unit 132, the image recognition unit 133, the second data generation unit 134, and the difference extraction unit 135 may be realized by a combination of software and hardware. That is, some of the functions of the data recording unit 131, the first data generation unit 132, the image recognition unit 133, the second data generation unit 134, and the difference extraction unit 135 are realized by a dedicated electronic circuit, and the rest are realized by software. May be. About this modification, the difference with this Embodiment is mainly demonstrated.

専用の電子回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、FPGAまたはASICである。「GA」は、Gate Arrayの略語である。「FPGA」は、Field−Programmable Gate Arrayの略語である。「ASIC」は、Application Specific Integrated Circuitの略語である。   The dedicated electronic circuit is, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, a logic IC, a GA, an FPGA, or an ASIC. “GA” is an abbreviation for Gate Array. “FPGA” is an abbreviation for Field-Programmable Gate Array. “ASIC” is an abbreviation for Application Specific Integrated Circuit.

プロセッサ141、メモリ142および専用の電子回路を、総称して「プロセッシングサーキットリ」という。つまり、データ記録部131、第1データ生成部132、画像認識部133、第2データ生成部134および差分抽出部135の機能がソフトウェアにより実現されるか、ソフトウェアとハードウェアとの組み合わせにより実現されるかに関わらず、データ記録部131、第1データ生成部132、画像認識部133、第2データ生成部134および差分抽出部135の機能は、プロセッシングサーキットリにより実現される。   The processor 141, the memory 142, and the dedicated electronic circuit are collectively referred to as a “processing circuit”. That is, the functions of the data recording unit 131, the first data generation unit 132, the image recognition unit 133, the second data generation unit 134, and the difference extraction unit 135 are realized by software, or by a combination of software and hardware. Regardless of this, the functions of the data recording unit 131, the first data generation unit 132, the image recognition unit 133, the second data generation unit 134, and the difference extraction unit 135 are realized by a processing circuit.

三次元データ処理装置130の「装置」を「方法」に読み替え、データ記録部131、第1データ生成部132、画像認識部133、第2データ生成部134および差分抽出部135の「部」を「工程」に読み替えてもよい。あるいは、三次元データ処理装置130の「装置」を「プログラム」、「プログラムプロダクト」または「プログラムを記録したコンピュータ読取可能な媒体」に読み替え、データ記録部131、第1データ生成部132、画像認識部133、第2データ生成部134および差分抽出部135の「部」を「手順」または「処理」に読み替えてもよい。   The “device” of the three-dimensional data processing device 130 is read as “method”, and the “data” of the data recording unit 131, the first data generation unit 132, the image recognition unit 133, the second data generation unit 134, and the difference extraction unit 135 is replaced. It may be read as “process”. Alternatively, the “device” of the three-dimensional data processing device 130 is replaced with “program”, “program product”, or “computer-readable medium on which the program is recorded”, and the data recording unit 131, the first data generation unit 132, and image recognition The “part” of the part 133, the second data generation part 134, and the difference extraction part 135 may be read as “procedure” or “processing”.

100 計測車両、101 三次元データ計測機、102 計測台車、110 レーザスキャナ、120 カメラ、130 三次元データ処理装置、131 データ記録部、132 第1データ生成部、133 画像認識部、134 第2データ生成部、135 差分抽出部、141 プロセッサ、142 メモリ、200 データサーバ。   DESCRIPTION OF SYMBOLS 100 Measuring vehicle, 101 Three-dimensional data measuring machine, 102 Measuring cart, 110 Laser scanner, 120 Camera, 130 Three-dimensional data processing apparatus, 131 Data recording part, 132 1st data generation part, 133 Image recognition part, 134 2nd data Generation unit, 135 difference extraction unit, 141 processor, 142 memory, 200 data server.

Claims (7)

ある時点での三次元計測により得られた三次元データである基準データと、前記基準データとは異なる時点での三次元計測により得られた三次元データである比較データとの差分を抽出する三次元データ処理装置において、
前記比較データを得るための三次元計測と並行して撮影された画像から、前記基準データを得るための三次元計測が行われた時点で存在する地物が前記比較データを得るための三次元計測が行われた時点でも存在するかどうかを判定する画像認識部と、
前記画像認識部の判定結果によって広狭の異なる範囲内で前記基準データと前記比較データとの少なくともいずれかを調整することにより、前記基準データと前記比較データとの位置合わせを行ってから、前記基準データと前記比較データとの差分を抽出する差分抽出部と
を備える三次元データ処理装置。
A tertiary that extracts a difference between reference data that is three-dimensional data obtained by three-dimensional measurement at a certain time point and comparison data that is three-dimensional data obtained by three-dimensional measurement at a time point different from the reference data. In the original data processing device,
A feature existing at the time when the three-dimensional measurement for obtaining the reference data is performed from an image photographed in parallel with the three-dimensional measurement for obtaining the comparison data is a three-dimensional for obtaining the comparison data. An image recognition unit that determines whether or not it exists even at the time of measurement;
The reference data and the comparison data are aligned by adjusting at least one of the reference data and the comparison data within a wide and narrow range depending on the determination result of the image recognition unit, and then the reference data A three-dimensional data processing apparatus comprising a difference extraction unit that extracts a difference between data and the comparison data.
前記差分抽出部は、前記画像認識部により前記地物が前記比較データを得るための三次元計測が行われた時点でも存在すると判定された場合、前記基準データと前記比較データとにおける前記地物の位置を一致させる調整をしてから前記範囲内での調整をすることにより、前記基準データと前記比較データとの位置合わせを行う請求項1に記載の三次元データ処理装置。   The difference extraction unit, when it is determined that the feature is present even at the time when the feature is obtained by the three-dimensional measurement for obtaining the comparison data, the feature in the reference data and the comparison data The three-dimensional data processing apparatus according to claim 1, wherein the reference data and the comparison data are aligned by adjusting the positions so as to coincide with each other and then adjusting within the range. 前記差分抽出部は、前記画像認識部により前記地物として前記比較データを得るための三次元計測が行われた時点でも存在すると判定された物の数に応じて前記範囲を設定する請求項1または2に記載の三次元データ処理装置。   The difference extraction unit sets the range according to the number of objects determined to exist even when the image recognition unit performs the three-dimensional measurement for obtaining the comparison data as the feature. The three-dimensional data processing device described in 1. 前記差分抽出部は、前記画像認識部により前記地物として前記比較データを得るための三次元計測が行われた時点でも存在すると判定された物の数を段階分けし、前記地物の数が多い段階ほど、前記範囲を狭く設定する請求項1から3のいずれか1項に記載の三次元データ処理装置。   The difference extraction unit divides the number of objects determined to exist even when the image recognition unit performs the three-dimensional measurement for obtaining the comparison data as the features, and the more the number of the features, The three-dimensional data processing apparatus according to any one of claims 1 to 3, wherein the range is set narrow. 前記画像認識部は、パターンマッチングにより、前記画像から前記地物を検出する請求項1から4のいずれか1項に記載の三次元データ処理装置。   The three-dimensional data processing apparatus according to any one of claims 1 to 4, wherein the image recognition unit detects the feature from the image by pattern matching. 請求項1から5のいずれか1項に記載の三次元データ処理装置と、
前記比較データを得るための三次元計測を行うレーザスキャナと、
前記レーザスキャナによる三次元計測と並行して前記画像を撮影するカメラと
を備える三次元データ計測機。
A three-dimensional data processing device according to any one of claims 1 to 5,
A laser scanner that performs three-dimensional measurement to obtain the comparison data;
A three-dimensional data measuring machine comprising: a camera that captures the image in parallel with the three-dimensional measurement by the laser scanner.
ある時点での三次元計測により得られた三次元データである基準データと、前記基準データとは異なる時点での三次元計測により得られた三次元データである比較データとの差分を抽出する三次元データ処理方法において、
カメラが、前記比較データを得るための三次元計測と並行して画像を撮影し、
計算機が、前記画像から、前記基準データを得るための三次元計測が行われた時点で存在する地物が前記比較データを得るための三次元計測が行われた時点でも存在するかどうかを判定し、判定結果によって広狭の異なる範囲内で前記基準データと前記比較データとの少なくともいずれかを調整することにより、前記基準データと前記比較データとの位置合わせを行ってから、前記基準データと前記比較データとの差分を抽出する三次元データ処理方法。
A tertiary that extracts a difference between reference data that is three-dimensional data obtained by three-dimensional measurement at a certain time point and comparison data that is three-dimensional data obtained by three-dimensional measurement at a time point different from the reference data. In the original data processing method,
The camera takes an image in parallel with the three-dimensional measurement for obtaining the comparison data,
The computer determines from the image whether a feature existing at the time when the three-dimensional measurement for obtaining the reference data is performed also exists at the time when the three-dimensional measurement for obtaining the comparison data is performed. Then, after adjusting the reference data and the comparison data by adjusting at least one of the reference data and the comparison data within different ranges depending on the determination result, the reference data and the comparison data A three-dimensional data processing method for extracting a difference from comparison data.
JP2017008233A 2017-01-20 2017-01-20 Three-dimensional data processing apparatus, three-dimensional data measuring machine, and three-dimensional data processing method Pending JP2018116005A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017008233A JP2018116005A (en) 2017-01-20 2017-01-20 Three-dimensional data processing apparatus, three-dimensional data measuring machine, and three-dimensional data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017008233A JP2018116005A (en) 2017-01-20 2017-01-20 Three-dimensional data processing apparatus, three-dimensional data measuring machine, and three-dimensional data processing method

Publications (1)

Publication Number Publication Date
JP2018116005A true JP2018116005A (en) 2018-07-26

Family

ID=62985394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017008233A Pending JP2018116005A (en) 2017-01-20 2017-01-20 Three-dimensional data processing apparatus, three-dimensional data measuring machine, and three-dimensional data processing method

Country Status (1)

Country Link
JP (1) JP2018116005A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021075373A1 (en) * 2019-10-18 2021-04-22 ソニー株式会社 Information processing system, information processing method, and information processing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021075373A1 (en) * 2019-10-18 2021-04-22 ソニー株式会社 Information processing system, information processing method, and information processing device

Similar Documents

Publication Publication Date Title
US20210192202A1 (en) Recognizing text in image data
WO2020173008A1 (en) Text recognition method and apparatus
US9002066B2 (en) Methods, systems and processor-readable media for designing a license plate overlay decal having infrared annotation marks
US10438086B2 (en) Image information recognition processing method and device, and computer storage medium
CN106447592B (en) Online personalization service per feature descriptor
US20140334733A1 (en) Efficient image matching for large sets of images
US10311099B2 (en) Method and system for 3D model database retrieval
US20130004076A1 (en) System and method for recognizing text information in object
JP2008217347A (en) License plate recognition device, its control method and computer program
US20210333124A1 (en) Method and system for detecting changes in road-layout information
JP2014531097A (en) Text detection using multi-layer connected components with histograms
JP2019520662A (en) Content-based search and retrieval of trademark images
WO2014014640A1 (en) Method of handling complex variants of words through prefix-tree based decoding for devanagiri ocr
US20200005078A1 (en) Content aware forensic detection of image manipulations
US10509934B1 (en) Methods and apparatus for improving QR code locator detectability and/or finding the corners of a locator pattern
KR20210113620A (en) Object recognition method and device, electronic device, storage medium
US11734799B2 (en) Point cloud feature enhancement and apparatus, computer device and storage medium
JP6163868B2 (en) Image processing method, image processing apparatus, and image processing program
KR102319492B1 (en) AI Deep learning based senstive information management method and system from images
JP2018116005A (en) Three-dimensional data processing apparatus, three-dimensional data measuring machine, and three-dimensional data processing method
JP2011107878A (en) Position detection apparatus and position detection method
US10853972B2 (en) Apparatus for processing image and method thereof
CN110880023A (en) Method and device for detecting certificate picture
JP6757203B2 (en) Image detector, its control method, and program
JP5414631B2 (en) Character string search method, character string search device, and recording medium