JP6876484B2 - Data processing equipment, data processing methods, and programs - Google Patents
Data processing equipment, data processing methods, and programs Download PDFInfo
- Publication number
- JP6876484B2 JP6876484B2 JP2017067006A JP2017067006A JP6876484B2 JP 6876484 B2 JP6876484 B2 JP 6876484B2 JP 2017067006 A JP2017067006 A JP 2017067006A JP 2017067006 A JP2017067006 A JP 2017067006A JP 6876484 B2 JP6876484 B2 JP 6876484B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- point
- point cloud
- dimensional
- cloud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 74
- 238000003672 processing method Methods 0.000 title claims description 11
- 230000005484 gravity Effects 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 24
- 238000006243 chemical reaction Methods 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 13
- 239000003973 paint Substances 0.000 claims description 10
- 238000005259 measurement Methods 0.000 description 35
- 239000000284 extract Substances 0.000 description 6
- 230000009467 reduction Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Description
本発明は、外界センサにより取得した点群データの処理に関する。 The present invention relates to processing of point cloud data acquired by an external sensor.
近年、3Dライダ(LiDAR:Light Detection and Ranging)などにより生成した3D点群データに基づいて、地図データを生成することが行われている。一般的に、同一の道路などの点群データを繰り返し取得し、地図データの精度を向上させるが、計測した点群データには、センサの性能限界などに起因して誤差が含まれるため、別の日程、時間帯など、計測条件が異なる場合、同一の地点で取得した点群データにずれが発生しうる。 In recent years, map data has been generated based on 3D point cloud data generated by a 3D lidar (LiDAR: Light Detection and Ringing) or the like. Generally, point cloud data such as the same road is repeatedly acquired to improve the accuracy of map data, but the measured point cloud data contains errors due to sensor performance limits, etc., so it is different. If the measurement conditions are different, such as the schedule and time of day, the point cloud data acquired at the same point may be out of sync.
この場合に、それぞれの点群データの中の同一地点に対応する点同士を紐付けた後、点群データを移動・回転・拡大/縮小させて、点群データ間のずれを解消する方法があるが、これには以下のような課題がある。即ち、3D空間から任意の1点を決定するのは難しく、十分な数の対応点が得られない。また、自動抽出では十分に正確な対応が得られない。さらには、全ての点を対象とすると処理コストが膨大となる。 In this case, a method of associating points corresponding to the same point in each point cloud data and then moving / rotating / enlarging / reducing the point cloud data to eliminate the deviation between the point cloud data. However, this has the following problems. That is, it is difficult to determine an arbitrary one point from the 3D space, and a sufficient number of corresponding points cannot be obtained. In addition, automatic extraction does not provide a sufficiently accurate response. Furthermore, if all points are targeted, the processing cost becomes enormous.
これに関連し、特許文献1は、3次元点群データを2次元グリッドに投票して路面画像を生成し、複数の路面画像の相対位置関係を表す変形量を推定する手法を記載している。 In relation to this, Patent Document 1 describes a method of voting three-dimensional point cloud data in a two-dimensional grid to generate a road surface image and estimating a deformation amount representing a relative positional relationship of a plurality of road surface images. ..
しかし、特許文献1の手法では、路面画像の相対位置関係を示す変形量を推定するために、マッチングコストに基づくコスト計算を行っているため、演算量が膨大となりコスト高となるという問題がある。 However, in the method of Patent Document 1, since the cost calculation based on the matching cost is performed in order to estimate the deformation amount indicating the relative positional relationship of the road surface image, there is a problem that the calculation amount becomes enormous and the cost becomes high. ..
本発明の解決しようとする課題としては、上記のものが一例として挙げられる。本発明は、演算量を抑制しつつ、複数の3D点群データ間の位置ずれを調整することが可能なデータ処理装置を提供することを目的とする。 As an example of the problem to be solved by the present invention, the above is given as an example. An object of the present invention is to provide a data processing apparatus capable of adjusting a positional deviation between a plurality of 3D point cloud data while suppressing a calculation amount.
請求項1に記載の発明は、データ処理装置であって、第1及び第2の3次元点群データを取得する取得部と、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部と、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部と、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部と、を備え、前記第1生成部は、前記第1画素に含まれる点群のうち当該第1画素の輝度に最も近い輝度を有する点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち当該第2画素の輝度に最も近い輝度を有する点を前記第2画素における代表点とする。
請求項2に記載の発明は、データ処理装置であって、第1及び第2の3次元点群データを取得する取得部と、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部と、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部と、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部と、を備え、前記第1生成部は、前記第1画素に含まれる点群のうち重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち重心位置に最も近い点を前記第2画素における代表点とする。
請求項3に記載の発明は、データ処理装置であって、第1及び第2の3次元点群データを取得する取得部と、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部と、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部と、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部と、を備え、前記第1生成部は、前記第1画素に含まれる点群のうち、当該第1画素に含まれる特徴領域の重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち、当該第2画素に含まれる特徴領域の重心位置に最も近い点を前記第2画素における代表点とする。
The invention according to claim 1 is a data processing apparatus, wherein an acquisition unit that acquires first and second three-dimensional point cloud data and the first and second three-dimensional point cloud data are first. And the conversion unit that converts to the second two-dimensional image, and the first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted. Then, the first generation unit that generates the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, and the first three-dimensional point cloud data based on the first information. A second generation unit that generates second information indicating the positional relationship between the second three-dimensional point cloud and the second three-dimensional point cloud data is provided , and the first generation unit is the point cloud included in the first pixel. The point having the brightness closest to the brightness of the first pixel is a representative point in the first pixel, and the point having the brightness closest to the brightness of the second pixel among the point cloud included in the second pixel is the second point. It is a representative point in the pixel .
The invention according to claim 2 is a data processing apparatus, wherein an acquisition unit that acquires first and second three-dimensional point cloud data and the first and second three-dimensional point cloud data are first. And the conversion unit that converts to the second two-dimensional image, and the first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted. Then, the first generation unit that generates the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, and the first three-dimensional point cloud data based on the first information. A second generation unit that generates second information indicating the positional relationship between the second three-dimensional point cloud and the second three-dimensional point cloud data is provided, and the first generation unit is the center of gravity of the point cloud included in the first pixel. The point closest to the position is designated as the representative point in the first pixel, and the point closest to the position of the center of gravity in the point cloud included in the second pixel is designated as the representative point in the second pixel.
The invention according to claim 3 is a data processing apparatus, wherein an acquisition unit that acquires first and second three-dimensional point cloud data and the first and second three-dimensional point cloud data are first. And the conversion unit that converts to the second two-dimensional image, and the first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted. Then, the first generation unit that generates the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, and the first three-dimensional point cloud data based on the first information. A second generation unit that generates second information indicating the positional relationship between the second three-dimensional point cloud and the second three-dimensional point cloud data is provided, and the first generation unit is one of the point clouds included in the first pixel. The point closest to the position of the center of gravity of the feature region included in the first pixel is set as a representative point in the first pixel, and the position of the center of gravity of the feature region included in the second pixel among the point cloud included in the second pixel is set. The point closest to is designated as a representative point in the second pixel.
請求項7に記載の発明は、データ処理装置により実行されるデータ処理方法であって、第1及び第2の3次元点群データを取得する取得工程と、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換工程と、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成工程と、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成工程と、を備え、前記第1生成工程は、前記第1画素に含まれる点群のうち当該第1画素の輝度に最も近い輝度を有する点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち当該第2画素の輝度に最も近い輝度を有する点を前記第2画素における代表点とする。
請求項8に記載の発明は、データ処理装置により実行されるデータ処理方法であって、第1及び第2の3次元点群データを取得する取得工程と、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換工程と、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成工程と、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成工程と、を備え、前記第1生成工程は、前記第1画素に含まれる点群のうち重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち重心位置に最も近い点を前記第2画素における代表点とする。
請求項9に記載の発明は、データ処理装置により実行されるデータ処理方法であって、第1及び第2の3次元点群データを取得する取得工程と、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換工程と、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成工程と、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成工程と、を備え、前記第1生成工程は、前記第1画素に含まれる点群のうち、当該第1画素に含まれる特徴領域の重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち、当該第2画素に含まれる特徴領域の重心位置に最も近い点を前記第2画素における代表点とする。
The invention according to claim 7 is a data processing method executed by a data processing apparatus, which includes an acquisition step of acquiring first and second three-dimensional point cloud data, and the first and second three-dimensional aspects. In the conversion step of converting the point cloud data into the first and second two-dimensional images, and in the first pixel and the second two-dimensional image in the first two-dimensional image corresponding to the same feature points. The first generation step of extracting the second pixel of the above and generating the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, and the first generation step based on the first information. The first generation step includes a second generation step of generating a second information indicating a positional relationship between the three-dimensional point cloud data of 1 and the second three-dimensional point cloud data, and the first generation step is performed on the first pixel. The point having the brightness closest to the brightness of the first pixel in the included point cloud is set as the representative point in the first pixel, and the brightness closest to the brightness of the second pixel in the point group included in the second pixel. Is a representative point in the second pixel .
The invention according to claim 8 is a data processing method executed by a data processing apparatus, which includes an acquisition step of acquiring first and second three-dimensional point group data, and the first and second three-dimensional data. In the conversion step of converting the point group data into the first and second two-dimensional images, and in the first pixel and the second two-dimensional image in the first two-dimensional image corresponding to the same feature points. The first generation step of extracting the second pixel of the above and generating the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, and the first generation step based on the first information. The first generation step includes a second generation step of generating a second information indicating a positional relationship between the three-dimensional point group data of 1 and the second three-dimensional point group data, and the first generation step is performed on the first pixel. The point closest to the center of gravity position among the included point groups is designated as the representative point in the first pixel, and the point closest to the center of gravity position among the point groups included in the second pixel is designated as the representative point in the second pixel.
The invention according to claim 9 is a data processing method executed by a data processing apparatus, which includes an acquisition step of acquiring first and second three-dimensional point group data, and the first and second three-dimensional data. In the conversion step of converting the point group data into the first and second two-dimensional images, and in the first pixel and the second two-dimensional image in the first two-dimensional image corresponding to the same feature points. The first generation step of extracting the second pixel of the above and generating the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, and the first generation step based on the first information. The first generation step includes a second generation step of generating a second information indicating a positional relationship between the three-dimensional point group data of 1 and the second three-dimensional point group data, and the first generation step is performed on the first pixel. Among the included point groups, the point closest to the position of the center of gravity of the feature region included in the first pixel is set as a representative point in the first pixel, and among the point groups included in the second pixel, the second pixel The point closest to the position of the center of gravity of the included feature region is set as a representative point in the second pixel .
請求項10に記載の発明は、コンピュータを備えるデータ処理装置により実行されるプログラムであって、第1及び第2の3次元点群データを取得する取得部、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部、として前記コンピュータを機能させ、前記第1生成部は、前記第1画素に含まれる点群のうち当該第1画素の輝度に最も近い輝度を有する点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち当該第2画素の輝度に最も近い輝度を有する点を前記第2画素における代表点とする。
請求項11に記載の発明は、コンピュータを備えるデータ処理装置により実行されるプログラムであって、第1及び第2の3次元点群データを取得する取得部、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部、として前記コンピュータを機能させ、前記第1生成部は、前記第1画素に含まれる点群のうち重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち重心位置に最も近い点を前記第2画素における代表点とする。
請求項12に記載の発明は、コンピュータを備えるデータ処理装置により実行されるプログラムであって、第1及び第2の3次元点群データを取得する取得部、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部、として前記コンピュータを機能させ、前記第1生成部は、前記第1画素に含まれる点群のうち、当該第1画素に含まれる特徴領域の重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち、当該第2画素に含まれる特徴領域の重心位置に最も近い点を前記第2画素における代表点とする。
The invention according to
The invention according to claim 11 is a program executed by a data processing device including a computer, and is an acquisition unit for acquiring first and second three-dimensional point cloud data, the first and second three dimensions. A conversion unit that converts point cloud data into first and second two-dimensional images, a first pixel in the first two-dimensional image and a second two-dimensional image corresponding to the same feature point. The first generation unit that extracts the second pixel and generates the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, the first generation unit based on the first information. The computer is operated as a second generation unit that generates second information indicating the positional relationship between the three-dimensional point cloud data and the second three-dimensional point cloud data, and the first generation unit is the first pixel. The point closest to the center of gravity position in the point cloud included in the first pixel is the representative point in the first pixel, and the point closest to the center of gravity position in the second pixel is the representative point in the second pixel. ..
The invention according to
本発明の好適な実施形態では、データ処理装置は、第1及び第2の3次元点群データを取得する取得部と、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部と、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部と、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部と、を備える。 In a preferred embodiment of the present invention, the data processing apparatus obtains the first and second three-dimensional point group data and the first and second three-dimensional point group data. The conversion unit that converts the two two-dimensional images and the first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature points are extracted. The first generation unit that generates the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, and the first three-dimensional point group data and the said based on the first information. It includes a second generation unit that generates second information indicating a positional relationship with the second three-dimensional point group data.
上記のデータ処理装置は、第1及び第2の3次元点群データを取得し、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する。次に、同一の特徴点に対応する、第1の2次元画像中の第1画素と第2の2次元画像中の第2画素とを抽出し、それら第1画素と第2画素の各々における代表点の位置関係を示す第1情報を生成する。さらに、前記第1情報に基づいて、第1の3次元点群データと第2の3次元点群データとの位置関係を示す第2情報を生成する。 The above data processing apparatus acquires the first and second three-dimensional point cloud data, and converts the first and second three-dimensional point cloud data into the first and second two-dimensional images. Next, the first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. The first information indicating the positional relationship of the representative points is generated. Further, based on the first information, second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data is generated.
このように、上記のデータ処理装置は、3次元点群データを2次元画像に変換し、同一の特徴点に対応する2次元画像中の画素間の位置関係を検出し、これに基づいて3次元点群データ間の位置関係を検出する。よって、演算量を抑制しつつ、点群データ間の位置調整を行うことが可能となる。 As described above, the above-mentioned data processing device converts the three-dimensional point cloud data into a two-dimensional image, detects the positional relationship between the pixels in the two-dimensional image corresponding to the same feature point, and based on this, 3 Detect the positional relationship between the 3D point cloud data. Therefore, it is possible to adjust the position between the point cloud data while suppressing the amount of calculation.
上記のデータ処理装置の一態様では、前記第1生成部は、前記第1画素に含まれる点群のうち当該第1画素の輝度に最も近い輝度を有する点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち当該第2画素の輝度に最も近い輝度を有する点を前記第2画素における代表点とする。 In one aspect of the above data processing apparatus, the first generation unit uses a point having a brightness closest to the brightness of the first pixel among the point cloud included in the first pixel as a representative point in the first pixel. A point cloud having a brightness closest to the brightness of the second pixel among the point cloud included in the second pixel is set as a representative point in the second pixel.
上記のデータ処理装置の他の一態様では、前記第1生成部は、前記第1画素に含まれる点群のうち重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち重心位置に最も近い点を前記第2画素における代表点とする。 In another aspect of the above data processing apparatus, the first generation unit uses the point closest to the position of the center of gravity of the point cloud included in the first pixel as a representative point in the first pixel, and the second pixel. The point closest to the position of the center of gravity among the point cloud included in the second pixel is set as a representative point in the second pixel.
上記のデータ処理装置の他の一態様では、前記第1生成部は、前記第1画素に含まれる点群のうち、当該第1画素に含まれる特徴領域の重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち、当該第2画素に含まれる特徴領域の重心位置に最も近い点を前記第2画素における代表点とする。 In another aspect of the data processing apparatus, the first generation unit sets the point closest to the center of gravity of the feature region included in the first pixel among the point cloud included in the first pixel. The representative point in one pixel is defined as the representative point in the second pixel, and the point closest to the position of the center of gravity of the feature region included in the second pixel is defined as the representative point in the second pixel.
上記のデータ処理装置において、好適には、前記3次元点群データは、外界センサにより道路面上で検出されたデータであり、前記特徴領域は、道路面上のペイントの領域である。また、好適には、前記特徴点は、前記ペイントの角に相当する点である。 In the above data processing apparatus, preferably, the three-dimensional point cloud data is data detected on the road surface by an external sensor, and the feature area is a paint area on the road surface. Also, preferably, the feature point is a point corresponding to the corner of the paint.
上記のデータ処理装置の他の一態様は、前記第2情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置ずれを調整する位置調整部を備える。この態様では、第2情報に基づいて、3次元点群データ間の位置ずれを調整することができる。 In another aspect of the above data processing device, a position adjusting unit that adjusts the positional deviation between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the second information is provided. Be prepared. In this aspect, the positional deviation between the three-dimensional point cloud data can be adjusted based on the second information.
本発明の他の好適な実施形態では、データ処理装置により実行されるデータ処理方法は、第1及び第2の3次元点群データを取得する取得工程と、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換工程と、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成工程と、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成工程と、を備える。この方法によっても、演算量を抑制しつつ、3次元点群データ間の位置調整を行うことが可能となる。 In another preferred embodiment of the present invention, the data processing method executed by the data processing apparatus includes an acquisition step of acquiring first and second three-dimensional point group data and the first and second three-dimensional data. In the conversion step of converting the point group data into the first and second two-dimensional images, and in the first pixel and the second two-dimensional image in the first two-dimensional image corresponding to the same feature points. The first generation step of extracting the second pixel of the above and generating the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, and the first generation step based on the first information. It includes a second generation step of generating second information indicating the positional relationship between the three-dimensional point group data of 1 and the second three-dimensional point group data. This method also makes it possible to adjust the position between the three-dimensional point cloud data while suppressing the amount of calculation.
本発明の他の好適な実施形態では、コンピュータを備えるデータ処理装置により実行されるプログラムは、第1及び第2の3次元点群データを取得する取得部、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部、として前記コンピュータを機能させる。このプログラムをコンピュータで実行することにより、上記のデータ処理装置を実現することができる。このプログラムは、記憶媒体に記憶して取り扱うことができる。 In another preferred embodiment of the invention, the program executed by the data processing apparatus including the computer is an acquisition unit that acquires first and second three-dimensional point group data, the first and second three dimensions. A conversion unit that converts point group data into first and second two-dimensional images, a first pixel in the first two-dimensional image and a second two-dimensional image corresponding to the same feature point. The first generation unit that extracts the second pixel and generates the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, the first generation unit based on the first information. The computer functions as a second generation unit that generates second information indicating the positional relationship between the three-dimensional point group data and the second three-dimensional point group data. By executing this program on a computer, the above data processing device can be realized. This program can be stored and handled in a storage medium.
以下、図面を参照して本発明の好適な実施例について説明する。
[システム構成]
図1は、実施例に係るデータ処理装置を示す。データ処理装置10は、車両などに搭載された3Dライダにより計測された3D点群データ(以下、単に「点群データ」と呼ぶ。)を処理する。具体的には、データ処理装置10は、異なる日時に計測された点群データ間の位置ずれを調整する処理を行う。なお、データ処理装置10は、CPU、ROM、RAMなどを備えるコンピュータ装置により構成され、予め用意されたプログラムを実行することにより、データ処理を実行する。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
[System configuration]
FIG. 1 shows a data processing apparatus according to an embodiment. The
いま、図1に示すように、異なる日時に計測された点群データAと点群データBが存在し、それぞれ点群データベース(以下、「データベース」を「DB」とも記す。)5Aと点群DB5Bに記憶されているものとする。データ処理装置10は、点群DB5Aから点群データAを取得し、点群DB5Bから点群データBを取得して処理を行う。
Now, as shown in FIG. 1, there are point cloud data A and point cloud data B measured at different dates and times, and a point cloud database (hereinafter, “database” is also referred to as “DB”) 5A and a point cloud, respectively. It is assumed that it is stored in DB5B. The
[位置調整処理の概要]
次に、データ処理装置10により行われる点群データ間の位置調整処理について説明する。図2は、位置調整処理の概要を模式的に示す。点群DB5Aには点群データAが記憶されており、点群DB5Bには点群データBが記憶されている。ここで、点群データは、3次元空間内において3Dライダにより計測された計測点データの集合であり、計測点データの各々は3次元空間内、一般的にはワールド座標系における3次元座標(X、Y,Z座標)、及び、その計測点における輝度(反射強度)を含む。
[Overview of position adjustment processing]
Next, the position adjustment process between the point cloud data performed by the
点群データAと点群データBは、同一の道路を異なる日時に走行した際に計測された点群データである。一般的に、同一の道路を走行した場合でも、3Dライダにより計測される点群データは、センサの性能限界などの要因による誤差を含む。即ち、同じ地物を計測して得られた点群データであっても、異なる日時に計測された計測点の位置座標は、ワールド座標系上においてずれを生じる。本実施例のデータ処理装置10は、基本的に以下の4つの工程により、点群データAと点群データBとの位置調整を行う。
The point cloud data A and the point cloud data B are point cloud data measured when traveling on the same road at different dates and times. Generally, even when traveling on the same road, the point cloud data measured by the 3D rider includes an error due to factors such as the performance limit of the sensor. That is, even if the point cloud data is obtained by measuring the same feature, the position coordinates of the measurement points measured at different dates and times cause a deviation on the world coordinate system. The
(第1工程)
まず、第1工程では、データ処理装置10は、各点群データを2次元画像であるオルソ画像に変換する。オルソ画像とは、ある地域を上空から撮影した空中写真に対して正射投影による補正をかけた画像であり、ある地域を上空から見た2次元画像である。本実施例では、データ処理装置10は、点群データAを変換してオルソ画像Aを生成し、点群データBを変換してオルソ画像Bを生成する。なお、点群データからオルソ画像への変換は、既知の各種の手法により行うことができる。通常、この変換により、オルソ画像の1画素は、複数の点群データを含むものとなる。
(First step)
First, in the first step, the
(第2工程)
次に、データ処理装置10は、オルソ画像A内の画素と、それに対応するオルソ画像B内の画素との紐付け情報を生成する。この紐付け情報は、オルソ画像A内の画素と、それに対応するオルソ画像B内の画素とのずれ量を示す情報である。この紐付け情報を、以下「画素間紐付け情報」とも呼ぶ。画素間紐付け情報は、本発明の第1情報に相当する。
(Second step)
Next, the
(第3工程)
次に、データ処理装置10は、画素間紐付け情報に基づいて、点群データ間の紐付け情報(以下、「点群間紐付け情報」とも呼ぶ。)を生成する。点群間紐付け情報は、点群データA内の所定の計測点と、それに対応する点群データB内の計測点とのずれ量を示す情報である。点群間紐付け情報は、本発明の第2情報に相当する。
(Third step)
Next, the
(第4工程)
そして、データ処理装置10は、点群間紐付け情報に基づいて、点群データAに含まれる計測点と、点群データBに含まれる計測点との位置調整を行う。例えば、点群データB中のある計測点の位置を、その計測点に対応する点群間紐付け情報が示すずれ量だけ移動することにより、点群データA中のそれに対応する計測点に一致させる。
(4th step)
Then, the
このように、本実施例では、3D点群データをいったん2次元画像であるオルソ画像に変換し、オルソ画像の画像間の位置ずれを検出し、これを3D点群間の位置ずれに展開する。これにより、3D点群データに対して複雑な演算を行って位置ずれの検出を行う必要がなくなる。 As described above, in this embodiment, the 3D point cloud data is once converted into an ortho image which is a two-dimensional image, the positional deviation between the images of the ortho image is detected, and this is expanded into the positional deviation between the 3D point clouds. .. This eliminates the need to perform complicated calculations on the 3D point cloud data to detect the positional deviation.
[位置調整処理の詳細]
次に、上記の位置調整処理について詳しく説明する。図3は、位置調整処理のフローチャートである。この処理は、データ処理装置10が予め用意されたプログラムを実行することにより実現される。
[Details of position adjustment processing]
Next, the above position adjustment process will be described in detail. FIG. 3 is a flowchart of the position adjustment process. This process is realized by the
まず、データ処理装置10は、点群DB5Aと点群DB5Bから、点群データAと点群データBを取得する(ステップS11)。点群データAと点群データBは、同一の道路などを異なる日時に走行し3Dライダで計測したデータである。いま、仮に図4(A)に示すT字路を矢印の方向に走行中に、3Dライダにより路面の点群データを計測したものとする。T字路の路面には、T字型の路面ペイント(以下、「マークM」と呼ぶ。)が設けられている。よって、点群データA及び点群データBは、それぞれマークMの領域を含む。なお、マークMは白色のペイントであり、反射強度が高いため、マークMに対応する計測点の輝度は高くなる。
First, the
次に、データ処理装置10は、点群データAからオルソ画像Aを生成し、点群データBからオルソ画像Bを生成する(ステップS12)。ここで、オルソ画像A、Bの各画素は、それに対応する位置の複数の点群データを含む。
Next, the
図4(B)は、オルソ画像の画素と点群データとの関係を示す。なお、図4(B)は、マークMを含む領域のオルソ画像を示す。オルソ画像は、複数の画素Pにより構成されている。また、オルソ画像の1つの画素Pには、点群データの複数の計測点が含まれる。図4(B)の例では、オルソ画像の1つの画素Pには、6×6=36個の計測点が含まれる。いま、図4(B)のオルソ画像の右上の1つの画素を画素Pxとすると、その拡大図に示すように、画像Pxの左下の3×3=9個の計測点は、路面ペイントであるマークM上の計測点であり、高い輝度を有するものとなる。一方、この9個の計測点以外の計測点は道路面上の計測点であり、マークMに比べて低い輝度を有するものとなる。 FIG. 4B shows the relationship between the pixels of the ortho image and the point cloud data. Note that FIG. 4B shows an ortho image of the region including the mark M. The ortho image is composed of a plurality of pixels P. Further, one pixel P of the ortho image includes a plurality of measurement points of the point cloud data. In the example of FIG. 4B, one pixel P of the ortho image includes 6 × 6 = 36 measurement points. Now, assuming that one pixel in the upper right of the ortho image of FIG. 4 (B) is a pixel Px, as shown in the enlarged view, 3 × 3 = 9 measurement points in the lower left of the image Px are road surface paints. It is a measurement point on the mark M and has high brightness. On the other hand, the measurement points other than the nine measurement points are the measurement points on the road surface and have lower brightness than the mark M.
さて、オルソ画像Aとオルソ画像Bが得られると、データ処理装置10は、各オルソ画像A、B中の特徴点の画素(以下、「特徴点画素」とも呼ぶ。)を抽出する(ステップS13)。ここで、特徴点とは、典型的には路面ペイントの角などであり、路面上にあって形状や色などが周辺とは異なる部分である。特徴点は、オルソ画像Aとオルソ画像Bにおいて、相互に対応する画素を特定するために利用される。本例では、データ処理装置10は、マークMの右上の角を特徴点とし、マークMの右上の角を含む画素Pxを特徴点画素とする。即ち、データ処理装置10は、オルソ画像A、Bにおいて、マークMの右上の角を含む画素Pxを抽出する。なお、図4(B)から理解されるように、オルソ画像A、Bを構成する全ての画素が特徴点を含むわけではなく、オルソ画像A、Bを構成する画素のうちの一部の画素が特徴点画素として抽出されることになる。
Now, when the ortho image A and the ortho image B are obtained, the
次に、データ処理装置10は、オルソ画像A、Bのそれぞれから抽出された特徴点画素における代表点を決定する(ステップS14)。本例では、データ処理装置10は、特徴点画素Pxにおける代表点を決定する。図5は、代表点の例を示す。代表点は、特徴点画素に含まれる複数の計測点のうち、その画素を代表する点であり、以下のいずれかの方法で決定することができる。
Next, the
第1の方法では、特徴点画素において、その画素の輝度値と最も近い輝度を有する計測点を代表点とする。図5の例では、特徴点画素Pxは反射強度の高いマークMの一部を含むため、画素自体の輝度は高い。よって、その画素Pxの輝度に最も近い輝度を有する計測点Dを代表点とする。図5の例では、画素Pxの輝度に最も近い輝度を有する計測点R1が代表点に決定される。 In the first method, a measurement point having a brightness closest to the brightness value of the feature point pixel is set as a representative point. In the example of FIG. 5, since the feature point pixel Px includes a part of the mark M having high reflection intensity, the brightness of the pixel itself is high. Therefore, the measurement point D having the brightness closest to the brightness of the pixel Px is set as a representative point. In the example of FIG. 5, the measurement point R1 having the brightness closest to the brightness of the pixel Px is determined as the representative point.
第2の方法では、特徴点画素に含まれる点群の重心位置に最も近い計測点を代表点とする。図5の例では、特徴点画素Rxに含まれる点群の重心位置に最も近い計測点R2が代表点に決定される。第3の方法では、特徴点画素において輝度が所定値よりも高い領域を特定し、その領域の重心位置に最も近い計測点を代表点とする。図5の例では、画素PxにはマークMに対応する輝度の高い領域があり、その重心位置に最も近い計測点R3が代表点に決定される。 In the second method, the measurement point closest to the position of the center of gravity of the point cloud included in the feature point pixel is set as the representative point. In the example of FIG. 5, the measurement point R2 closest to the position of the center of gravity of the point cloud included in the feature point pixel Rx is determined as the representative point. In the third method, a region having a brightness higher than a predetermined value is specified in the feature point pixel, and the measurement point closest to the position of the center of gravity of the region is set as a representative point. In the example of FIG. 5, the pixel Px has a region having high brightness corresponding to the mark M, and the measurement point R3 closest to the position of the center of gravity is determined as the representative point.
なお、路面ペイントであるマークMの反射強度は、天候などの路面状態により変動するので、画素の輝度を判定する際には、必要に応じて輝度の値を正規化して比較することが好ましい。上記のいずれかの方法で代表点が決定されると、データ処理装置は、オルソ画像A、Bのそれぞれから抽出された特徴点画素における代表点間のずれ量を算出し、画素間紐付け情報を生成する(ステップS15)。図6は、画素間紐付け情報を生成する方法を示す。いま、図6(A)に示すように、オルソ画像Aの特徴点画素Paは複数の計測点Daを含み、それらから代表点Raが決定されたとする。また、オルソ画像Bの特徴点画素Pbは複数の計測点Dbを含み、それらから代表点Rbが決定されたとする。なお、特徴点画素PaとPbは同一の位置に対応する画素であるものとする。 Since the reflection intensity of the mark M, which is a road surface paint, varies depending on the road surface condition such as the weather, it is preferable to normalize and compare the brightness values as necessary when determining the brightness of the pixels. When the representative point is determined by any of the above methods, the data processing device calculates the amount of deviation between the representative points in the feature point pixels extracted from each of the ortho images A and B, and the inter-pixel linking information. Is generated (step S15). FIG. 6 shows a method of generating inter-pixel association information. Now, as shown in FIG. 6A, it is assumed that the feature point pixel Pa of the ortho image A includes a plurality of measurement points Da, and the representative point Ra is determined from them. Further, it is assumed that the feature point pixel Pb of the ortho image B includes a plurality of measurement points Db, and the representative point Rb is determined from them. It is assumed that the feature point pixels Pa and Pb are pixels corresponding to the same position.
この場合、データ処理装置10は、図6(B)に示すように、代表点RaとRbのずれ量(Δx,Δy,Δz)を算出し、これを画素間紐付け情報とする。即ち、オルソ画像Aの特徴点画素Paとオルソ画像Bの特徴点画素Pbとの画素間紐付け情報として、(Δx,Δy,Δz)を得る。ここで、Δzは図6(B)の紙面垂直方向の成分、つまり高さ方向の成分である。具体的にΔzは、特徴点画素Paの高さ成分と特徴点画素Pbの高さ成分のずれ量である。こうして、データ処理装置10は、オルソ画像A、Bにおいて抽出された全ての特徴点画素について代表点を決定し、画素間紐付け情報を生成する。なお、図6の例では、画素間紐付け情報は平行移動成分のみを有する位置ずれを示すが、実際には、3D点群データの歪などに起因して、回転成分を含む位置ずれや、拡大・縮小を伴う位置ずれなどが生じる。よって、画素間紐付け情報は、そのような回転や拡大・縮小の成分を有する位置ずれ情報を含む場合もある。
In this case, as shown in FIG. 6B, the
こうして画素間紐付け情報が生成されると、データ処理装置10は、画素間紐付け情報に基づいて、点群間紐付け情報を生成する(ステップS16)。例えば、図6(B)に示す画素間紐付け情報(Δx,Δy,Δz)が得られた場合、データ処理装置10は、オルソ画像Aの特徴点画素Paに含まれる点群と、オルソ画像Bの特徴点画素Pbに含まれる点群との間の点群間紐付け情報を(Δx,Δy,Δz)とする。これにより、オルソ画像に含まれる点群レベルでの位置ずれ量を得ることができる。なお、特徴点画素以外の画素については、その近くに存在する特徴点画素についての点群間紐付け情報を利用すればよい。また、近くに複数の特徴点画素がある場合には、それら複数の特徴点画素との位置関係や距離に基づいて、複数の点群間紐付け情報を配分して適用してもよい。
When the inter-pixel association information is generated in this way, the
そして、データ処理装置10は、生成された点群間紐付け情報に基づいて、点群データAと点群データBの間の位置調整を行う(ステップS17)。例えば、図6の例では、点群データBを構成する各計測点の位置を、得られた点群間紐付け情報が示すずれ量に基づいてシフトして点群データA、Bのずれを解消する。また、点群間紐付け情報が、回転成分を含む位置ずれや、拡大・縮小を伴う位置ずれである場合には、データ処理装置10は、それらを含む紐付け情報に基づいて、点群データに対して回転や拡大・縮小などの補正を施して位置ずれを解消する。こうして位置ずれが解消された点群データA、Bは、同一地点で得られた3D点群データとして地図情報の生成などに利用することができる。
Then, the
[変形例]
上記の実施例では、路面上に設けられた道路ペイントなどを用いて点群データ間の位置調整を行っている。よって、3Dライダで計測された3D点群データから、前処理として、路面上に対応する点群データのみを抽出し、路面上に対応する点群データについて上記の処理を適用することとするのが好ましい。例えば、3Dライダで得られた3D点群データから、看板などの立体物の点群を予め除去した残りの点群データに対して上記の位置調整処理を適用する。これにより、処理の対象となる点群データ量を削減し、効率的な処理が可能となる。
[Modification example]
In the above embodiment, the position between the point cloud data is adjusted by using a road paint or the like provided on the road surface. Therefore, as preprocessing, only the point cloud data corresponding to the road surface is extracted from the 3D point cloud data measured by the 3D rider, and the above processing is applied to the point cloud data corresponding to the road surface. Is preferable. For example, the above position adjustment process is applied to the remaining point cloud data obtained by removing the point cloud of a three-dimensional object such as a sign in advance from the 3D point cloud data obtained by the 3D rider. As a result, the amount of point cloud data to be processed is reduced, and efficient processing becomes possible.
上記の実施例では、データ処理装置10は、異なる日時に計測された点群データAと点群データBを用いて、点群データA、Bのずれを解消しているが、本発明はこれに限定されない。同じ日時に点群データAと点群データBが、それぞれ異なる車両により計測されたものであっても、上記のデータ処理が実行可能となる。複数の車両のそれぞれに搭載された3Dライダは、センサの性能が異なる場合があり、これにより測定データに誤差を生じることになるが、本発明の処理を行うことで、3Dライダの性能に関わらず、点群データのずれを解消することが可能となる。
In the above embodiment, the
5A、5B 点群データベース
10 データ処理装置
D 点群データの計測点
M マーク
P、Pa、Pb オルソ画像の画素
R1〜R3、Ra、Rb 代表点
5A, 5B
Claims (13)
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部と、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部と、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部と、
を備え、
前記第1生成部は、前記第1画素に含まれる点群のうち当該第1画素の輝度に最も近い輝度を有する点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち当該第2画素の輝度に最も近い輝度を有する点を前記第2画素における代表点とするデータ処理装置。 An acquisition unit that acquires the first and second 3D point cloud data,
A conversion unit that converts the first and second three-dimensional point cloud data into first and second two-dimensional images, and
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. A first generation unit that generates first information indicating the positional relationship of representative points, and
A second generation unit that generates second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
Equipped with a,
The first generation unit uses a point group having a brightness closest to the brightness of the first pixel among the point groups included in the first pixel as a representative point in the first pixel, and the point group included in the second pixel. A data processing device in which a point having a brightness closest to the brightness of the second pixel is a representative point in the second pixel.
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部と、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部と、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部と、
を備え、
前記第1生成部は、前記第1画素に含まれる点群のうち重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち重心位置に最も近い点を前記第2画素における代表点とするデータ処理装置。 An acquisition unit that acquires the first and second 3D point cloud data,
A conversion unit that converts the first and second three-dimensional point cloud data into first and second two-dimensional images, and
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. A first generation unit that generates first information indicating the positional relationship of representative points, and
A second generation unit that generates second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
With
In the first generation unit, the point closest to the center of gravity position in the point cloud included in the first pixel is set as the representative point in the first pixel, and the point group included in the second pixel is closest to the center of gravity position. A data processing device in which a point is a representative point in the second pixel.
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部と、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部と、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部と、
を備え、
前記第1生成部は、前記第1画素に含まれる点群のうち、当該第1画素に含まれる特徴領域の重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち、当該第2画素に含まれる特徴領域の重心位置に最も近い点を前記第2画素における代表点とするデータ処理装置。 An acquisition unit that acquires the first and second 3D point cloud data,
A conversion unit that converts the first and second three-dimensional point cloud data into first and second two-dimensional images, and
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. A first generation unit that generates first information indicating the positional relationship of representative points, and
A second generation unit that generates second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
With
In the first generation unit, among the point cloud included in the first pixel, the point closest to the position of the center of gravity of the feature region included in the first pixel is set as a representative point in the first pixel, and the second pixel A data processing device in which, among the included point clouds, the point closest to the position of the center of gravity of the feature region included in the second pixel is a representative point in the second pixel.
前記特徴領域は、道路面上のペイントの領域であることを特徴とする請求項3に記載のデータ処理装置。 The three-dimensional point cloud data is data detected on the road surface by an external sensor, and is
The data processing device according to claim 3 , wherein the feature area is a paint area on a road surface.
第1及び第2の3次元点群データを取得する取得工程と、
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換工程と、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成工程と、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成工程と、
を備え、
前記第1生成工程は、前記第1画素に含まれる点群のうち当該第1画素の輝度に最も近い輝度を有する点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち当該第2画素の輝度に最も近い輝度を有する点を前記第2画素における代表点とするデータ処理方法。 A data processing method executed by a data processing device.
The acquisition process for acquiring the first and second 3D point cloud data, and
A conversion step of converting the first and second three-dimensional point cloud data into first and second two-dimensional images, and
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. The first generation step of generating the first information indicating the positional relationship of the representative points, and
A second generation step of generating second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
Equipped with a,
In the first generation step, a point group having a brightness closest to the brightness of the first pixel among the point groups included in the first pixel is set as a representative point in the first pixel, and a point group included in the second pixel. A data processing method in which a point having a brightness closest to the brightness of the second pixel is a representative point in the second pixel.
第1及び第2の3次元点群データを取得する取得工程と、
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換工程と、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成工程と、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成工程と、
を備え、
前記第1生成工程は、前記第1画素に含まれる点群のうち重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち重心位置に最も近い点を前記第2画素における代表点とするデータ処理方法。 A data processing method executed by a data processing device.
The acquisition process for acquiring the first and second 3D point cloud data, and
A conversion step of converting the first and second three-dimensional point cloud data into first and second two-dimensional images, and
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. The first generation step of generating the first information indicating the positional relationship of the representative points, and
A second generation step of generating second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
With
In the first generation step, the point closest to the center of gravity position of the point cloud included in the first pixel is set as the representative point in the first pixel, and the point cloud included in the second pixel is closest to the center of gravity position. A data processing method in which a point is a representative point in the second pixel.
第1及び第2の3次元点群データを取得する取得工程と、
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換工程と、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成工程と、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成工程と、
を備え、
前記第1生成工程は、前記第1画素に含まれる点群のうち、当該第1画素に含まれる特徴領域の重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち、当該第2画素に含まれる特徴領域の重心位置に最も近い点を前記第2画素における代表点とするデータ処理方法。 A data processing method executed by a data processing device.
The acquisition process for acquiring the first and second 3D point cloud data, and
A conversion step of converting the first and second three-dimensional point cloud data into first and second two-dimensional images, and
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. The first generation step of generating the first information indicating the positional relationship of the representative points, and
A second generation step of generating second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
With
In the first generation step, among the point cloud included in the first pixel, the point closest to the position of the center of gravity of the feature region included in the first pixel is set as a representative point in the first pixel, and the second pixel is set. A data processing method in which, among the included point clouds, the point closest to the position of the center of gravity of the feature region included in the second pixel is set as a representative point in the second pixel.
第1及び第2の3次元点群データを取得する取得部、
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部、
として前記コンピュータを機能させ、
前記第1生成部は、前記第1画素に含まれる点群のうち当該第1画素の輝度に最も近い輝度を有する点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち当該第2画素の輝度に最も近い輝度を有する点を前記第2画素における代表点とするプログラム。 A program executed by a data processing device equipped with a computer.
Acquisition unit that acquires the first and second 3D point cloud data,
A conversion unit that converts the first and second three-dimensional point cloud data into first and second two-dimensional images.
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. A first generation unit that generates first information indicating the positional relationship of representative points,
A second generation unit that generates second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
It makes the computer function as,
The first generation unit uses a point group having a brightness closest to the brightness of the first pixel among the point groups included in the first pixel as a representative point in the first pixel, and the point group included in the second pixel. A program in which a point having a brightness closest to the brightness of the second pixel is a representative point in the second pixel.
第1及び第2の3次元点群データを取得する取得部、
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部、
として前記コンピュータを機能させ、
前記第1生成部は、前記第1画素に含まれる点群のうち重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち重心位置に最も近い点を前記第2画素における代表点とするプログラム。 A program executed by a data processing device equipped with a computer.
Acquisition unit that acquires the first and second 3D point cloud data,
A conversion unit that converts the first and second three-dimensional point cloud data into first and second two-dimensional images.
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. A first generation unit that generates first information indicating the positional relationship of representative points,
A second generation unit that generates second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
To make the computer function as
The first generation unit uses the point closest to the center of gravity position of the point cloud included in the first pixel as a representative point in the first pixel, and is closest to the center of gravity position of the point cloud included in the second pixel. A program in which a point is a representative point in the second pixel.
第1及び第2の3次元点群データを取得する取得部、
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部、
として前記コンピュータを機能させ、
前記第1生成部は、前記第1画素に含まれる点群のうち、当該第1画素に含まれる特徴領域の重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち、当該第2画素に含まれる特徴領域の重心位置に最も近い点を前記第2画素における代表点とするプログラム。 A program executed by a data processing device equipped with a computer.
Acquisition unit that acquires the first and second 3D point cloud data,
A conversion unit that converts the first and second three-dimensional point cloud data into first and second two-dimensional images.
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. A first generation unit that generates first information indicating the positional relationship of representative points,
A second generation unit that generates second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
To make the computer function as
In the first generation unit, among the point cloud included in the first pixel, the point closest to the position of the center of gravity of the feature region included in the first pixel is set as a representative point in the first pixel, and the second pixel A program in which, among the included point clouds, the point closest to the position of the center of gravity of the feature region included in the second pixel is a representative point in the second pixel.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017067006A JP6876484B2 (en) | 2017-03-30 | 2017-03-30 | Data processing equipment, data processing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017067006A JP6876484B2 (en) | 2017-03-30 | 2017-03-30 | Data processing equipment, data processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018169825A JP2018169825A (en) | 2018-11-01 |
JP6876484B2 true JP6876484B2 (en) | 2021-05-26 |
Family
ID=64020439
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017067006A Active JP6876484B2 (en) | 2017-03-30 | 2017-03-30 | Data processing equipment, data processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6876484B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5593177B2 (en) * | 2010-09-14 | 2014-09-17 | 株式会社トプコン | Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program |
JP5389964B2 (en) * | 2012-02-21 | 2014-01-15 | 株式会社パスコ | Map information generator |
JP6473188B2 (en) * | 2017-03-28 | 2019-02-20 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Method, apparatus and program for generating depth map |
-
2017
- 2017-03-30 JP JP2017067006A patent/JP6876484B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018169825A (en) | 2018-11-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3096286B1 (en) | Image processing apparatus, image processing method, and computer program product | |
JP4378571B2 (en) | MAP CHANGE DETECTION DEVICE, MAP CHANGE DETECTION METHOD, AND PROGRAM | |
Murakami et al. | Change detection of buildings using an airborne laser scanner | |
EP2057585B1 (en) | Mosaic oblique images and methods of making and using same | |
KR101219767B1 (en) | Method for Field Survey of Digital Mapping Road Layers Using Vehicle Mobile Mapping System | |
JP6260891B2 (en) | Image processing apparatus and image processing method | |
JP2004117078A (en) | Obstacle detection device and method | |
KR101510206B1 (en) | Urban Change Detection Method Using the Aerial Hyper Spectral images for Digital Map modify Drawing | |
CN108961286B (en) | Unmanned aerial vehicle image segmentation method considering three-dimensional and edge shape characteristics of building | |
CN106952262B (en) | Ship plate machining precision analysis method based on stereoscopic vision | |
WO2014045508A1 (en) | Inspection device, inspection method, and inspection program | |
KR101453143B1 (en) | Stereo matching process system, stereo matching process method, and recording medium | |
JP2006195032A (en) | Topographical map creating method and topographical map creating system | |
CN114692720A (en) | Image classification method, device, equipment and storage medium based on aerial view | |
CN110929782B (en) | River channel abnormity detection method based on orthophoto map comparison | |
CN116839564A (en) | High-precision map construction auxiliary method, equipment and medium | |
JP2005128001A (en) | Method of detecting subpixel moving amount applied to optical navigation system | |
KR102023087B1 (en) | Method for camera calibration | |
JP5254545B2 (en) | Image processing apparatus and image processing method | |
CN107765257A (en) | A kind of laser acquisition and measuring method based on the calibration of reflected intensity accessory external | |
JP6634842B2 (en) | Information processing apparatus, information processing method and program | |
JP6876484B2 (en) | Data processing equipment, data processing methods, and programs | |
CN116958218A (en) | Point cloud and image registration method and equipment based on calibration plate corner alignment | |
Deng et al. | Automatic true orthophoto generation based on three-dimensional building model using multiview urban aerial images | |
JP2009146150A (en) | Method and device for detecting feature position |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210406 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210426 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6876484 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE Ref document number: 6876484 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: R3D02 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |