JP6876484B2 - Data processing equipment, data processing methods, and programs - Google Patents

Data processing equipment, data processing methods, and programs Download PDF

Info

Publication number
JP6876484B2
JP6876484B2 JP2017067006A JP2017067006A JP6876484B2 JP 6876484 B2 JP6876484 B2 JP 6876484B2 JP 2017067006 A JP2017067006 A JP 2017067006A JP 2017067006 A JP2017067006 A JP 2017067006A JP 6876484 B2 JP6876484 B2 JP 6876484B2
Authority
JP
Japan
Prior art keywords
pixel
point
point cloud
dimensional
cloud data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017067006A
Other languages
Japanese (ja)
Other versions
JP2018169825A (en
Inventor
陽子 藤田
陽子 藤田
守通 沓名
守通 沓名
和浩 中尾
和浩 中尾
正行 天沼
正行 天沼
渉 簗嶋
渉 簗嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Increment P Corp
Original Assignee
Pioneer Corp
Increment P Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp, Increment P Corp filed Critical Pioneer Corp
Priority to JP2017067006A priority Critical patent/JP6876484B2/en
Publication of JP2018169825A publication Critical patent/JP2018169825A/en
Application granted granted Critical
Publication of JP6876484B2 publication Critical patent/JP6876484B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、外界センサにより取得した点群データの処理に関する。 The present invention relates to processing of point cloud data acquired by an external sensor.

近年、3Dライダ(LiDAR:Light Detection and Ranging)などにより生成した3D点群データに基づいて、地図データを生成することが行われている。一般的に、同一の道路などの点群データを繰り返し取得し、地図データの精度を向上させるが、計測した点群データには、センサの性能限界などに起因して誤差が含まれるため、別の日程、時間帯など、計測条件が異なる場合、同一の地点で取得した点群データにずれが発生しうる。 In recent years, map data has been generated based on 3D point cloud data generated by a 3D lidar (LiDAR: Light Detection and Ringing) or the like. Generally, point cloud data such as the same road is repeatedly acquired to improve the accuracy of map data, but the measured point cloud data contains errors due to sensor performance limits, etc., so it is different. If the measurement conditions are different, such as the schedule and time of day, the point cloud data acquired at the same point may be out of sync.

この場合に、それぞれの点群データの中の同一地点に対応する点同士を紐付けた後、点群データを移動・回転・拡大/縮小させて、点群データ間のずれを解消する方法があるが、これには以下のような課題がある。即ち、3D空間から任意の1点を決定するのは難しく、十分な数の対応点が得られない。また、自動抽出では十分に正確な対応が得られない。さらには、全ての点を対象とすると処理コストが膨大となる。 In this case, a method of associating points corresponding to the same point in each point cloud data and then moving / rotating / enlarging / reducing the point cloud data to eliminate the deviation between the point cloud data. However, this has the following problems. That is, it is difficult to determine an arbitrary one point from the 3D space, and a sufficient number of corresponding points cannot be obtained. In addition, automatic extraction does not provide a sufficiently accurate response. Furthermore, if all points are targeted, the processing cost becomes enormous.

これに関連し、特許文献1は、3次元点群データを2次元グリッドに投票して路面画像を生成し、複数の路面画像の相対位置関係を表す変形量を推定する手法を記載している。 In relation to this, Patent Document 1 describes a method of voting three-dimensional point cloud data in a two-dimensional grid to generate a road surface image and estimating a deformation amount representing a relative positional relationship of a plurality of road surface images. ..

特開2017−10393号公報JP-A-2017-10393

しかし、特許文献1の手法では、路面画像の相対位置関係を示す変形量を推定するために、マッチングコストに基づくコスト計算を行っているため、演算量が膨大となりコスト高となるという問題がある。 However, in the method of Patent Document 1, since the cost calculation based on the matching cost is performed in order to estimate the deformation amount indicating the relative positional relationship of the road surface image, there is a problem that the calculation amount becomes enormous and the cost becomes high. ..

本発明の解決しようとする課題としては、上記のものが一例として挙げられる。本発明は、演算量を抑制しつつ、複数の3D点群データ間の位置ずれを調整することが可能なデータ処理装置を提供することを目的とする。 As an example of the problem to be solved by the present invention, the above is given as an example. An object of the present invention is to provide a data processing apparatus capable of adjusting a positional deviation between a plurality of 3D point cloud data while suppressing a calculation amount.

請求項1に記載の発明は、データ処理装置であって、第1及び第2の3次元点群データを取得する取得部と、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部と、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部と、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部と、を備え、前記第1生成部は、前記第1画素に含まれる点群のうち当該第1画素の輝度に最も近い輝度を有する点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち当該第2画素の輝度に最も近い輝度を有する点を前記第2画素における代表点とする
請求項2に記載の発明は、データ処理装置であって、第1及び第2の3次元点群データを取得する取得部と、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部と、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部と、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部と、を備え、前記第1生成部は、前記第1画素に含まれる点群のうち重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち重心位置に最も近い点を前記第2画素における代表点とする。
請求項3に記載の発明は、データ処理装置であって、第1及び第2の3次元点群データを取得する取得部と、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部と、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部と、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部と、を備え、前記第1生成部は、前記第1画素に含まれる点群のうち、当該第1画素に含まれる特徴領域の重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち、当該第2画素に含まれる特徴領域の重心位置に最も近い点を前記第2画素における代表点とする。
The invention according to claim 1 is a data processing apparatus, wherein an acquisition unit that acquires first and second three-dimensional point cloud data and the first and second three-dimensional point cloud data are first. And the conversion unit that converts to the second two-dimensional image, and the first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted. Then, the first generation unit that generates the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, and the first three-dimensional point cloud data based on the first information. A second generation unit that generates second information indicating the positional relationship between the second three-dimensional point cloud and the second three-dimensional point cloud data is provided , and the first generation unit is the point cloud included in the first pixel. The point having the brightness closest to the brightness of the first pixel is a representative point in the first pixel, and the point having the brightness closest to the brightness of the second pixel among the point cloud included in the second pixel is the second point. It is a representative point in the pixel .
The invention according to claim 2 is a data processing apparatus, wherein an acquisition unit that acquires first and second three-dimensional point cloud data and the first and second three-dimensional point cloud data are first. And the conversion unit that converts to the second two-dimensional image, and the first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted. Then, the first generation unit that generates the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, and the first three-dimensional point cloud data based on the first information. A second generation unit that generates second information indicating the positional relationship between the second three-dimensional point cloud and the second three-dimensional point cloud data is provided, and the first generation unit is the center of gravity of the point cloud included in the first pixel. The point closest to the position is designated as the representative point in the first pixel, and the point closest to the position of the center of gravity in the point cloud included in the second pixel is designated as the representative point in the second pixel.
The invention according to claim 3 is a data processing apparatus, wherein an acquisition unit that acquires first and second three-dimensional point cloud data and the first and second three-dimensional point cloud data are first. And the conversion unit that converts to the second two-dimensional image, and the first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted. Then, the first generation unit that generates the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, and the first three-dimensional point cloud data based on the first information. A second generation unit that generates second information indicating the positional relationship between the second three-dimensional point cloud and the second three-dimensional point cloud data is provided, and the first generation unit is one of the point clouds included in the first pixel. The point closest to the position of the center of gravity of the feature region included in the first pixel is set as a representative point in the first pixel, and the position of the center of gravity of the feature region included in the second pixel among the point cloud included in the second pixel is set. The point closest to is designated as a representative point in the second pixel.

請求項に記載の発明は、データ処理装置により実行されるデータ処理方法であって、第1及び第2の3次元点群データを取得する取得工程と、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換工程と、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成工程と、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成工程と、を備え、前記第1生成工程は、前記第1画素に含まれる点群のうち当該第1画素の輝度に最も近い輝度を有する点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち当該第2画素の輝度に最も近い輝度を有する点を前記第2画素における代表点とする
請求項8に記載の発明は、データ処理装置により実行されるデータ処理方法であって、第1及び第2の3次元点群データを取得する取得工程と、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換工程と、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成工程と、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成工程と、を備え、前記第1生成工程は、前記第1画素に含まれる点群のうち重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち重心位置に最も近い点を前記第2画素における代表点とする。
請求項9に記載の発明は、データ処理装置により実行されるデータ処理方法であって、第1及び第2の3次元点群データを取得する取得工程と、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換工程と、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成工程と、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成工程と、を備え、前記第1生成工程は、前記第1画素に含まれる点群のうち、当該第1画素に含まれる特徴領域の重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち、当該第2画素に含まれる特徴領域の重心位置に最も近い点を前記第2画素における代表点とする
The invention according to claim 7 is a data processing method executed by a data processing apparatus, which includes an acquisition step of acquiring first and second three-dimensional point cloud data, and the first and second three-dimensional aspects. In the conversion step of converting the point cloud data into the first and second two-dimensional images, and in the first pixel and the second two-dimensional image in the first two-dimensional image corresponding to the same feature points. The first generation step of extracting the second pixel of the above and generating the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, and the first generation step based on the first information. The first generation step includes a second generation step of generating a second information indicating a positional relationship between the three-dimensional point cloud data of 1 and the second three-dimensional point cloud data, and the first generation step is performed on the first pixel. The point having the brightness closest to the brightness of the first pixel in the included point cloud is set as the representative point in the first pixel, and the brightness closest to the brightness of the second pixel in the point group included in the second pixel. Is a representative point in the second pixel .
The invention according to claim 8 is a data processing method executed by a data processing apparatus, which includes an acquisition step of acquiring first and second three-dimensional point group data, and the first and second three-dimensional data. In the conversion step of converting the point group data into the first and second two-dimensional images, and in the first pixel and the second two-dimensional image in the first two-dimensional image corresponding to the same feature points. The first generation step of extracting the second pixel of the above and generating the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, and the first generation step based on the first information. The first generation step includes a second generation step of generating a second information indicating a positional relationship between the three-dimensional point group data of 1 and the second three-dimensional point group data, and the first generation step is performed on the first pixel. The point closest to the center of gravity position among the included point groups is designated as the representative point in the first pixel, and the point closest to the center of gravity position among the point groups included in the second pixel is designated as the representative point in the second pixel.
The invention according to claim 9 is a data processing method executed by a data processing apparatus, which includes an acquisition step of acquiring first and second three-dimensional point group data, and the first and second three-dimensional data. In the conversion step of converting the point group data into the first and second two-dimensional images, and in the first pixel and the second two-dimensional image in the first two-dimensional image corresponding to the same feature points. The first generation step of extracting the second pixel of the above and generating the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, and the first generation step based on the first information. The first generation step includes a second generation step of generating a second information indicating a positional relationship between the three-dimensional point group data of 1 and the second three-dimensional point group data, and the first generation step is performed on the first pixel. Among the included point groups, the point closest to the position of the center of gravity of the feature region included in the first pixel is set as a representative point in the first pixel, and among the point groups included in the second pixel, the second pixel The point closest to the position of the center of gravity of the included feature region is set as a representative point in the second pixel .

請求項10に記載の発明は、コンピュータを備えるデータ処理装置により実行されるプログラムであって、第1及び第2の3次元点群データを取得する取得部、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部、として前記コンピュータを機能させ、前記第1生成部は、前記第1画素に含まれる点群のうち当該第1画素の輝度に最も近い輝度を有する点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち当該第2画素の輝度に最も近い輝度を有する点を前記第2画素における代表点とする
請求項11に記載の発明は、コンピュータを備えるデータ処理装置により実行されるプログラムであって、第1及び第2の3次元点群データを取得する取得部、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部、として前記コンピュータを機能させ、前記第1生成部は、前記第1画素に含まれる点群のうち重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち重心位置に最も近い点を前記第2画素における代表点とする
請求項12に記載の発明は、コンピュータを備えるデータ処理装置により実行されるプログラムであって、第1及び第2の3次元点群データを取得する取得部、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部、として前記コンピュータを機能させ、前記第1生成部は、前記第1画素に含まれる点群のうち、当該第1画素に含まれる特徴領域の重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち、当該第2画素に含まれる特徴領域の重心位置に最も近い点を前記第2画素における代表点とする
The invention according to claim 10 is a program executed by a data processing device including a computer, and is an acquisition unit for acquiring first and second three-dimensional point cloud data, the first and second three dimensions. A conversion unit that converts point cloud data into first and second two-dimensional images, a first pixel in the first two-dimensional image and a second two-dimensional image corresponding to the same feature point. The first generation unit that extracts the second pixel and generates the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, the first generation unit based on the first information. The computer is operated as a second generation unit that generates second information indicating the positional relationship between the three-dimensional point cloud data and the second three-dimensional point cloud data, and the first generation unit is the first pixel. The point having the brightness closest to the brightness of the first pixel among the point cloud included in the first pixel is set as the representative point in the first pixel, and the point cloud included in the second pixel is closest to the brightness of the second pixel. A point having brightness is designated as a representative point in the second pixel .
The invention according to claim 11 is a program executed by a data processing device including a computer, and is an acquisition unit for acquiring first and second three-dimensional point cloud data, the first and second three dimensions. A conversion unit that converts point cloud data into first and second two-dimensional images, a first pixel in the first two-dimensional image and a second two-dimensional image corresponding to the same feature point. The first generation unit that extracts the second pixel and generates the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, the first generation unit based on the first information. The computer is operated as a second generation unit that generates second information indicating the positional relationship between the three-dimensional point cloud data and the second three-dimensional point cloud data, and the first generation unit is the first pixel. The point closest to the center of gravity position in the point cloud included in the first pixel is the representative point in the first pixel, and the point closest to the center of gravity position in the second pixel is the representative point in the second pixel. ..
The invention according to claim 12 is a program executed by a data processing device including a computer, and is an acquisition unit for acquiring first and second three-dimensional point cloud data, the first and second three dimensions. A conversion unit that converts point cloud data into first and second two-dimensional images, a first pixel in the first two-dimensional image and a second two-dimensional image corresponding to the same feature point. The first generation unit that extracts the second pixel and generates the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, the first generation unit based on the first information. The computer is operated as a second generation unit that generates second information indicating the positional relationship between the three-dimensional point cloud data and the second three-dimensional point cloud data, and the first generation unit is the first pixel. Of the point cloud included in the first pixel, the point closest to the position of the center of gravity of the feature region included in the first pixel is set as a representative point in the first pixel, and the second pixel among the point cloud included in the second pixel. The point closest to the position of the center of gravity of the feature region included in the second pixel is set as a representative point in the second pixel .

実施例に係るデータ処理装置を示す。The data processing apparatus which concerns on Example is shown. 位置調整処理の概要を示す。The outline of the position adjustment process is shown. 位置調整処理のフローチャートである。It is a flowchart of a position adjustment process. オルソ画像と点群データの関係を示す。The relationship between the ortho image and the point cloud data is shown. オルソ画像の画素における代表点の例を示す。An example of a representative point in a pixel of an ortho image is shown. オルソ画像の画素間の紐付け情報の例を示す。An example of associative information between pixels of an ortho image is shown.

本発明の好適な実施形態では、データ処理装置は、第1及び第2の3次元点群データを取得する取得部と、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部と、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部と、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部と、を備える。 In a preferred embodiment of the present invention, the data processing apparatus obtains the first and second three-dimensional point group data and the first and second three-dimensional point group data. The conversion unit that converts the two two-dimensional images and the first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature points are extracted. The first generation unit that generates the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, and the first three-dimensional point group data and the said based on the first information. It includes a second generation unit that generates second information indicating a positional relationship with the second three-dimensional point group data.

上記のデータ処理装置は、第1及び第2の3次元点群データを取得し、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する。次に、同一の特徴点に対応する、第1の2次元画像中の第1画素と第2の2次元画像中の第2画素とを抽出し、それら第1画素と第2画素の各々における代表点の位置関係を示す第1情報を生成する。さらに、前記第1情報に基づいて、第1の3次元点群データと第2の3次元点群データとの位置関係を示す第2情報を生成する。 The above data processing apparatus acquires the first and second three-dimensional point cloud data, and converts the first and second three-dimensional point cloud data into the first and second two-dimensional images. Next, the first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. The first information indicating the positional relationship of the representative points is generated. Further, based on the first information, second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data is generated.

このように、上記のデータ処理装置は、3次元点群データを2次元画像に変換し、同一の特徴点に対応する2次元画像中の画素間の位置関係を検出し、これに基づいて3次元点群データ間の位置関係を検出する。よって、演算量を抑制しつつ、点群データ間の位置調整を行うことが可能となる。 As described above, the above-mentioned data processing device converts the three-dimensional point cloud data into a two-dimensional image, detects the positional relationship between the pixels in the two-dimensional image corresponding to the same feature point, and based on this, 3 Detect the positional relationship between the 3D point cloud data. Therefore, it is possible to adjust the position between the point cloud data while suppressing the amount of calculation.

上記のデータ処理装置の一態様では、前記第1生成部は、前記第1画素に含まれる点群のうち当該第1画素の輝度に最も近い輝度を有する点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち当該第2画素の輝度に最も近い輝度を有する点を前記第2画素における代表点とする。 In one aspect of the above data processing apparatus, the first generation unit uses a point having a brightness closest to the brightness of the first pixel among the point cloud included in the first pixel as a representative point in the first pixel. A point cloud having a brightness closest to the brightness of the second pixel among the point cloud included in the second pixel is set as a representative point in the second pixel.

上記のデータ処理装置の他の一態様では、前記第1生成部は、前記第1画素に含まれる点群のうち重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち重心位置に最も近い点を前記第2画素における代表点とする。 In another aspect of the above data processing apparatus, the first generation unit uses the point closest to the position of the center of gravity of the point cloud included in the first pixel as a representative point in the first pixel, and the second pixel. The point closest to the position of the center of gravity among the point cloud included in the second pixel is set as a representative point in the second pixel.

上記のデータ処理装置の他の一態様では、前記第1生成部は、前記第1画素に含まれる点群のうち、当該第1画素に含まれる特徴領域の重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち、当該第2画素に含まれる特徴領域の重心位置に最も近い点を前記第2画素における代表点とする。 In another aspect of the data processing apparatus, the first generation unit sets the point closest to the center of gravity of the feature region included in the first pixel among the point cloud included in the first pixel. The representative point in one pixel is defined as the representative point in the second pixel, and the point closest to the position of the center of gravity of the feature region included in the second pixel is defined as the representative point in the second pixel.

上記のデータ処理装置において、好適には、前記3次元点群データは、外界センサにより道路面上で検出されたデータであり、前記特徴領域は、道路面上のペイントの領域である。また、好適には、前記特徴点は、前記ペイントの角に相当する点である。 In the above data processing apparatus, preferably, the three-dimensional point cloud data is data detected on the road surface by an external sensor, and the feature area is a paint area on the road surface. Also, preferably, the feature point is a point corresponding to the corner of the paint.

上記のデータ処理装置の他の一態様は、前記第2情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置ずれを調整する位置調整部を備える。この態様では、第2情報に基づいて、3次元点群データ間の位置ずれを調整することができる。 In another aspect of the above data processing device, a position adjusting unit that adjusts the positional deviation between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the second information is provided. Be prepared. In this aspect, the positional deviation between the three-dimensional point cloud data can be adjusted based on the second information.

本発明の他の好適な実施形態では、データ処理装置により実行されるデータ処理方法は、第1及び第2の3次元点群データを取得する取得工程と、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換工程と、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成工程と、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成工程と、を備える。この方法によっても、演算量を抑制しつつ、3次元点群データ間の位置調整を行うことが可能となる。 In another preferred embodiment of the present invention, the data processing method executed by the data processing apparatus includes an acquisition step of acquiring first and second three-dimensional point group data and the first and second three-dimensional data. In the conversion step of converting the point group data into the first and second two-dimensional images, and in the first pixel and the second two-dimensional image in the first two-dimensional image corresponding to the same feature points. The first generation step of extracting the second pixel of the above and generating the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, and the first generation step based on the first information. It includes a second generation step of generating second information indicating the positional relationship between the three-dimensional point group data of 1 and the second three-dimensional point group data. This method also makes it possible to adjust the position between the three-dimensional point cloud data while suppressing the amount of calculation.

本発明の他の好適な実施形態では、コンピュータを備えるデータ処理装置により実行されるプログラムは、第1及び第2の3次元点群データを取得する取得部、前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部、同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部、前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部、として前記コンピュータを機能させる。このプログラムをコンピュータで実行することにより、上記のデータ処理装置を実現することができる。このプログラムは、記憶媒体に記憶して取り扱うことができる。 In another preferred embodiment of the invention, the program executed by the data processing apparatus including the computer is an acquisition unit that acquires first and second three-dimensional point group data, the first and second three dimensions. A conversion unit that converts point group data into first and second two-dimensional images, a first pixel in the first two-dimensional image and a second two-dimensional image corresponding to the same feature point. The first generation unit that extracts the second pixel and generates the first information indicating the positional relationship of the representative points in each of the first pixel and the second pixel, the first generation unit based on the first information. The computer functions as a second generation unit that generates second information indicating the positional relationship between the three-dimensional point group data and the second three-dimensional point group data. By executing this program on a computer, the above data processing device can be realized. This program can be stored and handled in a storage medium.

以下、図面を参照して本発明の好適な実施例について説明する。
[システム構成]
図1は、実施例に係るデータ処理装置を示す。データ処理装置10は、車両などに搭載された3Dライダにより計測された3D点群データ(以下、単に「点群データ」と呼ぶ。)を処理する。具体的には、データ処理装置10は、異なる日時に計測された点群データ間の位置ずれを調整する処理を行う。なお、データ処理装置10は、CPU、ROM、RAMなどを備えるコンピュータ装置により構成され、予め用意されたプログラムを実行することにより、データ処理を実行する。
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
[System configuration]
FIG. 1 shows a data processing apparatus according to an embodiment. The data processing device 10 processes 3D point cloud data (hereinafter, simply referred to as "point cloud data") measured by a 3D rider mounted on a vehicle or the like. Specifically, the data processing device 10 performs a process of adjusting the positional deviation between the point cloud data measured at different dates and times. The data processing device 10 is composed of a computer device including a CPU, a ROM, a RAM, and the like, and executes data processing by executing a program prepared in advance.

いま、図1に示すように、異なる日時に計測された点群データAと点群データBが存在し、それぞれ点群データベース(以下、「データベース」を「DB」とも記す。)5Aと点群DB5Bに記憶されているものとする。データ処理装置10は、点群DB5Aから点群データAを取得し、点群DB5Bから点群データBを取得して処理を行う。 Now, as shown in FIG. 1, there are point cloud data A and point cloud data B measured at different dates and times, and a point cloud database (hereinafter, “database” is also referred to as “DB”) 5A and a point cloud, respectively. It is assumed that it is stored in DB5B. The data processing device 10 acquires the point cloud data A from the point cloud DB 5A, acquires the point cloud data B from the point cloud DB 5B, and performs processing.

[位置調整処理の概要]
次に、データ処理装置10により行われる点群データ間の位置調整処理について説明する。図2は、位置調整処理の概要を模式的に示す。点群DB5Aには点群データAが記憶されており、点群DB5Bには点群データBが記憶されている。ここで、点群データは、3次元空間内において3Dライダにより計測された計測点データの集合であり、計測点データの各々は3次元空間内、一般的にはワールド座標系における3次元座標(X、Y,Z座標)、及び、その計測点における輝度(反射強度)を含む。
[Overview of position adjustment processing]
Next, the position adjustment process between the point cloud data performed by the data processing device 10 will be described. FIG. 2 schematically shows an outline of the position adjustment process. The point cloud data A is stored in the point cloud DB5A, and the point cloud data B is stored in the point cloud DB5B. Here, the point cloud data is a set of measurement point data measured by the 3D rider in the three-dimensional space, and each of the measurement point data is in the three-dimensional space, generally in the world coordinate system. X, Y, Z coordinates) and the brightness (reflection intensity) at the measurement point.

点群データAと点群データBは、同一の道路を異なる日時に走行した際に計測された点群データである。一般的に、同一の道路を走行した場合でも、3Dライダにより計測される点群データは、センサの性能限界などの要因による誤差を含む。即ち、同じ地物を計測して得られた点群データであっても、異なる日時に計測された計測点の位置座標は、ワールド座標系上においてずれを生じる。本実施例のデータ処理装置10は、基本的に以下の4つの工程により、点群データAと点群データBとの位置調整を行う。 The point cloud data A and the point cloud data B are point cloud data measured when traveling on the same road at different dates and times. Generally, even when traveling on the same road, the point cloud data measured by the 3D rider includes an error due to factors such as the performance limit of the sensor. That is, even if the point cloud data is obtained by measuring the same feature, the position coordinates of the measurement points measured at different dates and times cause a deviation on the world coordinate system. The data processing device 10 of this embodiment basically adjusts the positions of the point cloud data A and the point cloud data B by the following four steps.

(第1工程)
まず、第1工程では、データ処理装置10は、各点群データを2次元画像であるオルソ画像に変換する。オルソ画像とは、ある地域を上空から撮影した空中写真に対して正射投影による補正をかけた画像であり、ある地域を上空から見た2次元画像である。本実施例では、データ処理装置10は、点群データAを変換してオルソ画像Aを生成し、点群データBを変換してオルソ画像Bを生成する。なお、点群データからオルソ画像への変換は、既知の各種の手法により行うことができる。通常、この変換により、オルソ画像の1画素は、複数の点群データを含むものとなる。
(First step)
First, in the first step, the data processing device 10 converts each point cloud data into an ortho image which is a two-dimensional image. An orthophoto image is an image obtained by correcting an aerial photograph taken from the sky of a certain area by orthographic projection, and is a two-dimensional image of a certain area viewed from the sky. In this embodiment, the data processing device 10 converts the point cloud data A to generate the ortho image A, and converts the point cloud data B to generate the ortho image B. The conversion from the point cloud data to the ortho image can be performed by various known methods. Normally, by this conversion, one pixel of the ortho image contains a plurality of point cloud data.

(第2工程)
次に、データ処理装置10は、オルソ画像A内の画素と、それに対応するオルソ画像B内の画素との紐付け情報を生成する。この紐付け情報は、オルソ画像A内の画素と、それに対応するオルソ画像B内の画素とのずれ量を示す情報である。この紐付け情報を、以下「画素間紐付け情報」とも呼ぶ。画素間紐付け情報は、本発明の第1情報に相当する。
(Second step)
Next, the data processing device 10 generates association information between the pixels in the ortho image A and the corresponding pixels in the ortho image B. This association information is information indicating the amount of deviation between the pixels in the ortho image A and the corresponding pixels in the ortho image B. This linking information is also hereinafter referred to as "pixel-to-pixel linking information". The inter-pixel linking information corresponds to the first information of the present invention.

(第3工程)
次に、データ処理装置10は、画素間紐付け情報に基づいて、点群データ間の紐付け情報(以下、「点群間紐付け情報」とも呼ぶ。)を生成する。点群間紐付け情報は、点群データA内の所定の計測点と、それに対応する点群データB内の計測点とのずれ量を示す情報である。点群間紐付け情報は、本発明の第2情報に相当する。
(Third step)
Next, the data processing device 10 generates linking information between point cloud data (hereinafter, also referred to as “point cloud linking information”) based on the pixel-to-pixel linking information. The point cloud association information is information indicating the amount of deviation between a predetermined measurement point in the point cloud data A and the measurement point in the corresponding point cloud data B. The point cloud association information corresponds to the second information of the present invention.

(第4工程)
そして、データ処理装置10は、点群間紐付け情報に基づいて、点群データAに含まれる計測点と、点群データBに含まれる計測点との位置調整を行う。例えば、点群データB中のある計測点の位置を、その計測点に対応する点群間紐付け情報が示すずれ量だけ移動することにより、点群データA中のそれに対応する計測点に一致させる。
(4th step)
Then, the data processing device 10 adjusts the positions of the measurement points included in the point cloud data A and the measurement points included in the point cloud data B based on the point cloud association information. For example, by moving the position of a certain measurement point in the point cloud data B by the amount of deviation indicated by the point cloud association information corresponding to the measurement point, the position of the measurement point matches the measurement point corresponding to the measurement point in the point cloud data A. Let me.

このように、本実施例では、3D点群データをいったん2次元画像であるオルソ画像に変換し、オルソ画像の画像間の位置ずれを検出し、これを3D点群間の位置ずれに展開する。これにより、3D点群データに対して複雑な演算を行って位置ずれの検出を行う必要がなくなる。 As described above, in this embodiment, the 3D point cloud data is once converted into an ortho image which is a two-dimensional image, the positional deviation between the images of the ortho image is detected, and this is expanded into the positional deviation between the 3D point clouds. .. This eliminates the need to perform complicated calculations on the 3D point cloud data to detect the positional deviation.

[位置調整処理の詳細]
次に、上記の位置調整処理について詳しく説明する。図3は、位置調整処理のフローチャートである。この処理は、データ処理装置10が予め用意されたプログラムを実行することにより実現される。
[Details of position adjustment processing]
Next, the above position adjustment process will be described in detail. FIG. 3 is a flowchart of the position adjustment process. This process is realized by the data processing device 10 executing a program prepared in advance.

まず、データ処理装置10は、点群DB5Aと点群DB5Bから、点群データAと点群データBを取得する(ステップS11)。点群データAと点群データBは、同一の道路などを異なる日時に走行し3Dライダで計測したデータである。いま、仮に図4(A)に示すT字路を矢印の方向に走行中に、3Dライダにより路面の点群データを計測したものとする。T字路の路面には、T字型の路面ペイント(以下、「マークM」と呼ぶ。)が設けられている。よって、点群データA及び点群データBは、それぞれマークMの領域を含む。なお、マークMは白色のペイントであり、反射強度が高いため、マークMに対応する計測点の輝度は高くなる。 First, the data processing device 10 acquires the point cloud data A and the point cloud data B from the point cloud DB 5A and the point cloud DB 5B (step S11). The point cloud data A and the point cloud data B are data measured by a 3D rider while traveling on the same road or the like at different dates and times. Now, it is assumed that the point cloud data of the road surface is measured by a 3D rider while traveling on the T-junction shown in FIG. 4 (A) in the direction of the arrow. A T-shaped road surface paint (hereinafter referred to as "Mark M") is provided on the road surface of the T-junction. Therefore, the point cloud data A and the point cloud data B each include the region of the mark M. Since the mark M is a white paint and has a high reflection intensity, the brightness of the measurement point corresponding to the mark M is high.

次に、データ処理装置10は、点群データAからオルソ画像Aを生成し、点群データBからオルソ画像Bを生成する(ステップS12)。ここで、オルソ画像A、Bの各画素は、それに対応する位置の複数の点群データを含む。 Next, the data processing device 10 generates an ortho image A from the point cloud data A and generates an ortho image B from the point cloud data B (step S12). Here, each pixel of the orthoimages A and B includes a plurality of point cloud data at the corresponding positions.

図4(B)は、オルソ画像の画素と点群データとの関係を示す。なお、図4(B)は、マークMを含む領域のオルソ画像を示す。オルソ画像は、複数の画素Pにより構成されている。また、オルソ画像の1つの画素Pには、点群データの複数の計測点が含まれる。図4(B)の例では、オルソ画像の1つの画素Pには、6×6=36個の計測点が含まれる。いま、図4(B)のオルソ画像の右上の1つの画素を画素Pxとすると、その拡大図に示すように、画像Pxの左下の3×3=9個の計測点は、路面ペイントであるマークM上の計測点であり、高い輝度を有するものとなる。一方、この9個の計測点以外の計測点は道路面上の計測点であり、マークMに比べて低い輝度を有するものとなる。 FIG. 4B shows the relationship between the pixels of the ortho image and the point cloud data. Note that FIG. 4B shows an ortho image of the region including the mark M. The ortho image is composed of a plurality of pixels P. Further, one pixel P of the ortho image includes a plurality of measurement points of the point cloud data. In the example of FIG. 4B, one pixel P of the ortho image includes 6 × 6 = 36 measurement points. Now, assuming that one pixel in the upper right of the ortho image of FIG. 4 (B) is a pixel Px, as shown in the enlarged view, 3 × 3 = 9 measurement points in the lower left of the image Px are road surface paints. It is a measurement point on the mark M and has high brightness. On the other hand, the measurement points other than the nine measurement points are the measurement points on the road surface and have lower brightness than the mark M.

さて、オルソ画像Aとオルソ画像Bが得られると、データ処理装置10は、各オルソ画像A、B中の特徴点の画素(以下、「特徴点画素」とも呼ぶ。)を抽出する(ステップS13)。ここで、特徴点とは、典型的には路面ペイントの角などであり、路面上にあって形状や色などが周辺とは異なる部分である。特徴点は、オルソ画像Aとオルソ画像Bにおいて、相互に対応する画素を特定するために利用される。本例では、データ処理装置10は、マークMの右上の角を特徴点とし、マークMの右上の角を含む画素Pxを特徴点画素とする。即ち、データ処理装置10は、オルソ画像A、Bにおいて、マークMの右上の角を含む画素Pxを抽出する。なお、図4(B)から理解されるように、オルソ画像A、Bを構成する全ての画素が特徴点を含むわけではなく、オルソ画像A、Bを構成する画素のうちの一部の画素が特徴点画素として抽出されることになる。 Now, when the ortho image A and the ortho image B are obtained, the data processing device 10 extracts the pixels of the feature points in the ortho images A and B (hereinafter, also referred to as “feature point pixels”) (step S13). ). Here, the feature point is typically a corner of the road surface paint or the like, and is a part on the road surface whose shape, color, or the like is different from that of the periphery. The feature points are used to identify pixels that correspond to each other in the ortho image A and the ortho image B. In this example, the data processing device 10 uses the upper right corner of the mark M as a feature point, and the pixel Px including the upper right corner of the mark M as a feature point pixel. That is, the data processing device 10 extracts the pixel Px including the upper right corner of the mark M in the ortho images A and B. As can be understood from FIG. 4B, not all the pixels constituting the ortho images A and B include the feature points, and some pixels among the pixels constituting the ortho images A and B. Will be extracted as feature point pixels.

次に、データ処理装置10は、オルソ画像A、Bのそれぞれから抽出された特徴点画素における代表点を決定する(ステップS14)。本例では、データ処理装置10は、特徴点画素Pxにおける代表点を決定する。図5は、代表点の例を示す。代表点は、特徴点画素に含まれる複数の計測点のうち、その画素を代表する点であり、以下のいずれかの方法で決定することができる。 Next, the data processing device 10 determines representative points in the feature point pixels extracted from each of the ortho images A and B (step S14). In this example, the data processing device 10 determines a representative point in the feature point pixel Px. FIG. 5 shows an example of representative points. The representative point is a point representing the pixel among a plurality of measurement points included in the feature point pixel, and can be determined by any of the following methods.

第1の方法では、特徴点画素において、その画素の輝度値と最も近い輝度を有する計測点を代表点とする。図5の例では、特徴点画素Pxは反射強度の高いマークMの一部を含むため、画素自体の輝度は高い。よって、その画素Pxの輝度に最も近い輝度を有する計測点Dを代表点とする。図5の例では、画素Pxの輝度に最も近い輝度を有する計測点R1が代表点に決定される。 In the first method, a measurement point having a brightness closest to the brightness value of the feature point pixel is set as a representative point. In the example of FIG. 5, since the feature point pixel Px includes a part of the mark M having high reflection intensity, the brightness of the pixel itself is high. Therefore, the measurement point D having the brightness closest to the brightness of the pixel Px is set as a representative point. In the example of FIG. 5, the measurement point R1 having the brightness closest to the brightness of the pixel Px is determined as the representative point.

第2の方法では、特徴点画素に含まれる点群の重心位置に最も近い計測点を代表点とする。図5の例では、特徴点画素Rxに含まれる点群の重心位置に最も近い計測点R2が代表点に決定される。第3の方法では、特徴点画素において輝度が所定値よりも高い領域を特定し、その領域の重心位置に最も近い計測点を代表点とする。図5の例では、画素PxにはマークMに対応する輝度の高い領域があり、その重心位置に最も近い計測点R3が代表点に決定される。 In the second method, the measurement point closest to the position of the center of gravity of the point cloud included in the feature point pixel is set as the representative point. In the example of FIG. 5, the measurement point R2 closest to the position of the center of gravity of the point cloud included in the feature point pixel Rx is determined as the representative point. In the third method, a region having a brightness higher than a predetermined value is specified in the feature point pixel, and the measurement point closest to the position of the center of gravity of the region is set as a representative point. In the example of FIG. 5, the pixel Px has a region having high brightness corresponding to the mark M, and the measurement point R3 closest to the position of the center of gravity is determined as the representative point.

なお、路面ペイントであるマークMの反射強度は、天候などの路面状態により変動するので、画素の輝度を判定する際には、必要に応じて輝度の値を正規化して比較することが好ましい。上記のいずれかの方法で代表点が決定されると、データ処理装置は、オルソ画像A、Bのそれぞれから抽出された特徴点画素における代表点間のずれ量を算出し、画素間紐付け情報を生成する(ステップS15)。図6は、画素間紐付け情報を生成する方法を示す。いま、図6(A)に示すように、オルソ画像Aの特徴点画素Paは複数の計測点Daを含み、それらから代表点Raが決定されたとする。また、オルソ画像Bの特徴点画素Pbは複数の計測点Dbを含み、それらから代表点Rbが決定されたとする。なお、特徴点画素PaとPbは同一の位置に対応する画素であるものとする。 Since the reflection intensity of the mark M, which is a road surface paint, varies depending on the road surface condition such as the weather, it is preferable to normalize and compare the brightness values as necessary when determining the brightness of the pixels. When the representative point is determined by any of the above methods, the data processing device calculates the amount of deviation between the representative points in the feature point pixels extracted from each of the ortho images A and B, and the inter-pixel linking information. Is generated (step S15). FIG. 6 shows a method of generating inter-pixel association information. Now, as shown in FIG. 6A, it is assumed that the feature point pixel Pa of the ortho image A includes a plurality of measurement points Da, and the representative point Ra is determined from them. Further, it is assumed that the feature point pixel Pb of the ortho image B includes a plurality of measurement points Db, and the representative point Rb is determined from them. It is assumed that the feature point pixels Pa and Pb are pixels corresponding to the same position.

この場合、データ処理装置10は、図6(B)に示すように、代表点RaとRbのずれ量(Δx,Δy,Δz)を算出し、これを画素間紐付け情報とする。即ち、オルソ画像Aの特徴点画素Paとオルソ画像Bの特徴点画素Pbとの画素間紐付け情報として、(Δx,Δy,Δz)を得る。ここで、Δzは図6(B)の紙面垂直方向の成分、つまり高さ方向の成分である。具体的にΔzは、特徴点画素Paの高さ成分と特徴点画素Pbの高さ成分のずれ量である。こうして、データ処理装置10は、オルソ画像A、Bにおいて抽出された全ての特徴点画素について代表点を決定し、画素間紐付け情報を生成する。なお、図6の例では、画素間紐付け情報は平行移動成分のみを有する位置ずれを示すが、実際には、3D点群データの歪などに起因して、回転成分を含む位置ずれや、拡大・縮小を伴う位置ずれなどが生じる。よって、画素間紐付け情報は、そのような回転や拡大・縮小の成分を有する位置ずれ情報を含む場合もある。 In this case, as shown in FIG. 6B, the data processing device 10 calculates the amount of deviation (Δx, Δy, Δz) between the representative points Ra and Rb, and uses this as the inter-pixel linking information. That is, (Δx, Δy, Δz) is obtained as the inter-pixel association information between the feature point pixel Pa of the ortho image A and the feature point pixel Pb of the ortho image B. Here, Δz is a component in the vertical direction of the paper surface in FIG. 6B, that is, a component in the height direction. Specifically, Δz is the amount of deviation between the height component of the feature point pixel Pa and the height component of the feature point pixel Pb. In this way, the data processing device 10 determines representative points for all the feature point pixels extracted in the ortho images A and B, and generates inter-pixel association information. In the example of FIG. 6, the inter-pixel associative information shows a positional deviation having only a translation component, but in reality, due to distortion of the 3D point cloud data or the like, the positional deviation including the rotation component or Positional shifts that accompany enlargement / reduction occur. Therefore, the inter-pixel linking information may include misalignment information having such rotation and enlargement / reduction components.

こうして画素間紐付け情報が生成されると、データ処理装置10は、画素間紐付け情報に基づいて、点群間紐付け情報を生成する(ステップS16)。例えば、図6(B)に示す画素間紐付け情報(Δx,Δy,Δz)が得られた場合、データ処理装置10は、オルソ画像Aの特徴点画素Paに含まれる点群と、オルソ画像Bの特徴点画素Pbに含まれる点群との間の点群間紐付け情報を(Δx,Δy,Δz)とする。これにより、オルソ画像に含まれる点群レベルでの位置ずれ量を得ることができる。なお、特徴点画素以外の画素については、その近くに存在する特徴点画素についての点群間紐付け情報を利用すればよい。また、近くに複数の特徴点画素がある場合には、それら複数の特徴点画素との位置関係や距離に基づいて、複数の点群間紐付け情報を配分して適用してもよい。 When the inter-pixel association information is generated in this way, the data processing device 10 generates the inter-pixel association information based on the inter-pixel association information (step S16). For example, when the inter-pixel association information (Δx, Δy, Δz) shown in FIG. 6B is obtained, the data processing device 10 uses the point cloud included in the feature point pixel Pa of the ortho image A and the ortho image. Let (Δx, Δy, Δz) be the point cloud association information with the point cloud included in the feature point pixel Pb of B. As a result, the amount of misalignment at the point cloud level included in the ortho image can be obtained. For pixels other than the feature point pixels, the point cloud association information for the feature point pixels existing in the vicinity thereof may be used. Further, when there are a plurality of feature point pixels in the vicinity, the linking information between the plurality of point groups may be distributed and applied based on the positional relationship and the distance between the plurality of feature point pixels.

そして、データ処理装置10は、生成された点群間紐付け情報に基づいて、点群データAと点群データBの間の位置調整を行う(ステップS17)。例えば、図6の例では、点群データBを構成する各計測点の位置を、得られた点群間紐付け情報が示すずれ量に基づいてシフトして点群データA、Bのずれを解消する。また、点群間紐付け情報が、回転成分を含む位置ずれや、拡大・縮小を伴う位置ずれである場合には、データ処理装置10は、それらを含む紐付け情報に基づいて、点群データに対して回転や拡大・縮小などの補正を施して位置ずれを解消する。こうして位置ずれが解消された点群データA、Bは、同一地点で得られた3D点群データとして地図情報の生成などに利用することができる。 Then, the data processing device 10 adjusts the position between the point cloud data A and the point cloud data B based on the generated point cloud association information (step S17). For example, in the example of FIG. 6, the position of each measurement point constituting the point cloud data B is shifted based on the deviation amount indicated by the obtained point cloud association information to obtain the deviation of the point cloud data A and B. Eliminate. Further, when the point cloud linking information is a position shift including a rotation component or a position shift accompanied by enlargement / reduction, the data processing device 10 uses the point cloud data based on the linking information including them. However, corrections such as rotation and enlargement / reduction are applied to eliminate the misalignment. The point cloud data A and B in which the misalignment is eliminated can be used for generating map information or the like as 3D point cloud data obtained at the same point.

[変形例]
上記の実施例では、路面上に設けられた道路ペイントなどを用いて点群データ間の位置調整を行っている。よって、3Dライダで計測された3D点群データから、前処理として、路面上に対応する点群データのみを抽出し、路面上に対応する点群データについて上記の処理を適用することとするのが好ましい。例えば、3Dライダで得られた3D点群データから、看板などの立体物の点群を予め除去した残りの点群データに対して上記の位置調整処理を適用する。これにより、処理の対象となる点群データ量を削減し、効率的な処理が可能となる。
[Modification example]
In the above embodiment, the position between the point cloud data is adjusted by using a road paint or the like provided on the road surface. Therefore, as preprocessing, only the point cloud data corresponding to the road surface is extracted from the 3D point cloud data measured by the 3D rider, and the above processing is applied to the point cloud data corresponding to the road surface. Is preferable. For example, the above position adjustment process is applied to the remaining point cloud data obtained by removing the point cloud of a three-dimensional object such as a sign in advance from the 3D point cloud data obtained by the 3D rider. As a result, the amount of point cloud data to be processed is reduced, and efficient processing becomes possible.

上記の実施例では、データ処理装置10は、異なる日時に計測された点群データAと点群データBを用いて、点群データA、Bのずれを解消しているが、本発明はこれに限定されない。同じ日時に点群データAと点群データBが、それぞれ異なる車両により計測されたものであっても、上記のデータ処理が実行可能となる。複数の車両のそれぞれに搭載された3Dライダは、センサの性能が異なる場合があり、これにより測定データに誤差を生じることになるが、本発明の処理を行うことで、3Dライダの性能に関わらず、点群データのずれを解消することが可能となる。 In the above embodiment, the data processing device 10 uses the point cloud data A and the point cloud data B measured at different dates and times to eliminate the deviation between the point cloud data A and B. Not limited to. Even if the point cloud data A and the point cloud data B are measured by different vehicles on the same date and time, the above data processing can be executed. The 3D rider mounted on each of a plurality of vehicles may have different sensor performance, which causes an error in the measurement data. However, the processing of the present invention is not related to the performance of the 3D rider. However, it is possible to eliminate the deviation of the point cloud data.

5A、5B 点群データベース
10 データ処理装置
D 点群データの計測点
M マーク
P、Pa、Pb オルソ画像の画素
R1〜R3、Ra、Rb 代表点
5A, 5B Point cloud database 10 Data processing device D Point cloud data measurement points M mark P, Pa, Pb Ortho image pixels R1 to R3, Ra, Rb Representative points

Claims (13)

第1及び第2の3次元点群データを取得する取得部と、
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部と、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部と、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部と、
を備え
前記第1生成部は、前記第1画素に含まれる点群のうち当該第1画素の輝度に最も近い輝度を有する点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち当該第2画素の輝度に最も近い輝度を有する点を前記第2画素における代表点とするデータ処理装置。
An acquisition unit that acquires the first and second 3D point cloud data,
A conversion unit that converts the first and second three-dimensional point cloud data into first and second two-dimensional images, and
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. A first generation unit that generates first information indicating the positional relationship of representative points, and
A second generation unit that generates second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
Equipped with a,
The first generation unit uses a point group having a brightness closest to the brightness of the first pixel among the point groups included in the first pixel as a representative point in the first pixel, and the point group included in the second pixel. A data processing device in which a point having a brightness closest to the brightness of the second pixel is a representative point in the second pixel.
第1及び第2の3次元点群データを取得する取得部と、
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部と、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部と、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部と、
を備え、
前記第1生成部は、前記第1画素に含まれる点群のうち重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち重心位置に最も近い点を前記第2画素における代表点とするデータ処理装置。
An acquisition unit that acquires the first and second 3D point cloud data,
A conversion unit that converts the first and second three-dimensional point cloud data into first and second two-dimensional images, and
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. A first generation unit that generates first information indicating the positional relationship of representative points, and
A second generation unit that generates second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
With
In the first generation unit, the point closest to the center of gravity position in the point cloud included in the first pixel is set as the representative point in the first pixel, and the point group included in the second pixel is closest to the center of gravity position. A data processing device in which a point is a representative point in the second pixel.
第1及び第2の3次元点群データを取得する取得部と、
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部と、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部と、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部と、
を備え、
前記第1生成部は、前記第1画素に含まれる点群のうち、当該第1画素に含まれる特徴領域の重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち、当該第2画素に含まれる特徴領域の重心位置に最も近い点を前記第2画素における代表点とするデータ処理装置。
An acquisition unit that acquires the first and second 3D point cloud data,
A conversion unit that converts the first and second three-dimensional point cloud data into first and second two-dimensional images, and
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. A first generation unit that generates first information indicating the positional relationship of representative points, and
A second generation unit that generates second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
With
In the first generation unit, among the point cloud included in the first pixel, the point closest to the position of the center of gravity of the feature region included in the first pixel is set as a representative point in the first pixel, and the second pixel A data processing device in which, among the included point clouds, the point closest to the position of the center of gravity of the feature region included in the second pixel is a representative point in the second pixel.
前記3次元点群データは、外界センサにより道路面上で検出されたデータであり、
前記特徴領域は、道路面上のペイントの領域であることを特徴とする請求項に記載のデータ処理装置。
The three-dimensional point cloud data is data detected on the road surface by an external sensor, and is
The data processing device according to claim 3 , wherein the feature area is a paint area on a road surface.
前記特徴点は、前記ペイントの角に相当する点であることを特徴とする請求項に記載のデータ処理装置。 The data processing apparatus according to claim 4 , wherein the feature points correspond to the corners of the paint. 前記第2情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置ずれを調整する位置調整部を備えることを特徴とする請求項1乃至のいずれか一項に記載のデータ処理装置。 Based on the second information, according to claim 1 to 5, further comprising a position adjusting section for adjusting the positional deviation between the first 3 and the dimensional point group data and the second three-dimensional point group data The data processing apparatus according to any one item. データ処理装置により実行されるデータ処理方法であって、
第1及び第2の3次元点群データを取得する取得工程と、
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換工程と、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成工程と、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成工程と、
を備え
前記第1生成工程は、前記第1画素に含まれる点群のうち当該第1画素の輝度に最も近い輝度を有する点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち当該第2画素の輝度に最も近い輝度を有する点を前記第2画素における代表点とするデータ処理方法。
A data processing method executed by a data processing device.
The acquisition process for acquiring the first and second 3D point cloud data, and
A conversion step of converting the first and second three-dimensional point cloud data into first and second two-dimensional images, and
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. The first generation step of generating the first information indicating the positional relationship of the representative points, and
A second generation step of generating second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
Equipped with a,
In the first generation step, a point group having a brightness closest to the brightness of the first pixel among the point groups included in the first pixel is set as a representative point in the first pixel, and a point group included in the second pixel. A data processing method in which a point having a brightness closest to the brightness of the second pixel is a representative point in the second pixel.
データ処理装置により実行されるデータ処理方法であって、
第1及び第2の3次元点群データを取得する取得工程と、
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換工程と、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成工程と、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成工程と、
を備え、
前記第1生成工程は、前記第1画素に含まれる点群のうち重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち重心位置に最も近い点を前記第2画素における代表点とするデータ処理方法。
A data processing method executed by a data processing device.
The acquisition process for acquiring the first and second 3D point cloud data, and
A conversion step of converting the first and second three-dimensional point cloud data into first and second two-dimensional images, and
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. The first generation step of generating the first information indicating the positional relationship of the representative points, and
A second generation step of generating second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
With
In the first generation step, the point closest to the center of gravity position of the point cloud included in the first pixel is set as the representative point in the first pixel, and the point cloud included in the second pixel is closest to the center of gravity position. A data processing method in which a point is a representative point in the second pixel.
データ処理装置により実行されるデータ処理方法であって、
第1及び第2の3次元点群データを取得する取得工程と、
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換工程と、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成工程と、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成工程と、
を備え、
前記第1生成工程は、前記第1画素に含まれる点群のうち、当該第1画素に含まれる特徴領域の重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち、当該第2画素に含まれる特徴領域の重心位置に最も近い点を前記第2画素における代表点とするデータ処理方法。
A data processing method executed by a data processing device.
The acquisition process for acquiring the first and second 3D point cloud data, and
A conversion step of converting the first and second three-dimensional point cloud data into first and second two-dimensional images, and
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. The first generation step of generating the first information indicating the positional relationship of the representative points, and
A second generation step of generating second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
With
In the first generation step, among the point cloud included in the first pixel, the point closest to the position of the center of gravity of the feature region included in the first pixel is set as a representative point in the first pixel, and the second pixel is set. A data processing method in which, among the included point clouds, the point closest to the position of the center of gravity of the feature region included in the second pixel is set as a representative point in the second pixel.
コンピュータを備えるデータ処理装置により実行されるプログラムであって、
第1及び第2の3次元点群データを取得する取得部、
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部、
として前記コンピュータを機能させ
前記第1生成部は、前記第1画素に含まれる点群のうち当該第1画素の輝度に最も近い輝度を有する点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち当該第2画素の輝度に最も近い輝度を有する点を前記第2画素における代表点とするプログラム。
A program executed by a data processing device equipped with a computer.
Acquisition unit that acquires the first and second 3D point cloud data,
A conversion unit that converts the first and second three-dimensional point cloud data into first and second two-dimensional images.
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. A first generation unit that generates first information indicating the positional relationship of representative points,
A second generation unit that generates second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
It makes the computer function as,
The first generation unit uses a point group having a brightness closest to the brightness of the first pixel among the point groups included in the first pixel as a representative point in the first pixel, and the point group included in the second pixel. A program in which a point having a brightness closest to the brightness of the second pixel is a representative point in the second pixel.
コンピュータを備えるデータ処理装置により実行されるプログラムであって、
第1及び第2の3次元点群データを取得する取得部、
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部、
として前記コンピュータを機能させ、
前記第1生成部は、前記第1画素に含まれる点群のうち重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち重心位置に最も近い点を前記第2画素における代表点とするプログラム。
A program executed by a data processing device equipped with a computer.
Acquisition unit that acquires the first and second 3D point cloud data,
A conversion unit that converts the first and second three-dimensional point cloud data into first and second two-dimensional images.
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. A first generation unit that generates first information indicating the positional relationship of representative points,
A second generation unit that generates second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
To make the computer function as
The first generation unit uses the point closest to the center of gravity position of the point cloud included in the first pixel as a representative point in the first pixel, and is closest to the center of gravity position of the point cloud included in the second pixel. A program in which a point is a representative point in the second pixel.
コンピュータを備えるデータ処理装置により実行されるプログラムであって、
第1及び第2の3次元点群データを取得する取得部、
前記第1及び第2の3次元点群データを、第1及び第2の2次元画像に変換する変換部、
同一の特徴点に対応する、前記第1の2次元画像中の第1画素と前記第2の2次元画像中の第2画素とを抽出し、前記第1画素と前記第2画素の各々における代表点の位置関係を示す第1情報を生成する第1生成部、
前記第1情報に基づいて、前記第1の3次元点群データと前記第2の3次元点群データとの位置関係を示す第2情報を生成する第2生成部、
として前記コンピュータを機能させ、
前記第1生成部は、前記第1画素に含まれる点群のうち、当該第1画素に含まれる特徴領域の重心位置に最も近い点を前記第1画素における代表点とし、前記第2画素に含まれる点群のうち、当該第2画素に含まれる特徴領域の重心位置に最も近い点を前記第2画素における代表点とするプログラム。
A program executed by a data processing device equipped with a computer.
Acquisition unit that acquires the first and second 3D point cloud data,
A conversion unit that converts the first and second three-dimensional point cloud data into first and second two-dimensional images.
The first pixel in the first two-dimensional image and the second pixel in the second two-dimensional image corresponding to the same feature point are extracted, and in each of the first pixel and the second pixel. A first generation unit that generates first information indicating the positional relationship of representative points,
A second generation unit that generates second information indicating the positional relationship between the first three-dimensional point cloud data and the second three-dimensional point cloud data based on the first information.
To make the computer function as
In the first generation unit, among the point cloud included in the first pixel, the point closest to the position of the center of gravity of the feature region included in the first pixel is set as a representative point in the first pixel, and the second pixel A program in which, among the included point clouds, the point closest to the position of the center of gravity of the feature region included in the second pixel is a representative point in the second pixel.
請求項10乃至12のいずれか一項に記載のプログラムを記憶した記憶媒体。 A storage medium that stores the program according to any one of claims 10 to 12.
JP2017067006A 2017-03-30 2017-03-30 Data processing equipment, data processing methods, and programs Active JP6876484B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017067006A JP6876484B2 (en) 2017-03-30 2017-03-30 Data processing equipment, data processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017067006A JP6876484B2 (en) 2017-03-30 2017-03-30 Data processing equipment, data processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2018169825A JP2018169825A (en) 2018-11-01
JP6876484B2 true JP6876484B2 (en) 2021-05-26

Family

ID=64020439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017067006A Active JP6876484B2 (en) 2017-03-30 2017-03-30 Data processing equipment, data processing methods, and programs

Country Status (1)

Country Link
JP (1) JP6876484B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5593177B2 (en) * 2010-09-14 2014-09-17 株式会社トプコン Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program
JP5389964B2 (en) * 2012-02-21 2014-01-15 株式会社パスコ Map information generator
JP6473188B2 (en) * 2017-03-28 2019-02-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Method, apparatus and program for generating depth map

Also Published As

Publication number Publication date
JP2018169825A (en) 2018-11-01

Similar Documents

Publication Publication Date Title
EP3096286B1 (en) Image processing apparatus, image processing method, and computer program product
JP4378571B2 (en) MAP CHANGE DETECTION DEVICE, MAP CHANGE DETECTION METHOD, AND PROGRAM
Murakami et al. Change detection of buildings using an airborne laser scanner
EP2057585B1 (en) Mosaic oblique images and methods of making and using same
KR101219767B1 (en) Method for Field Survey of Digital Mapping Road Layers Using Vehicle Mobile Mapping System
JP6260891B2 (en) Image processing apparatus and image processing method
JP2004117078A (en) Obstacle detection device and method
KR101510206B1 (en) Urban Change Detection Method Using the Aerial Hyper Spectral images for Digital Map modify Drawing
CN108961286B (en) Unmanned aerial vehicle image segmentation method considering three-dimensional and edge shape characteristics of building
CN106952262B (en) Ship plate machining precision analysis method based on stereoscopic vision
WO2014045508A1 (en) Inspection device, inspection method, and inspection program
KR101453143B1 (en) Stereo matching process system, stereo matching process method, and recording medium
JP2006195032A (en) Topographical map creating method and topographical map creating system
CN114692720A (en) Image classification method, device, equipment and storage medium based on aerial view
CN110929782B (en) River channel abnormity detection method based on orthophoto map comparison
CN116839564A (en) High-precision map construction auxiliary method, equipment and medium
JP2005128001A (en) Method of detecting subpixel moving amount applied to optical navigation system
KR102023087B1 (en) Method for camera calibration
JP5254545B2 (en) Image processing apparatus and image processing method
CN107765257A (en) A kind of laser acquisition and measuring method based on the calibration of reflected intensity accessory external
JP6634842B2 (en) Information processing apparatus, information processing method and program
JP6876484B2 (en) Data processing equipment, data processing methods, and programs
CN116958218A (en) Point cloud and image registration method and equipment based on calibration plate corner alignment
Deng et al. Automatic true orthophoto generation based on three-dimensional building model using multiview urban aerial images
JP2009146150A (en) Method and device for detecting feature position

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210426

R150 Certificate of patent or registration of utility model

Ref document number: 6876484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE

Ref document number: 6876484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250