JP5339953B2 - 3D map correction apparatus and 3D map correction program - Google Patents

3D map correction apparatus and 3D map correction program Download PDF

Info

Publication number
JP5339953B2
JP5339953B2 JP2009033928A JP2009033928A JP5339953B2 JP 5339953 B2 JP5339953 B2 JP 5339953B2 JP 2009033928 A JP2009033928 A JP 2009033928A JP 2009033928 A JP2009033928 A JP 2009033928A JP 5339953 B2 JP5339953 B2 JP 5339953B2
Authority
JP
Japan
Prior art keywords
wall
data
vector
polygon
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009033928A
Other languages
Japanese (ja)
Other versions
JP2010191066A (en
Inventor
純一 柴山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009033928A priority Critical patent/JP5339953B2/en
Publication of JP2010191066A publication Critical patent/JP2010191066A/en
Application granted granted Critical
Publication of JP5339953B2 publication Critical patent/JP5339953B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To acquire a three-dimensional map having error accuracy equivalent to a large scale (e.g. scale 1/500) without carrying out individual surveys separately from the ground. <P>SOLUTION: The three-dimensional map correcting device is provided with a wall vector-computing section 4 for computing wall vector data D indicating the position and shape of the wall surface of a building which is a feature existing around a vehicle, based on: feature point group data A indicating a point group of three-dimensional positions of features existing around the vehicle; and travel vector data C indicating the travel locus of the vehicle. A map polygon-correcting section 9 corrects wall polygon data E and roof polygon data F of the three-dimensional map stored in a three-dimensional map storage section 8 according to the wall vector data D computed by the wall vector-computing section 4. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

この発明は、精度が低い三次元地図(特に建物の壁及び屋根の位置・形状)を補正する三次元地図補正装置及び三次元地図補正プログラムに関するものである。   The present invention relates to a three-dimensional map correction apparatus and a three-dimensional map correction program for correcting a three-dimensional map (particularly, the position and shape of a building wall and a roof) with low accuracy.

従来より、航空測量や、測量装置による地上での測量によって二次元地図が作成されてきている。
また、航空測量による立体視が行われることで、あるいは、航空測量においてレーザ測定装置とGPS(Global Positioning System)装置などからなる標高測定が加わることで、建物の屋根の高さを記録している三次元地図が作成されてきている。
これらの三次元地図は、航空測量による測量装置と、測量対象の地面との距離などの制約により、縮尺が1/2500の場合、誤差を標準誤差1.75m(国土交通省の基準)に合わせる必要がある。
これにより、三次元地図の誤差を小さくするために、手間がかかる個別の事物の測量によって、三次元地図を補正することが必要である。
Conventionally, a two-dimensional map has been created by aerial surveying or surveying on the ground by a surveying instrument.
Moreover, the height of the roof of the building is recorded by performing a stereoscopic view by aerial survey or by adding altitude measurement including a laser measurement device and a GPS (Global Positioning System) device in aerial survey. Three-dimensional maps have been created.
These 3D maps are adjusted to a standard error of 1.75 m (Ministry of Land, Infrastructure, Transport and Tourism) when the scale is 1/2500 due to restrictions such as the distance between the surveying device by aerial survey and the ground to be surveyed. There is a need.
Thus, in order to reduce the error of the 3D map, it is necessary to correct the 3D map by surveying individual things that are troublesome.

以下の非特許文献1には、レーザ測定装置、GPS装置、慣性航法装置及び積算走行距離計を車両に搭載することで、地物表面の位置を、三次元的な位置座標を保持している点群データとして獲得する地上点群獲得手段が開示されている。
ただし、この点群データは、地物の意味(建物の壁など)や、地物の三次元構造(壁を表す三次元上の平面の位置)などの情報は保持していない。
In Non-Patent Document 1 below, a laser measurement device, a GPS device, an inertial navigation device, and an integrated odometer are mounted on a vehicle, so that the position of the feature surface is held in three-dimensional position coordinates. Ground point cloud acquisition means for acquiring as point cloud data is disclosed.
However, this point cloud data does not hold information such as the meaning of the feature (such as a building wall) or the three-dimensional structure of the feature (the position of the three-dimensional plane representing the wall).

以下の特許文献1には、航空機からレーザを地上に照射することで得られる三次元点群データから三次元建物モデル群を作成するとともに、市街地の側面を車両などで連続的に計測することで、側面の凹凸形状を自動的に作成し、その三次元建物モデル群と側面の凹凸形状を統合する技術が開示されている。
しかし、特許文献1には、航空機から得られる建物の位置情報が必然的に有する誤差を修正する技術については開示されていない。
また、市街地の側面を計測することで得られるデータには、避けることができない影響(歩行者、車両、電柱、植木などの影響)があるが、その影響を除去する技術については開示されていない。
In Patent Document 1 below, a three-dimensional building model group is created from three-dimensional point cloud data obtained by irradiating a laser from an aircraft to the ground, and a side surface of an urban area is continuously measured by a vehicle or the like. A technique for automatically creating side surface irregularities and integrating the three-dimensional building model group with the side irregularities is disclosed.
However, Patent Document 1 does not disclose a technique for correcting an error that is inevitably included in position information of a building obtained from an aircraft.
In addition, the data obtained by measuring the side of an urban area has effects that cannot be avoided (effects of pedestrians, vehicles, utility poles, planted trees, etc.), but no technology is disclosed for removing those effects. .

以下の特許文献2には、車両からレーザを照射することで得られる三次元点群データと、車両に搭載しているカメラから得られる画像とから、建物モデルを作成する技術が開示されている。
しかし、特許文献2の場合、車両から建物の画像を必ず得る必要があり、また、特許文献2には、既存の三次元都市モデルが有する誤差を修正する技術については開示されていない。
Patent Document 2 below discloses a technique for creating a building model from three-dimensional point cloud data obtained by irradiating a laser from a vehicle and an image obtained from a camera mounted on the vehicle. .
However, in the case of Patent Document 2, it is necessary to always obtain an image of a building from a vehicle, and Patent Document 2 does not disclose a technique for correcting an error of an existing three-dimensional city model.

以下の特許文献3には、航空機からレーザを地上に照射することで得られる三次元点群データを地盤と地物(建物)に分け、また、航空写真を処理することで建物などの輪郭データを取得し、これらの三次元点群データや輪郭データから三次元都市モデルを作成する技術が開示されている。
しかし、特許文献3には、航空機から得られる建物の位置情報が必然的に有する誤差を修正する技術については開示されていない。
In Patent Document 3 below, three-dimensional point cloud data obtained by irradiating a ground with laser from an aircraft is divided into ground and features (buildings), and contour data such as buildings is obtained by processing aerial photographs. And a technique for creating a three-dimensional city model from these three-dimensional point cloud data and contour data is disclosed.
However, Patent Document 3 does not disclose a technique for correcting an error that is inevitably included in building position information obtained from an aircraft.

以下の特許文献4には、航空機からレーザを地上に照射することで得られる三次元点群の高さ情報によって、地盤と建物を分離することで、建物モデルを作成する技術が開示されている。
しかし、特許文献4には、建物モデルが有する誤差を修正する技術については開示されていない。
Patent Document 4 below discloses a technique for creating a building model by separating the ground and the building based on the height information of a three-dimensional point group obtained by irradiating a laser beam from an aircraft to the ground. .
However, Patent Document 4 does not disclose a technique for correcting an error of the building model.

以下の特許文献5には、レーザ照射で得られる三次元点群データと画像データを対応させて、三次元モデルを作成する技術が開示されている。この画像データは、車両走行による誤差を想定して位置補正を行うように構成されている。
しかし、特許文献5では、三次元点群データと画像データが、車両走行による同一の誤差を有することが想定されているため、既存の誤差を有するモデルを補正する技術については開示されていない。
Patent Document 5 below discloses a technique for creating a three-dimensional model by associating three-dimensional point cloud data obtained by laser irradiation with image data. This image data is configured to perform position correction assuming an error due to vehicle travel.
However, Patent Document 5 does not disclose a technique for correcting a model having an existing error because it is assumed that the three-dimensional point cloud data and the image data have the same error due to vehicle travel.

吉田、他「モービルマッピングシステム」、三菱電機技報 Vol.81 No.7 2007Yoshida, et al. “Mobile Mapping System”, Mitsubishi Electric Technical Report Vol. 81 no. 7 2007

特開2003−256871号公報(段落番号[0068]から[0069])JP 2003-256871 A (paragraph numbers [0068] to [0069]) 特開2002−031528号公報(段落番号[0008])JP 2002-031528 A (paragraph number [0008]) 特開2002−74323号公報(段落番号[0010])JP 2002-74323 A (paragraph number [0010]) 特開2003−296706号公報(段落番号[0006])JP 2003-296706 A (paragraph number [0006]) 特開2004−348575号公報(段落番号[0012])JP 2004-348575 A (paragraph number [0012])

従来の三次元地図補正装置は以上のように構成されているので、航空機に搭載されているレーダによって獲得される点群から、縮尺500分の1に相当する誤差精度を有する三次元地図の作成が困難であり、この誤差精度を有するには、別途地上から手間がかかる個別の測量が必要である課題があった。
また、車両に搭載されているレーダによって獲得される点群から、縮尺500分の1に相当する誤差精度を有する三次元地図として、道路の路面及び壁面を作成することは可能であるが、建物の屋根部分の作成が困難であることに加え、小縮尺(例えば、縮尺2500分の1)により獲得された点群による三次元地図の補正が困難である課題があった。
仮に車両に搭載されているレーダによって獲得される点群から、全ての地上の地物を三次元物体として構成すると、撮影時に車両と壁の間に存在している歩行者、車両、街路樹、交通標識などの影響を排除する必要があるが、その影響を排除することが困難であった。
Since the conventional three-dimensional map correction device is configured as described above, a three-dimensional map having an error accuracy equivalent to 1/500 scale is generated from a point cloud acquired by a radar mounted on an aircraft. In order to have this error accuracy, there has been a problem that separate surveying is required from the ground.
In addition, it is possible to create road surfaces and wall surfaces of roads as three-dimensional maps having error accuracy equivalent to 1/500 scale from points obtained by radar mounted on vehicles. In addition to the difficulty of creating the roof portion, there is a problem that it is difficult to correct the three-dimensional map by the point cloud acquired with a small scale (for example, a scale of 1/2500).
If all the ground features are configured as 3D objects from the point cloud acquired by the radar mounted on the vehicle, pedestrians, vehicles, roadside trees, It is necessary to eliminate the effects of traffic signs, but it was difficult to eliminate the effects.

この発明は上記のような課題を解決するためになされたもので、別途地上から手間がかかる個別の測量を行うことなく、大縮尺(例えば、縮尺500分の1)に相当する誤差精度を有する三次元地図を取得することができる三次元地図補正装置及び三次元地図補正プログラムを得ることを目的とする。   The present invention has been made to solve the above-described problems, and has an error accuracy corresponding to a large scale (for example, a scale of 1/500) without performing separate surveying that requires labor from the ground. It is an object of the present invention to obtain a 3D map correction apparatus and a 3D map correction program capable of acquiring a 3D map.

この発明に係る三次元地図補正装置は、車両の走行軌跡データから車両が走行している方向を示す走行ベクトルを算出する走行ベクトル算出手段と、車両の周囲に存在する地物の三次元位置の点群を示す地物点群データと走行ベクトル算出手段により算出された走行ベクトルから、車両の周囲に存在する地物である建物の壁面の位置及び形状を示す壁ベクトルデータを算出する壁ベクトル算出手段とを設け、地図ポリゴン補正手段が壁ベクトル算出手段により算出された壁ベクトルデータにしたがって三次元地図記憶手段に記憶されている三次元地図の壁ポリゴンデータ及び屋根ポリゴンデータを補正するようにしたもので、壁ベクトル算出手段は、データ記憶手段により記憶されている地物点群データが示す三次元位置の点群の中から、概ね鉛直方向に連続している三次元位置の点群を抽出する鉛直点群抽出部と、走行ベクトル算出手段により算出された走行ベクトルとの水平距離に応じて、鉛直点群抽出部により抽出された三次元位置の点群を複数の組に分割する鉛直点群整列部と、鉛直点群整列部により分割された複数の点群の組の中で、走行ベクトル算出手段により算出された走行ベクトルとの水平距離が最大の点群が存在している領域を示すベクトルデータを壁ベクトルデータとして算出する壁点群ベクトル化部とから構成されているものである。 The three-dimensional map correction apparatus according to the present invention includes a travel vector calculating means for calculating a travel vector indicating a direction in which the vehicle is traveling from the travel locus data of the vehicle, and a three-dimensional position of a feature existing around the vehicle. Wall vector calculation for calculating wall vector data indicating the position and shape of the wall surface of the building, which is a feature existing around the vehicle, from the feature point cloud data indicating the point cloud and the travel vector calculated by the travel vector calculation means And the map polygon correction means corrects the wall polygon data and the roof polygon data of the 3D map stored in the 3D map storage means according to the wall vector data calculated by the wall vector calculation means. those walls vector calculation means, from the point cloud of the three-dimensional position indicated by the feature point group data stored by the data storage means, outline Extracted by the vertical point cloud extraction unit according to the horizontal distance between the vertical point cloud extraction unit that extracts the point cloud of the three-dimensional position continuous in the vertical direction and the travel vector calculated by the travel vector calculation means. A vertical point cloud alignment unit that divides a point cloud at a three-dimensional position into a plurality of sets, and a travel vector calculated by the travel vector calculation means in the plurality of point cloud groups divided by the vertical point cloud alignment unit; And a wall point cloud vectorization unit that calculates, as wall vector data, vector data indicating a region where a point cloud having the maximum horizontal distance exists.

この発明によれば、車両の走行軌跡データから車両が走行している方向を示す走行ベクトルを算出する走行ベクトル算出手段と、車両の周囲に存在する地物の三次元位置の点群を示す地物点群データと走行ベクトル算出手段により算出された走行ベクトルから、車両の周囲に存在する地物である建物の壁面の位置及び形状を示す壁ベクトルデータを算出する壁ベクトル算出手段とを設け、地図ポリゴン補正手段が壁ベクトル算出手段により算出された壁ベクトルデータにしたがって三次元地図記憶手段に記憶されている三次元地図の壁ポリゴンデータ及び屋根ポリゴンデータを補正するように構成したので、別途地上から手間がかかる個別の測量を行うことなく、大縮尺(例えば、縮尺500分の1)に相当する誤差精度を有する三次元地図を取得することができる効果がある。   According to this invention, the travel vector calculation means for calculating the travel vector indicating the direction in which the vehicle is traveling from the travel locus data of the vehicle, and the ground indicating the point group of the three-dimensional positions of the features existing around the vehicle. Wall vector calculation means for calculating wall vector data indicating the position and shape of the wall surface of the building, which is a feature existing around the vehicle, from the object point cloud data and the travel vector calculated by the travel vector calculation means; The map polygon correction means is configured to correct the wall polygon data and the roof polygon data of the 3D map stored in the 3D map storage means according to the wall vector data calculated by the wall vector calculation means. 3D map with error accuracy equivalent to a large scale (for example, 1/500 scale) without carrying out individual surveys There is an effect that can be obtained.

この発明の実施の形態1による三次元地図補正装置を示す構成図である。It is a block diagram which shows the three-dimensional map correction apparatus by Embodiment 1 of this invention. 車上測定データ記憶部2により記憶されている地物点群データA及び走行軌跡データBのデータ形式を示す説明図である。It is explanatory drawing which shows the data format of the feature point cloud data A and the driving | running | working locus data B which are memorize | stored by the on-vehicle measurement data storage part 2. FIG. 走行ベクトル算出部3から出力される走行ベクトルデータCのデータ形式を示す説明図である。It is explanatory drawing which shows the data format of the traveling vector data C output from the traveling vector calculation part 3. FIG. 壁ベクトル算出部4により算出される壁ベクトルデータDのデータ形式を示す説明図である。It is explanatory drawing which shows the data format of the wall vector data D calculated by the wall vector calculation part 4. FIG. 三次元地図記憶部8により記憶されている三次元地図の壁ポリゴンデータE及び屋根ポリゴンデータFのデータ形式を示す説明図である。It is explanatory drawing which shows the data format of the wall polygon data E and the roof polygon data F of the three-dimensional map memorize | stored by the three-dimensional map memory | storage part 8. FIG. 壁ベクトル算出部4の処理内容を示す説明図である。It is explanatory drawing which shows the processing content of the wall vector calculation part. 地図ポリゴン補正部9の処理内容を示す説明図である。It is explanatory drawing which shows the processing content of the map polygon correction | amendment part. この発明の実施の形態3による三次元地図補正装置の要部を示す構成図である。It is a block diagram which shows the principal part of the three-dimensional map correction apparatus by Embodiment 3 of this invention. 路面点群補充部20の処理内容を示す説明図である。It is explanatory drawing which shows the processing content of the road surface point group supplement part.

実施の形態1.
図1はこの発明の実施の形態1による三次元地図補正装置を示す構成図である。
図1において、車上点群獲得部1は例えばレーザ測定装置と、GPS装置、慣性航法装置及び積算走行距離計とが組み合わされている装置であり、走行する車両の周囲に存在する地物の三次元位置を計測する処理を実施する。
ここで、GPS装置は、非特許文献1に開示されているように、水平方向誤差が約2cmの精度で自位置を計測することができる。また、レーザ測定装置は、距離10m程度に対して、10cmの精度で距離を計測することができる。このことから、三次元位置は、縮尺500分の1の地図が有する精度(誤差25cm以内)で、地物の表面の位置を獲得することができる。
なお、車上点群獲得部1は地物位置計測手段を構成している。
Embodiment 1 FIG.
1 is a block diagram showing a three-dimensional map correction apparatus according to Embodiment 1 of the present invention.
In FIG. 1, an on-vehicle point cloud acquisition unit 1 is a device in which, for example, a laser measuring device, a GPS device, an inertial navigation device, and an integrated odometer are combined. Implement the process of measuring the three-dimensional position.
Here, as disclosed in Non-Patent Document 1, the GPS device can measure its own position with an accuracy of a horizontal error of about 2 cm. Further, the laser measuring device can measure the distance with an accuracy of 10 cm with respect to the distance of about 10 m. From this, the three-dimensional position can acquire the position of the surface of the feature with the accuracy (error within 25 cm) of the map of 1/500 scale.
The on-vehicle point cloud acquisition unit 1 constitutes a feature position measuring unit.

車上測定データ記憶部2は車上点群獲得部1により計測された三次元位置の点群を示す地物点群データAを記憶するとともに、その車両の走行軌跡を示す走行軌跡データBを記憶する処理を実施する。なお、車上測定データ記憶部2はデータ記憶手段を構成している。
走行ベクトル算出部3は車上測定データ記憶部2により記憶されている走行軌跡データBのうち、比較的直線に近い走行軌跡の部分の走行軌跡データBから、その車両が走行している方向を示す走行ベクトルを算出し、その車両の走行方向の情報を含む走行ベクトルデータCを出力する処理を実施する。なお、走行ベクトル算出部3は走行ベクトル算出手段を構成している。
The on-vehicle measurement data storage unit 2 stores the feature point cloud data A indicating the point cloud of the three-dimensional position measured by the on-vehicle point cloud acquisition unit 1, and the traveling locus data B indicating the traveling locus of the vehicle. The process to memorize is executed. The on-vehicle measurement data storage unit 2 constitutes data storage means.
The traveling vector calculation unit 3 determines the direction in which the vehicle is traveling from the traveling locus data B of the portion of the traveling locus that is relatively close to the straight line in the traveling locus data B stored in the on-vehicle measurement data storage unit 2. A process of calculating the travel vector shown and outputting travel vector data C including information on the travel direction of the vehicle is performed. The travel vector calculation unit 3 constitutes a travel vector calculation unit.

壁ベクトル算出部4は鉛直点群抽出部5、鉛直点群整列部6及び壁点群ベクトル化部7から構成されており、車上測定データ記憶部2により記憶されている地物点群データAと走行ベクトル算出部3により算出された走行ベクトルデータCから、その車両の周囲に存在する地物である建物の壁面の位置及び形状を示す壁ベクトルデータDを算出する処理を実施する。なお、壁ベクトル算出部4は壁ベクトル算出手段を構成している。
鉛直点群抽出部5は車上測定データ記憶部2により記憶されている地物点群データAが示す三次元位置の点群の中から、概ね鉛直方向に連続している三次元位置の点群を抽出する処理を実施する。
The wall vector calculation unit 4 includes a vertical point group extraction unit 5, a vertical point group alignment unit 6, and a wall point group vectorization unit 7, and the feature point group data stored in the on-vehicle measurement data storage unit 2. A process of calculating wall vector data D indicating the position and shape of the wall surface of the building, which is a feature existing around the vehicle, is performed from A and the travel vector data C calculated by the travel vector calculation unit 3. The wall vector calculation unit 4 constitutes a wall vector calculation means.
The vertical point group extraction unit 5 is a point of the three-dimensional position that is substantially continuous in the vertical direction from the point group of the three-dimensional position indicated by the feature point group data A stored in the on-vehicle measurement data storage unit 2. A process of extracting a group is performed.

鉛直点群整列部6は走行ベクトル算出部3により算出された走行ベクトルデータCとの水平距離に応じて、鉛直点群抽出部5により抽出された三次元位置の点群を複数の組に分割する処理を実施する。
壁点群ベクトル化部7は鉛直点群整列部6により分割された複数の点群の組の中で、走行ベクトル算出部3により算出された走行ベクトルデータCとの水平距離が最大の点群が存在している領域を示すベクトルデータを壁ベクトルデータとして算出する処理を実施する。
The vertical point group aligning unit 6 divides the point group of the three-dimensional position extracted by the vertical point group extracting unit 5 into a plurality of sets according to the horizontal distance from the traveling vector data C calculated by the traveling vector calculating unit 3. Perform the process.
The wall point group vectorization unit 7 is a point group having a maximum horizontal distance from the travel vector data C calculated by the travel vector calculation unit 3 among the plurality of point groups divided by the vertical point group alignment unit 6. A process of calculating vector data indicating a region where the is present as wall vector data is performed.

三次元地図記憶部8は例えばデータベースなどの記録媒体であり、地上の建物の壁面をポリゴン(多角形)で表している壁ポリゴンデータEと、地上の建物の屋根をポリゴン(多角形)で表している屋根ポリゴンデータFとからなる三次元地図を記憶している。なお、三次元地図記憶部8は三次元地図記憶手段を構成している。   The three-dimensional map storage unit 8 is, for example, a recording medium such as a database, and represents wall polygon data E that represents the wall surface of the building on the ground as a polygon (polygon) and the roof of the building on the ground as a polygon (polygon). A three-dimensional map composed of the roof polygon data F is stored. The 3D map storage unit 8 constitutes 3D map storage means.

地図ポリゴン補正部9は壁ポリゴン探索部10、壁ポリゴン補正部11及び関連ポリゴン補正部12から構成されており、壁ベクトル算出部4により算出された壁ベクトルデータDにしたがって三次元地図記憶部8により記憶されている三次元地図の壁ポリゴンデータE及び屋根ポリゴンデータFを補正する処理を実施する。なお、地図ポリゴン補正部9は地図ポリゴン補正手段を構成している。
壁ポリゴン探索部10は三次元地図記憶部8により記憶されている壁ポリゴンデータの中から、壁ベクトル算出部4により算出された壁ベクトルデータDが示す位置の近傍に存在している建物の壁に係る壁ポリゴンデータEを探索する処理を実施する。
The map polygon correction unit 9 includes a wall polygon search unit 10, a wall polygon correction unit 11, and a related polygon correction unit 12, and a 3D map storage unit 8 according to the wall vector data D calculated by the wall vector calculation unit 4. The processing for correcting the wall polygon data E and the roof polygon data F of the three-dimensional map stored in the above is executed. The map polygon correction unit 9 constitutes a map polygon correction unit.
The wall polygon search unit 10 is a wall of a building existing in the vicinity of the position indicated by the wall vector data D calculated by the wall vector calculation unit 4 from the wall polygon data stored in the 3D map storage unit 8. A process of searching for the wall polygon data E related to is performed.

壁ポリゴン補正部11は壁ポリゴン探索部10により探索された壁ポリゴンデータが表す位置及び形状を、その壁ベクトルデータDにしたがって補正する処理を実施する。
関連ポリゴン補正部12は壁ポリゴン補正部11により補正された壁ポリゴンデータEである補正壁ポリゴンデータGが表す位置及び形状に合わせて、補正前の壁ポリゴンデータEに隣接して連結されている壁ポリゴンデータE及び屋根ポリゴンデータFが表す位置及び形状を補正する処理を実施する。
The wall polygon correction unit 11 performs processing for correcting the position and shape represented by the wall polygon data searched by the wall polygon search unit 10 according to the wall vector data D.
The related polygon correction unit 12 is connected adjacent to the uncorrected wall polygon data E in accordance with the position and shape represented by the corrected wall polygon data G, which is the wall polygon data E corrected by the wall polygon correction unit 11. Processing for correcting the position and shape represented by the wall polygon data E and the roof polygon data F is performed.

補正三次元地図記憶部13は例えばデータベースなどの記録媒体であり、地図ポリゴン補正部9により位置及び形状が補正された補正壁ポリゴンデータGを記憶するとともに、位置及び形状が補正された補正屋根ポリゴンデータHを記憶する。   The corrected three-dimensional map storage unit 13 is a recording medium such as a database, for example, and stores the corrected wall polygon data G whose position and shape are corrected by the map polygon correction unit 9 and the corrected roof polygon whose position and shape are corrected. Data H is stored.

図1の例では、三次元地図補正装置の構成要素である車上点群獲得部1、車上測定データ記憶部2、走行ベクトル算出部3、壁ベクトル算出部4及び地図ポリゴン補正部9のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路)で構成されているものを想定しているが、三次元地図補正装置がコンピュータで構成される場合、車上点群獲得部1、車上測定データ記憶部2、走行ベクトル算出部3、壁ベクトル算出部4及び地図ポリゴン補正部9の処理内容が記述されている三次元地図補正プログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されている三次元地図補正プログラムを実行するようにしてもよい。   In the example of FIG. 1, an on-vehicle point cloud acquisition unit 1, an on-vehicle measurement data storage unit 2, a travel vector calculation unit 3, a wall vector calculation unit 4, and a map polygon correction unit 9 that are components of the three-dimensional map correction device. It is assumed that each is composed of dedicated hardware (for example, a semiconductor integrated circuit on which a CPU is mounted), but if the 3D map correction device is composed of a computer, an on-vehicle point cloud is acquired. Storing a three-dimensional map correction program in which the processing contents of the unit 1, on-vehicle measurement data storage unit 2, travel vector calculation unit 3, wall vector calculation unit 4 and map polygon correction unit 9 are described in the memory of the computer, The CPU of the computer may execute a 3D map correction program stored in the memory.

図2は車上測定データ記憶部2により記憶されている地物点群データA及び走行軌跡データBのデータ形式を示す説明図である。
図3は走行ベクトル算出部3から出力される走行ベクトルデータCのデータ形式を示す説明図である。
図4は壁ベクトル算出部4により算出される壁ベクトルデータDのデータ形式を示す説明図である。
図5は三次元地図記憶部8に記憶されている三次元地図の壁ポリゴンデータE及び屋根ポリゴンデータFのデータ形式を示す説明図である。
FIG. 2 is an explanatory diagram showing the data format of the feature point cloud data A and the traveling locus data B stored in the on-vehicle measurement data storage unit 2.
FIG. 3 is an explanatory diagram showing a data format of the traveling vector data C output from the traveling vector calculation unit 3.
FIG. 4 is an explanatory diagram showing the data format of the wall vector data D calculated by the wall vector calculation unit 4.
FIG. 5 is an explanatory diagram showing the data format of the wall polygon data E and the roof polygon data F of the 3D map stored in the 3D map storage unit 8.

次に動作について説明する。
車上点群獲得部1は、例えば、レーザ測定装置とGPS装置が組み合わせた装置であり、車両の屋根に設置されている。
ここで、レーザ測定装置は、レーザ光を車両の周囲方向に照射し、車両の周囲に存在している地物に反射して戻ってきたレーザ光を受信することで、車両から地物までの距離と方向を獲得する。
また、GPS装置は、レーザ測定装置が設置されている位置にGPS受信アンテナが設置され、GPS受信アンテナがGPS衛星から送信されるGPS信号を受信することで、レーザ測定装置の位置(緯度、経度、標高)と、そのGPS信号の受信時刻tとを獲得する。
Next, the operation will be described.
The on-vehicle point cloud acquisition unit 1 is, for example, a device in which a laser measurement device and a GPS device are combined, and is installed on the roof of the vehicle.
Here, the laser measurement device irradiates laser light in the direction around the vehicle and receives the laser light that has been reflected back to the features existing around the vehicle, so that the vehicle to the features can be received. Earn distance and direction.
The GPS device has a GPS receiving antenna installed at a position where the laser measuring device is installed, and the GPS receiving antenna receives a GPS signal transmitted from a GPS satellite, so that the position (latitude, longitude) of the laser measuring device is received. ) And the reception time t of the GPS signal.

車上点群獲得部1は、GPS装置がレーザ測定装置の位置(緯度、経度、標高)を獲得し、レーザ測定装置が車両から地物までの距離と方向を獲得すると、これらの獲得情報から、地物の表面を構成する点の三次元位置(x(経度)、y(緯度)、z(標高)座標値)が得られる。
車上点群獲得部1は、図2(a)に示すように、地物の表面を構成する点のx(経度)、y(緯度)、z(標高)座標値と、GPS信号の受信時刻t(座標値の取得時刻)とを地物点群データAとして車上測定データ記憶部2に出力する。
When the GPS device acquires the position (latitude, longitude, altitude) of the laser measurement device and the laser measurement device acquires the distance and direction from the vehicle to the feature, the on-vehicle point cloud acquisition unit 1 A three-dimensional position (x (longitude), y (latitude), z (elevation) coordinate value) of points constituting the surface of the feature is obtained.
As shown in FIG. 2A, the on-vehicle point cloud acquisition unit 1 receives x (longitude), y (latitude), z (elevation) coordinate values of points constituting the surface of the feature, and GPS signal reception. The time t (coordinate value acquisition time) is output to the on-vehicle measurement data storage unit 2 as the feature point cloud data A.

座標値の単位は、例えば、平面直角座標系で、系毎の原点からのx(東西方向への距離)と、y(南北方向への距離)をm単位に表したものである。
点群の密度は、例えば、レーザ測定装置から1mの距離で、1cm間隔に10点以上、5mの距離で、1cm間隔に2点以上となる。
また、車上点群獲得部1は、走行軌跡データBとして、GPS装置により計測される位置を最小限0.1秒間隔で獲得し、その走行軌跡データBを車上測定データ記憶部2に出力する。
走行軌跡データBは、図2(b)に示すように、車両(詳しくは、車両中のGPSアンテナ)の走行軌跡をx(経度)、y(緯度)、z(標高)座標値と、その座標値の取得時刻tとで表すものである。
なお、地物点群データAと走行軌跡データBにおける経度・緯度の表現方法は、同一のものとする。
The unit of coordinate values is, for example, a planar rectangular coordinate system, in which x (distance in the east-west direction) and y (distance in the north-south direction) from the origin of each system are expressed in m units.
The density of the point group is, for example, 10 points or more at 1 cm intervals at a distance of 1 m from the laser measuring apparatus and 2 points or more at 1 cm intervals at a distance of 5 m.
Further, the on-vehicle point cloud acquisition unit 1 acquires the position measured by the GPS device at a minimum interval of 0.1 seconds as the traveling locus data B, and the traveling locus data B is stored in the on-vehicle measurement data storage unit 2. Output.
As shown in FIG. 2 (b), the traveling locus data B includes a traveling locus of a vehicle (specifically, a GPS antenna in the vehicle), x (longitude), y (latitude), z (elevation) coordinate values, This is expressed by the coordinate value acquisition time t.
Note that the method of expressing the longitude and latitude in the feature point cloud data A and the travel locus data B is the same.

車上測定データ記憶部2は、車上点群獲得部1から出力された地物点群データAと走行軌跡データBを記憶する。   The on-vehicle measurement data storage unit 2 stores the feature point cloud data A and the traveling locus data B output from the on-vehicle point cloud acquisition unit 1.

走行ベクトル算出部3は、車上測定データ記憶部2により記憶されている走行軌跡データBのうち、比較的直線に近い走行軌跡の部分の走行軌跡データBから、その車両が走行している方向を示す走行ベクトルを算出し、その車両の走行方向の情報を含む走行ベクトルデータCを壁ベクトル算出部4に出力する。
走行ベクトルデータCは、図3に示すように、走行軌跡データBの中で、比較的直線に近い走行軌跡の部分の始点(x(経度)、y(緯度)、z(標高)座標値)及び終点(x(経度)、y(緯度)、z(標高)座標値)と、走行方向(始点から見た終点の方向:北を0度として、時計周りに360度まで表した数値)で表すものである。
The traveling vector calculation unit 3 is a direction in which the vehicle is traveling from the traveling locus data B of the portion of the traveling locus that is relatively close to the straight line in the traveling locus data B stored in the on-vehicle measurement data storage unit 2. The travel vector data C including the travel direction information of the vehicle is output to the wall vector calculation unit 4.
As shown in FIG. 3, the traveling vector data C is a starting point (x (longitude), y (latitude), z (elevation) coordinate values) of a portion of the traveling locus that is relatively close to a straight line in the traveling locus data B. And the end point (x (longitude), y (latitude), z (elevation) coordinate values) and the traveling direction (the direction of the end point as seen from the start point: a numerical value expressed up to 360 degrees clockwise with 0 degrees north). It represents.

以下、走行ベクトル算出部3における走行ベクトルデータCの算出処理を具体的に説明する。
まず、走行ベクトル算出部3は、走行開始時刻の座標値x,yを起点とし、走行開始時刻から或る時間(例えば、10秒)が経過した時刻における座標値を終点とするベクトルを仮定する。
走行ベクトル算出部3は、起点と終点間の全時刻において、その仮定したベクトルと走行軌跡データB上の点とがなす距離が、所定の閾値(例えば、0.3m)未満であれば、その仮定したベクトルを走行ベクトルデータCとして登録する。
一方、その仮定したベクトルと走行軌跡データB上の点とがなす距離が、所定の閾値(例えば、0.3m)以上であれば、始点を一定時間(例えば、2秒)ずらして同様の処理を行う。
Hereinafter, the calculation processing of the traveling vector data C in the traveling vector calculation unit 3 will be specifically described.
First, the travel vector calculation unit 3 assumes a vector starting from the coordinate values x and y of the travel start time and having the coordinate value at the time when a certain time (for example, 10 seconds) has elapsed from the travel start time as the end point. .
If the distance between the assumed vector and a point on the travel locus data B is less than a predetermined threshold (for example, 0.3 m) at all times between the start point and the end point, the travel vector calculation unit 3 The assumed vector is registered as travel vector data C.
On the other hand, if the distance between the assumed vector and the point on the travel locus data B is equal to or greater than a predetermined threshold (for example, 0.3 m), the same process is performed by shifting the start point by a certain time (for example, 2 seconds). I do.

走行ベクトル算出部3は、走行ベクトルデータCを登録した後、その走行ベクトルデータCの始点と同じ始点で、終点が一定時間(例えば、2秒)ずれている新たなベクトルを仮定する。
走行ベクトル算出部3は、新たに仮定したベクトルと走行軌跡データB上の点とがなす距離が、所定の閾値(例えば、0.3m)未満であれば、先に登録した走行ベクトルデータCを棄却して、新たに仮定したベクトルを走行ベクトルデータCとして登録する。
このようにして、走行軌跡データBの中で、比較的直線に近い走行軌跡の部分を走行ベクトルデータCとして算出する。
After the traveling vector data C is registered, the traveling vector calculation unit 3 assumes a new vector whose starting point is the same as the starting point of the traveling vector data C and whose end point is shifted by a certain time (for example, 2 seconds).
If the distance between the newly assumed vector and a point on the travel locus data B is less than a predetermined threshold (for example, 0.3 m), the travel vector calculation unit 3 uses the travel vector data C registered earlier. Reject and register a newly assumed vector as travel vector data C.
In this way, the portion of the traveling locus that is relatively close to a straight line in the traveling locus data B is calculated as the traveling vector data C.

壁ベクトル算出部4は、走行ベクトル算出部3が走行ベクトルデータCを算出すると、その走行ベクトルデータCと車上測定データ記憶部2により記憶されている地物点群データAから、車両の周囲に存在する地物である建物の壁面の位置及び形状を示す壁ベクトルデータDを算出する。
図6は壁ベクトル算出部4の処理内容を示す説明図である。
以下、壁ベクトル算出部4における壁ベクトルデータDの算出処理を具体的に説明する。
When the travel vector calculation unit 3 calculates the travel vector data C, the wall vector calculation unit 4 calculates the vehicle surroundings from the travel vector data C and the feature point cloud data A stored in the on-vehicle measurement data storage unit 2. The wall vector data D indicating the position and shape of the wall surface of the building, which is a feature existing in, is calculated.
FIG. 6 is an explanatory diagram showing the processing contents of the wall vector calculation unit 4.
Hereinafter, the calculation process of the wall vector data D in the wall vector calculation part 4 is demonstrated concretely.

まず、壁ベクトル算出部4の鉛直点群抽出部5は、車上測定データ記憶部2により記憶されている地物点群データAが示す三次元位置の点群の中から、概ね鉛直方向に連続している三次元位置の点群を抽出する。
ここで、図6(a)は、鉛直点群抽出部5が処理空間(地物点群データAが示す三次元位置の点群による空間)から、隣接点が鉛直に連結されている点群(概ね鉛直方向に連続している三次元位置の点群)を抽出している様子を模式的に表している。
First, the vertical point group extraction unit 5 of the wall vector calculation unit 4 is arranged in a substantially vertical direction from point groups at three-dimensional positions indicated by the feature point group data A stored in the on-vehicle measurement data storage unit 2. Extract a point cloud of consecutive 3D positions.
Here, FIG. 6A illustrates a point group in which the vertical point group extraction unit 5 is vertically connected to adjacent points from a processing space (a space formed by a point group at a three-dimensional position indicated by the feature point group data A). A state in which (a point group of three-dimensional positions substantially continuous in the vertical direction) is extracted is schematically shown.

具体的には、以下のようにして、隣接点が鉛直に連結されている点群を抽出している。
まず、鉛直点群抽出部5は、点群による空間中の地物点群データAのx,y座標値を、例えば、0.1m毎の単位に四捨五入する。
したがって、例えば、(x=3600.512,y=200.456)の点と、(x=3600.508,y=200.461)の点とは、同じ(x=3600.5,y=200.5)の点として扱われる。
次に、鉛直点群抽出部5は、同じ四捨五入値を有する点同士について、z座標(標高)が高い順にソートする。
Specifically, a point group in which adjacent points are vertically connected is extracted as follows.
First, the vertical point cloud extraction unit 5 rounds off the x and y coordinate values of the feature point cloud data A in the space based on the point cloud to a unit of 0.1 m, for example.
Therefore, for example, the point (x = 3600.512, y = 200.456) and the point (x = 3600.508, y = 200.461) are the same (x = 3600.5, y = 200). .5) is treated as a point.
Next, the vertical point group extraction unit 5 sorts the points having the same rounding value in descending order of the z coordinate (elevation).

鉛直点群抽出部5は、同じ四捨五入値を有する点の中で、z座標の最大値が所定の閾値(例えば、3m)以上であり、z座標の最大値と最小値の差分が所定の閾値(例えば、1m)以上であり、かつ、その同じ四捨五入値を有する点の数が所定の閾値(例えば、10点)以上ある場合、該当の複数の点は、壁を構成している点の可能性を有し、ほぼ鉛直(x座標、y座標の差が各0.1m以内)の点とみなせるので、この複数の点を鉛直点群として抽出する。
隣接点がほぼ鉛直に連結されている点群には、z座標の最大値が合わないので、道路、歩行者や生垣を構成する点は含まれない。また、z座標の最大値と最小値の差分が合わないので、突き出した軒先は含まれない。
ただし、隣接点がほぼ鉛直に連結されている点群には、壁以外にも、街路樹や電柱などを構成する点は含まれると考えられる。
Among the points having the same rounded value, the vertical point cloud extraction unit 5 has a maximum z coordinate value that is equal to or greater than a predetermined threshold value (for example, 3 m), and a difference between the maximum z coordinate value and the minimum value is a predetermined threshold value. If the number of points having the same rounding value (for example, 1 m) is equal to or greater than a predetermined threshold (for example, 10 points), the corresponding points may be points constituting a wall. Therefore, the plurality of points are extracted as a vertical point group because they can be regarded as substantially vertical points (the difference between the x coordinate and the y coordinate is within 0.1 m each).
A point group in which adjacent points are connected almost vertically does not include a point that constitutes a road, a pedestrian, or a hedge because the maximum value of the z coordinate does not match. Further, since the difference between the maximum value and the minimum value of the z coordinate does not match, the protruding eaves is not included.
However, it is considered that the point group in which adjacent points are connected substantially vertically includes points constituting street trees, utility poles, etc. in addition to the walls.

壁ベクトル算出部4の鉛直点群整列部6は、鉛直点群抽出部5が鉛直に連結されている点群を抽出すると、走行ベクトル算出部3により算出された走行ベクトルデータCとの水平距離に応じて、鉛直に連結されている点群を複数の組に分割する。
ここで、図6(b)は、鉛直点群整列部6が走行ベクトルデータCとの水平距離に応じて、鉛直に連結されている点群を複数の組に分割している様子を模式的に表している。
When the vertical point cloud extraction unit 5 extracts the point cloud connected vertically, the vertical point cloud alignment unit 6 of the wall vector calculation unit 4 extracts the horizontal distance from the travel vector data C calculated by the travel vector calculation unit 3. Accordingly, the vertically connected point group is divided into a plurality of sets.
Here, FIG. 6B schematically shows a state in which the vertical point group aligning unit 6 divides the vertically connected point group into a plurality of sets according to the horizontal distance from the traveling vector data C. It represents.

具体的には、以下のようにして、隣接点がほぼ鉛直に連結されている点群を複数の組に分割している。
まず、鉛直点群整列部6は、隣接点が鉛直に連結されている点群における任意の一点を基準にして、その点から走行ベクトルデータCへの水平距離(x座標値とy座標値のみで決まり、z座標値を考慮しない距離)が所定の閾値(例えば、0.1m)以内であり、かつ、走行ベクトルデータCの走行方向への水平距離が所定の閾値(例えば、0.15m)以内である点を連結していくようにする。
次に、鉛直点群整列部6は、連結した点の集合のうち、走行ベクトルデータCから最も離れた点の水平距離が所定の閾値(例えば、2m)以上の点の集合をもって、走行ベクトルデータCに沿って整列した点群の組を取得する。
ただし、その点群の組には、壁を構成する点は含まれるが、街路樹や電柱などを構成する点は含まれないと考えられる。
Specifically, a point group in which adjacent points are connected substantially vertically is divided into a plurality of sets as follows.
First, the vertical point group aligning unit 6 uses an arbitrary point in a point group in which adjacent points are vertically connected as a reference, and the horizontal distance from that point to the traveling vector data C (only the x coordinate value and the y coordinate value). The distance in which the z coordinate value is not taken into consideration) is within a predetermined threshold (for example, 0.1 m), and the horizontal distance in the traveling direction of the traveling vector data C is the predetermined threshold (for example, 0.15 m). The points that are within are connected.
Next, the vertical point group aligning unit 6 uses a set of points in which the horizontal distance of a point farthest from the travel vector data C among a set of connected points is a predetermined threshold (for example, 2 m) or more. Get a set of point clouds aligned along C.
However, it is considered that the point cloud set includes points that constitute walls, but does not include points that constitute street trees, utility poles, and the like.

壁ベクトル算出部4の壁点群ベクトル化部7は、鉛直点群整列部6が鉛直に連結されている点群を複数の組に分割すると、複数の点群の組の中で、走行ベクトル算出部3により算出された走行ベクトルデータCとの水平距離が最大の点群が存在している領域を示すベクトルデータを壁ベクトルデータDとして算出する。
ここで、図6(c)は、壁点群ベクトル化部7が複数の点群の組の中で、走行ベクトルデータCとの水平距離が最大の点群が存在している領域を示す壁ベクトルデータDを算出している様子を模式的に表している。
The wall point group vectorization unit 7 of the wall vector calculation unit 4 divides the point group, to which the vertical point group alignment unit 6 is vertically connected, into a plurality of sets. Vector data indicating a region where a point group having the maximum horizontal distance from the travel vector data C calculated by the calculation unit 3 is present is calculated as wall vector data D.
Here, FIG. 6C shows a wall in which the wall point cloud vectorization unit 7 shows a region where a point cloud having the maximum horizontal distance from the traveling vector data C exists among a plurality of pairs of point clouds. A mode that vector data D is computed is expressed typically.

具体的には、以下のようにして、図4の壁ベクトルデータDを算出している。
まず、壁点群ベクトル化部7は、複数の点群の組を構成している点群の各々について、走行ベクトルデータCの始点に最も水平距離が近い点のうち、高度が最も高い点の座標を壁ベクトルデータの始点の座標とし、走行ベクトルデータCの終点に最も水平距離が近い点のうち、高度が最も高い点の座標を壁ベクトルデータの終点の座標とする。
また、始点の座標から終点の座標への方向を北から時計周りの角度で表したものを壁方向の角度とする壁ベクトルデータ候補を算出する。
次に、壁点群ベクトル化部7は、走行ベクトルデータCと略平行な壁ベクトルデータ候補について、走行ベクトルデータCとの水平距離を調べ、その壁ベクトルデータ候補の中で、走行ベクトルデータCより最も遠い壁ベクトルデータ候補を壁ベクトルデータDとする。
Specifically, the wall vector data D in FIG. 4 is calculated as follows.
First, the wall point cloud vectorization unit 7 calculates the point having the highest altitude among the points having the closest horizontal distance to the starting point of the traveling vector data C for each of the point clouds constituting the plurality of point cloud sets. The coordinates are set as the coordinates of the start point of the wall vector data, and the coordinates of the point having the highest altitude among the points closest to the end point of the traveling vector data C are set as the coordinates of the end point of the wall vector data.
Further, a wall vector data candidate is calculated in which the direction from the start point coordinate to the end point coordinate is expressed as an angle in the clockwise direction from north to the wall direction.
Next, the wall point cloud vectorization unit 7 checks the horizontal distance from the travel vector data C for wall vector data candidates substantially parallel to the travel vector data C, and among the wall vector data candidates, the travel vector data C The farthest wall vector data candidate is set as wall vector data D.

三次元地図記憶部8には、車両の周囲に存在している地物のうち、建物の壁面をポリゴン(多角形)で表している壁ポリゴンデータEと、建物の屋根をポリゴン(多角形)で表している屋根ポリゴンデータFとからなる三次元地図が記憶されている。
壁ポリゴンデータEと屋根ポリゴンデータFは、図5に示すデータ形式で格納されており、一般性を失うものではない。
三次元地図記憶部8には、壁ポリゴンデータEと屋根ポリゴンデータFの他に、地盤を表すポリゴンなどが記憶されていてもよい。
なお、壁ポリゴンデータEと屋根ポリゴンデータFの最大誤差であるが、縮尺2500分の1であれば、平均誤差1.75mが許容されている。
Among the features existing around the vehicle, the three-dimensional map storage unit 8 includes wall polygon data E representing the wall surface of the building as a polygon (polygon) and the building roof as a polygon (polygon). A three-dimensional map consisting of roof polygon data F represented by is stored.
The wall polygon data E and the roof polygon data F are stored in the data format shown in FIG. 5, and the generality is not lost.
In addition to the wall polygon data E and the roof polygon data F, the 3D map storage unit 8 may store polygons representing the ground.
Note that the maximum error between the wall polygon data E and the roof polygon data F is 1.75 m if the scale is 1/2500.

地図ポリゴン補正部9は、壁ベクトル算出部4が壁ベクトルデータDを算出すると、その壁ベクトルデータDにしたがって三次元地図記憶部8により記憶されている三次元地図の壁ポリゴンデータE及び屋根ポリゴンデータFを補正する。
図7は地図ポリゴン補正部9の処理内容を示す説明図である。
以下、地図ポリゴン補正部9における壁ポリゴンデータE及び屋根ポリゴンデータFの補正処理を具体的に説明する。
When the wall vector calculation unit 4 calculates the wall vector data D, the map polygon correction unit 9 calculates the 3D map wall polygon data E and the roof polygon stored in the 3D map storage unit 8 according to the wall vector data D. Data F is corrected.
FIG. 7 is an explanatory diagram showing the processing contents of the map polygon correction unit 9.
Hereinafter, the correction processing of the wall polygon data E and the roof polygon data F in the map polygon correction unit 9 will be specifically described.

まず、地図ポリゴン補正部9の壁ポリゴン探索部10は、三次元地図記憶部8により記憶されている壁ポリゴンデータEの中から、壁ベクトル算出部4により算出された壁ベクトルデータDが示す位置の近傍に存在している建物の壁に係る壁ポリゴンデータEを探索する。
ここで、図7(a)は、壁ポリゴン探索部10が、壁ベクトルデータDが示す位置の近傍に存在している建物の壁に係る壁ポリゴンデータEを探索している様子を模式的に表している。
First, the wall polygon search unit 10 of the map polygon correction unit 9 indicates the position indicated by the wall vector data D calculated by the wall vector calculation unit 4 from the wall polygon data E stored in the 3D map storage unit 8. The wall polygon data E related to the wall of the building existing in the vicinity of is searched.
Here, FIG. 7A schematically shows that the wall polygon search unit 10 searches for the wall polygon data E related to the wall of the building existing in the vicinity of the position indicated by the wall vector data D. Represents.

具体的には、以下のようにして、壁ポリゴンデータEを探索している。
まず、壁ポリゴン探索部10は、三次元地図記憶部8により記憶されている壁ポリゴンデータEの中から、壁ベクトル算出部4により算出された壁ベクトルデータDにほぼ平行な壁ポリゴンデータEを探索する。
即ち、壁ポリゴン探索部10は、三次元地図記憶部8により記憶されている壁ポリゴンデータEの中で、壁ベクトルデータDの壁方向との差が所定の閾値(例えば、10度)以内である壁ポリゴンデータEを探索する。
Specifically, the wall polygon data E is searched as follows.
First, the wall polygon search unit 10 searches for wall polygon data E substantially parallel to the wall vector data D calculated by the wall vector calculation unit 4 from the wall polygon data E stored in the 3D map storage unit 8. Explore.
That is, the wall polygon search unit 10 has a difference between the wall vector data D and the wall direction in the wall polygon data E stored in the 3D map storage unit 8 within a predetermined threshold (for example, 10 degrees). A certain wall polygon data E is searched.

次に、壁ポリゴン探索部10は、壁ベクトルデータDにほぼ平行な壁ポリゴンデータEの中で、壁ベクトルデータDとの水平距離が所定の閾値(例えば、1m)未満の壁ポリゴンデータEを探索し、それらの壁ポリゴンデータEの中で、壁ベクトルデータDとの水平距離が最小の壁ポリゴンデータEを探索する。   Next, the wall polygon search unit 10 selects the wall polygon data E whose horizontal distance from the wall vector data D is less than a predetermined threshold (for example, 1 m) among the wall polygon data E substantially parallel to the wall vector data D. The wall polygon data E is searched for the wall polygon data E having the minimum horizontal distance from the wall vector data D.

壁ポリゴン補正部11は、壁ポリゴン探索部10が壁ベクトルデータDに対応する壁ポリゴンデータEを探索すると、その壁ポリゴンデータEが表す位置及び形状を、その壁ベクトルデータDにしたがって補正する。
ここで、図7(b)は、壁ポリゴン補正部11が、壁ポリゴンデータEが表す位置及び形状を補正している様子を示している。
When the wall polygon search unit 10 searches for the wall polygon data E corresponding to the wall vector data D, the wall polygon correction unit 11 corrects the position and shape represented by the wall polygon data E according to the wall vector data D.
Here, FIG. 7B shows a state where the wall polygon correction unit 11 corrects the position and shape represented by the wall polygon data E.

具体的には、以下のようにして、壁ポリゴンデータEが表す位置及び形状を補正している。
壁ポリゴン補正部11は、壁ポリゴン探索部10により探索された壁ポリゴンデータEのx,y座標値を、対応している壁ベクトルデータDのx,y座標値に置換することで、その壁ポリゴンデータEを補正する。
ただし、車上点群獲得手段1のレーザ測定装置から照射されるレーザ光は、射程距離に制限があり、例えば、高層ビルの屋上までは届かないことが想定されるので、壁ポリゴンデータEのz座標値については、壁ベクトルデータDのz座標値で置換しない。
Specifically, the position and shape represented by the wall polygon data E are corrected as follows.
The wall polygon correction unit 11 replaces the x and y coordinate values of the wall polygon data E searched by the wall polygon search unit 10 with the x and y coordinate values of the corresponding wall vector data D, so that the wall polygon data E is searched. The polygon data E is corrected.
However, the laser beam emitted from the laser measuring device of the on-vehicle point cloud acquisition means 1 has a limited range, for example, it is assumed that it does not reach the rooftop of a high-rise building. The z coordinate value is not replaced with the z coordinate value of the wall vector data D.

関連ポリゴン補正部12は、壁ポリゴン補正部11が壁ポリゴンデータEを補正すると、補正後の壁ポリゴンデータEである補正壁ポリゴンデータGが表す位置及び形状に合わせて、その補正壁ポリゴンデータGが補正される前の壁ポリゴンデータEに隣接して連結されている壁ポリゴンデータE及び屋根ポリゴンデータFが表す位置及び形状を補正する。
即ち、関連ポリゴン補正部12は、壁ポリゴン補正部11により補正される前の壁ポリゴンデータEに隣接して連結されている壁ポリゴンデータが表す壁ポリゴンを、補正された壁ポリゴンデータEが表す壁ポリゴンと同様に移動することで補正する。
屋根ポリゴンデータFについては、移動後の壁ポリゴンを覆うように、屋根ポリゴンを移動することで補正する。
When the wall polygon correction unit 11 corrects the wall polygon data E, the related polygon correction unit 12 corrects the corrected wall polygon data G according to the position and shape represented by the corrected wall polygon data G that is the corrected wall polygon data E. The position and shape represented by the wall polygon data E and the roof polygon data F that are connected adjacent to the wall polygon data E before the correction is corrected.
In other words, the related polygon correction unit 12 represents the wall polygon represented by the wall polygon data connected adjacent to the wall polygon data E before being corrected by the wall polygon correction unit 11 by the corrected wall polygon data E. Correct by moving in the same way as a wall polygon.
The roof polygon data F is corrected by moving the roof polygon so as to cover the moved wall polygon.

ここで、図7(c)は、関連ポリゴン補正部12が、補正前の壁ポリゴンデータEに隣接して連結されている屋根ポリゴンデータFが表す位置及び形状を補正している様子を示している。
なお、補正される前の壁ポリゴンデータEに対して、その他の壁ポリゴンデータE及び屋根ポリゴンデータFが隣接して連結されているか否かの判断は、壁ポリゴンデータE及び屋根ポリゴンデータFが共有の輪郭線を有しているか否かを判定することで判断することができる。
Here, FIG. 7C shows a state in which the related polygon correction unit 12 corrects the position and shape represented by the roof polygon data F connected adjacent to the wall polygon data E before correction. Yes.
Whether the wall polygon data E and the roof polygon data F are adjacently connected to the wall polygon data E before correction is determined based on whether the wall polygon data E and the roof polygon data F are connected. This can be determined by determining whether or not a shared outline is present.

補正三次元地図記憶部13は、地図ポリゴン補正部9から出力される補正壁ポリゴンデータGと補正屋根ポリゴンデータHを記憶する。
このようにして、三次元地図補正装置は、三次元地図記憶部8に記憶されている建物を校正する壁ポリゴンデータEと屋根ポリゴンデータFを、より平均誤差が少ない車上点群獲得部1で獲得された地物点群データAと走行軌跡データBを基に補正して、より平均誤差の少ない三次元地図を得るものである。
The corrected 3D map storage unit 13 stores the corrected wall polygon data G and the corrected roof polygon data H output from the map polygon correcting unit 9.
In this way, the three-dimensional map correction device uses the on-vehicle point cloud acquisition unit 1 with less average error for the wall polygon data E and the roof polygon data F for calibrating the building stored in the three-dimensional map storage unit 8. Is corrected based on the feature point cloud data A and the traveling locus data B acquired in step (3) to obtain a three-dimensional map with a smaller average error.

以上で明らかなように、この実施の形態1によれば、車両の走行軌跡データBから車両が走行している方向を示す走行ベクトルの情報を含む走行ベクトルデータCを算出する走行ベクトル算出部3と、車両の周囲に存在する地物の三次元位置の点群を示す地物点群データAと走行ベクトル算出部3により算出された走行ベクトルデータCから、車両の周囲に存在する地物である建物の壁面の位置及び形状を示す壁ベクトルデータDを算出する壁ベクトル算出部4とを設け、地図ポリゴン補正部9が壁ベクトル算出部4により算出された壁ベクトルデータDにしたがって三次元地図記憶部8により記憶されている三次元地図の壁ポリゴンデータE及び屋根ポリゴンデータFを補正するように構成したので、別途地上から手間がかかる個別の測量を行うことなく、大縮尺(例えば、縮尺500分の1)に相当する誤差精度を有する三次元地図を取得することができる効果を奏する。   As is apparent from the above, according to the first embodiment, the traveling vector calculation unit 3 calculates traveling vector data C including traveling vector information indicating the traveling direction of the vehicle from the traveling locus data B of the vehicle. From the feature point cloud data A indicating the point cloud of the three-dimensional position of the feature existing around the vehicle and the travel vector data C calculated by the travel vector calculation unit 3, the feature existing around the vehicle A wall vector calculation unit 4 for calculating wall vector data D indicating the position and shape of a wall surface of a building, and a map polygon correction unit 9 according to the wall vector data D calculated by the wall vector calculation unit 4 Since it is configured to correct the wall polygon data E and the roof polygon data F of the three-dimensional map stored in the storage unit 8, an individual survey that takes time and labor from the ground separately. Without an effect capable of obtaining a three-dimensional map with error accuracy corresponding to the large scale (e.g., scale 500 minutes 1).

実施の形態2.
上記実施の形態1では、車両に搭載されている車上点群獲得部1が地物点群データAと走行軌跡データBを獲得するものについて示したが、レーザ測定装置とGPS装置を地面上に設置して地物点群データAを測定し、その後、レーザ測定装置とGPS装置を移動して新たな地物点群データAを測定し、両地点を結んだ軌跡を走行軌跡データBとして記憶するようにしてもよい。
Embodiment 2. FIG.
In the first embodiment, the on-vehicle point cloud acquisition unit 1 mounted on the vehicle has acquired the feature point cloud data A and the travel locus data B. However, the laser measurement device and the GPS device are placed on the ground. Measure the feature point cloud data A, then move the laser measuring device and the GPS device to measure the new feature point cloud data A, and the trajectory connecting both points as the running trajectory data B You may make it memorize | store.

上記実施の形態1では、車上点群獲得部1を構成しているGPS装置によるレーザ測定装置の絶対位置(緯度、経度、標高)と、レーザ測定装置によるレーザ照射の方向及び地物までの距離から、地物の表面を構成する点の三次元位置(x(経度)、y(緯度)、z(標高)座標値)を特定するものについて示したが、地物の表面を構成する点の三次元位置を補正するために、測距儀などの公知の技術である個別の精密測定方法を援用するように構成してもよい。
また、GPS装置による位置測定の精度は、GPS装置が捕捉できるGPS衛星の個数により影響されるので、位置測定の精度が悪い地物点群データAは壁ベクトルデータDの算出には用いないように構成することもできる。
In the first embodiment, the absolute position (latitude, longitude, altitude) of the laser measuring device by the GPS device constituting the on-vehicle point cloud acquisition unit 1, the direction of laser irradiation by the laser measuring device, and the features Although it has shown about what specifies the three-dimensional position (x (longitude), y (latitude), z (elevation) coordinate value) of the point which comprises the surface of a feature from distance, the point which comprises the surface of a feature In order to correct the three-dimensional position, an individual precision measurement method that is a known technique such as a distance measuring instrument may be used.
Further, since the accuracy of position measurement by the GPS device is affected by the number of GPS satellites that can be captured by the GPS device, the feature point cloud data A with poor position measurement accuracy is not used for calculating the wall vector data D. It can also be configured.

上記実施の形態1では、壁は天井部分から地面に接する部分まで鉛直に構成されているものとして説明したが、実際の壁面は、地上に近い部分が鉛直面と異なっている場合も多い。
したがって、鉛直点群抽出部5が、点群が連続している鉛直部分を抽出する際、天井部分から地面に接する部分までではなく、例えば、地面から高度1mまで、高度1mから3mまで、あるいは、高度3m以上というように、地面からの相対高度で複数の層に分けて算出し、層毎の走行ベクトルからの距離によって、壁を複数の平面で表現するように構成してもよい。
In Embodiment 1 described above, the wall is described as being vertically configured from the ceiling portion to the portion in contact with the ground. However, the actual wall surface is often different from the vertical surface in the portion close to the ground.
Therefore, when the vertical point cloud extraction unit 5 extracts a vertical part where point clouds are continuous, for example, from the ceiling part to the part in contact with the ground, for example, from the ground to an altitude of 1 m, from an altitude of 1 m to 3 m, or The wall may be expressed by a plurality of planes according to the distance from the travel vector for each layer by calculating the relative altitude from the ground, such as an altitude of 3 m or more.

上記実施の形態1では、鉛直点群抽出部5が、点群が連続している鉛直部分を抽出するものについて示したが、鉛直性を定める閾値によって、鉛直に近い切り立った崖を構成する点群を抽出するようにしてもよい。
これにより、建物の壁面だけでなく、崖を抽出して、崖崩れの把握などに応用するようにしてもよい。
In Embodiment 1 described above, the vertical point cloud extraction unit 5 has been described as extracting a vertical portion where point clouds are continuous. However, the vertical point cloud extraction unit 5 constitutes a vertical cliff by a threshold value that determines verticality. A group may be extracted.
Thereby, not only the wall surface of the building but also a cliff may be extracted and applied to grasping a landslide.

上記実施の形態1では、鉛直点群整列部6が走行ベクトルデータCから最も離れた点の水平距離が閾値(例えば、2m)以上の点の集合をもって、走行ベクトルデータCに沿って整列している点群の組を得るものについて示したが、最も離れた点と、それから水平距離が閾値(例えば、1m)以内の点を含めることにより、建物の外壁だけでなく、ベランダの奥の内壁や窓を壁とみなすことができる。   In the first embodiment, the vertical point group aligning unit 6 has a set of points whose horizontal distance of the point farthest from the travel vector data C is a threshold (for example, 2 m) or more and is aligned along the travel vector data C. As shown in the figure, the most distant point and a point whose horizontal distance is within a threshold (for example, 1 m) are included, so that not only the outer wall of the building but also the inner wall behind the veranda Windows can be considered walls.

上記実施の形態1では、車両と壁の間に歩行者、道路標識、樹木などのノイズ物体がある場合でも、ノイズ物体で反射しないで、建物の壁に到達した点群により、建物の壁が検出されるものとして説明したが、連続する低層の防護壁で遮られていて、建物の低層部分の壁面が点群として全く検出できない場合がある。
この場合、走行ベクトルデータCから距離が離れた鉛直点群で、ある高度未満の点群が存在しないので、鉛直点群整列部6により算出された壁ベクトルデータDに「低層位置不確実」のフラグを付け、この壁ベクトルデータDにより補正された壁ポリゴンデータEである補正壁ポリゴンデータGにも「低層位置不確実」のフラグを付けて、作成された補正三次元地図に対して利用者の注意を促すようにしてもよい。
In the first embodiment, even when there is a noise object such as a pedestrian, a road sign, or a tree between the vehicle and the wall, the wall of the building is not reflected by the noise object, and the point cloud that reaches the wall of the building Although described as being detected, there are cases in which the wall surface of the low-rise part of the building cannot be detected as a point cloud at all because it is blocked by a continuous low-rise protective wall.
In this case, since there is no point group of less than a certain altitude in the vertical point group that is far from the travel vector data C, the wall vector data D calculated by the vertical point group aligning unit 6 indicates “low-layer position uncertain”. A flag is added, and the corrected wall polygon data G, which is the wall polygon data E corrected by the wall vector data D, is also flagged as “low-layer position uncertain”, and the created 3D map is displayed to the user. You may be made to call attention.

上記実施の形態1では、壁ポリゴン補正部11が、三次元地図記憶部8により記憶されている壁ポリゴンデータEのうち、壁ベクトルデータDと位置及び方向が類似している壁ポリゴンデータEを補正対象とするものについて示したが、例えば、縮尺1/2500の三次元地図にあっても、個別に縮尺1/500の誤差精度を有するように精密測量して作成された壁ポリゴンデータEについては「高精度あり」のフラグを付けることで、壁ポリゴン補正部11による補正の対象に含めないようにしてもよい。   In the first embodiment, the wall polygon correction unit 11 selects the wall polygon data E whose position and direction are similar to the wall vector data D from the wall polygon data E stored in the 3D map storage unit 8. Although the correction target is shown, for example, even on a three-dimensional map with a scale of 1/2500, wall polygon data E created by precise surveying to have an error accuracy of 1/500 on a scale. May be excluded from the object of correction by the wall polygon correction unit 11 by adding a flag “with high accuracy”.

上記実施の形態1では、壁ポリゴンデータEと屋根ポリゴンデータFが共有している輪郭線を有することで、双方が隣接して連結されている旨を判定するものについて示したが、三次元データの表現方法には、もともと壁ポリゴンデータEと屋根ポリゴンデータFを一体の三次元物体として表現する手法もある。
このような手法にのっとって表現された三次元地図の場合には、ことさら関連ポリゴン補正部12を介さずとも、壁ポリゴン補正部11で壁ポリゴンを補正することにより、屋根ポリゴンなどの関連ポリゴンを自動的に補正するように構成することができる。
In the first embodiment, the case where the wall polygon data E and the roof polygon data F have a contour line shared to determine that both are adjacently connected is shown. There is also a method of originally expressing the wall polygon data E and the roof polygon data F as an integrated three-dimensional object.
In the case of a three-dimensional map expressed according to such a method, a related polygon such as a roof polygon can be obtained by correcting the wall polygon by the wall polygon correcting unit 11 without using the related polygon correcting unit 12. It can be configured to automatically correct.

上記実施の形態1では、建物を構成している壁ポリゴンデータE内の1面だけが補正されるように説明してきたが、交差する道路や、隣接する道路を走行する車両によって車上点群が獲得され、その結果、建物を構成している複数の壁ポリゴンデータEが補正されることもある。
この場合、補正されない壁ポリゴンデータE及び屋根ポリゴンデータFのみを関連ポリゴン補正部12によって補正するように構成することができる。
In the first embodiment, the description has been made so that only one surface in the wall polygon data E constituting the building is corrected. However, the on-vehicle point cloud may be used by an intersecting road or a vehicle traveling on an adjacent road. As a result, the plurality of wall polygon data E constituting the building may be corrected.
In this case, only the uncorrected wall polygon data E and roof polygon data F can be corrected by the related polygon correction unit 12.

上記実施の形態1では、壁ベクトルデータDが示す位置の近傍に建物が存在し、その建物の壁に係る壁ポリゴンデータEが存在していることを前提にして説明したが、このような壁ポリゴンデータEが存在しない場合には、経年変化により新たな建物ができた可能性があると判断して、該当の壁ベクトルデータEを基に新たな補正壁ポリゴンデータGを生成するように構成することもできる。
ただし、この場合、屋根ポリゴンデータHの生成は不可能であるため、該当の補正壁ポリゴンデータGについては「車上測定データより作成」とのフラグを付けて、三次元地図作成者の注意を促すように構成することもできる。
The first embodiment has been described on the assumption that a building exists in the vicinity of the position indicated by the wall vector data D and the wall polygon data E relating to the wall of the building exists. When polygon data E does not exist, it is determined that there is a possibility that a new building has been formed due to secular change, and new corrected wall polygon data G is generated based on the corresponding wall vector data E You can also
However, in this case, since it is impossible to generate the roof polygon data H, the correction wall polygon data G is flagged as “created from on-vehicle measurement data” and the 3D map creator's attention is given. It can also be configured to prompt.

上記実施の形態1では、壁ベクトルデータDが示す位置の近傍に建物が存在し、その建物の壁に係る壁ポリゴンデータEが存在していることを前提にして説明したが、このような壁ポリゴンデータEが存在しない場合には、該当の壁ポリゴンデータの補正を行わないだけでなく、経年変化による建物が消滅した可能性があると判断して、壁ポリゴンデータと同位置に「消滅の可能性あり」とのフラグを付けた補正壁ポリゴンデータGを生成して、三次元地図作成者の注意を促すように構成することもできる。   The first embodiment has been described on the assumption that a building exists in the vicinity of the position indicated by the wall vector data D and the wall polygon data E relating to the wall of the building exists. When the polygon data E does not exist, not only the correction of the corresponding wall polygon data is performed, but it is determined that there is a possibility that the building has disappeared due to secular change. It is also possible to generate correction wall polygon data G with a flag of “possibility” and call the attention of the 3D map creator.

上記実施の形態1では、処理をすべて自動的に行うものとして説明したが、三次元地図記憶部8が、路上から壁方向が撮影された写真又はビデオ映像を記憶し、壁ポリゴン補正部11が、路上から該当の壁方向が撮影された写真又はビデオ映像の駒の画像をその位置に応じて画面に表示し、操作者が、その画像を見ながら対話的に対応する壁を選択し、あるいは、壁ポリゴン補正部11が示す対応した補正壁ポリゴンデータGをさらに操作者が補正するように構成してもよい。   In Embodiment 1 described above, the processing is all performed automatically. However, the 3D map storage unit 8 stores a photograph or video image in which the wall direction is taken from the road, and the wall polygon correction unit 11 The image of the frame of the picture or video image in which the relevant wall direction was taken from the road is displayed on the screen according to the position, and the operator selects the corresponding wall interactively while viewing the image, or The corresponding correction wall polygon data G indicated by the wall polygon correction unit 11 may be further corrected by the operator.

上記実施の形態1では、三次元地図記憶部8には、地物である建物の壁ポリゴンデータEと屋根ポリゴンデータFが記憶されているものについて示したが、例えば、トンネルのような構造物において、天井を含む壁面が一体のデータとなっている場合についても、これを便宜的に垂直に近い部分と水平に近い部分とに分けて処理をすれば、本説明と同じ効果が得られる。
なお、トンネルの場合、走行軌跡データBは、GPS装置によらず、慣性航法装置と積算走行距離計により取得することが可能である。
In the first embodiment, the three-dimensional map storage unit 8 has been described in which the wall polygon data E and the roof polygon data F of the building, which is a feature, are stored. In the case where the wall surface including the ceiling is integrated data, the same effect as this description can be obtained if the processing is divided into a portion near vertical and a portion near horizontal for convenience.
In the case of a tunnel, the travel locus data B can be acquired by an inertial navigation device and an integrated odometer, not by a GPS device.

上記実施の形態1では、車上点群獲得部1により獲得されたデータに基づいて地上の三次元地図を補正するものについて示したが、水中の遺跡や漁礁の分布を表している水中の三次元地図を補正するようにしてもよい。
水中の三次元地図を補正する場合、船舶が曳航する水中レーザ測定装置によって水中の地物の点群を獲得し、その点群を地物点群データAとして扱うようにする。
また、水中レーザ測定装置の位置自身は、船舶上に設置されているGPS装置や慣性航法装置と、船舶から水中レーザ測定装置に向けて発射されたレーザ点群により獲得することができ、これを走行軌跡データBとして扱うようにする。
In the first embodiment, the correction of the three-dimensional map on the ground based on the data acquired by the on-vehicle point cloud acquisition unit 1 has been described. However, an underwater tertiary representing the distribution of underwater ruins and fishing reefs. The original map may be corrected.
When correcting an underwater three-dimensional map, a point cloud of an underwater feature is acquired by an underwater laser measuring device towed by a ship, and the point cloud is handled as the feature point cloud data A.
In addition, the position of the underwater laser measurement device itself can be obtained by a GPS device or an inertial navigation device installed on the ship and a laser point cloud emitted from the ship toward the underwater laser measurement device. The travel locus data B is handled.

上記実施の形態1では、地上の建物などを表わす三次元地図を補正するものについて説明している。
一方、博物館の模型、映画のセット、各種実験施設などで、三次元の設計図を得て物体を設計図によって配置するが、正確に配置されているか否かの検証が困難な場合がある。
このような場合、三次元の設計図を三次元記憶部8に記憶し、台車の上にレーザ測定装置を設置して地物点群データAを得るとともに、台車を移動させて、台車の初期位置を基に慣性航法装置、積算走行距離計とにより走行軌跡データBを得るようにする。
これにより、補正壁ポリゴンデータGを得て出力することで、物体の配置者に物体の再配置を促すようにしてもよい。
In the first embodiment, the correction of a three-dimensional map representing a building on the ground is described.
On the other hand, in a model of a museum, a movie set, various experimental facilities, etc., a three-dimensional design drawing is obtained and an object is arranged according to the design drawing. However, it may be difficult to verify whether or not the object is correctly arranged.
In such a case, a three-dimensional design drawing is stored in the three-dimensional storage unit 8, a laser measuring device is installed on the carriage to obtain the feature point cloud data A, and the carriage is moved to Based on the position, travel locus data B is obtained by an inertial navigation device and an integrated odometer.
Thus, the corrected wall polygon data G may be obtained and output to prompt the object locator to reposition the object.

実施の形態3.
図8はこの発明の実施の形態3による三次元地図補正装置の要部を示す構成図であり、図において、図1と同一符号は同一又は相当部分を示すので説明を省略する。
路面点群補充部20は概ね鉛直方向に連続している三次元位置の点群(例えば、街路樹、電柱、歩行者、駐車車両などの地上物体を構成する空間上に点群)によって遮られて、レーザ測定装置のレーザ光が届かずに点群を構成していない路面に対して点群を補充する処理を実施する。
なお、壁ベクトル算出部4及び路面点群補充部20から壁ベクトル算出手段が構成されている。
Embodiment 3 FIG.
FIG. 8 is a block diagram showing a main part of a three-dimensional map correction apparatus according to Embodiment 3 of the present invention. In the figure, the same reference numerals as those in FIG.
The road surface point group replenishment unit 20 is blocked by a point group (for example, a point group on a space constituting a ground object such as a roadside tree, a telephone pole, a pedestrian, and a parked vehicle) that is substantially continuous in a vertical direction. Then, a process of replenishing the point cloud is performed on the road surface that does not reach the laser beam of the laser measuring device and does not constitute the point cloud.
The wall vector calculation unit 4 and the road surface point group supplementation unit 20 constitute a wall vector calculation unit.

図9は路面点群補充部20の処理内容を示す説明図である。
図9では、車上測定データ記憶部2により記憶されている地物点群データAが示す三次元位置の点群の中で、鉛直点群(概ね鉛直方向に連続している三次元位置の点群)を除いた残余点群による空間に対して、地上物体を構成する点によって遮られた路面上の点を補充路面点群データIとして補充している様子を示している。
FIG. 9 is an explanatory diagram showing the processing contents of the road surface point group supplementing unit 20.
In FIG. 9, among the point groups of the three-dimensional position indicated by the feature point group data A stored in the on-vehicle measurement data storage unit 2, the vertical point group (the three-dimensional position substantially continuous in the vertical direction). A state in which points on the road surface obstructed by the points constituting the ground object are supplemented as supplementary road surface point group data I to the space of the remaining point group excluding the point group) is shown.

次に動作について説明する。
地物点群データAと走行ベクトルデータCから壁ベクトルデータDを算出し、その壁ベクトルデータDに基づいて三次元地図の壁ポリンゴンデータE及び屋根ポリゴンデータFを補正する処理は上記実施の形態1と同様である。
Next, the operation will be described.
The process of calculating the wall vector data D from the feature point cloud data A and the traveling vector data C, and correcting the wall polygoning data E and the roof polygon data F of the three-dimensional map based on the wall vector data D is performed as described above. This is the same as the first embodiment.

地物点群データAにおいて、道路や敷地などの路面の点群も車上点群獲得部1によって獲得される。
したがって、標高が低い点のみをもって路面の点群とみなし、さらに、壁点群ベクトル化部7と同様の処理をほぼ水平に連結されている路面の点群に施すことにより、路面のベクトル化が可能である。また、ベクトル化した路面をもとに、三次元地図における路面の修正も可能である。
ただし、地上に街路樹、電柱、歩行者、駐車車両などの地上物体が存在する場合、車上点群獲得部1のレーザ測定装置から照射されるレーザ光が路面に届かないため、図6(a)の点群による空間に示されるように、地上物体の背後の路面には点群が形成されない点群の欠けが生じる。このため、路面のベクトル化には欠けが生じる。
In the feature point cloud data A, a point cloud on the road surface such as a road or a site is also acquired by the on-board point cloud acquisition unit 1.
Therefore, only points with low elevation are regarded as a point group on the road surface, and further, the same processing as that of the wall point group vectorization unit 7 is performed on the point points of the road surface that are connected almost horizontally, thereby making it possible to vectorize the road surface. Is possible. Further, it is possible to correct the road surface in the three-dimensional map based on the vectorized road surface.
However, when there are ground objects such as roadside trees, power poles, pedestrians, and parked vehicles on the ground, the laser light emitted from the laser measuring device of the on-vehicle point cloud acquisition unit 1 does not reach the road surface. As shown in the space by the point cloud in a), the point cloud where the point cloud is not formed is generated on the road surface behind the ground object. For this reason, lack of vectorization of the road surface occurs.

そこで、この実施の形態3では、点群に欠けが生じることに対処するため、地上物体によって欠けている路面の点群を補充するようにしている。
地物点群データAが示す三次元位置の点群の中から、鉛直点群抽出部5によって、鉛直に連結されている点群が除かれたものが残余点群による空間である(図9を参照)。
一方、上記実施の形態1で示したように、鉛直に連結された点群から壁に相当する点群を鉛直点群整列部6で除去することにより、地上に街路樹、電柱、歩行者、駐車車両などの地上物体が存在するが、これらは壁とは区別される。
Therefore, in the third embodiment, in order to cope with chipping in the point cloud, the point cloud on the road surface lacking by the ground object is supplemented.
The space formed by the residual point cloud is obtained by removing the point cloud connected vertically by the vertical point cloud extraction unit 5 from the point cloud at the three-dimensional position indicated by the feature point cloud data A (FIG. 9). See).
On the other hand, as shown in the first embodiment, by removing the point group corresponding to the wall from the vertically connected point group by the vertical point group aligning unit 6, the roadside tree, the telephone pole, the pedestrian, There are ground objects such as parked vehicles, which are distinguished from walls.

路面点群補充部20は、地上物体のx,y座標における周囲の範囲(例えば、0.1mの範囲)の標高zの最小値を取得し、その最小値を該当の地上物体が存在する路面の標高とみなすようにする。
次に、路面点群補充部20は、図9に示すように、走行軌跡データBから、一定の進行間隔(例えば、0.05m)毎に、法線Nを水平方向に引いて、法線N上に一定の間隔(例えば、0.05m)毎に点を仮配置する。
この法線Nが地上物体のある領域を通過し、点群の存在する最大範囲(例えば、走行軌跡データから30m)に達するか、壁として分離された領域に到達するまでの間に仮配置された点を配置し、補充路面点群データIとする。
補充路面点群データIのx,y座標は、法線N上に仮配置した点の座標とし、z座標は該当の地上物体が存在する路面の標高とする。
The road surface point group supplementation unit 20 acquires the minimum value of the altitude z in the surrounding range (for example, a range of 0.1 m) in the x and y coordinates of the ground object, and the minimum value is the road surface on which the corresponding ground object exists. To be regarded as an altitude.
Next, as shown in FIG. 9, the road surface point group supplementation unit 20 draws the normal line N in the horizontal direction from the travel locus data B at regular intervals (e.g., 0.05 m). Points are temporarily arranged on N at regular intervals (for example, 0.05 m).
The normal N passes through a certain area of the ground object and is temporarily arranged until reaching the maximum range where the point cloud exists (for example, 30 m from the travel locus data) or the area separated as a wall. These points are arranged as supplementary road surface point cloud data I.
The x and y coordinates of the supplementary road surface point group data I are the coordinates of the points temporarily placed on the normal line N, and the z coordinate is the altitude of the road surface on which the corresponding ground object exists.

これにより、鉛直点群に遮られて点群が存在しない地上の路面上に点群が補充される。
路面上に点群が補充された後は、路面の点群に対して、壁点群ベクトル化部7と同様の処理を施して路面をベクトル化する。
路面のベクトルは、三次元地図上の路面ポリゴンデータ(図示せず)の補正に使用することが可能である。
Thereby, the point cloud is replenished on the road surface on the ground where the point cloud is blocked by the vertical dot cloud.
After the point cloud is replenished on the road surface, the road surface point cloud is vectorized by applying the same processing as the wall point cloud vectorization unit 7 to the road surface cloud.
The road surface vector can be used to correct road surface polygon data (not shown) on the three-dimensional map.

1 車上点群獲得部(地物位置計測手段)、2 車上測定データ記憶部(データ記憶手段)、3 走行ベクトル算出部(走行ベクトル算出手段)、4 壁ベクトル算出部(壁ベクトル算出手段)、5 鉛直点群抽出部、6 鉛直点群整列部、7 壁点群ベクトル化部、8 三次元地図記憶部(三次元地図記憶手段)、9 地図ポリゴン補正部(地図ポリゴン補正手段)、10 壁ポリゴン探索部、11 壁ポリゴン補正部、12 関連ポリゴン補正部、13 補正三次元地図記憶部、20 路面点群補充部(壁ベクトル算出手段)。   1 on-vehicle point cloud acquisition unit (feature position measurement unit), 2 on-vehicle measurement data storage unit (data storage unit), 3 travel vector calculation unit (travel vector calculation unit), 4 wall vector calculation unit (wall vector calculation unit) ) 5 vertical point group extraction unit, 6 vertical point group alignment unit, 7 wall point group vectorization unit, 8 3D map storage unit (3D map storage unit), 9 map polygon correction unit (map polygon correction unit), DESCRIPTION OF SYMBOLS 10 Wall polygon search part, 11 Wall polygon correction | amendment part, 12 Related polygon correction | amendment part, 13 Correction | amendment 3D map memory | storage part, 20 Road surface point group supplement part (wall vector calculation means)

Claims (4)

走行する車両の周囲に存在する地物の三次元位置を計測する地物位置計測手段と、上記地物位置計測手段により計測された三次元位置の点群を示す地物点群データを記憶するとともに、上記車両の走行軌跡を示す走行軌跡データを記憶するデータ記憶手段と、上記データ記憶手段により記憶されている走行軌跡データから車両が走行している方向を示す走行ベクトルを算出する走行ベクトル算出手段と、上記データ記憶手段により記憶されている地物点群データと上記走行ベクトル算出手段により算出された走行ベクトルから、上記車両の周囲に存在する地物である建物の壁面の位置及び形状を示す壁ベクトルデータを算出する壁ベクトル算出手段と、地上の建物の壁面を表す壁ポリゴンデータ及び上記建物の屋根を表す屋根ポリゴンデータからなる三次元地図を記憶している三次元地図記憶手段と、上記壁ベクトル算出手段により算出された壁ベクトルデータにしたがって上記三次元地図記憶手段により記憶されている三次元地図の壁ポリゴンデータ及び屋根ポリゴンデータを補正する地図ポリゴン補正手段とを備え、上記壁ベクトル算出手段は、上記データ記憶手段により記憶されている地物点群データが示す三次元位置の点群の中から、概ね鉛直方向に連続している三次元位置の点群を抽出する鉛直点群抽出部と、上記走行ベクトル算出手段により算出された走行ベクトルとの水平距離に応じて、上記鉛直点群抽出部により抽出された三次元位置の点群を複数の組に分割する鉛直点群整列部と、上記鉛直点群整列部により分割された複数の点群の組の中で、上記走行ベクトル算出手段により算出された走行ベクトルとの水平距離が最大の点群が存在している領域を示すベクトルデータを壁ベクトルデータとして算出する壁点群ベクトル化部とから構成されていることを特徴とする三次元地図補正装置。 A feature position measuring means for measuring a three-dimensional position of a feature existing around a traveling vehicle and feature point cloud data indicating a point cloud of the three-dimensional position measured by the feature position measuring means are stored. In addition, data storage means for storing travel locus data indicating the travel locus of the vehicle, and travel vector calculation for calculating a travel vector indicating the direction in which the vehicle is traveling from the travel locus data stored in the data storage means. The position and shape of the wall surface of the building, which is a feature existing around the vehicle, from the means, the feature point cloud data stored by the data storage means, and the travel vector calculated by the travel vector calculation means. Wall vector calculation means for calculating wall vector data to be shown, wall polygon data representing the wall surface of the building on the ground, and roof polygon data representing the roof of the building 3D map storage means storing a 3D map, and wall polygon data of the 3D map stored by the 3D map storage means according to the wall vector data calculated by the wall vector calculation means, Map polygon correction means for correcting the roof polygon data, and the wall vector calculation means is substantially vertical from the point group at the three-dimensional position indicated by the feature point cloud data stored in the data storage means. Is extracted by the vertical point cloud extraction unit according to the horizontal distance between the vertical point cloud extraction unit that extracts point clouds at three-dimensional positions that are continuous with the travel vector calculated by the travel vector calculation means. A vertical point cloud aligning unit that divides a point cloud at a three-dimensional position into a plurality of sets, and the traveling vector among the plurality of point cloud sets divided by the vertical point cloud aligning unit. Characterized in that it comprises a wall point cloud vectorization unit that calculates, as wall vector data, vector data indicating a region in which a point cloud having the maximum horizontal distance from the travel vector calculated by the output means exists. three-dimensional map correction device that. 壁ベクトル算出手段は、概ね鉛直方向に連続している三次元位置の点群により遮られて点群が存在しない地上の路面上に点群を補充する路面点群補充部を備えていることを特徴とする請求項記載の三次元地図補正装置。 The wall vector calculating means is provided with a road surface point cloud supplementing unit that supplements the point cloud on a ground road surface that is blocked by a point cloud of a three-dimensional position that is substantially continuous in the vertical direction and does not exist. The three-dimensional map correction apparatus according to claim 1, wherein 地図ポリゴン補正手段は、三次元地図記憶手段により記憶されている壁ポリゴンデータの中から、壁ベクトル算出手段により算出された壁ベクトルデータが示す位置の近傍に存在している建物の壁に係る壁ポリゴンデータを探索する壁ポリゴン探索部と、上記壁ポリゴン探索部により探索された壁ポリゴンデータが表す位置及び形状を上記壁ベクトルデータにしたがって補正する壁ポリゴン補正部と、上記壁ポリゴン補正部により補正された壁ポリゴンデータが表す位置及び形状に合わせて、上記壁ポリゴンデータが補正される前の壁ポリゴンデータに隣接して連結されている壁ポリゴンデータ及び屋根ポリゴンデータが表す位置及び形状を補正する関連ポリゴン補正部とから構成されていることを特徴とする請求項1または請求項2記載の三次元地図補正装置。 The map polygon correcting means is a wall related to the wall of the building existing in the vicinity of the position indicated by the wall vector data calculated by the wall vector calculating means from the wall polygon data stored in the three-dimensional map storage means. A wall polygon search unit that searches for polygon data, a wall polygon correction unit that corrects the position and shape represented by the wall polygon data searched by the wall polygon search unit according to the wall vector data, and correction by the wall polygon correction unit The position and shape represented by the wall polygon data and the roof polygon data connected adjacent to the wall polygon data before the wall polygon data is corrected are corrected according to the position and shape represented by the wall polygon data. according to claim 1 or claim 2 wherein, characterized in that it is composed of a relevant polygon correction unit Dimension map correction device. 走行する車両の周囲に存在する地物の三次元位置を計測する地物位置計測処理手順と、上記地物位置計測処理手順により計測された三次元位置の点群を示す地物点群データを記憶するとともに、上記車両の走行軌跡を示す走行軌跡データを記憶するデータ記憶処理手順と、上記データ記憶処理手順により記憶されている走行軌跡データから車両が走行している方向を示す走行ベクトルを算出する走行ベクトル算出処理手順と、上記データ記憶処理手順により記憶されている地物点群データと上記走行ベクトル算出処理手順により算出された走行ベクトルから、上記車両の周囲に存在する地物である建物の壁面の位置及び形状を示す壁ベクトルデータを算出する壁ベクトル算出処理手順と、上記壁ベクトル算出処理手順により算出された壁ベクトルデータにしたがって地上の建物の壁面を表す三次元地図の壁ポリゴンデータ及び上記建物の屋根を表す三次元地図の屋根ポリゴンデータを補正する地図ポリゴン補正処理手順とをコンピュータに実行させ、上記壁ベクトル算出処理手順は、上記データ記憶処理手順により記憶された地物点群データが示す三次元位置の点群の中から、概ね鉛直方向に連続している三次元位置の点群を抽出する鉛直点群抽出処理手順と、上記走行ベクトル算出処理手順により算出された走行ベクトルとの水平距離に応じて、上記鉛直点群抽出処理手順により抽出された三次元位置の点群を複数の組に分割する鉛直点群整列処理手順と、上記鉛直点群整列処理手順により分割された複数の点群の組の中で、上記走行ベクトル算出処理手順により算出された走行ベクトルとの水平距離が最大の点群が存在している領域を示すベクトルデータを壁ベクトルデータとして算出する壁点群ベクトル化処理手順とで実行させることを特徴とするための三次元地図補正プログラム。 A feature position measurement processing procedure for measuring a three-dimensional position of a feature existing around a traveling vehicle, and feature point cloud data indicating a point cloud of the three-dimensional position measured by the feature position measurement processing procedure. A data storage processing procedure for storing the travel trajectory data indicating the travel trajectory of the vehicle and a travel vector indicating the direction in which the vehicle is traveling is calculated from the travel trajectory data stored by the data storage processing procedure. A building which is a feature existing around the vehicle from the travel vector calculation processing procedure to be performed, the feature point cloud data stored by the data storage processing procedure and the travel vector calculated by the travel vector calculation processing procedure A wall vector calculation processing procedure for calculating wall vector data indicating the position and shape of the wall surface, and a wall vector calculated by the wall vector calculation processing procedure. To execute a map polygon correction procedure for correcting the three-dimensional map of the roof polygon data representing a walls polygon data and the building roof of a three-dimensional map representing a wall surface of the ground building computer according Rudeta, said wall vector calculation The processing procedure is a vertical point group that extracts a point group at a three-dimensional position that is substantially continuous in the vertical direction from the point groups at the three-dimensional position indicated by the feature point cloud data stored by the data storage processing procedure. Vertical that divides the point group of the three-dimensional position extracted by the vertical point group extraction processing procedure into a plurality of sets according to the horizontal distance between the extraction processing procedure and the travel vector calculated by the travel vector calculation processing procedure The travel calculated by the travel vector calculation processing procedure in the set of a plurality of point groups divided by the point cloud alignment processing procedure and the vertical point cloud alignment processing procedure Three-dimensional map correction program for the horizontal distance between the vector which is characterized in that it run on the wall point cloud vectorization processing procedure for calculating the vector data as a wall vector data indicating an area in which there is a maximum point group .
JP2009033928A 2009-02-17 2009-02-17 3D map correction apparatus and 3D map correction program Expired - Fee Related JP5339953B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009033928A JP5339953B2 (en) 2009-02-17 2009-02-17 3D map correction apparatus and 3D map correction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009033928A JP5339953B2 (en) 2009-02-17 2009-02-17 3D map correction apparatus and 3D map correction program

Publications (2)

Publication Number Publication Date
JP2010191066A JP2010191066A (en) 2010-09-02
JP5339953B2 true JP5339953B2 (en) 2013-11-13

Family

ID=42817192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009033928A Expired - Fee Related JP5339953B2 (en) 2009-02-17 2009-02-17 3D map correction apparatus and 3D map correction program

Country Status (1)

Country Link
JP (1) JP5339953B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5566353B2 (en) * 2011-09-02 2014-08-06 株式会社パスコ Data analysis apparatus, data analysis method, and program
JP5577312B2 (en) * 2011-09-20 2014-08-20 株式会社パスコ Data analysis apparatus, data analysis method, and program
CN103196433A (en) * 2012-01-10 2013-07-10 株式会社博思科 Data analysis device, data analysis method and programme
JP6080640B2 (en) * 2013-03-25 2017-02-15 株式会社ジオ技術研究所 3D point cloud analysis method
JP6678820B2 (en) * 2017-11-30 2020-04-08 三菱電機株式会社 Three-dimensional map generation system, three-dimensional map generation method, and three-dimensional map generation program
US11138350B2 (en) 2018-08-09 2021-10-05 Zoox, Inc. Procedural world generation using tertiary data
SG11201811747XA (en) 2018-11-15 2020-06-29 Beijing Didi Infinity Technology & Development Co Ltd Systems and methods for correcting a high-definition map based on detection of obstructing objects
JP7138589B2 (en) * 2019-03-06 2022-09-16 三菱電機株式会社 Map update system, map update method and map update program
JP7146727B2 (en) * 2019-12-04 2022-10-04 株式会社日立製作所 Self-propelled inspection device and equipment inspection system
WO2021111613A1 (en) * 2019-12-06 2021-06-10 三菱電機株式会社 Three-dimensional map creation device, three-dimensional map creation method, and three-dimensional map creation program
WO2024063078A1 (en) * 2022-09-23 2024-03-28 愛知製鋼株式会社 Method and system for generating 3-dimensional map data
WO2024127528A1 (en) * 2022-12-13 2024-06-20 日本電信電話株式会社 Point group processing device, point group processing method, and point group processing program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4486737B2 (en) * 2000-07-14 2010-06-23 アジア航測株式会社 Spatial information generation device for mobile mapping
JP2002074323A (en) * 2000-09-01 2002-03-15 Kokusai Kogyo Co Ltd Method and system for generating three-dimensional urban area space model
JP2003256871A (en) * 2002-03-01 2003-09-12 Nippon Telegr & Teleph Corp <Ntt> Method and device for generating shape model, program for executing the same method and recording medium having its program recorded thereon
JP4284644B2 (en) * 2003-05-23 2009-06-24 財団法人生産技術研究奨励会 3D model construction system and 3D model construction program
WO2008048088A1 (en) * 2006-10-20 2008-04-24 Tele Atlas B.V. Computer arrangement for and method of matching location data of different sources
CA2678156C (en) * 2007-02-16 2013-10-08 Mitsubishi Electric Corporation Measurement apparatus, measurement method, and feature identification apparatus

Also Published As

Publication number Publication date
JP2010191066A (en) 2010-09-02

Similar Documents

Publication Publication Date Title
JP5339953B2 (en) 3D map correction apparatus and 3D map correction program
US10929494B2 (en) Systems and methods for tagging objects for augmented reality
JP5389964B2 (en) Map information generator
JP5808369B2 (en) Overhead image generation device, overhead image generation method, and overhead image generation program
CN104931022B (en) Satellite image stereoblock adjustment method based on spaceborne laser altimeter system data
JP6694395B2 (en) Method and system for determining position relative to a digital map
JP4232167B1 (en) Object identification device, object identification method, and object identification program
US9094673B2 (en) Arrangement and method for providing a three dimensional map representation of an area
Brenner Extraction of features from mobile laser scanning data for future driver assistance systems
KR101826364B1 (en) Method for generating three-dimensional modeling data of the structure using color groud lidar measurement data
CN107850449A (en) Method and system for generating and using locating reference datum
JP4978615B2 (en) Target identification device
CN107917699B (en) Method for improving aerial three quality of mountain landform oblique photogrammetry
JP6178704B2 (en) Measuring point height assigning system, measuring point height assigning method, and measuring point height assigning program
KR101323971B1 (en) A method for automatic generation of tunnel information using a mobile mapping system
Lee et al. Comparison of Digital Maps Created by Stereo Plotting and Vectorization Based on Images Acquired by Unmanned Aerial Vehicle.
KR101601720B1 (en) 3D City Modeling System for Transportation Noise Mapping and method thereof
Lu et al. Gnss Satellite Visibility Analysis Based on 3d Spatial Information in Urban Areas
Silva et al. A STREET MAP BUILT BY A MOBILE M PPING SYSTEM
Kim et al. High Quality Ortho-image Production Using the High Resolution DMCII Aerial Image
KR20140062820A (en) Isiand coastline mapping method with aerial photograph
Rybak Analysis of a point cloud obtained from merging airborne laser scanning and hand-held mobile laser scanning by iPhone 13Pro
JP6535898B2 (en) 3D model creation program
Tianen et al. A method of generating panoramic street strip image map with mobile mapping system
MAHMOUD et al. Accuracy Assessment of 3D model generation using High Resolution Stereo-Optical Satellite Imagery

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130806

R150 Certificate of patent or registration of utility model

Ref document number: 5339953

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees