JP5339953B2 - 3D map correction apparatus and 3D map correction program - Google Patents
3D map correction apparatus and 3D map correction program Download PDFInfo
- Publication number
- JP5339953B2 JP5339953B2 JP2009033928A JP2009033928A JP5339953B2 JP 5339953 B2 JP5339953 B2 JP 5339953B2 JP 2009033928 A JP2009033928 A JP 2009033928A JP 2009033928 A JP2009033928 A JP 2009033928A JP 5339953 B2 JP5339953 B2 JP 5339953B2
- Authority
- JP
- Japan
- Prior art keywords
- wall
- data
- vector
- polygon
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
この発明は、精度が低い三次元地図(特に建物の壁及び屋根の位置・形状)を補正する三次元地図補正装置及び三次元地図補正プログラムに関するものである。 The present invention relates to a three-dimensional map correction apparatus and a three-dimensional map correction program for correcting a three-dimensional map (particularly, the position and shape of a building wall and a roof) with low accuracy.
従来より、航空測量や、測量装置による地上での測量によって二次元地図が作成されてきている。
また、航空測量による立体視が行われることで、あるいは、航空測量においてレーザ測定装置とGPS(Global Positioning System)装置などからなる標高測定が加わることで、建物の屋根の高さを記録している三次元地図が作成されてきている。
これらの三次元地図は、航空測量による測量装置と、測量対象の地面との距離などの制約により、縮尺が1/2500の場合、誤差を標準誤差1.75m(国土交通省の基準)に合わせる必要がある。
これにより、三次元地図の誤差を小さくするために、手間がかかる個別の事物の測量によって、三次元地図を補正することが必要である。
Conventionally, a two-dimensional map has been created by aerial surveying or surveying on the ground by a surveying instrument.
Moreover, the height of the roof of the building is recorded by performing a stereoscopic view by aerial survey or by adding altitude measurement including a laser measurement device and a GPS (Global Positioning System) device in aerial survey. Three-dimensional maps have been created.
These 3D maps are adjusted to a standard error of 1.75 m (Ministry of Land, Infrastructure, Transport and Tourism) when the scale is 1/2500 due to restrictions such as the distance between the surveying device by aerial survey and the ground to be surveyed. There is a need.
Thus, in order to reduce the error of the 3D map, it is necessary to correct the 3D map by surveying individual things that are troublesome.
以下の非特許文献1には、レーザ測定装置、GPS装置、慣性航法装置及び積算走行距離計を車両に搭載することで、地物表面の位置を、三次元的な位置座標を保持している点群データとして獲得する地上点群獲得手段が開示されている。
ただし、この点群データは、地物の意味(建物の壁など)や、地物の三次元構造(壁を表す三次元上の平面の位置)などの情報は保持していない。
In
However, this point cloud data does not hold information such as the meaning of the feature (such as a building wall) or the three-dimensional structure of the feature (the position of the three-dimensional plane representing the wall).
以下の特許文献1には、航空機からレーザを地上に照射することで得られる三次元点群データから三次元建物モデル群を作成するとともに、市街地の側面を車両などで連続的に計測することで、側面の凹凸形状を自動的に作成し、その三次元建物モデル群と側面の凹凸形状を統合する技術が開示されている。
しかし、特許文献1には、航空機から得られる建物の位置情報が必然的に有する誤差を修正する技術については開示されていない。
また、市街地の側面を計測することで得られるデータには、避けることができない影響(歩行者、車両、電柱、植木などの影響)があるが、その影響を除去する技術については開示されていない。
In
However,
In addition, the data obtained by measuring the side of an urban area has effects that cannot be avoided (effects of pedestrians, vehicles, utility poles, planted trees, etc.), but no technology is disclosed for removing those effects. .
以下の特許文献2には、車両からレーザを照射することで得られる三次元点群データと、車両に搭載しているカメラから得られる画像とから、建物モデルを作成する技術が開示されている。
しかし、特許文献2の場合、車両から建物の画像を必ず得る必要があり、また、特許文献2には、既存の三次元都市モデルが有する誤差を修正する技術については開示されていない。
However, in the case of
以下の特許文献3には、航空機からレーザを地上に照射することで得られる三次元点群データを地盤と地物(建物)に分け、また、航空写真を処理することで建物などの輪郭データを取得し、これらの三次元点群データや輪郭データから三次元都市モデルを作成する技術が開示されている。
しかし、特許文献3には、航空機から得られる建物の位置情報が必然的に有する誤差を修正する技術については開示されていない。
In
However,
以下の特許文献4には、航空機からレーザを地上に照射することで得られる三次元点群の高さ情報によって、地盤と建物を分離することで、建物モデルを作成する技術が開示されている。
しかし、特許文献4には、建物モデルが有する誤差を修正する技術については開示されていない。
However,
以下の特許文献5には、レーザ照射で得られる三次元点群データと画像データを対応させて、三次元モデルを作成する技術が開示されている。この画像データは、車両走行による誤差を想定して位置補正を行うように構成されている。
しかし、特許文献5では、三次元点群データと画像データが、車両走行による同一の誤差を有することが想定されているため、既存の誤差を有するモデルを補正する技術については開示されていない。
However,
従来の三次元地図補正装置は以上のように構成されているので、航空機に搭載されているレーダによって獲得される点群から、縮尺500分の1に相当する誤差精度を有する三次元地図の作成が困難であり、この誤差精度を有するには、別途地上から手間がかかる個別の測量が必要である課題があった。
また、車両に搭載されているレーダによって獲得される点群から、縮尺500分の1に相当する誤差精度を有する三次元地図として、道路の路面及び壁面を作成することは可能であるが、建物の屋根部分の作成が困難であることに加え、小縮尺(例えば、縮尺2500分の1)により獲得された点群による三次元地図の補正が困難である課題があった。
仮に車両に搭載されているレーダによって獲得される点群から、全ての地上の地物を三次元物体として構成すると、撮影時に車両と壁の間に存在している歩行者、車両、街路樹、交通標識などの影響を排除する必要があるが、その影響を排除することが困難であった。
Since the conventional three-dimensional map correction device is configured as described above, a three-dimensional map having an error accuracy equivalent to 1/500 scale is generated from a point cloud acquired by a radar mounted on an aircraft. In order to have this error accuracy, there has been a problem that separate surveying is required from the ground.
In addition, it is possible to create road surfaces and wall surfaces of roads as three-dimensional maps having error accuracy equivalent to 1/500 scale from points obtained by radar mounted on vehicles. In addition to the difficulty of creating the roof portion, there is a problem that it is difficult to correct the three-dimensional map by the point cloud acquired with a small scale (for example, a scale of 1/2500).
If all the ground features are configured as 3D objects from the point cloud acquired by the radar mounted on the vehicle, pedestrians, vehicles, roadside trees, It is necessary to eliminate the effects of traffic signs, but it was difficult to eliminate the effects.
この発明は上記のような課題を解決するためになされたもので、別途地上から手間がかかる個別の測量を行うことなく、大縮尺(例えば、縮尺500分の1)に相当する誤差精度を有する三次元地図を取得することができる三次元地図補正装置及び三次元地図補正プログラムを得ることを目的とする。 The present invention has been made to solve the above-described problems, and has an error accuracy corresponding to a large scale (for example, a scale of 1/500) without performing separate surveying that requires labor from the ground. It is an object of the present invention to obtain a 3D map correction apparatus and a 3D map correction program capable of acquiring a 3D map.
この発明に係る三次元地図補正装置は、車両の走行軌跡データから車両が走行している方向を示す走行ベクトルを算出する走行ベクトル算出手段と、車両の周囲に存在する地物の三次元位置の点群を示す地物点群データと走行ベクトル算出手段により算出された走行ベクトルから、車両の周囲に存在する地物である建物の壁面の位置及び形状を示す壁ベクトルデータを算出する壁ベクトル算出手段とを設け、地図ポリゴン補正手段が壁ベクトル算出手段により算出された壁ベクトルデータにしたがって三次元地図記憶手段に記憶されている三次元地図の壁ポリゴンデータ及び屋根ポリゴンデータを補正するようにしたもので、壁ベクトル算出手段は、データ記憶手段により記憶されている地物点群データが示す三次元位置の点群の中から、概ね鉛直方向に連続している三次元位置の点群を抽出する鉛直点群抽出部と、走行ベクトル算出手段により算出された走行ベクトルとの水平距離に応じて、鉛直点群抽出部により抽出された三次元位置の点群を複数の組に分割する鉛直点群整列部と、鉛直点群整列部により分割された複数の点群の組の中で、走行ベクトル算出手段により算出された走行ベクトルとの水平距離が最大の点群が存在している領域を示すベクトルデータを壁ベクトルデータとして算出する壁点群ベクトル化部とから構成されているものである。 The three-dimensional map correction apparatus according to the present invention includes a travel vector calculating means for calculating a travel vector indicating a direction in which the vehicle is traveling from the travel locus data of the vehicle, and a three-dimensional position of a feature existing around the vehicle. Wall vector calculation for calculating wall vector data indicating the position and shape of the wall surface of the building, which is a feature existing around the vehicle, from the feature point cloud data indicating the point cloud and the travel vector calculated by the travel vector calculation means And the map polygon correction means corrects the wall polygon data and the roof polygon data of the 3D map stored in the 3D map storage means according to the wall vector data calculated by the wall vector calculation means. those walls vector calculation means, from the point cloud of the three-dimensional position indicated by the feature point group data stored by the data storage means, outline Extracted by the vertical point cloud extraction unit according to the horizontal distance between the vertical point cloud extraction unit that extracts the point cloud of the three-dimensional position continuous in the vertical direction and the travel vector calculated by the travel vector calculation means. A vertical point cloud alignment unit that divides a point cloud at a three-dimensional position into a plurality of sets, and a travel vector calculated by the travel vector calculation means in the plurality of point cloud groups divided by the vertical point cloud alignment unit; And a wall point cloud vectorization unit that calculates, as wall vector data, vector data indicating a region where a point cloud having the maximum horizontal distance exists.
この発明によれば、車両の走行軌跡データから車両が走行している方向を示す走行ベクトルを算出する走行ベクトル算出手段と、車両の周囲に存在する地物の三次元位置の点群を示す地物点群データと走行ベクトル算出手段により算出された走行ベクトルから、車両の周囲に存在する地物である建物の壁面の位置及び形状を示す壁ベクトルデータを算出する壁ベクトル算出手段とを設け、地図ポリゴン補正手段が壁ベクトル算出手段により算出された壁ベクトルデータにしたがって三次元地図記憶手段に記憶されている三次元地図の壁ポリゴンデータ及び屋根ポリゴンデータを補正するように構成したので、別途地上から手間がかかる個別の測量を行うことなく、大縮尺(例えば、縮尺500分の1)に相当する誤差精度を有する三次元地図を取得することができる効果がある。 According to this invention, the travel vector calculation means for calculating the travel vector indicating the direction in which the vehicle is traveling from the travel locus data of the vehicle, and the ground indicating the point group of the three-dimensional positions of the features existing around the vehicle. Wall vector calculation means for calculating wall vector data indicating the position and shape of the wall surface of the building, which is a feature existing around the vehicle, from the object point cloud data and the travel vector calculated by the travel vector calculation means; The map polygon correction means is configured to correct the wall polygon data and the roof polygon data of the 3D map stored in the 3D map storage means according to the wall vector data calculated by the wall vector calculation means. 3D map with error accuracy equivalent to a large scale (for example, 1/500 scale) without carrying out individual surveys There is an effect that can be obtained.
実施の形態1.
図1はこの発明の実施の形態1による三次元地図補正装置を示す構成図である。
図1において、車上点群獲得部1は例えばレーザ測定装置と、GPS装置、慣性航法装置及び積算走行距離計とが組み合わされている装置であり、走行する車両の周囲に存在する地物の三次元位置を計測する処理を実施する。
ここで、GPS装置は、非特許文献1に開示されているように、水平方向誤差が約2cmの精度で自位置を計測することができる。また、レーザ測定装置は、距離10m程度に対して、10cmの精度で距離を計測することができる。このことから、三次元位置は、縮尺500分の1の地図が有する精度(誤差25cm以内)で、地物の表面の位置を獲得することができる。
なお、車上点群獲得部1は地物位置計測手段を構成している。
1 is a block diagram showing a three-dimensional map correction apparatus according to
In FIG. 1, an on-vehicle point
Here, as disclosed in
The on-vehicle point
車上測定データ記憶部2は車上点群獲得部1により計測された三次元位置の点群を示す地物点群データAを記憶するとともに、その車両の走行軌跡を示す走行軌跡データBを記憶する処理を実施する。なお、車上測定データ記憶部2はデータ記憶手段を構成している。
走行ベクトル算出部3は車上測定データ記憶部2により記憶されている走行軌跡データBのうち、比較的直線に近い走行軌跡の部分の走行軌跡データBから、その車両が走行している方向を示す走行ベクトルを算出し、その車両の走行方向の情報を含む走行ベクトルデータCを出力する処理を実施する。なお、走行ベクトル算出部3は走行ベクトル算出手段を構成している。
The on-vehicle measurement
The traveling
壁ベクトル算出部4は鉛直点群抽出部5、鉛直点群整列部6及び壁点群ベクトル化部7から構成されており、車上測定データ記憶部2により記憶されている地物点群データAと走行ベクトル算出部3により算出された走行ベクトルデータCから、その車両の周囲に存在する地物である建物の壁面の位置及び形状を示す壁ベクトルデータDを算出する処理を実施する。なお、壁ベクトル算出部4は壁ベクトル算出手段を構成している。
鉛直点群抽出部5は車上測定データ記憶部2により記憶されている地物点群データAが示す三次元位置の点群の中から、概ね鉛直方向に連続している三次元位置の点群を抽出する処理を実施する。
The wall
The vertical point
鉛直点群整列部6は走行ベクトル算出部3により算出された走行ベクトルデータCとの水平距離に応じて、鉛直点群抽出部5により抽出された三次元位置の点群を複数の組に分割する処理を実施する。
壁点群ベクトル化部7は鉛直点群整列部6により分割された複数の点群の組の中で、走行ベクトル算出部3により算出された走行ベクトルデータCとの水平距離が最大の点群が存在している領域を示すベクトルデータを壁ベクトルデータとして算出する処理を実施する。
The vertical point
The wall point
三次元地図記憶部8は例えばデータベースなどの記録媒体であり、地上の建物の壁面をポリゴン(多角形)で表している壁ポリゴンデータEと、地上の建物の屋根をポリゴン(多角形)で表している屋根ポリゴンデータFとからなる三次元地図を記憶している。なお、三次元地図記憶部8は三次元地図記憶手段を構成している。
The three-dimensional
地図ポリゴン補正部9は壁ポリゴン探索部10、壁ポリゴン補正部11及び関連ポリゴン補正部12から構成されており、壁ベクトル算出部4により算出された壁ベクトルデータDにしたがって三次元地図記憶部8により記憶されている三次元地図の壁ポリゴンデータE及び屋根ポリゴンデータFを補正する処理を実施する。なお、地図ポリゴン補正部9は地図ポリゴン補正手段を構成している。
壁ポリゴン探索部10は三次元地図記憶部8により記憶されている壁ポリゴンデータの中から、壁ベクトル算出部4により算出された壁ベクトルデータDが示す位置の近傍に存在している建物の壁に係る壁ポリゴンデータEを探索する処理を実施する。
The map
The wall
壁ポリゴン補正部11は壁ポリゴン探索部10により探索された壁ポリゴンデータが表す位置及び形状を、その壁ベクトルデータDにしたがって補正する処理を実施する。
関連ポリゴン補正部12は壁ポリゴン補正部11により補正された壁ポリゴンデータEである補正壁ポリゴンデータGが表す位置及び形状に合わせて、補正前の壁ポリゴンデータEに隣接して連結されている壁ポリゴンデータE及び屋根ポリゴンデータFが表す位置及び形状を補正する処理を実施する。
The wall
The related
補正三次元地図記憶部13は例えばデータベースなどの記録媒体であり、地図ポリゴン補正部9により位置及び形状が補正された補正壁ポリゴンデータGを記憶するとともに、位置及び形状が補正された補正屋根ポリゴンデータHを記憶する。
The corrected three-dimensional
図1の例では、三次元地図補正装置の構成要素である車上点群獲得部1、車上測定データ記憶部2、走行ベクトル算出部3、壁ベクトル算出部4及び地図ポリゴン補正部9のそれぞれが専用のハードウェア(例えば、CPUを実装している半導体集積回路)で構成されているものを想定しているが、三次元地図補正装置がコンピュータで構成される場合、車上点群獲得部1、車上測定データ記憶部2、走行ベクトル算出部3、壁ベクトル算出部4及び地図ポリゴン補正部9の処理内容が記述されている三次元地図補正プログラムをコンピュータのメモリに格納し、当該コンピュータのCPUが当該メモリに格納されている三次元地図補正プログラムを実行するようにしてもよい。
In the example of FIG. 1, an on-vehicle point
図2は車上測定データ記憶部2により記憶されている地物点群データA及び走行軌跡データBのデータ形式を示す説明図である。
図3は走行ベクトル算出部3から出力される走行ベクトルデータCのデータ形式を示す説明図である。
図4は壁ベクトル算出部4により算出される壁ベクトルデータDのデータ形式を示す説明図である。
図5は三次元地図記憶部8に記憶されている三次元地図の壁ポリゴンデータE及び屋根ポリゴンデータFのデータ形式を示す説明図である。
FIG. 2 is an explanatory diagram showing the data format of the feature point cloud data A and the traveling locus data B stored in the on-vehicle measurement
FIG. 3 is an explanatory diagram showing a data format of the traveling vector data C output from the traveling
FIG. 4 is an explanatory diagram showing the data format of the wall vector data D calculated by the wall
FIG. 5 is an explanatory diagram showing the data format of the wall polygon data E and the roof polygon data F of the 3D map stored in the 3D
次に動作について説明する。
車上点群獲得部1は、例えば、レーザ測定装置とGPS装置が組み合わせた装置であり、車両の屋根に設置されている。
ここで、レーザ測定装置は、レーザ光を車両の周囲方向に照射し、車両の周囲に存在している地物に反射して戻ってきたレーザ光を受信することで、車両から地物までの距離と方向を獲得する。
また、GPS装置は、レーザ測定装置が設置されている位置にGPS受信アンテナが設置され、GPS受信アンテナがGPS衛星から送信されるGPS信号を受信することで、レーザ測定装置の位置(緯度、経度、標高)と、そのGPS信号の受信時刻tとを獲得する。
Next, the operation will be described.
The on-vehicle point
Here, the laser measurement device irradiates laser light in the direction around the vehicle and receives the laser light that has been reflected back to the features existing around the vehicle, so that the vehicle to the features can be received. Earn distance and direction.
The GPS device has a GPS receiving antenna installed at a position where the laser measuring device is installed, and the GPS receiving antenna receives a GPS signal transmitted from a GPS satellite, so that the position (latitude, longitude) of the laser measuring device is received. ) And the reception time t of the GPS signal.
車上点群獲得部1は、GPS装置がレーザ測定装置の位置(緯度、経度、標高)を獲得し、レーザ測定装置が車両から地物までの距離と方向を獲得すると、これらの獲得情報から、地物の表面を構成する点の三次元位置(x(経度)、y(緯度)、z(標高)座標値)が得られる。
車上点群獲得部1は、図2(a)に示すように、地物の表面を構成する点のx(経度)、y(緯度)、z(標高)座標値と、GPS信号の受信時刻t(座標値の取得時刻)とを地物点群データAとして車上測定データ記憶部2に出力する。
When the GPS device acquires the position (latitude, longitude, altitude) of the laser measurement device and the laser measurement device acquires the distance and direction from the vehicle to the feature, the on-vehicle point cloud acquisition unit 1 A three-dimensional position (x (longitude), y (latitude), z (elevation) coordinate value) of points constituting the surface of the feature is obtained.
As shown in FIG. 2A, the on-vehicle point
座標値の単位は、例えば、平面直角座標系で、系毎の原点からのx(東西方向への距離)と、y(南北方向への距離)をm単位に表したものである。
点群の密度は、例えば、レーザ測定装置から1mの距離で、1cm間隔に10点以上、5mの距離で、1cm間隔に2点以上となる。
また、車上点群獲得部1は、走行軌跡データBとして、GPS装置により計測される位置を最小限0.1秒間隔で獲得し、その走行軌跡データBを車上測定データ記憶部2に出力する。
走行軌跡データBは、図2(b)に示すように、車両(詳しくは、車両中のGPSアンテナ)の走行軌跡をx(経度)、y(緯度)、z(標高)座標値と、その座標値の取得時刻tとで表すものである。
なお、地物点群データAと走行軌跡データBにおける経度・緯度の表現方法は、同一のものとする。
The unit of coordinate values is, for example, a planar rectangular coordinate system, in which x (distance in the east-west direction) and y (distance in the north-south direction) from the origin of each system are expressed in m units.
The density of the point group is, for example, 10 points or more at 1 cm intervals at a distance of 1 m from the laser measuring apparatus and 2 points or more at 1 cm intervals at a distance of 5 m.
Further, the on-vehicle point
As shown in FIG. 2 (b), the traveling locus data B includes a traveling locus of a vehicle (specifically, a GPS antenna in the vehicle), x (longitude), y (latitude), z (elevation) coordinate values, This is expressed by the coordinate value acquisition time t.
Note that the method of expressing the longitude and latitude in the feature point cloud data A and the travel locus data B is the same.
車上測定データ記憶部2は、車上点群獲得部1から出力された地物点群データAと走行軌跡データBを記憶する。
The on-vehicle measurement
走行ベクトル算出部3は、車上測定データ記憶部2により記憶されている走行軌跡データBのうち、比較的直線に近い走行軌跡の部分の走行軌跡データBから、その車両が走行している方向を示す走行ベクトルを算出し、その車両の走行方向の情報を含む走行ベクトルデータCを壁ベクトル算出部4に出力する。
走行ベクトルデータCは、図3に示すように、走行軌跡データBの中で、比較的直線に近い走行軌跡の部分の始点(x(経度)、y(緯度)、z(標高)座標値)及び終点(x(経度)、y(緯度)、z(標高)座標値)と、走行方向(始点から見た終点の方向:北を0度として、時計周りに360度まで表した数値)で表すものである。
The traveling
As shown in FIG. 3, the traveling vector data C is a starting point (x (longitude), y (latitude), z (elevation) coordinate values) of a portion of the traveling locus that is relatively close to a straight line in the traveling locus data B. And the end point (x (longitude), y (latitude), z (elevation) coordinate values) and the traveling direction (the direction of the end point as seen from the start point: a numerical value expressed up to 360 degrees clockwise with 0 degrees north). It represents.
以下、走行ベクトル算出部3における走行ベクトルデータCの算出処理を具体的に説明する。
まず、走行ベクトル算出部3は、走行開始時刻の座標値x,yを起点とし、走行開始時刻から或る時間(例えば、10秒)が経過した時刻における座標値を終点とするベクトルを仮定する。
走行ベクトル算出部3は、起点と終点間の全時刻において、その仮定したベクトルと走行軌跡データB上の点とがなす距離が、所定の閾値(例えば、0.3m)未満であれば、その仮定したベクトルを走行ベクトルデータCとして登録する。
一方、その仮定したベクトルと走行軌跡データB上の点とがなす距離が、所定の閾値(例えば、0.3m)以上であれば、始点を一定時間(例えば、2秒)ずらして同様の処理を行う。
Hereinafter, the calculation processing of the traveling vector data C in the traveling
First, the travel
If the distance between the assumed vector and a point on the travel locus data B is less than a predetermined threshold (for example, 0.3 m) at all times between the start point and the end point, the travel
On the other hand, if the distance between the assumed vector and the point on the travel locus data B is equal to or greater than a predetermined threshold (for example, 0.3 m), the same process is performed by shifting the start point by a certain time (for example, 2 seconds). I do.
走行ベクトル算出部3は、走行ベクトルデータCを登録した後、その走行ベクトルデータCの始点と同じ始点で、終点が一定時間(例えば、2秒)ずれている新たなベクトルを仮定する。
走行ベクトル算出部3は、新たに仮定したベクトルと走行軌跡データB上の点とがなす距離が、所定の閾値(例えば、0.3m)未満であれば、先に登録した走行ベクトルデータCを棄却して、新たに仮定したベクトルを走行ベクトルデータCとして登録する。
このようにして、走行軌跡データBの中で、比較的直線に近い走行軌跡の部分を走行ベクトルデータCとして算出する。
After the traveling vector data C is registered, the traveling
If the distance between the newly assumed vector and a point on the travel locus data B is less than a predetermined threshold (for example, 0.3 m), the travel
In this way, the portion of the traveling locus that is relatively close to a straight line in the traveling locus data B is calculated as the traveling vector data C.
壁ベクトル算出部4は、走行ベクトル算出部3が走行ベクトルデータCを算出すると、その走行ベクトルデータCと車上測定データ記憶部2により記憶されている地物点群データAから、車両の周囲に存在する地物である建物の壁面の位置及び形状を示す壁ベクトルデータDを算出する。
図6は壁ベクトル算出部4の処理内容を示す説明図である。
以下、壁ベクトル算出部4における壁ベクトルデータDの算出処理を具体的に説明する。
When the travel
FIG. 6 is an explanatory diagram showing the processing contents of the wall
Hereinafter, the calculation process of the wall vector data D in the wall
まず、壁ベクトル算出部4の鉛直点群抽出部5は、車上測定データ記憶部2により記憶されている地物点群データAが示す三次元位置の点群の中から、概ね鉛直方向に連続している三次元位置の点群を抽出する。
ここで、図6(a)は、鉛直点群抽出部5が処理空間(地物点群データAが示す三次元位置の点群による空間)から、隣接点が鉛直に連結されている点群(概ね鉛直方向に連続している三次元位置の点群)を抽出している様子を模式的に表している。
First, the vertical point
Here, FIG. 6A illustrates a point group in which the vertical point
具体的には、以下のようにして、隣接点が鉛直に連結されている点群を抽出している。
まず、鉛直点群抽出部5は、点群による空間中の地物点群データAのx,y座標値を、例えば、0.1m毎の単位に四捨五入する。
したがって、例えば、(x=3600.512,y=200.456)の点と、(x=3600.508,y=200.461)の点とは、同じ(x=3600.5,y=200.5)の点として扱われる。
次に、鉛直点群抽出部5は、同じ四捨五入値を有する点同士について、z座標(標高)が高い順にソートする。
Specifically, a point group in which adjacent points are vertically connected is extracted as follows.
First, the vertical point
Therefore, for example, the point (x = 3600.512, y = 200.456) and the point (x = 3600.508, y = 200.461) are the same (x = 3600.5, y = 200). .5) is treated as a point.
Next, the vertical point
鉛直点群抽出部5は、同じ四捨五入値を有する点の中で、z座標の最大値が所定の閾値(例えば、3m)以上であり、z座標の最大値と最小値の差分が所定の閾値(例えば、1m)以上であり、かつ、その同じ四捨五入値を有する点の数が所定の閾値(例えば、10点)以上ある場合、該当の複数の点は、壁を構成している点の可能性を有し、ほぼ鉛直(x座標、y座標の差が各0.1m以内)の点とみなせるので、この複数の点を鉛直点群として抽出する。
隣接点がほぼ鉛直に連結されている点群には、z座標の最大値が合わないので、道路、歩行者や生垣を構成する点は含まれない。また、z座標の最大値と最小値の差分が合わないので、突き出した軒先は含まれない。
ただし、隣接点がほぼ鉛直に連結されている点群には、壁以外にも、街路樹や電柱などを構成する点は含まれると考えられる。
Among the points having the same rounded value, the vertical point
A point group in which adjacent points are connected almost vertically does not include a point that constitutes a road, a pedestrian, or a hedge because the maximum value of the z coordinate does not match. Further, since the difference between the maximum value and the minimum value of the z coordinate does not match, the protruding eaves is not included.
However, it is considered that the point group in which adjacent points are connected substantially vertically includes points constituting street trees, utility poles, etc. in addition to the walls.
壁ベクトル算出部4の鉛直点群整列部6は、鉛直点群抽出部5が鉛直に連結されている点群を抽出すると、走行ベクトル算出部3により算出された走行ベクトルデータCとの水平距離に応じて、鉛直に連結されている点群を複数の組に分割する。
ここで、図6(b)は、鉛直点群整列部6が走行ベクトルデータCとの水平距離に応じて、鉛直に連結されている点群を複数の組に分割している様子を模式的に表している。
When the vertical point
Here, FIG. 6B schematically shows a state in which the vertical point
具体的には、以下のようにして、隣接点がほぼ鉛直に連結されている点群を複数の組に分割している。
まず、鉛直点群整列部6は、隣接点が鉛直に連結されている点群における任意の一点を基準にして、その点から走行ベクトルデータCへの水平距離(x座標値とy座標値のみで決まり、z座標値を考慮しない距離)が所定の閾値(例えば、0.1m)以内であり、かつ、走行ベクトルデータCの走行方向への水平距離が所定の閾値(例えば、0.15m)以内である点を連結していくようにする。
次に、鉛直点群整列部6は、連結した点の集合のうち、走行ベクトルデータCから最も離れた点の水平距離が所定の閾値(例えば、2m)以上の点の集合をもって、走行ベクトルデータCに沿って整列した点群の組を取得する。
ただし、その点群の組には、壁を構成する点は含まれるが、街路樹や電柱などを構成する点は含まれないと考えられる。
Specifically, a point group in which adjacent points are connected substantially vertically is divided into a plurality of sets as follows.
First, the vertical point
Next, the vertical point
However, it is considered that the point cloud set includes points that constitute walls, but does not include points that constitute street trees, utility poles, and the like.
壁ベクトル算出部4の壁点群ベクトル化部7は、鉛直点群整列部6が鉛直に連結されている点群を複数の組に分割すると、複数の点群の組の中で、走行ベクトル算出部3により算出された走行ベクトルデータCとの水平距離が最大の点群が存在している領域を示すベクトルデータを壁ベクトルデータDとして算出する。
ここで、図6(c)は、壁点群ベクトル化部7が複数の点群の組の中で、走行ベクトルデータCとの水平距離が最大の点群が存在している領域を示す壁ベクトルデータDを算出している様子を模式的に表している。
The wall point
Here, FIG. 6C shows a wall in which the wall point
具体的には、以下のようにして、図4の壁ベクトルデータDを算出している。
まず、壁点群ベクトル化部7は、複数の点群の組を構成している点群の各々について、走行ベクトルデータCの始点に最も水平距離が近い点のうち、高度が最も高い点の座標を壁ベクトルデータの始点の座標とし、走行ベクトルデータCの終点に最も水平距離が近い点のうち、高度が最も高い点の座標を壁ベクトルデータの終点の座標とする。
また、始点の座標から終点の座標への方向を北から時計周りの角度で表したものを壁方向の角度とする壁ベクトルデータ候補を算出する。
次に、壁点群ベクトル化部7は、走行ベクトルデータCと略平行な壁ベクトルデータ候補について、走行ベクトルデータCとの水平距離を調べ、その壁ベクトルデータ候補の中で、走行ベクトルデータCより最も遠い壁ベクトルデータ候補を壁ベクトルデータDとする。
Specifically, the wall vector data D in FIG. 4 is calculated as follows.
First, the wall point
Further, a wall vector data candidate is calculated in which the direction from the start point coordinate to the end point coordinate is expressed as an angle in the clockwise direction from north to the wall direction.
Next, the wall point
三次元地図記憶部8には、車両の周囲に存在している地物のうち、建物の壁面をポリゴン(多角形)で表している壁ポリゴンデータEと、建物の屋根をポリゴン(多角形)で表している屋根ポリゴンデータFとからなる三次元地図が記憶されている。
壁ポリゴンデータEと屋根ポリゴンデータFは、図5に示すデータ形式で格納されており、一般性を失うものではない。
三次元地図記憶部8には、壁ポリゴンデータEと屋根ポリゴンデータFの他に、地盤を表すポリゴンなどが記憶されていてもよい。
なお、壁ポリゴンデータEと屋根ポリゴンデータFの最大誤差であるが、縮尺2500分の1であれば、平均誤差1.75mが許容されている。
Among the features existing around the vehicle, the three-dimensional
The wall polygon data E and the roof polygon data F are stored in the data format shown in FIG. 5, and the generality is not lost.
In addition to the wall polygon data E and the roof polygon data F, the 3D
Note that the maximum error between the wall polygon data E and the roof polygon data F is 1.75 m if the scale is 1/2500.
地図ポリゴン補正部9は、壁ベクトル算出部4が壁ベクトルデータDを算出すると、その壁ベクトルデータDにしたがって三次元地図記憶部8により記憶されている三次元地図の壁ポリゴンデータE及び屋根ポリゴンデータFを補正する。
図7は地図ポリゴン補正部9の処理内容を示す説明図である。
以下、地図ポリゴン補正部9における壁ポリゴンデータE及び屋根ポリゴンデータFの補正処理を具体的に説明する。
When the wall
FIG. 7 is an explanatory diagram showing the processing contents of the map
Hereinafter, the correction processing of the wall polygon data E and the roof polygon data F in the map
まず、地図ポリゴン補正部9の壁ポリゴン探索部10は、三次元地図記憶部8により記憶されている壁ポリゴンデータEの中から、壁ベクトル算出部4により算出された壁ベクトルデータDが示す位置の近傍に存在している建物の壁に係る壁ポリゴンデータEを探索する。
ここで、図7(a)は、壁ポリゴン探索部10が、壁ベクトルデータDが示す位置の近傍に存在している建物の壁に係る壁ポリゴンデータEを探索している様子を模式的に表している。
First, the wall
Here, FIG. 7A schematically shows that the wall
具体的には、以下のようにして、壁ポリゴンデータEを探索している。
まず、壁ポリゴン探索部10は、三次元地図記憶部8により記憶されている壁ポリゴンデータEの中から、壁ベクトル算出部4により算出された壁ベクトルデータDにほぼ平行な壁ポリゴンデータEを探索する。
即ち、壁ポリゴン探索部10は、三次元地図記憶部8により記憶されている壁ポリゴンデータEの中で、壁ベクトルデータDの壁方向との差が所定の閾値(例えば、10度)以内である壁ポリゴンデータEを探索する。
Specifically, the wall polygon data E is searched as follows.
First, the wall
That is, the wall
次に、壁ポリゴン探索部10は、壁ベクトルデータDにほぼ平行な壁ポリゴンデータEの中で、壁ベクトルデータDとの水平距離が所定の閾値(例えば、1m)未満の壁ポリゴンデータEを探索し、それらの壁ポリゴンデータEの中で、壁ベクトルデータDとの水平距離が最小の壁ポリゴンデータEを探索する。
Next, the wall
壁ポリゴン補正部11は、壁ポリゴン探索部10が壁ベクトルデータDに対応する壁ポリゴンデータEを探索すると、その壁ポリゴンデータEが表す位置及び形状を、その壁ベクトルデータDにしたがって補正する。
ここで、図7(b)は、壁ポリゴン補正部11が、壁ポリゴンデータEが表す位置及び形状を補正している様子を示している。
When the wall
Here, FIG. 7B shows a state where the wall
具体的には、以下のようにして、壁ポリゴンデータEが表す位置及び形状を補正している。
壁ポリゴン補正部11は、壁ポリゴン探索部10により探索された壁ポリゴンデータEのx,y座標値を、対応している壁ベクトルデータDのx,y座標値に置換することで、その壁ポリゴンデータEを補正する。
ただし、車上点群獲得手段1のレーザ測定装置から照射されるレーザ光は、射程距離に制限があり、例えば、高層ビルの屋上までは届かないことが想定されるので、壁ポリゴンデータEのz座標値については、壁ベクトルデータDのz座標値で置換しない。
Specifically, the position and shape represented by the wall polygon data E are corrected as follows.
The wall
However, the laser beam emitted from the laser measuring device of the on-vehicle point cloud acquisition means 1 has a limited range, for example, it is assumed that it does not reach the rooftop of a high-rise building. The z coordinate value is not replaced with the z coordinate value of the wall vector data D.
関連ポリゴン補正部12は、壁ポリゴン補正部11が壁ポリゴンデータEを補正すると、補正後の壁ポリゴンデータEである補正壁ポリゴンデータGが表す位置及び形状に合わせて、その補正壁ポリゴンデータGが補正される前の壁ポリゴンデータEに隣接して連結されている壁ポリゴンデータE及び屋根ポリゴンデータFが表す位置及び形状を補正する。
即ち、関連ポリゴン補正部12は、壁ポリゴン補正部11により補正される前の壁ポリゴンデータEに隣接して連結されている壁ポリゴンデータが表す壁ポリゴンを、補正された壁ポリゴンデータEが表す壁ポリゴンと同様に移動することで補正する。
屋根ポリゴンデータFについては、移動後の壁ポリゴンを覆うように、屋根ポリゴンを移動することで補正する。
When the wall
In other words, the related
The roof polygon data F is corrected by moving the roof polygon so as to cover the moved wall polygon.
ここで、図7(c)は、関連ポリゴン補正部12が、補正前の壁ポリゴンデータEに隣接して連結されている屋根ポリゴンデータFが表す位置及び形状を補正している様子を示している。
なお、補正される前の壁ポリゴンデータEに対して、その他の壁ポリゴンデータE及び屋根ポリゴンデータFが隣接して連結されているか否かの判断は、壁ポリゴンデータE及び屋根ポリゴンデータFが共有の輪郭線を有しているか否かを判定することで判断することができる。
Here, FIG. 7C shows a state in which the related
Whether the wall polygon data E and the roof polygon data F are adjacently connected to the wall polygon data E before correction is determined based on whether the wall polygon data E and the roof polygon data F are connected. This can be determined by determining whether or not a shared outline is present.
補正三次元地図記憶部13は、地図ポリゴン補正部9から出力される補正壁ポリゴンデータGと補正屋根ポリゴンデータHを記憶する。
このようにして、三次元地図補正装置は、三次元地図記憶部8に記憶されている建物を校正する壁ポリゴンデータEと屋根ポリゴンデータFを、より平均誤差が少ない車上点群獲得部1で獲得された地物点群データAと走行軌跡データBを基に補正して、より平均誤差の少ない三次元地図を得るものである。
The corrected 3D
In this way, the three-dimensional map correction device uses the on-vehicle point
以上で明らかなように、この実施の形態1によれば、車両の走行軌跡データBから車両が走行している方向を示す走行ベクトルの情報を含む走行ベクトルデータCを算出する走行ベクトル算出部3と、車両の周囲に存在する地物の三次元位置の点群を示す地物点群データAと走行ベクトル算出部3により算出された走行ベクトルデータCから、車両の周囲に存在する地物である建物の壁面の位置及び形状を示す壁ベクトルデータDを算出する壁ベクトル算出部4とを設け、地図ポリゴン補正部9が壁ベクトル算出部4により算出された壁ベクトルデータDにしたがって三次元地図記憶部8により記憶されている三次元地図の壁ポリゴンデータE及び屋根ポリゴンデータFを補正するように構成したので、別途地上から手間がかかる個別の測量を行うことなく、大縮尺(例えば、縮尺500分の1)に相当する誤差精度を有する三次元地図を取得することができる効果を奏する。
As is apparent from the above, according to the first embodiment, the traveling
実施の形態2.
上記実施の形態1では、車両に搭載されている車上点群獲得部1が地物点群データAと走行軌跡データBを獲得するものについて示したが、レーザ測定装置とGPS装置を地面上に設置して地物点群データAを測定し、その後、レーザ測定装置とGPS装置を移動して新たな地物点群データAを測定し、両地点を結んだ軌跡を走行軌跡データBとして記憶するようにしてもよい。
In the first embodiment, the on-vehicle point
上記実施の形態1では、車上点群獲得部1を構成しているGPS装置によるレーザ測定装置の絶対位置(緯度、経度、標高)と、レーザ測定装置によるレーザ照射の方向及び地物までの距離から、地物の表面を構成する点の三次元位置(x(経度)、y(緯度)、z(標高)座標値)を特定するものについて示したが、地物の表面を構成する点の三次元位置を補正するために、測距儀などの公知の技術である個別の精密測定方法を援用するように構成してもよい。
また、GPS装置による位置測定の精度は、GPS装置が捕捉できるGPS衛星の個数により影響されるので、位置測定の精度が悪い地物点群データAは壁ベクトルデータDの算出には用いないように構成することもできる。
In the first embodiment, the absolute position (latitude, longitude, altitude) of the laser measuring device by the GPS device constituting the on-vehicle point
Further, since the accuracy of position measurement by the GPS device is affected by the number of GPS satellites that can be captured by the GPS device, the feature point cloud data A with poor position measurement accuracy is not used for calculating the wall vector data D. It can also be configured.
上記実施の形態1では、壁は天井部分から地面に接する部分まで鉛直に構成されているものとして説明したが、実際の壁面は、地上に近い部分が鉛直面と異なっている場合も多い。
したがって、鉛直点群抽出部5が、点群が連続している鉛直部分を抽出する際、天井部分から地面に接する部分までではなく、例えば、地面から高度1mまで、高度1mから3mまで、あるいは、高度3m以上というように、地面からの相対高度で複数の層に分けて算出し、層毎の走行ベクトルからの距離によって、壁を複数の平面で表現するように構成してもよい。
In
Therefore, when the vertical point
上記実施の形態1では、鉛直点群抽出部5が、点群が連続している鉛直部分を抽出するものについて示したが、鉛直性を定める閾値によって、鉛直に近い切り立った崖を構成する点群を抽出するようにしてもよい。
これにより、建物の壁面だけでなく、崖を抽出して、崖崩れの把握などに応用するようにしてもよい。
In
Thereby, not only the wall surface of the building but also a cliff may be extracted and applied to grasping a landslide.
上記実施の形態1では、鉛直点群整列部6が走行ベクトルデータCから最も離れた点の水平距離が閾値(例えば、2m)以上の点の集合をもって、走行ベクトルデータCに沿って整列している点群の組を得るものについて示したが、最も離れた点と、それから水平距離が閾値(例えば、1m)以内の点を含めることにより、建物の外壁だけでなく、ベランダの奥の内壁や窓を壁とみなすことができる。
In the first embodiment, the vertical point
上記実施の形態1では、車両と壁の間に歩行者、道路標識、樹木などのノイズ物体がある場合でも、ノイズ物体で反射しないで、建物の壁に到達した点群により、建物の壁が検出されるものとして説明したが、連続する低層の防護壁で遮られていて、建物の低層部分の壁面が点群として全く検出できない場合がある。
この場合、走行ベクトルデータCから距離が離れた鉛直点群で、ある高度未満の点群が存在しないので、鉛直点群整列部6により算出された壁ベクトルデータDに「低層位置不確実」のフラグを付け、この壁ベクトルデータDにより補正された壁ポリゴンデータEである補正壁ポリゴンデータGにも「低層位置不確実」のフラグを付けて、作成された補正三次元地図に対して利用者の注意を促すようにしてもよい。
In the first embodiment, even when there is a noise object such as a pedestrian, a road sign, or a tree between the vehicle and the wall, the wall of the building is not reflected by the noise object, and the point cloud that reaches the wall of the building Although described as being detected, there are cases in which the wall surface of the low-rise part of the building cannot be detected as a point cloud at all because it is blocked by a continuous low-rise protective wall.
In this case, since there is no point group of less than a certain altitude in the vertical point group that is far from the travel vector data C, the wall vector data D calculated by the vertical point
上記実施の形態1では、壁ポリゴン補正部11が、三次元地図記憶部8により記憶されている壁ポリゴンデータEのうち、壁ベクトルデータDと位置及び方向が類似している壁ポリゴンデータEを補正対象とするものについて示したが、例えば、縮尺1/2500の三次元地図にあっても、個別に縮尺1/500の誤差精度を有するように精密測量して作成された壁ポリゴンデータEについては「高精度あり」のフラグを付けることで、壁ポリゴン補正部11による補正の対象に含めないようにしてもよい。
In the first embodiment, the wall
上記実施の形態1では、壁ポリゴンデータEと屋根ポリゴンデータFが共有している輪郭線を有することで、双方が隣接して連結されている旨を判定するものについて示したが、三次元データの表現方法には、もともと壁ポリゴンデータEと屋根ポリゴンデータFを一体の三次元物体として表現する手法もある。
このような手法にのっとって表現された三次元地図の場合には、ことさら関連ポリゴン補正部12を介さずとも、壁ポリゴン補正部11で壁ポリゴンを補正することにより、屋根ポリゴンなどの関連ポリゴンを自動的に補正するように構成することができる。
In the first embodiment, the case where the wall polygon data E and the roof polygon data F have a contour line shared to determine that both are adjacently connected is shown. There is also a method of originally expressing the wall polygon data E and the roof polygon data F as an integrated three-dimensional object.
In the case of a three-dimensional map expressed according to such a method, a related polygon such as a roof polygon can be obtained by correcting the wall polygon by the wall
上記実施の形態1では、建物を構成している壁ポリゴンデータE内の1面だけが補正されるように説明してきたが、交差する道路や、隣接する道路を走行する車両によって車上点群が獲得され、その結果、建物を構成している複数の壁ポリゴンデータEが補正されることもある。
この場合、補正されない壁ポリゴンデータE及び屋根ポリゴンデータFのみを関連ポリゴン補正部12によって補正するように構成することができる。
In the first embodiment, the description has been made so that only one surface in the wall polygon data E constituting the building is corrected. However, the on-vehicle point cloud may be used by an intersecting road or a vehicle traveling on an adjacent road. As a result, the plurality of wall polygon data E constituting the building may be corrected.
In this case, only the uncorrected wall polygon data E and roof polygon data F can be corrected by the related
上記実施の形態1では、壁ベクトルデータDが示す位置の近傍に建物が存在し、その建物の壁に係る壁ポリゴンデータEが存在していることを前提にして説明したが、このような壁ポリゴンデータEが存在しない場合には、経年変化により新たな建物ができた可能性があると判断して、該当の壁ベクトルデータEを基に新たな補正壁ポリゴンデータGを生成するように構成することもできる。
ただし、この場合、屋根ポリゴンデータHの生成は不可能であるため、該当の補正壁ポリゴンデータGについては「車上測定データより作成」とのフラグを付けて、三次元地図作成者の注意を促すように構成することもできる。
The first embodiment has been described on the assumption that a building exists in the vicinity of the position indicated by the wall vector data D and the wall polygon data E relating to the wall of the building exists. When polygon data E does not exist, it is determined that there is a possibility that a new building has been formed due to secular change, and new corrected wall polygon data G is generated based on the corresponding wall vector data E You can also
However, in this case, since it is impossible to generate the roof polygon data H, the correction wall polygon data G is flagged as “created from on-vehicle measurement data” and the 3D map creator's attention is given. It can also be configured to prompt.
上記実施の形態1では、壁ベクトルデータDが示す位置の近傍に建物が存在し、その建物の壁に係る壁ポリゴンデータEが存在していることを前提にして説明したが、このような壁ポリゴンデータEが存在しない場合には、該当の壁ポリゴンデータの補正を行わないだけでなく、経年変化による建物が消滅した可能性があると判断して、壁ポリゴンデータと同位置に「消滅の可能性あり」とのフラグを付けた補正壁ポリゴンデータGを生成して、三次元地図作成者の注意を促すように構成することもできる。 The first embodiment has been described on the assumption that a building exists in the vicinity of the position indicated by the wall vector data D and the wall polygon data E relating to the wall of the building exists. When the polygon data E does not exist, not only the correction of the corresponding wall polygon data is performed, but it is determined that there is a possibility that the building has disappeared due to secular change. It is also possible to generate correction wall polygon data G with a flag of “possibility” and call the attention of the 3D map creator.
上記実施の形態1では、処理をすべて自動的に行うものとして説明したが、三次元地図記憶部8が、路上から壁方向が撮影された写真又はビデオ映像を記憶し、壁ポリゴン補正部11が、路上から該当の壁方向が撮影された写真又はビデオ映像の駒の画像をその位置に応じて画面に表示し、操作者が、その画像を見ながら対話的に対応する壁を選択し、あるいは、壁ポリゴン補正部11が示す対応した補正壁ポリゴンデータGをさらに操作者が補正するように構成してもよい。
In
上記実施の形態1では、三次元地図記憶部8には、地物である建物の壁ポリゴンデータEと屋根ポリゴンデータFが記憶されているものについて示したが、例えば、トンネルのような構造物において、天井を含む壁面が一体のデータとなっている場合についても、これを便宜的に垂直に近い部分と水平に近い部分とに分けて処理をすれば、本説明と同じ効果が得られる。
なお、トンネルの場合、走行軌跡データBは、GPS装置によらず、慣性航法装置と積算走行距離計により取得することが可能である。
In the first embodiment, the three-dimensional
In the case of a tunnel, the travel locus data B can be acquired by an inertial navigation device and an integrated odometer, not by a GPS device.
上記実施の形態1では、車上点群獲得部1により獲得されたデータに基づいて地上の三次元地図を補正するものについて示したが、水中の遺跡や漁礁の分布を表している水中の三次元地図を補正するようにしてもよい。
水中の三次元地図を補正する場合、船舶が曳航する水中レーザ測定装置によって水中の地物の点群を獲得し、その点群を地物点群データAとして扱うようにする。
また、水中レーザ測定装置の位置自身は、船舶上に設置されているGPS装置や慣性航法装置と、船舶から水中レーザ測定装置に向けて発射されたレーザ点群により獲得することができ、これを走行軌跡データBとして扱うようにする。
In the first embodiment, the correction of the three-dimensional map on the ground based on the data acquired by the on-vehicle point
When correcting an underwater three-dimensional map, a point cloud of an underwater feature is acquired by an underwater laser measuring device towed by a ship, and the point cloud is handled as the feature point cloud data A.
In addition, the position of the underwater laser measurement device itself can be obtained by a GPS device or an inertial navigation device installed on the ship and a laser point cloud emitted from the ship toward the underwater laser measurement device. The travel locus data B is handled.
上記実施の形態1では、地上の建物などを表わす三次元地図を補正するものについて説明している。
一方、博物館の模型、映画のセット、各種実験施設などで、三次元の設計図を得て物体を設計図によって配置するが、正確に配置されているか否かの検証が困難な場合がある。
このような場合、三次元の設計図を三次元記憶部8に記憶し、台車の上にレーザ測定装置を設置して地物点群データAを得るとともに、台車を移動させて、台車の初期位置を基に慣性航法装置、積算走行距離計とにより走行軌跡データBを得るようにする。
これにより、補正壁ポリゴンデータGを得て出力することで、物体の配置者に物体の再配置を促すようにしてもよい。
In the first embodiment, the correction of a three-dimensional map representing a building on the ground is described.
On the other hand, in a model of a museum, a movie set, various experimental facilities, etc., a three-dimensional design drawing is obtained and an object is arranged according to the design drawing. However, it may be difficult to verify whether or not the object is correctly arranged.
In such a case, a three-dimensional design drawing is stored in the three-
Thus, the corrected wall polygon data G may be obtained and output to prompt the object locator to reposition the object.
実施の形態3.
図8はこの発明の実施の形態3による三次元地図補正装置の要部を示す構成図であり、図において、図1と同一符号は同一又は相当部分を示すので説明を省略する。
路面点群補充部20は概ね鉛直方向に連続している三次元位置の点群(例えば、街路樹、電柱、歩行者、駐車車両などの地上物体を構成する空間上に点群)によって遮られて、レーザ測定装置のレーザ光が届かずに点群を構成していない路面に対して点群を補充する処理を実施する。
なお、壁ベクトル算出部4及び路面点群補充部20から壁ベクトル算出手段が構成されている。
FIG. 8 is a block diagram showing a main part of a three-dimensional map correction apparatus according to
The road surface point
The wall
図9は路面点群補充部20の処理内容を示す説明図である。
図9では、車上測定データ記憶部2により記憶されている地物点群データAが示す三次元位置の点群の中で、鉛直点群(概ね鉛直方向に連続している三次元位置の点群)を除いた残余点群による空間に対して、地上物体を構成する点によって遮られた路面上の点を補充路面点群データIとして補充している様子を示している。
FIG. 9 is an explanatory diagram showing the processing contents of the road surface point
In FIG. 9, among the point groups of the three-dimensional position indicated by the feature point group data A stored in the on-vehicle measurement
次に動作について説明する。
地物点群データAと走行ベクトルデータCから壁ベクトルデータDを算出し、その壁ベクトルデータDに基づいて三次元地図の壁ポリンゴンデータE及び屋根ポリゴンデータFを補正する処理は上記実施の形態1と同様である。
Next, the operation will be described.
The process of calculating the wall vector data D from the feature point cloud data A and the traveling vector data C, and correcting the wall polygoning data E and the roof polygon data F of the three-dimensional map based on the wall vector data D is performed as described above. This is the same as the first embodiment.
地物点群データAにおいて、道路や敷地などの路面の点群も車上点群獲得部1によって獲得される。
したがって、標高が低い点のみをもって路面の点群とみなし、さらに、壁点群ベクトル化部7と同様の処理をほぼ水平に連結されている路面の点群に施すことにより、路面のベクトル化が可能である。また、ベクトル化した路面をもとに、三次元地図における路面の修正も可能である。
ただし、地上に街路樹、電柱、歩行者、駐車車両などの地上物体が存在する場合、車上点群獲得部1のレーザ測定装置から照射されるレーザ光が路面に届かないため、図6(a)の点群による空間に示されるように、地上物体の背後の路面には点群が形成されない点群の欠けが生じる。このため、路面のベクトル化には欠けが生じる。
In the feature point cloud data A, a point cloud on the road surface such as a road or a site is also acquired by the on-board point
Therefore, only points with low elevation are regarded as a point group on the road surface, and further, the same processing as that of the wall point
However, when there are ground objects such as roadside trees, power poles, pedestrians, and parked vehicles on the ground, the laser light emitted from the laser measuring device of the on-vehicle point
そこで、この実施の形態3では、点群に欠けが生じることに対処するため、地上物体によって欠けている路面の点群を補充するようにしている。
地物点群データAが示す三次元位置の点群の中から、鉛直点群抽出部5によって、鉛直に連結されている点群が除かれたものが残余点群による空間である(図9を参照)。
一方、上記実施の形態1で示したように、鉛直に連結された点群から壁に相当する点群を鉛直点群整列部6で除去することにより、地上に街路樹、電柱、歩行者、駐車車両などの地上物体が存在するが、これらは壁とは区別される。
Therefore, in the third embodiment, in order to cope with chipping in the point cloud, the point cloud on the road surface lacking by the ground object is supplemented.
The space formed by the residual point cloud is obtained by removing the point cloud connected vertically by the vertical point
On the other hand, as shown in the first embodiment, by removing the point group corresponding to the wall from the vertically connected point group by the vertical point
路面点群補充部20は、地上物体のx,y座標における周囲の範囲(例えば、0.1mの範囲)の標高zの最小値を取得し、その最小値を該当の地上物体が存在する路面の標高とみなすようにする。
次に、路面点群補充部20は、図9に示すように、走行軌跡データBから、一定の進行間隔(例えば、0.05m)毎に、法線Nを水平方向に引いて、法線N上に一定の間隔(例えば、0.05m)毎に点を仮配置する。
この法線Nが地上物体のある領域を通過し、点群の存在する最大範囲(例えば、走行軌跡データから30m)に達するか、壁として分離された領域に到達するまでの間に仮配置された点を配置し、補充路面点群データIとする。
補充路面点群データIのx,y座標は、法線N上に仮配置した点の座標とし、z座標は該当の地上物体が存在する路面の標高とする。
The road surface point
Next, as shown in FIG. 9, the road surface point
The normal N passes through a certain area of the ground object and is temporarily arranged until reaching the maximum range where the point cloud exists (for example, 30 m from the travel locus data) or the area separated as a wall. These points are arranged as supplementary road surface point cloud data I.
The x and y coordinates of the supplementary road surface point group data I are the coordinates of the points temporarily placed on the normal line N, and the z coordinate is the altitude of the road surface on which the corresponding ground object exists.
これにより、鉛直点群に遮られて点群が存在しない地上の路面上に点群が補充される。
路面上に点群が補充された後は、路面の点群に対して、壁点群ベクトル化部7と同様の処理を施して路面をベクトル化する。
路面のベクトルは、三次元地図上の路面ポリゴンデータ(図示せず)の補正に使用することが可能である。
Thereby, the point cloud is replenished on the road surface on the ground where the point cloud is blocked by the vertical dot cloud.
After the point cloud is replenished on the road surface, the road surface point cloud is vectorized by applying the same processing as the wall point
The road surface vector can be used to correct road surface polygon data (not shown) on the three-dimensional map.
1 車上点群獲得部(地物位置計測手段)、2 車上測定データ記憶部(データ記憶手段)、3 走行ベクトル算出部(走行ベクトル算出手段)、4 壁ベクトル算出部(壁ベクトル算出手段)、5 鉛直点群抽出部、6 鉛直点群整列部、7 壁点群ベクトル化部、8 三次元地図記憶部(三次元地図記憶手段)、9 地図ポリゴン補正部(地図ポリゴン補正手段)、10 壁ポリゴン探索部、11 壁ポリゴン補正部、12 関連ポリゴン補正部、13 補正三次元地図記憶部、20 路面点群補充部(壁ベクトル算出手段)。
1 on-vehicle point cloud acquisition unit (feature position measurement unit), 2 on-vehicle measurement data storage unit (data storage unit), 3 travel vector calculation unit (travel vector calculation unit), 4 wall vector calculation unit (wall vector calculation unit) ) 5 vertical point group extraction unit, 6 vertical point group alignment unit, 7 wall point group vectorization unit, 8 3D map storage unit (3D map storage unit), 9 map polygon correction unit (map polygon correction unit), DESCRIPTION OF
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009033928A JP5339953B2 (en) | 2009-02-17 | 2009-02-17 | 3D map correction apparatus and 3D map correction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009033928A JP5339953B2 (en) | 2009-02-17 | 2009-02-17 | 3D map correction apparatus and 3D map correction program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010191066A JP2010191066A (en) | 2010-09-02 |
JP5339953B2 true JP5339953B2 (en) | 2013-11-13 |
Family
ID=42817192
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009033928A Expired - Fee Related JP5339953B2 (en) | 2009-02-17 | 2009-02-17 | 3D map correction apparatus and 3D map correction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5339953B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5566353B2 (en) * | 2011-09-02 | 2014-08-06 | 株式会社パスコ | Data analysis apparatus, data analysis method, and program |
JP5577312B2 (en) * | 2011-09-20 | 2014-08-20 | 株式会社パスコ | Data analysis apparatus, data analysis method, and program |
CN103196433A (en) * | 2012-01-10 | 2013-07-10 | 株式会社博思科 | Data analysis device, data analysis method and programme |
JP6080640B2 (en) * | 2013-03-25 | 2017-02-15 | 株式会社ジオ技術研究所 | 3D point cloud analysis method |
JP6678820B2 (en) * | 2017-11-30 | 2020-04-08 | 三菱電機株式会社 | Three-dimensional map generation system, three-dimensional map generation method, and three-dimensional map generation program |
US11138350B2 (en) | 2018-08-09 | 2021-10-05 | Zoox, Inc. | Procedural world generation using tertiary data |
SG11201811747XA (en) | 2018-11-15 | 2020-06-29 | Beijing Didi Infinity Technology & Development Co Ltd | Systems and methods for correcting a high-definition map based on detection of obstructing objects |
JP7138589B2 (en) * | 2019-03-06 | 2022-09-16 | 三菱電機株式会社 | Map update system, map update method and map update program |
JP7146727B2 (en) * | 2019-12-04 | 2022-10-04 | 株式会社日立製作所 | Self-propelled inspection device and equipment inspection system |
WO2021111613A1 (en) * | 2019-12-06 | 2021-06-10 | 三菱電機株式会社 | Three-dimensional map creation device, three-dimensional map creation method, and three-dimensional map creation program |
WO2024063078A1 (en) * | 2022-09-23 | 2024-03-28 | 愛知製鋼株式会社 | Method and system for generating 3-dimensional map data |
WO2024127528A1 (en) * | 2022-12-13 | 2024-06-20 | 日本電信電話株式会社 | Point group processing device, point group processing method, and point group processing program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4486737B2 (en) * | 2000-07-14 | 2010-06-23 | アジア航測株式会社 | Spatial information generation device for mobile mapping |
JP2002074323A (en) * | 2000-09-01 | 2002-03-15 | Kokusai Kogyo Co Ltd | Method and system for generating three-dimensional urban area space model |
JP2003256871A (en) * | 2002-03-01 | 2003-09-12 | Nippon Telegr & Teleph Corp <Ntt> | Method and device for generating shape model, program for executing the same method and recording medium having its program recorded thereon |
JP4284644B2 (en) * | 2003-05-23 | 2009-06-24 | 財団法人生産技術研究奨励会 | 3D model construction system and 3D model construction program |
WO2008048088A1 (en) * | 2006-10-20 | 2008-04-24 | Tele Atlas B.V. | Computer arrangement for and method of matching location data of different sources |
CA2678156C (en) * | 2007-02-16 | 2013-10-08 | Mitsubishi Electric Corporation | Measurement apparatus, measurement method, and feature identification apparatus |
-
2009
- 2009-02-17 JP JP2009033928A patent/JP5339953B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010191066A (en) | 2010-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5339953B2 (en) | 3D map correction apparatus and 3D map correction program | |
US10929494B2 (en) | Systems and methods for tagging objects for augmented reality | |
JP5389964B2 (en) | Map information generator | |
JP5808369B2 (en) | Overhead image generation device, overhead image generation method, and overhead image generation program | |
CN104931022B (en) | Satellite image stereoblock adjustment method based on spaceborne laser altimeter system data | |
JP6694395B2 (en) | Method and system for determining position relative to a digital map | |
JP4232167B1 (en) | Object identification device, object identification method, and object identification program | |
US9094673B2 (en) | Arrangement and method for providing a three dimensional map representation of an area | |
Brenner | Extraction of features from mobile laser scanning data for future driver assistance systems | |
KR101826364B1 (en) | Method for generating three-dimensional modeling data of the structure using color groud lidar measurement data | |
CN107850449A (en) | Method and system for generating and using locating reference datum | |
JP4978615B2 (en) | Target identification device | |
CN107917699B (en) | Method for improving aerial three quality of mountain landform oblique photogrammetry | |
JP6178704B2 (en) | Measuring point height assigning system, measuring point height assigning method, and measuring point height assigning program | |
KR101323971B1 (en) | A method for automatic generation of tunnel information using a mobile mapping system | |
Lee et al. | Comparison of Digital Maps Created by Stereo Plotting and Vectorization Based on Images Acquired by Unmanned Aerial Vehicle. | |
KR101601720B1 (en) | 3D City Modeling System for Transportation Noise Mapping and method thereof | |
Lu et al. | Gnss Satellite Visibility Analysis Based on 3d Spatial Information in Urban Areas | |
Silva et al. | A STREET MAP BUILT BY A MOBILE M PPING SYSTEM | |
Kim et al. | High Quality Ortho-image Production Using the High Resolution DMCII Aerial Image | |
KR20140062820A (en) | Isiand coastline mapping method with aerial photograph | |
Rybak | Analysis of a point cloud obtained from merging airborne laser scanning and hand-held mobile laser scanning by iPhone 13Pro | |
JP6535898B2 (en) | 3D model creation program | |
Tianen et al. | A method of generating panoramic street strip image map with mobile mapping system | |
MAHMOUD et al. | Accuracy Assessment of 3D model generation using High Resolution Stereo-Optical Satellite Imagery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110920 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130610 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130709 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130806 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5339953 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |