JP5361421B2 - Measuring device, laser position / orientation value correction method and laser position / orientation value correction program for measuring device - Google Patents
Measuring device, laser position / orientation value correction method and laser position / orientation value correction program for measuring device Download PDFInfo
- Publication number
- JP5361421B2 JP5361421B2 JP2009019043A JP2009019043A JP5361421B2 JP 5361421 B2 JP5361421 B2 JP 5361421B2 JP 2009019043 A JP2009019043 A JP 2009019043A JP 2009019043 A JP2009019043 A JP 2009019043A JP 5361421 B2 JP5361421 B2 JP 5361421B2
- Authority
- JP
- Japan
- Prior art keywords
- feature
- laser scanner
- laser
- point group
- orientation value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 93
- 238000012937 correction Methods 0.000 title claims description 12
- 238000005259 measurement Methods 0.000 claims abstract description 169
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 14
- 230000001105 regulatory effect Effects 0.000 abstract 2
- 238000011156 evaluation Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 29
- 238000013500 data storage Methods 0.000 description 17
- 238000000691 measurement method Methods 0.000 description 16
- 239000000284 extract Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Landscapes
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
本発明は、例えば、GPS(Global Positioning System)とジャイロ(IMU:Inertial Measurement Unit)とを組み合わせた後処理型の移動体自己位置計測装置の製造の効率化に関わる計測装置、計測装置のレーザー位置姿勢値補正方法およびレーザー位置姿勢値補正プログラムである。 The present invention relates to, for example, a measurement apparatus and a laser position of a measurement apparatus that are related to the efficiency of manufacturing a post-processing type mobile unit self-position measurement apparatus that combines a GPS (Global Positioning System) and a gyro (IMU: Internal Measurement Unit). It is an attitude value correction method and a laser position and attitude value correction program.
車両にレーザースキャナやカメラを搭載し、車両周辺の位置情報を収集する手法が用いられている。また、レーザー点群とカメラ映像とを重畳し、位置情報をレーザー点群から判断すると共に対象物をカメラ映像から判断するような事も行われている。 A technique is used in which a laser scanner or a camera is mounted on a vehicle to collect positional information around the vehicle. In addition, a laser point cloud and a camera image are superimposed, and position information is determined from the laser point cloud and an object is determined from the camera video.
車両周辺の位置情報を収集するには、レーザースキャナから得た位置情報を世界座標系の絶対位置で表すために、車両上のレーザースキャナの取り付け位置および姿勢角を正確に知る必要がある。さらに、レーザー点群をカメラ映像に重畳するには、車両上のカメラの取り付け位置および姿勢角を正確に知る必要がある。
従来、レーザースキャナやカメラの取り付け情報(位置、姿勢角)の計測は物理的施設を用いて行われていた。
In order to collect position information around the vehicle, it is necessary to accurately know the mounting position and attitude angle of the laser scanner on the vehicle in order to express the position information obtained from the laser scanner as an absolute position in the world coordinate system. Furthermore, in order to superimpose the laser point cloud on the camera image, it is necessary to accurately know the mounting position and the attitude angle of the camera on the vehicle.
Conventionally, mounting information (position, posture angle) of a laser scanner and a camera has been measured using a physical facility.
しかし、この計測方法では、大規模な施設と、トータルステーションのような機材が必要で、計測に時間とコストがかかるという課題問題があった。さらに、この計測方法では、計測精度がどうなるかは実計測を行うまで分からない。このため、どの程度の精度が出ているかを確認するために、何回かキャリブレーションを実施し、計測結果の平均を取るなど、複雑な手順が必要であるという課題もあった。 However, this measurement method has a problem that a large-scale facility and equipment such as a total station are required, and it takes time and cost for measurement. Furthermore, with this measurement method, it is not known until the actual measurement is performed what the measurement accuracy will be. For this reason, in order to confirm the degree of accuracy, there has been a problem that a complicated procedure is required such as performing calibration several times and averaging the measurement results.
本発明は、例えば、レーザースキャナの取り付け位置姿勢値を容易に正しく調整できるようにすることを目的とする。 An object of the present invention is, for example, to make it possible to easily and correctly adjust a mounting position / posture value of a laser scanner.
本発明の計測装置は、特定体に取り付けられたレーザースキャナにより計測された前記特定体から地物までの距離と前記レーザースキャナにより計測された前記特定体から前記地物への方位とを示す距離方位と、前記レーザースキャナの取り付け位置と前記レーザースキャナの取り付け姿勢とを示すレーザー位置姿勢値とに基づいて、前記地物の座標をCPU(Central Processing Unit)を用いて算出する地物座標算出部と、前記レーザースキャナにより特定の地物を対象として第1の方向から計測された第1の距離方位に基づいて前記地物座標算出部により算出された第1の座標と、前記レーザースキャナにより前記特定の地物を対象として第2の方向から計測された第2の距離方位に基づいて前記地物座標算出部により算出された第2の座標との差をCPUを用いて算出し、算出した差に基づいて前記レーザー位置姿勢値に含まれる誤差をCPUを用いて特定するレーザー位置姿勢値誤差特定部と、前記レーザー位置姿勢値誤差特定部により特定された誤差に基づいて前記レーザー位置姿勢値をCPUを用いて補正するレーザー位置姿勢値補正部とを備える。 The measuring device of the present invention is a distance indicating a distance from the specific body to the feature measured by a laser scanner attached to the specific body and an orientation from the specific body to the feature measured by the laser scanner. A feature coordinate calculation unit that calculates the coordinates of the feature using a CPU (Central Processing Unit) based on the orientation, the laser position and orientation value indicating the attachment position of the laser scanner and the attachment orientation of the laser scanner A first coordinate calculated by the feature coordinate calculation unit based on a first distance direction measured from a first direction for a specific feature by the laser scanner, and the laser scanner The feature coordinate calculation unit based on a second distance direction measured from the second direction for a specific feature A laser position / attitude value error specifying unit that calculates a difference from the second coordinate calculated by using a CPU and specifies an error included in the laser position / attitude value based on the calculated difference using the CPU; A laser position and orientation value correction unit that corrects the laser position and orientation value using a CPU based on the error specified by the laser position and orientation value error specifying unit.
本発明によれば、例えば、レーザースキャナの取り付け位置姿勢値を容易に正しく調整することができる。 According to the present invention, for example, the mounting position / posture value of a laser scanner can be easily and correctly adjusted.
実施の形態1.
レーザースキャナおよびカメラを備えた計測車両を走行させて取得したレーザースキャナの計測データとカメラの映像とに基づいて、走行地域の三次元地図を生成するモービルマッピングシステム(MMS)について説明する。
また、MMSにおけるレーザースキャナのキャリブレーションについて説明する。
Embodiment 1 FIG.
A mobile mapping system (MMS) that generates a three-dimensional map of a traveling area based on laser scanner measurement data obtained by running a measurement vehicle equipped with a laser scanner and a camera and a camera image will be described.
Also, laser scanner calibration in MMS will be described.
図1は、実施の形態1における計測車両100の構成図である。
図2は、実施の形態1における計測ユニット110の構成図である。
実施の形態1における計測車両100の構成について、図1および図2に基づいて以下に説明する。
FIG. 1 is a configuration diagram of a measurement vehicle 100 according to the first embodiment.
FIG. 2 is a configuration diagram of the measurement unit 110 according to the first embodiment.
The configuration of measurement vehicle 100 in the first embodiment will be described below based on FIG. 1 and FIG.
計測車両100は、計測対象地域を走行し、計測対象地域の三次元地図を生成するために必要な各種データを取得する。 The measurement vehicle 100 travels in the measurement target area, and acquires various data necessary for generating a three-dimensional map of the measurement target area.
計測車両100は、天板に計測ユニット110が取り付けられている。また、計測車両100はユニット記憶部190(記憶装置)を備える。
計測ユニット110は、前方用カメラ111、路面用カメラ112、GPS113、上面用レーザースキャナ114、下面用レーザースキャナ115、IMU116および配線中継BOX117を備える。
In the measurement vehicle 100, a measurement unit 110 is attached to a top plate. In addition, the measurement vehicle 100 includes a unit storage unit 190 (storage device).
The measurement unit 110 includes a front camera 111, a road surface camera 112, a GPS 113, an upper surface laser scanner 114, a lower surface laser scanner 115, an IMU 116, and a wiring relay box 117.
前方用カメラ111は、水平に取り付けられ、計測車両100の前方を撮像する。
路面用カメラ112は、斜め下方に向けて取り付けられ、路面を撮像する。
The front camera 111 is attached horizontally and images the front of the measurement vehicle 100.
The road surface camera 112 is attached obliquely downward and images the road surface.
GPS113は、3か所に設置される。各GPS113は、GPS(Global Positioning System)衛星から発信された測位信号(衛星軌道情報などを示す)を受信し、受信結果(GPS観測値)に基づいてGPS測位を行う装置である。 GPS113 is installed in three places. Each GPS 113 is a device that receives a positioning signal (indicating satellite orbit information and the like) transmitted from a GPS (Global Positioning System) satellite and performs GPS positioning based on a reception result (GPS observation value).
上面用レーザースキャナ114は、斜め上方に向けて取り付けられ、計測ユニット110より高い場所に位置する地物(例えば、道路標識)を対象に距離方位の計測を行う。
下面用レーザースキャナ115は、斜め下方に向けて取り付けられ、計測ユニット110より低い場所に位置する地物(例えば、路面)を対象に距離方位の計測を行う。
距離方位とは、上面用レーザースキャナ114または下面用レーザースキャナ115から地物までの距離および方位を意味する。
距離方位の計測において、上面用レーザースキャナ114と下面用レーザースキャナ115とは、左右に首降りしながら左真横から前方および前方から右真横の180度の方向にレーザーを順次出射し、出射したレーザーが地物で反射して戻ってくるまでの時間を計測する。上面用レーザースキャナ114と下面用レーザースキャナ115とは、計測した時間に基づいてレーザーを反射した地物との距離を算出し、算出した距離とレーザーの出射方向とを地物の距離方位とする。
レーザースキャナは、LRF(Laser Range Finder)ともいう。
The upper surface laser scanner 114 is mounted obliquely upward, and measures a distance direction for a feature (for example, a road sign) located at a location higher than the measurement unit 110.
The lower surface laser scanner 115 is mounted obliquely downward, and measures the distance direction for a feature (for example, a road surface) located at a place lower than the measurement unit 110.
The distance direction means the distance and direction from the upper surface laser scanner 114 or the lower surface laser scanner 115 to the feature.
In the measurement of the distance direction, the upper surface laser scanner 114 and the lower surface laser scanner 115 sequentially emit laser beams in the direction of 180 degrees from the left side to the front and from the front side to the right side while descending from side to side. Measure the time it takes for the object to reflect back and return. The upper surface laser scanner 114 and the lower surface laser scanner 115 calculate the distance from the feature reflecting the laser based on the measured time, and the calculated distance and the laser emission direction are set as the distance direction of the feature. .
The laser scanner is also referred to as LRF (Laser Range Finder).
IMU116(IMU:慣性航法装置)は、3軸方向(x、y、z)の角速度を計測する。例えば、IMU116としてジャイロが用いられる。 The IMU 116 (IMU: Inertial Navigation Device) measures angular velocities in three axial directions (x, y, z). For example, a gyro is used as the IMU 116.
上記の各機器は取得したデータを取得時刻(計測時刻)と共に配線中継BOX117に出力する。 Each of the above devices outputs the acquired data to the wiring relay box 117 together with the acquisition time (measurement time).
配線中継BOX117は、計測ユニット110に取り付けられた各機器と接続し、各機器から出力されたデータを入力し、入力したデータをユニット記憶部190に記憶させる装置である。 The wiring relay BOX 117 is a device that is connected to each device attached to the measurement unit 110, inputs data output from each device, and stores the input data in the unit storage unit 190.
以下、計測車両100の進行方向を「x軸」、計測車両100の幅方向を「y軸」、計測車両100の高さ方向を「z軸」とする。
また、x軸回りの回転角を「ロールφ(回転角)」、y軸回りの回転角を「ピッチθ(仰角)」、z軸回りの回転角を「ヨーψ(方位角)」とする。
また、xyz座標系の原点を「O」とする。
Hereinafter, the traveling direction of the measurement vehicle 100 is referred to as “x axis”, the width direction of the measurement vehicle 100 is referred to as “y axis”, and the height direction of the measurement vehicle 100 is referred to as “z axis”.
The rotation angle around the x axis is “roll φ (rotation angle)”, the rotation angle around the y axis is “pitch θ (elevation angle)”, and the rotation angle around the z axis is “yaw ψ (azimuth angle)”. .
The origin of the xyz coordinate system is “O”.
図3は、実施の形態1における移動体自己位置計測装置200の機能構成図である。
実施の形態1における移動体自己位置計測装置200の機能構成について、図3に基づいて以下に説明する。
FIG. 3 is a functional configuration diagram of the mobile unit self-position measuring apparatus 200 according to the first embodiment.
A functional configuration of mobile body self-position measuring apparatus 200 in Embodiment 1 will be described below with reference to FIG.
移動体自己位置計測装置200は、計測車両100により取得された各種データに基づいて、計測対象地域に存在する地物の三次元座標を計測する。地物の三次元座標は、例えば三次元地図の生成に用いられる。 The mobile body self-position measuring device 200 measures the three-dimensional coordinates of the feature existing in the measurement target area based on various data acquired by the measurement vehicle 100. The three-dimensional coordinates of the feature are used for generating a three-dimensional map, for example.
移動体自己位置計測装置200は、位置姿勢標定部210、三次元点群生成部211(地物座標算出部の一例)、三次元点群投影部212(レーザー点投影部の一例)、地物位置計測部213、レーザースキャナ調整部220(レーザー位置姿勢値誤差特定部、レーザー位置姿勢値補正部の一例)、取得データ記憶部280および計測データ記憶部290を備える。 The mobile body self-position measuring apparatus 200 includes a position and orientation determination unit 210, a three-dimensional point group generation unit 211 (an example of a feature coordinate calculation unit), a three-dimensional point group projection unit 212 (an example of a laser point projection unit), and a feature. A position measurement unit 213, a laser scanner adjustment unit 220 (an example of a laser position / orientation value error identification unit and a laser position / orientation value correction unit), an acquisition data storage unit 280, and a measurement data storage unit 290 are provided.
取得データ記憶部280は、計測車両100により取得された各データを記憶媒体を用いて記憶する記憶装置である。
以下、計測車両100の前方用カメラ111および路面用カメラ112により撮像された画像データを「カメラ映像281」という。
また、計測車両100のGPS113により観測された各種データ(測位信号が示す情報、測位結果など)を「GPSデータ282」という。
また、計測車両100の上面用レーザースキャナ114および下面用レーザースキャナ115により計測された距離方位を示す複数のデータそれぞれを「距離方位点」といい、距離方位点の集合を「距離方位点群283」という。
また、計測車両100のIMU116により計測された角速度を示すデータを「角速度284」という。
The acquired data storage unit 280 is a storage device that stores each data acquired by the measurement vehicle 100 using a storage medium.
Hereinafter, image data captured by the front camera 111 and the road surface camera 112 of the measurement vehicle 100 is referred to as “camera image 281”.
Various data (information indicated by the positioning signal, positioning result, etc.) observed by the GPS 113 of the measuring vehicle 100 are referred to as “GPS data 282”.
A plurality of pieces of data indicating distance directions measured by the upper surface laser scanner 114 and the lower surface laser scanner 115 of the measurement vehicle 100 are referred to as “distance direction points”, and a set of distance direction points is referred to as a “distance direction point group 283”. "
Data indicating the angular velocity measured by the IMU 116 of the measurement vehicle 100 is referred to as “angular velocity 284”.
位置姿勢標定部210は、GPSデータ282および角速度284に基づいて、各計測時刻における計測車両100の位置(三次元座標)および姿勢(ロール、ピッチ、ヨー)をCPUを用いて算出する。
以下、位置姿勢標定部210により算出された各計測時刻における計測車両100の位置および姿勢を「車両位置姿勢291」という。
The position and orientation determination unit 210 calculates the position (three-dimensional coordinates) and attitude (roll, pitch, and yaw) of the measurement vehicle 100 at each measurement time using the CPU based on the GPS data 282 and the angular velocity 284.
Hereinafter, the position and orientation of the measurement vehicle 100 at each measurement time calculated by the position and orientation determination unit 210 are referred to as “vehicle position and orientation 291”.
三次元点群生成部211は、距離方位点群283および位置姿勢291に基づいて、計測対象地域に存在していた各地物の三次元座標をCPUを用いて算出する。三次元点群生成部211により、距離方位点毎に三次元座標が算出される。
以下、三次元点群生成部211により算出される一つの距離方位点に対応する三次元座標を「三次元点」といい、三次元点の集合を「三次元点群292」という。
The three-dimensional point group generation unit 211 calculates the three-dimensional coordinates of each feature existing in the measurement target area using the CPU based on the distance / azimuth point group 283 and the position / orientation 291. The three-dimensional point group generation unit 211 calculates three-dimensional coordinates for each distance direction point.
Hereinafter, three-dimensional coordinates corresponding to one distance direction point calculated by the three-dimensional point group generation unit 211 are referred to as “three-dimensional points”, and a set of three-dimensional points is referred to as a “three-dimensional point group 292”.
三次元点群投影部212は、三次元点群292をカメラ映像281にCPUを用いて投影する。
ここで、投影とは、カメラ映像281内の各画素のうち三次元点により示される地点が写っている1つまたは複数の画素に、印(例えば、黒丸)を重畳して表示する、または当該三次元点を対応付けることである。
The three-dimensional point group projection unit 212 projects the three-dimensional point group 292 onto the camera image 281 using the CPU.
Here, the term “projection” means that a mark (for example, a black circle) is superimposed and displayed on one or a plurality of pixels in which a point indicated by a three-dimensional point among the pixels in the camera image 281 is reflected, or It is to associate three-dimensional points.
地物位置計測部213は、カメラ映像281に投影された三次元点群292に基づいて、カメラ映像281に写っている地物(計測対象地域に位置している地物)の三次元座標をCPUを用いて算出する。
以下、地物位置計測部213により算出された地物の三次元座標を「地物位置293」という。
The feature position measurement unit 213 calculates the three-dimensional coordinates of the feature (the feature located in the measurement target area) reflected in the camera image 281 based on the three-dimensional point group 292 projected on the camera image 281. Calculate using the CPU.
Hereinafter, the three-dimensional coordinates of the feature calculated by the feature position measuring unit 213 are referred to as “feature position 293”.
レーザースキャナ調整部220は、三次元点群292に基づいて、計測車両100の計測ユニット110に取り付けられている上面用レーザースキャナ114および下面用レーザースキャナ115の位置姿勢値のずれ量をCPUを用いて特定する。計測車両100の計測ユニット110に取り付けられている上面用レーザースキャナ114および下面用レーザースキャナ115の位置姿勢値(例えば、設計値)は、予め任意の記憶部(記憶装置)に記憶されている。レーザースキャナ調整部220は、記憶されている位置姿勢値と実際の位置姿勢の値との差をずれ量として特定する。
さらに、レーザースキャナ調整部220は、算出したずれ量に基づいて、記憶されている位置姿勢値をCPUを用いて補正する。以下、位置姿勢値の補正を「調整(キャリブレーション)」という。
Based on the three-dimensional point group 292, the laser scanner adjustment unit 220 uses the CPU to determine the amount of deviation between the position and orientation values of the upper surface laser scanner 114 and the lower surface laser scanner 115 attached to the measurement unit 110 of the measurement vehicle 100. To identify. Position and orientation values (for example, design values) of the upper surface laser scanner 114 and the lower surface laser scanner 115 attached to the measurement unit 110 of the measurement vehicle 100 are stored in advance in an arbitrary storage unit (storage device). The laser scanner adjustment unit 220 identifies the difference between the stored position / orientation value and the actual position / orientation value as a deviation amount.
Further, the laser scanner adjustment unit 220 corrects the stored position / orientation value using the CPU based on the calculated deviation amount. Hereinafter, the correction of the position and orientation value is referred to as “adjustment (calibration)”.
計測データ記憶部290は、車両位置姿勢291、三次元点群292および地物位置293を記憶媒体を用いて記憶する記憶装置である。 The measurement data storage unit 290 is a storage device that stores the vehicle position and orientation 291, the three-dimensional point group 292, and the feature position 293 using a storage medium.
図4は、実施の形態1における移動体自己位置計測装置200のハードウェア資源の一例を示す図である。
図4において、移動体自己位置計測装置200は、プログラムを実行するCPU911(Central・Processing・Unit)(中央処理装置、マイクロプロセッサ、マイクロコンピュータともいう)を備えている。CPU911は、バス912を介してROM913、RAM914、通信ボード915、表示装置901、キーボード902、マウス903、FDD904(Flexible・Disk・Drive)、CDD905(コンパクトディスク装置)、プリンタ装置906、スキャナ装置907、マイク908、スピーカー909、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。
FIG. 4 is a diagram illustrating an example of hardware resources of the mobile unit self-position measuring apparatus 200 according to the first embodiment.
In FIG. 4, the mobile body self-position measuring device 200 includes a CPU 911 (Central Processing Unit) (also called a central processing unit, a microprocessor, or a microcomputer) that executes a program. The CPU 911 includes a ROM 913, a RAM 914, a communication board 915, a display device 901, a keyboard 902, a mouse 903, an FDD 904 (Flexible Disk Drive), a CDD 905 (compact disk device), a printer device 906, a scanner device 907, via a bus 912. It is connected to a microphone 908, a speaker 909, and a magnetic disk device 920, and controls these hardware devices.
通信ボード915は、有線または無線で、LAN(ローカルエリアネットワーク)、インターネット、電話回線網などの通信網と接続する。 The communication board 915 is wired or wirelessly connected to a communication network such as a LAN (local area network), the Internet, a telephone line network or the like.
磁気ディスク装置920には、OS921(オペレーティングシステム)、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、OS921、ウィンドウシステム922により実行される。 The magnetic disk device 920 stores an OS 921 (operating system), a window system 922, a program group 923, and a file group 924. The programs in the program group 923 are executed by the CPU 911, the OS 921, and the window system 922.
上記プログラム群923には、実施の形態において「〜部」として説明する機能を実行するプログラムが記憶されている。プログラムは、CPU911により読み出され実行される。 The program group 923 stores a program for executing a function described as “˜unit” in the embodiment. The program is read and executed by the CPU 911.
ファイル群924には、実施の形態において、「〜部」の機能を実行した際の「〜の判定結果」、「〜の計算結果」、「〜の処理結果」などの結果データ、「〜部」の機能を実行するプログラム間で受け渡しするデータ、その他の情報やデータや信号値や変数値やパラメータが、「〜ファイル」や「〜データベース」の各項目として記憶されている。
「〜ファイル」や「〜データベース」は、ディスクやメモリなどの記録媒体に記憶される。ディスクやメモリなどの記憶媒体に記憶された情報やデータや信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示などのCPUの動作に用いられる。これらのCPUの動作の間、情報やデータや信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。
また、実施の形態において説明するフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号値は、RAM914のメモリ、FDD904のフレキシブルディスク、CDD905のコンパクトディスク、磁気ディスク装置920の磁気ディスク、その他光ディスク、ミニディスク、DVD(Digital・Versatile・Disc)等の記録媒体に記録される。また、データや信号値は、バス912や信号線やケーブルその他の伝送媒体によりオンライン伝送される。
In the file group 924, in the embodiment, result data such as “determination result”, “calculation result of”, “processing result of” when executing the function of “to part”, “to part” The data to be passed between programs that execute the function “,” other information, data, signal values, variable values, and parameters are stored as items “˜file” and “˜database”.
The “˜file” and “˜database” are stored in a recording medium such as a disk or a memory. Information, data, signal values, variable values, and parameters stored in a storage medium such as a disk or memory are read out to the main memory or cache memory by the CPU 911 via a read / write circuit, and extracted, searched, referenced, compared, and calculated. Used for CPU operations such as calculation, processing, output, printing, and display. During these CPU operations, information, data, signal values, variable values, and parameters are temporarily stored in the main memory, cache memory, and buffer memory.
In addition, arrows in the flowcharts described in the embodiments mainly indicate input / output of data and signals. The data and signal values are the RAM 914 memory, the FDD 904 flexible disk, the CDD 905 compact disk, and the magnetic disk device 920 magnetic field. It is recorded on a recording medium such as a disc, other optical discs, mini discs, DVD (Digital Versatile Disc). Data and signal values are transmitted online via a bus 912, signal lines, cables, or other transmission media.
また、実施の形態において「〜部」として説明するものは、「〜回路」、「〜装置」、「〜機器」であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。すなわち、「〜部」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、素子・デバイス・基板・配線などのハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。ファームウェアとソフトウェアは、プログラムとして、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD等の記録媒体に記憶される。プログラムはCPU911により読み出され、CPU911により実行される。すなわち、プログラムは、「〜部」としてコンピュータを機能させるものである。あるいは、「〜部」の手順や方法をコンピュータに実行させるものである。 In addition, what is described as “˜unit” in the embodiment may be “˜circuit”, “˜device”, “˜device”, and “˜step”, “˜procedure”, “˜”. Processing ". That is, what is described as “˜unit” may be realized by firmware stored in the ROM 913. Alternatively, it may be implemented only by software, or only by hardware such as elements, devices, substrates, and wirings, by a combination of software and hardware, or by a combination of firmware. Firmware and software are stored as programs in a recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, and a DVD. The program is read by the CPU 911 and executed by the CPU 911. That is, the program causes the computer to function as “to part”. Alternatively, the procedure or method of “to part” is executed by a computer.
図5は、実施の形態1における計測方法を示すフローチャートである。
実施の形態1における計測方法について、図5に基づいて以下に説明する。
計測車両100および移動体自己位置計測装置200は、以下に説明する処理をCPUを用いて実行する。
FIG. 5 is a flowchart showing the measurement method in the first embodiment.
The measurement method in Embodiment 1 is demonstrated below based on FIG.
The measuring vehicle 100 and the moving body self-position measuring device 200 execute processing described below using a CPU.
計測車両100はレーザースキャナの取り付け位置姿勢値の調整用に計測を行う(S110)。
移動体自己位置計測装置200は計測結果に基づいて三次元点群292を生成し(S120)、三次元点群292に基づいてレーザースキャナの取り付け位置姿勢値を調整する(S130)。
計測車両100は地物位置の測定用に計測を行い(S140)、移動体自己位置計測装置200は計測結果に基づいて地物位置293を測定する(S150)。
以下に、各処理(S110〜S150)の詳細について説明する。
The measurement vehicle 100 performs measurement for adjusting the attachment position / posture value of the laser scanner (S110).
The mobile body self-position measuring apparatus 200 generates a three-dimensional point group 292 based on the measurement result (S120), and adjusts the attachment position / posture value of the laser scanner based on the three-dimensional point group 292 (S130).
The measurement vehicle 100 performs measurement for measurement of the feature position (S140), and the mobile body self-position measurement device 200 measures the feature position 293 based on the measurement result (S150).
Below, the detail of each process (S110-S150) is demonstrated.
<S110>
計測車両100はレーザースキャナの取り付け位置姿勢値の調整用に計測を行う。
<S110>
The measurement vehicle 100 performs measurement for adjusting the attachment position and orientation value of the laser scanner.
図6は、各実施の形態における調整用の計測方法を示す図である。
S110におけるレーザースキャナの取り付け位置姿勢値の調整用の計測について、図6に基づいて以下に説明する。
FIG. 6 is a diagram illustrating a measuring method for adjustment in each embodiment.
The measurement for adjusting the attachment position and orientation value of the laser scanner in S110 will be described below with reference to FIG.
利用者は、2つの任意の地物A・Bを用意し、用意した2つの地物を異なる位置に配置する。用意する2つの地物は、計測される距離方位点が多くならず、且つ距離方位点が少なくとも1つ計測される程度に、小さいものが好ましい。また、2つの地物を配置する場所は、他の地物が計測されないような広場(空地)が好ましい。 The user prepares two arbitrary features A and B, and arranges the two prepared features at different positions. The two features to be prepared are preferably small so that the number of distance azimuth points to be measured does not increase and at least one distance azimuth point is measured. The place where the two features are arranged is preferably a plaza (open space) where other features are not measured.
利用者は、2つの地物を配置した場所において、計測車両100を同一経路で往復走行させる(図6(1)(2))。
以下、計測車両100から近い方に配置されている地物を「近傍地物B」、計測車両100から遠い方に配置されている地物を「遠方地物A」とする。
The user reciprocates the measurement vehicle 100 on the same route at the place where the two features are arranged (FIGS. 6 (1) and (2)).
Hereinafter, a feature located closer to the measurement vehicle 100 is referred to as “neighboring feature B”, and a feature located farther from the measurement vehicle 100 is referred to as “far feature A”.
計測車両100の計測ユニット110に取り付けられた各機器は、往路(以下、「正方向」という)と復路(以下、「逆方向」という)とのそれぞれでデータを取得する。取得された各種データ(カメラ映像281、GPSデータ282、距離方位点群283および角速度284)は計測車両100のユニット記憶部190に記憶される。 Each device attached to the measurement unit 110 of the measurement vehicle 100 acquires data in each of the forward path (hereinafter referred to as “forward direction”) and the return path (hereinafter referred to as “reverse direction”). The acquired various data (camera image 281, GPS data 282, distance direction point group 283 and angular velocity 284) are stored in the unit storage unit 190 of the measurement vehicle 100.
利用者は、ユニット記憶部190に記憶された各種データを移動体自己位置計測装置200に入力する。取得データ記憶部280は、移動体自己位置計測装置200に入力された各種データを記憶する。 The user inputs various data stored in the unit storage unit 190 to the mobile unit self-position measuring apparatus 200. The acquired data storage unit 280 stores various data input to the mobile unit self-position measuring apparatus 200.
図5に戻り、計測方法の説明を続ける。
S110の後、処理はS120に進む。
Returning to FIG. 5, the description of the measurement method will be continued.
After S110, the process proceeds to S120.
<S120>
移動体自己位置計測装置200は、取得データ記憶部280に記憶された各種データに基づいて以下のように三次元点群292を生成する。
<S120>
The mobile body self-position measuring device 200 generates the three-dimensional point group 292 based on various data stored in the acquired data storage unit 280 as follows.
位置姿勢標定部210は、GPSデータ282および角速度284に基づいて各計測時刻における計測車両100の三次元座標および姿勢を車両位置姿勢291として算出し、算出した車両位置姿勢291を計測データ記憶部290に記憶する。
例えば、位置姿勢標定部210は、GPSデータ282に含まれるGPS113の測位結果を計測車両100の三次元座標とする。
また例えば、位置姿勢標定部210は、角速度284に基づいて慣性航法(デッドレコニングともいう)により車両位置姿勢291を算出する。
位置姿勢標定部210により算出される車両位置姿勢291の座標系は、特定の座標系(例えば、ENU座標系)である。以下、車両位置姿勢291の座標系をENU座標系とする。
The position / orientation locating unit 210 calculates the three-dimensional coordinates and orientation of the measurement vehicle 100 at each measurement time as the vehicle position / orientation 291 based on the GPS data 282 and the angular velocity 284, and uses the calculated vehicle position / orientation 291 as the measurement data storage unit 290. To remember.
For example, the position / orientation location determination unit 210 sets the positioning result of the GPS 113 included in the GPS data 282 as the three-dimensional coordinates of the measurement vehicle 100.
In addition, for example, the position / orientation locating unit 210 calculates the vehicle position / orientation 291 by inertial navigation (also referred to as dead reckoning) based on the angular velocity 284.
The coordinate system of the vehicle position and orientation 291 calculated by the position and orientation determination unit 210 is a specific coordinate system (for example, the ENU coordinate system). Hereinafter, the coordinate system of the vehicle position and orientation 291 is referred to as an ENU coordinate system.
三次元点群生成部211は、車両位置姿勢291および距離方位点群283に基づいて三次元点群292を生成し、生成した三次元点群292を計測データ記憶部290に記憶する。
このとき、三次元点群生成部211は、距離方位点群283に含まれる距離方位点毎に当該距離方位点の計測時の車両位置姿勢291を計測データ記憶部290から取得し、以下のように三次元点を距離方位点毎に算出する。算出した複数の三次元点が三次元点群292である。
The three-dimensional point group generation unit 211 generates a three-dimensional point group 292 based on the vehicle position / posture 291 and the distance direction point group 283, and stores the generated three-dimensional point group 292 in the measurement data storage unit 290.
At this time, the three-dimensional point group generation unit 211 acquires the vehicle position and orientation 291 at the time of measurement of the distance azimuth point for each distance azimuth point included in the distance azimuth point group 283 from the measurement data storage unit 290 as follows. 3D points are calculated for each distance and orientation point. A plurality of calculated three-dimensional points are a three-dimensional point group 292.
レーザースキャナの取り付け位置姿勢値は、局所座標系(図1に示したxyz座標系)の値を示し、予め任意の記憶部に記憶されている。距離方位点に示される地物の方位は、レーザースキャナの取り付け姿勢に対する相対的な方位である。
三次元点群生成部211は、局所座標系で示されるレーザースキャナの取り付け位置姿勢値とレーザースキャナを基点とした相対的な地物の方位とに基づいて、局所座標系における地物方位を算出する。さらに、三次元点群生成部211は、ENU座標系で示される当該車両位置姿勢291(姿勢)と局所座標系における地物方位とに基づいて、ENU座標系における地物方位を算出する。
三次元点群生成部211は、ENU座標系で示される当該車両位置姿勢291とENU座標系における地物方位と当該距離方位点とに基づいて、計測車両100から地物方位へ当該距離方位点に示される距離だけ離れた地点の三次元座標を三次元点として算出する。三次元点はENU座標系の座標を示す。
The attachment position / posture value of the laser scanner indicates a value in the local coordinate system (xyz coordinate system shown in FIG. 1), and is stored in advance in an arbitrary storage unit. The orientation of the feature indicated by the distance orientation point is a relative orientation with respect to the mounting posture of the laser scanner.
The three-dimensional point cloud generation unit 211 calculates the feature orientation in the local coordinate system based on the attachment position and orientation value of the laser scanner indicated in the local coordinate system and the relative feature orientation based on the laser scanner. To do. Further, the three-dimensional point cloud generation unit 211 calculates the feature direction in the ENU coordinate system based on the vehicle position / posture 291 (posture) indicated in the ENU coordinate system and the feature direction in the local coordinate system.
Based on the vehicle position and orientation 291 shown in the ENU coordinate system, the feature azimuth in the ENU coordinate system, and the distance azimuth point, the three-dimensional point cloud generation unit 211 moves the distance azimuth point from the measurement vehicle 100 to the feature azimuth. The three-dimensional coordinates of the points separated by the distance indicated by are calculated as three-dimensional points. The three-dimensional point indicates the coordinates of the ENU coordinate system.
S120の後、処理はS130に進む。 After S120, the process proceeds to S130.
<S130>
移動体自己位置計測装置200は、S120において生成された三次元点群292に基づいてレーザースキャナの取り付け位置姿勢値を調整する。
S130の詳細については後述する。
S130の後、処理はS140に進む。
<S130>
The mobile body self-position measuring apparatus 200 adjusts the attachment position and orientation value of the laser scanner based on the three-dimensional point group 292 generated in S120.
Details of S130 will be described later.
After S130, the process proceeds to S140.
<S140>
利用者は、計測車両100で計測対象地域を走行する。計測車両100の計測ユニット110に取り付けられた各機器はデータを取得し、取得された各種データは計測車両100のユニット記憶部190に記憶される。
利用者は、ユニット記憶部190に記憶された各種データを移動体自己位置計測装置200に入力する。取得データ記憶部280は、移動体自己位置計測装置200に入力された各種データを記憶する。
S140の後、処理はS150に進む。
<S140>
The user travels in the measurement target area with the measurement vehicle 100. Each device attached to the measurement unit 110 of the measurement vehicle 100 acquires data, and the acquired various data is stored in the unit storage unit 190 of the measurement vehicle 100.
The user inputs various data stored in the unit storage unit 190 to the mobile unit self-position measuring apparatus 200. The acquired data storage unit 280 stores various data input to the mobile unit self-position measuring apparatus 200.
After S140, the process proceeds to S150.
<S150>
移動体自己位置計測装置200は、取得データ記憶部280に記憶された各種データに基づいて、例えば以下のように地物位置293を計測する。
<S150>
The mobile body self-position measuring device 200 measures the feature position 293 based on various data stored in the acquired data storage unit 280 as follows, for example.
まず、位置姿勢標定部210は、S120と同じく、車両位置姿勢291を算出し、算出した車両位置姿勢291を計測データ記憶部290に記憶する。
次に、三次元点群生成部211は、S120と同じく、車両位置姿勢291に基づいて三次元点群292を生成し、生成した三次元点群292を計測データ記憶部290に記憶する。
次に、三次元点群投影部212は、カメラの焦点やカメラの取り付け位置姿勢値に基づいて、三次元点群292をカメラ映像281に投影する。
そして、地物位置計測部213は、カメラ映像281に投影された三次元点群292に基づいて地物位置293を計測し、計測した地物位置293を計測データ記憶部290に記憶する。例えば、三次元点群投影部212はカメラ映像281およびカメラ映像281に投影した三次元点群292を表示装置に表示する。利用者は、表示に基づいて、地物位置293を計測したい地物を移動体自己位置計測装置200に指定すると共に当該地物に重畳して表示されている三次元点を指定する。地物位置計測部213は、指定された三次元点が示す三次元座標を当該地物の地物位置293とする。
S150の後、計測方法の処理は終了する。
First, the position and orientation determination unit 210 calculates the vehicle position and orientation 291 and stores the calculated vehicle position and orientation 291 in the measurement data storage unit 290, as in S120.
Next, the 3D point group generation unit 211 generates a 3D point group 292 based on the vehicle position and orientation 291 and stores the generated 3D point group 292 in the measurement data storage unit 290, as in S120.
Next, the three-dimensional point group projection unit 212 projects the three-dimensional point group 292 onto the camera image 281 based on the focus of the camera and the attachment position / posture value of the camera.
The feature position measuring unit 213 measures the feature position 293 based on the three-dimensional point group 292 projected on the camera video 281 and stores the measured feature position 293 in the measurement data storage unit 290. For example, the 3D point group projection unit 212 displays the camera image 281 and the 3D point group 292 projected on the camera image 281 on the display device. Based on the display, the user designates a feature for which the feature position 293 is to be measured to the mobile body self-position measuring device 200 and designates a three-dimensional point displayed superimposed on the feature. The feature position measurement unit 213 sets the three-dimensional coordinates indicated by the designated three-dimensional point as the feature position 293 of the feature.
After S150, the measurement method process ends.
地物位置293は、計測対象地域に位置している各地物(道路標識、電柱、路面、縁石、キロポストなど)の三次元座標を示す。これにより、地物位置293を用いて三次元地図を生成することができる。
例えば、三次元地図の生成方法や上記の計測方法(S130を除く)として、特許文献1に開示されている技術を用いることができる。
The feature position 293 indicates three-dimensional coordinates of each feature (a road sign, a power pole, a road surface, a curb, a kilopost, etc.) located in the measurement target area. Thereby, a three-dimensional map can be generated using the feature position 293.
For example, the technique disclosed in Patent Document 1 can be used as a three-dimensional map generation method and the above-described measurement method (excluding S130).
S120において説明したように、三次元点群292はレーザースキャナの取り付け位置姿勢値に基づいて生成されるため、レーザースキャナの取り付け位置姿勢値が正確でないと正確な三次元点群292を生成することができず、地物位置293を正確に計測することができない。
移動体自己位置計測装置200は、S130においてレーザースキャナの取り付け位置姿勢値を調整して正確な値にするため、地物位置293を正確に計測することができる。
次に、レーザースキャナ調整処理(S130)の詳細について説明する。
As described in S120, since the three-dimensional point group 292 is generated based on the attachment position / posture value of the laser scanner, an accurate three-dimensional point group 292 is generated if the attachment position / posture value of the laser scanner is not accurate. The feature position 293 cannot be measured accurately.
The mobile body self-position measuring apparatus 200 can accurately measure the feature position 293 because the mounting position and orientation value of the laser scanner is adjusted to an accurate value in S130.
Next, the details of the laser scanner adjustment process (S130) will be described.
図7は、実施の形態1におけるレーザースキャナ調整処理(S130)のフローチャートである。
実施の形態1におけるレーザースキャナ調整処理(S130)について、図7に基づいて以下に説明する。
移動体自己位置計測装置200の各部は、以下に説明する各処理(S131〜S139)をCPUを用いて実行する。
FIG. 7 is a flowchart of the laser scanner adjustment process (S130) in the first embodiment.
The laser scanner adjustment process (S130) in the first embodiment will be described below with reference to FIG.
Each part of the mobile body self-position measuring apparatus 200 performs each process (S131-S139) demonstrated below using CPU.
以下に説明する各処理(S131〜S139)において、レーザースキャナ調整部220は、近傍地物B(図6参照)の三次元点群292に基づいてレーザースキャナの取り付け位置(XL、YL)を調整し、その後、遠方地物A(図6参照)の三次元点群292に基づいてレーザースキャナの取り付け姿勢(φL、θL、ψL)を調整する。
レーザースキャナと地物との距離が近いほどレーザースキャナの姿勢の影響による座標のずれ量が小さく、レーザースキャナと地物との距離が遠いほどレーザースキャナの姿勢の影響による座標のずれ量が大きい。つまり、近傍地物Bの三次元点群292のずれの主要因はレーザースキャナの取り付け位置(XL、YL)の誤差である。また、レーザースキャナの取り付け位置(XL、YL)を調整後において、遠方地物Aの三次元点群292のずれの主要因はレーザースキャナの取り付け姿勢(φL、θL、ψL)の誤差である。
In each process (S131 to S139) described below, the laser scanner adjusting unit 220 attaches the laser scanner (X L , Y L ) based on the three-dimensional point group 292 of the nearby feature B (see FIG. 6). After that, the mounting posture (φ L , θ L , ψ L ) of the laser scanner is adjusted based on the three-dimensional point group 292 of the distant feature A (see FIG. 6).
The closer the distance between the laser scanner and the feature, the smaller the amount of coordinate shift due to the influence of the posture of the laser scanner, and the farther the distance between the laser scanner and the feature, the greater the amount of coordinate deviation due to the influence of the posture of the laser scanner. That is, the main cause of the deviation of the three-dimensional point group 292 of the nearby feature B is the error of the laser scanner mounting position (X L , Y L ). In addition, after adjusting the mounting position (X L , Y L ) of the laser scanner, the main cause of the deviation of the three-dimensional point group 292 of the distant feature A is the mounting posture of the laser scanner (φ L , θ L , ψ L ). Error.
レーザースキャナの取り付け位置のうち高さZLは、高さの真値(測量値)が既知である地物をレーザースキャナにより計測して得られた三次元点群292と真値との差に基づいて調整される。レーザースキャナの取り付け高さZLは、予め調整されているものとする。 Among the laser scanner mounting positions, the height Z L is the difference between the true value and the three-dimensional point group 292 obtained by measuring a feature whose true height value (survey value) is known with the laser scanner. Adjusted based on. The mounting height Z L of the laser scanner is adjusted in advance.
<S131>
レーザースキャナ調整部220は、計測車両100により往路(正方向)で取得された距離方位点群283に基づいて生成された三次元点群292(以下、「三次元点群(正方向)」という)から近傍地物Bの三次元点群を第1近傍点群として抽出する。さらに、レーザースキャナ調整部220は、計測車両100により復路(逆方向)で取得された距離方位点群283に基づいて生成された三次元点群292(以下、「三次元点群(逆方向)」という)から近傍地物Bの三次元点群を第2近傍点群として抽出する。
<S131>
The laser scanner adjustment unit 220 generates a three-dimensional point group 292 (hereinafter referred to as “three-dimensional point group (positive direction)”) generated based on the distance direction point group 283 acquired by the measurement vehicle 100 in the forward path (positive direction). ) To extract the three-dimensional point group of the neighboring feature B as the first neighboring point group. Further, the laser scanner adjustment unit 220 generates a three-dimensional point group 292 (hereinafter referred to as “three-dimensional point group (reverse direction)” generated based on the distance direction point group 283 acquired by the measurement vehicle 100 on the return path (reverse direction). The 3D point group of the nearby feature B is extracted as the second nearby point group.
例えば、レーザースキャナ調整部220は、予め測位された近傍地物Bの座標との距離が所定値未満である三次元点群を第1近傍点群および第2近傍点群として抽出する。
また例えば、レーザースキャナ調整部220は、三次元点群292を表示装置に表示し、第1近傍点群と第2近傍点群とを利用者に指定させてもよい。
第1近傍点群と第2近傍点群とはそれぞれ1点でも構わない。
For example, the laser scanner adjustment unit 220 extracts a three-dimensional point group whose distance from the coordinates of the nearby feature B measured in advance is less than a predetermined value as a first nearby point group and a second nearby point group.
For example, the laser scanner adjustment unit 220 may display the three-dimensional point group 292 on the display device and allow the user to designate the first neighboring point group and the second neighboring point group.
The first neighboring point group and the second neighboring point group may each be one point.
そして、レーザースキャナ調整部220は、第1近傍点群と第2近傍点群とのずれ量に基づいて、レーザースキャナの取り付け位置(XL、YL)の調整値(ΔXL、ΔYL)を算出する。
以下に、レーザースキャナの取り付け位置(XL、YL)の調整値(ΔXL、ΔYL)の算出方法について説明する。
Then, the laser scanner adjustment unit 220 adjusts (ΔX L , ΔY L ) the adjustment values (ΔX L , ΔY L ) of the laser scanner mounting position (X L , Y L ) based on the deviation amount between the first neighboring point group and the second neighboring point group. Is calculated.
Hereinafter, a method for calculating the adjustment values (ΔX L , ΔY L ) of the attachment positions (X L , Y L ) of the laser scanner will be described.
図8は、実施の形態1におけるレーザースキャナの調整値ΔXLの算出方法を示す図である。
図9は、実施の形態1におけるレーザースキャナの調整値ΔYLの算出方法を示す図である。
図8、図9において、下面用レーザースキャナ115の取り付け位置姿勢値に相当する場所を点線の四角で示し、実際に下面用レーザースキャナ115が取り付けられている場所を実線の四角で示す。
また、実際に近傍地物Bが位置する地点を黒丸(座標値PB)で示し、第1近傍点と第2近傍点とを点線の白丸(座標値PB’、PB’’)で示す。
Figure 8 is a diagram showing a method of calculating the adjustment value [Delta] X L of the laser scanner in the first embodiment.
FIG. 9 is a diagram showing a method for calculating the adjustment value ΔY L of the laser scanner in the first embodiment.
8 and 9, a location corresponding to the attachment position and orientation value of the lower surface laser scanner 115 is indicated by a dotted square, and a location where the lower surface laser scanner 115 is actually attached is indicated by a solid square.
The point where the near feature B is actually located is indicated by a black circle (coordinate value P B ), and the first and second neighboring points are indicated by dotted white circles (coordinate values P B ′, P B ″). Show.
図8に示すように、レーザースキャナ(例えば、下面用レーザースキャナ115)がx軸方向(計測車両100の進行方向)に「ΔXL」ずれている場合、第1近傍点PB’と第2近傍点PB’’とはそれぞれ実際の座標値PBから「ΔXL」ずれた座標値を示す。このため、第1近傍点PB’と第2近傍点PB’’とのずれ量は「ΔXL」の2倍となる。
レーザースキャナ調整部220は、第1近傍点PB’と第2近傍点PB’’とのずれ量の半分「ΔXL」を調整値として算出する。
As shown in FIG. 8, when the laser scanner (for example, the lower surface laser scanner 115) is shifted by “ΔX L ” in the x-axis direction (the traveling direction of the measurement vehicle 100), the first neighboring point P B ′ and the second neighboring point P B ′ Each of the neighboring points P B ″ indicates a coordinate value shifted by “ΔX L ” from the actual coordinate value P B. For this reason, the amount of deviation between the first neighboring point P B ′ and the second neighboring point P B ″ is twice that of “ΔX L ”.
The laser scanner adjustment unit 220 calculates, as an adjustment value, “ΔX L ”, which is half the amount of deviation between the first neighboring point P B ′ and the second neighboring point P B ″.
同様に、図9に示すように、レーザースキャナがy軸方向(計測車両100の幅方向)に「ΔYL」ずれている場合、第1近傍点PB’と第2近傍点PB’’とのずれ量は「ΔYL」の2倍となる。
レーザースキャナ調整部220は、第1近傍点PB’と第2近傍点PB’’とのずれ量の半分「ΔYL」を調整値として算出する。
Similarly, as shown in FIG. 9, when the laser scanner is shifted by “ΔY L ” in the y-axis direction (the width direction of the measurement vehicle 100), the first neighboring point P B ′ and the second neighboring point P B ″ Is twice as large as “ΔY L ”.
The laser scanner adjustment unit 220 calculates half the amount of deviation “ΔY L ” between the first neighboring point P B ′ and the second neighboring point P B ″ as an adjustment value.
図7に戻り、レーザースキャナ調整処理(S130)の説明を続ける。
S131の後、処理はS132に進む。
Returning to FIG. 7, the description of the laser scanner adjustment process (S130) will be continued.
After S131, the process proceeds to S132.
<S132>
レーザースキャナ調整部220は、S131において算出した調整値(ΔXL、ΔYL)を加算(または減算)してレーザースキャナの取り付け位置(XL、YL)を調整する。
S132の後、処理はS133に進む。
<S132>
The laser scanner adjustment unit 220 adjusts the attachment position (X L , Y L ) of the laser scanner by adding (or subtracting) the adjustment values (ΔX L , ΔY L ) calculated in S131.
After S132, the process proceeds to S133.
<S133>
三次元点群生成部211は、S132において取り付け位置(XL、YL)を調整されたレーザースキャナの取り付け位置姿勢値に基づいて、S120と同じく三次元点群292を生成する。
S133の後、処理はS134に進む。
<S133>
Three-dimensional point group generation unit 211, the mounting position in S132 (X L, Y L) based on the mounting position and orientation values of the adjusted laser scanner, also to generate a three-dimensional point group 292 and S120.
After S133, the process proceeds to S134.
<S134>
レーザースキャナ調整部220は、S133において生成された三次元点群292から第1近傍点群と第2近傍点群とを抽出し、抽出した第1近傍点群と第2近傍点群との座標値が一致するか判定する。ここで、一致とは、「値の完全一致」「差が所定値以下」のいずれを意味してもよい。
第1近傍点群と第2近傍点群との座標値が一致する場合(YES)、処理はS135に進む。
第1近傍点群と第2近傍点群との座標値が一致しない場合(NO)、処理はS131に戻り、第1近傍点群と第2近傍点群との座標値が一致するまでS131〜S134が繰り返される。
<S134>
The laser scanner adjustment unit 220 extracts the first neighboring point group and the second neighboring point group from the three-dimensional point group 292 generated in S133, and coordinates of the extracted first neighboring point group and second neighboring point group. Determine whether the values match. Here, “match” may mean either “complete match of values” or “difference is equal to or less than a predetermined value”.
If the coordinate values of the first neighboring point group and the second neighboring point group match (YES), the process proceeds to S135.
If the coordinate values of the first neighboring point group and the second neighboring point group do not match (NO), the process returns to S131 and S131 to S131 until the coordinate values of the first neighboring point group and the second neighboring point group match. S134 is repeated.
<S135>
レーザースキャナ調整部220は、S131と同様に、三次元点群(正方向)から遠方地物A(図6参照)の三次元点群を第1遠方点群として抽出すると共に、三次元点群(逆方向)から遠方地物Aの三次元点群を第2遠方点群として抽出する。第1遠方点群と第2遠方点群とはそれぞれ1点でも構わない。
レーザースキャナ調整部220は、第1遠方点群と第2遠方点群とのずれ量に基づいて、レーザースキャナの取り付け姿勢(φL、θL、ψL)の調整値(ΔφL、ΔθL、ΔψL)を算出する。
以下に、レーザースキャナの取り付け姿勢(φL、θL、ψL)の調整値(ΔφL、ΔθL、ΔψL)の算出方法について説明する。
<S135>
Similarly to S131, the laser scanner adjustment unit 220 extracts the three-dimensional point group of the distant feature A (see FIG. 6) from the three-dimensional point group (positive direction) as the first far point group, and also the three-dimensional point group. The three-dimensional point group of the distant feature A is extracted as the second distant point group from (reverse direction). Each of the first far point group and the second far point group may be one point.
The laser scanner adjustment unit 220 adjusts (Δφ L , Δθ L ) the adjustment values (Δφ L , Δθ L ) of the laser scanner mounting posture (φ L , θ L , ψ L ) based on the shift amount between the first far point group and the second far point group. , Δψ L ).
Hereinafter, a method for calculating the adjustment values (Δφ L , Δθ L , Δψ L ) of the mounting posture (φ L , θ L , ψ L ) of the laser scanner will be described.
図10は、実施の形態1におけるレーザースキャナの調整値ΔφLの算出方法を示す図である。
図11は、実施の形態1におけるレーザースキャナの調整値ΔθLの算出方法を示す図である。
図12は、実施の形態1におけるレーザースキャナの調整値ΔψLの算出方法を示す図である。
図10〜図12において、下面用レーザースキャナ115の取り付け位置姿勢値に相当する場所を点線の四角で示し、実際に下面用レーザースキャナ115が取り付けられている場所を実線の四角で示す。
また、実際に遠方地物Aが位置する地点を黒丸(座標値PA)で示し、第1遠方点と第2遠方点とを点線の白丸(座標値PA’、PA’’)で示す。
Figure 10 is a diagram showing a method of calculating the adjustment value [Delta] [phi L of the laser scanner in the first embodiment.
FIG. 11 is a diagram illustrating a method of calculating the adjustment value Δθ L of the laser scanner in the first embodiment.
FIG. 12 is a diagram illustrating a method of calculating the adjustment value Δψ L of the laser scanner in the first embodiment.
10 to 12, a location corresponding to the attachment position and orientation value of the lower surface laser scanner 115 is indicated by a dotted square, and a location where the lower surface laser scanner 115 is actually attached is indicated by a solid square.
The point where the distant feature A is actually located is indicated by a black circle (coordinate value P A ), and the first far point and the second far point are indicated by dotted white circles (coordinate values P A ′, P A ″). Show.
図10に示すように、レーザースキャナ(例えば、下面用レーザースキャナ115)がx軸回りに「ΔφL」ずれて回転している場合、第1遠方点PA’と第2遠方点PA’’とはそれぞれレーザースキャナを中心点として実際の座標値PAを「ΔφL」回転させた座標値を示す。このため、第1遠方点PA’と第2遠方点PA’’とのy軸方向のずれ量は「ΔφL」回転分の移動量「y(ΔφL)」の2倍となる。また、第1遠方点PA’と第2遠方点PA’’とのz軸方向のずれ量は「ΔφL」回転分の移動量「z(ΔφL)」の2倍となる。
レーザースキャナ調整部220は、第1遠方点PA’と第2遠方点PA’’とのずれ量の半分「y(ΔφL)」「z(ΔφL)」に基づいて調整量「ΔφL」を算出する。
As shown in FIG. 10, when the laser scanner (for example, the lower surface laser scanner 115) is rotated by “Δφ L ” around the x axis, the first far point P A ′ and the second far point P A ′ are rotated. 'indicates a coordinate value obtained by "[Delta] [phi L" rotate actual coordinate values P a as the center point of each laser scanner with. For this reason, the amount of shift in the y-axis direction between the first far point P A ′ and the second far point P A ″ is twice the movement amount “y (Δφ L )” for “Δφ L ” rotation. Further, the shift amount in the z-axis direction between the first far point P A ′ and the second far point P A ″ is twice the movement amount “z (Δφ L )” of “Δφ L ” rotation.
The laser scanner adjustment unit 220 adjusts the amount of adjustment “Δφ” based on “y (Δφ L )” and “z (Δφ L )” which are half of the deviation between the first far point P A ′ and the second far point P A ″. L "is calculated.
同様に、図11に示すように、レーザースキャナがy軸回りに「ΔθL」ずれて回転している場合、第1遠方点PA’と第2遠方点PA’’とのずれ量は「x(ΔθL)」の2倍となる。
レーザースキャナ調整部220は、第1遠方点PA’と第2遠方点PA’’とのずれ量の半分「x(ΔθL)」に基づいて調整量「ΔθL」を算出する。
Similarly, as shown in FIG. 11, when the laser scanner rotates by “Δθ L ” around the y axis, the amount of deviation between the first far point P A ′ and the second far point P A ″ is This is twice the value of “x (Δθ L )”.
The laser scanner adjustment unit 220 calculates an adjustment amount “Δθ L ” based on a half “x (Δθ L )” of the shift amount between the first far point P A ′ and the second far point P A ″.
また、図12に示すように、レーザースキャナがz軸回りに「ΔψL」ずれて回転している場合、第1遠方点PA’と第2遠方点PA’’とはxy座標が「ΔψL」分ずれる。
レーザースキャナ調整部220は、第1遠方点PA’と第2遠方点PA’’とのずれ量に基づいて調整量「ΔψL」を算出する。
Further, as shown in FIG. 12, when the laser scanner is rotated by “Δψ L ” around the z axis, the xy coordinates of the first far point P A ′ and the second far point P A ″ are “ [Delta] [phi] L ".
The laser scanner adjustment unit 220 calculates an adjustment amount “Δψ L ” based on the amount of deviation between the first far point P A ′ and the second far point P A ″.
図7に戻り、レーザースキャナ調整処理(S130)の説明を続ける。
S135の後、処理はS136に進む。
Returning to FIG. 7, the description of the laser scanner adjustment process (S130) will be continued.
After S135, the process proceeds to S136.
<S136>
レーザースキャナ調整部220は、S135において算出した調整値(ΔφL、ΔθL、ΔψL)を加算(または減算)してレーザースキャナの取り付け位置(φL、θL、ψL)を調整する。
S136の後、処理はS137に進む。
<S136>
The laser scanner adjustment unit 220 adds (or subtracts) the adjustment values (Δφ L , Δθ L , Δψ L ) calculated in S135 to adjust the mounting position (φ L , θ L , ψ L ) of the laser scanner.
After S136, the process proceeds to S137.
<S137>
三次元点群生成部211は、S136において取り付け姿勢(φL、θL、ψL)を調整されたレーザースキャナの取り付け位置姿勢値に基づいて、S120と同じく三次元点群292を生成する。
S137の後、処理はS138に進む。
<S137>
The three-dimensional point group generation unit 211 generates a three-dimensional point group 292 in the same manner as in S120, based on the attachment position / posture value of the laser scanner whose attachment posture (φ L , θ L , ψ L ) has been adjusted in S136.
After S137, the process proceeds to S138.
<S138>
レーザースキャナ調整部220は、S137において生成された三次元点群292から第1遠方点群と第2遠方点群とを抽出し、抽出した第1遠方点群と第2遠方点群との座標値が一致するか判定する。ここで、一致とは、「値の完全一致」「差が所定値以下」のいずれであってもよい。
第1遠方点群と第2遠方点群との座標値が一致する場合(YES)、処理はS139に進む。
第1遠方点群と第2遠方点群との座標値が一致しない場合(NO)、処理はS135に戻り、第1遠方点群と第2遠方点群との座標値が一致するまでS135〜S138が繰り返される。
<S138>
The laser scanner adjustment unit 220 extracts the first far point group and the second far point group from the three-dimensional point group 292 generated in S137, and the coordinates of the extracted first far point group and second far point group. Determine whether the values match. Here, the term “match” may be “complete match of values” or “difference is equal to or less than a predetermined value”.
If the coordinate values of the first far point group and the second far point group match (YES), the process proceeds to S139.
If the coordinate values of the first far point group and the second far point group do not match (NO), the process returns to S135, and S135 to S135 until the coordinate values of the first far point group and the second far point group match. S138 is repeated.
<S139>
レーザースキャナ調整部220は、S137において生成された三次元点群(正方向)と三次元点群(逆方向)との座標値が一致するか判定する。ここで、一致とは、「値の完全一致」「差が所定値以下」のいずれであってもよい。
三次元点群(正方向)と三次元点群(逆方向)との座標値が一致する場合(YES)、レーザースキャナ調整処理(S130)は終了する。
三次元点群(正方向)と三次元点群(逆方向)との座標値が一致しない場合(NO)、処理はS131に戻り、三次元点群(正方向)と三次元点群(逆方向)との座標値が一致するまでS131〜S139が繰り返される。
<S139>
The laser scanner adjustment unit 220 determines whether the coordinate values of the 3D point group (forward direction) and the 3D point group (reverse direction) generated in S137 match. Here, the term “match” may be “complete match of values” or “difference is equal to or less than a predetermined value”.
If the coordinate values of the three-dimensional point group (forward direction) and the three-dimensional point group (reverse direction) match (YES), the laser scanner adjustment process (S130) ends.
If the coordinate values of the three-dimensional point group (forward direction) and the three-dimensional point group (reverse direction) do not match (NO), the process returns to S131, and the three-dimensional point group (forward direction) and the three-dimensional point group (reverse) S131 to S139 are repeated until the coordinate value matches (direction).
上記のように、移動体自己位置計測装置200は、特別な施設や機材を必要とせず、計測車両100の取得データに基づいて容易にレーザースキャナの取り付け位置姿勢値を正確に調整することができる。
これにより、移動体自己位置計測装置200は、正確な三次元点群292を生成し、正確な地物位置293を算出することができる。
As described above, the mobile unit self-position measuring device 200 does not require any special facilities or equipment, and can easily adjust the laser scanner mounting position and orientation value easily based on the acquired data of the measuring vehicle 100. .
Thereby, the mobile body self-position measuring apparatus 200 can generate an accurate three-dimensional point group 292 and calculate an accurate feature position 293.
実施の形態2.
レーザースキャナの取り付けヨー角ψを実施の形態1と異なる方法で調整する形態について説明する。
以下、実施の形態1と異なる事項について主に説明する。説明を省略する事項は実施の形態1と同様である。
Embodiment 2. FIG.
A mode of adjusting the mounting yaw angle ψ of the laser scanner by a method different from that of the first embodiment will be described.
Hereinafter, items different from the first embodiment will be mainly described. Matters whose description is omitted are the same as those in the first embodiment.
図13は、実施の形態2におけるレーザースキャナの調整値Δψの算出方法を示す図である。
実施の形態2におけるレーザースキャナの調整値Δψの算出方法について、図13に基づいて以下に説明する。
図13の表記は、図12と同様である。但し、逆方向(復路)を走行する計測車両100を点線で示し、後述する第3遠方点を点線の白丸(座標値PA’’)で示す。
FIG. 13 is a diagram illustrating a method of calculating the adjustment value Δψ of the laser scanner in the second embodiment.
A method of calculating the adjustment value Δψ of the laser scanner in the second embodiment will be described below based on FIG.
The notation of FIG. 13 is the same as that of FIG. However, the measurement vehicle 100 traveling in the reverse direction (return) is indicated by a dotted line, and a third far point described later is indicated by a dotted white circle (coordinate value P A ″).
図1で説明したように、レーザースキャナは、高さの異なる地物(路面、道路標識など)を計測するために斜め(例えば、下面用レーザースキャナ115は斜め下方)に取り付けられ、左右に首降りしながらレーザーを出射して計測を行う。
地物が位置する高さがレーザースキャナと同じ高さである場合、レーザースキャナにより当該地物を計測できるのは、計測車両100が移動して当該地物がレーザースキャナの真横に来たときである。
As described in FIG. 1, the laser scanner is attached obliquely (for example, the lower surface laser scanner 115 is obliquely downward) to measure features having different heights (road surface, road sign, etc.), and the neck is placed on the left and right. While getting off, measure by emitting laser.
When the feature is located at the same height as the laser scanner, the feature can be measured by the laser scanner when the measurement vehicle 100 moves and the feature comes to the side of the laser scanner. is there.
図13に示すように、レーザースキャナ(例えば、下面用レーザースキャナ115)の真横で地物(例えば、遠方地物A)(座標PA)を計測した場合、レーザースキャナがz軸回りに「Δψ」ずれて回転していても、三次元点(正方向)と三次元点(逆方向)とは同じ座標P’を示し、ずれが生じない。
しかし、地物(座標PA)を挟んで2方向(正方向、第二方向)から計測した場合、一方(正方向)の計測値に基づく第1遠方点(座標PA’)と他方(第二方向)の計測値に基づく第3遠方点(座標PA’’)とにずれが生じる。
レーザースキャナ調整部220は、座標PA’と座標PA’’とのずれ量に基づいてレーザースキャナの取り付けヨー角ψLの調整値ΔψLを算出する。
As shown in FIG. 13, when a feature (for example, a distant feature A) (coordinate P A ) is measured directly beside a laser scanner (for example, the bottom surface laser scanner 115), the laser scanner moves “Δψ around the z axis. Even if the rotation is shifted, the three-dimensional point (forward direction) and the three-dimensional point (reverse direction) indicate the same coordinate P ′, and no shift occurs.
However, when measuring from two directions (positive direction, second direction) across the feature (coordinate P A ), the first far point (coordinate P A ′) based on the measured value of one (positive direction) and the other (coordinate P A ′) There is a deviation from the third far point (coordinate P A ″) based on the measured value in the second direction.
The laser scanner adjustment unit 220 calculates an adjustment value Δψ L of the attachment yaw angle ψ L of the laser scanner based on the amount of deviation between the coordinates P A ′ and the coordinates P A ″.
計測方法の流れは、実施の形態1(図5参照)と同じである。
但し、計測方法のS110において、利用者は、計測車両100を往復走行させて各種データを取得するほかに(図6(1)(2))、遠方地物Aを挟んだ反対側で計測車両100を走行させる(図6(3))。遠方地物Aを挟んだ反対側での走行の向き(第二方向)は、正方向でも逆方向でも構わない。また、計測車両100と遠方地物Aとの距離は、正方向と第二方向とで等しい方がよい。
The flow of the measurement method is the same as that of the first embodiment (see FIG. 5).
However, in S110 of the measurement method, the user reciprocates the measurement vehicle 100 to acquire various data (FIGS. 6 (1) (2)), and the measurement vehicle on the opposite side across the distant feature A. 100 is run (FIG. 6 (3)). The direction of travel on the opposite side across the distant feature A (second direction) may be the forward direction or the reverse direction. Further, the distance between the measurement vehicle 100 and the distant feature A is preferably equal in the positive direction and the second direction.
図14は、実施の形態2におけるレーザースキャナ調整処理(S130)のフローチャートである。
実施の形態2におけるレーザースキャナ調整処理(S130)について、図14に基づいて以下に説明する。
図14に示すフローチャートは、実施の形態1(図7参照)のS135〜S137、S139をS135a〜S137a、S139’に変更し、S135b〜S137bを追加したものである。
以下、S135a〜S137a、S135b〜S137bおよびS139’について主に説明する。
FIG. 14 is a flowchart of the laser scanner adjustment process (S130) in the second embodiment.
The laser scanner adjustment process (S130) in the second embodiment will be described below with reference to FIG.
The flowchart shown in FIG. 14 is obtained by changing S135 to S137 and S139 of Embodiment 1 (see FIG. 7) to S135a to S137a and S139 ′, and adding S135b to S137b.
Hereinafter, S135a to S137a, S135b to S137b, and S139 ′ will be mainly described.
<S131〜S134>
実施の形態1と同じく、レーザースキャナの取り付け位置が調整される。
S131〜S134の後、処理はS135aに進む。
<S131 to S134>
As in the first embodiment, the mounting position of the laser scanner is adjusted.
After S131 to S134, the process proceeds to S135a.
<S135a〜S136a>
レーザースキャナ調整部220は、実施の形態1のS135〜S136と同様に、第1遠方点群と第2遠方点群とのずれ量に基づいて調整値を算出し(S135a)、レーザースキャナの取り付け姿勢(φL、θL)を調整する(S135a)。
S135a〜S136aにおいて、レーザースキャナの取り付け姿勢のうちヨーψは調整されない。
S135a〜S136aの後、処理はS137aに進む。
<S135a to S136a>
The laser scanner adjustment unit 220 calculates an adjustment value based on the shift amount between the first far point group and the second far point group (S135a), similarly to S135 to S136 of the first embodiment, and attaches the laser scanner. The posture (φ L , θ L ) is adjusted (S135a).
In S135a to S136a, the yaw ψ is not adjusted in the mounting posture of the laser scanner.
After S135a to S136a, the process proceeds to S137a.
<S137a>
三次元点群生成部211は、S136aにおいて取り付け姿勢(φL、θL)を調整されたレーザースキャナの取り付け位置姿勢値に基づいて、S120と同じく三次元点群292を生成する。
S137aの後、処理はS138に進む。
<S137a>
The three-dimensional point group generation unit 211 generates a three-dimensional point group 292, similar to S120, based on the mounting position / posture value of the laser scanner whose mounting posture (φ L , θ L ) has been adjusted in S136a.
After S137a, the process proceeds to S138.
<S138>
実施の形態1と同じく、レーザースキャナ調整部220は、第1遠方点群と第2遠方点群との座標値が一致するか判定する。
第1遠方点群と第2遠方点群との座標値が一致する場合(YES)、処理はS135bに進む。
第1遠方点群と第2遠方点群との座標値が一致しない場合(NO)、処理はS135aに戻り、第1遠方点群と第2遠方点群との座標値が一致するまでS135a〜S138が繰り返される。
<S138>
As in the first embodiment, the laser scanner adjustment unit 220 determines whether the coordinate values of the first far point group and the second far point group match.
If the coordinate values of the first far point group and the second far point group match (YES), the process proceeds to S135b.
When the coordinate values of the first far point group and the second far point group do not match (NO), the process returns to S135a, and until the coordinate values of the first far point group and the second far point group match, S135a˜ S138 is repeated.
<S135b>
レーザースキャナ調整部220は、実施の形態1のS135と同様に、三次元点群(正方向)から遠方地物Aの三次元点群を第1遠方点群として抽出すると共に、三次元点群(第二方向)から遠方地物Aの三次元点群を第3遠方点群として抽出する。三次元点群(第二方向)は、計測車両100により正方向および逆方向に対して遠方地物Aを挟んだ反対側の第二方向から計測された距離方位点群283に基づいて生成された三次元点群292を示す(図6、図13参照)。第1遠方点群と第3遠方点群とはそれぞれ1点でも構わない。
レーザースキャナ調整部220は、第1遠方点群と第3遠方点群とのずれ量に基づいてレーザースキャナの取り付けヨーψLの調整値(ΔψL)を算出する。
<S135b>
Similarly to S135 of the first embodiment, the laser scanner adjustment unit 220 extracts the three-dimensional point group of the distant feature A from the three-dimensional point group (positive direction) as the first far point group, and also the three-dimensional point group. The three-dimensional point group of the distant feature A from (second direction) is extracted as the third distant point group. The three-dimensional point group (second direction) is generated based on the distance direction point group 283 measured by the measurement vehicle 100 from the second direction on the opposite side across the distant feature A with respect to the forward direction and the reverse direction. A three-dimensional point group 292 is shown (see FIGS. 6 and 13). Each of the first far point group and the third far point group may be one point.
The laser scanner adjustment unit 220 calculates an adjustment value (Δψ L ) of the laser scanner attachment yaw ψ L based on the amount of deviation between the first far point group and the third far point group.
図13に示すように、レーザースキャナ(例えば、下面用レーザースキャナ115)がz軸回りに「ΔψL」ずれて回転し、計測車両100と遠方地物Aとの距離が正方向と第二方向とで等しい場合、第1遠方点PA’と第3遠方点PA’’とのずれ量は「x(ΔψL)」「y(ΔψL)」の2倍となる。
レーザースキャナ調整部220は、第1遠方点PA’と第2遠方点PA’’とのずれ量の半分「x(ΔψL)」「y(ΔψL)」に基づいて調整量「ΔψL」を算出する。
As shown in FIG. 13, the laser scanner (for example, the lower surface laser scanner 115) rotates with a shift of “Δψ L ” around the z axis, and the distance between the measurement vehicle 100 and the distant feature A is the positive direction and the second direction. Are equal to each other, the amount of deviation between the first far point P A ′ and the third far point P A ″ is twice that of “x (Δψ L )” and “y (Δψ L )”.
The laser scanner adjustment unit 220 adjusts the amount of adjustment “Δψ” based on the half “x (Δψ L )” and “y (Δψ L )” of the amount of deviation between the first far point P A ′ and the second far point P A ″. L "is calculated.
S135bの後、処理はS136bに進む。 After S135b, the process proceeds to S136b.
<S136b>
レーザースキャナ調整部220は、S135bにおいて算出した調整値ΔψLを加算(または減算)してレーザースキャナの取り付けヨーψLを調整する。
S136bの後、処理はS137bに進む。
<S136b>
Laser scanner adjustment unit 220 adds an adjustment value [Delta] [phi] L calculated in S135b (or subtracted) to adjust the mounting yaw [psi L of the laser scanner.
After S136b, the process proceeds to S137b.
<S137b>
三次元点群生成部211は、S136bにおいて取り付けヨーψLを調整されたレーザースキャナの取り付け位置姿勢値に基づいて、S120と同じく三次元点群292を生成する。
S137bの後、処理はS139’に進む。
<S137b>
Three-dimensional point group generation unit 211, based on the mounting position and orientation values of the mounting yaw [psi L laser scanner which is adjusted in S136b, similarly to generate a three-dimensional point group 292 and S120.
After S137b, the process proceeds to S139 ′.
<S139’>
レーザースキャナ調整部220は、S137bにおいて生成された三次元点群(正方向)と三次元点群(逆方向)と三次元点群(第二方向)との座標値が一致するか判定する。ここで、一致とは、「値の完全一致」「差が所定値以下」のいずれであってもよい。
三次元点群(正方向)と三次元点群(逆方向)と三次元点群(第二方向)との座標値が一致する場合(YES)、レーザースキャナ調整処理(S130)は終了する。
三次元点群(正方向)と三次元点群(逆方向)と三次元点群(第二方向)との座標値が一致しない場合(NO)、処理はS131に戻り、三次元点群(正方向)と三次元点群(逆方向)と三次元点群(第二方向)との座標値が一致するまでS131〜S139’が繰り返される。
<S139 '>
The laser scanner adjustment unit 220 determines whether the coordinate values of the three-dimensional point group (forward direction), the three-dimensional point group (reverse direction), and the three-dimensional point group (second direction) generated in S137b match. Here, the term “match” may be “complete match of values” or “difference is equal to or less than a predetermined value”.
When the coordinate values of the three-dimensional point group (forward direction), the three-dimensional point group (reverse direction), and the three-dimensional point group (second direction) match (YES), the laser scanner adjustment process (S130) ends.
When the coordinate values of the three-dimensional point group (forward direction), the three-dimensional point group (reverse direction), and the three-dimensional point group (second direction) do not match (NO), the process returns to S131, and the three-dimensional point group ( S131 to S139 ′ are repeated until the coordinate values of the forward direction), the 3D point group (reverse direction), and the 3D point group (second direction) match.
実施の形態2により、地物がレーザースキャナと同じ高さに位置する場合でも、レーザースキャナの取り付け位置姿勢値を正確に調整することができる。 According to the second embodiment, even when the feature is located at the same height as the laser scanner, the attachment position / posture value of the laser scanner can be accurately adjusted.
実施の形態3.
レーザースキャナと共にカメラの取り付け位置姿勢値を調整する形態について説明する。
以下、実施の形態1、2と異なる事項について主に説明する。説明を省略する事項は実施の形態1、2と同様である。
Embodiment 3 FIG.
A mode of adjusting the attachment position / posture value of the camera together with the laser scanner will be described.
Hereinafter, items different from the first and second embodiments will be mainly described. Matters whose description is omitted are the same as in the first and second embodiments.
図15は、実施の形態3における移動体自己位置計測装置200の機能構成図である。
実施の形態3における移動体自己位置計測装置200の機能構成について、図15に基づいて以下に説明する。
FIG. 15 is a functional configuration diagram of the moving body self-position measuring apparatus 200 according to the third embodiment.
A functional configuration of mobile body self-position measuring apparatus 200 according to Embodiment 3 will be described below with reference to FIG.
移動体自己位置計測装置200は、実施の形態1、2の機能構成(図3参照)に加えて、カメラ調整部230(カメラ位置姿勢値誤差特定部、カメラ位置姿勢値補正部の一例)を備える。 In addition to the functional configuration of the first and second embodiments (see FIG. 3), the moving body self-position measuring apparatus 200 includes a camera adjustment unit 230 (an example of a camera position / posture value error specifying unit and a camera position / posture value correction unit). Prepare.
カメラ調整部230は、カメラ映像281に投影された三次元点群292に基づいて、計測車両100の計測ユニット110に取り付けられている前方用カメラ111および路面用カメラ112の位置姿勢値のずれ量をCPUを用いて特定する。計測車両100の計測ユニット110に取り付けられている前方用カメラ111および路面用カメラ112の位置姿勢値(例えば、設計値)は、予め任意の記憶部(記憶装置)に記憶されている。カメラ調整部230は、記憶されている位置姿勢値と実際の位置姿勢の値との差をずれ量として特定する。
さらに、カメラ調整部230は、特定したずれ量に基づいて、記憶されている位置姿勢値をCPUを用いて補正(調整)する。
Based on the three-dimensional point group 292 projected on the camera image 281, the camera adjustment unit 230 shifts the position and orientation values of the front camera 111 and the road surface camera 112 attached to the measurement unit 110 of the measurement vehicle 100. Is specified using the CPU. Position and orientation values (for example, design values) of the front camera 111 and the road surface camera 112 attached to the measurement unit 110 of the measurement vehicle 100 are stored in advance in an arbitrary storage unit (storage device). The camera adjustment unit 230 identifies the difference between the stored position / orientation value and the actual position / orientation value as a deviation amount.
Furthermore, the camera adjustment unit 230 corrects (adjusts) the stored position / orientation value using the CPU based on the specified shift amount.
図16は、実施の形態3における計測方法を示すフローチャートである。
実施の形態3における計測方法について、図16に基づいて以下に説明する。
図16に示すフローチャートは、実施の形態1(図5参照)にS160を追加したものである。
以下、S160について説明し、その他の処理(S110〜S150)の説明を省略する。
FIG. 16 is a flowchart illustrating a measurement method according to the third embodiment.
The measurement method in Embodiment 3 is demonstrated below based on FIG.
The flowchart shown in FIG. 16 is obtained by adding S160 to the first embodiment (see FIG. 5).
Hereinafter, S160 will be described, and description of other processes (S110 to S150) will be omitted.
<S160>
移動体自己位置計測装置200は、カメラ映像281と三次元点群292とに基づいてカメラの取り付け位置姿勢値を調整する。
<S160>
The mobile body self-position measuring apparatus 200 adjusts the camera attachment position / posture value based on the camera image 281 and the three-dimensional point group 292.
図17は、実施の形態3におけるカメラ調整処理(S160)のフローチャートである。
実施の形態3におけるレーザースキャナ調整処理(S160)について、図17に基づいて以下に説明する。
移動体自己位置計測装置200の各部は、以下に説明する各処理(S161〜S169b)をCPUを用いて実行する。
FIG. 17 is a flowchart of camera adjustment processing (S160) in the third embodiment.
The laser scanner adjustment process (S160) in the third embodiment will be described below with reference to FIG.
Each part of the mobile body self-position measuring apparatus 200 performs each process (S161-S169b) demonstrated below using CPU.
<S161>
三次元点群投影部212は、S150と同じく、カメラの取り付け位置姿勢値に基づいて、三次元点群292をカメラ映像281に投影する。
S161の後、処理はS162に進む。
<S161>
The three-dimensional point group projection unit 212 projects the three-dimensional point group 292 onto the camera image 281 based on the camera attachment position and orientation values, as in S150.
After S161, the process proceeds to S162.
<S162>
カメラ調整部230は、S161においてカメラ映像281に投影された三次元点群292から近傍地物Bの三次元点群を近傍点群として抽出する。
例えば、カメラ調整部230は、予め測位された近傍地物Bの座標との距離が所定値未満である三次元点群を近傍点群として抽出する。また例えば、カメラ調整部230は、三次元点群292を表示装置に表示し、近傍点群を利用者に指定させてもよい。近傍点群は1点でも構わない。
さらに、カメラ調整部230は、カメラ映像281から近傍地物Bが写っている画素を特定する。例えば、カメラ調整部230は、カメラの取り付け位置姿勢値と予め測位された近傍地物Bの座標とに基づいて、近傍地物Bが写る画素の位置(カメラ映像281上の二次元座標)を算出する。また例えば、利用者に画素を指定させてもよい。
カメラ調整部230は、近傍点群が投影された画素と近傍地物Bが写っている画素とのずれ量に基づいて、カメラの取り付け位置(XC、YC、ZC)の調整値(ΔXC、ΔYC、ΔZC)を算出する。
<S162>
The camera adjustment unit 230 extracts the 3D point group of the nearby feature B as the nearby point group from the 3D point group 292 projected on the camera image 281 in S161.
For example, the camera adjustment unit 230 extracts a three-dimensional point group whose distance from the coordinates of the nearby feature B measured in advance is less than a predetermined value as the nearby point group. Further, for example, the camera adjustment unit 230 may display the three-dimensional point group 292 on the display device and allow the user to specify the neighboring point group. The neighboring point group may be one point.
Furthermore, the camera adjustment unit 230 identifies the pixel in which the nearby feature B is captured from the camera video 281. For example, the camera adjustment unit 230 determines the pixel position (two-dimensional coordinates on the camera image 281) of the neighboring feature B based on the attachment position and orientation value of the camera and the coordinates of the neighboring feature B measured in advance. calculate. For example, the user may specify a pixel.
The camera adjustment unit 230 adjusts the camera attachment position (X C , Y C , Z C ) based on the amount of deviation between the pixel on which the neighboring point group is projected and the pixel on which the neighboring feature B is reflected ( ΔX C , ΔY C , ΔZ C ) are calculated.
図18は、実施の形態3におけるカメラの位置ずれとカメラ映像281と近傍点群との関係図である。
図18には、計測車両100の正面に位置しているゲート(下向きコの字状)を写したカメラ映像281とカメラ映像281に投影させた近傍点群(黒丸)(ゲートを計測したもの)とを示している。
以下、画素の位置を表すカメラ映像281の座標系をuv座標系とする。
FIG. 18 is a diagram illustrating the relationship between the camera position shift, the camera image 281, and the neighboring point group in the third embodiment.
FIG. 18 shows a camera image 281 in which the gate (downward U-shaped) located in front of the measurement vehicle 100 is copied, and a neighboring point group (black circle) projected on the camera image 281 (measurement of the gate). It shows.
Hereinafter, the coordinate system of the camera image 281 representing the pixel position is referred to as a uv coordinate system.
(1)カメラがz軸方向(計測車両100の高さ方向)にずれている場合、近傍点群はカメラ映像281に写ったゲートに対して上下に「Δv」ずれて投影される。
(2)カメラがx軸方向(計測車両100の進行方向)にずれている場合、近傍点群はカメラ映像281に写ったゲートに対して(Δu、Δv)異なる大きさで投影される。
(3)カメラがy軸方向(計測車両100の幅方向)にずれている場合、近傍点群はカメラ映像281に写ったゲートに対して左右に「Δu」ずれて投影される。
(1) When the camera is displaced in the z-axis direction (the height direction of the measurement vehicle 100), the neighboring point group is projected with a shift of “Δv” up and down with respect to the gate shown in the camera image 281.
(2) When the camera is deviated in the x-axis direction (the traveling direction of the measurement vehicle 100), the neighboring point group is projected with different sizes (Δu, Δv) on the gate shown in the camera image 281.
(3) When the camera is shifted in the y-axis direction (the width direction of the measurement vehicle 100), the neighboring point group is projected with a shift of “Δu” to the left and right with respect to the gate shown in the camera image 281.
S162(図17)において、カメラ調整部230は、近傍点群が投影された画素と近傍地物Bが写っている画素とのずれ量(Δu、Δv)に基づいて、カメラの取り付け位置(XC、YC、ZC)の調整値(ΔXC、ΔYC、ΔZC)を算出する。
S162の後、処理はS163に進む。
In S162 (FIG. 17), the camera adjustment unit 230 determines whether the camera attachment position (Xu, Δv) is based on the shift amount (Δu, Δv) between the pixel on which the neighboring point group is projected and the pixel on which the neighboring feature B is reflected. calculated C, Y C, the adjustment value of Z C) (ΔX C, ΔY C, a [Delta] Z C).
After S162, the process proceeds to S163.
<S163>
カメラ調整部230は、S162において算出した調整値(ΔXC、ΔYC、ΔZC)を加算(または減算)してカメラの取り付け位置(XC、YC、ZC)を調整する。
S163の後、処理はS164に進む。
<S163>
The camera adjustment unit 230 adds (or subtracts) the adjustment values (ΔX C , ΔY C , ΔZ C ) calculated in S162 to adjust the camera attachment position (X C , Y C , Z C ).
After S163, the process proceeds to S164.
<S164>
三次元点群投影部213は、S163において取り付け位置(XC、YC、ZC)を調整されたカメラの取り付け位置姿勢値に基づいて、S150と同じく三次元点群292をカメラ映像281に投影する。
S164の後、処理はS165に進む。
<S164>
The three-dimensional point group projection unit 213 converts the three-dimensional point group 292 into the camera image 281 based on the attachment position / posture value of the camera whose attachment position (X C , Y C , Z C ) has been adjusted in S163. Project.
After S164, the process proceeds to S165.
<S165>
カメラ調整部230は、S164において近傍点群が投影された画素と近傍地物Bが写っている画素とが一致するか判定する。ここで、一致とは、「同一画素」「所定量以下離れた画素」のいずれを意味してもよい。
近傍点群が投影された画素と近傍地物Bが写っている画素とが一致する場合(YES)、処理はS166に進む。
近傍点群が投影された画素と近傍地物Bが写っている画素とが一致しない場合(NO)、処理はS161に戻り、近傍点群が投影された画素と近傍地物Bが写っている画素とが一致するまでS161〜S165が繰り返される。
<S165>
In step S164, the camera adjustment unit 230 determines whether the pixel on which the neighboring point group is projected matches the pixel in which the neighboring feature B is reflected. Here, the term “match” may mean either “the same pixel” or “a pixel separated by a predetermined amount or less”.
When the pixel on which the neighboring point group is projected matches the pixel in which the neighboring feature B is reflected (YES), the process proceeds to S166.
If the pixel on which the neighboring point cloud is projected does not match the pixel on which the neighboring feature B appears (NO), the process returns to S161, and the pixel on which the neighboring point cloud is projected and the neighboring feature B are reflected. S161 to S165 are repeated until the pixel matches.
<S166>
カメラ調整部230は、S162と同様に、S164においてカメラ映像281に投影された三次元点群292から遠方地物Aの三次元点群を遠方点群として抽出する。
さらに、カメラ調整部230は、S162と同様に、三次元点群292から遠方地物Aが写っている画素を特定する。
カメラ調整部230は、遠方点群が投影された画素と遠方地物Aが写っている画素とのずれ量に基づいて、カメラの取り付け姿勢(φC、θC、ψC)の調整値(ΔφC、ΔθC、ΔψC)を算出する。
<S166>
Similarly to S162, the camera adjustment unit 230 extracts the three-dimensional point group of the distant feature A from the three-dimensional point group 292 projected on the camera image 281 in S164 as a far point group.
Further, the camera adjustment unit 230 identifies pixels in which the distant feature A is captured from the three-dimensional point group 292, similarly to S162.
The camera adjustment unit 230 adjusts the camera mounting posture (φ C , θ C , ψ C ) based on the shift amount between the pixel on which the far point group is projected and the pixel on which the far object A is reflected ( Δφ C , Δθ C , Δψ C ) are calculated.
図19は、実施の形態3におけるカメラの姿勢ずれとカメラ映像281と遠方点群との関係図である。
図19の見方は、図18と同じである。
FIG. 19 is a relationship diagram between the camera posture deviation, the camera image 281, and the far point group in the third embodiment.
The way of viewing FIG. 19 is the same as FIG.
(1)カメラがx軸回り(ロール)にずれて回転している場合、遠方点群はカメラ映像281に写ったゲートに対して(Δu、Δv)回転した位置に投影される。
(2)カメラがy軸回り(ピッチ)にずれて回転している場合、遠方点群はカメラ映像281に写ったゲートに対して(Δu、Δv)ずれて投影される。
(3)カメラがz軸回り(ヨー)にずれて回転している場合、遠方点群はカメラ映像281に写ったゲートに対して(Δu、Δv)ずれて投影される。
(1) When the camera rotates around the x axis (roll), the far point group is projected at a position rotated (Δu, Δv) with respect to the gate shown in the camera image 281.
(2) When the camera rotates around the y-axis (pitch), the far point group is projected with a deviation (Δu, Δv) with respect to the gate shown in the camera image 281.
(3) When the camera rotates around the z-axis (yaw), the far point group is projected with a deviation (Δu, Δv) with respect to the gate shown in the camera image 281.
S166(図17)において、カメラ調整部230は、遠方点群が投影された画素と遠方地物Aが写っている画素とのずれ量(Δu、Δv)に基づいて、カメラの取り付け姿勢(φC、θC、ψC)の調整値(ΔφC、ΔθC、ΔψC)を算出する。
S166の後、処理はS167に進む。
In S166 (FIG. 17), the camera adjustment unit 230 determines the camera mounting posture (φ) based on the shift amount (Δu, Δv) between the pixel on which the distant point cloud is projected and the pixel on which the distant feature A is reflected. C, θ C, the adjustment value of ψ C) (Δφ C, Δθ C, calculates the [Delta] [phi] C).
After S166, the process proceeds to S167.
<S167>
カメラ調整部230は、S166において算出した調整値(ΔφC、ΔθC、ΔψC)を加算(または減算)してカメラの取り付け姿勢(φC、θC、ψC)を調整する。
S167の後、処理はS168に進む。
<S167>
The camera adjustment unit 230 adds (or subtracts) the adjustment values (Δφ C , Δθ C , Δψ C ) calculated in S166 to adjust the camera mounting posture (φ C , θ C , ψ C ).
After S167, the process proceeds to S168.
<S168>
三次元点群投影部213は、S167において取り付け位置(φC、θC、ψC)を調整されたカメラの取り付け位置姿勢値に基づいて、S150と同じく三次元点群292をカメラ映像281に投影する。
S168の後、処理はS169aに進む。
<S168>
The three-dimensional point group projection unit 213 converts the three-dimensional point group 292 into the camera image 281 based on the camera attachment position / posture value whose attachment position (φ C , θ C , ψ C ) has been adjusted in S167. Project.
After S168, the process proceeds to S169a.
<S169a>
カメラ調整部230は、S168において遠方点群が投影された画素と遠方地物Aが写っている画素とが一致するか判定する。ここで、一致とは、「同一画素」「所定量以下離れた画素」のいずれを意味してもよい。
遠方点群が投影された画素と遠方地物Aが写っている画素とが一致する場合(YES)、処理はS169bに進む。
遠方点群が投影された画素と遠方地物Aが写っている画素とが一致しない場合(NO)、処理はS166に戻り、遠方点群が投影された画素と遠方地物Aが写っている画素とが一致するまでS166〜S169aが繰り返される。
<S169a>
In step S168, the camera adjustment unit 230 determines whether the pixel on which the far point group is projected matches the pixel on which the far feature A is reflected. Here, the term “match” may mean either “the same pixel” or “a pixel separated by a predetermined amount or less”.
When the pixel on which the distant point cloud is projected matches the pixel on which the distant feature A is reflected (YES), the process proceeds to S169b.
If the pixel on which the far point cloud is projected does not match the pixel on which the far feature A appears (NO), the process returns to S166, and the pixel on which the far point cloud is projected and the far feature A appear. S166 to S169a are repeated until the pixel matches.
<S169b>
カメラ調整部230は、S168において三次元点群292が投影された画素と各地物が写っている画素とが一致するか判定する。ここで、一致とは、「同一画素」「所定量以下離れた画素」のいずれを意味してもよい。
三次元点群292が投影された画素と各地物が写っている画素とが一致する場合(YES)、カメラ調整処理(S160)は終了する。
三次元点群292が投影された画素と各地物が写っている画素とが一致しない場合(NO)、処理はS161に戻り、三次元点群292が投影された画素と各地物が写っている画素とが一致するまでS161〜S169bが繰り返される。
<S169b>
In step S168, the camera adjustment unit 230 determines whether the pixel on which the three-dimensional point group 292 is projected matches the pixel in which each feature is reflected. Here, the term “match” may mean either “the same pixel” or “a pixel separated by a predetermined amount or less”.
When the pixel on which the three-dimensional point group 292 is projected matches the pixel in which each feature is reflected (YES), the camera adjustment process (S160) ends.
If the pixel on which the 3D point group 292 is projected and the pixel on which the feature is shown do not match (NO), the process returns to S161, and the pixel on which the 3D point group 292 is projected and the feature are shown. S161 to S169b are repeated until the pixel matches.
上記のように、移動体自己位置計測装置200は、特別な施設や機材を必要とせず、計測車両100の取得データに基づいて容易にカメラの取り付け位置姿勢値を正確に調整することができる。
これにより、移動体自己位置計測装置200は、三次元点群292を正確にカメラ映像281に投影し、正確な地物位置293を算出することができる。
As described above, the mobile body self-position measuring device 200 does not require any special facility or equipment, and can easily adjust the camera mounting position / posture value accurately based on the acquired data of the measurement vehicle 100.
Thereby, the mobile body self-position measuring apparatus 200 can accurately project the three-dimensional point group 292 onto the camera image 281 and calculate the accurate feature position 293.
実施の形態4.
距離方位点の計測時刻を出力しないレーザースキャナを用いる形態について説明する。
以下、実施の形態1〜3と異なる事項について主に説明する。説明を省略する事項については実施の形態1〜3と同様である。
Embodiment 4 FIG.
An embodiment using a laser scanner that does not output the measurement time of the distance direction point will be described.
Hereinafter, items different from the first to third embodiments will be mainly described. Matters whose description is omitted are the same as those in the first to third embodiments.
実施の形態4における計測車両100の構成は、実施の形態1〜3の構成(図1、図2参照)と同様である。
但し、レーザースキャナ(上面用レーザースキャナ114、下面用レーザースキャナ115)は、距離方位の計測時刻を出力しなくても構わない。つまり、レーザースキャナの値段を抑えることができ、計測車両100を安価に構成することができる。
配線中継BOX117は、レーザースキャナの代わりに、距離方位の計測時刻を出力する。配線中継BOX117により出力できる計測時刻は、実際の計測時刻ではなく、レーザースキャナから距離方位が出力された時刻である。つまり、配線中継BOX117により出力される計測時刻と実際の計測時刻とには、レーザースキャナが地物で反射したレーザーを観測してから距離方位を算出し算出した距離方位を配線中継BOX117に出力するまでに要する時間だけずれが生じる。
移動体自己位置計測装置200は、この計測時刻のずれを調整する機能を備える。
The configuration of measurement vehicle 100 in the fourth embodiment is the same as the configuration of the first to third embodiments (see FIGS. 1 and 2).
However, the laser scanners (the upper surface laser scanner 114 and the lower surface laser scanner 115) may not output the measurement time of the distance direction. That is, the price of the laser scanner can be reduced, and the measurement vehicle 100 can be configured at low cost.
The wiring relay box 117 outputs the measurement time of the distance direction instead of the laser scanner. The measurement time that can be output by the wiring relay BOX 117 is not the actual measurement time but the time when the distance direction is output from the laser scanner. That is, at the measurement time output by the wiring relay BOX 117 and the actual measurement time, the distance azimuth is calculated after the laser scanner observes the laser reflected by the feature, and the calculated distance azimuth is output to the wiring relay BOX 117. Deviation occurs only by the time required until.
The mobile body self-position measuring device 200 has a function of adjusting the deviation of the measurement time.
図20は、実施の形態4における移動体自己位置計測装置200の機能構成図である。
実施の形態4における移動体自己位置計測装置200の機能構成について、図20に基づいて以下に説明する。
FIG. 20 is a functional configuration diagram of the mobile unit self-position measuring apparatus 200 according to the fourth embodiment.
A functional configuration of the mobile unit self-position measuring apparatus 200 according to Embodiment 4 will be described below with reference to FIG.
移動体自己位置計測装置200は、実施の形態3の機能構成(図15参照)に加えて、レーザー計測時刻調整部240(計測時刻誤差特定部、計測時刻補正部の一例)を備える。 In addition to the functional configuration of the third embodiment (see FIG. 15), the moving body self-position measuring apparatus 200 includes a laser measurement time adjusting unit 240 (an example of a measurement time error specifying unit and a measurement time correcting unit).
レーザー計測時刻調整部240は、三次元点群292に基づいて、距離方位点群283に設定されている計測時刻の誤差をCPUを用いて特定する。
さらに、レーザー計測時刻調整部240は、特定した誤差に基づいて、距離方位点群283に設定されている計測時刻をCPUを用いて補正(調整)する。
Based on the three-dimensional point group 292, the laser measurement time adjustment unit 240 identifies an error in the measurement time set in the distance / azimuth point group 283 using the CPU.
Further, the laser measurement time adjustment unit 240 corrects (adjusts) the measurement time set in the distance and azimuth point group 283 based on the identified error using the CPU.
図21は、実施の形態4における計測方法を示すフローチャートである。
実施の形態4における計測方法について、図21に基づいて以下に説明する。
図21に示すフローチャートは、実施の形態3(図16参照)にS170〜S190を追加したものである。
以下、S170〜S190について説明し、その他の処理(S110〜S160)の説明を省略する。
FIG. 21 is a flowchart showing a measurement method according to the fourth embodiment.
A measurement method according to Embodiment 4 will be described below with reference to FIG.
The flowchart shown in FIG. 21 is obtained by adding S170 to S190 to the third embodiment (see FIG. 16).
Hereinafter, S170 to S190 will be described, and description of other processes (S110 to S160) will be omitted.
<S170>
利用者は、計測車両100で同一地域を異なる速度で走行して各種データを取得し、取得した各種データを移動体自己位置計測装置200の取得データ記憶部280に記憶する。
S170の後、処理はS180に進む。
<S170>
The user travels in the same area at different speeds in the measurement vehicle 100 to acquire various data, and stores the acquired various data in the acquired data storage unit 280 of the mobile body self-position measuring device 200.
After S170, the process proceeds to S180.
<S180>
移動体自己位置計測装置200は、S120と同じく、S170において取得された各種データに基づいて三次元点群292を生成する。
S180の後、処理はS190に進む。
<S180>
The mobile body self-position measuring apparatus 200 generates the three-dimensional point group 292 based on the various data acquired in S170 as in S120.
After S180, the process proceeds to S190.
<S190>
移動体自己位置計測装置200は、S180において生成された三次元点群292に基づいて距離方位点群283の計測時刻を調整する。
以下、S170において異なる走行速度で取得された距離方位点群283のうち走行速度が遅い方の距離方位点群283を「第1距離方位点群」とし、走行速度が速い方の距離方位点群283を「第2距離方位点群」という。
S190において、レーザー計測時刻調整部240は、第1距離方位点群に基づいて生成された三次元点群292(以下、「第1三次元点群」という)と、第2距離方位点群に基づいて生成された三次元点群292(以下、「第2三次元点群」という)とのずれ量に基づいて、距離方位点群283の計測時刻の調整時間を算出し、算出した調整時間に基づいて距離方位点群283の計測時刻を調整する。
<S190>
The mobile body self-position measuring device 200 adjusts the measurement time of the distance azimuth point group 283 based on the three-dimensional point group 292 generated in S180.
Hereinafter, among the distance azimuth points 283 acquired at different travel speeds in S170, the distance azimuth points 283 having the slower travel speed are referred to as “first distance azimuth points”, and the distance azimuth points having the higher travel speed. 283 is referred to as a “second distance azimuth point group”.
In S190, the laser measurement time adjustment unit 240 sets the three-dimensional point group 292 (hereinafter referred to as “first three-dimensional point group”) generated based on the first distance direction point group and the second distance direction point group. The adjustment time of the measurement time of the distance direction point group 283 is calculated based on the amount of deviation from the three-dimensional point group 292 (hereinafter referred to as “second 3D point group”) generated based on the calculated adjustment time. The measurement time of the distance direction point group 283 is adjusted based on the above.
図22は、実施の形態4における距離方位点群283の計測時刻の調整時間Δtの算出方法を示す図である。
図22において、停止時に計測を行った計測車両100を実線で示し、走行時に計測を行った計測車両100を点線で示す。また、第1三次元点を「P」、第2三次元点を「P’」、距離方位点群283の計測時刻の誤差を「Δt」とする。
FIG. 22 is a diagram illustrating a method of calculating the adjustment time Δt of the measurement time of the distance direction point group 283 in the fourth embodiment.
In FIG. 22, the measurement vehicle 100 that performs measurement at the time of stopping is indicated by a solid line, and the measurement vehicle 100 that performs measurement at the time of travel is indicated by a dotted line. In addition, the first three-dimensional point is “P”, the second three-dimensional point is “P ′”, and the measurement time error of the distance azimuth point group 283 is “Δt”.
図22に示すように、速度vで走行している計測車両100は、計測時刻の誤差Δtの間に「d(Δt)」(=v×Δt)だけ移動する。
このため、停止時に計測された距離方位点に基づく第1三次元点Pと、速度vで走行時に計測された距離方位点に基づく第2三次元点P’とのx座標は「d(Δt)」だけずれた座標を示す。
As shown in FIG. 22, the measuring vehicle 100 traveling at the speed v moves by “d (Δt)” (= v × Δt) during the measurement time error Δt.
Therefore, the x coordinate between the first three-dimensional point P based on the distance azimuth point measured at the time of stopping and the second three-dimensional point P ′ based on the distance azimuth point measured at the time of traveling at the speed v is “d (Δt ) ”.
S190(図21参照)において、レーザー計測時刻調整部240は、第1三次元点Pと第2三次元点P’とのずれ量「d(Δt)」を走行速度の差「v」で除算した値「Δt」を調整時間として算出する。
そして、レーザー計測時刻調整部240は、距離方位点群283に設定されている各計測時刻を調整時間Δtだけ前の時刻に変更する。
S190の後、実施の形態1〜3で説明したS110〜S160が実行される。
In S190 (see FIG. 21), the laser measurement time adjustment unit 240 divides the deviation “d (Δt)” between the first three-dimensional point P and the second three-dimensional point P ′ by the travel speed difference “v”. The calculated value “Δt” is calculated as the adjustment time.
Then, the laser measurement time adjustment unit 240 changes each measurement time set in the distance azimuth point group 283 to a time before the adjustment time Δt.
After S190, S110 to S160 described in the first to third embodiments are executed.
上記のように、移動体自己位置計測装置200は、レーザースキャナが計測時刻を出力できないため距離方位点群283の計測時刻が不正確であっても、距離方位点群283の計測時刻を正しく調整することができる。
これにより、移動体自己位置計測装置200は、正確な三次元点群292を生成し、正確な地物位置293を算出することができる。
As described above, the mobile body self-position measuring apparatus 200 correctly adjusts the measurement time of the distance azimuth point group 283 even if the measurement time of the distance azimuth point group 283 is inaccurate because the laser scanner cannot output the measurement time. can do.
Thereby, the mobile body self-position measuring apparatus 200 can generate an accurate three-dimensional point group 292 and calculate an accurate feature position 293.
上記の各実施の形態では、以下のようなキャリブレーション方法について説明した。
進行方向を変えて複数回計測し、結果として同じターゲットの点群が重なるようにレーザースキャナのキャリブレーション値(調整値)を求めていく。この考えの基本として、位置、姿勢が正しく設定されていれば走行方向や位置が変化しても同じターゲットを照射した結果として同じ位置が算出される事をベースにしている。逆に同じターゲットを照射した結果として同じ位置が算出されない事は、情報が誤っていることを意味している。さらに取り付け位置が崩れている場合と、取り付け姿勢が崩れている場合にデータのずれ方が異なることに注目し、これらのずれが最小になるように収束させていく手法である。
In the above embodiments, the following calibration method has been described.
The laser scanner calibration value (adjustment value) is calculated so that the point cloud of the same target overlaps as a result. The basis of this idea is that if the position and orientation are set correctly, the same position is calculated as a result of irradiating the same target even if the traveling direction or position changes. Conversely, the fact that the same position is not calculated as a result of irradiating the same target means that the information is incorrect. Further, it is a method of focusing so that the deviation of data differs when the attachment position is collapsed and when the attachment posture is collapsed, and the deviation is minimized.
往路と復路とのデータ(ターゲットの三次元点)を比較した場合、以下のような特性が生じる。
・レーザースキャナの位置、姿勢、計測時間が完璧にキャリブレーションされていれば、計測方向や速度に寄らずおなじターゲットの三次元点は同じ位置を示す。
・レーザースキャナの位置がずれている場合は、ターゲットの三次元点は車両から近くても遠くても同じだけずれる。
・レーザースキャナの姿勢が崩れている場合にはターゲットの三次元点は近くではずれが少ないが、遠方になるほどずれ量が大きくなる。
・レーザースキャナの位置がずれている場合にはターゲットの三次元点は車両の左右で同じ方向にずれる。
・レーザースキャナの姿勢が崩れている場合にはターゲットの三次元点は車両の左右で反対方向にずれる。
・レーザースキャナの計測時間がずれている場合、ターゲットの三次元点は計測速度が低速ならずれないが、計測速度が高速になるほどずれ量が大きくなる。
上記の特性を利用し、複数計測した点群が最も重なるように収束させた値をキャリブレーション値とする。
When comparing the data (three-dimensional points of the target) between the forward path and the return path, the following characteristics occur.
・ If the position, orientation, and measurement time of the laser scanner are calibrated perfectly, the same 3D point of the target will show the same position regardless of the measurement direction and speed.
• If the laser scanner is misaligned, the 3D point of the target will be shifted by the same distance whether it is near or far from the vehicle.
・ When the position of the laser scanner is collapsed, the 3D point of the target is less displaced near, but the displacement becomes larger as it is further away.
• If the laser scanner is misaligned, the 3D point of the target will shift in the same direction on the left and right of the vehicle.
・ When the posture of the laser scanner is broken, the 3D point of the target is shifted in the opposite direction on the left and right of the vehicle.
-When the measurement time of the laser scanner is shifted, the measurement speed of the three-dimensional point of the target cannot be reduced, but the shift amount increases as the measurement speed increases.
A value that is converged so that a plurality of measured point clouds overlap most using the above characteristics is set as a calibration value.
但し、レーザースキャナの場合、ヨー角の推定は同じ経路における往路と復路とでは推定できない。これはヨー角が誤っている場合、同じ方向に点群がずれるからである。ターゲットを挟んで同方向(逆方向でも可)に走行したデータを用いることによりヨー角の推定が可能となる(実施の形態2参照)。 However, in the case of a laser scanner, the yaw angle cannot be estimated on the forward path and the return path on the same path. This is because when the yaw angle is incorrect, the point cloud is shifted in the same direction. It is possible to estimate the yaw angle by using data traveling in the same direction (possible in the reverse direction) across the target (see Embodiment 2).
この手法は、レーザースキャナのキャリブレーションだけでなく、カメラのキャリブレーションにも同様に利用出来る。
基本的な考えは同じであり、近傍でも遠方でも同じ距離ずれているのであればX、Y、Zを修正し、近傍では一致しているが遠方ではずれを生じている場合は姿勢角を修正する。
This technique can be used not only for laser scanner calibration but also for camera calibration.
The basic idea is the same: X, Y, and Z are corrected if the distance is the same in both the vicinity and the distance, and the posture angle is corrected if the distance is the same but there is a shift in the distance. To do.
各パラメータ(位置、姿勢、時間)を修正するごとに三次元点群の再計算を実施し、より一致を見るか、逆にずれ量が増大したかを確認し、パラメータを追い込んでいく。一致度が十分になったところで完了とする。
個別にパラメータを変化させるとどのようにずれ量が変化するかを事前に調べておき、事前に調べた結果に基づいてパラメータを変化させるとパラメータの追い込みがより容易になる。
Every time each parameter (position, orientation, time) is corrected, the three-dimensional point group is recalculated, and it is checked whether it is more consistent or conversely the amount of deviation is increased, and the parameters are driven. Complete when the degree of coincidence is sufficient.
If the parameters are individually changed, how the shift amount changes is checked in advance, and if the parameters are changed based on the result of checking in advance, it becomes easier to drive the parameters.
この手法には、例えば、以下の効果がある。
・特別な施設と装置が必要なくキャリブレーションのための工数を大幅に縮小することができる。
・結果としての計測データがどの程度まで精度が出ているかキャリブレーション時に確認することができる。
・キャリブレーション方法が簡易であるために、場合によっては計測ごとにこのキャリブレーションを行い、個別の計測精度を向上させることができる。
・ソフト的な手法であるために専用ソフトを組むことによって自動キャリブレーションを行うことも可能である。
This technique has the following effects, for example.
-The number of calibration steps can be greatly reduced without the need for special facilities and equipment.
-To what extent the resulting measurement data is accurate can be confirmed during calibration.
Since the calibration method is simple, in some cases, this calibration is performed for each measurement, so that individual measurement accuracy can be improved.
-Since it is a software method, automatic calibration can be performed by building dedicated software.
100 計測車両、110 計測ユニット、111 前方用カメラ、112 路面用カメラ、113 GPS、114 上面用レーザースキャナ、115 下面用レーザースキャナ、116 IMU、117 配線中継BOX、190 ユニット記憶部、200 移動体自己位置計測装置、210 位置姿勢標定部、211 三次元点群生成部、212 三次元点群投影部、213 地物位置計測部、220 レーザースキャナ調整部、230 カメラ調整部、240 レーザー計測時刻調整部、280 取得データ記憶部、281 カメラ映像、282 GPSデータ、283 距離方位点群、284 角速度、290 計測データ記憶部、291 車両位置姿勢、292 三次元点群、293 地物位置、901 表示装置、902 キーボード、903 マウス、904 FDD、905 CDD、906 プリンタ装置、907 スキャナ装置、908 マイク、909 スピーカー、911 CPU、912 バス、913 ROM、914 RAM、915 通信ボード、920 磁気ディスク装置、921 OS、922 ウィンドウシステム、923 プログラム群、924 ファイル群。 DESCRIPTION OF SYMBOLS 100 Measuring vehicle, 110 Measuring unit, 111 Front camera, 112 Road surface camera, 113 GPS, 114 Upper surface laser scanner, 115 Lower surface laser scanner, 116 IMU, 117 Wiring relay BOX, 190 Unit memory | storage part, 200 Mobile body self Position measurement device, 210 Position and orientation determination unit, 211 3D point group generation unit, 212 3D point group projection unit, 213 Feature position measurement unit, 220 Laser scanner adjustment unit, 230 Camera adjustment unit, 240 Laser measurement time adjustment unit 280 acquisition data storage unit, 281 camera image, 282 GPS data, 283 distance azimuth point group, 284 angular velocity, 290 measurement data storage unit, 291 vehicle position and orientation, 292 three-dimensional point group, 293 feature position, 901 display device, 902 Keyboard, 903 904 FDD, 905 CDD, 906 printer device, 907 scanner device, 908 microphone, 909 speaker, 911 CPU, 912 bus, 913 ROM, 914 RAM, 915 communication board, 920 magnetic disk device, 921 OS, 922 window system, 923 programs, 924 files.
Claims (13)
前記レーザースキャナにより特定の地物を対象として第1の方向から計測された第1の距離方位に基づいて前記地物座標算出部により算出された第1の座標と、前記レーザースキャナにより前記特定の地物を対象として第2の方向から計測された第2の距離方位に基づいて前記地物座標算出部により算出された第2の座標との差をCPUを用いて算出し、算出した差に基づいて前記レーザー位置姿勢値に含まれる誤差をCPUを用いて特定するレーザー位置姿勢値誤差特定部と、
前記レーザー位置姿勢値誤差特定部により特定された誤差に基づいて前記レーザー位置姿勢値をCPUを用いて補正するレーザー位置姿勢値補正部と
を備えたことを特徴とする計測装置。 A distance azimuth indicating a distance from the specific body to the feature measured by the laser scanner attached to the specific body and an orientation from the specific body to the feature measured by the laser scanner; and A feature coordinate calculation unit that calculates the coordinates of the feature using a CPU (Central Processing Unit) based on a laser position and orientation value indicating the attachment position and the attachment orientation of the laser scanner;
First coordinates calculated by the feature coordinate calculation unit based on a first distance direction measured from a first direction for a specific feature by the laser scanner, and the specific feature by the laser scanner. Using the CPU, the difference from the second coordinate calculated by the feature coordinate calculation unit is calculated based on the second distance direction measured from the second direction for the feature, and the calculated difference A laser position / orientation value error identification unit that identifies an error included in the laser position / orientation value based on the CPU,
A measurement apparatus comprising: a laser position and orientation value correction unit that corrects the laser position and orientation value using a CPU based on an error specified by the laser position and orientation value error specifying unit.
ことを特徴とする請求項1記載の計測装置。 The laser position / orientation value error specifying unit uses a feature located far away from a plurality of features at different positions as the specific feature, and the laser scanner out of errors included in the laser position / orientation value The measuring apparatus according to claim 1, wherein an error included in the mounting posture is specified.
ことを特徴とする請求項1〜請求項2いずれかに記載の計測装置。 The laser position / orientation value error specifying unit has a roll opposite to the first direction as the second direction and represents a part of the mounting posture of the laser scanner among errors included in the laser position / orientation value. 3. The measuring apparatus according to claim 1, wherein at least one of an error included in a corner and an error included in a pitch angle representing a part of the mounting posture of the laser scanner is specified. .
ことを特徴とする請求項1〜請求項3いずれかに記載の計測装置。 The laser position / orientation value error specifying unit sets the laser position / orientation value with one of the directions from two locations sandwiching the specific feature as the first direction and the other as the second direction. 4. The measurement apparatus according to claim 1, wherein an error included in a yaw angle representing a part of the mounting posture of the laser scanner is specified among errors included in the laser scanner. 5.
ことを特徴とする請求項2〜請求項4いずれかに記載の計測装置。 The laser position and orientation value error specifying unit further includes a feature located in the vicinity among a plurality of features at different positions as the specific feature, and among the errors included in the laser position and orientation value, The measurement apparatus according to claim 2, wherein an error included in a mounting position of the laser scanner is specified.
ことを特徴とする請求項5記載の計測装置。 6. The laser position and orientation value error specifying unit specifies an error included in an attachment position of the laser scanner, with a direction opposite to the first direction as the second direction. Measuring device.
ことを特徴とする請求項1〜請求項6いずれかに記載の計測装置。 The laser position / posture value error specifying unit specifies an error included in the mounting posture of the laser scanner after specifying an error included in the mounting position of the laser scanner. The measuring device according to any one of the above.
前記計測装置は、さらに、
前記特定体が特定の速度で走行しているときに前記レーザースキャナにより第2の特定の地物を対象として計測された距離方位に基づいて前記地物座標算出部により算出された座標と、前記特定体が前記特定の速度より速い速度で走行しているときに前記レーザースキャナにより前記第2の特定の地物を対象として計測された距離方位に基づいて前記地物座標算出部により算出された座標との差をCPUを用いて算出し、算出した差に基づいて前記距離方位の計測時刻に含まれる誤差をCPUを用いて特定する計測時刻誤差特定部と、
前記計測時刻誤差特定部により特定された誤差に基づいて前記距離方位の計測時刻をCPUを用いて補正する計測時刻補正部とを備えた
ことを特徴とする請求項1〜請求項7いずれかに記載の計測装置。 The feature coordinate calculation unit calculates the coordinates of the feature based on the distance azimuth, the laser position and orientation value, and the measurement time of the distance azimuth,
The measuring device further includes:
The coordinates calculated by the feature coordinate calculation unit based on the distance direction measured for the second specific feature by the laser scanner when the specific body is traveling at a specific speed; and Calculated by the feature coordinate calculation unit based on the distance direction measured for the second specific feature by the laser scanner when the specific object is traveling at a speed faster than the specific speed. A measurement time error specifying unit that calculates a difference from the coordinates using a CPU and specifies an error included in the measurement time of the distance direction based on the calculated difference using the CPU;
8. A measurement time correction unit that corrects the measurement time of the distance direction using a CPU based on the error specified by the measurement time error specifying unit. The measuring device described.
前記地物座標算出部により算出される第3の特定の地物の座標に対応するレーザー点を、前記特定体に取り付けられたカメラの取り付け位置と前記カメラの取り付け姿勢とを示すカメラ位置姿勢値に基づいて、前記カメラにより前記第3の特定の地物を写した画像にCPUを用いて投影するレーザー点投影部と、
前記レーザー点投影部により前記画像に投影された前記レーザー点と、前記画像に写った前記第3の特定の地物とのずれ量をCPUを用いて特定し、特定したずれ量に基づいて前記カメラ位置姿勢値に含まれる誤差をCPUを用いて特定するカメラ位置姿勢値誤差特定部と、
前記カメラ位置姿勢値誤差特定部により特定された誤差に基づいて前記カメラ位置姿勢値をCPUを用いて補正するカメラ位置姿勢値補正部と
を備えたことを特徴とする請求項1〜請求項8いずれかに記載の計測装置。 The measuring device further includes:
A camera position / posture value indicating a mounting position of a camera attached to the specific body and a mounting posture of the camera, corresponding to the coordinates of the third specific feature calculated by the feature coordinate calculation unit. Based on the above, a laser point projecting unit that projects using a CPU onto an image obtained by copying the third specific feature by the camera;
A deviation amount between the laser point projected on the image by the laser point projection unit and the third specific feature reflected in the image is specified using a CPU, and the deviation amount is determined based on the specified deviation amount. A camera position / orientation value error identifying unit that identifies an error included in the camera position / orientation value using a CPU;
9. A camera position / orientation value correcting unit that corrects the camera position / orientation value using a CPU based on an error specified by the camera position / orientation value error specifying unit. The measuring device according to any one of the above.
ことを特徴とする請求項9記載の計測装置。 The camera position / orientation value error specifying unit uses a feature located far away from a plurality of features at different positions as the third specific feature, and includes an error included in the camera position / orientation value. The measuring apparatus according to claim 9, wherein an error included in the mounting posture of the camera is specified.
ことを特徴とする請求項9〜請求項10いずれかに記載の計測装置。 The camera position / orientation value error specifying unit sets a feature located in the vicinity among a plurality of features at different positions as the third specific feature, and includes an error included in the camera position / orientation value. The measurement apparatus according to claim 9, wherein an error included in a mounting position of the camera is specified.
レーザー位置姿勢値誤差特定部が、前記レーザースキャナにより特定の地物を対象として第1の方向から計測された第1の距離方位に基づいて前記地物座標算出部により算出された第1の座標と、前記レーザースキャナにより前記特定の地物を対象として第2の方向から計測された第2の距離方位に基づいて前記地物座標算出部により算出された第2の座標との差をCPUを用いて算出し、算出した差に基づいて前記レーザー位置姿勢値に含まれる誤差をCPUを用いて特定するレーザー位置姿勢値誤差特定処理を行い、
レーザー位置姿勢値補正部が、前記レーザー位置姿勢値誤差特定部により特定された誤差に基づいて前記レーザー位置姿勢値をCPUを用いて補正するレーザー位置姿勢値補正処理を行う
ことを特徴とする計測装置のレーザー位置姿勢値補正方法。 The feature coordinate calculation unit indicates a distance from the specific body to the feature measured by the laser scanner attached to the specific body and a direction from the specific body to the feature measured by the laser scanner. Feature coordinate calculation processing for calculating the coordinates of the feature using a CPU (Central Processing Unit) based on the orientation, the laser position and orientation value indicating the attachment position of the laser scanner and the attachment orientation of the laser scanner And
The first coordinate calculated by the feature coordinate calculation unit based on the first distance direction measured from the first direction for the specific feature by the laser scanner. And a difference between the second coordinate calculated by the feature coordinate calculation unit based on a second distance direction measured from the second direction with respect to the specific feature by the laser scanner. Performing a laser position and orientation value error specifying process for specifying an error included in the laser position and orientation value based on the calculated difference using a CPU,
The laser position and orientation value correction unit performs a laser position and orientation value correction process for correcting the laser position and orientation value using a CPU based on the error specified by the laser position and orientation value error specifying unit. Laser position and orientation value correction method for the device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009019043A JP5361421B2 (en) | 2009-01-30 | 2009-01-30 | Measuring device, laser position / orientation value correction method and laser position / orientation value correction program for measuring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009019043A JP5361421B2 (en) | 2009-01-30 | 2009-01-30 | Measuring device, laser position / orientation value correction method and laser position / orientation value correction program for measuring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010175423A JP2010175423A (en) | 2010-08-12 |
JP5361421B2 true JP5361421B2 (en) | 2013-12-04 |
Family
ID=42706540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009019043A Active JP5361421B2 (en) | 2009-01-30 | 2009-01-30 | Measuring device, laser position / orientation value correction method and laser position / orientation value correction program for measuring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5361421B2 (en) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5910180B2 (en) * | 2012-03-06 | 2016-04-27 | 日産自動車株式会社 | Moving object position and orientation estimation apparatus and method |
JP6044084B2 (en) * | 2012-03-08 | 2016-12-14 | 日産自動車株式会社 | Moving object position and orientation estimation apparatus and method |
WO2013140603A1 (en) * | 2012-03-23 | 2013-09-26 | 三菱電機株式会社 | Wiring box and cover pole unit |
WO2013145072A1 (en) * | 2012-03-26 | 2013-10-03 | 三菱電機株式会社 | Camera calibration method, camera calibration program and camera calibration device |
JP5775965B2 (en) * | 2012-03-30 | 2015-09-09 | 株式会社日立製作所 | Stereo camera system and moving body |
JP6221607B2 (en) * | 2013-10-08 | 2017-11-01 | 株式会社デンソー | Object detection device |
JP6442193B2 (en) * | 2014-08-26 | 2018-12-19 | 株式会社トプコン | Point cloud position data processing device, point cloud position data processing system, point cloud position data processing method and program |
KR101738433B1 (en) * | 2015-04-15 | 2017-05-24 | (주)컨트릭스랩 | Mobile 3D scanner having a handshake correction and method thereof |
JP6062020B2 (en) * | 2015-11-18 | 2017-01-18 | 三菱電機株式会社 | Designated point projection method, program and computer |
US11567201B2 (en) | 2016-03-11 | 2023-01-31 | Kaarta, Inc. | Laser scanner with real-time, online ego-motion estimation |
US10989542B2 (en) | 2016-03-11 | 2021-04-27 | Kaarta, Inc. | Aligning measured signal data with slam localization data and uses thereof |
US11573325B2 (en) | 2016-03-11 | 2023-02-07 | Kaarta, Inc. | Systems and methods for improvements in scanning and mapping |
JP6987797B2 (en) * | 2016-03-11 | 2022-01-05 | カールタ インコーポレイテッド | Laser scanner with real-time online egomotion estimation |
JP7258554B2 (en) * | 2016-03-21 | 2023-04-17 | ベロダイン ライダー ユーエスエー,インコーポレイテッド | Three-dimensional imaging based on LIDAR with variable irradiation field density |
JP2018025490A (en) * | 2016-08-10 | 2018-02-15 | 株式会社デンソー | Position estimation device |
JP6493988B2 (en) * | 2016-11-07 | 2019-04-03 | 株式会社amuse oneself | Error correction apparatus and error correction program in laser survey using a moving object |
EP3324210B1 (en) * | 2016-11-18 | 2020-07-29 | Outsight | Self-calibrating sensor system for a wheeled vehicle |
JP6305501B2 (en) * | 2016-12-13 | 2018-04-04 | 三菱電機株式会社 | Calibration method, program, and computer |
WO2019099605A1 (en) | 2017-11-17 | 2019-05-23 | Kaarta, Inc. | Methods and systems for geo-referencing mapping systems |
WO2019165194A1 (en) | 2018-02-23 | 2019-08-29 | Kaarta, Inc. | Methods and systems for processing and colorizing point clouds and meshes |
WO2019195270A1 (en) | 2018-04-03 | 2019-10-10 | Kaarta, Inc. | Methods and systems for real or near real-time point cloud map data confidence evaluation |
WO2020009826A1 (en) | 2018-07-05 | 2020-01-09 | Kaarta, Inc. | Methods and systems for auto-leveling of point clouds and 3d models |
US10841483B1 (en) * | 2019-07-11 | 2020-11-17 | Denso International America, Inc. | System and method for calibrating at least one camera and a light detection and ranging sensor |
CN112907676B (en) * | 2019-11-19 | 2022-05-10 | 浙江商汤科技开发有限公司 | Calibration method, device and system of sensor, vehicle, equipment and storage medium |
JPWO2021130878A1 (en) * | 2019-12-25 | 2021-07-01 | ||
JP2021105602A (en) * | 2019-12-27 | 2021-07-26 | パイオニア株式会社 | Lidar device |
CN112731320B (en) * | 2020-12-29 | 2024-06-21 | 福瑞泰克智能系统有限公司 | Estimation method, device, equipment and storage medium of vehicle-mounted radar error data |
CN112802341B (en) * | 2020-12-30 | 2022-07-01 | 中山联合汽车技术有限公司 | Method for measuring position and attitude of front vehicle |
WO2022244069A1 (en) * | 2021-05-17 | 2022-11-24 | 日本電気株式会社 | Imaging condition determination method, imaging condition determination system, imaging condition determination device and computer-readable medium |
WO2024101175A1 (en) * | 2022-11-11 | 2024-05-16 | ヌヴォトンテクノロジージャパン株式会社 | Information processing method, information processing device, and program |
CN116182818B (en) * | 2023-05-05 | 2023-08-25 | 中航西飞民用飞机有限责任公司 | Space pose measurement method and system for hoisting aero-engine |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4486737B2 (en) * | 2000-07-14 | 2010-06-23 | アジア航測株式会社 | Spatial information generation device for mobile mapping |
JP3856740B2 (en) * | 2002-07-29 | 2006-12-13 | 日立ソフトウエアエンジニアリング株式会社 | Ground control point measuring device |
JP4767578B2 (en) * | 2005-02-14 | 2011-09-07 | 株式会社岩根研究所 | High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device |
JP4882428B2 (en) * | 2006-03-06 | 2012-02-22 | 株式会社豊田中央研究所 | Environment recognition device |
EP3112802B1 (en) * | 2007-02-16 | 2019-10-09 | Mitsubishi Electric Corporation | Road feature measurement apparatus and road feature measuring method |
JP2009014481A (en) * | 2007-07-04 | 2009-01-22 | Ihi Corp | Distance measuring device and its calibration method |
JP2009168472A (en) * | 2008-01-10 | 2009-07-30 | Zenrin Co Ltd | Calibration device and calibration method of laser scanner |
-
2009
- 2009-01-30 JP JP2009019043A patent/JP5361421B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010175423A (en) | 2010-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5361421B2 (en) | Measuring device, laser position / orientation value correction method and laser position / orientation value correction program for measuring device | |
US10509983B2 (en) | Operating device, operating system, operating method, and program therefor | |
Rose et al. | An integrated vehicle navigation system utilizing lane-detection and lateral position estimation systems in difficult environments for GPS | |
US11544860B2 (en) | Combined point cloud generation using a stationary laser scanner and a mobile scanner | |
US11307031B2 (en) | Surveying device, and calibration checking method and calibration checking program for surveying device | |
JP5844454B2 (en) | Camera calibration method, camera calibration program, and camera calibration apparatus | |
JP2016060610A (en) | Elevator hoistway internal dimension measuring device, elevator hoistway internal dimension measuring controller, and elevator hoistway internal dimension measuring method | |
US11486988B2 (en) | Method for calibrating the alignment of a moving object sensor | |
JP2001331787A (en) | Road shape estimating device | |
US20210245777A1 (en) | Map generation device, map generation system, map generation method, and storage medium | |
WO2017199333A1 (en) | Information output device, terminal device, control method, program, and storage medium | |
JP2008249555A (en) | Position-specifying device, position-specifying method, and position-specifying program | |
KR20220024791A (en) | Method and apparatus for determining the trajectory of a vehicle | |
JP2017026487A (en) | Shape measurement device, shape measurement system and shape measurement method | |
JP2017097402A (en) | Surrounding map preparation method, self-location estimation method and self-location estimation device | |
JP6801269B2 (en) | Autonomous mobile device | |
JP2017524932A (en) | Video-assisted landing guidance system and method | |
JP2010249709A (en) | Cross section measuring device, cross section measuring method, and cross section measuring program | |
JP5814620B2 (en) | POSITION CORRECTION DATA GENERATION DEVICE, POSITION LOCATION DEVICE, POSITION CORRECTION DATA GENERATION DEVICE POSITION CORRECTION DATA GENERATION METHOD, POSITION POSITION DEVICE POSITION POSITIONING METHOD, POSITION CORRECTION DATA GENERATION PROGRAM, AND POSITION POSITION PROGRAM | |
JP2011112556A (en) | Search target position locating device, method, and computer program | |
JP2013092820A (en) | Distance estimation apparatus | |
KR20210010309A (en) | Apparatus and method for generating three dimensional map using aerial images | |
JP6305501B2 (en) | Calibration method, program, and computer | |
CN117233784A (en) | Underwater robot tunnel positioning method, system, computer equipment and storage medium | |
JP2019138751A (en) | Map complementing device and map complementing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111014 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130801 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5361421 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |