JP6442193B2 - 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法およびプログラム - Google Patents

点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法およびプログラム Download PDF

Info

Publication number
JP6442193B2
JP6442193B2 JP2014171332A JP2014171332A JP6442193B2 JP 6442193 B2 JP6442193 B2 JP 6442193B2 JP 2014171332 A JP2014171332 A JP 2014171332A JP 2014171332 A JP2014171332 A JP 2014171332A JP 6442193 B2 JP6442193 B2 JP 6442193B2
Authority
JP
Japan
Prior art keywords
position data
point cloud
cloud position
laser scanner
laser
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014171332A
Other languages
English (en)
Other versions
JP2016045150A (ja
Inventor
陽 佐々木
陽 佐々木
忠之 伊藤
忠之 伊藤
小川 和博
和博 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2014171332A priority Critical patent/JP6442193B2/ja
Priority to EP15181723.6A priority patent/EP2990828B1/en
Priority to US14/834,657 priority patent/US9659378B2/en
Publication of JP2016045150A publication Critical patent/JP2016045150A/ja
Application granted granted Critical
Publication of JP6442193B2 publication Critical patent/JP6442193B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、レーザスキャナのキャリブレーションを行う技術に関する。
レーザスキャナは、測定対象物にレーザ光を照射し、その反射光に基づいて点群位置データを取得する。点群位置データは、点状に取得した測定点の三次元座標のデータを含んでおり、点群位置データに基づいて測定対象物の三次元モデル(例えば、三次元CADデータ)を得ることができる。例えば、IMU(慣性計測装置:Inertial Measurement Unit)とレーザスキャナを搭載した車両を走行させ、その際にIMUで車両の位置・姿勢を計測しながら、レーザスキャナにより周囲の点群位置データを取得することで、走行経路周辺の三次元モデルを得ることができる(例えば、特許文献1を参照)。
特開2013−40886号公報
上記の技術においては、IMUに対するレーザスキャナの位置および姿勢(向き)に関する情報(外部標定要素)が予め既知であることが必要である。一般に、IMUとレーザスキャナが一体となった計測システムが製造され、製品として出荷する時にレーザスキャナの外部標定要素を求めるキャリブレーションが行われている。そして、レーザスキャナのキャリブレーションが行われた状態の上記計測システムが車両に搭載される。
しかしながら、ユーザ側の要望として、上記の計測システムの車両への取り付け時に、レーザスキャナをユーザが希望する位置や姿勢で取り付けたい場合がある。また、車両が当該計測システムの製造側が想定していない車種や構造の場合、レーザスキャナの位置や姿勢を当該車両に合わせて変更する必要が生じる。
このような場合、車両にレーザスキャナを搭載した状態で当該レーザスキャナのキャリブレーションを行う必要がある。しかしながら、キャリブレーションには、煩雑な手順が必要であり、より簡便な方法でキャリブレーションが行える技術が求められる。このような背景において、本発明は、レーザスキャナのキャリブレーションを効率よく行える技術の提供を目的とする。
請求項1に記載の発明は、地上座標系に固定されたレーザスキャナにより計測された測定対象物の点群位置データである基準点群位置データの取得を行う基準点群位置データ取得手段と、移動体に固定されたキャリブレーション対象レーザスキャナを用い、前記移動体を移動させながら前記測定対象物のレーザスキャンを行うことで得た比較用レーザスキャンデータの取得を行う比較用レーザスキャンデータ取得手段と、地上座標系に固定されたトータルステーションにより計測された前記キャリブレーション対象レーザスキャナの前記移動時における軌跡に基づき、前記比較用レーザスキャンデータを前記基準点群位置データの座標系で捉えた比較用点群位置データを算出する比較用点群位置データ算出手段と、前記基準点群位置データと前記比較用点群位置データの対応関係に基づき、前記キャリブレーション対象レーザスキャナの外部標定要素を算出する外部標定要素算出手段とを有することを特徴とする点群位置データ処理システムである。
請求項2に記載の発明は、地上座標系に固定されたレーザスキャナにより計測された測定対象物の点群位置データである基準点群位置データの取得を行うステップと、移動体に固定されたキャリブレーション対象レーザスキャナを用い、前記移動体を移動させながら前記測定対象物のレーザスキャンを行うことで得た比較用レーザスキャンデータの取得を行うステップと、地上座標系に固定されたトータルステーションにより計測された前記キャリブレーション対象レーザスキャナの前記移動時における軌跡に基づき、前記比較用レーザスキャンデータを前記基準点群位置データの座標系で捉えた比較用点群位置データを算出するステップと、前記基準点群位置データと前記比較用点群位置データの対応関係に基づき、前記キャリブレーション対象レーザスキャナの外部標定要素を算出するステップとを有することを特徴とする点群位置データ処理方法である。
請求項3に記載の発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータを地上座標系に固定されたレーザスキャナにより計測された測定対象物の点群位置データである基準点群位置データの取得を行う基準点群位置データ取得手段と、 移動体に固定されたキャリブレーション対象レーザスキャナを用い、前記移動体を移動させながら前記測定対象物のレーザスキャンを行うことで得た比較用レーザスキャンデータの取得を行う比較用レーザスキャンデータ取得手段と、地上座標系に固定されたトータルステーションにより計測された前記キャリブレーション対象レーザスキャナの前記移動時における軌跡に基づき、前記比較用レーザスキャンデータを前記基準点群位置データの座標系で捉えた比較用点群位置データを算出する比較用点群位置データ算出手段と、前記基準点群位置データと前記比較用点群位置データの対応関係に基づき、前記キャリブレーション対象レーザスキャナの外部標定要素を算出する外部標定要素算出手段として動作させることを特徴とするプログラムである。
本発明によれば、レーザスキャナのキャリブレーションを効率よく行うことができる。
実施形態の概念図である。 演算部のブロック図である。 移動しながら取得したスキャンデータ間の座標系の関係を示す関係図である。 外部標定要素を求める処理の一例を示すフローチャートである。 実施形態における処理の一例を示すフローチャートである。
(構成)
図1には、キャリブレーションが行われる現場の状態が概念的に示されている。本実施形態では、車両100に取り付けたレーザスキャナ115の外部標定要素を求める。ここでは、レーザスキャナ115の外部標定要素としてIMUユニット114に対する位置と姿勢を用いる。なお、レーザスキャナ115の外部標定要素として、計測システム110に対する位置と姿勢、あるいは車両100に対する位置と姿勢を用いることもできる。
車両100には、計測システム110が取り付けられている。計測システム110は、基台上にGNSSユニット111、全周カメラ112、固定指向カメラ113、IMUユニット114、および演算部120を配置した構造を有している。
GNSSユニット111は、GPS衛星等の航法衛星からの航法信号を受信し、自身の位置情報と校正された高精度の時刻情報(航法衛星から提供される測定の基準となる時刻の情報)を出力する。全周カメラ112は、周囲360°を動画撮影する。固定指向カメラ113は、特定の方向に向けられ、その方向の動画撮影を行う。IMUユニット114は、慣性計測装置であり、加速度を検出し、自身の位置の変化、向きの変化を計測する。
全周カメラ112、固定指向カメラ113、IMUユニット114、および演算部120には、GNSSユニット111から同期信号が提供され、各装置は同期して動作する。なお、同期信号を発生する発振器を用意し、この発振器からの信号を基準同期信号として用いることもできる。また、IMUユニット114は、予め地上座標系上で校正されている。地上座標系というのは、地上に固定された絶対座標系であり、GNSSにより測位される地上での位置を記述する3次元直交座標系である。また、IMUユニット114は、GNSSユニット111から得られる位置情報と時刻情報に基づき特定のタイミングで校正される。
計測システム110の車両100に対する位置と姿勢、計測システム110上におけるIMUユニット114の位置と姿勢、IMUユニット114に対するGNSSユニット111の位置(アンテナ部分の位置)、IMUユニット114に対する全周カメラ112および固定指向カメラ113の位置と姿勢は予め測定され、その情報は演算部120内のメモリに記憶されている。
車両100の前部には、キャリブレーション対象レーザスキャナであるレーザスキャナ115が固定されている。レーザスキャナ115は、レーザ光を線状に走査しながら測定対象物に対して照射し、その反射光を検出することで、測定対象物の点群位置データを取得する。車両100を走行させながらレーザスキャナ115によるレーザスキャンを行うことで、レーザスキャナ115が向けられている方向における点群位置データが取得される。点群位置データは、多数の点の三次元座標のデータにより構成される。点群位置データによれば、三次元座標を特定した点の集合により測定対象物の外形がデータ化される。
レーザスキャナ115は、ユーザにより車両の希望する位置に希望する向き(姿勢)で取り付けられている。このため、車両に取り付けられた段階におけるレーザスキャナ115の外部標定要素は明確でない。
演算部120は、コンピュータとして機能するハードウェアであり、CPU、メモリ、各種インタフェース、その他必要な電子回路を備えている。演算部120は、図2に示す各機能部を備えたハードウェアとして捉えることができる。なお、図2に示す各機能部は、ソフトウェア的に構成されていてもよいし、その一または複数が専用のハードウェアで構成されていてもよい。また、演算部120の機能、および各機能部の機能を実行するためのプログラムは、演算部120内のメモリに記憶されている。なお、当該プログラムを外部の記憶媒体に記憶させ、そこから提供する形態も可能である。
演算部120は、データ受付部121、軌跡算出部122、比較用点群位置データ算出部123、および外部標定要素算出部124を備えている。データ受付部121は、図1のレーザスキャナ115が測定したレーザスキャンデータ、基準レーザスキャナ141が測定した基準点群位置データ、トータルステーション142が測定した車両100の軌跡(走行経路)に係るデータ、その他演算部120で取り扱うデータを外部から受け付ける。データ受付部121におけるデータの受け付けは、無線通信や有線通信を用いて行われる。
基準レーザスキャナ141は、外部標定要素を得た状態でキャリブレーション用コース130周辺の測定対象物(例えば、ビル131)の点群位置データを基準点群位置データとして取得する。ここで、基準点群位置データを得るためのスキャン範囲は、キャリブレーションを行うレーザスキャナ115のスキャン範囲と重複するように設定される。例えば、基準点群位置データとして、キャリブレーションコース130の脇に建築されたビル131の点群位置データが取得される。基準点群位置データは、適当な位置を原点とする3次元直交座標系において記述されている。ここでは、基準点群位置データの座標系として、地上座標系を用いる。
トータルステーション142は、地上座標系上での外部標定要素を得た状態でキャリブレーション用コース130を走行する車両100の軌跡を測定する。トータルステーション142は、測定対象物にレーザ光を照射し、その反射光を検出することで、自身から測定対象物までの距離と方位を測定する。トータルステーションの外部標定要素を予め取得した状態で上記の測定を行うことで、測定対象物の位置を測定できる。また、この位置の測定を刻々と行うことで、移動する測定対象物の地上座標系上での軌跡を測定することができる。トータルステーション142には、GNSSユニット143から航法衛星より得た同期信号が入力され、トータルステーション142は、車両100の側で用いられる時刻と同期して動作する。なお、車両100の位置として、IMUユニット114の位置が採用される。
軌跡算出部122は、車両100が走行した地上座標系上における軌跡を算出する。車両100の軌跡の算出は、車両側の機器と同期して動作するトータルステーション142から得た車両100の位置情報に基づいて行われる。すなわち、トータルステーション142からは、各時刻における車両100の位置のデータが得られるが、この位置のデータを追跡することで、車両100の軌跡が得られる。この処理が軌跡算出部122において行われる。
軌跡算出部122で行われる処理としては、IMUユニット114およびGNSSユニット111の出力と外部の機器の出力とに基づいて車両100の軌跡を算出する処理も可能である。この場合、外部の機器の出力を軌跡算出部122に取り込み、この取り込んだ情報とIMU情報やGNSS情報を統合的に処理することで、車両100の軌跡が算出される。
また、移動する車両から撮影した動画像から、当該車両の移動経路(軌跡)を求める処理を軌跡算出部122において行ってもよい。この技術に関しては、例えば特開2013−186816号公報に記載されている。この場合、全周カメラ112や固定指向カメラ113が撮影した画像を用いて車両100の刻々と変化する位置(すなわち、車両100の軌跡)を算出する処理が軌跡算出部122において行われる。
車両の軌跡は、基準点群位置データを記述する地上座標系で記述される。例えば、トータルステーション142を用いて車両100の軌跡を測定した場合、トータルステーション142の外部標定要素は取得されているので、車両100の軌跡を基準点群位置データと同じ地上座標系で記述することができる。
また、IMUユニット114を用いて車両100の軌跡を求めた場合も、IMUユニット114は、地上座標系上で校正されているので、車両100の軌跡を基準点群位置データと同じ地上座標系で記述することができる。
また、全周カメラ112や固定指向カメラ113が撮影した画像を用いて車両100の軌跡を算出する場合も、その初期値が地上座標系において校正されていれば、車両100の軌跡を基準点群位置データと同じ地上座標系で記述することができる。
比較用点群位置データ算出部123は、レーザスキャナ115が取得した比較用レーザスキャンデータに基づき比較用点群位置データを算出する。比較用レーザスキャンデータというのは、レーザスキャナ115のキャリブレーション(外部標定要素を求める処理)のために行われるレーザスキャンのデータことである。比較用レーザスキャンデータは、車両100をキャリブレーション用コース130で走行させつつ取得される。よって、レーザスキャナ115から得られるスキャンデータのそれぞれは、原点(視点)が異なり、当該スキャンデータは、同一の座標系で記述されていない。
ところで、キャリブレーション用コース130における車両100の軌跡は、軌跡算出部122により算出されるので、上述したレーザスキャナ115のスキャンデータそれぞれの原点(視点)の位置と姿勢の相互関係は計算できる。よって、車両100の軌跡のデータに基づき、比較用レーザスキャンデータそれぞれを特定の座標系で記述し直すことで比較用点群位置データを得ることができる。この処理が比較用点群位置データ算出部123において行われる。
例えば、キャリブレーション用コース130において車両100を走行させ、その際にレーザスキャナ115によりビル131のレーザスキャンを行い、ビル131に係るスキャンデータを得る。このスキャンデータが比較用レーザスキャンデータとなる。そして、このビル131に係る比較用レーザスキャンデータに基づき、基準点群位置データと同じ座標系(地上座標系)で記述したビル131の点群位置データを比較用点群位置データとして得る。
以下、比較用点群位置データ算出部123において行われる処理について説明する。比較用レーザスキャンデータは、移動しながらのレーザスキャンによって取得される。そのため、レーザスキャナ115が得た比較用レーザスキャンデータの原点(視点)は、刻々と移動している。図3には、比較用レーザスキャンデータPとPが位置関係を誇張した状態で示されている。図3には、まず点Pのスキャン点が取得され、その後でPのスキャン点が取得され、その際にレーザスキャナ115はOからOに移動した場合が示されている。
図3に示すように、比較用レーザスキャンデータでは、位置Oにおいて得たスキャン点P、位置Oにおいて得たスキャン点Pといった関係がある。ここで、OとOは異なる位置であるので、2つのスキャン点を記述する座標系1と座標系2は、同じではない。
そこで、以下の原理により、PとPの座標系を統合する。まず、比較用スキャンデータを得る過程における車両100の地上座標系上における軌跡を取得する。車両100の地上座標系上における軌跡は、例えば、外部標定要素が既知であるトータルステーション142に車両を自動追尾させることで得られる。車両100の軌跡から、各時刻における車両100の位置と向き(姿勢)が判明する。
他方において、レーザスキャナ115には、基準となる時刻がGNSSユニット111から供給されているので、比較用レーザスキャンデータでは、各スキャン点とそのスキャン点が得られた時刻とは関連付けされている。例えば、図3の場合でいうと、点Pの座標データと点Pが得られた時刻とが関連付けされたものが比較用レーザスキャンデータには含まれている。
車両100は、点Oと点Oを通過しており、またトータルステーション142にはGNSSユニット143から基準となる時刻が供給されているので、時刻を手掛かりに車両100の軌跡のデータから図3の座標系1と座標系2の相対的な関係(位置の関係と向きの関係)が判る。すなわち、時刻tにおけるOの位置および座標系1の向きと、時刻tにおけるOの位置および座標系2の向きとの関係が車両100の軌跡から判る。
ここで、各時刻における車両の位置と向きは、上述した車両100の軌跡から判るから、レーザスキャナ115の外部標定要素の補正量(推定される誤差量)を設定することで、誤差(キャリブレーション誤差)を含んだ形ではあるが、座標系1と座標系2を地上座標系に変換し、PとPを地上座標系上で記述することができる。こうして、PとPの座標系を統合し、PおよびPの座標を地上座標系上で記述することができる。
上記は、比較用レーザスキャンデータが、PとPの2つの場合であるが、さらにP,P,P・・・と比較用レーザスキャンデータが増えていった場合も車両100の軌跡から各スキャンデータ取得時の車両100の位置と姿勢が判るので、各スキャンデータを地上座標系上で記述することができる。こうして、比較用レーザスキャンデータを地上座標系上で記述した比較用点群位置データが得られる。なお、上述したように、レーザスキャナ115の外部標定要素(IMUユニット114に対する位置と姿勢)は未知であるので、比較用点群位置データでは、その分の誤差が含まれている。
以下、比較用点群位置データの具体的な一例を示す。数1には、地上座標系で記述したi番目の比較用点群位置データPmms(i)が示されている。この場合、下記数1の処理が比較用点群位置データ算出部123において行われる。
Figure 0006442193
レーザスキャナ115の座標系の一例として、図3の座標系1や座標系2が挙げられる。
外部標定要素算出部124は、基準点群位置データと比較用点群位置データとの対応関係を調べ、この対応関係が特定の条件を満たす条件に基づきレーザスキャナ115の外部標定要素(IMUユニット114に対する位置と姿勢)を算出する。
以下、外部標定要素算出部124で行われる処理ついて説明する。この例では、基準点群位置データのスキャン範囲と比較用点群位置データのスキャン範囲とが重複するようにスキャンが行われる。例えば、基準点群位置データのスキャン範囲と比較用点群位置データのスキャン範囲とにビル131が含まれるようにスキャンが行われる。
ここで、未知なのは、レーザスキャナ115の外部標定要素、すなわちIMUユニット114に対するレーザスキャナ115の位置と姿勢である。しかしながら、数1に示すように、誤差を含む形で外部標定要素を仮設定できる。
この仮設定値の真値からの誤差が大きければ、基準点群位置データと比較用点群位置データとのマッチングの誤差は大きく、この仮設定値が真値に近づけば、基準点群位置データと比較用点群位置データとのマッチングの誤差は小さくなる。逆にいうと、基準点群位置データと比較用点群位置データとのマッチングの誤差が小さくなると、レーザスキャナ115の外部標定要素の仮設定値は、真値に近くなる。
ここでは、レーザスキャナ115の外部標定要素を未知パラメータとし、この未知パラメータを動かして収束条件を探索する。収束条件としては、未知パラメータが収束した状態、マッチング誤差が最少となる状態、マッチング誤差が閾値以下となる状態、これら状態の複数の組み合わせが挙げられる。
例えば、基準点群位置データと比較用点群位置データとのマッチングの誤差が大きいと、未知パラメータであるレーザスキャナ115の外部標定要素の仮設定値はなかなか収束しない。他方において、未知パラメータが収束し特定の値として安定した状態では、基準点群位置データと比較用点群位置データとのマッチングの誤差が小さく、未知パラメータが真値に近くなる。このことを利用して、収束した段階の外部標定要素を真値として採用することができる。
以下、具体例を説明する。図4には、外部標定要素算出部124で行われる処理の一例が示されている。処理が開始されると、基準レーザスキャナ141が測定したn点の基準点群位置データであるPstatic(1...n)を取得する(ステップS401)。
次に、レーザスキャナ115が取得した比較用レーザスキャンデータに基づき、それを地上座標系で記述した数1で示されるm点の比較用点群位置データPmms(i)を取得する(ステップS402)。
次に、後述する観測方程式に各点の観測値が収納されたか否か、が判定され(ステップS403)、観測方程式に各点の観測値が収納されていれば、ステップS407に進み、そうでなければステップS404に進む。
ステップS404では、基準点群位置データと比較用点群位置データとのマッチング誤差を評価する観測方程式を取得する。以下、観測方程式について説明する。
まず、基準点群位置データの点(Pstatic(j))の最近傍ある比較用点群位置データの点をPmms(i)(数1から算出)とすると、マッチング誤差ΔPは、下記数2で示される。
Figure 0006442193
ここで、ΔPは、点同士(point-to-point)あるいはPstatic(j)の法線ベクトルに沿った残差(point-to-plane)として算出する。
この段階で未知なのは、レーザスキャナ115の外部標定要素(IMUユニット114に対する位置と姿勢)である。そこで、未知パラメータとして、Posscanner,Attscannerの初期値からの補正量をδPosscanner,δAttscannerとすると、下記数3が成立する。数3において、[]Tは転置、Jはヤコビ行列である。
Figure 0006442193
ここで、Posscanner,Attscannerの初期値は、車両100上のレーザスキャナ115が取り付けられた大凡の位置と姿勢に基づいて設定される。この初期値の設定方法としては、ユーザが入力する方法、複数用意された大凡の値の組の中の一つをユーザが選択する方法、別のカメラ等でレーザスキャナ115を撮影し、画像解析により大凡の値を推定する方法等が挙げられる。この初期値は、誤差を含んでいてよいので、大凡の値であってよい。
ここで、b=ΔP、A=J、x=[δPosscanner,δAttscanner]Tとすると、下記数4が得られる。
Figure 0006442193
数4が基準点群位置データと比較用点群位置データとのマッチング誤差を評価する観測方程式となる(ステップS404)。
数4の観測方程式を立てたら、この観測方程式に観測値を格納する(ステップS405,ステップS406)。
各点の観測値が数4の観測方程式に格納されると、ステップS403からステップS407に進む。ステップS407では、下記の手順により正規方程式(後述の数6)を得る。まず、数4にAの転置行列ATを左から掛けて数5を得る。
Figure 0006442193
数5にATAの逆行列(ATA)-1を左から掛けて数6(正規方程式)を得る。
Figure 0006442193
数6から、初期値からの補正量であるδPosscanner,δAttscannerの最小二乗解が得られる(ステップS408)。
そして、収束条件が満たされていれば処理を終了し、収束条件が満たされていなければ、ステップS410に進む。収束条件としては、マッチング誤差ΔPが予め定めた閾値以下となった段階やマッチング誤差ΔPがそれ以上小さくならなくなった段階(最小となった段階)が挙げられる。また、補正量が特定の値に収束した段階を収束条件として採用することもできる。
ステップS410では、ステップS408で得られたδPosscannerとδAttscannerを新たな補正量として初期値であるPosscannerとAttscannerに加味し、その値を用いて再び比較用点群位置データPmms(1...m)を生成する(ステップS402)。そして、再度ステップS403以下の処理が実行される。
すなわち、ステップS410からステップS402以下の処理では、δPosscannerとδAttscannerを修正することで、比較用点群位置データ(Pmms(1...m))を修正し、再度の基準点群位置データ(Pstatic(1...n))とのマッチングを探索する処理が行われる。この処理のループを収束条件が満たされるまで行うことで、より真値に近い補正量(δPosscanner,δAttscanner))を得ることができる。
Posscanner,Attscannerの初期値からの補正量δPosscanner,δAttscannerが求められることで、レーザスキャナ115の外部標定要素、すなわちIMUユニット114に対するレーザスキャナ115の位置と姿勢が求められる。こうして、未知であった車両100におけるレーザスキャナ115の外部標定要素が得られる。
なお、未知パラメータは上記の例えに限らない。Posscanner,Attscannerも未知パラメータに含めてもかまわないし、スキャナ固有のキャリブレーション誤差(軸の倒れや測距誤差など)を含めて解くことも可能である。
図示省略されているが、演算部120は、GNSSユニット111、全周カメラ112、固定指向カメラ113、IMUユニット114、レーザスキャナ115が得た情報を統合的に処理し、車両100が走行した周囲環境の3次元データを得る機能を有している。この3次元データを用いることで、車両100が走行した環境の3次元モデルを作成することができる。
(処理の一例)
以下、レーザスキャナ115の外部標定要素を求める処理の一例について説明する。図5は、処理の概要を示すフローチャートである。まず、計測システム110およびレーザスキャナ115を取り付けた車両100を用意する。この段階において、計測システム110上のGNSSユニット111の位置、全周カメラ112と固定指向カメラ113の外部標定要素、およびIMUユニット114の位置と姿勢は、調べられており、既知となっている。また、レーザスキャナ115は、車両100上のユーザが希望する位置に取り付けられており、その大凡の位置と姿勢は既知であるが、正確な外部標定要素(IMUユニット114に対する位置と姿勢)は判っていない。
車両100を用意したら、キャリブレーション用コース130を設定する(ステップS101)。キャリブレーション用コース130としては、直線状のコースであり、周辺に点群位置データの対象となり易いビル131などの構造物が存在している場所が選択される。
キャリブレーション用コース130を設定したら、固定型の基準レーザスキャナ141をキャリブレーション用コース130の近くに設置し、その外部標定用要素を取得する。そして、基準レーザスキャナ141を用いてキャリブレーション用コース130周辺の点群位置データを基準点群位置データとして取得する(ステップS102)。この例において、基準レーザスキャナ141は、ビル131に対してレーザスキャンを行いビル131の点群位置データを基準点群位置データとして取得する。
次に、キャリブレーション用コース101において車両100を走行させる。その際、搭載したレーザスキャナ115によるレーザスキャニングを行い、比較用レーザスキャンデータを得る(ステップS103)。このレーザスキャニングは、基準点群位置データとスキャン範囲が重なるように行う。この例では、車両100を走行させた状態でレーザスキャナ115によってビル131のレーザスキャニングを行い、ビル131を測定対象とした比較用レーザスキャンデータを得る。
また、ステップS103におけるキャリブレーション用コース130における車両100の走行時の軌跡をトータルステーション142によって測定する(ステップS104)。この車両100の軌跡の取得は、IMUユニット120を用いた方法等、他の手法によって行ってもよい。
次に、ステップS104において得た車両100のキャリブレーション用コース130における軌跡と、車両100がキャリブレーション用コース130を走行中にレーザスキャナ115が得た比較用レーザスキャンデータに基づき、比較用点群位置データを算出する(ステップS105)。この処理は、比較用点群位置データ算出部123において行われる。この処理では、前述した数1で示されるような、移動しながら得た比較用レーザスキャンデータを地上座標系(基準点群位置データの座標系)で記述するための演算が行われる。
次に、基準レーザスキャナ141が得た基準点群位置データとレーザスキャナ115が得た比較用レーザスキャンデータに基づく比較用点群位置データとのマッチングを行い、収束条件を用いてレーザスキャナ115の外部標定要素を算出する(ステップS106)。この処理によって、レーザスキャナ115のIMUユニット114に対する位置と姿勢が求まる。この処理は、外部標定要素算出部124において図4に示す手順によって実行される。
本実施形態によれば、レーザスキャナ115の設置位置や姿勢が未知の場合であっても、車両100をキャリブレーション用コース130で走らせつつレーザスキャナ115によるレーザスキャンを行うことで、レーザスキャナ115の外部標定要素を求めることができる。例えば、レーザスキャナ115がユーザにより取り付けられた場合やレーザスキャナ115の位置や姿勢が変更された場合であっても簡便な方法でレーザスキャナ115の外部標定要素を求めることができる。
(その他)
図5の演算部120の機能部の一または複数を別のハードウェアとし、それらを適当な通信手段で接続し、システムとして動作させてもよい。例えば、演算部120の機能の一部を実行する外部機器(パーソナルコンピュータや専用のコンピュータ)を演算部120に接続し、演算部120の機能の一部を当該外部機器で行う構成が可能である。
図1には、基準点群位置データを取得する機器として、基準レーザスキャナ141を用いる例が示されているが、基準点群位置データは、ステレオ撮影した画像から特徴点を抽出することで得てもよい。この場合、ステレオ写真カメラを用いてキャリブレーション用コース周辺の撮影を行ってステレオ画像データを得、このステレオ画像データを画像解析することで、画像中から特徴点を抽出し、更に抽出した特徴点の三次元座標をステレオ写真測量の原理により算出することで基準点群位置データを得る。
軌道等を用いてキャリブレーション用コース130を固定してもよい。こうすることで、キャリブレーション用コース130における車両100の軌跡をより高精度に取得することができる。
近年、車両周囲の三次元情報を取得し、車両の自動運転や運転の補助を行う技術が知られている。この技術にレーザスキャナを用いる場合に、本発明を利用することができる。
本発明は、レーザスキャナの外部標定要素を求める技術に利用可能である。
100…車両、110…計測システム、111…GNSSユニット、112…全周カメラ、113…固定指向カメラ、114…IMUユニット、115…レーザスキャナ、130…キャリブレーション用コース、131…ビル、141…基準レーザスキャナ、142…トータルステーション、143…GNSSユニット。

Claims (3)

  1. 地上座標系に固定されたレーザスキャナにより計測された測定対象物の点群位置データである基準点群位置データの取得を行う基準点群位置データ取得手段と、
    移動体に固定されたキャリブレーション対象レーザスキャナを用い、前記移動体を移動させながら前記測定対象物のレーザスキャンを行うことで得た比較用レーザスキャンデータの取得を行う比較用レーザスキャンデータ取得手段と、
    地上座標系に固定されたトータルステーションにより計測された前記キャリブレーション対象レーザスキャナの前記移動時における軌跡に基づき、前記比較用レーザスキャンデータを前記基準点群位置データの座標系で捉えた比較用点群位置データを算出する比較用点群位置データ算出手段と、
    前記基準点群位置データと前記比較用点群位置データの対応関係に基づき、前記キャリブレーション対象レーザスキャナの外部標定要素を算出する外部標定要素算出手段と
    を有することを特徴とする点群位置データ処理システム。
  2. 地上座標系に固定されたレーザスキャナにより計測された測定対象物の点群位置データである基準点群位置データの取得を行うステップと、
    移動体に固定されたキャリブレーション対象レーザスキャナを用い、前記移動体を移動させながら前記測定対象物のレーザスキャンを行うことで得た比較用レーザスキャンデータの取得を行うステップと、
    地上座標系に固定されたトータルステーションにより計測された前記キャリブレーション対象レーザスキャナの前記移動時における軌跡に基づき、前記比較用レーザスキャンデータを前記基準点群位置データの座標系で捉えた比較用点群位置データを算出するステップと、
    前記基準点群位置データと前記比較用点群位置データの対応関係に基づき、前記キャリブレーション対象レーザスキャナの外部標定要素を算出するステップと
    を有することを特徴とする点群位置データ処理方法。
  3. コンピュータに読み取らせて実行させるプログラムであって、
    コンピュータを
    地上座標系に固定されたレーザスキャナにより計測された測定対象物の点群位置データである基準点群位置データの取得を行う基準点群位置データ取得手段と、
    移動体に固定されたキャリブレーション対象レーザスキャナを用い、前記移動体を移動させながら前記測定対象物のレーザスキャンを行うことで得た比較用レーザスキャンデータの取得を行う比較用レーザスキャンデータ取得手段と、
    地上座標系に固定されたトータルステーションにより計測された前記キャリブレーション対象レーザスキャナの前記移動時における軌跡に基づき、前記比較用レーザスキャンデータを前記基準点群位置データの座標系で捉えた比較用点群位置データを算出する比較用点群位置データ算出手段と、
    前記基準点群位置データと前記比較用点群位置データの対応関係に基づき、前記キャリブレーション対象レーザスキャナの外部標定要素を算出する外部標定要素算出手段と
    して動作させることを特徴とするプログラム。
JP2014171332A 2014-08-26 2014-08-26 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法およびプログラム Active JP6442193B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014171332A JP6442193B2 (ja) 2014-08-26 2014-08-26 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法およびプログラム
EP15181723.6A EP2990828B1 (en) 2014-08-26 2015-08-20 Point cloud position data processing device, point cloud position data processing system, point cloud position data processing method, and program therefor
US14/834,657 US9659378B2 (en) 2014-08-26 2015-08-25 Point cloud position data processing device, point cloud position data processing system, point cloud position data processing method, and program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014171332A JP6442193B2 (ja) 2014-08-26 2014-08-26 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2016045150A JP2016045150A (ja) 2016-04-04
JP6442193B2 true JP6442193B2 (ja) 2018-12-19

Family

ID=53886997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014171332A Active JP6442193B2 (ja) 2014-08-26 2014-08-26 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法およびプログラム

Country Status (3)

Country Link
US (1) US9659378B2 (ja)
EP (1) EP2990828B1 (ja)
JP (1) JP6442193B2 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102384875B1 (ko) * 2016-05-11 2022-04-08 삼성전자주식회사 거리 센서의 칼리브레이션 방법, 장치 및 시스템
JP7208708B2 (ja) * 2016-07-27 2023-01-19 株式会社エムアールサポート 三次元測定対象物の形状測定方法、及び装置、並びにプログラム
JP6493988B2 (ja) * 2016-11-07 2019-04-03 株式会社amuse oneself 移動体を用いたレーザ測量における誤差補正装置および誤差補正プログラム
JP6808019B2 (ja) * 2017-03-29 2021-01-06 三菱電機株式会社 車載装置、局側装置及びキャリブレーション方法
CN110383647B (zh) 2017-03-29 2022-10-25 深圳市大疆创新科技有限公司 中空马达设备及相关系统和方法
WO2018176274A1 (en) 2017-03-29 2018-10-04 SZ DJI Technology Co., Ltd. A lidar sensor system with small form factor
EP3602121A4 (en) 2017-03-29 2021-05-12 SZ DJI Technology Co., Ltd. CIRCUIT FOR PROCESSING LIGHT DETECTION AND DISTANCE MEASUREMENT (LIDAR) SIGNALS
CN110573928B (zh) 2017-04-28 2021-10-08 深圳市大疆创新科技有限公司 光检测和测距系统中的角校准
WO2018195999A1 (en) 2017-04-28 2018-11-01 SZ DJI Technology Co., Ltd. Calibration of laser and vision sensors
EP3616159A4 (en) * 2017-04-28 2020-05-13 SZ DJI Technology Co., Ltd. CALIBRATION OF LASER SENSORS
US11511747B2 (en) 2017-05-18 2022-11-29 Pioneer Corporation Control device, scanning system, control method, and program
CN116359934A (zh) 2017-07-20 2023-06-30 深圳市大疆创新科技有限公司 用于光学距离测量的系统和方法
CN110914703A (zh) 2017-07-31 2020-03-24 深圳市大疆创新科技有限公司 对点云中基于运动的不准确性的校正
WO2019032588A1 (en) * 2017-08-11 2019-02-14 Zoox, Inc. CALIBRATION AND LOCATION OF VEHICLE SENSOR
CN109425365B (zh) * 2017-08-23 2022-03-11 腾讯科技(深圳)有限公司 激光扫描设备标定的方法、装置、设备及存储介质
WO2019041269A1 (en) 2017-08-31 2019-03-07 SZ DJI Technology Co., Ltd. CALIBRATION OF DELAY TIME OF OPTICAL DISTANCE MEASURING DEVICES AND ASSOCIATED SYSTEMS AND METHODS
WO2019176118A1 (ja) * 2018-03-16 2019-09-19 三菱電機株式会社 重畳表示システム
US11294060B2 (en) * 2018-04-18 2022-04-05 Faraday & Future Inc. System and method for lidar-based vehicular localization relating to autonomous navigation
CN110515089B (zh) * 2018-05-21 2023-06-02 华创车电技术中心股份有限公司 基于光学雷达的行车辅助方法
CN110553624A (zh) * 2018-06-01 2019-12-10 上海辉格科技发展有限公司 一种基于激光扫描仪的隧道模型建立方法
CN109029284B (zh) * 2018-06-14 2019-10-22 大连理工大学 一种基于几何约束的三维激光扫描仪与相机标定方法
JP6857161B2 (ja) * 2018-08-27 2021-04-14 朝日航洋株式会社 有効距離取得方法、及び、レーザ計測方法
CN110927708B (zh) 2018-08-30 2022-10-11 阿波罗智能技术(北京)有限公司 智能路侧单元的标定方法、装置及设备
WO2020045057A1 (ja) * 2018-08-31 2020-03-05 パイオニア株式会社 姿勢推定装置、制御方法、プログラム及び記憶媒体
JP7258905B2 (ja) 2018-09-14 2023-04-17 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 判定方法、及び判定装置
US10877155B2 (en) 2018-09-25 2020-12-29 Topcon Corporation Survey data processing device, survey data processing method, and survey data processing program
CN109297510B (zh) * 2018-09-27 2021-01-01 百度在线网络技术(北京)有限公司 相对位姿标定方法、装置、设备及介质
CN109870157B (zh) * 2019-02-20 2021-11-02 苏州风图智能科技有限公司 确定车体位姿的方法及装置、制图方法
CN109903382B (zh) * 2019-03-20 2023-05-23 中煤航测遥感集团有限公司 点云数据的融合方法及装置
JP2020186944A (ja) * 2019-05-10 2020-11-19 三菱電機株式会社 位置姿勢推定装置及び位置姿勢推定方法
KR102083911B1 (ko) * 2019-09-03 2020-03-04 주식회사 모빌테크 점군을 포함하는 라이다 지도 생성 방법
CN114341869A (zh) * 2019-09-11 2022-04-12 索尼集团公司 信息处理装置、信息处理方法和程序
JP7405541B2 (ja) * 2019-09-17 2023-12-26 株式会社トプコン 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム
JP7313998B2 (ja) * 2019-09-18 2023-07-25 株式会社トプコン 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム
CN112750165B (zh) * 2019-10-29 2023-12-15 商汤集团有限公司 参数标定方法、智能驾驶方法及其装置、设备和存储介质
CN111553844B (zh) 2020-04-29 2023-08-29 阿波罗智能技术(北京)有限公司 用于更新点云的方法及装置
CN111896972B (zh) * 2020-06-16 2022-10-18 中国工程物理研究院应用电子学研究所 一种机载激光雷达同步控制及数码影像外方位元素列表自动创建方法
JP2022042146A (ja) 2020-09-02 2022-03-14 株式会社トプコン データ処理装置、データ処理方法およびデータ処理用プログラム
CN112305557B (zh) * 2020-10-20 2023-10-20 深圳市诺达通信技术有限公司 一种全景相机与多线激光雷达外参标定系统
CN112285737A (zh) * 2020-10-23 2021-01-29 深圳无境智能机器人有限公司 一种可移动的道路特征测绘系统
CN112346037B (zh) * 2020-11-19 2023-10-31 中国第一汽车股份有限公司 车载激光雷达的标定方法、装置、设备及车辆
CN113359141B (zh) * 2021-07-28 2021-12-17 东北林业大学 一种基于无人机多传感器数据融合的林火定位方法及系统
CN114047487B (zh) * 2021-11-05 2022-07-26 深圳市镭神智能系统有限公司 雷达和车体的外参标定方法、装置、电子设备和存储介质
CN116973895B (zh) * 2023-09-22 2023-12-12 山东科技大学 一种激光点云匹配的实时位姿校正方法
CN117471461B (zh) * 2023-12-26 2024-03-08 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 一种用于车载辅助驾驶系统的路侧雷达服务装置和方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3189711B2 (ja) * 1996-11-01 2001-07-16 三菱自動車工業株式会社 車両の前方認識装置
JP3856740B2 (ja) * 2002-07-29 2006-12-13 日立ソフトウエアエンジニアリング株式会社 地上基準点測定装置
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
US7605817B2 (en) * 2005-11-09 2009-10-20 3M Innovative Properties Company Determining camera motion
CA2560800C (en) * 2006-01-20 2014-08-26 Geo 3D Inc. Automated asset detection, location measurement and recognition
GB0616688D0 (en) * 2006-08-23 2006-10-04 Qinetiq Ltd Target orientation
JP5057734B2 (ja) * 2006-09-25 2012-10-24 株式会社トプコン 測量方法及び測量システム及び測量データ処理プログラム
FR2941106B1 (fr) 2009-01-15 2017-01-20 Valeo Equip Electr Moteur Machine electrique tournante a poles saillants
JP5361421B2 (ja) * 2009-01-30 2013-12-04 三菱電機株式会社 計測装置、計測装置のレーザー位置姿勢値補正方法およびレーザー位置姿勢値補正プログラム
JP2011191239A (ja) * 2010-03-16 2011-09-29 Mazda Motor Corp 移動体位置検出装置
JP5710279B2 (ja) * 2011-01-06 2015-04-30 日本信号株式会社 光測距装置
EP2511658A1 (de) * 2011-04-14 2012-10-17 Hexagon Technology Center GmbH Vermessungssystem und Verfahren zur Neupunktbestimmung
JP2013040886A (ja) 2011-08-19 2013-02-28 Mitsubishi Electric Corp 三次元点群計測方法、三次元点群計測プログラム
GB201116961D0 (en) * 2011-09-30 2011-11-16 Bae Systems Plc Fast calibration for lidars
JP5832341B2 (ja) 2012-03-09 2015-12-16 株式会社トプコン 動画処理装置、動画処理方法および動画処理用のプログラム

Also Published As

Publication number Publication date
EP2990828B1 (en) 2020-11-25
US20160063717A1 (en) 2016-03-03
US9659378B2 (en) 2017-05-23
EP2990828A3 (en) 2016-08-03
JP2016045150A (ja) 2016-04-04
EP2990828A1 (en) 2016-03-02

Similar Documents

Publication Publication Date Title
JP6442193B2 (ja) 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法およびプログラム
CN111442722B (zh) 定位方法、装置、存储介质及电子设备
US10509983B2 (en) Operating device, operating system, operating method, and program therefor
JP5992184B2 (ja) 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
US9163940B2 (en) Position/orientation measurement apparatus, measurement processing method thereof, and non-transitory computer-readable storage medium
JP5775965B2 (ja) ステレオカメラシステム及び移動体
WO2017199333A1 (ja) 情報出力装置、端末装置、制御方法、プログラム及び記憶媒体
JP2016048172A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2017090239A (ja) 情報処理装置、制御方法、プログラム及び記憶媒体
JP4132068B2 (ja) 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム
CN101802738A (zh) 用来检测环境的系统
JP2017009555A (ja) カメラのキャリブレーション装置、カメラのキャリブレーション方法およびカメラのキャリブレーションを行うためのプログラム
JP5716273B2 (ja) 捜索目標位置特定装置、捜索目標位置特定方法及びプログラム
JP6698430B2 (ja) 測定装置、測定方法およびプログラム
KR20110097344A (ko) 이동 로봇의 위치 및 지도의 이중 보정 장치 및 방법
JP6523196B2 (ja) 推定装置、方法及びプログラム
JP5267100B2 (ja) 運動推定装置及びプログラム
JP5748174B2 (ja) 移動体の相対姿勢計測方法と装置
Hsia et al. Height estimation via stereo vision system for unmanned helicopter autonomous landing
JP2007333441A (ja) 移動体およびその環境認識センサ
KR102167847B1 (ko) 레이저 관측 장비를 이용한 mms의 캘리브레이션을 위한 장치 및 방법
JP2020186944A (ja) 位置姿勢推定装置及び位置姿勢推定方法
CN113503883B (zh) 采集用于构建地图的数据的方法、存储介质及电子设备
JP7336223B2 (ja) 自己位置推定方法
KR101502071B1 (ko) 랜드마크 기반 비전항법시스템을 위한 카메라 데이터 생성기와 그것을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181126

R150 Certificate of patent or registration of utility model

Ref document number: 6442193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250