JP4486737B2 - Spatial information generation device for mobile mapping - Google Patents
Spatial information generation device for mobile mapping Download PDFInfo
- Publication number
- JP4486737B2 JP4486737B2 JP2000214766A JP2000214766A JP4486737B2 JP 4486737 B2 JP4486737 B2 JP 4486737B2 JP 2000214766 A JP2000214766 A JP 2000214766A JP 2000214766 A JP2000214766 A JP 2000214766A JP 4486737 B2 JP4486737 B2 JP 4486737B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- laser
- time
- camera
- ins
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Navigation (AREA)
- Processing Or Creating Images (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
- Instructional Devices (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、都市空間等の複雑な事物であってもレーザによる測距離データと画像データとを容易に精度良くマッチングさせたモービルマッピング用空間情報生成装置に関する。
【0002】
【従来の技術】
都市の3次元画像を得る場合において、CADで行った場合は、既存の地図又は写真を用いて手作業で作成しなければならないので、非常に時間がかかる。また、実際の画像、計測データを用いないのでリアリティに欠ける。
【0003】
そこで、近年は、エリアセンサを用いるステレオ写真から建物や道路、樹木等(以下総称して地物という)の3次元情報を計測している。
【0004】
【発明が解決しようとする課題】
物体全体の形状情報を精度良く得るには、複数の地点、方向から計測されたレンジ画像(ビュー)を同じグローバル座標系につなぎ合わせなければならない。
【0005】
また、都市空間は地物が乱立しており、同一の視点からの計測のみでは隠蔽部を計測できない。
【0006】
従って、都市空間等でレーザによる測距離データと画像データとをマッチングさせ、隠蔽部を少なくし、かつ高解像度の画像を得ることは極めて困難であるという課題があった。
【0007】
本発明は以上の課題を解決するためになされたもので、都市空間等の複雑な事物であってもレーザによる直接的に求められた地物までの測距離データと画像データとを自動的に精度良く3次元の地図座標上にマッチングさせた空間画像を効率良く得ることができるモービルマッピング用空間情報生成装置を得ることを目的とする。
【0008】
【課題を解決するための手段】
請求項1は、魚眼レンズとラインセンサとを組み合わせたカメラを水平に所定の撮像角度を有して3台併設してなる2個のマルチラインカメラと、DGPS受信器と、異なる方向にレーザを発射して受信する3台のレーザスキャナと、慣性航法装置とを移動体上に固定して移動しながら得たカメラデータ、レーザデータ、位置姿勢からなるINSデータ、GPS時刻を用いて3次元グラフィック画像を生成するモービルマッピング用空間情報生成装置であって、前記GPS時刻を有するカメラデータ、レーザデータに対して、前記GPS時刻を有する前記INSデータを結びつける手段と、前記各レーザスキャナのレーザデータを読み込み、それぞれのレーザデータが示す測定点までの距離値、測定点に対するレーザ方向の角度を、前記INSデータを基準にしてそれぞれの3次元の地理座標に定義する手段と、前記それぞれの3次元の地理座標に定義された各レーザの単方向モデルを3次元座標上に合成する手段と、前記合成モデルを所定条件に従った平面に分割し、該分割エリアをポリゴン化する手段と、前記ポリゴンの各距離値、角度に結びつけられる画像データをカメラデータの前記INSデータに基づいて検索し、該検索した画像データを前記ポリゴンに割り付けて前記3次元グラフィック画像を生成する手段とを備えたことを要旨とする。
【0009】
本発明は、魚眼レンズとラインセンサとを組み合わせたカメラを水平に所定の撮像角度を有して3台併設してなる2個のマルチラインカメラと、DGPS受信器と、異なる方向にレーザを発射して受信する3台のレーザスキャナと、慣性航法装置とを移動体上に固定し、移動しながら得たカメラデータ、レーザデータ、位置姿勢からなるINSデータ、GPS時刻を用いて3次元グラフィック画像を生成するモービルマッピング用空間情報生成装置であって、
【0010】
前記GPS時刻を有するカメラデータ、レーザデータに対して、前記GPS時刻を有する前記INSデータを結びつける手段と、
【0011】
前記各レーザスキャナのレーザデータを読み込み、それぞれのレーザデータが示す測定点までの距離値、測定点に対するレーザ方向の角度を、前記INSデータを基準にしてそれぞれの3次元の地理座標に定義する手段と、
【0012】
前記それぞれの3次元の地理座標に定義された各レーザの単方向モデルを3次元座標上に合成する手段と、
前記合成モデルを所定条件に従った平面に分割し、該分割エリアをポリゴン化する手段と、
前記ポリゴンの各距離値、角度に結びつけられる画像データをカメラデータの前記INSデータに基づいて検索し、該検索した画像データを前記ポリゴンに割り付けて前記3次元グラフィック画像を生成する手段とを備えたことを要旨とする。
【0013】
【発明の実施の形態】
<実施の形態1>
図1は本実施の形態1のモービルマッピング用空間情報生成装置の概略構成図である。
【0014】
本実施の形態のモービルマッピング用空間情報生成装置は、移動体1の屋根の後方に固定された画像取得装置12のレーザ2A、2B、2C及びマルチラインカメラ3A、3B(それぞれ3個の魚眼レンズとラインセンサとを有する)並びにハイブリット慣性航法装置及びDGPSによって取得された地物までの距離データAi(A1、A2、A3)と、ラインセンサの画像データDi(D1、D2、D3)と、位置データBi、姿勢データθiと、GPSデータFi(GPS時刻データf1、位置データf2)とを取り込んで、距離データAhと画像データDiと位置データBi、姿勢データθiとを自動的に精度良くつなぎ合わせた空間モデルを生成することによって、空間情報をグラフィック化する。
【0015】
本実施の形態のモービルマッピング用空間情報生成装置の構成を説明する前に、空間情報取得装置について簡単に説明する。
【0016】
前述の画像取得装置12のマルチラインカメラ3A、3Bについて図2、図3を用いて説明する。図2はマルチラインカメラの側面図、図3はマルチラインカメラの正面図である。
【0017】
マルチラインカメラ3は、図2に示すように、魚眼レンズ6の後方に、画素の配列方向が鉛直方向になるようにラインセンサ7を設けた光学系部8と、ラインセンサ7を駆動して被写体を撮像し、この撮像信号を送出するカメラ本体9とからなるラインカメラ10を図3に示すように水平方向に3個併設して一体化(それぞれを区別のために本実施の形態では、第1のラインカメラ10a、第2のラインカメラ10b、第3のラインカメラ10cと称する。
【0018】
また、第1のラインカメラ10a、第2のラインカメラ10b、第3のラインカメラ10cは、中央の第2のラインカメラ10bを挟んで、両脇の第1のラインカメラ10a、第3のラインカメラ10cの撮像方向が第2のラインカメラ10bの撮像方向に対して45度となるように水平方向に一体化されている。
【0019】
そして、このようなマルチラインカメラ3A、3Bは、図4に示すように、平面板である架台4に固定される。この架台4は図5に示すように移動体1の後方に取り付けられ、マルチラインカメラ3A、3Bは、それぞれの第2のラインカメラ10bの撮像方向が進行方向に対して垂直となるように架台4の両脇の中央部に取り付けられている。
【0020】
また、架台4には、3台のレーザスキャナ2A、2B、2Cがそれぞれ所定角度ずらして配置されている。
【0021】
また、架台4のほぼ中央部に設置されたDGPSアンテナ4と、DGPS受信器(車内)と、ハイブリット慣性航法装置11(INSともいう)とを備えている。
【0022】
レーザスキャナ2A、2B、2Cは、それぞれテーパ面(傾斜を有する鏡)が回転自在なスキャナヘッド2a、2b、2cを有し、車両後部上の架台4の両側の角部とその中央部にそれぞれ取り付けられている。
【0023】
例えば、架台4の後方中央にレーザスキャナ2Aと配置し、このレーザスキャナ2Aに対して水平に45度傾いて取り付けられている。この3台のレーザスキャナ2A、2B、2Cは、パルス幅の非常に短い赤外線レーザをスキャナヘッド2a、2b、2cから照射し、このレーザが建物や樹木等の地物から反射して戻って来るまでの時間から距離を求めると共に、レーザを発信したときのスキャナヘッド2a、2b、2cの回転角度と合わせて360度方向の断面プロファイル測定を行い、距離データとレーザ角度データと得る。
【0024】
このような画像取得装置12を移動体1に搭載して走行して、図5に示すように周囲の画像及び距離データ、位置、姿勢、角度を取得している。
【0025】
つまり、中央の第2のラインカメラの前に樹木があった場合は、樹木を含んだ建物の映像が撮影されるが、走行しているので、樹木位置をすぎたときに第2のラインカメラで撮影できなかった樹木の裏の映像を第1のラインカメラが得ることになる。また、それぞれのラインセンサは垂直方向に取り付けているので、魚眼レンズから得る映像は垂直方向で180度以上の線画像となる。
【0026】
また、同時に3台のレーザスキャナによって、周囲の地物の各点の車との距離が取得される。
【0027】
本実施の形態1に用いる距離データAh、画像データDi、位置データBi、姿勢データθiは、このような移動体1によって取得したデータを用いていることが前提となっている。
【0028】
また、距離データAhは20Hz、画像データDiは100Hz、位置姿勢データは50Hzの周期でそれぞれ取得されている。
【0029】
次に、図1の構成を説明する。図1に示すように、本実施の形態のモービルマッピング用空間情報生成装置15は、距離データAhが記憶されたファイル16と、位置データBi、姿勢データθiが記憶されたファイル17と、画像データDiが記憶されたファイル18と、データ取込処理部20と、データ同期処理部21と、センサキャリブレーション処理部22と、単方向モデル生成処理部23と、多方向モデル合成処理部24と、サーフェースモデル生成処理部25と、画像マッピング処理部26と、3次元グラフィックデータが記憶されるデータベース27と、マルチラインカメラセンサキャリブレーション処理部33(カメラキャリブレーション処理部ともいう)とを備えている。
【0030】
前述の各ファイルの画像データDi、距離データAh、位置データBi、姿勢データθiについて図6を用いて説明する。但し、本説明では画像データDiは、片側のマルチラインカメラの画像データDiとして説明する。また、距離データAiは、一台のレーザスキャナからの距離データAhとして説明する。
【0031】
画像データDiは、マルチラインカメラのラインカメラによって取得されたものであり、マルチラインカメラ制御装置(図示せず)が内部タイマーを予めGPS時刻と時刻合わせを行って時刻を計測し、カメラスタートパルスが10msec(100Hz)で入力する毎に、ラインセンサを駆動させて撮像させていると共に、撮影時のGPS時刻Tgと、PPS信号からカメラスタートパルスの計測時刻Dtと、カメラスタートパルスが入力したときの内部タイマーの時刻Dts(撮影時刻という)とを対応させて記憶している。
【0032】
つまり、ファイル18には、図6の(a)に示すように100Hz周期(10msec毎)で取得された3ライン分の画像データDiがGPS時刻Tgと計測時刻Dtと撮影時刻Dtsとが対応させられたレコード単位で記憶されている。また、このレコードには年月日が付加される場合もある。むろん、レコード単位ではなく、1走行あたりのファイルのヘッダとして付加してもよい。
【0033】
さらに、このファイル(カメラ)には受注番号、画像データ番号、レンズ焦点距離、レンズ絞り、撮影幅、ルート名、測定者、照度、発注先などが付加されているのが好ましい。これらのデータを総称して単にカメラデータと称する。
【0034】
また、距離データAhは、レーザスキャナによって計測された地物の点までの距離データAhであり、レーザ制御装置がレーザスキャナーに対して各種指令及び距離データAhを読み込む。
【0035】
このレーザ制御装置(図示せず)は、内部タイマーを予めGPS時刻に合わせ、PPS信号が入力する毎に内部タイマーの同期をとり、20Hz毎にレーザを発射させると共にデータ取得を行っている。また、このとき、レーザスキャナのスキャンヘッドを回転させている(50msecで一回転)。
【0036】
そして、レーザを受信したときのGPS時刻Tg(レーザを発射したときにGPS時刻が入力すると、そのGPS時刻、レーザを発射したときにGPS時刻が入力しない場合は、前のGPS時刻)と、測定時のレーザの内部タイマー時刻At(距離測定時刻)とレーザ測定角度Ar(スキャンヘッドの回転角度:Ar=Arp1、Arp2…360)とレーザが当たった点までの距離Ahとを求めて記憶している。
【0037】
つまり、ファイル16には、図6の(b)に示すように、20Hz周期(50msec毎)で取得されたレーザの測定角Arと、測定距離Ahと、測定時のGPS時刻Tgと距離計測時刻Atとが対応させられたレコード単位で記憶されている。また、このレコードには年月日が付加される場合もある。むろん、レコード単位ではなく、1走行あたりのファイルのヘッダとして付加してもよい。
【0038】
さらに、このファイル(レーザ)には天気、気温等が付加されているのが好ましい。
【0039】
このような各データを単にレーザデータと称する。
【0040】
また、位置データBi、姿勢データθiは、INSによって測定されたものであり、INSの内部タイマー(カメラ、レーザ用の内部タイマーと比べて時刻計測精度が粗い)は、PPS信号が入力する毎に内部タイマーの同期をとり、50Hzの周期間隔で測定パルスを送出して、GPSからの基準位置と推測航法演算による自装置の位置とから高精度の位置データBiを求めると共に、傾きを求め(姿勢データθi)、かつPPS信号から測定パルスが入力するまでの内部タイマーによる時刻(タイムタグ)を求めてGPS時刻データを記録し、これを位置データBi、姿勢データθiに付加している。
【0041】
つまり、ファイル17には、図6の(c)に示すように20msec毎の位置データBi、姿勢データθi、GPS時刻Tg、測定時刻INTと対応させらrて記憶されている。
【0042】
このような各データを単にINSデータと称する。
【0043】
データ取込処理部20は、年月日、ルート、測定者、撮影時間帯が入力されると、これらの関連するデータをファイル16、17、18から内部に取り込む。
【0044】
例えば、2000年、6月1日、3時から4時の場合は、年月日とGPS時刻Tgを読み、2000年、6月1日、3時から4時の間のデータを順次内部のメモリ30(カメラデータ用)、メモリ31(INSデータ用)、メモリ32(レーザデータ用)に取り込む。
【0045】
データ同期処理部21は、データが取り込まれる毎に、各データ(INSデータ)の同期合わせのための補間を行い、レーザデータ、カメラデータに位置、姿勢データ(INSデータ)を結びつける。
【0046】
センサキャリブレーション処理部22は、レーザの向き、それぞれの取り付け位置に応じて、位置、姿勢、測距離間の相対関係を標定(キャリブレーションデータ)する。
【0047】
また、カメラキャリブレーション処理部33は、カメラの向き、それぞれの取り付け位置に応じて、姿勢、画像データ間の相対関係を標定(キャリブレーションデータ)する。
【0048】
単方向モデル生成処理部23は、各レーザスキャンナのレーザデータをキャリブレーションデータを用いて地理座標における3次元モデルを各レーザ毎に求める。
【0049】
多方向モデル合成処理部24は、各方向のレーザの3次元モデルを合成して精度の高いモデルを生成する。
【0050】
サーフェースモデル生成処理部25は、多方向モデル合成処理部24で生成された合成モデルの測定点の集合から所定の条件に基づいて平面を抽出してサーフェース化する。
【0051】
画像マッピング処理部26は、サーフェースモデルの各面に対応するカメラデータを位置姿勢データにより、割付して3次元グラフィック画像を生成する。
【0052】
上記のように構成されたモービルマッピング用空間情報生成装置の動作を以下に説明する。
【0053】
データ取込処理部20によって指定範囲の各データがメモリ30、31、32に記憶されると、データ同期処理部21は、初めに、カメラデータにおいては、100Hz周期(10msec毎)で取得された1個のラインカメラの画像データDiのGPS時刻Tgを読み込む。
【0054】
例えば、図6の(a)においては、GPS時刻は10Hz周期で出力されるからGPS時刻Tg1においては、10個分の画像データDi(D11、D21、D31、…D101)を引き当てる。1個のマルチラインカメラは3個のラインカメラで構成されるので、3個分のラインセンサの画像データを読み込んだときは、(D11、D21、D31、…D101)と、(D12、D22、D32、…D102)と、(D13、D23、D33、…D103)とを読み込むことになる。
【0055】
また、データ同期処理部21は、レーザデータにおいては、20Hz周期(50msec毎)で取得されたレーザデータを読み込む。
【0056】
例えば、図6の(b)においては、GPS時刻は10Hz周期で出力され、レーザデータは50msec毎に出力されるからGPS時刻Tg1においては距離計測時刻At1、At2が読み込まれる。
【0057】
さらに、データ同期処理部21は、INSデータにおいては、50Hz周期(20msec毎)でGPS時刻Tgを読み、このGPS時刻Tg毎に、それぞれの、タイムタグINTと位置データBi、姿勢データθiと遅れ時間tmとGPS時刻Tgとを加算して正確なINS測定時刻IThを求めてメモリ31に順次記憶する。
【0058】
例えば、図6の(c)においては、GPS時刻は10Hz周期で出力され、INSデータは20msec毎に出力されるからGPS時刻Tg1においてはタイムタグINT1…INT5、位置データB1…B5、姿勢データθ1…θ5が読み込まれる。
【0059】
そして、このタイムタグINT1と遅れ時間tmとGPS時刻Tg1とを加算して、それぞれの正確なINS測定時刻IThを求め、図7に示すように、これと位置データBi、姿勢データθiと対応させてメモリ30に記憶する。
【0060】
次に、データ同期処理21は、例えばメモリ30に記憶したカメラデータの正確な撮影時刻Dtsを基準にして、この撮影時刻DtsのカメラデータCMiに一致するようにINSデータNMiを補間して図9の(a)に示すようにメモリ30に記憶する。つまり、カメラデータに対応するINSデータを補間で得る。
【0061】
例えば、図8に示すように、10msec毎のカメラデータCM1の正確な撮影時刻Dts1を読み、このDts1のカメラデータCM1に同期するようにINSデータNMD1の測定時刻ITh1h(補間された測定時刻ITh1h)を補間する。
【0062】
また、同時に図9に示すように、この測定時刻ITh1hに基づいて、姿勢データθ1がθ1hに補間され、位置データB1がB1hに補間される。
【0063】
同様に、カメラデータCM2においても、INSデータNM1とNM2との間にCM2に同期するようにデータ(INS測定時刻ITh2h、位置データB2h、姿勢データθ2h)を補間する。
【0064】
一方、レーザデータRMiと対応するINSデータNMiの補間は、例えば、図8に示すように、50msec毎のレーザデータRMiに同期するようにINSデータを補間する。
【0065】
例えば、図8に示すように、50msec毎のレーザデータの正確な時刻At1を読み、このAt1に同期するようにINSデータ(図8においてはNMD2)の測定時刻ATs1h(補間された測定時刻ATs1h)を補間する。
【0066】
また、同時に図9に示すように、この測定時刻ATs1hに基づいて、姿勢データθ1がθθ1hに補間され、位置データB1がBB1hに補間される。
【0067】
すなわち、データ同期処理部21は、取り込んだカメラデータ、INSデータ、レーザデータとを補間したINSデータの時刻データを元にして結びつけている。
【0068】
そして、図10に示すように、各レーザデータRM1、RM2、…に同期させるために補間したINSデータの位置姿勢データを対応させる。
【0069】
しかし、レーザとINS、カメラとINSとは平面板1上では互いに異なる位置に配置されている。このため、センサキャリブレーション処理部22は以下に説明する処理を行う。
【0070】
センサキャリブレーション処理部22はレーザの取り付け方向、取り付け位置等を図11に示すように、複数の既知の基準点をレーザによって測定させ、この測定時のabおよびRを数1に示すようにして定義(例えば2月に一度)しておく。
【0071】
【数1】
そして、単方向モデル生成処理部23は、メモリ32のレーザデータを入力する毎にキャリブレーションデータを用いて、地図座標における座標値(距離、角度、位置、姿勢より求められる)を定義して、空間座標におけるレーザデータモデルを生成する。これは、レーザの3方向について行っている。
【0072】
つまり、図10の(b)のレーザデータRM(RMD)は、図12に示すような測定点の座標群に変換して記憶される。そして、多方向モデル合成処理部は、これらの3方向のレーザデータを地理座標空間にて合成して、図13に示すレーザモデルを得る。
【0073】
サーフェースモデル生成処理部25は、このレーザモデルを分割して図14の(a)、(b)、(c)に示すようにサーフェース化する。
【0074】
サーフェースを生成するに当たっての平面パッチの抽出(図14の(b))は、初めにレンジポイント(測定点)全体をあるルールによって分割する。分割されたものをレンジセルと称する。分割に当たっては、各レンジセルに注目して事前に設定したしきい値の範囲内で対応するレンジポイントが空間平面に回帰できるかどうかを判断する(回帰の残差の分散値がしきい値より小さいと一つの空間平面に回帰できると判断する)。
【0075】
そこで、一つの空間平面に回帰されないレンジセルはさらに分割し、このプロセスを繰り返す。
【0076】
分割が終わった後のレンジセルは平面パッチを抽出するプロセスにおける最小なユニットとなる。
【0077】
このような初期化によりレンジポイントを幾つかのレンジセルに分割し(図14の(b))、各レンジセルは最小二乗法による空間に一意な平面パッチに対応しているので、空間物体の形状はこれらの平面パッチによって近似される。
【0078】
しかし、この時点での近似は、平面パッチの数が多くて近似効率が悪い、近似効率を高めるために、同じ平面に対応するレンジセルをマージしポリゴンを生成する(図14(c)、図15の(a)、(b))。このプロセスは、対応する平面がほぼ同一平面上にある。すなわち、同じセンサ座標の原点から平面に下ろした垂線の足の位置が最も近い2つのレンジセルから始める。
【0079】
レンジセルをマージした結果として近似効率は高まるが近似精度は悪くなる可能性もある。
【0080】
そこで、2つのレンジセルのマージするかどうか、つまり、近似効率と近似精度のバランスは、MDL(Minimum Description Lenghth)符号長が小さくなるかどうかによって決まる。
【0081】
次に、画像マッピング処理部26は、サーフェースモデルが生成されると、サーフェースモデルの各ポリゴンを読み、このポリゴンに対応するカメラデータを位置姿勢データとカメラキャリブレーションデータより引き当て、この位置姿勢データに対応する全ての画像データをポリゴンに割り当てた図13の(b)に示す3次元グラフィック画像を生成する。
【0082】
つまり、この3次元グラフィック画像には、3次元位置とデータとが対応させられていることになるから、例えば地図座標に定義されたカーナビに本3次元画像データを記憶しておくと、カーナビ画像の道路上の所定の点を選択すると、その点の建物の3次元画像を得ることができる。
【0083】
なお、以下に本発明に係る装置の代表的な用途例について説明する。
【0084】
(1)都市防災
都市には道路、建物及び大小様々な施設が密集しており、上空からでは捉えられない地物も存在するが、本発明の装置は、都市構造物の空間的な配置や3次元形状を正確に再現させることが可能となるため、災害時の避難・誘導シミュレーションや被害予測システムを構築する上で極めて有効な情報を提供できる。
【0085】
(2)施設管理
大都市では、電力、ガス、上下水道等の膨大なライフライン網が複雑に入り組んでいる。既に、公共企業が独自の管理システムを構築しているが、情報の相互運用を図るための基準情報や不足情報の新規取得に効力を発揮する。この情報を利用すれば、3次元地図画像で電柱と建物の位置関係を見て工事の場所を決めたり、既設設備の位置や劣化状況を正確に把握させることが可能となる。
【0086】
<実施の形態2>
本発明によって得られた3次元グラフィック画像は、実映像のテクスチャー情報を持つため、3次元CGを利用したリアルな景観シュミレーション、都市の中を動き回るウォークスルーやサイバーショッピングに利用できる。
【0087】
例えば、タクシーは常に街を回っているが、その間は客が乗っていなければ無駄な走行であるが街の最新の様子を知ることになる。また、客を乗せて走ったとしても、料金は走行距離だけである。そこで、図16に示すように、例えば実施の形態1で用いたマルチラインカメラとGPS、カメラ制御装置からなる画像取得装置をタクシーに搭載し、この画像データをセンターに送信する。
【0088】
センターは携帯電話又はパソコンからの要望地点を取得し、この地点の画像をその携帯又はパソコンに送信して課金すると共に、タクシーの会社サーバには画像取得の履歴を配信しておき、後日その分を支払う。
【0089】
前述の画像取得装置40(レンタルが好ましい)は、携帯電話41に接続され、センター側から携帯電話41で「xx通りのxxxビル当たりを取得」という指示があったときに、画像取得装置40に対して撮影指示を入力して撮影させ、このマルチラインカメラの各ラインセンサの画像データを年月日とGPS時刻と対応させてメモリ(図示せず)に順次記憶する。このデータを総称してカメラデータという。
【0090】
そして、タクシーのドライバーは撮影が終わると、携帯電話41を用いてメモリのカメラデータをネットワークを介してセンターに送信する。センターの画像収集装置42は、タクシーからカメラデータが送信される毎に、携帯電話41の電話番号(タクシーIDとして用いる)とカメラデータとを対応させてデータベース(図示せず)に記憶する。
【0091】
また、センターの配信・課金サーバ43は、ユーザの携帯電話44又はパソコン45から例えば「渋谷」のエリア地図の配信要求を受けたとき、携帯電話44の電話番号又はパソコンのネットワークIDをデータベース46に記憶すると共に、渋谷の地図をデータベース47から検索し、これを送信する。この地図は地理座標に定義付けられたものであり、この地図の所望の地点が選択されると、その地点の緯度経度が分かる。
【0092】
そして、ユーザは、携帯電話44又はパソコン45の画面に表示された渋谷の地図の所望の地点を選択し、カメラデータの欲しい時間帯を入力する。
【0093】
これによって、選択地点の緯度経度と時間帯がネットワークを介してセンターに送信され、配信・課金サーバ43が受信する。
【0094】
配信・課金サーバ43は、ユーザからの緯度経度、時間帯を有するカメラデータがデータベース42に存在するかどうかを判断し、存在する場合は、そのカメラデータをユーザ側の携帯電話44又はパソコン45に送信する。
【0095】
これによって、携帯電話44又はパソコン45には、渋谷の所望の地点のビル前の様子等を画像で判断できるので、例えばこれから行きたい店が混んでいるか又は車が道路に複数停車しているかが分かる。
【0096】
そして、配信・課金サーバ43は、ユーザに配信した時間帯のカメラデータを取得したタクシーIDと取得画像配信日時刻とをデータベース48に記憶し、後日これをタクシー会社のサーバ49に配信しておく。タクシー会社はこのサーバの配信データの回数から予め定められた金額をセンターに請求する。
【0097】
また、配信・課金サーバ43は、要求のあったパソコン又は携帯電話44のID又は電話番号、要求エリア、時間等をデータベースに46に記憶しており、これらのデータに基づく所定の課金を行って、銀行のユーザの口座からセンターの口座に引き落とす。
【0098】
さらに、ユーザからの緯度経度、時間帯を有するカメラデータがデータベース42に存在しない場合は、タクシーの携帯電話41に電話をかけて、「渋谷のxxビルをxxx時間帯で取得することを通報する。
【0099】
この通報は、タクシーにGPSを搭載しているので、タクシー側から現在位置を常に取得し、渋谷のxxビルをxxx時間帯で最も早く通過するタクシーを見つけて、通報する。
【0100】
なお、上記のユーザは、報道関係、警察であってもよい。特に警察の場合は、通りの駐車違反及び車両番号を直ぐに分かることになると共に治安に役立つ。
【0101】
【発明の効果】
以上のように本発明によれば、2個のマルチラインカメラと、DGPS受信器と、3台のレーザスキャナと、慣性航法装置とを移動体上に固定して移動しながら得たカメラデータ、レーザデータ、INSデータ、GPS時刻を用いて3次元グラフィック画像を生成するとき、INSデータである位置及び姿勢データ等をカメラデータ、レーザデータに結びつけた後に、これらのレーザデータを地理座標において合成し、この3次元のレーザデータを所定条件に従って分割した平面のポリゴンに、各距離値、角度に結びつけられる画像データをカメラデータのINSデータに基づいて検索する。そして、該検索した画像データをポリゴンに割り付けて3次元グラフィック画像を生成する。
【0102】
このため、都市空間等をより忠実に再現できる。また、カメラデータとレーザデータには位置姿勢データ、時刻が対応させられているから、各地点における所望の方向からの高精度画像を容易に得ることができるという効果が得られている。
【0103】
また、それぞれのカメラデータは、撮像方向の角度は45度にされて取得したものであるから樹木があっても、その樹木を除いた建物の映像を生成することができるとうい効果が得られている。
【図面の簡単な説明】
【図1】本発明の実施の形態1のモービルマッピング用空間情報生成装置の概略構成図である。
【図2】マルチラインカメラの側面図である。
【図3】マルチラインカメラの正面図である。
【図4】架台上におけるマルチラインカメラとレーザ、INS、DGPSの取り付け位置を示す平面図である。
【図5】画像取得装置の撮像、測距離の方向を説明する説明図である。
【図6】取得されたカメラデータ、レーザデータ、INSデータを説明する説明図である。
【図7】正確な時刻にされたINSデータの説明図である。
【図8】カメラデータ、レーザデータ、INSデータの同期、補間のタイミングチャートである。
【図9】同期、補間されたINSデータを説明する説明図である。
【図10】同期、補間されてINSデータが対応づけられたカメラデータ、レーザデータを説明する説明図である。
【図11】キャリブレーション処理を説明する説明図である。
【図12】キャリブレーション結果を反映したレーザデータの説明図である。
【図13】測距離データとサーフェース画像を説明する説明図である。
【図14】レーザデータによる合成モデルと分割を説明する説明図である。
【図15】本実施の形態による抽出画像を説明する説明図である。
【図16】実施の形態2のモービルマッピング取得データの配信システムの概略構成図である。
【符号の説明】
1 架台
2 レーザスキャナ
3 マルチラインカメラ
20 データ取込処理部
21 データ同期処理部
22 センサキャリブレーション処理部
23 単方向モデル生成処理部
24 多方向モデル合成処理部
25 サーフェースモデル生成処理部
26 画像マッピング処理部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a mobile mapping spatial information generation apparatus that easily and accurately matches laser distance measurement data and image data even for complex things such as urban spaces.
[0002]
[Prior art]
In the case of obtaining a three-dimensional image of a city, if it is performed by CAD, it must be created manually by using an existing map or photograph, which is very time consuming. Moreover, since an actual image and measurement data are not used, it lacks reality.
[0003]
Therefore, in recent years, three-dimensional information of buildings, roads, trees, and the like (hereinafter collectively referred to as features) is measured from stereo photographs using area sensors.
[0004]
[Problems to be solved by the invention]
In order to obtain the shape information of the entire object with high accuracy, range images (views) measured from a plurality of points and directions must be connected to the same global coordinate system.
[0005]
In addition, the features in the urban space are scattered, and the concealing part cannot be measured only from the same viewpoint.
[0006]
Therefore, there is a problem that it is extremely difficult to match the distance measurement data by the laser with the image data in an urban space or the like, to reduce the concealment portion, and to obtain a high resolution image.
[0007]
The present invention has been made to solve the above-described problems, and automatically obtains distance measurement data and image data up to a feature obtained directly by a laser even for a complicated matter such as an urban space. It is an object of the present invention to provide a mobile mapping spatial information generating apparatus capable of efficiently obtaining a spatial image matched on three-dimensional map coordinates with high accuracy.
[0008]
[Means for Solving the Problems]
The first aspect of the present invention is that two multi-line cameras in which three cameras having a fisheye lens and a line sensor are combined horizontally with a predetermined imaging angle and a DGPS receiver are emitted in different directions. 3D graphic images using camera data, laser data, INS data consisting of position and orientation, and GPS time obtained while moving the three laser scanners and the inertial navigation device fixed on the moving body. A mobile mapping spatial information generating device for generating the camera data and the laser data having the GPS time, the means for linking the INS data having the GPS time to the camera data having the GPS time, and reading the laser data of each laser scanner , The distance value to the measurement point indicated by each laser data, the angle of the laser direction with respect to the measurement point, Means for defining each three-dimensional geographic coordinate on the basis of data; means for synthesizing a unidirectional model of each laser defined in each three-dimensional geographic coordinate on the three-dimensional coordinate; and the synthesized model Is divided into planes according to predetermined conditions, and the divided area is converted into polygons, and image data linked to each distance value and angle of the polygon is searched based on the INS data of the camera data. And a means for allocating image data to the polygon to generate the three-dimensional graphic image.
[0009]
The present inventionTwo multi-line cameras that have a horizontal combination of three fisheye lenses and line sensors with a predetermined imaging angle, a DGPS receiver, and a laser that emits laser beams in
[0010]
Means for linking the INS data having the GPS time to the camera data and laser data having the GPS time;
[0011]
Means for reading the laser data of each laser scanner and defining the distance value to the measurement point indicated by each laser data and the angle of the laser direction with respect to the measurement point in each three-dimensional geographic coordinate based on the INS data When,
[0012]
Means for synthesizing the unidirectional model of each laser defined in the respective three-dimensional geographic coordinates on the three-dimensional coordinates;
Means for dividing the composite model into planes according to predetermined conditions, and polygonizing the divided areas;
Means for searching image data linked to each distance value and angle of the polygon based on the INS data of camera data, and assigning the searched image data to the polygon to generate the three-dimensional graphic image;The main point is that
[0013]
DETAILED DESCRIPTION OF THE INVENTION
<
FIG. 1 is a schematic configuration diagram of a mobile mapping spatial information generating apparatus according to the first embodiment.
[0014]
The mobile mapping spatial information generating apparatus according to the present embodiment includes
[0015]
Before describing the configuration of the mobile mapping spatial information generation apparatus according to the present embodiment, the spatial information acquisition apparatus will be briefly described.
[0016]
The
[0017]
As shown in FIG. 2, the
[0018]
Further, the
[0019]
Such
[0020]
In addition, three
[0021]
Also, RackA DGPS antenna 4 installed at a substantially central portion of the base 4, a DGPS receiver (in the vehicle),Sex voyageAnd a legal apparatus 11 (also referred to as INS).
[0022]
The
[0023]
For example, the laser scanner 2A is arranged at the rear center of the gantry 4 and is attached to the laser scanner 2A at an angle of 45 degrees horizontally. The three
[0024]
Such an
[0025]
In other words, if there is a tree in front of the second line camera in the center, an image of the building that includes the tree is taken, but since it is running, the second line camera when it passes the tree position The first line camera obtains an image of the back of the tree that could not be taken in
[0026]
At the same time, the distance from each point of the surrounding features to the car is acquired by three laser scanners.
[0027]
The distance data Ah, image data Di, position data Bi, and attitude data θi used in the first embodiment are premised on using data acquired by such a moving
[0028]
The distance data Ah is acquired at a frequency of 20 Hz, the image data Di is acquired at a frequency of 100 Hz, and the position and orientation data is acquired at a frequency of 50 Hz.
[0029]
Next, the configuration of FIG. 1 will be described. As shown in FIG. 1, the mobile mapping spatial information generating device 15 of the present embodiment includes a
[0030]
The image data Di, distance data Ah, position data Bi, and attitude data θi of each file will be described with reference to FIG. However, in this description, the image data Di is described as image data Di of a multi-line camera on one side. The distance data Ai will be described as distance data Ah from one laser scanner.
[0031]
The image data Di is acquired by the line camera of the multi-line camera, and the multi-line camera control device (not shown) measures the time by previously setting the internal timer with the GPS time, and the camera start pulse. Each time is input at 10 msec (100 Hz), the line sensor is driven to take an image, and the GPS time Tg at the time of shooting, the measurement time Dt of the camera start pulse from the PPS signal, and the camera start pulse are input The internal timer time Dts (referred to as shooting time) is stored in correspondence.
[0032]
That is, in the
[0033]
Furthermore, it is preferable that an order number, an image data number, a lens focal length, a lens aperture, a photographing width, a route name, a measurer, illuminance, an ordering party, and the like are added to this file (camera). These data are collectively referred to simply as camera data.
[0034]
The distance data Ah is distance data Ah to the feature point measured by the laser scanner, and the laser control device reads various commands and distance data Ah to the laser scanner.
[0035]
This laser control device (not shown) synchronizes the internal timer with a GPS time in advance, synchronizes the internal timer every time a PPS signal is input, fires a laser every 20 Hz, and acquires data. At this time, the scan head of the laser scanner is rotated (one rotation at 50 msec).
[0036]
And GPS time Tg when the laser was received (if GPS time was input when the laser was fired, the GPS time, or if the GPS time was not input when the laser was fired, the previous GPS time) and measurement Laser internal timer time At (distance measurement time), laser measurement angle Ar (scan head rotation angle: Ar = Arp1, Arp2,... 360) and distance Ah to the point where the laser hits are obtained and stored. Yes.
[0037]
That is, in the
[0038]
Furthermore, it is preferable that weather, temperature, etc. are added to this file (laser).
[0039]
Such data is simply referred to as laser data.
[0040]
Further, the position data Bi and the attitude data θi are measured by INS, and the INS internal timer (the time measurement accuracy is coarser than that of the camera and laser internal timer) is input each time the PPS signal is input. Synchronize with the internal timer, send measurement pulses at a periodic interval of 50 Hz, obtain high-accuracy position data Bi from the reference position from GPS and the position of the device by dead reckoning calculation, and obtain the inclination (attitude Data θi) and the time (time tag) by the internal timer until the measurement pulse is input from the PPS signal, GPS time data is recorded, and this is added to the position data Bi and the attitude data θi.
[0041]
That is, as shown in FIG. 6C, the
[0042]
Such data is simply referred to as INS data.
[0043]
When a date, a route, a measurer, and a photographing time zone are input, the data
[0044]
For example, in the case of 2000, June 1, 3 o'clock to 4 o'clock, the date and GPS time Tg are read, and the data between 2000, June 1, 3 o'clock to 4 o'clock is sequentially stored in the
[0045]
Each time data is fetched, the data synchronization processing unit 21(INS data)SynchronizationForInterpolate, position and orientation data into laser data and camera data(INS data)Tie.
[0046]
The sensor
[0047]
The camera
[0048]
The unidirectional model
[0049]
The multi-directional model
[0050]
The surface model
[0051]
The image
[0052]
The operation of the mobile mapping spatial information generating apparatus configured as described above will be described below.
[0053]
When each data in the specified range is stored in the
[0054]
For example, in FIG. 6A, since the GPS time is output at a cycle of 10 Hz, ten pieces of image data Di (D11, D21, D31,... D101) are allocated at the GPS time Tg1. Since one multi-line camera is composed of three line cameras, when the image data of three line sensors is read, (D11, D21, D31,... D101) and (D12, D22, D32,... D102) and (D13, D23, D33,... D103) are read.
[0055]
In addition, the data synchronization processing unit 21 reads the laser data acquired at a cycle of 20 Hz (every 50 msec) in the laser data.
[0056]
For example, in FIG. 6B, GPS time is output at a 10 Hz cycle, and laser data is output every 50 msec. Therefore, at GPS time Tg1, distance measurement times At1, At2ReadExpected.
[0057]
Further, in the INS data, the data synchronization processing unit 21 reads the GPS time Tg at a cycle of 50 Hz (every 20 msec), and for each GPS time Tg, the time tag INT, the position data Bi, and the attitude data θi are delayed. An accurate INS measurement time ITh is obtained by adding the time tm and the GPS time Tg and sequentially stored in the memory 31.
[0058]
For example, in (c) of FIG. 6, GPS time is output at a cycle of 10 Hz, and INS data is output every 20 msec. Therefore, at GPS time Tg1, time tags INT1... INT5, position data B1. ... θ5 is read.
[0059]
Then, the time tag INT1, the delay time tm, and the GPS time Tg1 are added to obtain each accurate INS measurement time ITh, and as shown in FIG. 7, it is associated with the position data Bi and the attitude data θi. Stored in the
[0060]
Next, the data synchronization process 21 matches the camera data CMi of the shooting time Dts with reference to the accurate shooting time Dts of the camera data stored in the
[0061]
For example, as shown in FIG. 8, an accurate shooting time Dts1 of the camera data CM1 every 10 msec is read and synchronized with the camera data CM1 of this Dts1.likeThe measurement time ITh1h (interpolated measurement time ITh1h) of the INS data NMD1 is interpolated.
[0062]
At the same time, as shown in FIG. 9, based on the measurement time ITh1h, the posture data θ1 is interpolated to θ1h, and the position data B1 is interpolated to B1h.
[0063]
Similarly, the camera data CM2 is synchronized with CM2 between the INS data NM1 and NM2.likeData (INS measurement time ITh2h, position data B2h, attitude data θ2h) is interpolated.
[0064]
On the other hand, the interpolation of the INS data NMi corresponding to the laser data RMi is synchronized with the laser data RMi every 50 msec, for example, as shown in FIG.likeInterpolate INS data.
[0065]
For example, as shown in FIG. 8, the accurate time At1 of the laser data every 50 msec is read and synchronized with this At1.likeThe measurement time ATs1h (interpolated measurement time ATs1h) of the INS data (NMD2 in FIG. 8) is interpolated.
[0066]
At the same time, as shown in FIG. 9, based on the measurement time ATs1h, the posture data θ1 is interpolated to θθ1h, and the position data B1 is interpolated to BB1h.
[0067]
That is, the data synchronization processing unit 21 interpolates the captured camera data, INS data, and laser data.INS dataThey are linked based on time data.
[0068]
Then, as shown in FIG. 10, it is synchronized with each laser data RM1, RM2,.To makeInterpolate the position and orientation data of the interpolated INS data.
[0069]
However, the laser and the INS and the camera and the INS are arranged at different positions on the
[0070]
As shown in FIG. 11, the sensor
[0071]
[Expression 1]
Then, each time the laser data in the
[0072]
That is, the laser data RM (RMD) in FIG. 10B is converted into a coordinate group of measurement points as shown in FIG. 12 and stored. Then, the multidirectional model synthesis processing unit synthesizes these three-direction laser data in the geographic coordinate space to obtain the laser model shown in FIG.
[0073]
The surface model
[0074]
In the extraction of a planar patch for generating a surface (FIG. 14B), first, the entire range point (measurement point) is divided according to a certain rule. The divided one is called a range cell. In the division, pay attention to each range cell and determine whether the corresponding range point can return to the space plane within the preset threshold range (the variance value of the residual of regression is smaller than the threshold value) And can be returned to a single spatial plane).
[0075]
Therefore, it returns to one space plane.ThisAny range cells that do not divide further and repeat this process.
[0076]
The range cell after division is the smallest unit in the process of extracting the planar patch.
[0077]
By such initialization, the range point is divided into several range cells ((b) in FIG. 14), and each range cell corresponds to a plane patch unique to the space by the least square method. Approximated by these planar patches.
[0078]
However, the approximation at this time has a large number of plane patches and the approximation efficiency is poor. In order to increase the approximation efficiency, the range cells corresponding to the same plane are merged to generate a polygon (FIG. 14 (c), FIG. 15). (A), (b)). In this process, the corresponding planes are approximately on the same plane. That is, it starts with the two range cells that are closest to the position of the perpendicular foot drawn from the origin of the same sensor coordinates to the plane.
[0079]
As a result of merging the range cells, the approximation efficiency is increased, but the approximation accuracy may be deteriorated.
[0080]
Therefore, whether the two range cells are merged, that is, the balance between the approximation efficiency and the approximation accuracy is determined by whether the MDL (Minimum Description Length) code length is small.
[0081]
Next, when the surface model is generated, the image
[0082]
In other words, since the three-dimensional graphic image is associated with the three-dimensional position and the data, for example, if this three-dimensional image data is stored in the car navigation defined by the map coordinates, the car navigation image When a predetermined point on the road is selected, a three-dimensional image of the building at that point can be obtained.
[0083]
A typical application example of the apparatus according to the present invention will be described below.
[0084]
(1) Urban disaster prevention
In cities, roads, buildings, and large and small facilities are densely populated, and there are some features that cannot be captured from above. However, the device of the present invention accurately determines the spatial arrangement and three-dimensional shape of urban structures. Therefore, it is possible to provide information that is extremely effective in building a simulation / evacuation simulation and damage prediction system during a disaster.
[0085]
(2) Facility management
In a large city, a vast lifeline network such as electricity, gas, and water and sewage is complicated. Although public companies have already built their own management systems, they are effective in acquiring new reference information and missing information for interoperating information. By using this information, it is possible to determine the location of the construction by looking at the positional relationship between the utility pole and the building on the three-dimensional map image, and to accurately grasp the position and deterioration status of the existing equipment.
[0086]
<
Since the three-dimensional graphic image obtained by the present invention has texture information of real images, it can be used for realistic landscape simulation using three-dimensional CG, walk-through moving around in a city, and cyber shopping.
[0087]
For example, taxis always go around the city, but if there are no passengers in the meantime, it will be a wasteful run, but you will know the latest state of the city. Even if you run with a passenger, the fee is only the distance traveled. Therefore, as shown in FIG. 16, for example, an image acquisition device including a multi-line camera, a GPS, and a camera control device used in the first embodiment is mounted on a taxi, and this image data is transmitted to the center.
[0088]
The center is a point requested from a mobile phone or PCTheAcquire and send the image of this point to the mobile phone or personal computer for charging, and distribute the image acquisition history to the taxi company server, and pay for that later.
[0089]
The above-described image acquisition device 40 (preferably rental) is connected to the
[0090]
When the taxi driver finishes shooting, the camera data in the memory is transmitted to the center via the network using the
[0091]
Further, when the center distribution /
[0092]
Then, the user selects a desired point on the map of Shibuya displayed on the screen of the
[0093]
As a result, the latitude / longitude and time zone of the selected point are transmitted to the center via the network, and are received by the distribution /
[0094]
The distribution /
[0095]
As a result, the
[0096]
Then, the distribution /
[0097]
In addition, the distribution /
[0098]
Furthermore, when the camera data having the latitude / longitude and time zone from the user does not exist in the
[0099]
Since this taxi is equipped with a GPS, it always obtains the current position from the taxi side, finds the taxi that passes the xx building in Shibuya first in the xxx time zone, and reports it.
[0100]
Note that the user may be a news report or a police. Especially in the case of the police, the parking violation and the vehicle number of the street can be known immediately and it is useful for security.
[0101]
【The invention's effect】
As described above, according to the present invention, camera data obtained while moving two multiline cameras, a DGPS receiver, three laser scanners, and an inertial navigation device fixed on a moving body, When generating 3D graphic images using laser data, INS data, and GPS time, INS dataIspositionas well asAttitude dataetcAre combined with the camera data and laser data, and then these laser data are combined in geographical coordinates, and image data associated with each distance value and angle is formed into a plane polygon obtained by dividing the three-dimensional laser data according to predetermined conditions. Search based on INS data of camera data. Then, the searched image data is assigned to a polygon to generate a three-dimensional graphic image.
[0102]
For this reason, city space etc. can be reproduced more faithfully. In addition, since the camera data and the laser data are associated with the position / orientation data and the time, it is possible to easily obtain a high-accuracy image from a desired direction at each point.
[0103]
In addition, since each camera data is acquired with the angle of the imaging direction being 45 degrees, even if there is a tree, it is possible to generate an image of a building excluding the tree. ing.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a mobile mapping spatial information generation apparatus according to a first embodiment of the present invention.
FIG. 2 is a side view of a multi-line camera.
FIG. 3 is a front view of a multi-line camera.
FIG. 4 is a plan view showing attachment positions of a multiline camera and lasers, INS, and DGPS on a gantry.
FIG. 5 is an explanatory diagram for explaining the direction of imaging and distance measurement of the image acquisition device.
FIG. 6 is an explanatory diagram for explaining acquired camera data, laser data, and INS data.
FIG. 7 is an explanatory diagram of INS data set at an accurate time.
FIG. 8 is a timing chart for synchronization and interpolation of camera data, laser data, and INS data.
FIG. 9 is an explanatory diagram for explaining synchronized and interpolated INS data.
FIG. 10 is an explanatory diagram for explaining camera data and laser data that are synchronized and interpolated and associated with INS data;
FIG. 11 is an explanatory diagram for explaining calibration processing;
FIG. 12 is an explanatory diagram of laser data reflecting a calibration result.
FIG. 13 is an explanatory diagram illustrating distance measurement data and a surface image.
FIG. 14 is an explanatory diagram for explaining a synthesis model and division based on laser data.
FIG. 15 is an explanatory diagram illustrating an extracted image according to the present embodiment.
FIG. 16 is a schematic configuration diagram of a mobile mapping acquisition data distribution system according to the second embodiment.
[Explanation of symbols]
1 frame
2 Laser scanner
3 Multi-line camera
20 Data acquisition processing section
21 Data synchronization processor
22 Sensor calibration processor
23 Unidirectional model generation processing unit
24 Multi-directional model synthesis processing unit
25 Surface model generation processing unit
26 Image mapping processor
Claims (5)
前記GPS時刻を有するカメラデータ、レーザデータに対して、前記GPS時刻を有する前記INSデータを結びつける手段と、
前記各レーザスキャナのレーザデータを読み込み、それぞれのレーザデータが示す測定点までの距離値、測定点に対するレーザ方向の角度を、前記INSデータを基準にしてそれぞれの3次元の地理座標に定義する手段と、
前記それぞれの3次元の地理座標に定義された各レーザの単方向モデルを3次元座標上に合成する手段と、
前記合成モデルを所定条件に従った平面に分割し、該分割エリアをポリゴン化する手段と、
前記ポリゴンの各距離値、角度に結びつけられる画像データをカメラデータの前記INSデータに基づいて検索し、該検索した画像データを前記ポリゴンに割り付けて前記3次元グラフィック画像を生成する手段とを有することを特徴とするモービルマッピング用空間情報生成装置。Two multi-line cameras, which are a combination of three fisheye lenses and line sensors with a predetermined imaging angle horizontally and a DGPS receiver, emit lasers in different directions and receive them 3 Mobile mapping that generates a three-dimensional graphic image using a camera scanner, laser data, INS data consisting of position and orientation, and GPS time obtained by moving a fixed laser scanner and an inertial navigation device on a moving body Spatial information generation device,
Means for linking the INS data having the GPS time to the camera data and laser data having the GPS time;
Means for reading the laser data of each laser scanner and defining the distance value to the measurement point indicated by the respective laser data and the angle of the laser direction with respect to the measurement point in the respective three-dimensional geographic coordinates based on the INS data When,
Means for synthesizing the unidirectional model of each laser defined in the respective three-dimensional geographic coordinates on the three-dimensional coordinates;
Means for dividing the composite model into planes according to a predetermined condition and polygonizing the divided area;
Means for retrieving image data associated with each distance value and angle of the polygon based on the INS data of the camera data, and assigning the retrieved image data to the polygon to generate the three-dimensional graphic image. A mobile mapping spatial information generating device characterized by the above.
前記結びつける手段は、
前記撮影時刻のカメラデータを取得したとき、この撮影時刻に同期するように前記INSデータの計測時刻を補間し、このINSデータと前記カメラデータとを結び付け、
また、前記レーザデータを取得したとき、この測定時刻に同期するように前記INSデータの計測時刻を補間し、このINSデータと前記レーザデータとを結びつけることを特徴とする請求項1記載のモービルマッピング用空間情報生成装置。The camera data is a shooting time at a first predetermined interval, the INS data is a measurement time at a second predetermined interval (first predetermined interval <second predetermined interval), and the laser data is a third predetermined interval. Each obtained at a measurement time of (second predetermined interval <third predetermined interval),
The linking means is
When the camera data at the shooting time is acquired, the measurement time of the INS data is interpolated so as to be synchronized with the shooting time, and the INS data and the camera data are linked.
2. The mobile mapping according to claim 1, wherein when the laser data is acquired, the measurement time of the INS data is interpolated so as to be synchronized with the measurement time, and the INS data and the laser data are linked. Spatial information generator.
前記第2の所定間隔で前記INSデータを取得したとき、前記GPS時刻と同期を取った所定精度以下の計測時刻と遅れ時間とから前記取得したINSデータの正確な計測時刻を求める手段を起動させて、前記計測時刻を得ていることを特徴とする請求項2記載のモービルマッピング用空間情報生成装置。The measurement time of the INS data is
When the INS data is acquired at the second predetermined interval, a means for obtaining an accurate measurement time of the acquired INS data from a measurement time and a delay time that are not more than a predetermined accuracy synchronized with the GPS time is activated. The mobile mapping spatial information generating apparatus according to claim 2, wherein the measurement time is obtained.
前記測定点をレンジポイントとし、前記合成モデルに散らばっているレンジポイントの各々を、前記所定条件に基づいて分割し、これをレンジセルとし、該レンジセル内のレンジポイントが予め設定した閾値の範囲内で、かつこれらのレンジポイントが空間平面に回帰したとき、その平面を抽出してこれを前記分割エリアとすることを特徴とする請求項1、2又は3記載のモービルマッピング用空間情報生成装置。The divided area is
The measurement point is a range point, and each of the range points scattered in the composite model is divided based on the predetermined condition, which is defined as a range cell, and the range point in the range cell is within a preset threshold range. 4. The mobile mapping spatial information generating device according to claim 1, wherein when these range points return to a spatial plane, the plane is extracted and used as the divided area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000214766A JP4486737B2 (en) | 2000-07-14 | 2000-07-14 | Spatial information generation device for mobile mapping |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000214766A JP4486737B2 (en) | 2000-07-14 | 2000-07-14 | Spatial information generation device for mobile mapping |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002031528A JP2002031528A (en) | 2002-01-31 |
JP4486737B2 true JP4486737B2 (en) | 2010-06-23 |
Family
ID=18710285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000214766A Expired - Lifetime JP4486737B2 (en) | 2000-07-14 | 2000-07-14 | Spatial information generation device for mobile mapping |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4486737B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101219767B1 (en) * | 2011-07-04 | 2013-01-17 | (주)아세아항측 | Method for Field Survey of Digital Mapping Road Layers Using Vehicle Mobile Mapping System |
JP2013069235A (en) * | 2011-09-26 | 2013-04-18 | Asia Air Survey Co Ltd | Apparatus for associating object with multiple images, data reproduction device thereof, and image processing system |
JP2021182177A (en) * | 2020-05-18 | 2021-11-25 | 防衛装備庁長官 | Vehicle steering system and vehicle steering method |
Families Citing this family (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4152698B2 (en) * | 2002-09-06 | 2008-09-17 | 三菱電機株式会社 | 3D building model data generator |
KR100502075B1 (en) * | 2002-11-18 | 2005-07-25 | 한국전자통신연구원 | System for extracting management information of a roadside tree |
KR20040050739A (en) * | 2002-12-09 | 2004-06-17 | 한국전자통신연구원 | 3d feature extraction and classification method by using the mobile laser scanning data |
JP2004265396A (en) * | 2003-02-13 | 2004-09-24 | Vingo:Kk | Image forming system and image forming method |
JP4436632B2 (en) * | 2003-08-19 | 2010-03-24 | コマツエンジニアリング株式会社 | Survey system with position error correction function |
JP4255777B2 (en) * | 2003-08-25 | 2009-04-15 | 東日本旅客鉄道株式会社 | Radio wave propagation simulation apparatus and radio wave propagation simulation method |
JP2006153772A (en) * | 2004-11-30 | 2006-06-15 | Matsushita Electric Works Ltd | Surveying equipment |
JP4502793B2 (en) * | 2004-12-14 | 2010-07-14 | 三菱電機株式会社 | Shooting video processing system |
JP5127128B2 (en) | 2004-12-21 | 2013-01-23 | 韓國電子通信研究院 | Camera position and orientation information correction method and apparatus |
JP4734552B2 (en) * | 2005-03-15 | 2011-07-27 | 名古屋市 | Method and apparatus for measuring three-dimensional shape of road surface |
KR100587397B1 (en) * | 2005-11-24 | 2006-06-08 | (주)대한지적기술단 | Method of surveying structural facilities along road by using vehicle with gps receiver, laser measuring instrument and camera |
KR100587405B1 (en) * | 2005-11-24 | 2006-06-08 | (주)대한지적기술단 | Method of updating gis numerical map of surveying information structural facilities along road by using vehicle with gps receiver, laser measuring instrument and camera |
USRE46672E1 (en) | 2006-07-13 | 2018-01-16 | Velodyne Lidar, Inc. | High definition LiDAR system |
JP5073256B2 (en) * | 2006-09-22 | 2012-11-14 | 株式会社トプコン | POSITION MEASUREMENT DEVICE, POSITION MEASUREMENT METHOD, AND POSITION MEASUREMENT PROGRAM |
US8884962B2 (en) | 2006-10-20 | 2014-11-11 | Tomtom Global Content B.V. | Computer arrangement for and method of matching location data of different sources |
WO2008062819A1 (en) | 2006-11-21 | 2008-05-29 | Nec Corporation | Three-dimensional map data generating system, three-dimensional map data generating method and three-dimensional data generating program |
CN101339048B (en) * | 2007-07-02 | 2011-01-19 | 佛山市顺德区顺达电脑厂有限公司 | Driving safety monitoring system and method |
KR100913690B1 (en) | 2007-10-26 | 2009-08-24 | 한국건설기술연구원 | 3 dimension modeling systems and construction method of 3 dimension modeling for remote controlling of a intelligence excavator |
KR100855066B1 (en) | 2008-05-16 | 2008-08-29 | (주)한성유아이엔지니어링 | Gis system |
KR100855071B1 (en) | 2008-05-16 | 2008-08-29 | (주)한성유아이엔지니어링 | Gis system |
JP5227110B2 (en) | 2008-08-07 | 2013-07-03 | 株式会社トプコン | Omnidirectional camera with GPS and spatial data collection device |
JP5688876B2 (en) | 2008-12-25 | 2015-03-25 | 株式会社トプコン | Calibration method for laser scanner measurement system |
JP5361421B2 (en) * | 2009-01-30 | 2013-12-04 | 三菱電機株式会社 | Measuring device, laser position / orientation value correction method and laser position / orientation value correction program for measuring device |
JP5339953B2 (en) * | 2009-02-17 | 2013-11-13 | 三菱電機株式会社 | 3D map correction apparatus and 3D map correction program |
JP5464915B2 (en) * | 2009-06-09 | 2014-04-09 | 三菱電機株式会社 | Object detection apparatus and object detection method |
JP5559997B2 (en) * | 2009-07-17 | 2014-07-23 | 株式会社トプコン | Position measuring method and position measuring apparatus |
JP4866951B2 (en) | 2009-09-16 | 2012-02-01 | 株式会社日立製作所 | Positioning combination determination system |
JP5337658B2 (en) | 2009-10-02 | 2013-11-06 | 株式会社トプコン | Wide-angle imaging device and measurement system |
WO2011091552A1 (en) * | 2010-02-01 | 2011-08-04 | Intel Corporation | Extracting and mapping three dimensional features from geo-referenced images |
JP5088401B2 (en) * | 2010-06-23 | 2012-12-05 | 日本電気株式会社 | Road structure measuring method and road surface measuring device |
JP5912234B2 (en) | 2010-07-16 | 2016-04-27 | 株式会社トプコン | measuring device |
JP2011059121A (en) * | 2010-10-01 | 2011-03-24 | Mitsubishi Electric Corp | Measurement truck and base |
JP5653715B2 (en) | 2010-10-27 | 2015-01-14 | 株式会社トプコン | Laser surveyor |
KR101220527B1 (en) | 2011-03-02 | 2013-01-21 | 한국과학기술원 | Sensor system, and system and method for preparing environment map using the same |
CN102353379B (en) * | 2011-07-06 | 2013-02-13 | 上海海事大学 | Environment modeling method applicable to navigation of automatic piloting vehicles |
JP5874252B2 (en) * | 2011-09-07 | 2016-03-02 | 株式会社Ihi | Method and apparatus for measuring relative position with object |
CN102508257B (en) * | 2011-09-27 | 2013-09-11 | 北京航空航天大学 | Vehicle-mounted mobile mapping device |
JP5602779B2 (en) * | 2012-03-08 | 2014-10-08 | 株式会社 日立産業制御ソリューションズ | On-site sketch drawing system and laser measuring device |
CN103837130B (en) * | 2012-11-22 | 2016-04-20 | 香港理工大学 | For data processing method and the device of airborne lidar system |
GB201303076D0 (en) * | 2013-02-21 | 2013-04-10 | Isis Innovation | Generation of 3D models of an environment |
CN103424112B (en) * | 2013-07-29 | 2016-06-01 | 南京航空航天大学 | A kind of motion carrier vision navigation method auxiliary based on laser plane |
JP6272460B2 (en) * | 2014-03-31 | 2018-01-31 | 株式会社日立産機システム | 3D map generation system |
JP6347674B2 (en) * | 2014-06-04 | 2018-06-27 | 株式会社トプコン | Laser scanner system |
US10627490B2 (en) | 2016-01-31 | 2020-04-21 | Velodyne Lidar, Inc. | Multiple pulse, LIDAR based 3-D imaging |
JP6449180B2 (en) * | 2016-02-01 | 2019-01-09 | ベステラ株式会社 | 3D image display system, 3D image display device, 3D image display method, and 3D image display system for plant equipment |
WO2017164989A1 (en) | 2016-03-19 | 2017-09-28 | Velodyne Lidar, Inc. | Integrated illumination and detection for lidar based 3-d imaging |
US10393877B2 (en) | 2016-06-01 | 2019-08-27 | Velodyne Lidar, Inc. | Multiple pixel scanning LIDAR |
JP6759850B2 (en) * | 2016-08-22 | 2020-09-23 | 株式会社リコー | Information processing system, information processing device and program |
JP6755483B2 (en) * | 2016-11-24 | 2020-09-16 | 株式会社日本インシーク | Data creation system for sleeper processing |
JP6742262B2 (en) * | 2017-03-08 | 2020-08-19 | 三菱電機株式会社 | Intersection detector |
US10386465B2 (en) | 2017-03-31 | 2019-08-20 | Velodyne Lidar, Inc. | Integrated LIDAR illumination power control |
WO2018208843A1 (en) | 2017-05-08 | 2018-11-15 | Velodyne Lidar, Inc. | Lidar data acquisition and control |
CN108132052A (en) * | 2018-02-06 | 2018-06-08 | 武汉市云宇智能科技有限责任公司 | A kind of electronic total station and its application method |
WO2019210360A1 (en) * | 2018-05-01 | 2019-11-07 | Commonwealth Scientific And Industrial Research Organisation | Method and system for use in colourisation of a point cloud |
US10712434B2 (en) | 2018-09-18 | 2020-07-14 | Velodyne Lidar, Inc. | Multi-channel LIDAR illumination driver |
CN109297510B (en) | 2018-09-27 | 2021-01-01 | 百度在线网络技术(北京)有限公司 | Relative pose calibration method, device, equipment and medium |
US11082010B2 (en) | 2018-11-06 | 2021-08-03 | Velodyne Lidar Usa, Inc. | Systems and methods for TIA base current detection and compensation |
CN109405826B (en) * | 2018-11-16 | 2020-12-29 | 北京兆维电子(集团)有限责任公司 | Robot positioning method and system |
US11885958B2 (en) | 2019-01-07 | 2024-01-30 | Velodyne Lidar Usa, Inc. | Systems and methods for a dual axis resonant scanning mirror |
KR102146839B1 (en) * | 2019-02-20 | 2020-08-21 | 강영호 | System and method for building real-time virtual reality |
CN110068308B (en) * | 2019-05-16 | 2021-03-23 | 合刃科技(深圳)有限公司 | Distance measurement method and distance measurement system based on multi-view camera |
CN110030999A (en) * | 2019-05-21 | 2019-07-19 | 杭州鸿泉物联网技术股份有限公司 | A kind of localization method based on inertial navigation, device, system and vehicle |
CN110388919B (en) * | 2019-07-30 | 2023-05-23 | 上海云扩信息科技有限公司 | Three-dimensional model positioning method based on feature map and inertial measurement in augmented reality |
JP7347398B2 (en) * | 2020-10-29 | 2023-09-20 | トヨタ自動車株式会社 | object detection device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH099197A (en) * | 1995-06-21 | 1997-01-10 | Asia Kosoku Kk | Recording device for consecutive stereo image data |
JPH11211473A (en) * | 1998-01-22 | 1999-08-06 | Komatsu Ltd | Topographic form measuring device |
JPH11257953A (en) * | 1998-03-06 | 1999-09-24 | Koa:Kk | Tunnel wall surface observing apparatus |
JP2000171249A (en) * | 1998-12-03 | 2000-06-23 | Asia Air Survey Co Ltd | Position acquiring device |
-
2000
- 2000-07-14 JP JP2000214766A patent/JP4486737B2/en not_active Expired - Lifetime
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH099197A (en) * | 1995-06-21 | 1997-01-10 | Asia Kosoku Kk | Recording device for consecutive stereo image data |
JPH11211473A (en) * | 1998-01-22 | 1999-08-06 | Komatsu Ltd | Topographic form measuring device |
JPH11257953A (en) * | 1998-03-06 | 1999-09-24 | Koa:Kk | Tunnel wall surface observing apparatus |
JP2000171249A (en) * | 1998-12-03 | 2000-06-23 | Asia Air Survey Co Ltd | Position acquiring device |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101219767B1 (en) * | 2011-07-04 | 2013-01-17 | (주)아세아항측 | Method for Field Survey of Digital Mapping Road Layers Using Vehicle Mobile Mapping System |
JP2013069235A (en) * | 2011-09-26 | 2013-04-18 | Asia Air Survey Co Ltd | Apparatus for associating object with multiple images, data reproduction device thereof, and image processing system |
JP2021182177A (en) * | 2020-05-18 | 2021-11-25 | 防衛装備庁長官 | Vehicle steering system and vehicle steering method |
Also Published As
Publication number | Publication date |
---|---|
JP2002031528A (en) | 2002-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4486737B2 (en) | Spatial information generation device for mobile mapping | |
JP4284644B2 (en) | 3D model construction system and 3D model construction program | |
TW565810B (en) | Three-dimensional electronic map information generation method | |
US10291898B2 (en) | Method and apparatus for updating navigation map | |
JP3432212B2 (en) | Image processing apparatus and method | |
KR102200299B1 (en) | A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof | |
JP6950832B2 (en) | Position coordinate estimation device, position coordinate estimation method and program | |
US20130057686A1 (en) | Crowd sourcing parking management using vehicles as mobile sensors | |
US20140278065A1 (en) | System and Method for Distortion Correction in Three-Dimensional Environment Visualization | |
JP2005268847A (en) | Image generating apparatus, image generating method, and image generating program | |
EP2588882B1 (en) | Method for producing a digital photo wherein at least some of the pixels comprise position information, and such a digital photo | |
US20080319655A1 (en) | Method for Generating an Enhanced Map | |
JP2002034055A (en) | Wide view angle multi-directional image acquiring apparatus and system for mobile unit | |
CN101513062A (en) | On-vehicle image processor and viewpoint change information generating method | |
JP4989495B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium therefor | |
US8977074B1 (en) | Urban geometry estimation from laser measurements | |
US11421997B2 (en) | Map construction system and map construction method | |
JP2009276266A (en) | Navigation device | |
KR20080019947A (en) | Road information report method and system by using road information acquired from image | |
JP3833860B2 (en) | Spatial information acquisition device for moving objects | |
CN113196341A (en) | Method for detecting and modeling objects on the surface of a road | |
Lee et al. | A study on application for 4S-van | |
JP7467722B2 (en) | Feature Management System | |
JP7412118B2 (en) | Ledger creation system | |
CN111221998B (en) | Multi-view operation checking method and device based on point cloud track picture linkage |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070614 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091001 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100323 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4486737 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130402 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130402 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140402 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |