JP4486737B2 - Spatial information generation device for mobile mapping - Google Patents

Spatial information generation device for mobile mapping Download PDF

Info

Publication number
JP4486737B2
JP4486737B2 JP2000214766A JP2000214766A JP4486737B2 JP 4486737 B2 JP4486737 B2 JP 4486737B2 JP 2000214766 A JP2000214766 A JP 2000214766A JP 2000214766 A JP2000214766 A JP 2000214766A JP 4486737 B2 JP4486737 B2 JP 4486737B2
Authority
JP
Japan
Prior art keywords
data
laser
time
camera
ins
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000214766A
Other languages
Japanese (ja)
Other versions
JP2002031528A (en
Inventor
豊 下垣
求 辻
達夫 今野
亮介 柴崎
卉菁 趙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asia Air Survey Co Ltd
Original Assignee
Asia Air Survey Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asia Air Survey Co Ltd filed Critical Asia Air Survey Co Ltd
Priority to JP2000214766A priority Critical patent/JP4486737B2/en
Publication of JP2002031528A publication Critical patent/JP2002031528A/en
Application granted granted Critical
Publication of JP4486737B2 publication Critical patent/JP4486737B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、都市空間等の複雑な事物であってもレーザによる測距離データと画像データとを容易に精度良くマッチングさせたモービルマッピング用空間情報生成装置に関する。
【0002】
【従来の技術】
都市の3次元画像を得る場合において、CADで行った場合は、既存の地図又は写真を用いて手作業で作成しなければならないので、非常に時間がかかる。また、実際の画像、計測データを用いないのでリアリティに欠ける。
【0003】
そこで、近年は、エリアセンサを用いるステレオ写真から建物や道路、樹木等(以下総称して地物という)の3次元情報を計測している。
【0004】
【発明が解決しようとする課題】
物体全体の形状情報を精度良く得るには、複数の地点、方向から計測されたレンジ画像(ビュー)を同じグローバル座標系につなぎ合わせなければならない。
【0005】
また、都市空間は地物が乱立しており、同一の視点からの計測のみでは隠蔽部を計測できない。
【0006】
従って、都市空間等でレーザによる測距離データと画像データとをマッチングさせ、隠蔽部を少なくし、かつ高解像度の画像を得ることは極めて困難であるという課題があった。
【0007】
本発明は以上の課題を解決するためになされたもので、都市空間等の複雑な事物であってもレーザによる直接的に求められた地物までの測距離データと画像データとを自動的に精度良く3次元の地図座標上にマッチングさせた空間画像を効率良く得ることができるモービルマッピング用空間情報生成装置を得ることを目的とする。
【0008】
【課題を解決するための手段】
請求項1は、魚眼レンズとラインセンサとを組み合わせたカメラを水平に所定の撮像角度を有して3台併設してなる2個のマルチラインカメラと、DGPS受信器と、異なる方向にレーザを発射して受信する3台のレーザスキャナと、慣性航法装置とを移動体上に固定して移動しながら得たカメラデータ、レーザデータ、位置姿勢からなるINSデータ、GPS時刻を用いて3次元グラフィック画像を生成するモービルマッピング用空間情報生成装置であって、前記GPS時刻を有するカメラデータ、レーザデータに対して、前記GPS時刻を有する前記INSデータを結びつける手段と、前記各レーザスキャナのレーザデータを読み込み、それぞれのレーザデータが示す測定点までの距離値、測定点に対するレーザ方向の角度を、前記INSデータを基準にしてそれぞれの3次元の地理座標に定義する手段と、前記それぞれの3次元の地理座標に定義された各レーザの単方向モデルを3次元座標上に合成する手段と、前記合成モデルを所定条件に従った平面に分割し、該分割エリアをポリゴン化する手段と、前記ポリゴンの各距離値、角度に結びつけられる画像データをカメラデータの前記INSデータに基づいて検索し、該検索した画像データを前記ポリゴンに割り付けて前記3次元グラフィック画像を生成する手段とを備えたことを要旨とする。
【0009】
本発明は、魚眼レンズとラインセンサとを組み合わせたカメラを水平に所定の撮像角度を有して3台併設してなる2個のマルチラインカメラと、DGPS受信器と、異なる方向にレーザを発射して受信する3台のレーザスキャナと、慣性航法装置とを移動体上に固定し、移動しながら得たカメラデータ、レーザデータ、位置姿勢からなるINSデータ、GPS時刻を用いて3次元グラフィック画像を生成するモービルマッピング用空間情報生成装置であって、
【0010】
前記GPS時刻を有するカメラデータ、レーザデータに対して、前記GPS時刻を有する前記INSデータを結びつける手段と、
【0011】
前記各レーザスキャナのレーザデータを読み込み、それぞれのレーザデータが示す測定点までの距離値、測定点に対するレーザ方向の角度を、前記INSデータを基準にしてそれぞれの3次元の地理座標に定義する手段と、
【0012】
前記それぞれの3次元の地理座標に定義された各レーザの単方向モデルを3次元座標上に合成する手段と、
前記合成モデルを所定条件に従った平面に分割し、該分割エリアをポリゴン化する手段と、
前記ポリゴンの各距離値、角度に結びつけられる画像データをカメラデータの前記INSデータに基づいて検索し、該検索した画像データを前記ポリゴンに割り付けて前記3次元グラフィック画像を生成する手段とを備えたことを要旨とする。
【0013】
【発明の実施の形態】
<実施の形態1>
図1は本実施の形態1のモービルマッピング用空間情報生成装置の概略構成図である。
【0014】
本実施の形態のモービルマッピング用空間情報生成装置は、移動体1の屋根の後方に固定された画像取得装置12のレーザ2A、2B、2C及びマルチラインカメラ3A、3B(それぞれ3個の魚眼レンズとラインセンサとを有する)並びにハイブリット慣性航法装置及びDGPSによって取得された地物までの距離データAi(A1、A2、A3)と、ラインセンサの画像データDi(D1、D2、D3)と、位置データBi、姿勢データθiと、GPSデータFi(GPS時刻データf1、位置データf2)とを取り込んで、距離データAhと画像データDiと位置データBi、姿勢データθiとを自動的に精度良くつなぎ合わせた空間モデルを生成することによって、空間情報をグラフィック化する。
【0015】
本実施の形態のモービルマッピング用空間情報生成装置の構成を説明する前に、空間情報取得装置について簡単に説明する。
【0016】
前述の画像取得装置12のマルチラインカメラ3A、3Bについて図2、図3を用いて説明する。図2はマルチラインカメラの側面図、図3はマルチラインカメラの正面図である。
【0017】
マルチラインカメラ3は、図2に示すように、魚眼レンズ6の後方に、画素の配列方向が鉛直方向になるようにラインセンサ7を設けた光学系部8と、ラインセンサ7を駆動して被写体を撮像し、この撮像信号を送出するカメラ本体9とからなるラインカメラ10を図3に示すように水平方向に3個併設して一体化(それぞれを区別のために本実施の形態では、第1のラインカメラ10a、第2のラインカメラ10b、第3のラインカメラ10cと称する。
【0018】
また、第1のラインカメラ10a、第2のラインカメラ10b、第3のラインカメラ10cは、中央の第2のラインカメラ10bを挟んで、両脇の第1のラインカメラ10a、第3のラインカメラ10cの撮像方向が第2のラインカメラ10bの撮像方向に対して45度となるように水平方向に一体化されている。
【0019】
そして、このようなマルチラインカメラ3A、3Bは、図4に示すように、平面板である架台4に固定される。この架台4は図5に示すように移動体1の後方に取り付けられ、マルチラインカメラ3A、3Bは、それぞれの第2のラインカメラ10bの撮像方向が進行方向に対して垂直となるように架台4の両脇の中央部に取り付けられている。
【0020】
また、架台4には、3台のレーザスキャナ2A、2B、2Cがそれぞれ所定角度ずらして配置されている。
【0021】
また、架台4のほぼ中央部に設置されたDGPSアンテナ4と、DGPS受信器(車内)と、ハイブリット慣性航法装置11(INSともいう)とを備えている。
【0022】
レーザスキャナ2A、2B、2Cは、それぞれテーパ面(傾斜を有する鏡)が回転自在なスキャナヘッド2a、2b、2cを有し、車両後部上の架台4の両側の角部とその中央部にそれぞれ取り付けられている。
【0023】
例えば、架台4の後方中央にレーザスキャナ2Aと配置し、このレーザスキャナ2Aに対して水平に45度傾いて取り付けられている。この3台のレーザスキャナ2A、2B、2Cは、パルス幅の非常に短い赤外線レーザをスキャナヘッド2a、2b、2cから照射し、このレーザが建物や樹木等の地物から反射して戻って来るまでの時間から距離を求めると共に、レーザを発信したときのスキャナヘッド2a、2b、2cの回転角度と合わせて360度方向の断面プロファイル測定を行い、距離データとレーザ角度データと得る。
【0024】
このような画像取得装置12を移動体1に搭載して走行して、図5に示すように周囲の画像及び距離データ、位置、姿勢、角度を取得している。
【0025】
つまり、中央の第2のラインカメラの前に樹木があった場合は、樹木を含んだ建物の映像が撮影されるが、走行しているので、樹木位置をすぎたときに第2のラインカメラで撮影できなかった樹木の裏の映像を第1のラインカメラが得ることになる。また、それぞれのラインセンサは垂直方向に取り付けているので、魚眼レンズから得る映像は垂直方向で180度以上の線画像となる。
【0026】
また、同時に3台のレーザスキャナによって、周囲の地物の各点の車との距離が取得される。
【0027】
本実施の形態1に用いる距離データAh、画像データDi、位置データBi、姿勢データθiは、このような移動体1によって取得したデータを用いていることが前提となっている。
【0028】
また、距離データAhは20Hz、画像データDiは100Hz、位置姿勢データは50Hzの周期でそれぞれ取得されている。
【0029】
次に、図1の構成を説明する。図1に示すように、本実施の形態のモービルマッピング用空間情報生成装置15は、距離データAhが記憶されたファイル16と、位置データBi、姿勢データθiが記憶されたファイル17と、画像データDiが記憶されたファイル18と、データ取込処理部20と、データ同期処理部21と、センサキャリブレーション処理部22と、単方向モデル生成処理部23と、多方向モデル合成処理部24と、サーフェースモデル生成処理部25と、画像マッピング処理部26と、3次元グラフィックデータが記憶されるデータベース27と、マルチラインカメラセンサキャリブレーション処理部33(カメラキャリブレーション処理部ともいう)とを備えている。
【0030】
前述の各ファイルの画像データDi、距離データAh、位置データBi、姿勢データθiについて図6を用いて説明する。但し、本説明では画像データDiは、片側のマルチラインカメラの画像データDiとして説明する。また、距離データAiは、一台のレーザスキャナからの距離データAhとして説明する。
【0031】
画像データDiは、マルチラインカメラのラインカメラによって取得されたものであり、マルチラインカメラ制御装置(図示せず)が内部タイマーを予めGPS時刻と時刻合わせを行って時刻を計測し、カメラスタートパルスが10msec(100Hz)で入力する毎に、ラインセンサを駆動させて撮像させていると共に、撮影時のGPS時刻Tgと、PPS信号からカメラスタートパルスの計測時刻Dtと、カメラスタートパルスが入力したときの内部タイマーの時刻Dts(撮影時刻という)とを対応させて記憶している。
【0032】
つまり、ファイル18には、図6の(a)に示すように100Hz周期(10msec毎)で取得された3ライン分の画像データDiがGPS時刻Tgと計測時刻Dtと撮影時刻Dtsとが対応させれたレコード単位で記憶されている。また、このレコードには年月日が付加される場合もある。むろん、レコード単位ではなく、1走行あたりのファイルのヘッダとして付加してもよい。
【0033】
さらに、このファイル(カメラ)には受注番号、画像データ番号、レンズ焦点距離、レンズ絞り、撮影幅、ルート名、測定者、照度、発注先などが付加されているのが好ましい。これらのデータを総称して単にカメラデータと称する。
【0034】
また、距離データAhは、レーザスキャナによって計測された地物の点までの距離データAhであり、レーザ制御装置がレーザスキャナーに対して各種指令及び距離データAhを読み込む。
【0035】
このレーザ制御装置(図示せず)は、内部タイマーを予めGPS時刻に合わせ、PPS信号が入力する毎に内部タイマーの同期をとり、20Hz毎にレーザを発射させると共にデータ取得を行っている。また、このとき、レーザスキャナのスキャンヘッドを回転させている(50msecで一回転)。
【0036】
そして、レーザを受信したときのGPS時刻Tg(レーザを発射したときにGPS時刻が入力すると、そのGPS時刻、レーザを発射したときにGPS時刻が入力しない場合は、前のGPS時刻)と、測定時のレーザの内部タイマー時刻At(距離測定時刻)とレーザ測定角度Ar(スキャンヘッドの回転角度:Ar=Arp1、Arp2…360)とレーザが当たった点までの距離Ahとを求めて記憶している。
【0037】
つまり、ファイル16には、図6の(b)に示すように、20Hz周期(50msec毎)で取得されたレーザの測定角Arと、測定距離Ahと、測定時のGPS時刻Tgと距離計測時刻Atとが対応させれたレコード単位で記憶されている。また、このレコードには年月日が付加される場合もある。むろん、レコード単位ではなく、1走行あたりのファイルのヘッダとして付加してもよい。
【0038】
さらに、このファイル(レーザ)には天気、気温等が付加されているのが好ましい。
【0039】
このような各データを単にレーザデータと称する。
【0040】
また、位置データBi、姿勢データθiは、INSによって測定されたものであり、INSの内部タイマー(カメラ、レーザ用の内部タイマーと比べて時刻計測精度が粗い)は、PPS信号が入力する毎に内部タイマーの同期をとり、50Hzの周期間隔で測定パルスを送出して、GPSからの基準位置と推測航法演算による自装置の位置とから高精度の位置データBiを求めると共に、傾きを求め(姿勢データθi)、かつPPS信号から測定パルスが入力するまでの内部タイマーによる時刻(タイムタグ)を求めてGPS時刻データを記録し、これを位置データBi、姿勢データθiに付加している。
【0041】
つまり、ファイル17には、図6の(c)に示すように20msec毎の位置データBi、姿勢データθi、GPS時刻Tg、測定時刻INTと対応させらrて記憶されている。
【0042】
このような各データを単にINSデータと称する。
【0043】
データ取込処理部20は、年月日、ルート、測定者、撮影時間帯が入力されると、これらの関連するデータをファイル16、17、18から内部に取り込む。
【0044】
例えば、2000年、6月1日、3時から4時の場合は、年月日とGPS時刻Tgを読み、2000年、6月1日、3時から4時の間のデータを順次内部のメモリ30(カメラデータ用)、メモリ31(INSデータ用)、メモリ32(レーザデータ用)に取り込む。
【0045】
データ同期処理部21は、データが取り込まれる毎に、各データ(INSデータ)の同期合わせのための補間を行い、レーザデータ、カメラデータに位置、姿勢データ(INSデータ)を結びつける。
【0046】
センサキャリブレーション処理部22は、レーザの向き、それぞれの取り付け位置に応じて、位置、姿勢、測距離間の相対関係を標定(キャリブレーションデータ)する。
【0047】
また、カメラキャリブレーション処理部33は、カメラの向き、それぞれの取り付け位置に応じて、姿勢、画像データ間の相対関係を標定(キャリブレーションデータ)する。
【0048】
単方向モデル生成処理部23は、各レーザスキャンナのレーザデータをキャリブレーションデータを用いて地理座標における3次元モデルを各レーザ毎に求める。
【0049】
多方向モデル合成処理部24は、各方向のレーザの3次元モデルを合成して精度の高いモデルを生成する。
【0050】
サーフェースモデル生成処理部25は、多方向モデル合成処理部24で生成された合成モデルの測定点の集合から所定の条件に基づいて平面を抽出してサーフェース化する。
【0051】
画像マッピング処理部26は、サーフェースモデルの各面に対応するカメラデータを位置姿勢データにより、割付して3次元グラフィック画像を生成する。
【0052】
上記のように構成されたモービルマッピング用空間情報生成装置の動作を以下に説明する。
【0053】
データ取込処理部20によって指定範囲の各データがメモリ30、31、32に記憶されると、データ同期処理部21は、初めに、カメラデータにおいては、100Hz周期(10msec毎)で取得された1個のラインカメラの画像データDiのGPS時刻Tgを読み込む。
【0054】
例えば、図6の(a)においては、GPS時刻は10Hz周期で出力されるからGPS時刻Tg1においては、10個分の画像データDi(D11、D21、D31、…D101)を引き当てる。1個のマルチラインカメラは3個のラインカメラで構成されるので、3個分のラインセンサの画像データを読み込んだときは、(D11、D21、D31、…D101)と、(D12、D22、D32、…D102)と、(D13、D23、D33、…D103)とを読み込むことになる。
【0055】
また、データ同期処理部21は、レーザデータにおいては、20Hz周期(50msec毎)で取得されたレーザデータを読み込む。
【0056】
例えば、図6の(b)においては、GPS時刻は10Hz周期で出力され、レーザデータは50msec毎に出力されるからGPS時刻Tg1においては距離計測時刻At1、At2が読み込まれる。
【0057】
さらに、データ同期処理部21は、INSデータにおいては、50Hz周期(20msec毎)でGPS時刻Tgを読み、このGPS時刻Tg毎に、それぞれの、タイムタグINTと位置データBi、姿勢データθiと遅れ時間tmとGPS時刻Tgとを加算して正確なINS測定時刻IThを求めてメモリ31に順次記憶する。
【0058】
例えば、図6の(c)においては、GPS時刻は10Hz周期で出力され、INSデータは20msec毎に出力されるからGPS時刻Tg1においてはタイムタグINT1…INT5、位置データB1…B5、姿勢データθ1…θ5が読み込まれる。
【0059】
そして、このタイムタグINT1と遅れ時間tmとGPS時刻Tg1とを加算して、それぞれの正確なINS測定時刻IThを求め、図7に示すように、これと位置データBi、姿勢データθiと対応させてメモリ30に記憶する。
【0060】
次に、データ同期処理21は、例えばメモリ30に記憶したカメラデータの正確な撮影時刻Dtsを基準にして、この撮影時刻DtsのカメラデータCMiに一致するようにINSデータNMiを補間して図9の(a)に示すようにメモリ30に記憶する。つまり、カメラデータに対応するINSデータを補間で得る。
【0061】
例えば、図8に示すように、10msec毎のカメラデータCM1の正確な撮影時刻Dts1を読み、このDts1のカメラデータCM1に同期するようにINSデータNMD1の測定時刻ITh1h(補間された測定時刻ITh1h)を補間する。
【0062】
また、同時に図9に示すように、この測定時刻ITh1hに基づいて、姿勢データθ1がθ1hに補間され、位置データB1がB1hに補間される。
【0063】
同様に、カメラデータCM2においても、INSデータNM1とNM2との間にCM2に同期するようにデータ(INS測定時刻ITh2h、位置データB2h、姿勢データθ2h)を補間する。
【0064】
一方、レーザデータRMiと対応するINSデータNMiの補間は、例えば、図8に示すように、50msec毎のレーザデータRMiに同期するようにINSデータを補間する。
【0065】
例えば、図8に示すように、50msec毎のレーザデータの正確な時刻At1を読み、このAt1に同期するようにINSデータ(図8においてはNMD2)の測定時刻ATs1h(補間された測定時刻ATs1h)を補間する。
【0066】
また、同時に図9に示すように、この測定時刻ATs1hに基づいて、姿勢データθ1がθθ1hに補間され、位置データB1がBB1hに補間される。
【0067】
すなわち、データ同期処理部21は、取り込んだカメラデータ、INSデータ、レーザデータとを補間したINSデータの時刻データを元にして結びつけている。
【0068】
そして、図10に示すように、各レーザデータRM1、RM2、…に同期させるために補間したINSデータの位置姿勢データを対応させる。
【0069】
しかし、レーザとINS、カメラとINSとは平面板1上では互いに異なる位置に配置されている。このため、センサキャリブレーション処理部22は以下に説明する処理を行う。
【0070】
センサキャリブレーション処理部22はレーザの取り付け方向、取り付け位置等を図11に示すように、複数の既知の基準点をレーザによって測定させ、この測定時のabおよびRを数1に示すようにして定義(例えば2月に一度)しておく。
【0071】
【数1】

Figure 0004486737
そして、単方向モデル生成処理部23は、メモリ32のレーザデータを入力する毎にキャリブレーションデータを用いて、地図座標における座標値(距離、角度、位置、姿勢より求められる)を定義して、空間座標におけるレーザデータモデルを生成する。これは、レーザの3方向について行っている。
【0072】
つまり、図10の(b)のレーザデータRM(RMD)は、図12に示すような測定点の座標群に変換して記憶される。そして、多方向モデル合成処理部は、これらの3方向のレーザデータを地理座標空間にて合成して、図13に示すレーザモデルを得る。
【0073】
サーフェースモデル生成処理部25は、このレーザモデルを分割して図14の(a)、(b)、(c)に示すようにサーフェース化する。
【0074】
サーフェースを生成するに当たっての平面パッチの抽出(図14の(b))は、初めにレンジポイント(測定点)全体をあるルールによって分割する。分割されたものをレンジセルと称する。分割に当たっては、各レンジセルに注目して事前に設定したしきい値の範囲内で対応するレンジポイントが空間平面に回帰できるかどうかを判断する(回帰の残差の分散値がしきい値より小さいと一つの空間平面に回帰できると判断する)。
【0075】
そこで、一つの空間平面に回帰さないレンジセルはさらに分割し、このプロセスを繰り返す。
【0076】
分割が終わった後のレンジセルは平面パッチを抽出するプロセスにおける最小なユニットとなる。
【0077】
このような初期化によりレンジポイントを幾つかのレンジセルに分割し(図14の(b))、各レンジセルは最小二乗法による空間に一意な平面パッチに対応しているので、空間物体の形状はこれらの平面パッチによって近似される。
【0078】
しかし、この時点での近似は、平面パッチの数が多くて近似効率が悪い、近似効率を高めるために、同じ平面に対応するレンジセルをマージしポリゴンを生成する(図14(c)、図15の(a)、(b))。このプロセスは、対応する平面がほぼ同一平面上にある。すなわち、同じセンサ座標の原点から平面に下ろした垂線の足の位置が最も近い2つのレンジセルから始める。
【0079】
レンジセルをマージした結果として近似効率は高まるが近似精度は悪くなる可能性もある。
【0080】
そこで、2つのレンジセルのマージするかどうか、つまり、近似効率と近似精度のバランスは、MDL(Minimum Description Lenghth)符号長が小さくなるかどうかによって決まる。
【0081】
次に、画像マッピング処理部26は、サーフェースモデルが生成されると、サーフェースモデルの各ポリゴンを読み、このポリゴンに対応するカメラデータを位置姿勢データとカメラキャリブレーションデータより引き当て、この位置姿勢データに対応する全ての画像データをポリゴンに割り当てた図13の(b)に示す3次元グラフィック画像を生成する。
【0082】
つまり、この3次元グラフィック画像には、3次元位置とデータとが対応させられていることになるから、例えば地図座標に定義されたカーナビに本3次元画像データを記憶しておくと、カーナビ画像の道路上の所定の点を選択すると、その点の建物の3次元画像を得ることができる。
【0083】
なお、以下に本発明に係る装置の代表的な用途例について説明する。
【0084】
(1)都市防災
都市には道路、建物及び大小様々な施設が密集しており、上空からでは捉えられない地物も存在するが、本発明の装置は、都市構造物の空間的な配置や3次元形状を正確に再現させることが可能となるため、災害時の避難・誘導シミュレーションや被害予測システムを構築する上で極めて有効な情報を提供できる。
【0085】
(2)施設管理
大都市では、電力、ガス、上下水道等の膨大なライフライン網が複雑に入り組んでいる。既に、公共企業が独自の管理システムを構築しているが、情報の相互運用を図るための基準情報や不足情報の新規取得に効力を発揮する。この情報を利用すれば、3次元地図画像で電柱と建物の位置関係を見て工事の場所を決めたり、既設設備の位置や劣化状況を正確に把握させることが可能となる。
【0086】
<実施の形態2>
本発明によって得られた3次元グラフィック画像は、実映像のテクスチャー情報を持つため、3次元CGを利用したリアルな景観シュミレーション、都市の中を動き回るウォークスルーやサイバーショッピングに利用できる。
【0087】
例えば、タクシーは常に街を回っているが、その間は客が乗っていなければ無駄な走行であるが街の最新の様子を知ることになる。また、客を乗せて走ったとしても、料金は走行距離だけである。そこで、図16に示すように、例えば実施の形態1で用いたマルチラインカメラとGPS、カメラ制御装置からなる画像取得装置をタクシーに搭載し、この画像データをセンターに送信する。
【0088】
センターは携帯電話又はパソコンからの要望地点取得し、この地点の画像をその携帯又はパソコンに送信して課金すると共に、タクシーの会社サーバには画像取得の履歴を配信しておき、後日その分を支払う。
【0089】
前述の画像取得装置40(レンタルが好ましい)は、携帯電話41に接続され、センター側から携帯電話41で「xx通りのxxxビル当たりを取得」という指示があったときに、画像取得装置40に対して撮影指示を入力して撮影させ、このマルチラインカメラの各ラインセンサの画像データを年月日とGPS時刻と対応させてメモリ(図示せず)に順次記憶する。このデータを総称してカメラデータという。
【0090】
そして、タクシーのドライバーは撮影が終わると、携帯電話41を用いてメモリのカメラデータをネットワークを介してセンターに送信する。センターの画像収集装置42は、タクシーからカメラデータが送信される毎に、携帯電話41の電話番号(タクシーIDとして用いる)とカメラデータとを対応させてデータベース(図示せず)に記憶する。
【0091】
また、センターの配信・課金サーバ43は、ユーザの携帯電話44又はパソコン45から例えば「渋谷」のエリア地図の配信要求を受けたとき、携帯電話44の電話番号又はパソコンのネットワークIDをデータベース46に記憶すると共に、渋谷の地図をデータベース47から検索し、これを送信する。この地図は地理座標に定義付けられたものであり、この地図の所望の地点が選択されると、その地点の緯度経度が分かる。
【0092】
そして、ユーザは、携帯電話44又はパソコン45の画面に表示された渋谷の地図の所望の地点を選択し、カメラデータの欲しい時間帯を入力する。
【0093】
これによって、選択地点の緯度経度と時間帯がネットワークを介してセンターに送信され、配信・課金サーバ43が受信する。
【0094】
配信・課金サーバ43は、ユーザからの緯度経度、時間帯を有するカメラデータがデータベース42に存在するかどうかを判断し、存在する場合は、そのカメラデータをユーザ側の携帯電話44又はパソコン45に送信する。
【0095】
これによって、携帯電話44又はパソコン45には、渋谷の所望の地点のビル前の様子等を画像で判断できるので、例えばこれから行きたい店が混んでいるか又は車が道路に複数停車しているかが分かる。
【0096】
そして、配信・課金サーバ43は、ユーザに配信した時間帯のカメラデータを取得したタクシーIDと取得画像配信日時刻とをデータベース48に記憶し、後日これをタクシー会社のサーバ49に配信しておく。タクシー会社はこのサーバの配信データの回数から予め定められた金額をセンターに請求する。
【0097】
また、配信・課金サーバ43は、要求のあったパソコン又は携帯電話44のID又は電話番号、要求エリア、時間等をデータベースに46に記憶しており、これらのデータに基づく所定の課金を行って、銀行のユーザの口座からセンターの口座に引き落とす。
【0098】
さらに、ユーザからの緯度経度、時間帯を有するカメラデータがデータベース42に存在しない場合は、タクシーの携帯電話41に電話をかけて、「渋谷のxxビルをxxx時間帯で取得することを通報する。
【0099】
この通報は、タクシーにGPSを搭載しているので、タクシー側から現在位置を常に取得し、渋谷のxxビルをxxx時間帯で最も早く通過するタクシーを見つけて、通報する。
【0100】
なお、上記のユーザは、報道関係、警察であってもよい。特に警察の場合は、通りの駐車違反及び車両番号を直ぐに分かることになると共に治安に役立つ。
【0101】
【発明の効果】
以上のように本発明によれば、2個のマルチラインカメラと、DGPS受信器と、3台のレーザスキャナと、慣性航法装置とを移動体上に固定して移動しながら得たカメラデータ、レーザデータ、INSデータ、GPS時刻を用いて3次元グラフィック画像を生成するとき、INSデータである位置及び姿勢データをカメラデータ、レーザデータに結びつけた後に、これらのレーザデータを地理座標において合成し、この3次元のレーザデータを所定条件に従って分割した平面のポリゴンに、各距離値、角度に結びつけられる画像データをカメラデータのINSデータに基づいて検索する。そして、該検索した画像データをポリゴンに割り付けて3次元グラフィック画像を生成する。
【0102】
このため、都市空間等をより忠実に再現できる。また、カメラデータとレーザデータには位置姿勢データ、時刻が対応させられているから、各地点における所望の方向からの高精度画像を容易に得ることができるという効果が得られている。
【0103】
また、それぞれのカメラデータは、撮像方向の角度は45度にされて取得したものであるから樹木があっても、その樹木を除いた建物の映像を生成することができるとうい効果が得られている。
【図面の簡単な説明】
【図1】本発明の実施の形態1のモービルマッピング用空間情報生成装置の概略構成図である。
【図2】マルチラインカメラの側面図である。
【図3】マルチラインカメラの正面図である。
【図4】架台上におけるマルチラインカメラとレーザ、INS、DGPSの取り付け位置を示す平面図である。
【図5】画像取得装置の撮像、測距離の方向を説明する説明図である。
【図6】取得されたカメラデータ、レーザデータ、INSデータを説明する説明図である。
【図7】正確な時刻にされたINSデータの説明図である。
【図8】カメラデータ、レーザデータ、INSデータの同期、補間のタイミングチャートである。
【図9】同期、補間されたINSデータを説明する説明図である。
【図10】同期、補間されてINSデータが対応づけられたカメラデータ、レーザデータを説明する説明図である。
【図11】キャリブレーション処理を説明する説明図である。
【図12】キャリブレーション結果を反映したレーザデータの説明図である。
【図13】測距離データとサーフェース画像を説明する説明図である。
【図14】レーザデータによる合成モデルと分割を説明する説明図である。
【図15】本実施の形態による抽出画像を説明する説明図である。
【図16】実施の形態2のモービルマッピング取得データの配信システムの概略構成図である。
【符号の説明】
1 架台
2 レーザスキャナ
3 マルチラインカメラ
20 データ取込処理部
21 データ同期処理部
22 センサキャリブレーション処理部
23 単方向モデル生成処理部
24 多方向モデル合成処理部
25 サーフェースモデル生成処理部
26 画像マッピング処理部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a mobile mapping spatial information generation apparatus that easily and accurately matches laser distance measurement data and image data even for complex things such as urban spaces.
[0002]
[Prior art]
In the case of obtaining a three-dimensional image of a city, if it is performed by CAD, it must be created manually by using an existing map or photograph, which is very time consuming. Moreover, since an actual image and measurement data are not used, it lacks reality.
[0003]
Therefore, in recent years, three-dimensional information of buildings, roads, trees, and the like (hereinafter collectively referred to as features) is measured from stereo photographs using area sensors.
[0004]
[Problems to be solved by the invention]
In order to obtain the shape information of the entire object with high accuracy, range images (views) measured from a plurality of points and directions must be connected to the same global coordinate system.
[0005]
In addition, the features in the urban space are scattered, and the concealing part cannot be measured only from the same viewpoint.
[0006]
Therefore, there is a problem that it is extremely difficult to match the distance measurement data by the laser with the image data in an urban space or the like, to reduce the concealment portion, and to obtain a high resolution image.
[0007]
The present invention has been made to solve the above-described problems, and automatically obtains distance measurement data and image data up to a feature obtained directly by a laser even for a complicated matter such as an urban space. It is an object of the present invention to provide a mobile mapping spatial information generating apparatus capable of efficiently obtaining a spatial image matched on three-dimensional map coordinates with high accuracy.
[0008]
[Means for Solving the Problems]
The first aspect of the present invention is that two multi-line cameras in which three cameras having a fisheye lens and a line sensor are combined horizontally with a predetermined imaging angle and a DGPS receiver are emitted in different directions. 3D graphic images using camera data, laser data, INS data consisting of position and orientation, and GPS time obtained while moving the three laser scanners and the inertial navigation device fixed on the moving body. A mobile mapping spatial information generating device for generating the camera data and the laser data having the GPS time, the means for linking the INS data having the GPS time to the camera data having the GPS time, and reading the laser data of each laser scanner , The distance value to the measurement point indicated by each laser data, the angle of the laser direction with respect to the measurement point, Means for defining each three-dimensional geographic coordinate on the basis of data; means for synthesizing a unidirectional model of each laser defined in each three-dimensional geographic coordinate on the three-dimensional coordinate; and the synthesized model Is divided into planes according to predetermined conditions, and the divided area is converted into polygons, and image data linked to each distance value and angle of the polygon is searched based on the INS data of the camera data. And a means for allocating image data to the polygon to generate the three-dimensional graphic image.
[0009]
  The present inventionTwo multi-line cameras that have a horizontal combination of three fisheye lenses and line sensors with a predetermined imaging angle, a DGPS receiver, and a laser that emits laser beams in different directions 3 Laser scannerWhen,Inertial navigation device fixed on a moving objectAndA mobile mapping spatial information generating device that generates a three-dimensional graphic image using camera data, laser data, INS data including a position and orientation, and GPS time obtained while moving,
[0010]
  Means for linking the INS data having the GPS time to the camera data and laser data having the GPS time;
[0011]
  Means for reading the laser data of each laser scanner and defining the distance value to the measurement point indicated by each laser data and the angle of the laser direction with respect to the measurement point in each three-dimensional geographic coordinate based on the INS data When,
[0012]
  Means for synthesizing the unidirectional model of each laser defined in the respective three-dimensional geographic coordinates on the three-dimensional coordinates;
Means for dividing the composite model into planes according to predetermined conditions, and polygonizing the divided areas;
Means for searching image data linked to each distance value and angle of the polygon based on the INS data of camera data, and assigning the searched image data to the polygon to generate the three-dimensional graphic image;The main point is that
[0013]
DETAILED DESCRIPTION OF THE INVENTION
<Embodiment 1>
FIG. 1 is a schematic configuration diagram of a mobile mapping spatial information generating apparatus according to the first embodiment.
[0014]
The mobile mapping spatial information generating apparatus according to the present embodiment includes lasers 2A, 2B, 2C and multi-line cameras 3A, 3B (three fisheye lenses, respectively) of the image acquisition device 12 fixed behind the roof of the moving body 1. A line sensor), distance data Ai (A1, A2, A3) to the feature acquired by the hybrid inertial navigation system and DGPS, line sensor image data Di (D1, D2, D3), and position data Bi, attitude data θi, and GPS data Fi (GPS time data f1, position data f2) are taken in, and distance data Ah, image data Di, position data Bi, and attitude data θi are automatically connected with high accuracy. Spatial information is made into a graphic by generating a spatial model.
[0015]
Before describing the configuration of the mobile mapping spatial information generation apparatus according to the present embodiment, the spatial information acquisition apparatus will be briefly described.
[0016]
The multiline cameras 3A and 3B of the image acquisition device 12 will be described with reference to FIGS. FIG. 2 is a side view of the multiline camera, and FIG. 3 is a front view of the multiline camera.
[0017]
As shown in FIG. 2, the multi-line camera 3 has an optical system unit 8 provided with a line sensor 7 behind the fish-eye lens 6 so that the arrangement direction of the pixels becomes a vertical direction, and the line sensor 7 to drive the subject. As shown in FIG. 3, three line cameras 10 including the camera main body 9 that sends out the image pickup signal are arranged side by side in the horizontal direction and integrated (in the present embodiment, the first The first line camera 10a, the second line camera 10b, and the third line camera 10c are referred to.
[0018]
Further, the first line camera 10a, the second line camera 10b, and the third line camera 10c have the first line camera 10a and the third line on both sides of the second line camera 10b at the center. The camera 10c is integrated in the horizontal direction so that the imaging direction of the camera 10c is 45 degrees with respect to the imaging direction of the second line camera 10b.
[0019]
Such multi-line cameras 3A and 3B are fixed to a gantry 4 which is a flat plate as shown in FIG. The gantry 4 is attached to the rear of the moving body 1 as shown in FIG. 5, and the multiline cameras 3A and 3B are gantry so that the imaging direction of the respective second line cameras 10b is perpendicular to the traveling direction. 4 is attached to the center of both sides.
[0020]
In addition, three laser scanners 2A, 2B, and 2C are arranged on the gantry 4 while being shifted by a predetermined angle.
[0021]
  Also, RackA DGPS antenna 4 installed at a substantially central portion of the base 4, a DGPS receiver (in the vehicle),Sex voyageAnd a legal apparatus 11 (also referred to as INS).
[0022]
The laser scanners 2A, 2B, and 2C have scanner heads 2a, 2b, and 2c whose taper surfaces (inclined mirrors) are rotatable, respectively, at the corners on both sides of the gantry 4 on the rear part of the vehicle and the central part thereof. It is attached.
[0023]
For example, the laser scanner 2A is arranged at the rear center of the gantry 4 and is attached to the laser scanner 2A at an angle of 45 degrees horizontally. The three laser scanners 2A, 2B, and 2C irradiate infrared lasers having a very short pulse width from the scanner heads 2a, 2b, and 2c, and the lasers are reflected from the features such as buildings and trees and returned. The distance is calculated from the time until the laser beam is transmitted, and the cross-sectional profile measurement in the direction of 360 degrees is performed in combination with the rotation angle of the scanner heads 2a, 2b, and 2c when the laser is transmitted to obtain distance data and laser angle data.
[0024]
Such an image acquisition device 12 is mounted on the moving body 1 and travels to acquire surrounding images, distance data, position, posture, and angle as shown in FIG.
[0025]
In other words, if there is a tree in front of the second line camera in the center, an image of the building that includes the tree is taken, but since it is running, the second line camera when it passes the tree position The first line camera obtains an image of the back of the tree that could not be taken in step 1. Since each line sensor is attached in the vertical direction, the image obtained from the fisheye lens is a line image of 180 degrees or more in the vertical direction.
[0026]
At the same time, the distance from each point of the surrounding features to the car is acquired by three laser scanners.
[0027]
The distance data Ah, image data Di, position data Bi, and attitude data θi used in the first embodiment are premised on using data acquired by such a moving body 1.
[0028]
The distance data Ah is acquired at a frequency of 20 Hz, the image data Di is acquired at a frequency of 100 Hz, and the position and orientation data is acquired at a frequency of 50 Hz.
[0029]
Next, the configuration of FIG. 1 will be described. As shown in FIG. 1, the mobile mapping spatial information generating device 15 of the present embodiment includes a file 16 in which distance data Ah is stored, a file 17 in which position data Bi and posture data θi are stored, and image data. A file 18 in which Di is stored, a data capture processing unit 20, a data synchronization processing unit 21, a sensor calibration processing unit 22, a unidirectional model generation processing unit 23, a multidirectional model synthesis processing unit 24, A surface model generation processing unit 25, an image mapping processing unit 26, a database 27 for storing three-dimensional graphic data, and a multiline camera sensor calibration processing unit 33 (also referred to as a camera calibration processing unit) are provided. Yes.
[0030]
The image data Di, distance data Ah, position data Bi, and attitude data θi of each file will be described with reference to FIG. However, in this description, the image data Di is described as image data Di of a multi-line camera on one side. The distance data Ai will be described as distance data Ah from one laser scanner.
[0031]
The image data Di is acquired by the line camera of the multi-line camera, and the multi-line camera control device (not shown) measures the time by previously setting the internal timer with the GPS time, and the camera start pulse. Each time is input at 10 msec (100 Hz), the line sensor is driven to take an image, and the GPS time Tg at the time of shooting, the measurement time Dt of the camera start pulse from the PPS signal, and the camera start pulse are input The internal timer time Dts (referred to as shooting time) is stored in correspondence.
[0032]
  That is, in the file 18, as shown in FIG. 6A, the image data Di for three lines acquired at a cycle of 100 Hz (every 10 msec) corresponds to the GPS time Tg, the measurement time Dt, and the shooting time Dts.EtStored in units of recorded records. The date may be added to this record. Of course, you may add as a header of the file per run instead of the record unit.
[0033]
Furthermore, it is preferable that an order number, an image data number, a lens focal length, a lens aperture, a photographing width, a route name, a measurer, illuminance, an ordering party, and the like are added to this file (camera). These data are collectively referred to simply as camera data.
[0034]
The distance data Ah is distance data Ah to the feature point measured by the laser scanner, and the laser control device reads various commands and distance data Ah to the laser scanner.
[0035]
This laser control device (not shown) synchronizes the internal timer with a GPS time in advance, synchronizes the internal timer every time a PPS signal is input, fires a laser every 20 Hz, and acquires data. At this time, the scan head of the laser scanner is rotated (one rotation at 50 msec).
[0036]
And GPS time Tg when the laser was received (if GPS time was input when the laser was fired, the GPS time, or if the GPS time was not input when the laser was fired, the previous GPS time) and measurement Laser internal timer time At (distance measurement time), laser measurement angle Ar (scan head rotation angle: Ar = Arp1, Arp2,... 360) and distance Ah to the point where the laser hits are obtained and stored. Yes.
[0037]
  That is, in the file 16, as shown in FIG. 6B, the measurement angle Ar of the laser, the measurement distance Ah, the GPS time Tg at the time of measurement, and the distance measurement time are acquired at a cycle of 20 Hz (every 50 msec). Let At correspondEtStored in units of recorded records. The date may be added to this record. Of course, you may add as a header of the file per run instead of the record unit.
[0038]
Furthermore, it is preferable that weather, temperature, etc. are added to this file (laser).
[0039]
Such data is simply referred to as laser data.
[0040]
Further, the position data Bi and the attitude data θi are measured by INS, and the INS internal timer (the time measurement accuracy is coarser than that of the camera and laser internal timer) is input each time the PPS signal is input. Synchronize with the internal timer, send measurement pulses at a periodic interval of 50 Hz, obtain high-accuracy position data Bi from the reference position from GPS and the position of the device by dead reckoning calculation, and obtain the inclination (attitude Data θi) and the time (time tag) by the internal timer until the measurement pulse is input from the PPS signal, GPS time data is recorded, and this is added to the position data Bi and the attitude data θi.
[0041]
That is, as shown in FIG. 6C, the file 17 stores the position data Bi, the attitude data θi, the GPS time Tg, and the measurement time INT every 20 msec.
[0042]
Such data is simply referred to as INS data.
[0043]
When a date, a route, a measurer, and a photographing time zone are input, the data capture processing unit 20 captures these related data from the files 16, 17, and 18.
[0044]
For example, in the case of 2000, June 1, 3 o'clock to 4 o'clock, the date and GPS time Tg are read, and the data between 2000, June 1, 3 o'clock to 4 o'clock is sequentially stored in the internal memory 30. (For camera data), memory 31 (for INS data), and memory 32 (for laser data).
[0045]
  Each time data is fetched, the data synchronization processing unit 21(INS data)SynchronizationForInterpolate, position and orientation data into laser data and camera data(INS data)Tie.
[0046]
The sensor calibration processing unit 22 determines (calibration data) the relative relationship between the position, orientation, and distance measurement according to the direction of the laser and the respective attachment positions.
[0047]
The camera calibration processing unit 33 determines the orientation and the relative relationship between the image data (calibration data) according to the orientation of the camera and the respective attachment positions.
[0048]
The unidirectional model generation processing unit 23 obtains a three-dimensional model in geographic coordinates for each laser by using the calibration data for the laser data of each laser scanner.
[0049]
The multi-directional model synthesis processing unit 24 generates a highly accurate model by synthesizing a three-dimensional model of the laser in each direction.
[0050]
The surface model generation processing unit 25 extracts a plane from a set of measurement points of the combined model generated by the multi-directional model combining processing unit 24 based on a predetermined condition, and converts it into a surface.
[0051]
The image mapping processing unit 26 assigns camera data corresponding to each surface of the surface model based on position and orientation data to generate a three-dimensional graphic image.
[0052]
The operation of the mobile mapping spatial information generating apparatus configured as described above will be described below.
[0053]
When each data in the specified range is stored in the memories 30, 31, and 32 by the data capture processing unit 20, the data synchronization processing unit 21 is first acquired in the camera data at a cycle of 100 Hz (every 10 msec). The GPS time Tg of the image data Di of one line camera is read.
[0054]
For example, in FIG. 6A, since the GPS time is output at a cycle of 10 Hz, ten pieces of image data Di (D11, D21, D31,... D101) are allocated at the GPS time Tg1. Since one multi-line camera is composed of three line cameras, when the image data of three line sensors is read, (D11, D21, D31,... D101) and (D12, D22, D32,... D102) and (D13, D23, D33,... D103) are read.
[0055]
In addition, the data synchronization processing unit 21 reads the laser data acquired at a cycle of 20 Hz (every 50 msec) in the laser data.
[0056]
  For example, in FIG. 6B, GPS time is output at a 10 Hz cycle, and laser data is output every 50 msec. Therefore, at GPS time Tg1, distance measurement times At1, At2ReadExpected.
[0057]
Further, in the INS data, the data synchronization processing unit 21 reads the GPS time Tg at a cycle of 50 Hz (every 20 msec), and for each GPS time Tg, the time tag INT, the position data Bi, and the attitude data θi are delayed. An accurate INS measurement time ITh is obtained by adding the time tm and the GPS time Tg and sequentially stored in the memory 31.
[0058]
For example, in (c) of FIG. 6, GPS time is output at a cycle of 10 Hz, and INS data is output every 20 msec. Therefore, at GPS time Tg1, time tags INT1... INT5, position data B1. ... θ5 is read.
[0059]
Then, the time tag INT1, the delay time tm, and the GPS time Tg1 are added to obtain each accurate INS measurement time ITh, and as shown in FIG. 7, it is associated with the position data Bi and the attitude data θi. Stored in the memory 30.
[0060]
  Next, the data synchronization process 21 matches the camera data CMi of the shooting time Dts with reference to the accurate shooting time Dts of the camera data stored in the memory 30, for example.likeThe INS data NMi is interpolated and stored in the memory 30 as shown in FIG. That is, INS data corresponding to the camera data is obtained by interpolation.
[0061]
  For example, as shown in FIG. 8, an accurate shooting time Dts1 of the camera data CM1 every 10 msec is read and synchronized with the camera data CM1 of this Dts1.likeThe measurement time ITh1h (interpolated measurement time ITh1h) of the INS data NMD1 is interpolated.
[0062]
At the same time, as shown in FIG. 9, based on the measurement time ITh1h, the posture data θ1 is interpolated to θ1h, and the position data B1 is interpolated to B1h.
[0063]
  Similarly, the camera data CM2 is synchronized with CM2 between the INS data NM1 and NM2.likeData (INS measurement time ITh2h, position data B2h, attitude data θ2h) is interpolated.
[0064]
  On the other hand, the interpolation of the INS data NMi corresponding to the laser data RMi is synchronized with the laser data RMi every 50 msec, for example, as shown in FIG.likeInterpolate INS data.
[0065]
  For example, as shown in FIG. 8, the accurate time At1 of the laser data every 50 msec is read and synchronized with this At1.likeThe measurement time ATs1h (interpolated measurement time ATs1h) of the INS data (NMD2 in FIG. 8) is interpolated.
[0066]
At the same time, as shown in FIG. 9, based on the measurement time ATs1h, the posture data θ1 is interpolated to θθ1h, and the position data B1 is interpolated to BB1h.
[0067]
  That is, the data synchronization processing unit 21 interpolates the captured camera data, INS data, and laser data.INS dataThey are linked based on time data.
[0068]
  Then, as shown in FIG. 10, it is synchronized with each laser data RM1, RM2,.To makeInterpolate the position and orientation data of the interpolated INS data.
[0069]
However, the laser and the INS and the camera and the INS are arranged at different positions on the flat plate 1. For this reason, the sensor calibration processing unit 22 performs processing described below.
[0070]
As shown in FIG. 11, the sensor calibration processing unit 22 measures a plurality of known reference points with a laser as shown in FIG.bAnd R are defined as shown in Equation 1 (for example, once in February).
[0071]
[Expression 1]
Figure 0004486737
Then, each time the laser data in the memory 32 is input, the unidirectional model generation processing unit 23 uses the calibration data to define a coordinate value (which is obtained from the distance, angle, position, and orientation) in the map coordinates, Generate a laser data model in spatial coordinates. This is done for the three directions of the laser.
[0072]
That is, the laser data RM (RMD) in FIG. 10B is converted into a coordinate group of measurement points as shown in FIG. 12 and stored. Then, the multidirectional model synthesis processing unit synthesizes these three-direction laser data in the geographic coordinate space to obtain the laser model shown in FIG.
[0073]
The surface model generation processing unit 25 divides the laser model to form a surface as shown in FIGS. 14 (a), 14 (b), and 14 (c).
[0074]
In the extraction of a planar patch for generating a surface (FIG. 14B), first, the entire range point (measurement point) is divided according to a certain rule. The divided one is called a range cell. In the division, pay attention to each range cell and determine whether the corresponding range point can return to the space plane within the preset threshold range (the variance value of the residual of regression is smaller than the threshold value) And can be returned to a single spatial plane).
[0075]
  Therefore, it returns to one space plane.ThisAny range cells that do not divide further and repeat this process.
[0076]
The range cell after division is the smallest unit in the process of extracting the planar patch.
[0077]
By such initialization, the range point is divided into several range cells ((b) in FIG. 14), and each range cell corresponds to a plane patch unique to the space by the least square method. Approximated by these planar patches.
[0078]
However, the approximation at this time has a large number of plane patches and the approximation efficiency is poor. In order to increase the approximation efficiency, the range cells corresponding to the same plane are merged to generate a polygon (FIG. 14 (c), FIG. 15). (A), (b)). In this process, the corresponding planes are approximately on the same plane. That is, it starts with the two range cells that are closest to the position of the perpendicular foot drawn from the origin of the same sensor coordinates to the plane.
[0079]
As a result of merging the range cells, the approximation efficiency is increased, but the approximation accuracy may be deteriorated.
[0080]
Therefore, whether the two range cells are merged, that is, the balance between the approximation efficiency and the approximation accuracy is determined by whether the MDL (Minimum Description Length) code length is small.
[0081]
Next, when the surface model is generated, the image mapping processing unit 26 reads each polygon of the surface model, assigns camera data corresponding to the polygon from the position and orientation data and the camera calibration data, and this position and orientation. A three-dimensional graphic image shown in FIG. 13B in which all image data corresponding to the data is assigned to the polygon is generated.
[0082]
In other words, since the three-dimensional graphic image is associated with the three-dimensional position and the data, for example, if this three-dimensional image data is stored in the car navigation defined by the map coordinates, the car navigation image When a predetermined point on the road is selected, a three-dimensional image of the building at that point can be obtained.
[0083]
A typical application example of the apparatus according to the present invention will be described below.
[0084]
(1) Urban disaster prevention
In cities, roads, buildings, and large and small facilities are densely populated, and there are some features that cannot be captured from above. However, the device of the present invention accurately determines the spatial arrangement and three-dimensional shape of urban structures. Therefore, it is possible to provide information that is extremely effective in building a simulation / evacuation simulation and damage prediction system during a disaster.
[0085]
(2) Facility management
In a large city, a vast lifeline network such as electricity, gas, and water and sewage is complicated. Although public companies have already built their own management systems, they are effective in acquiring new reference information and missing information for interoperating information. By using this information, it is possible to determine the location of the construction by looking at the positional relationship between the utility pole and the building on the three-dimensional map image, and to accurately grasp the position and deterioration status of the existing equipment.
[0086]
<Embodiment 2>
Since the three-dimensional graphic image obtained by the present invention has texture information of real images, it can be used for realistic landscape simulation using three-dimensional CG, walk-through moving around in a city, and cyber shopping.
[0087]
For example, taxis always go around the city, but if there are no passengers in the meantime, it will be a wasteful run, but you will know the latest state of the city. Even if you run with a passenger, the fee is only the distance traveled. Therefore, as shown in FIG. 16, for example, an image acquisition device including a multi-line camera, a GPS, and a camera control device used in the first embodiment is mounted on a taxi, and this image data is transmitted to the center.
[0088]
  The center is a point requested from a mobile phone or PCTheAcquire and send the image of this point to the mobile phone or personal computer for charging, and distribute the image acquisition history to the taxi company server, and pay for that later.
[0089]
The above-described image acquisition device 40 (preferably rental) is connected to the mobile phone 41, and when the center side instructs the mobile phone 41 to "acquire xxx buildings per xxx building", the image acquisition device 40 On the other hand, a photographing instruction is input and photographing is performed, and image data of each line sensor of the multi-line camera is sequentially stored in a memory (not shown) in association with the date and the GPS time. This data is generically called camera data.
[0090]
When the taxi driver finishes shooting, the camera data in the memory is transmitted to the center via the network using the mobile phone 41. Each time the camera data is transmitted from the taxi, the center image collecting device 42 stores the telephone number (used as taxi ID) of the mobile phone 41 and the camera data in a database (not shown) in association with each other.
[0091]
Further, when the center distribution / billing server 43 receives a distribution request for an area map of, for example, “Shibuya” from the user's mobile phone 44 or personal computer 45, the telephone number of the mobile phone 44 or the network ID of the personal computer is stored in the database 46. In addition to storing it, a map of Shibuya is searched from the database 47 and transmitted. This map is defined in geographical coordinates. When a desired point on this map is selected, the latitude and longitude of that point can be known.
[0092]
Then, the user selects a desired point on the map of Shibuya displayed on the screen of the mobile phone 44 or the personal computer 45, and inputs a desired time zone for the camera data.
[0093]
As a result, the latitude / longitude and time zone of the selected point are transmitted to the center via the network, and are received by the distribution / billing server 43.
[0094]
The distribution / billing server 43 determines whether or not the camera data having the latitude and longitude and the time zone from the user exists in the database 42, and if so, the camera data is sent to the mobile phone 44 or the personal computer 45 on the user side. Send.
[0095]
As a result, the mobile phone 44 or the personal computer 45 can determine the state of the building in front of the building at a desired point in Shibuya from an image. For example, whether the store you want to go to is crowded or whether there are multiple cars on the road. I understand.
[0096]
Then, the distribution / billing server 43 stores the taxi ID and the acquired image distribution date and time at which the camera data distributed to the user is acquired in the database 48, and distributes this to the taxi company server 49 at a later date. . The taxi company charges the center a predetermined amount from the number of distribution data of this server.
[0097]
In addition, the distribution / billing server 43 stores the ID or telephone number of the requested personal computer or mobile phone 44, the requested area, time, etc. in the database 46, and performs a predetermined billing based on these data. , Withdraw from the bank user account to the center account.
[0098]
Furthermore, when the camera data having the latitude / longitude and time zone from the user does not exist in the database 42, a call is made to the taxi mobile phone 41, and the message “Notify that the xx building in Shibuya is acquired in the xxx time zone”. .
[0099]
Since this taxi is equipped with a GPS, it always obtains the current position from the taxi side, finds the taxi that passes the xx building in Shibuya first in the xxx time zone, and reports it.
[0100]
Note that the user may be a news report or a police. Especially in the case of the police, the parking violation and the vehicle number of the street can be known immediately and it is useful for security.
[0101]
【The invention's effect】
  As described above, according to the present invention, camera data obtained while moving two multiline cameras, a DGPS receiver, three laser scanners, and an inertial navigation device fixed on a moving body, When generating 3D graphic images using laser data, INS data, and GPS time, INS dataIspositionas well asAttitude dataetcAre combined with the camera data and laser data, and then these laser data are combined in geographical coordinates, and image data associated with each distance value and angle is formed into a plane polygon obtained by dividing the three-dimensional laser data according to predetermined conditions. Search based on INS data of camera data. Then, the searched image data is assigned to a polygon to generate a three-dimensional graphic image.
[0102]
For this reason, city space etc. can be reproduced more faithfully. In addition, since the camera data and the laser data are associated with the position / orientation data and the time, it is possible to easily obtain a high-accuracy image from a desired direction at each point.
[0103]
In addition, since each camera data is acquired with the angle of the imaging direction being 45 degrees, even if there is a tree, it is possible to generate an image of a building excluding the tree. ing.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a mobile mapping spatial information generation apparatus according to a first embodiment of the present invention.
FIG. 2 is a side view of a multi-line camera.
FIG. 3 is a front view of a multi-line camera.
FIG. 4 is a plan view showing attachment positions of a multiline camera and lasers, INS, and DGPS on a gantry.
FIG. 5 is an explanatory diagram for explaining the direction of imaging and distance measurement of the image acquisition device.
FIG. 6 is an explanatory diagram for explaining acquired camera data, laser data, and INS data.
FIG. 7 is an explanatory diagram of INS data set at an accurate time.
FIG. 8 is a timing chart for synchronization and interpolation of camera data, laser data, and INS data.
FIG. 9 is an explanatory diagram for explaining synchronized and interpolated INS data.
FIG. 10 is an explanatory diagram for explaining camera data and laser data that are synchronized and interpolated and associated with INS data;
FIG. 11 is an explanatory diagram for explaining calibration processing;
FIG. 12 is an explanatory diagram of laser data reflecting a calibration result.
FIG. 13 is an explanatory diagram illustrating distance measurement data and a surface image.
FIG. 14 is an explanatory diagram for explaining a synthesis model and division based on laser data.
FIG. 15 is an explanatory diagram illustrating an extracted image according to the present embodiment.
FIG. 16 is a schematic configuration diagram of a mobile mapping acquisition data distribution system according to the second embodiment.
[Explanation of symbols]
1 frame
2 Laser scanner
3 Multi-line camera
20 Data acquisition processing section
21 Data synchronization processor
22 Sensor calibration processor
23 Unidirectional model generation processing unit
24 Multi-directional model synthesis processing unit
25 Surface model generation processing unit
26 Image mapping processor

Claims (5)

魚眼レンズとラインセンサとを組み合わせたカメラを水平に所定の撮像角度を有して3台併設してなる2個のマルチラインカメラと、DGPS受信器と、異なる方向にレーザを発射して受信する3台のレーザスキャナと、慣性航法装置とを移動体上に固定し、移動しながら得たカメラデータ、レーザデータ、位置姿勢からなるINSデータ、GPS時刻を用いて3次元グラフィック画像を生成するモービルマッピング用空間情報生成装置であって、
前記GPS時刻を有するカメラデータ、レーザデータに対して、前記GPS時刻を有する前記INSデータを結びつける手段と、
前記各レーザスキャナのレーザデータを読み込み、それぞれのレーザデータが示す測定点までの距離値、測定点に対するレーザ方向の角度を、前記INSデータを基準にしてそれぞれの3次元の地理座標に定義する手段と、
前記それぞれの3次元の地理座標に定義された各レーザの単方向モデルを3次元座標上に合成する手段と、
前記合成モデルを所定条件に従った平面に分割し、該分割エリアをポリゴン化する手段と、
前記ポリゴンの各距離値、角度に結びつけられる画像データをカメラデータの前記INSデータに基づいて検索し、該検索した画像データを前記ポリゴンに割り付けて前記3次元グラフィック画像を生成する手段とを有することを特徴とするモービルマッピング用空間情報生成装置。
Two multi-line cameras, which are a combination of three fisheye lenses and line sensors with a predetermined imaging angle horizontally and a DGPS receiver, emit lasers in different directions and receive them 3 Mobile mapping that generates a three-dimensional graphic image using a camera scanner, laser data, INS data consisting of position and orientation, and GPS time obtained by moving a fixed laser scanner and an inertial navigation device on a moving body Spatial information generation device,
Means for linking the INS data having the GPS time to the camera data and laser data having the GPS time;
Means for reading the laser data of each laser scanner and defining the distance value to the measurement point indicated by the respective laser data and the angle of the laser direction with respect to the measurement point in the respective three-dimensional geographic coordinates based on the INS data When,
Means for synthesizing the unidirectional model of each laser defined in the respective three-dimensional geographic coordinates on the three-dimensional coordinates;
Means for dividing the composite model into planes according to a predetermined condition and polygonizing the divided area;
Means for retrieving image data associated with each distance value and angle of the polygon based on the INS data of the camera data, and assigning the retrieved image data to the polygon to generate the three-dimensional graphic image. A mobile mapping spatial information generating device characterized by the above.
前記カメラデータは第1の所定間隔の撮影時刻で、前記INSデータは第2の所定間隔(第1の所定間隔<第2の所定間隔)の計測時刻で、前記レーザデータは第3の所定間隔(第2の所定間隔<第3の所定間隔)の測定時刻で、各々行われて取得し、
前記結びつける手段は、
前記撮影時刻カメラデータを取得したとき、この撮影時刻に同期するように前記INSデータの計測時刻を補間し、このINSデータと前記カメラデータとを結び付け、
また、前記レーザデータを取得したとき、この測定時刻に同期するように前記INSデータの計測時刻を補間し、このINSデータと前記レーザデータとを結びつけることを特徴とする請求項1記載のモービルマッピング用空間情報生成装置。
The camera data is a shooting time at a first predetermined interval, the INS data is a measurement time at a second predetermined interval (first predetermined interval <second predetermined interval), and the laser data is a third predetermined interval. Each obtained at a measurement time of (second predetermined interval <third predetermined interval),
The linking means is
When the camera data at the shooting time is acquired, the measurement time of the INS data is interpolated so as to be synchronized with the shooting time, and the INS data and the camera data are linked.
2. The mobile mapping according to claim 1, wherein when the laser data is acquired, the measurement time of the INS data is interpolated so as to be synchronized with the measurement time, and the INS data and the laser data are linked. Spatial information generator.
前記INSデータの計測時刻は、
前記第2の所定間隔で前記INSデータを取得したとき、前記GPS時刻と同期を取った所定精度以下の計測時刻と遅れ時間とから前記取得したINSデータの正確な計測時刻を求める手段を起動させて、前記計測時刻を得ていることを特徴とする請求項2記載のモービルマッピング用空間情報生成装置。
The measurement time of the INS data is
When the INS data is acquired at the second predetermined interval, a means for obtaining an accurate measurement time of the acquired INS data from a measurement time and a delay time that are not more than a predetermined accuracy synchronized with the GPS time is activated. The mobile mapping spatial information generating apparatus according to claim 2, wherein the measurement time is obtained.
前記分割エリアは、
前記測定点をレンジポイントとし、前記合成モデルに散らばっているレンジポイントの各々を、前記所定条件に基づいて分割し、これをレンジセルとし、該レンジセル内のレンジポイントが予め設定した閾値の範囲内で、かつこれらのレンジポイントが空間平面に回帰したとき、その平面を抽出してこれを前記分割エリアとすることを特徴とする請求項1、2又は3記載のモービルマッピング用空間情報生成装置。
The divided area is
The measurement point is a range point, and each of the range points scattered in the composite model is divided based on the predetermined condition, which is defined as a range cell, and the range point in the range cell is within a preset threshold range. 4. The mobile mapping spatial information generating device according to claim 1, wherein when these range points return to a spatial plane, the plane is extracted and used as the divided area.
前記レンジポイントが空間平面に回帰しないときは所定の間、前記平面の抽出までのプロセスを繰り返して最小の平面を抽出することを特徴とする請求項4記載のモービルマッピング用空間情報生成装置。  5. The mobile mapping spatial information generating apparatus according to claim 4, wherein when the range point does not return to the spatial plane, the process until the extraction of the plane is repeated for a predetermined period to extract the minimum plane.
JP2000214766A 2000-07-14 2000-07-14 Spatial information generation device for mobile mapping Expired - Lifetime JP4486737B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000214766A JP4486737B2 (en) 2000-07-14 2000-07-14 Spatial information generation device for mobile mapping

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000214766A JP4486737B2 (en) 2000-07-14 2000-07-14 Spatial information generation device for mobile mapping

Publications (2)

Publication Number Publication Date
JP2002031528A JP2002031528A (en) 2002-01-31
JP4486737B2 true JP4486737B2 (en) 2010-06-23

Family

ID=18710285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000214766A Expired - Lifetime JP4486737B2 (en) 2000-07-14 2000-07-14 Spatial information generation device for mobile mapping

Country Status (1)

Country Link
JP (1) JP4486737B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101219767B1 (en) * 2011-07-04 2013-01-17 (주)아세아항측 Method for Field Survey of Digital Mapping Road Layers Using Vehicle Mobile Mapping System
JP2013069235A (en) * 2011-09-26 2013-04-18 Asia Air Survey Co Ltd Apparatus for associating object with multiple images, data reproduction device thereof, and image processing system
JP2021182177A (en) * 2020-05-18 2021-11-25 防衛装備庁長官 Vehicle steering system and vehicle steering method

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4152698B2 (en) * 2002-09-06 2008-09-17 三菱電機株式会社 3D building model data generator
KR100502075B1 (en) * 2002-11-18 2005-07-25 한국전자통신연구원 System for extracting management information of a roadside tree
KR20040050739A (en) * 2002-12-09 2004-06-17 한국전자통신연구원 3d feature extraction and classification method by using the mobile laser scanning data
JP2004265396A (en) * 2003-02-13 2004-09-24 Vingo:Kk Image forming system and image forming method
JP4436632B2 (en) * 2003-08-19 2010-03-24 コマツエンジニアリング株式会社 Survey system with position error correction function
JP4255777B2 (en) * 2003-08-25 2009-04-15 東日本旅客鉄道株式会社 Radio wave propagation simulation apparatus and radio wave propagation simulation method
JP2006153772A (en) * 2004-11-30 2006-06-15 Matsushita Electric Works Ltd Surveying equipment
JP4502793B2 (en) * 2004-12-14 2010-07-14 三菱電機株式会社 Shooting video processing system
JP5127128B2 (en) 2004-12-21 2013-01-23 韓國電子通信研究院 Camera position and orientation information correction method and apparatus
JP4734552B2 (en) * 2005-03-15 2011-07-27 名古屋市 Method and apparatus for measuring three-dimensional shape of road surface
KR100587397B1 (en) * 2005-11-24 2006-06-08 (주)대한지적기술단 Method of surveying structural facilities along road by using vehicle with gps receiver, laser measuring instrument and camera
KR100587405B1 (en) * 2005-11-24 2006-06-08 (주)대한지적기술단 Method of updating gis numerical map of surveying information structural facilities along road by using vehicle with gps receiver, laser measuring instrument and camera
USRE46672E1 (en) 2006-07-13 2018-01-16 Velodyne Lidar, Inc. High definition LiDAR system
JP5073256B2 (en) * 2006-09-22 2012-11-14 株式会社トプコン POSITION MEASUREMENT DEVICE, POSITION MEASUREMENT METHOD, AND POSITION MEASUREMENT PROGRAM
US8884962B2 (en) 2006-10-20 2014-11-11 Tomtom Global Content B.V. Computer arrangement for and method of matching location data of different sources
WO2008062819A1 (en) 2006-11-21 2008-05-29 Nec Corporation Three-dimensional map data generating system, three-dimensional map data generating method and three-dimensional data generating program
CN101339048B (en) * 2007-07-02 2011-01-19 佛山市顺德区顺达电脑厂有限公司 Driving safety monitoring system and method
KR100913690B1 (en) 2007-10-26 2009-08-24 한국건설기술연구원 3 dimension modeling systems and construction method of 3 dimension modeling for remote controlling of a intelligence excavator
KR100855066B1 (en) 2008-05-16 2008-08-29 (주)한성유아이엔지니어링 Gis system
KR100855071B1 (en) 2008-05-16 2008-08-29 (주)한성유아이엔지니어링 Gis system
JP5227110B2 (en) 2008-08-07 2013-07-03 株式会社トプコン Omnidirectional camera with GPS and spatial data collection device
JP5688876B2 (en) 2008-12-25 2015-03-25 株式会社トプコン Calibration method for laser scanner measurement system
JP5361421B2 (en) * 2009-01-30 2013-12-04 三菱電機株式会社 Measuring device, laser position / orientation value correction method and laser position / orientation value correction program for measuring device
JP5339953B2 (en) * 2009-02-17 2013-11-13 三菱電機株式会社 3D map correction apparatus and 3D map correction program
JP5464915B2 (en) * 2009-06-09 2014-04-09 三菱電機株式会社 Object detection apparatus and object detection method
JP5559997B2 (en) * 2009-07-17 2014-07-23 株式会社トプコン Position measuring method and position measuring apparatus
JP4866951B2 (en) 2009-09-16 2012-02-01 株式会社日立製作所 Positioning combination determination system
JP5337658B2 (en) 2009-10-02 2013-11-06 株式会社トプコン Wide-angle imaging device and measurement system
WO2011091552A1 (en) * 2010-02-01 2011-08-04 Intel Corporation Extracting and mapping three dimensional features from geo-referenced images
JP5088401B2 (en) * 2010-06-23 2012-12-05 日本電気株式会社 Road structure measuring method and road surface measuring device
JP5912234B2 (en) 2010-07-16 2016-04-27 株式会社トプコン measuring device
JP2011059121A (en) * 2010-10-01 2011-03-24 Mitsubishi Electric Corp Measurement truck and base
JP5653715B2 (en) 2010-10-27 2015-01-14 株式会社トプコン Laser surveyor
KR101220527B1 (en) 2011-03-02 2013-01-21 한국과학기술원 Sensor system, and system and method for preparing environment map using the same
CN102353379B (en) * 2011-07-06 2013-02-13 上海海事大学 Environment modeling method applicable to navigation of automatic piloting vehicles
JP5874252B2 (en) * 2011-09-07 2016-03-02 株式会社Ihi Method and apparatus for measuring relative position with object
CN102508257B (en) * 2011-09-27 2013-09-11 北京航空航天大学 Vehicle-mounted mobile mapping device
JP5602779B2 (en) * 2012-03-08 2014-10-08 株式会社 日立産業制御ソリューションズ On-site sketch drawing system and laser measuring device
CN103837130B (en) * 2012-11-22 2016-04-20 香港理工大学 For data processing method and the device of airborne lidar system
GB201303076D0 (en) * 2013-02-21 2013-04-10 Isis Innovation Generation of 3D models of an environment
CN103424112B (en) * 2013-07-29 2016-06-01 南京航空航天大学 A kind of motion carrier vision navigation method auxiliary based on laser plane
JP6272460B2 (en) * 2014-03-31 2018-01-31 株式会社日立産機システム 3D map generation system
JP6347674B2 (en) * 2014-06-04 2018-06-27 株式会社トプコン Laser scanner system
US10627490B2 (en) 2016-01-31 2020-04-21 Velodyne Lidar, Inc. Multiple pulse, LIDAR based 3-D imaging
JP6449180B2 (en) * 2016-02-01 2019-01-09 ベステラ株式会社 3D image display system, 3D image display device, 3D image display method, and 3D image display system for plant equipment
WO2017164989A1 (en) 2016-03-19 2017-09-28 Velodyne Lidar, Inc. Integrated illumination and detection for lidar based 3-d imaging
US10393877B2 (en) 2016-06-01 2019-08-27 Velodyne Lidar, Inc. Multiple pixel scanning LIDAR
JP6759850B2 (en) * 2016-08-22 2020-09-23 株式会社リコー Information processing system, information processing device and program
JP6755483B2 (en) * 2016-11-24 2020-09-16 株式会社日本インシーク Data creation system for sleeper processing
JP6742262B2 (en) * 2017-03-08 2020-08-19 三菱電機株式会社 Intersection detector
US10386465B2 (en) 2017-03-31 2019-08-20 Velodyne Lidar, Inc. Integrated LIDAR illumination power control
WO2018208843A1 (en) 2017-05-08 2018-11-15 Velodyne Lidar, Inc. Lidar data acquisition and control
CN108132052A (en) * 2018-02-06 2018-06-08 武汉市云宇智能科技有限责任公司 A kind of electronic total station and its application method
WO2019210360A1 (en) * 2018-05-01 2019-11-07 Commonwealth Scientific And Industrial Research Organisation Method and system for use in colourisation of a point cloud
US10712434B2 (en) 2018-09-18 2020-07-14 Velodyne Lidar, Inc. Multi-channel LIDAR illumination driver
CN109297510B (en) 2018-09-27 2021-01-01 百度在线网络技术(北京)有限公司 Relative pose calibration method, device, equipment and medium
US11082010B2 (en) 2018-11-06 2021-08-03 Velodyne Lidar Usa, Inc. Systems and methods for TIA base current detection and compensation
CN109405826B (en) * 2018-11-16 2020-12-29 北京兆维电子(集团)有限责任公司 Robot positioning method and system
US11885958B2 (en) 2019-01-07 2024-01-30 Velodyne Lidar Usa, Inc. Systems and methods for a dual axis resonant scanning mirror
KR102146839B1 (en) * 2019-02-20 2020-08-21 강영호 System and method for building real-time virtual reality
CN110068308B (en) * 2019-05-16 2021-03-23 合刃科技(深圳)有限公司 Distance measurement method and distance measurement system based on multi-view camera
CN110030999A (en) * 2019-05-21 2019-07-19 杭州鸿泉物联网技术股份有限公司 A kind of localization method based on inertial navigation, device, system and vehicle
CN110388919B (en) * 2019-07-30 2023-05-23 上海云扩信息科技有限公司 Three-dimensional model positioning method based on feature map and inertial measurement in augmented reality
JP7347398B2 (en) * 2020-10-29 2023-09-20 トヨタ自動車株式会社 object detection device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH099197A (en) * 1995-06-21 1997-01-10 Asia Kosoku Kk Recording device for consecutive stereo image data
JPH11211473A (en) * 1998-01-22 1999-08-06 Komatsu Ltd Topographic form measuring device
JPH11257953A (en) * 1998-03-06 1999-09-24 Koa:Kk Tunnel wall surface observing apparatus
JP2000171249A (en) * 1998-12-03 2000-06-23 Asia Air Survey Co Ltd Position acquiring device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH099197A (en) * 1995-06-21 1997-01-10 Asia Kosoku Kk Recording device for consecutive stereo image data
JPH11211473A (en) * 1998-01-22 1999-08-06 Komatsu Ltd Topographic form measuring device
JPH11257953A (en) * 1998-03-06 1999-09-24 Koa:Kk Tunnel wall surface observing apparatus
JP2000171249A (en) * 1998-12-03 2000-06-23 Asia Air Survey Co Ltd Position acquiring device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101219767B1 (en) * 2011-07-04 2013-01-17 (주)아세아항측 Method for Field Survey of Digital Mapping Road Layers Using Vehicle Mobile Mapping System
JP2013069235A (en) * 2011-09-26 2013-04-18 Asia Air Survey Co Ltd Apparatus for associating object with multiple images, data reproduction device thereof, and image processing system
JP2021182177A (en) * 2020-05-18 2021-11-25 防衛装備庁長官 Vehicle steering system and vehicle steering method

Also Published As

Publication number Publication date
JP2002031528A (en) 2002-01-31

Similar Documents

Publication Publication Date Title
JP4486737B2 (en) Spatial information generation device for mobile mapping
JP4284644B2 (en) 3D model construction system and 3D model construction program
TW565810B (en) Three-dimensional electronic map information generation method
US10291898B2 (en) Method and apparatus for updating navigation map
JP3432212B2 (en) Image processing apparatus and method
KR102200299B1 (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
JP6950832B2 (en) Position coordinate estimation device, position coordinate estimation method and program
US20130057686A1 (en) Crowd sourcing parking management using vehicles as mobile sensors
US20140278065A1 (en) System and Method for Distortion Correction in Three-Dimensional Environment Visualization
JP2005268847A (en) Image generating apparatus, image generating method, and image generating program
EP2588882B1 (en) Method for producing a digital photo wherein at least some of the pixels comprise position information, and such a digital photo
US20080319655A1 (en) Method for Generating an Enhanced Map
JP2002034055A (en) Wide view angle multi-directional image acquiring apparatus and system for mobile unit
CN101513062A (en) On-vehicle image processor and viewpoint change information generating method
JP4989495B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium therefor
US8977074B1 (en) Urban geometry estimation from laser measurements
US11421997B2 (en) Map construction system and map construction method
JP2009276266A (en) Navigation device
KR20080019947A (en) Road information report method and system by using road information acquired from image
JP3833860B2 (en) Spatial information acquisition device for moving objects
CN113196341A (en) Method for detecting and modeling objects on the surface of a road
Lee et al. A study on application for 4S-van
JP7467722B2 (en) Feature Management System
JP7412118B2 (en) Ledger creation system
CN111221998B (en) Multi-view operation checking method and device based on point cloud track picture linkage

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100323

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100329

R150 Certificate of patent or registration of utility model

Ref document number: 4486737

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term