JP2004030011A - 3次元形状データ取得システムおよび方法 - Google Patents
3次元形状データ取得システムおよび方法 Download PDFInfo
- Publication number
- JP2004030011A JP2004030011A JP2002182723A JP2002182723A JP2004030011A JP 2004030011 A JP2004030011 A JP 2004030011A JP 2002182723 A JP2002182723 A JP 2002182723A JP 2002182723 A JP2002182723 A JP 2002182723A JP 2004030011 A JP2004030011 A JP 2004030011A
- Authority
- JP
- Japan
- Prior art keywords
- data
- information
- epi
- dimensional
- acquisition system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】長い距離に渡って連続して3次元形状データを効率的に取得することができる3次元形状データ取得システムを提供すること。
【解決手段】3次元形状データ取得システムは、車両等の移動手段10と、撮影画像を入力するカメラ11と、車両の位置を検出するGPS装置12と、カメラ、GPS、姿勢センサから出力される情報に基づき、撮影画像を処理して3次元特徴点情報を出力する計算機15とを備える。本発明によれば、奥行き方向の特徴点検出距離を限定することにより、任意の時点において処理すべきデータ容量を一定の容量以下に抑え、取り込み制限を無くしている。また、更新すべき部分のみを処理することにより、効率的に特徴点の抽出処理を実行でき、撮影しながらリアルタイムに特徴点を抽出することができる。
【選択図】 図1
【解決手段】3次元形状データ取得システムは、車両等の移動手段10と、撮影画像を入力するカメラ11と、車両の位置を検出するGPS装置12と、カメラ、GPS、姿勢センサから出力される情報に基づき、撮影画像を処理して3次元特徴点情報を出力する計算機15とを備える。本発明によれば、奥行き方向の特徴点検出距離を限定することにより、任意の時点において処理すべきデータ容量を一定の容量以下に抑え、取り込み制限を無くしている。また、更新すべき部分のみを処理することにより、効率的に特徴点の抽出処理を実行でき、撮影しながらリアルタイムに特徴点を抽出することができる。
【選択図】 図1
Description
【0001】
【発明の属する技術分野】
本発明は3次元形状データ取得システムに関し、特に、自動車等の移動手段に搭載して移動しながら道路脇の建築物等の3次元形状データを連続して取得可能な3次元形状データ取得システムに関するものである。
【0002】
【従来の技術】
従来、物体や景観などの3次元形状データを入力するための入力方法が提案されている。例えば特開2001−28049には、ビデオカメラで景観を撮影し、画像のぶれを補正しながらエピポーラ画像(EPI)解析を行って3次元形状情報を抽出する技術が開示されている。
【0003】
【発明が解決しようとする課題】
近年、カーナビゲーションシステムが普及しているが、例えばカーナビゲーションシステムにおいて道路の両側の景観を3次元形状の景観として表示するためには、主要な道路の両側の家やビル等の建築物の3次元景観データを長い距離に渡って連続して取得する必要がある。
【0004】
ところが上記した従来の方式においては、長い距離に渡って連続して取得する点に配慮されておらず、長い距離に渡って連続して3次元形状データを効率的に取得することができないという問題点があった。
【0005】
本発明の目的は、前記のような従来技術の問題点を解決し、長い距離に渡って連続して3次元形状データを効率的に取得することができる3次元形状データ取得システムを提供することにある。
【0006】
【課題を解決するための手段】
本発明の3次元形状データ取得システムは、移動手段と、移動手段に搭載され、撮影画像を入力する撮影手段と、移動手段の位置を検出する位置検出手段と、撮影手段および位置検出手段から出力される情報に基づき、撮影画像を処理して3次元特徴点情報を出力する画像処理手段とを備えたことを特徴とする。
【0007】
本発明によれば、画像処理手段においては、奥行き方向の特徴点検出距離の範囲を限定することにより、任意の時点において処理すべきEPI容量、及びハフ平面を一定の容量以下に抑え、取り込みの制限を無くすことができる。
【0008】
また、1つ前の取り込み画像の処理データを利用して、次に取り込んだ画像データによって更新すべき部分のみを処理することにより、効率的に特徴点の抽出処理を実行でき、撮影しながらリアルタイムに特徴点を抽出することも可能となる。
【0009】
【発明の実施の形態】
以下、本発明の実施の形態を詳細に説明する。図1は、本発明の3次元形状データ取得システム主要部の構成を示すブロック図である。例えば自動車等の移動手段10には、1台あるいは複数台のビデオカメラ11、GPS装置12、加速度、姿勢センサ13、情報処理装置15を含む3次元形状データ取得システムが搭載される。
【0010】
ビデオカメラ11としては、IEEE1394端子経由のDVあるいはNTSC等の通常のデジタルあるいはアナログビデオ出力信号が得られる市販のビデオカメラを使用可能であるが、デジタルスチルカメラであっても、情報処理装置から取り込み(シャッター)信号に対応して所望の周期で静止画を連続して取り込めるものであれば使用可能である。なお、後述するが上下の視野角が不足する場合には2台以上のカメラを仰角を変えて設置してもよい。また、本発明においては基本的にはカラーおよびモノクロどちらでも実施可能であるが、最後に撮影した画像データを貼り付けるので、カラーの方が好ましい。
【0011】
情報処理装置が画像を取り込む周期は、必要とする3次元形状データの精度、移動手段の移動速度、情報処理装置の処理速度等によって決定される。従って、3次元形状データ取得システムの取り込みあるいは処理速度が追いつかない場合には車両の移動速度を遅くすればよい。
【0012】
GPS装置12は、周知のGPS信号を受信することによって位置情報を得るものである。GPSは単独測位では誤差が大きいので、基準点(基地局)において観測したGPSの情報を測位すべき移動局に伝送して高精度で移動局の位置を求めることができるRTK(Real Time Kinematic)−GPSを採用する。
【0013】
なお、RTK−GPSは周知であり、任意の位置に基地局を設置し、当該基地局と無線で接続された移動局の位置を高精度に測定するシステムは市販されているので、例えばトリンブル社製2周波GPS受信機5700を使用した(株)ジェック製RTK−GPSシステムGPS−GUIDER IVを使用してもよい。よって詳細な説明は省略する。また、基地局および基地局と移動局との通信回線としては公知の任意のものを利用可能である。
【0014】
加速度、姿勢センサ13は市販のものを利用可能である。例えば日本航空電子工業株式会社から市販されている姿勢計測装置JCS−7401GAは、光ファイバージャイロおよび加速度センサを備えており、ロール角、ピッチ角、方位角、X加速度、Y加速度、Z加速度、X角速度、Y角速度、Z角速度をデジタル出力することができる。
【0015】
情報処理装置15は、映像データ、GPSデータ、姿勢データの入力ポートおよびデータ保存用のハードディスク等の大容量記憶装置を備えており、自動車等に搭載可能であれば、ノートパソコンなど市販の任意の計算機システムを使用可能である。また、EPIデータの生成以降の処理は、各EPIデータ毎に並列処理が可能であるので、必要な数だけ複数のパソコンをLAN等により接続してデータを分配して並列処理させてもよい。
【0016】
なお、特徴点の抽出以降の処理は、リアルタイムに処理する必要はないので、保存された特徴点データを周知の任意の計算機システムに読み込んで、ワイヤフレームモデルの生成やテキスチャマッピング処理を行えばよい。
【0017】
図2は、本発明のシステムによる3次元形状データの取得方法をを示す説明図である。移動手段としては自動車を使用し、例えば自動車の進行方向に対して90度右側が撮影されるようににビデオカメラ11を固定する。また、GPS装置12、加速度、姿勢センサ13も車両に固定する。
【0018】
カメラ11は、図2(b)に示すように、道路沿いの建造物が全て撮影できるように、仰角を付けて設置されるが、1台のカメラで建造物の上から下まで撮影できない場合には、2台のカメラを使用して上部と下部とを分けて撮影し、情報処理装置に取り込んだ後に1枚の画像に合成してもよい。
【0019】
図3は、本発明のシステムによる画像処理方法を示す説明図である。本発明においては、例えば道路上を移動しながら移動方向と直角方向を所定の距離毎に撮影する。そして、図3の左側に示されているように、撮影された複数枚の画像の所定の位置の走査線の輝度データを集めて順に並べて(画像データの上側に追加して)いき、特定走査線のEPIデータが生成される。
【0020】
このEPIデータは走査線毎に生成されるので、例えば有効な走査線が400本あれば、EPIデータも400個生成される。各EPIデータは特定の走査線、即ちカメラの特定の仰角の画像と対応している。図3において、例えば家の部分のみが黒く撮影された場合には、図示する特定の走査線のEPIは家の幅を持つ傾斜した黒い帯の画像となる。
【0021】
このEPIの傾斜角度はカメラから家までの距離に対応している。即ち、近くにあるものは画像上を左から右へ早く移動するので、黒い帯の傾斜角度は小さくなり、逆に遠くにあるものはゆっくり移動するので、傾斜角度は大きくなる。従って、例えば画像処理によって黒い帯の縁の直線を検出し、その傾斜角度から物体までの距離を算出することができる(詳細は後述する)。また、走査線の番号から仰角が判明する。
【0022】
よって、カメラの位置および撮影方向(移動方向)が判明すれば、家の縁の点(輝度の変化点=特徴点)の3次元の絶対位置座標を算出することが可能となる。本発明においては、カメラの位置および向きをGPS装置および姿勢センサによりリアルタイムに計測し、連続して撮影した画像からEPIデータを生成し、特徴点の3次元座標を得る。
【0023】
図4は、本発明のシステムの処理内容全体を示すフローチャートである。S1においては、所定の距離ごとに移動画像データを連続して取り込む。S2においては、各走査線毎に上述したEPIデータを生成する。S3においては、EPIデータをフィルタ処理し、エッジ(輝度の変化している部分)のみを抽出する。S4においては、公知のハフ変換処理によって直線を検出する。
【0024】
S5においては、直線の傾き、カメラの位置、仰角等から特徴点の3次元位置座標データを生成し、保存する。なお、S1〜S5はリアルタイムに見かけ上あるいは実際にパイプライン処理される。また、複数のEPIデータに対する処理は並列に処理されてもよい。
【0025】
収集された特徴点データは、例えば別の計算機システムに入力され、S6においては、例えば2次元地図データや航空写真データ等を参照して、特徴点データから例えば家やビルの輪郭線を生成し、沿道の建築物の3次元ワイヤモデルを生成する。
【0026】
図5は、本発明のシステムにおける各処理とデータの関係を示すブロック図である。図4のS1〜S5のリアルタイム処理20によって3次元特徴点データ21およびテキスチャ(例えば所定の間隔で撮影した画像を中心を通る水平方向の所定の範囲だけ切り出して接続した景観の連続画像)データ22が生成される。3次元特徴点データ21は2次元地図データ24および衛星(航空)写真データ27と共に直線検出処理23に入力され、2次元地図データ24および衛星写真データ27を参照して不要な特徴点を削除し、例えばハフ変換処理によってビルなどの輪郭の直線を検出する。
【0027】
検出された直線データはワイヤフレーム抽出処理25によって、例えば直線の不足部分を延長したり、直線の端点同士を連結してビル等のワイヤフレームデータが生成される。テキスチャマッピング処理26においては、ビル等のワイヤフレームモデルの表面に、テキスチャデータ22や衛星写真データ27の該当部分を切り取って貼り付けることにより、実際のビル等と同等の外観を表示可能な3次元立体形状データ28を出力する。
【0028】
図6は、公知のハフ変換の方法を示す説明図である。例えば図6(a)のようにxy座標上に8個の点(xn,yn)30が存在するものとすると、ハフ変換においては、各点をmc座標(ハフ平面)上の直線35に写像する。ここで、m、cは直線式y=mx+cを満足する値である。
【0029】
直線式y=mx+cに任意の点(xn,yn)30を代入すると、yn=mxn+cとなり、これは点(xn,yn)30を通る任意の直線を表すが、c=−xnm+ynと変形すると、mc座標上における特定の直線35を表す。図6(b)は、図6(a)の8個の点をmc座標上に写像したグラフである。
【0030】
次に、(b)のグラフにおいて、例えば所定の大きさの領域(1×1)を通過する直線数を調べることにより、直線が最も集中している点36、37を抽出して、そのm、cを求める。この2つの点36、37は(a)のグラフの2つの直線31、32と対応しており、直線式はy=mx+cとなる。以上のような処理によって画像データから複数の直線データを抽出することができる。
【0031】
なお、図6(a)のxy平面上において垂直に近い直線は、mの値が非常に大きくなり、処理可能な範囲を超えてしまう。しかし、EPI上において、mの値はカメラから対象物までの距離に対応し、所定の距離以上離れたものは測定する必要がないので、測定すべきmの値の上限値を決め、mがそれ以下の直線のみを検出するようにすれば、上記問題は解決する。また、カメラに非常に近い位置にある対象物も、街路樹や電柱で、不要なものなので、カメラからある一定距離以上離れた対象物を認識すれば良く、結局最も近い認識したい点に対応するmminと、最も遠い認識したい点に対応するmmaxの間の範囲に収まる直線群のみを抽出すれば良い。また、一方向に進行するので、被写体は画面上、同一方向に移動して行く。そのため直線の傾きは全て勾配の正負が揃い、該当する正あるいは、負勾配の一方のものの処理で十分である。
【0032】
また、上記問題は、直線を表す式として以下に示すような極座標表現を採用することによっても解決できる。
ρ=xcosθ+ysinθ
なお、ρは原点と直線との最短距離であり、θは正のx軸と前記最短距離を示す直線とのなす角度(0≦θ<π)である。
但し、ハフ変換は極座標系でも可能であるが、極座標系を使用すると調べる区間が複雑な形となり、直角座標系ほどすっきりとした形に成らないので、直角座標系を採用した方が処理が効率的である。
【0033】
図7は、本発明のシステムにおけるリアルタイム処理の内容を示すフローチャートである。また、図11は、本発明のシステムにおけるリアルタイム処理の内容を示す説明図である。S100においては、前回のサンプリング(撮影画像の取り込み)からの移動距離を算出する。S101においては、移動距離が所定の値に達したか否かを判定し、判定結果が否定の場合にはS100に戻るが、肯定の場合にはS102に移行する。
【0034】
S102においては、ビデオカメラ11において撮影された最新の画像を取り込む。なお、ビデオカメラ11によって撮影された画像は例えば常時情報処理装置のバッファメモリに取り込まれており、S102においては当該バッファメモリから画像データを取り込む。
【0035】
S103においては、各走査線に対応するEPIデータから所定回数(実施例では5回)以前に取り込まれた走査線輝度データを削除する。走査線データは各EPIデータにおいて5本のみ保存し、1本追加する毎に最も古いものを1本削除する。
【0036】
5本を保存する理由は以下の通りである。後述する2回のフィルタ処理においては、それぞれ3×3の画素領域を参照して処理を行っている。従って、特定(中央)の走査線のフィルタ処理後のデータは、当該走査線データおよび上下それぞれ2本づつ、合計5本の走査線データから影響を受ける可能性があるためである。
【0037】
S104においては、姿勢センサーによって検出された仰角データを読み込んで、仰角補正データを生成する。移動手段である車両は例えば道路の凹凸や傾斜等によって姿勢が変動するが、車両の変動のロール成分(前後方向を軸とする回転)はビデオカメラの仰角に影響し、EPIデータに追加される走査線データがずれてしまい、結果としてEPI上の直線の精度が劣化する。そこで、画像サンプリング時の車両の仰角を読み込み、静止時との差を走査線数に換算して仰角補正データを求める。
【0038】
S105においては、仰角補正を考慮してフレームの各ライン(走査線)データを対応するEPIデータに追加する。即ち、例えば仰角補正データが「+5」(仰角が静止時よりも大きい)であれば、走査線番号Nに対応するEPIデータに走査線番号(N+5)番(5本下)の走査線データを追加する。なお上記の場合、最も走査線番号の大きい5個の走査線に対応するEPIデータにはダミーデータを追加する。
【0039】
S106においては、EPIデータをバッファにコピーしてフィルタ処理を施すことにより、ノイズを除去し、微分フィルタ処理によって輝度が急激に変化しているエッジ部分のみを抽出する。ノイズ除去フィルタとしては、例えば公知のメディアン(median)フィルタを採用可能である。メディアンフィルタとは、変換後の濃度(輝度)値を着目画素の近傍画素濃度の中央値(n個ある場合はn/2番目の濃度値)とするものである。
【0040】
また微分フィルタとしては、例えば公知のソベル(Sobel)フィルタを採用可能である。図9は、ソベルフィルタの一例を示す説明図である。このフィルタはまずX軸方向とY軸方向それぞれについて、注目画素を含む周辺の9個の画素濃度値にそれぞれ図示する重みを乗算して加算したものを変換後の注目画素濃度(輝度)値とする処理を行う。そして、最後に、画素毎にX軸方向に検出されたエッジ画像の濃度値およびY軸方向に検出されたエッジ画像の濃度値をそれぞれ2乗し、加算して平方根をとることにより求める。
【0041】
S107においては、ハフ変換(投票)データの内の、今回投票されることがない確定領域から、直線が集中している箇所(後述するポイントが所定値以上の正方形領域)を抽出することによってEPIの直線に相当するデータがあれば抽出し、抽出後に当該確定領域の投票データを削除する。
【0042】
EPI上において、直線の傾斜角度は距離と対応しており、遠くにある特徴点ほど傾斜角度が垂直に近くなる。従って、特徴点を検出する最大距離を例えば50メートルというように定めると、サンプリング間隔から当該最大距離に対応した直線の最大傾斜角度が決まり、それ以上の傾斜の直線を検出する必要はなくなる。従って、ハフ平面上におけるmの最大値mmaxが定まる。
【0043】
また、傾斜角度の最大値が定まることにより、EPI平面において追加した走査線が影響を与える直線がy軸と交わる点Cの最小値Cminが定まる。
【0044】
Cmin=−mmax×xw+y
但し、xwは走査線の水平方向の画素数であり、yは起点から追加された走査線の数を示し、1サンプル追加される毎に+1される。従って、Cminも1サンプル追加される毎に+1される。従って、ハフ平面におけるCmin未満の領域は検出すべき直線(m<mmaxの直線)についてはすでに投票が完了している確定領域となる。
【0045】
S108においては、S106においてフィルタ処理したデータの内の中央(3本目)の走査線のエッジデータの全ての点をハフ平面に投票する。投票方法は、例えばハフ平面を所定の間隔で縦横に区切って複数の正方形領域を定義し、上記エッジデータの点に相当する写像直線が通過する正方形領域の全てにポイント1を加算する。
【0046】
S109においては、抽出したEPI上の直線の傾き(m)、走査線番号(=仰角)および現在位置座標から3次元特徴点データを生成する。
図10は、直線の傾き(m)から距離(L)を算出する方法を示す説明図である。ある地点において、カメラの正面から角度θだけ左に見えていた特徴点が、カメラが距離dだけ移動した後には正面に見えており、このときのEPIは図10の右側に示すようになっていたものとする。
【0047】
画像は等間隔にサンプリングされているので、カメラの移動距離dはEPIの特徴点に対応する垂直方向の画素数nyに比例する。
【0048】
d=k1ny
なお、k1は画像のサンプリング間隔を表す定数である。
また、tanθはEPIの特徴点に対応する水平方向の画素数nxに比例する。
【0049】
tanθ=k2nx
なお、k2はカメラの撮影範囲(水平画角)や走査線の水平方向画素数から定まる定数であり、例えば水平画角がαであり、水平画素数がβであればk2は以下のようになる。
【0050】
k2=(tan(α/2))/(β/2)
なお、水平画角はビデオカメラの35mm換算の焦点距離データが判明していれば、そのデータから算出できる。
【0051】
また、tanθ=d/Lであるから、カメラから特徴点までの距離Lは以下のように求められる。
【0052】
L=d/tanθ=k1ny/k2nx=k3(ny/nx)
なお、k3=k1/k2である。(ny/nx)はEPIにおける直線の傾きであり、前述したハフ平面におけるmに相当する。従って、ハフ平面におけるmを求めれば、これに予め算出された定数k3を乗算することによって直ちに距離Lが求められる。
【0053】
カメラの現在位置の座標および(水平方向の)向きは後述するように常時求められており、また、カメラの仰角は走査線番号と対応しており、GPS装置とカメラのオフセット(距離)も既知である。従って、上記のようにしてカメラから特徴点までの距離Lが判明すれば、特徴点の3次元絶対座標を算出することができる。
【0054】
S110においては、算出した特徴点データを保存する。S111においては、例えばオペレーターによる終了指示があったか否かにより、処理を終了するか否か判定し、判定結果が否定の場合にはS100に移行するが、肯定の場合には処理を終了する。
【0055】
図8は、本発明のシステムにおけるタイマー割込処理の内容を示すフローチャートである。この処理は所定周期のタイマー割り込みによって起動する。S120においては、加速度計の測定データを読み込む。S121においては、加速度を積分して起点(前回のGPS測定点)からの水平移動距離を算出する。S122においては、ロール角情報から現在の仰角を算出する。
【0056】
S123においては、新たなGPS出力が有るか否かが判定され、判定結果が否定の場合にはS125に移行するが、肯定の場合にはS124に移行する。S124においては、GPS測定装置から測定データを読み込む。この測定データには、3次元座標データおよび時刻データが含まれている。S125においては、加速度データに基づく移動距離データを読み込む。S126においては、最新のGPS位置データおよび移動距離データに基づいて、現在位置座標を算出する。
【0057】
以上のような処理によって、所定のタイマー周期でGPS装置(カメラ)の位置座標が算出される。
【0058】
以上、実施例を開示したが、本発明においては以下のような変形例も考えられる。実施例としては車両の右側を撮影する例を開示したが、左側あるいは両側を撮影してもよく、左側を撮影した場合にはEPIの傾斜が反対になることを考慮すれば、実施例の方式をそのまま適用可能である。
【0059】
実施例においては、車両の位置座標データを得る手段として、GPS装置および姿勢センサを使用する例を開示したが、更に、車両の移動距離データとして、車両のタイヤの回転情報、あるいは車両に装着した距離測定用タイヤの回転情報を使用してもよい。
実施例においては、リアルタイム処理において特徴点の抽出まで行う例を開示したが、本発明の方式を使用しても、多数のEPIについて特徴点の抽出を行うためには大きな処理能力が必要である。そこで、車両に搭載する処理装置15においては撮影画像、GPS装置、姿勢センサなどからの出力データを同期して取り込んで、記録あるいは移動体無線伝送システムを利用したデータ伝送のみを行い、当該記録あるいは伝送された情報を大きな処理能力のあるコンピュータシステムに取り込んで、その後の処理を行うようにしてもよい。
【0060】
実施例においては、仰角補正についてのみ開示したが、ロール角および方位角の変動についても補正するようにすることが可能である。ロール角補正は、例えば撮影時のロール角と静止時のロール角との差に基づき、撮影画像の回転処理を行う。
また、方位角変動については、例えば道路上の障害物の回避や車線変更など、短時間で元の進行方向に戻る場合には、方位角の変動に基づいてEPIに追加していく走査線データの水平画素位置を補正すればよい。但し、道路自体が曲がっている場合には補正による変位が継続してしまうので、補正値の生成に所定の時定数による微分特性を持たせて、方位角の変動が無くなった場合には、移動距離(時間)の経過と共に元の画素位置に戻るようにしてもよい。
【0061】
【発明の効果】
以上述べたように、本発明によれば、画像処理手段においては、奥行き方向の特徴点検出範囲(距離)を限定することにより、任意の時点において処理すべきデータ容量を一定の容量以下に抑え、取り込みの制限を無くすことができる。また、取り込んだ画像データによって更新すべき部分のみを処理することにより、効率的に特徴点の抽出処理を実行でき、撮影しながらリアルタイムに特徴点を抽出することも可能となる。従って、長い距離に渡って連続して3次元形状データを効率的に取得することができるという効果がある。
【図面の簡単な説明】
【図1】本発明の3次元形状データ取得システム主要部の構成を示すブロック図である。
【図2】本発明のシステムによる3次元形状データの取得方法をを示す説明図である。
【図3】本発明のシステムによる画像処理方法を示す説明図である。
【図4】本発明のシステムの処理内容全体を示すフローチャートである。
【図5】本発明のシステムにおける各処理とデータの関係を示すブロック図である。
【図6】公知のハフ変換の方法を示す説明図である。
【図7】本発明のシステムにおけるリアルタイム処理の内容を示すフローチャートである。
【図8】本発明のシステムにおけるタイマー割込処理の内容を示すフローチャートである。
【図9】ソベルフィルタの一例を示す説明図である。
【図10】直線の傾きから距離を算出する方法を示す説明図である。
【図11】本発明のシステムにおけるリアルタイム処理の内容を示す説明図である。
【符号の説明】
10…移動手段、11…ビデオカメラ、12…GPS装置、13…姿勢センサ、15…情報処理装置、20…リアルタイム処理、21…3次元特徴点データ、22…テキスチャデータ、23…直線検出処理、24…2次元地図データ、25…ワイヤフレーム抽出処理、26…テキスチャマッピング処理、27…衛星写真データ、28…3次元立体形状データ
【発明の属する技術分野】
本発明は3次元形状データ取得システムに関し、特に、自動車等の移動手段に搭載して移動しながら道路脇の建築物等の3次元形状データを連続して取得可能な3次元形状データ取得システムに関するものである。
【0002】
【従来の技術】
従来、物体や景観などの3次元形状データを入力するための入力方法が提案されている。例えば特開2001−28049には、ビデオカメラで景観を撮影し、画像のぶれを補正しながらエピポーラ画像(EPI)解析を行って3次元形状情報を抽出する技術が開示されている。
【0003】
【発明が解決しようとする課題】
近年、カーナビゲーションシステムが普及しているが、例えばカーナビゲーションシステムにおいて道路の両側の景観を3次元形状の景観として表示するためには、主要な道路の両側の家やビル等の建築物の3次元景観データを長い距離に渡って連続して取得する必要がある。
【0004】
ところが上記した従来の方式においては、長い距離に渡って連続して取得する点に配慮されておらず、長い距離に渡って連続して3次元形状データを効率的に取得することができないという問題点があった。
【0005】
本発明の目的は、前記のような従来技術の問題点を解決し、長い距離に渡って連続して3次元形状データを効率的に取得することができる3次元形状データ取得システムを提供することにある。
【0006】
【課題を解決するための手段】
本発明の3次元形状データ取得システムは、移動手段と、移動手段に搭載され、撮影画像を入力する撮影手段と、移動手段の位置を検出する位置検出手段と、撮影手段および位置検出手段から出力される情報に基づき、撮影画像を処理して3次元特徴点情報を出力する画像処理手段とを備えたことを特徴とする。
【0007】
本発明によれば、画像処理手段においては、奥行き方向の特徴点検出距離の範囲を限定することにより、任意の時点において処理すべきEPI容量、及びハフ平面を一定の容量以下に抑え、取り込みの制限を無くすことができる。
【0008】
また、1つ前の取り込み画像の処理データを利用して、次に取り込んだ画像データによって更新すべき部分のみを処理することにより、効率的に特徴点の抽出処理を実行でき、撮影しながらリアルタイムに特徴点を抽出することも可能となる。
【0009】
【発明の実施の形態】
以下、本発明の実施の形態を詳細に説明する。図1は、本発明の3次元形状データ取得システム主要部の構成を示すブロック図である。例えば自動車等の移動手段10には、1台あるいは複数台のビデオカメラ11、GPS装置12、加速度、姿勢センサ13、情報処理装置15を含む3次元形状データ取得システムが搭載される。
【0010】
ビデオカメラ11としては、IEEE1394端子経由のDVあるいはNTSC等の通常のデジタルあるいはアナログビデオ出力信号が得られる市販のビデオカメラを使用可能であるが、デジタルスチルカメラであっても、情報処理装置から取り込み(シャッター)信号に対応して所望の周期で静止画を連続して取り込めるものであれば使用可能である。なお、後述するが上下の視野角が不足する場合には2台以上のカメラを仰角を変えて設置してもよい。また、本発明においては基本的にはカラーおよびモノクロどちらでも実施可能であるが、最後に撮影した画像データを貼り付けるので、カラーの方が好ましい。
【0011】
情報処理装置が画像を取り込む周期は、必要とする3次元形状データの精度、移動手段の移動速度、情報処理装置の処理速度等によって決定される。従って、3次元形状データ取得システムの取り込みあるいは処理速度が追いつかない場合には車両の移動速度を遅くすればよい。
【0012】
GPS装置12は、周知のGPS信号を受信することによって位置情報を得るものである。GPSは単独測位では誤差が大きいので、基準点(基地局)において観測したGPSの情報を測位すべき移動局に伝送して高精度で移動局の位置を求めることができるRTK(Real Time Kinematic)−GPSを採用する。
【0013】
なお、RTK−GPSは周知であり、任意の位置に基地局を設置し、当該基地局と無線で接続された移動局の位置を高精度に測定するシステムは市販されているので、例えばトリンブル社製2周波GPS受信機5700を使用した(株)ジェック製RTK−GPSシステムGPS−GUIDER IVを使用してもよい。よって詳細な説明は省略する。また、基地局および基地局と移動局との通信回線としては公知の任意のものを利用可能である。
【0014】
加速度、姿勢センサ13は市販のものを利用可能である。例えば日本航空電子工業株式会社から市販されている姿勢計測装置JCS−7401GAは、光ファイバージャイロおよび加速度センサを備えており、ロール角、ピッチ角、方位角、X加速度、Y加速度、Z加速度、X角速度、Y角速度、Z角速度をデジタル出力することができる。
【0015】
情報処理装置15は、映像データ、GPSデータ、姿勢データの入力ポートおよびデータ保存用のハードディスク等の大容量記憶装置を備えており、自動車等に搭載可能であれば、ノートパソコンなど市販の任意の計算機システムを使用可能である。また、EPIデータの生成以降の処理は、各EPIデータ毎に並列処理が可能であるので、必要な数だけ複数のパソコンをLAN等により接続してデータを分配して並列処理させてもよい。
【0016】
なお、特徴点の抽出以降の処理は、リアルタイムに処理する必要はないので、保存された特徴点データを周知の任意の計算機システムに読み込んで、ワイヤフレームモデルの生成やテキスチャマッピング処理を行えばよい。
【0017】
図2は、本発明のシステムによる3次元形状データの取得方法をを示す説明図である。移動手段としては自動車を使用し、例えば自動車の進行方向に対して90度右側が撮影されるようににビデオカメラ11を固定する。また、GPS装置12、加速度、姿勢センサ13も車両に固定する。
【0018】
カメラ11は、図2(b)に示すように、道路沿いの建造物が全て撮影できるように、仰角を付けて設置されるが、1台のカメラで建造物の上から下まで撮影できない場合には、2台のカメラを使用して上部と下部とを分けて撮影し、情報処理装置に取り込んだ後に1枚の画像に合成してもよい。
【0019】
図3は、本発明のシステムによる画像処理方法を示す説明図である。本発明においては、例えば道路上を移動しながら移動方向と直角方向を所定の距離毎に撮影する。そして、図3の左側に示されているように、撮影された複数枚の画像の所定の位置の走査線の輝度データを集めて順に並べて(画像データの上側に追加して)いき、特定走査線のEPIデータが生成される。
【0020】
このEPIデータは走査線毎に生成されるので、例えば有効な走査線が400本あれば、EPIデータも400個生成される。各EPIデータは特定の走査線、即ちカメラの特定の仰角の画像と対応している。図3において、例えば家の部分のみが黒く撮影された場合には、図示する特定の走査線のEPIは家の幅を持つ傾斜した黒い帯の画像となる。
【0021】
このEPIの傾斜角度はカメラから家までの距離に対応している。即ち、近くにあるものは画像上を左から右へ早く移動するので、黒い帯の傾斜角度は小さくなり、逆に遠くにあるものはゆっくり移動するので、傾斜角度は大きくなる。従って、例えば画像処理によって黒い帯の縁の直線を検出し、その傾斜角度から物体までの距離を算出することができる(詳細は後述する)。また、走査線の番号から仰角が判明する。
【0022】
よって、カメラの位置および撮影方向(移動方向)が判明すれば、家の縁の点(輝度の変化点=特徴点)の3次元の絶対位置座標を算出することが可能となる。本発明においては、カメラの位置および向きをGPS装置および姿勢センサによりリアルタイムに計測し、連続して撮影した画像からEPIデータを生成し、特徴点の3次元座標を得る。
【0023】
図4は、本発明のシステムの処理内容全体を示すフローチャートである。S1においては、所定の距離ごとに移動画像データを連続して取り込む。S2においては、各走査線毎に上述したEPIデータを生成する。S3においては、EPIデータをフィルタ処理し、エッジ(輝度の変化している部分)のみを抽出する。S4においては、公知のハフ変換処理によって直線を検出する。
【0024】
S5においては、直線の傾き、カメラの位置、仰角等から特徴点の3次元位置座標データを生成し、保存する。なお、S1〜S5はリアルタイムに見かけ上あるいは実際にパイプライン処理される。また、複数のEPIデータに対する処理は並列に処理されてもよい。
【0025】
収集された特徴点データは、例えば別の計算機システムに入力され、S6においては、例えば2次元地図データや航空写真データ等を参照して、特徴点データから例えば家やビルの輪郭線を生成し、沿道の建築物の3次元ワイヤモデルを生成する。
【0026】
図5は、本発明のシステムにおける各処理とデータの関係を示すブロック図である。図4のS1〜S5のリアルタイム処理20によって3次元特徴点データ21およびテキスチャ(例えば所定の間隔で撮影した画像を中心を通る水平方向の所定の範囲だけ切り出して接続した景観の連続画像)データ22が生成される。3次元特徴点データ21は2次元地図データ24および衛星(航空)写真データ27と共に直線検出処理23に入力され、2次元地図データ24および衛星写真データ27を参照して不要な特徴点を削除し、例えばハフ変換処理によってビルなどの輪郭の直線を検出する。
【0027】
検出された直線データはワイヤフレーム抽出処理25によって、例えば直線の不足部分を延長したり、直線の端点同士を連結してビル等のワイヤフレームデータが生成される。テキスチャマッピング処理26においては、ビル等のワイヤフレームモデルの表面に、テキスチャデータ22や衛星写真データ27の該当部分を切り取って貼り付けることにより、実際のビル等と同等の外観を表示可能な3次元立体形状データ28を出力する。
【0028】
図6は、公知のハフ変換の方法を示す説明図である。例えば図6(a)のようにxy座標上に8個の点(xn,yn)30が存在するものとすると、ハフ変換においては、各点をmc座標(ハフ平面)上の直線35に写像する。ここで、m、cは直線式y=mx+cを満足する値である。
【0029】
直線式y=mx+cに任意の点(xn,yn)30を代入すると、yn=mxn+cとなり、これは点(xn,yn)30を通る任意の直線を表すが、c=−xnm+ynと変形すると、mc座標上における特定の直線35を表す。図6(b)は、図6(a)の8個の点をmc座標上に写像したグラフである。
【0030】
次に、(b)のグラフにおいて、例えば所定の大きさの領域(1×1)を通過する直線数を調べることにより、直線が最も集中している点36、37を抽出して、そのm、cを求める。この2つの点36、37は(a)のグラフの2つの直線31、32と対応しており、直線式はy=mx+cとなる。以上のような処理によって画像データから複数の直線データを抽出することができる。
【0031】
なお、図6(a)のxy平面上において垂直に近い直線は、mの値が非常に大きくなり、処理可能な範囲を超えてしまう。しかし、EPI上において、mの値はカメラから対象物までの距離に対応し、所定の距離以上離れたものは測定する必要がないので、測定すべきmの値の上限値を決め、mがそれ以下の直線のみを検出するようにすれば、上記問題は解決する。また、カメラに非常に近い位置にある対象物も、街路樹や電柱で、不要なものなので、カメラからある一定距離以上離れた対象物を認識すれば良く、結局最も近い認識したい点に対応するmminと、最も遠い認識したい点に対応するmmaxの間の範囲に収まる直線群のみを抽出すれば良い。また、一方向に進行するので、被写体は画面上、同一方向に移動して行く。そのため直線の傾きは全て勾配の正負が揃い、該当する正あるいは、負勾配の一方のものの処理で十分である。
【0032】
また、上記問題は、直線を表す式として以下に示すような極座標表現を採用することによっても解決できる。
ρ=xcosθ+ysinθ
なお、ρは原点と直線との最短距離であり、θは正のx軸と前記最短距離を示す直線とのなす角度(0≦θ<π)である。
但し、ハフ変換は極座標系でも可能であるが、極座標系を使用すると調べる区間が複雑な形となり、直角座標系ほどすっきりとした形に成らないので、直角座標系を採用した方が処理が効率的である。
【0033】
図7は、本発明のシステムにおけるリアルタイム処理の内容を示すフローチャートである。また、図11は、本発明のシステムにおけるリアルタイム処理の内容を示す説明図である。S100においては、前回のサンプリング(撮影画像の取り込み)からの移動距離を算出する。S101においては、移動距離が所定の値に達したか否かを判定し、判定結果が否定の場合にはS100に戻るが、肯定の場合にはS102に移行する。
【0034】
S102においては、ビデオカメラ11において撮影された最新の画像を取り込む。なお、ビデオカメラ11によって撮影された画像は例えば常時情報処理装置のバッファメモリに取り込まれており、S102においては当該バッファメモリから画像データを取り込む。
【0035】
S103においては、各走査線に対応するEPIデータから所定回数(実施例では5回)以前に取り込まれた走査線輝度データを削除する。走査線データは各EPIデータにおいて5本のみ保存し、1本追加する毎に最も古いものを1本削除する。
【0036】
5本を保存する理由は以下の通りである。後述する2回のフィルタ処理においては、それぞれ3×3の画素領域を参照して処理を行っている。従って、特定(中央)の走査線のフィルタ処理後のデータは、当該走査線データおよび上下それぞれ2本づつ、合計5本の走査線データから影響を受ける可能性があるためである。
【0037】
S104においては、姿勢センサーによって検出された仰角データを読み込んで、仰角補正データを生成する。移動手段である車両は例えば道路の凹凸や傾斜等によって姿勢が変動するが、車両の変動のロール成分(前後方向を軸とする回転)はビデオカメラの仰角に影響し、EPIデータに追加される走査線データがずれてしまい、結果としてEPI上の直線の精度が劣化する。そこで、画像サンプリング時の車両の仰角を読み込み、静止時との差を走査線数に換算して仰角補正データを求める。
【0038】
S105においては、仰角補正を考慮してフレームの各ライン(走査線)データを対応するEPIデータに追加する。即ち、例えば仰角補正データが「+5」(仰角が静止時よりも大きい)であれば、走査線番号Nに対応するEPIデータに走査線番号(N+5)番(5本下)の走査線データを追加する。なお上記の場合、最も走査線番号の大きい5個の走査線に対応するEPIデータにはダミーデータを追加する。
【0039】
S106においては、EPIデータをバッファにコピーしてフィルタ処理を施すことにより、ノイズを除去し、微分フィルタ処理によって輝度が急激に変化しているエッジ部分のみを抽出する。ノイズ除去フィルタとしては、例えば公知のメディアン(median)フィルタを採用可能である。メディアンフィルタとは、変換後の濃度(輝度)値を着目画素の近傍画素濃度の中央値(n個ある場合はn/2番目の濃度値)とするものである。
【0040】
また微分フィルタとしては、例えば公知のソベル(Sobel)フィルタを採用可能である。図9は、ソベルフィルタの一例を示す説明図である。このフィルタはまずX軸方向とY軸方向それぞれについて、注目画素を含む周辺の9個の画素濃度値にそれぞれ図示する重みを乗算して加算したものを変換後の注目画素濃度(輝度)値とする処理を行う。そして、最後に、画素毎にX軸方向に検出されたエッジ画像の濃度値およびY軸方向に検出されたエッジ画像の濃度値をそれぞれ2乗し、加算して平方根をとることにより求める。
【0041】
S107においては、ハフ変換(投票)データの内の、今回投票されることがない確定領域から、直線が集中している箇所(後述するポイントが所定値以上の正方形領域)を抽出することによってEPIの直線に相当するデータがあれば抽出し、抽出後に当該確定領域の投票データを削除する。
【0042】
EPI上において、直線の傾斜角度は距離と対応しており、遠くにある特徴点ほど傾斜角度が垂直に近くなる。従って、特徴点を検出する最大距離を例えば50メートルというように定めると、サンプリング間隔から当該最大距離に対応した直線の最大傾斜角度が決まり、それ以上の傾斜の直線を検出する必要はなくなる。従って、ハフ平面上におけるmの最大値mmaxが定まる。
【0043】
また、傾斜角度の最大値が定まることにより、EPI平面において追加した走査線が影響を与える直線がy軸と交わる点Cの最小値Cminが定まる。
【0044】
Cmin=−mmax×xw+y
但し、xwは走査線の水平方向の画素数であり、yは起点から追加された走査線の数を示し、1サンプル追加される毎に+1される。従って、Cminも1サンプル追加される毎に+1される。従って、ハフ平面におけるCmin未満の領域は検出すべき直線(m<mmaxの直線)についてはすでに投票が完了している確定領域となる。
【0045】
S108においては、S106においてフィルタ処理したデータの内の中央(3本目)の走査線のエッジデータの全ての点をハフ平面に投票する。投票方法は、例えばハフ平面を所定の間隔で縦横に区切って複数の正方形領域を定義し、上記エッジデータの点に相当する写像直線が通過する正方形領域の全てにポイント1を加算する。
【0046】
S109においては、抽出したEPI上の直線の傾き(m)、走査線番号(=仰角)および現在位置座標から3次元特徴点データを生成する。
図10は、直線の傾き(m)から距離(L)を算出する方法を示す説明図である。ある地点において、カメラの正面から角度θだけ左に見えていた特徴点が、カメラが距離dだけ移動した後には正面に見えており、このときのEPIは図10の右側に示すようになっていたものとする。
【0047】
画像は等間隔にサンプリングされているので、カメラの移動距離dはEPIの特徴点に対応する垂直方向の画素数nyに比例する。
【0048】
d=k1ny
なお、k1は画像のサンプリング間隔を表す定数である。
また、tanθはEPIの特徴点に対応する水平方向の画素数nxに比例する。
【0049】
tanθ=k2nx
なお、k2はカメラの撮影範囲(水平画角)や走査線の水平方向画素数から定まる定数であり、例えば水平画角がαであり、水平画素数がβであればk2は以下のようになる。
【0050】
k2=(tan(α/2))/(β/2)
なお、水平画角はビデオカメラの35mm換算の焦点距離データが判明していれば、そのデータから算出できる。
【0051】
また、tanθ=d/Lであるから、カメラから特徴点までの距離Lは以下のように求められる。
【0052】
L=d/tanθ=k1ny/k2nx=k3(ny/nx)
なお、k3=k1/k2である。(ny/nx)はEPIにおける直線の傾きであり、前述したハフ平面におけるmに相当する。従って、ハフ平面におけるmを求めれば、これに予め算出された定数k3を乗算することによって直ちに距離Lが求められる。
【0053】
カメラの現在位置の座標および(水平方向の)向きは後述するように常時求められており、また、カメラの仰角は走査線番号と対応しており、GPS装置とカメラのオフセット(距離)も既知である。従って、上記のようにしてカメラから特徴点までの距離Lが判明すれば、特徴点の3次元絶対座標を算出することができる。
【0054】
S110においては、算出した特徴点データを保存する。S111においては、例えばオペレーターによる終了指示があったか否かにより、処理を終了するか否か判定し、判定結果が否定の場合にはS100に移行するが、肯定の場合には処理を終了する。
【0055】
図8は、本発明のシステムにおけるタイマー割込処理の内容を示すフローチャートである。この処理は所定周期のタイマー割り込みによって起動する。S120においては、加速度計の測定データを読み込む。S121においては、加速度を積分して起点(前回のGPS測定点)からの水平移動距離を算出する。S122においては、ロール角情報から現在の仰角を算出する。
【0056】
S123においては、新たなGPS出力が有るか否かが判定され、判定結果が否定の場合にはS125に移行するが、肯定の場合にはS124に移行する。S124においては、GPS測定装置から測定データを読み込む。この測定データには、3次元座標データおよび時刻データが含まれている。S125においては、加速度データに基づく移動距離データを読み込む。S126においては、最新のGPS位置データおよび移動距離データに基づいて、現在位置座標を算出する。
【0057】
以上のような処理によって、所定のタイマー周期でGPS装置(カメラ)の位置座標が算出される。
【0058】
以上、実施例を開示したが、本発明においては以下のような変形例も考えられる。実施例としては車両の右側を撮影する例を開示したが、左側あるいは両側を撮影してもよく、左側を撮影した場合にはEPIの傾斜が反対になることを考慮すれば、実施例の方式をそのまま適用可能である。
【0059】
実施例においては、車両の位置座標データを得る手段として、GPS装置および姿勢センサを使用する例を開示したが、更に、車両の移動距離データとして、車両のタイヤの回転情報、あるいは車両に装着した距離測定用タイヤの回転情報を使用してもよい。
実施例においては、リアルタイム処理において特徴点の抽出まで行う例を開示したが、本発明の方式を使用しても、多数のEPIについて特徴点の抽出を行うためには大きな処理能力が必要である。そこで、車両に搭載する処理装置15においては撮影画像、GPS装置、姿勢センサなどからの出力データを同期して取り込んで、記録あるいは移動体無線伝送システムを利用したデータ伝送のみを行い、当該記録あるいは伝送された情報を大きな処理能力のあるコンピュータシステムに取り込んで、その後の処理を行うようにしてもよい。
【0060】
実施例においては、仰角補正についてのみ開示したが、ロール角および方位角の変動についても補正するようにすることが可能である。ロール角補正は、例えば撮影時のロール角と静止時のロール角との差に基づき、撮影画像の回転処理を行う。
また、方位角変動については、例えば道路上の障害物の回避や車線変更など、短時間で元の進行方向に戻る場合には、方位角の変動に基づいてEPIに追加していく走査線データの水平画素位置を補正すればよい。但し、道路自体が曲がっている場合には補正による変位が継続してしまうので、補正値の生成に所定の時定数による微分特性を持たせて、方位角の変動が無くなった場合には、移動距離(時間)の経過と共に元の画素位置に戻るようにしてもよい。
【0061】
【発明の効果】
以上述べたように、本発明によれば、画像処理手段においては、奥行き方向の特徴点検出範囲(距離)を限定することにより、任意の時点において処理すべきデータ容量を一定の容量以下に抑え、取り込みの制限を無くすことができる。また、取り込んだ画像データによって更新すべき部分のみを処理することにより、効率的に特徴点の抽出処理を実行でき、撮影しながらリアルタイムに特徴点を抽出することも可能となる。従って、長い距離に渡って連続して3次元形状データを効率的に取得することができるという効果がある。
【図面の簡単な説明】
【図1】本発明の3次元形状データ取得システム主要部の構成を示すブロック図である。
【図2】本発明のシステムによる3次元形状データの取得方法をを示す説明図である。
【図3】本発明のシステムによる画像処理方法を示す説明図である。
【図4】本発明のシステムの処理内容全体を示すフローチャートである。
【図5】本発明のシステムにおける各処理とデータの関係を示すブロック図である。
【図6】公知のハフ変換の方法を示す説明図である。
【図7】本発明のシステムにおけるリアルタイム処理の内容を示すフローチャートである。
【図8】本発明のシステムにおけるタイマー割込処理の内容を示すフローチャートである。
【図9】ソベルフィルタの一例を示す説明図である。
【図10】直線の傾きから距離を算出する方法を示す説明図である。
【図11】本発明のシステムにおけるリアルタイム処理の内容を示す説明図である。
【符号の説明】
10…移動手段、11…ビデオカメラ、12…GPS装置、13…姿勢センサ、15…情報処理装置、20…リアルタイム処理、21…3次元特徴点データ、22…テキスチャデータ、23…直線検出処理、24…2次元地図データ、25…ワイヤフレーム抽出処理、26…テキスチャマッピング処理、27…衛星写真データ、28…3次元立体形状データ
Claims (6)
- 移動手段と、
移動手段に搭載され、撮影画像を入力する撮影手段と、
移動手段の位置を検出する位置検出手段と、
撮影手段および位置検出手段から出力される情報に基づき、撮影画像を処理して3次元特徴点情報を出力する画像処理手段と、
を備えたことを特徴とする3次元形状データ取得システム。 - 前記画像処理手段は、
複数の撮影画像から特定の垂直位置の水平方向画素列情報を抽出して順に並べたEPIを生成するEPI生成手段と、
当該EPIの輝度の変化点を抽出するフィルタ手段と、
当該変化点情報からハフ変換によって特徴点までの距離情報を抽出する距離算出手段と、
前記位置検出手段の出力情報および前記距離算出手段の出力情報に基づき、特徴点の3次元座標情報を算出する3次元座標算出手段と
を備えたことを特徴とする請求項1に記載の3次元形状データ取得システム。 - 更に、地図データおよび上空からの写真データの少なくとも一方を参照しながら、3次元ワイヤフレームモデルデータを生成するワイヤフレームデータ生成手段を備えたことを特徴とする請求項2に記載の3次元形状データ取得システム。
- 更に、ワイヤフレームの表面に対応する位置の撮影画像データを切り貼りするテキスチャマッピング手段を備えたことを特徴とする請求項3に記載の3次元形状データ取得システム。
- 前記EPI生成手段は、それぞれのEPIデータに新たな走査線データを追加すると共に、最も古い走査線データを削除することによって最新の所定の本数の走査線データのみを保持し、
前記距離算出手段は、前記追加された走査線データに対応する前記変化点情報をハフ平面に写像すると共に、前記削除された走査線データに対応する変化点の写像データを削除する
ことを特徴とする請求項2に記載の3次元形状データ取得システム。 - 移動手段に搭載され、撮影画像を入力するステップと、
移動手段の位置を検出するステップと、
撮影画像および位置情報に基づき、撮影画像を処理して3次元特徴点情報を出力するステップと
を繰り返し実行することを特徴とする3次元形状データ取得方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002182723A JP2004030011A (ja) | 2002-06-24 | 2002-06-24 | 3次元形状データ取得システムおよび方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002182723A JP2004030011A (ja) | 2002-06-24 | 2002-06-24 | 3次元形状データ取得システムおよび方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004030011A true JP2004030011A (ja) | 2004-01-29 |
Family
ID=31179142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002182723A Withdrawn JP2004030011A (ja) | 2002-06-24 | 2002-06-24 | 3次元形状データ取得システムおよび方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004030011A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009253921A (ja) * | 2008-04-10 | 2009-10-29 | Sony Corp | 撮像装置、撮像画像記録方法およびプログラム |
EP2154542A1 (en) * | 2008-08-07 | 2010-02-17 | Kabushiki Kaisha Topcon | GPS-installed all-azimuth camera and spatial data collecting device |
CN105354825A (zh) * | 2015-09-30 | 2016-02-24 | 李乔亮 | 自动识别读写场景中读物位置的智能装置及其应用 |
CN105354822B (zh) * | 2015-09-30 | 2018-06-22 | 深圳大学 | 自动识别读写场景中读写元素位置的智能装置及应用 |
-
2002
- 2002-06-24 JP JP2002182723A patent/JP2004030011A/ja not_active Withdrawn
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009253921A (ja) * | 2008-04-10 | 2009-10-29 | Sony Corp | 撮像装置、撮像画像記録方法およびプログラム |
EP2154542A1 (en) * | 2008-08-07 | 2010-02-17 | Kabushiki Kaisha Topcon | GPS-installed all-azimuth camera and spatial data collecting device |
US7982665B2 (en) | 2008-08-07 | 2011-07-19 | Kabushiki Kaisha Topcon | GPS-installed all-azimuth camera and spatial data collecting device |
CN105354825A (zh) * | 2015-09-30 | 2016-02-24 | 李乔亮 | 自动识别读写场景中读物位置的智能装置及其应用 |
CN105354822B (zh) * | 2015-09-30 | 2018-06-22 | 深圳大学 | 自动识别读写场景中读写元素位置的智能装置及应用 |
CN105354825B (zh) * | 2015-09-30 | 2018-06-22 | 深圳大学 | 自动识别读写场景中读物位置的智能装置及其应用 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11477374B2 (en) | Three dimensional image capture system for imaging building facades using a digital camera, a near-infrared camera, and laser range finder | |
CN111436216B (zh) | 用于彩色点云生成的方法和系统 | |
US8571354B2 (en) | Method of and arrangement for blurring an image | |
JP5047515B2 (ja) | 道路画像作成システム及び道路画像作成方法,及び道路画像合成装置 | |
US7733342B2 (en) | Method of extracting 3D building information using shadow analysis | |
EP2399239B1 (en) | Estimation of panoramic camera orientation relative to a vehicle coordinate frame | |
CN109813335B (zh) | 数据采集系统的标定方法、装置、系统及存储介质 | |
US9843810B2 (en) | Method of using laser scanned point clouds to create selective compression masks | |
JP4181800B2 (ja) | ステレオ画像を用いた地形計測システム及び記憶媒体並びにプログラム | |
JP4619962B2 (ja) | 路面標示計測システム、白線モデル計測システムおよび白線モデル計測装置 | |
JP2017528772A (ja) | 経路データを生成する方法及びシステム | |
JP6950832B2 (ja) | 位置座標推定装置、位置座標推定方法およびプログラム | |
JP2010530997A (ja) | 道路情報を生成する方法及び装置 | |
CN111383335B (zh) | 一种众筹照片与二维地图结合的建筑物三维建模方法 | |
JP5834933B2 (ja) | 車両位置算出装置 | |
JP2007147458A (ja) | 位置検出装置、位置検出方法、位置検出プログラムおよび記録媒体 | |
JP4077385B2 (ja) | 画像処理を用いたグローバル座標取得装置 | |
KR20130034528A (ko) | 도로시설물 자동 위치측정 방법 | |
JP4752319B2 (ja) | 画像認識装置及び画像認識方法 | |
JP6773473B2 (ja) | 測量情報管理装置および測量情報管理方法 | |
CN115950435A (zh) | 无人机巡检影像的实时定位方法 | |
JP2004030011A (ja) | 3次元形状データ取得システムおよび方法 | |
JP3501841B2 (ja) | 立体物領域検出装置及び立体物領域迄の距離測定装置及びそれらの検出、測定方法 | |
JP5230354B2 (ja) | 位置特定装置及び異動建物検出装置 | |
JP2021103410A (ja) | 移動体及び撮像システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A072 | Dismissal of procedure |
Free format text: JAPANESE INTERMEDIATE CODE: A073 Effective date: 20050315 |
|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20050906 |