JP2004020398A - Method, device, and program for acquiring spatial information and recording medium recording program - Google Patents
Method, device, and program for acquiring spatial information and recording medium recording program Download PDFInfo
- Publication number
- JP2004020398A JP2004020398A JP2002176513A JP2002176513A JP2004020398A JP 2004020398 A JP2004020398 A JP 2004020398A JP 2002176513 A JP2002176513 A JP 2002176513A JP 2002176513 A JP2002176513 A JP 2002176513A JP 2004020398 A JP2004020398 A JP 2004020398A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- omnidirectional
- spatial information
- parameter
- coordinate value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、一度に360度の景観を撮影する全方位カメラを画像入力装置として使用し、取得した全方位画像から、全方位カメラの視点に関する自己位置、または、自己運動を推定する技術に関する。
【0002】
さらに、その全方位画像に映っている外界の構造、景観、または、空間情報の測量、または、獲得・復元する技術に関係する。
【0003】
また、全方位カメラを装着した移動ロボットや車両などに対して、方向、方位、または、全方位カメラと一体とした姿勢などを検出するセンシング技術に関係する。
【0004】
【従来の技術】
全方位カメラは、一度に360度の景観を撮影する画像入力装置として開発され、マシン・ナビゲーション、自動走行や運動制御を目的とした視覚センサとして応用されてきた。特に、大局的な映像シーンを取得する手段として有効であり、屋外撮影においては多様な建物を撮影、屋内撮影では広域な室内空間を一度に撮影することができる。このような全方位カメラの大半は、カメラ光軸を鉛直上向きに設置して用いられることが多い。
【0005】
【発明が解決しようとする課題】
しかしながら、上記従来の全方位カメラでは、光軸を鉛直方向に沿って真上方向に全方位カメラをマウントして全方位画像を取得できるとは限らないし、厳密には、カメラ光軸が微小な傾きを有している可能性がある。つまり、全方位カメラは全方位を一度に撮像する画像入力装置として有効な手段であるが、カメラ光軸を鉛直方向に平行に向けたり、または、カメラ光軸と垂直な面を水平面に平行に設置したりすることが物理的に困難であるため、この姿勢が傾いたことを考慮せず時系列画像解析を行った場合、この姿勢が傾いていることによる姿勢誤差が解析誤差の原因となる。
【0006】
また、時系列の全方位画像から、カメラ運動と物体形状を同時に復元するコンピュータビジョンにおいては、時系列画像における特徴点の追跡、オプティカルフロー、または、対応点の探索など、2次元画像座標系の点群の軌跡を正確に測定することが重要な前処理となる。全方位画像の場合、射影的歪みが激しい画像であり、固定的なパターンマッチングでは、正確なオプティカルフローを得ることが難しい。仮に、雑音にロバストな追跡や射影歪みを考慮した手法により特徴点を追跡できたとしても、屋外映像においては、樹木や信号機などのオクルージョン物体が存在し、対象物が映っている全映像シーンにおいて、特徴点追跡、対応点探索、さらに、オプティカルフローが正確に観測できる保証はない。
【0007】
本発明は、上述の問題を解決するため、全方位カメラで取得した全方位画像から、そのときのカメラの姿勢を推定し、同時に、外界の空間情報を獲得することが課題である。特に、時系列に取得した全方位画像に対して、特徴点追跡、対応点探索、または、オプティカルフローなどの前処理を必要とせず、各々の全方位画像から、カメラの姿勢(Yaw(θ),Roll(χ),Pitch(ω))と、被写体である外界の空間情報、または、空間形状を獲得することが主な課題である。
【0008】
【課題を解決するための手段】
上述の課題を解決するために、本発明は、全方位カメラを用いて全方位の景観を一度に撮影した全方位画像から外界の空間情報を獲得する方法であって、撮影された全方位画像において1つ以上の特徴点を設定・抽出する過程と、前記撮影された全方位画像において前記特徴点の表示座標値を求める過程と、前記表示座標値と全方位カメラのカメラパラメータとから外界の空間形状に関する空間情報を算出する過程とを有することを特徴とする空間情報獲得方法を解決の手段とする。
【0009】
あるいは、全方位カメラを用いて全方位の景観を一度に撮影した全方位画像から外界の空間情報を獲得する方法であって、撮影された全方位画像において1つ以上の特徴点を設定・抽出する過程と、前記撮影された全方位画像において前記特徴点の表示座標値を求める過程と、前記表示座標値に対して全方位カメラのカメラパラメータを用いて第1の座標変換を施すことにより第1の変換座標値を求める過程と、全方位カメラの姿勢情報および前記特徴点の実空間における位置を仮定する過程と、前記仮定した姿勢情報および前記表示座標値を用いて前記仮定した位置に対して第2の座標変換を施すことにより第2の変換座標値を求める過程と、前記1つ以上の特徴点の各々に対して前記第1の変換座標値と前記第2の変換座標値との差分または誤差を求める過程と、前記差分または誤差が許容値以下になるように前記仮定した姿勢情報および前記仮定した位置を補正する過程と、前記補正後の前記仮定した位置を外界の空間形状に関する空間情報とする過程とを有することを特徴とする空間情報獲得方法を解決の手段とする。
【0010】
あるいは、前記空間情報獲得方法において、前記第1の座標変換が、
【0011】
【数5】
【0012】
で表され、前記第2の座標変換が、
【0013】
【数6】
【0014】
で表される(但し、xj,yj…特徴点の表示座標値、Cx,Cy…カメラパラメータである射影中心、f…カメラパラメータである焦点距離、D…カメラパラメータである全方位画像解像度、ρj…特徴点の位相パラメータ、φj…特徴点の仰角パラメータ、uj,vj…第1の変換座標値、Rj…特徴点の空間座標値上の奥行き、Xj’,Y’j,Z’j…空間中の特徴点の仮定した位置、θi,χi,ωi…全方位カメラの仮定した姿勢情報、ρ’j…Xj’,Y’j,Z’jで求めた位相パラメータ、φ’j…Xj’,Y’j,Z’jで求めた仰角パラメータ、u’j,v’j…第2の変換座標値)ことを特徴とする空間情報獲得方法を解決の手段とする。
【0015】
あるいは、全方位カメラを用いて全方位の景観を一度に撮影した全方位画像から外界の空間情報を獲得する装置であって、撮影された全方位画像において1つ以上の特徴点を設定・抽出する手段と、前記撮影された全方位画像において前記特徴点の表示座標値を求める手段と、前記表示座標値と全方位カメラのカメラパラメータとから外界の空間形状に関する空間情報を算出する手段とを有することを特徴とする空間情報獲得装置を解決の手段とする。
【0016】
あるいは、全方位カメラを用いて全方位の景観を一度に撮影した全方位画像から外界の空間情報を獲得する装置であって、撮影された全方位画像において1つ以上の特徴点を設定・抽出する手段と、前記撮影された全方位画像において前記特徴点の表示座標値を求める手段と、前記表示座標値に対して第1の座標変換を施すことにより第1の変換座標値を求める手段と、全方位カメラの姿勢情報および前記特徴点の実空間における位置を仮定する手段と、前記仮定した姿勢情報および前記表示座標値を用いて前記仮定した位置に対して第2の座標変換を施すことにより第2の変換座標値を求める手段と、前記1つ以上の特徴点の各々に対して前記第1の変換座標値と前記第2の変換座標値との差分または誤差を求める手段と、前記差分または誤差が許容値以下になるように前記仮定した姿勢情報および前記仮定した位置を補正する手段と、前記補正後の前記仮定した位置を外界の空間形状に関する空間情報とする手段とを有することを特徴とする空間情報獲得装置を解決の手段とする。
【0017】
あるいは、前記空間情報獲得装置において、前記第1の座標変換が、
【0018】
【数7】
【0019】
で表され、前記第2の座標変換が、
【0020】
【数8】
【0021】
で表される(但し、xj,yj…特徴点の表示座標値、Cx,Cy…カメラパラメータである射影中心、f…カメラパラメータである焦点距離、D…カメラパラメータである全方位画像解像度、ρj…特徴点の位相パラメータ、φj…特徴点の仰角パラメータ、uj,vj…第1の変換座標値、Rj…特徴点の空間座標値上の奥行き、Xj’,Y’j,Z’j…空間中の特徴点の仮定した位置、θi,χi,ωi…全方位カメラの仮定した姿勢情報、ρ’j…Xj’,Y’j,Z’jで求めた位相パラメータ、φ’j…Xj’,Y’j,Z’jで求めた仰角パラメータ、u’j,v’j…第2の変換座標値)ことを特徴とする空間情報獲得装置を解決の手段とする。
【0022】
あるいは、前述の空間情報獲得方法における過程を、コンピュータに実行させるためのプログラムとしたことを特徴とする空間情報獲得プログラムを解決の手段とする。
【0023】
あるいは、前述の空間情報獲得方法における過程を、コンピュータに実行させるためのプログラムとし、前記プログラムを、前記コンピュータが読み取りできる記録媒体に記録したことを特徴とする空間情報獲得プログラムを記録した記録媒体を解決の手段とする。
【0024】
本発明は、上述の構成により、全方位カメラ装置を画像入力装置として使用した時系列映像解析、または、コンピュータビジョンにおいて、時系列間の特徴点追跡、対応点探索、などのオプティカルフローを必要とせず、各々の全方位画像から、カメラ視点に関する姿勢情報と、外界の空間形状に関する空間情報を獲得、復元することを可能にする。
【0025】
【発明の実施の形態】
以下、本発明の実施の形態について図を用いて詳細に説明する。
【0026】
『実施形態例1』
本実施形態例は、全方位カメラから取得した全方位画像から、外界の空間形状に関する空間情報を獲得する手法である。
【0027】
図1に、本実施形態例の基本構成図を示す。本発明は、処理対象とする全方位画像を設定・抽出する画像抽出部1、処理対象とする全方位画像中に特徴点を設定する特徴点設定部2、特徴点設定部2で設定・抽出され選択された特徴点の画像座標値(表示座標値)を求め、この画像座標値と全方位カメラのカメラパラメータとから外界の空間形状に関する空間情報を計算するパラメータ計算部3、並びに、計算された空間情報を出力するパラメータ出力部4から構成される。
【0028】
図2は、本発明に関する実施形態例1の処理フロー図である。本実施形態例においては、等距離射影(光軸からの入射角に比例した射影)の光学系で設計されている魚眼レンズを用いた全方位カメラで全方位画像を取得する場合について説明する。なお、本発明は、他の光学射影、例えば、立体射影、または等立体射影を用いた場合にも適用可能であり、また、魚眼レンズを使用しない他の全方位カメラ撮像装置(双曲線ミラーや六角錘ミラーで構成した全方位カメラなど)で取得した全方位の時系列画像や多視点の全方位画像に対しても適用可能である。
【0029】
以下では、全方位カメラと空間情報の関係が、図3のように、全方位カメラの進行軸に沿って、物体が存在することを前提とする。
【0030】
図3では、全方位カメラを、半球型の光学レンズでモデル化しており、空間中の点P(Xj,Yj,Zj)は、等距離射影の光学射影設計の元で、射影中心Cを中心とする画像面状の射影点p(xj,yj)に射影される。このとき、X軸からの位相ρj、並びに、仰角φjという角度パラメータにより特徴付けられる。また、空間中の点Pに対して、進行軸に平行な直線上において進行軸からの垂線の足を下ろしたときの点B、並びに、高さを点Pと同じにした点を点Aとする。このとき射影中心Cから点Bまでの距離(奥行き)をRj、点Bから点Aまでの距離、すなわち、点PのZ軸方向の高さをhjとする。
【0031】
また、図4に示すように、外界の空間情報は、射影中心を円の中心とした円の内部に射影され、このときの円周がイメージサークル(仰角0度の映像化限界)である。空間中の点Pが射影される画像面での画像座標p(xj,yj)は、射影中心(Cx,Cy)から、距離(径)rj離れた点であり、射影中心から伸ばした線分がx軸と為す角は、図3の位相ρjと同一のものである。
【0032】
次に、図2の処理フローに従って、本発明を説明する。本実施形態例は、全方位画像中において設定・抽出した1つ以上の特徴点と、全方位カメラ固有のカメラパラメータと、特徴点の画像座標値から得られる位相パラメータから、空間情報パラメータを計算することにより、外界の空間形状に関する空間情報を獲得する。
【0033】
まず、画像抽出部1が、全方位画像のうち、処理対象とする画像を1枚取り出し、特徴点設定部2が、この画像上において、特徴点をN個((xj,yj);j=1,2,・・・,N)設定する。このとき、オペレータが手動で特徴点を設定したり、エッジ検出や濃淡勾配の激しい点を画像処理等により特徴点を抽出して設定したりしても構わず、以下の処理には何ら影響しない。
【0034】
次に、パラメータ計算部3は、図4でのカメラパラメータである射影中心(Cx,Cy)から、各々の特徴点まで径を伸ばしたときの位相パラメータρjを式(1)
【0035】
【数9】
【0036】
に従って、各々の特徴点に対して求める。ここで、カメラパラメータとして、焦点距離f、画像座標値の1画素の物理的重み付けを表現する固定値である全方位画像解像度Dを設定する。さらに、外界の空間中での各々の特徴点Pに対して、式(2)
【0037】
【数10】
【0038】
を使ってhjを計算する。これで、特徴点の高さhj、すなわち、外界の空間形状に関する空間情報を獲得し、パラメータ出力部4から出力する。
【0039】
さらに、このような処理を対象とする全方位画像(フレーム数がF枚であれば、i=1,2,・・・,Fとなる)について行い、各画像に設定・抽出した特徴点に関する空間情報hjを獲得することができる。
【0040】
『実施形態例2』
本実施形態例は、全方位カメラから取得した全方位画像から、全方位カメラの姿勢情報と、外界の空間形状に関する空間情報を獲得する手法である。
【0041】
図5に、本実施形態例の基本構成図を示す。本実施形態例は、処理対象とする全方位画像を抽出する画像抽出部1、処理対象とする全方位画像中に特徴点を設定・抽出する特徴点設定部2、特徴点設定部2で設定・抽出され選択された特徴点の全方位画像中の画像座標値(表示座標値)を求め、この画像座標値とカメラパラメータとから特徴点のパラメータを計算するとともに、これらの画像座標値と特徴点のパラメータと外部情報入力部14から入力する外界の空間情報およびカメラの姿勢情報の初期値(仮定した値)とから特徴点の別のパラメータを計算するパラメータ計算部3、先の特徴点のパラメータを用いて第1の変換座標値を計算するとともに、後の特徴点のパラメータを用いて第2の変換座標値を計算する座標計算部11、第1の変換座標値と第2の変換座標値との間で差分または誤差を求め、許容値以下に最適化されたかどうかを判定する最適化判定部12、最適化判定部12で最適化されていないと判定されたときに空間情報とカメラの姿勢情報を更新(補正)するパラメータ更新部13、並びに、最適化されたと判定されたときの空間情報とカメラの姿勢情報を出力するパラメータ出力部4から構成される。
【0042】
本発明を、図6の処理フローに沿って説明する。本実施形態例は、画像中において設定・抽出した1つ以上の特徴点と、全方位カメラ固有のカメラパラメータと、特徴点の画像座標値から得られる位相パラメータと仰角パラメータから第1の変換座標値を計算する第一のステップと、第一のステップで設定した特徴点の位相パラメータと、外界の空間形状に関する空間情報の初期値を適当に与え、さらに、全方位カメラの方位情報の初期値を適当に与えて得られた位相パラメータと仰角パラメータから第2の変換座標値を計算する第二のステップと、第一のステップで得た第1の変換座標値と、第二のステップで得た第2の変換座標値との間の差分または誤差を求め、その差分または誤差を低減するように、適当に与えた外界の空間形状に関する空間情報並びに全方位カメラの方位情報を変化させ、この誤差が最小となるときの外界の空間形状に関する空間情報並びに全方位カメラの方位情報を探索する第三のステップにより、カメラの姿勢情報と外界の空間情報とを獲得する。
【0043】
まず、画像抽出部1が、全方位画像のうち、処理対象とする画像を1枚取り出し、特徴点設定部2が、この画像上において、特徴点をN個((xj,yj);j=1,2,・・・,N)設定する。このとき、オペレータが手動で特徴点を設定したり、エッジ検出や濃淡勾配の激しい点を画像処理等により特徴点を抽出して設定したりしても構わず、以下の処理には何ら影響しない。
【0044】
次に、パラメータ計算部3において、画像中の座標値(xj,yj)から式(1)に従い、パラメータρjと、式(3)
【0045】
【数11】
【0046】
に従ってパラメータφjを求める。
【0047】
次に、座標計算部11において、式(4)
【0048】
【数12】
【0049】
から、第1の変換座標値(uj,vj)を得る。
【0050】
一方、外部情報入力部14は、特徴点の高さhjの初期値を適当に与え、パラメータ計算部3は、式(5)
【0051】
【数13】
【0052】
により、パラメータφ’jを得る。ただし、Rj=1とする。
【0053】
次に、座標計算部11は、方位角θj=0と初期化して、式(6)
【0054】
【数14】
【0055】
により、第2の変換座標値(u’j,v’j)を求める。
【0056】
次に、最適化判定部12は、式(7)
【0057】
【数15】
【0058】
の誤差ΔAを求める。ここで、許容誤差εを適当に設定しておき、この誤差ΔAが式(8)
ΔA≦ε …式(8)
を満足するかしないかを判定する。
【0059】
上記判定において、式(8)を満足しない場合、パラメータ更新部13は、式(9)
【0060】
【数16】
【0061】
のパラメータ更新を行う。
【0062】
この誤差を許容誤差以下になるようにパラメータを更新する手法として、例えば、文献[1]「Numerical Recipes in C,William H.Press,Saul A.Teukolsky,William T.Vetterling,Brian P.Flannery」((日本語版)−10.5 多次元の方向集合(Powell)法−C言語による数値計算のレシピ、丹慶勝市、奥村晴彦、佐藤俊郎、小林誠(訳)、技術評論社)に掲載されているPowell法、または、ニューラルネットワーク、遺伝的アルゴリズムなどを応用して実現することができる。
【0063】
続いて、パラメータが更新されたことにより、上述のステップに戻り、パラメータ計算部3においてパラメータφ’jを式(5)から再度計算し、さらに、方位角θiが更新されたことにより、座標計算部11において式(6)を使って第2の変換座標値(u’j,v’j)を再度計算する。同様に、最適化判定部12により、このときの誤差ΔAを求め、許容誤差以下かどうかの判定を行い、そうでないと、さらに、パラメータ更新部13により式(9)のパラメータ更新を行い、許容誤差以下であれば、その時点でのパラメータをパラメータ出力部4における出力結果とする。
【0064】
最終的に、式(8)を満たすパラメータhj、並びに、θiを獲得する。こうして、外界の空間形状に関する空間情報hj、並びに、方位角θiを獲得することができる。
【0065】
さらに、このような処理を対象とする全方位画像(フレーム数がF枚であれば、i=1,2,・・・,Fとなる)について行い、各々の画像に設定・抽出した特徴点の空間情報hjと、各画像を取得したときの方位角θiを獲得することができる。
【0066】
『実施形態例3』
本発明は、実施形態例2に対して、図3においてZ軸周りの回転、すなわち、方位角θ、並びに、その他の回転角を求める手法であり、実施形態例2との差分のみを記載することにする。なお、本実施形態例で獲得するその他の回転角とは、図3において、X軸周りの回転(回転パラメータχi)と、Y軸周りの回転(回転パラメータωi)である。
【0067】
本発明を、図7の処理フローに沿って説明する。本実施形態例は、実施形態例2の第二のステップにおいて、外界の空間形状に関する空間情報の初期値を与え、さらに、全方位カメラの方位情報とその他の回転情報の初期値を適当に与えて得られた位相パラメータと仰角パラメータから第2の変換座標値を計算し、実施形態例2の第三のステップにおいて、第一のステップで得た第1の変換座標値と、第二のステップで得た第2の変換座標値との間の差分または誤差を求め、その差分または誤差を低減するように、適当に与えた外界の空間形状に関する空間情報、全方位カメラの方位情報並びにその他の回転情報を変化させ、この差分または誤差が最小となるときの外界の空間形状に関する空間情報、全方位カメラの方位情報並びにその他の回転情報を探索する。
【0068】
まず、画像抽出部1が、全方位画像のうち、処理対象とする画像を1枚取り出し、特徴点設定部2が、この画像上において、特徴点をN個((xj,yj);j=1,2,・・・,N)設定する。このとき、オペレータが手動で特徴点を設定したり、エッジ検出や濃淡勾配の激しい点を画像処理等により特徴点を設定したりしても構わず、以下の処理には何ら影響しない。
【0069】
次に、パラメータ計算部3において、画像中の座標値(xj,yj)から式(1)に従い、パラメータρjと、式(3)に従ってパラメータφjを求め、座標計算部11において、式(4)から、第1の変換座標値(uj,vj)を得る。
【0070】
一方、外部情報入力部14は、特徴点の高さhjの初期値(ただし、Rj=1とする)を適当に与え、さらに、その他の回転角を表す回転パラメータの初期値として、χi=ωi=0として与え、パラメータ計算部3は、式(10)
【0071】
【数17】
【0072】
により(X’j,Y’j,Z’j)を求め、さらに、これらの座標値から、パラメータρ’jとパラメータφ’jを式(11)
【0073】
【数18】
【0074】
を用いて得る。
【0075】
次に、座標計算部11は、方位角θi=0と初期化して、式(12)
【0076】
【数19】
【0077】
により、第2の変換座標値(u’j,v’j)を求める。
【0078】
次に、最適化判定部12は、式(7)の誤差ΔAを求める、ここで、許容誤差εを適当に設定しておき、この誤差ΔAが式(8)を満足するかしないかを判定する。
【0079】
上記判定において、式(8)を満足しない場合、パラメータ更新部13は、式(13)
【0080】
【数20】
【0081】
のパラメータ更新を行う。この誤差を許容誤差以下になるようにパラメータを更新する手法として、例えば、上述の文献[1]に掲載されているPowell法、または、ニューラルネットワーク、遺伝的アルゴリズムなどを応用して実現することができる。
【0082】
続いて、パラメータが更新されたことにより、上述のステップに戻り、パラメータ計算部3においては式(10)を再度計算し、座標計算部11においては式(11)を再度計算し、さらに、方位角θiが更新されたことにより、式(12)を使って第2の変換座標値(u’j,v’j)を再度計算する。同様に、最適化判定部12により、このときの誤差ΔAを求め、許容誤差以下かどうかの判定を行い、そうでないと、パラメータ更新部13により、さらに式(13)のパラメータ更新を行い、許容誤差以下であれば、その時点でのパラメータをパラメータ出力部4における出力結果とする。
【0083】
最終的に、式(8)を満たすパラメータhj、方位角θi、並びに回転角χiと回転角ωiを獲得する。こうして、外界の空間形状に関する空間情報hj、方位角θi,X軸周りの回転角χi,Y軸周りの回転角ωiを獲得することができる。
【0084】
さらに、このような処理を対象とする全方位画像(フレーム数がF枚であれば、i=1,2,・・・,Fとなる)について行い、各々の画像に設定・抽出した特徴点の空間情報hjと、各画像を取得したときの方位角θi,X軸周りの回転角χi,Y軸周りの回転角ωiを獲得することができる。
【0085】
本発明の式(1)(3)(4)および式(1)(10)(11)(12)による座標変換の効果を以下に述べる。
【0086】
画像座標値(xj,yj)から位相ρjと仰角φjを求め、(uj,vj)に座標変換すると、R−h曲線が、v軸に対して平行な直線に変換される。ここで、R−h曲線とは、全方位カメラの進行軸を中心として二分する左右の側面に対して、全方位カメラ視点から側面までの距離をR、高さをhとしたとき、位相ρを−π/2<ρ<π/2まで変化させて得られる全方位射影曲線のことである。従って、特徴点として奥行きRjおよび高さhjがそれぞれ互いに等しい点の集合(廊下の天井と側壁が交わる線上の点など)を設定することにより、uv平面上の直線を用いて空間情報および姿勢情報を補正することができるようになる。この場合、xy平面上のR−h曲線を用いて空間情報およびカメラの姿勢情報を補正する場合に比べ、はるかに高精度な計測が可能となる。
【0087】
また、本座標変換では、仰角φjが小さい特徴点(基底に近い点)ほど、v軸から離れた点に、測定誤差が強調されて変換される。すなわち、同じ操作により特徴点を測定した場合、xy平面上では分かりづらかった誤差や不一致がuv平面上ではより正確に把握できるようになる。従って、この強調された誤差が最小となるように空間情報およびカメラの姿勢情報を補正すれば、やはり高精度な計測が可能となる。
【0088】
なお、図1および図5で示した装置における各部の一部もしくは全部の機能をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行して本発明を実現することができること、あるいは、図2、図6、および図7で示した処理の過程をコンピュータのプログラムで構成し、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラム、あるいは、コンピュータにその処理の手順を実行させるためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えば、FD(フレキシブルディスク)や、MO、ROM、メモリカード、CD、DVD、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。
【0089】
【発明の効果】
以上の説明で明らかなように、本発明によれば、全方位カメラの取得画像から、外界の空間情報を獲得する際に、全方位カメラの姿勢情報を自動的に補正するようにしたので、全方位カメラの設置角度が誤差を有していても、計測誤差を低減することができる。また、座標変換を適用することで、計測誤差をより一層低減することができる。
【図面の簡単な説明】
【図1】本発明の実施形態例1の基本構成図である。
【図2】実施形態例1の処理フローを示す図である。
【図3】魚眼レンズの等距離射影による光学射影の説明図である。
【図4】全方位画像上の座標値の説明図である。
【図5】本発明の実施形態例2および実施形態例3の基本構成図である。
【図6】実施形態例2の処理フローを示す図である。
【図7】実施形態例3の処理フローを示す図である。
【符号の説明】
1…画像抽出部
2…特徴点設定部
3…パラメータ計算部
4…パラメータ出力部
11…座標計算部
12…最適化判定部
13…パラメータ更新部
14…外部情報入力部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a technique for estimating a self-position or a self-motion related to a viewpoint of an omnidirectional camera from an acquired omnidirectional image using an omnidirectional camera that captures a 360-degree landscape at a time as an image input device.
[0002]
Further, the present invention relates to a technology for measuring, acquiring, or restoring the structure, landscape, or spatial information of the external world shown in the omnidirectional image.
[0003]
In addition, the present invention relates to a sensing technique for detecting a direction, an azimuth, a posture integrated with the omnidirectional camera, or the like for a mobile robot or a vehicle equipped with an omnidirectional camera.
[0004]
[Prior art]
The omnidirectional camera has been developed as an image input device that captures a 360-degree landscape at a time, and has been applied as a visual sensor for machine navigation, automatic driving, and motion control. In particular, it is effective as a means for acquiring a global video scene. In outdoor photography, various buildings can be photographed, and in indoor photography, a wide indoor space can be photographed at once. Most of such omnidirectional cameras are often used with the camera optical axis installed vertically upward.
[0005]
[Problems to be solved by the invention]
However, in the above-mentioned conventional omnidirectional camera, it is not always possible to mount the omnidirectional camera directly above the optical axis along the vertical direction to acquire an omnidirectional image, and strictly speaking, the camera optical axis is minute. It may have a slope. In other words, an omnidirectional camera is an effective means as an image input device that captures images in all directions at once, but the camera optical axis can be oriented parallel to the vertical direction, or the plane perpendicular to the camera optical axis can be parallel to the horizontal plane. Since it is physically difficult to install the camera, if time-series image analysis is performed without considering that the attitude is tilted, the attitude error due to the tilt will cause an analysis error. .
[0006]
In computer vision, which simultaneously restores camera motion and object shape from a time-series omnidirectional image, tracking of feature points in a time-series image, optical flow, or searching for a corresponding point, a two-dimensional image coordinate system is used. Accurate measurement of the trajectory of the point cloud is an important preprocessing. In the case of an omnidirectional image, a projective distortion is severe, and it is difficult to obtain an accurate optical flow by fixed pattern matching. Even if feature points can be tracked by a method that considers robust tracking and projective distortion in noise, in outdoor video, occlusion objects such as trees and traffic lights exist, and in all video scenes where the object is reflected There is no guarantee that feature point tracking, corresponding point search, and optical flow can be accurately observed.
[0007]
SUMMARY OF THE INVENTION In order to solve the above-described problem, an object of the present invention is to estimate a posture of a camera at that time from an omnidirectional image acquired by an omnidirectional camera, and at the same time, acquire spatial information of the outside world. In particular, the omnidirectional images acquired in time series do not require preprocessing such as feature point tracking, corresponding point search, or optical flow, and the camera orientation (Yaw (θ) , Roll (χ), Pitch (ω)) and the spatial information or the spatial shape of the external world as the subject are the main issues.
[0008]
[Means for Solving the Problems]
In order to solve the above-described problem, the present invention is a method for acquiring spatial information of the outside world from an omnidirectional image obtained by capturing an omnidirectional landscape at a time using an omnidirectional camera, and comprising: Setting and extracting one or more feature points in the omnidirectional image, obtaining the display coordinate values of the feature points in the captured omnidirectional image, and calculating the external coordinates from the display coordinate values and the camera parameters of the omnidirectional camera. Calculating a spatial information related to the spatial shape.
[0009]
Alternatively, a method of acquiring spatial information of the outside world from an omnidirectional image obtained by capturing an omnidirectional landscape at a time using an omnidirectional camera, wherein one or more feature points are set and extracted in the captured omnidirectional image And calculating the display coordinate values of the feature points in the captured omnidirectional image, and performing a first coordinate transformation on the display coordinate values using camera parameters of the omnidirectional camera. 1, a step of assuming the position information of the omnidirectional camera and the position of the feature point in the real space, and a step of assuming the position of the feature point in the real space. Calculating a second transformed coordinate value by applying a second coordinate transformation to the first transformed coordinate value and the second transformed coordinate value for each of the one or more feature points. Difference Is a step of obtaining an error, a step of correcting the assumed posture information and the assumed position such that the difference or the error is equal to or less than an allowable value, and a step of converting the assumed position after the correction into a space related to an external space shape. A spatial information acquisition method characterized by having a step of converting into information.
[0010]
Alternatively, in the spatial information acquisition method, the first coordinate transformation includes:
[0011]
(Equation 5)
[0012]
Where the second coordinate transformation is
[0013]
(Equation 6)
[0014]
(Where x j , Y j ... Display coordinate values of feature points, C x , C y ... Projection center which is a camera parameter, f ... Focal length which is a camera parameter, D ... Omnidirectional image resolution which is a camera parameter, ρ j ... phase parameter of feature point, φ j ... elevation angle parameter of feature point, u j , V j ... First transformed coordinate value, R j … Depth on the spatial coordinate value of the feature point, X j ', Y' j , Z ' j … Assumed positions of feature points in space, θ i , Χ i , Ω i ... posture information assumed by the omnidirectional camera, ρ ' j ... X j ', Y' j , Z ' j Phase parameter, φ ' j ... X j ', Y' j , Z ' j Elevation angle parameter, u ' j , V ' j .. A second transformed coordinate value) as a means for solving the problem.
[0015]
Alternatively, a device for acquiring spatial information of the outside world from an omnidirectional image obtained by capturing an omnidirectional landscape at a time using an omnidirectional camera, and setting and extracting one or more feature points in the captured omnidirectional image Means for calculating display coordinate values of the feature points in the captured omnidirectional image, and means for calculating spatial information on the spatial shape of the external world from the display coordinate values and camera parameters of the omnidirectional camera. A spatial information acquisition apparatus characterized in that the apparatus has a means for solving the problem.
[0016]
Alternatively, a device for acquiring spatial information of the outside world from an omnidirectional image obtained by capturing an omnidirectional landscape at a time using an omnidirectional camera, and setting and extracting one or more feature points in the captured omnidirectional image Means for calculating a display coordinate value of the feature point in the captured omnidirectional image, and means for obtaining a first transformed coordinate value by performing a first coordinate transformation on the displayed coordinate value. Means for assuming posture information of the omnidirectional camera and the position of the feature point in the real space; and performing a second coordinate transformation on the assumed position using the assumed posture information and the display coordinate value. Means for obtaining a second transformed coordinate value, and means for determining a difference or error between the first transformed coordinate value and the second transformed coordinate value for each of the one or more feature points; Difference or Means for correcting the assumed posture information and the assumed position such that the difference is equal to or less than an allowable value, and means for using the assumed position after the correction as spatial information relating to the spatial shape of the external world. The spatial information acquisition device described above is used as a solution.
[0017]
Alternatively, in the spatial information acquisition device, the first coordinate transformation is
[0018]
(Equation 7)
[0019]
Where the second coordinate transformation is
[0020]
(Equation 8)
[0021]
(Where x j , Y j ... Display coordinate values of feature points, C x , C y ... Projection center which is a camera parameter, f ... Focal length which is a camera parameter, D ... Omnidirectional image resolution which is a camera parameter, ρ j ... phase parameter of feature point, φ j ... elevation angle parameter of feature point, u j , V j ... First transformed coordinate value, R j … Depth on the spatial coordinate value of the feature point, X j ', Y' j , Z ' j … Assumed positions of feature points in space, θ i , Χ i , Ω i ... posture information assumed by the omnidirectional camera, ρ ' j ... X j ', Y' j , Z ' j Phase parameter, φ ' j ... X j ', Y' j , Z ' j Elevation angle parameter, u ' j , V ' j .. (A second transformed coordinate value).
[0022]
Alternatively, the solution in the spatial information acquisition method is a program for causing a computer to execute the process in the spatial information acquisition method described above.
[0023]
Alternatively, a recording medium recording a spatial information acquisition program, characterized in that the process in the spatial information acquisition method described above is a program for causing a computer to execute the program, and the program is recorded on a recording medium readable by the computer. Means of solution.
[0024]
According to the present invention, the above-described configuration requires time-series video analysis using an omnidirectional camera device as an image input device, or optical flow such as feature point tracking between time series and corresponding point search in computer vision. Instead, it is possible to acquire and restore posture information on the camera viewpoint and spatial information on the external space shape from each omnidirectional image.
[0025]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0026]
"
The present embodiment is a method of acquiring spatial information on the spatial shape of the external world from an omnidirectional image acquired from an omnidirectional camera.
[0027]
FIG. 1 shows a basic configuration diagram of this embodiment. The present invention provides an
[0028]
FIG. 2 is a processing flowchart of the first embodiment according to the present invention. In the present embodiment, a case will be described in which an omnidirectional image is acquired by an omnidirectional camera using a fisheye lens designed with an optical system of equidistant projection (projection proportional to the incident angle from the optical axis). It should be noted that the present invention can be applied to a case where other optical projection, for example, stereoscopic projection or iso-stereoscopic projection is used. The present invention is also applicable to an omnidirectional time-series image acquired by an omnidirectional camera constituted by a mirror) or a multi-view omnidirectional image.
[0029]
In the following, it is assumed that the relationship between the omnidirectional camera and the spatial information is such that an object exists along the traveling axis of the omnidirectional camera as shown in FIG.
[0030]
In FIG. 3, the omnidirectional camera is modeled by a hemispherical optical lens, and a point P (X j , Y j , Z j ) Is an image plane projection point p (x) centered on the projection center C under the optical projection design of equidistant projection. j , Y j ). At this time, the phase ρ from the X axis j , And elevation angle φ j Is characterized by the following angle parameter: Further, with respect to the point P in the space, a point B when a foot perpendicular to the traveling axis is lowered on a straight line parallel to the traveling axis, and a point A whose height is the same as the point P are referred to as a point A. I do. At this time, the distance (depth) from the projection center C to the point B is R j , The distance from point B to point A, that is, the height of point P in the Z-axis direction is h j And
[0031]
As shown in FIG. 4, the spatial information of the external world is projected inside a circle whose center is the projection center, and the circumference at this time is an image circle (imaging limit at an elevation angle of 0 degrees). The image coordinates p (x on the image plane where the point P in the space is projected j , Y j ) Is the projection center (C x , C y ), The distance (diameter) r j An angle formed by a line segment extending from the projection center and the x-axis at a distant point is the phase ρ in FIG. j Is the same as
[0032]
Next, the present invention will be described according to the processing flow of FIG. In this embodiment, the spatial information parameter is calculated from one or more feature points set and extracted in the omnidirectional image, camera parameters unique to the omnidirectional camera, and phase parameters obtained from the image coordinate values of the feature points. By doing so, spatial information about the spatial shape of the external world is obtained.
[0033]
First, the
[0034]
Next, the
[0035]
(Equation 9)
[0036]
Is determined for each feature point. Here, the omnidirectional image resolution D, which is a fixed value expressing the physical weight of one pixel of the image coordinate value, is set as the camera parameters. Further, for each feature point P in the space of the external world, the expression (2)
[0037]
(Equation 10)
[0038]
With h j Is calculated. This gives the height h of the feature point j That is, spatial information relating to the spatial shape of the external world is obtained and output from the parameter output unit 4.
[0039]
Further, such processing is performed on omnidirectional images (i = 1, 2,..., F when the number of frames is F) for the feature points set and extracted for each image. Spatial information h j Can be obtained.
[0040]
"
The present embodiment is a method of acquiring, from an omnidirectional image acquired from an omnidirectional camera, attitude information of the omnidirectional camera and spatial information on a spatial shape of the external world.
[0041]
FIG. 5 shows a basic configuration diagram of the present embodiment. In this embodiment, an
[0042]
The present invention will be described with reference to the processing flow of FIG. In the present embodiment, one or more feature points set / extracted in an image, camera parameters unique to an omnidirectional camera, and first transformation coordinates from a phase parameter and an elevation parameter obtained from image coordinate values of the feature points. The first step of calculating the value, the phase parameter of the feature point set in the first step, and appropriately giving the initial value of the spatial information on the spatial shape of the external world, and further, the initial value of the azimuth information of the omnidirectional camera , A second step of calculating a second transformed coordinate value from the phase parameter and the elevation angle parameter obtained by appropriately giving, the first transformed coordinate value obtained in the first step, and a second transformed coordinate value obtained in the second step. A difference or an error between the second transformed coordinate value and the azimuth information of the omnidirectional camera is appropriately converted so as to reduce the difference or the error. Is allowed, the third step this error to explore the spatial information and direction information of the omnidirectional camera about ambient space shape when the minimum, to acquire the spatial information of the posture information of the camera and the outside world.
[0043]
First, the
[0044]
Next, in the
[0045]
[Equation 11]
[0046]
According to the parameter φ j Ask for.
[0047]
Next, in the coordinate calculation unit 11, the expression (4)
[0048]
(Equation 12)
[0049]
From the first transformed coordinate value (u j , V j Get)
[0050]
On the other hand, the external
[0051]
(Equation 13)
[0052]
Gives the parameter φ ' j Get. Where R j = 1.
[0053]
Next, the coordinate calculation unit 11 calculates the azimuth θ j = 0, and equation (6)
[0054]
[Equation 14]
[0055]
As a result, the second transformed coordinate value (u ′) j , V ' j ).
[0056]
Next, the
[0057]
[Equation 15]
[0058]
Is obtained. Here, the allowable error ε is set appropriately, and this error ΔA is calculated by the equation (8).
ΔA ≦ ε Equation (8)
Is determined to satisfy or not.
[0059]
In the above determination, when Expression (8) is not satisfied, the
[0060]
(Equation 16)
[0061]
Is updated.
[0062]
As a method of updating a parameter so that this error becomes equal to or less than an allowable error, for example, a document [1] “Numerical Recipes in C, William H. Press, Saul A. Teukolsky, William T. Vetterling, Brian P. Francry” (Japanese version) -10.5 Multidimensional Direction Set (Powell) Method-Recipe for Numerical Computation in C Language, published in Tankei Katsuichi, Okumura Haruhiko, Sato Toshiro, Kobayashi Makoto (translation), Technical Review Company It can be realized by applying the Powell method, a neural network, a genetic algorithm, or the like.
[0063]
Subsequently, when the parameter is updated, the process returns to the above-described step, and the parameter φ ′ j Is calculated again from equation (5), and the azimuth θ i Is updated, the coordinate conversion unit 11 uses the equation (6) to convert the second transformed coordinate value (u ′). j , V ' j ) Is calculated again. Similarly, the
[0064]
Finally, the parameter h that satisfies equation (8) j , And θ i To win. Thus, the spatial information h about the spatial shape of the external world j , And azimuth θ i Can be obtained.
[0065]
Further, such processing is performed on an omnidirectional image (i = 1, 2,..., F if the number of frames is F), and the feature points set and extracted for each image Spatial information h j And the azimuth θ when each image was acquired i Can be obtained.
[0066]
"
The present invention is a method for calculating the rotation around the Z axis in FIG. 3, that is, the azimuth angle θ and other rotation angles with respect to the second embodiment, and describes only the differences from the second embodiment. I will. It should be noted that the other rotation angles obtained in the present embodiment are rotations around the X axis (rotation parameter χ i ) And rotation around the Y axis (rotation parameter ω i ).
[0067]
The present invention will be described with reference to the processing flow of FIG. In the present embodiment, in the second step of
[0068]
First, the
[0069]
Next, in the
[0070]
On the other hand, the external
[0071]
[Equation 17]
[0072]
By (X ' j , Y ' j , Z ' j ), And from these coordinate values, the parameter ρ ′ j And the parameter φ ' j To the equation (11)
[0073]
(Equation 18)
[0074]
Obtained using
[0075]
Next, the coordinate calculation unit 11 calculates the azimuth θ i = 0 and the equation (12)
[0076]
[Equation 19]
[0077]
As a result, the second transformed coordinate value (u ′) j , V ' j ).
[0078]
Next, the
[0079]
In the above determination, when Expression (8) is not satisfied, the
[0080]
(Equation 20)
[0081]
Is updated. As a method of updating the parameter so that the error is equal to or less than the allowable error, for example, the method can be realized by applying the Powell method described in the above-mentioned document [1], a neural network, a genetic algorithm, or the like. it can.
[0082]
Subsequently, since the parameters have been updated, the process returns to the above-described steps, and the
[0083]
Finally, the parameter h that satisfies equation (8) j , Azimuth θ i , And rotation angle χ i And rotation angle ω i To win. Thus, the spatial information h about the spatial shape of the external world j , Azimuth θ i , Rotation angle about X axisχ i , Rotation angle ω about Y axis i Can be obtained.
[0084]
Further, such processing is performed on an omnidirectional image (i = 1, 2,..., F if the number of frames is F), and the feature points set and extracted for each image Spatial information h j And the azimuth θ when each image was acquired i , Rotation angle about X axisχ i , Rotation angle ω about Y axis i Can be obtained.
[0085]
The effects of the coordinate conversion by the equations (1), (3), (4) and the equations (1), (10), (11), and (12) of the present invention will be described below.
[0086]
Image coordinates (x j , Y j ) From the phase ρ j And elevation angle φ j And (u j , V j ), The Rh curve is converted into a straight line parallel to the v-axis. Here, the Rh curve is a phase ρ when the distance from the omnidirectional camera viewpoint to the side surface is R, and the height is h, with respect to the left and right side surfaces bisected about the traveling axis of the omnidirectional camera. Is changed to -π / 2 <ρ <π / 2 to obtain an omnidirectional projection curve. Therefore, the depth R j And height h j By setting a set of points (e.g., points on a line where the ceiling and side walls of the corridor intersect) with each other, spatial information and attitude information can be corrected using a straight line on the uv plane. In this case, much more accurate measurement can be performed as compared with the case where the spatial information and the posture information of the camera are corrected using the Rh curve on the xy plane.
[0087]
In this coordinate conversion, the elevation angle φ j The smaller the characteristic point (the point closer to the base), the more the measurement error is emphasized and converted to a point farther from the v axis. That is, when characteristic points are measured by the same operation, errors and inconsistencies that are difficult to understand on the xy plane can be more accurately grasped on the uv plane. Therefore, if the spatial information and the attitude information of the camera are corrected so that the emphasized error is minimized, high-precision measurement can be performed.
[0088]
A part or all of the functions of each unit in the apparatus shown in FIGS. 1 and 5 may be configured by a computer program, and the program may be executed using a computer to realize the present invention. It is needless to say that the processing steps shown in FIGS. 2, 6 and 7 can be constituted by a computer program, and the program can be executed by a computer. A program for causing the computer to execute the processing procedure is recorded on a recording medium readable by the computer, for example, FD (flexible disk), MO, ROM, memory card, CD, DVD, removable disk, etc. It can be saved and distributed. Further, it is also possible to provide the above program through a network such as the Internet or e-mail.
[0089]
【The invention's effect】
As is apparent from the above description, according to the present invention, the posture information of the omnidirectional camera is automatically corrected when acquiring the spatial information of the external world from the acquired image of the omnidirectional camera. Even if there is an error in the installation angle of the omnidirectional camera, the measurement error can be reduced. Further, by applying the coordinate transformation, the measurement error can be further reduced.
[Brief description of the drawings]
FIG. 1 is a basic configuration diagram of a first embodiment of the present invention.
FIG. 2 is a diagram showing a processing flow of the first embodiment.
FIG. 3 is an explanatory diagram of optical projection by equidistant projection of a fisheye lens.
FIG. 4 is an explanatory diagram of coordinate values on an omnidirectional image.
FIG. 5 is a basic configuration diagram of
FIG. 6 is a diagram showing a processing flow of
FIG. 7 is a diagram showing a processing flow of a third embodiment.
[Explanation of symbols]
1. Image extraction unit
2. Feature point setting section
3. Parameter calculation unit
4: Parameter output unit
11 Coordinate calculator
12: Optimization judgment unit
13: Parameter update unit
14. External information input unit
Claims (8)
撮影された全方位画像において1つ以上の特徴点を設定・抽出する過程と、
前記撮影された全方位画像において前記特徴点の表示座標値を求める過程と、前記表示座標値と全方位カメラのカメラパラメータとから外界の空間形状に関する空間情報を算出する過程とを有する
ことを特徴とする空間情報獲得方法。A method of acquiring spatial information of the outside world from an omnidirectional image taken at once using an omnidirectional camera,
Setting and extracting one or more feature points in the captured omnidirectional image;
Determining a display coordinate value of the feature point in the captured omnidirectional image, and calculating spatial information on a spatial shape of the external world from the display coordinate value and camera parameters of the omnidirectional camera. Spatial information acquisition method.
撮影された全方位画像において1つ以上の特徴点を設定・抽出する過程と、
前記撮影された全方位画像において前記特徴点の表示座標値を求める過程と、前記表示座標値に対して全方位カメラのカメラパラメータを用いて第1の座標変換を施すことにより第1の変換座標値を求める過程と、
全方位カメラの姿勢情報および前記特徴点の実空間における位置を仮定する過程と、
前記仮定した姿勢情報および前記表示座標値を用いて前記仮定した位置に対して第2の座標変換を施すことにより第2の変換座標値を求める過程と、
前記1つ以上の特徴点の各々に対して前記第1の変換座標値と前記第2の変換座標値との差分または誤差を求める過程と、
前記差分または誤差が許容値以下になるように前記仮定した姿勢情報および前記仮定した位置を補正する過程と、
前記補正後の前記仮定した位置を外界の空間形状に関する空間情報とする過程とを有する
ことを特徴とする空間情報獲得方法。A method of acquiring spatial information of the outside world from an omnidirectional image taken at once using an omnidirectional camera,
Setting and extracting one or more feature points in the captured omnidirectional image;
Calculating a display coordinate value of the feature point in the captured omnidirectional image; and performing a first coordinate transformation on the display coordinate value using a camera parameter of the omnidirectional camera to obtain a first transformed coordinate. The process of finding the value,
Assuming the position information of the omnidirectional camera and the position of the feature point in the real space,
Obtaining a second transformed coordinate value by performing a second coordinate transformation on the assumed position using the assumed posture information and the display coordinate value;
Obtaining a difference or error between the first transformed coordinate value and the second transformed coordinate value for each of the one or more feature points;
Correcting the assumed posture information and the assumed position such that the difference or error is equal to or less than an allowable value, and
Using the assumed position after the correction as spatial information relating to the spatial shape of the external world.
前記第2の座標変換が、
(但し、
xj,yj…特徴点の表示座標値、
Cx,Cy…カメラパラメータである射影中心、
f…カメラパラメータである焦点距離、
D…カメラパラメータである全方位画像解像度、
ρj…特徴点の位相パラメータ、
φj…特徴点の仰角パラメータ、
uj,vj…第1の変換座標値、
Rj…特徴点の空間座標値上の奥行き、
Xj’,Y’j,Z’j…空間中の特徴点の仮定した位置、
θi,χi,ωi…全方位カメラの仮定した姿勢情報、
ρ’j…Xj’,Y’j,Z’jで求めた位相パラメータ、
φ’j…Xj’,Y’j,Z’jで求めた仰角パラメータ、
u’j,v’j…第2の変換座標値)
ことを特徴とする請求項2に記載の空間情報獲得方法。The first coordinate transformation is
The second coordinate transformation is
x j , y j ... display coordinate values of feature points,
Cx , Cy : Projection center which is a camera parameter,
f: focal length which is a camera parameter
D: omnidirectional image resolution which is a camera parameter
ρ j ... phase parameter of the feature point,
φ j … the elevation angle parameter of the feature point,
u j , v j ... first transformed coordinate values,
R j ... Depth on the spatial coordinate value of the feature point;
Xj ', Y'j , Z'j ... assumed positions of feature points in space;
θ i , i i , ω i ... posture information assumed by the omnidirectional camera,
ρ ′ j ... phase parameters determined by X j ′, Y ′ j , Z ′ j ,
φ 'j ... X j', Y 'j, Z' elevation parameter determined by j,
u ′ j , v ′ j ... second converted coordinate values)
The spatial information acquisition method according to claim 2, wherein:
撮影された全方位画像において1つ以上の特徴点を設定・抽出する手段と、
前記撮影された全方位画像において前記特徴点の表示座標値を求める手段と、前記表示座標値と全方位カメラのカメラパラメータとから外界の空間形状に関する空間情報を算出する手段とを有する
ことを特徴とする空間情報獲得装置。A device that acquires spatial information of the outside world from an omnidirectional image obtained by photographing an omnidirectional landscape at a time using an omnidirectional camera,
Means for setting and extracting one or more feature points in the captured omnidirectional image;
Means for calculating display coordinate values of the feature points in the captured omnidirectional image, and means for calculating spatial information relating to the spatial shape of the external world from the display coordinate values and camera parameters of the omnidirectional camera. Spatial information acquisition device.
撮影された全方位画像において1つ以上の特徴点を設定・抽出する手段と、
前記撮影された全方位画像において前記特徴点の表示座標値を求める手段と、前記表示座標値に対して第1の座標変換を施すことにより第1の変換座標値を求める手段と、
全方位カメラの姿勢情報および前記特徴点の実空間における位置を仮定する手段と、
前記仮定した姿勢情報および前記表示座標値を用いて前記仮定した位置に対して第2の座標変換を施すことにより第2の変換座標値を求める手段と、
前記1つ以上の特徴点の各々に対して前記第1の変換座標値と前記第2の変換座標値との差分または誤差を求める手段と、
前記差分または誤差が許容値以下になるように前記仮定した姿勢情報および前記仮定した位置を補正する手段と、
前記補正後の前記仮定した位置を外界の空間形状に関する空間情報とする手段とを有する
ことを特徴とする空間情報獲得装置。A device that acquires spatial information of the outside world from an omnidirectional image obtained by photographing an omnidirectional landscape at a time using an omnidirectional camera,
Means for setting and extracting one or more feature points in the captured omnidirectional image;
Means for obtaining a display coordinate value of the feature point in the captured omnidirectional image; means for obtaining a first transformed coordinate value by performing a first coordinate transformation on the display coordinate value;
Means for assuming the position information of the omnidirectional camera and the position of the feature point in real space,
Means for obtaining a second transformed coordinate value by performing a second coordinate transformation on the assumed position using the assumed posture information and the display coordinate value;
Means for determining a difference or error between the first transformed coordinate value and the second transformed coordinate value for each of the one or more feature points;
Means for correcting the assumed attitude information and the assumed position so that the difference or error is equal to or less than an allowable value,
Means for using the assumed position after the correction as spatial information relating to the spatial shape of the outside world.
前記第2の座標変換が、
(但し、
xj,yj…特徴点の表示座標値、
Cx,Cy…カメラパラメータである射影中心、
f…カメラパラメータである焦点距離、
D…カメラパラメータである全方位画像解像度、
ρj…特徴点の位相パラメータ、
φj…特徴点の仰角パラメータ、
uj,vj…第1の変換座標値、
Rj…特徴点の空間座標値上の奥行き、
Xj’,Y’j,Z’j…空間中の特徴点の仮定した位置、
θi,χi,ωi…全方位カメラの仮定した姿勢情報、
ρ’j…Xj’,Y’j,Z’jで求めた位相パラメータ、
φ’j…Xj’,Y’j,Z’jで求めた仰角パラメータ、
u’j,v’j…第2の変換座標値)
ことを特徴とする請求項5に記載の空間情報獲得装置。The first coordinate transformation is
The second coordinate transformation is
x j , y j ... display coordinate values of feature points,
Cx , Cy : Projection center which is a camera parameter,
f: focal length which is a camera parameter
D: omnidirectional image resolution which is a camera parameter
ρ j ... phase parameter of the feature point,
φ j … the elevation angle parameter of the feature point,
u j , v j ... first transformed coordinate values,
R j ... Depth on the spatial coordinate value of the feature point;
Xj ', Y'j , Z'j ... assumed positions of feature points in space;
θ i , i i , ω i ... posture information assumed by the omnidirectional camera,
ρ ′ j ... phase parameters determined by X j ′, Y ′ j , Z ′ j ,
φ 'j ... X j', Y 'j, Z' elevation parameter determined by j,
u ′ j , v ′ j ... second converted coordinate values)
The spatial information acquisition device according to claim 5, wherein:
ことを特徴とする空間情報獲得プログラム。4. A spatial information acquisition program, wherein the steps in the spatial information acquisition method according to claim 1 are a program for causing a computer to execute the process.
前記プログラムを、前記コンピュータが読み取りできる記録媒体に記録した
ことを特徴とする空間情報獲得プログラムを記録した記録媒体。A program for causing a computer to execute the steps in the spatial information acquisition method according to any one of claims 1 to 3,
A recording medium recording a spatial information acquisition program, wherein the program is recorded on a recording medium readable by the computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002176513A JP2004020398A (en) | 2002-06-18 | 2002-06-18 | Method, device, and program for acquiring spatial information and recording medium recording program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002176513A JP2004020398A (en) | 2002-06-18 | 2002-06-18 | Method, device, and program for acquiring spatial information and recording medium recording program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004020398A true JP2004020398A (en) | 2004-01-22 |
Family
ID=31174797
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002176513A Pending JP2004020398A (en) | 2002-06-18 | 2002-06-18 | Method, device, and program for acquiring spatial information and recording medium recording program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004020398A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007192832A (en) * | 2007-03-06 | 2007-08-02 | Iwate Univ | Calibrating method of fish eye camera |
KR100897834B1 (en) | 2007-08-28 | 2009-05-15 | 중앙대학교 산학협력단 | Calibration method for omnidirectional camera |
WO2012134237A2 (en) * | 2011-04-01 | 2012-10-04 | 에스케이씨앤씨 주식회사 | System and method for estimating the attitude of a camera having captured an image |
WO2015182809A1 (en) * | 2013-05-27 | 2015-12-03 | (주)지에스엠솔루션 | Method for constructing spatial information using omnidirectional image |
KR20180066551A (en) * | 2016-12-09 | 2018-06-19 | 한국과학기술원 | Method and apparatus for acquiring depth map from all-around camera |
US10300854B2 (en) | 2016-08-31 | 2019-05-28 | Hyundai Mobis Co., Ltd. | Apparatus and method of generating top-view image |
CN113188439A (en) * | 2021-04-01 | 2021-07-30 | 深圳市磐锋精密技术有限公司 | Internet-based automatic positioning method for mobile phone camera shooting |
-
2002
- 2002-06-18 JP JP2002176513A patent/JP2004020398A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007192832A (en) * | 2007-03-06 | 2007-08-02 | Iwate Univ | Calibrating method of fish eye camera |
KR100897834B1 (en) | 2007-08-28 | 2009-05-15 | 중앙대학교 산학협력단 | Calibration method for omnidirectional camera |
WO2012134237A2 (en) * | 2011-04-01 | 2012-10-04 | 에스케이씨앤씨 주식회사 | System and method for estimating the attitude of a camera having captured an image |
WO2012134237A3 (en) * | 2011-04-01 | 2013-01-03 | 에스케이씨앤씨 주식회사 | System and method for estimating the attitude of a camera having captured an image |
WO2015182809A1 (en) * | 2013-05-27 | 2015-12-03 | (주)지에스엠솔루션 | Method for constructing spatial information using omnidirectional image |
US10300854B2 (en) | 2016-08-31 | 2019-05-28 | Hyundai Mobis Co., Ltd. | Apparatus and method of generating top-view image |
KR20180066551A (en) * | 2016-12-09 | 2018-06-19 | 한국과학기술원 | Method and apparatus for acquiring depth map from all-around camera |
KR101891201B1 (en) * | 2016-12-09 | 2018-08-23 | 한국과학기술원 | Method and apparatus for acquiring depth map from all-around camera |
CN113188439A (en) * | 2021-04-01 | 2021-07-30 | 深圳市磐锋精密技术有限公司 | Internet-based automatic positioning method for mobile phone camera shooting |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112444242B (en) | Pose optimization method and device | |
JP4889351B2 (en) | Image processing apparatus and processing method thereof | |
JP5832341B2 (en) | Movie processing apparatus, movie processing method, and movie processing program | |
US5706419A (en) | Image capturing and processing apparatus and image capturing and processing method | |
JP5580164B2 (en) | Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program | |
JP5027747B2 (en) | POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM | |
CN109816708B (en) | Building texture extraction method based on oblique aerial image | |
JP2006252473A (en) | Obstacle detector, calibration device, calibration method and calibration program | |
JP5084374B2 (en) | Position measuring apparatus and position measuring method | |
JP2014529727A (en) | Automatic scene calibration | |
KR102200299B1 (en) | A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof | |
JP4619962B2 (en) | Road marking measurement system, white line model measurement system, and white line model measurement device | |
JP4132068B2 (en) | Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus | |
JP5184830B2 (en) | Position measuring apparatus and position measuring method | |
JP7107166B2 (en) | Floor detection program, floor detection method, and terminal device | |
CN108801225B (en) | Unmanned aerial vehicle oblique image positioning method, system, medium and equipment | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
JP2023505891A (en) | Methods for measuring environmental topography | |
JP6922348B2 (en) | Information processing equipment, methods, and programs | |
JP2004020398A (en) | Method, device, and program for acquiring spatial information and recording medium recording program | |
CN111862146B (en) | Target object positioning method and device | |
JP2008224323A (en) | Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program | |
JP2005275789A (en) | Three-dimensional structure extraction method | |
JP2020071854A (en) | Image processing apparatus, image processing method, and program | |
KR102225321B1 (en) | System and method for building road space information through linkage between image information and position information acquired from a plurality of image sensors |