JP5109294B2 - 3次元位置補正装置 - Google Patents

3次元位置補正装置 Download PDF

Info

Publication number
JP5109294B2
JP5109294B2 JP2006168786A JP2006168786A JP5109294B2 JP 5109294 B2 JP5109294 B2 JP 5109294B2 JP 2006168786 A JP2006168786 A JP 2006168786A JP 2006168786 A JP2006168786 A JP 2006168786A JP 5109294 B2 JP5109294 B2 JP 5109294B2
Authority
JP
Japan
Prior art keywords
dimensional
image
model
information
line segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006168786A
Other languages
English (en)
Other versions
JP2007333679A (ja
Inventor
昭二 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2006168786A priority Critical patent/JP5109294B2/ja
Publication of JP2007333679A publication Critical patent/JP2007333679A/ja
Application granted granted Critical
Publication of JP5109294B2 publication Critical patent/JP5109294B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、実写映像に映された対象物画像に合わせて、補足情報を正確に重畳表示する3次元位置補正装置に関する。
本発明は、例えば、実写映像や実写画像に映された建物や道路に合わせて、補足情報を正確に重畳表示する場合に、カメラと対象物までの距離や方向を測定する処理の演算量を抑えて、効率的に補足情報の重畳処理を行なうためになされたものである。
従来、カメラを用いて、対象物の位置および姿勢を認識するものとして、特許文献1のものがある。この技術は、配電作業ロボットの自動制御を目的に開発されたものであり、円柱形上の物体を想定し、画像から抽出される縦方向の輪郭エッジ(線分)と横方向の帯エッジを3次元モデルに当てはめて円柱の位置と姿勢を求めていた。当てはめ処理においては、上記縦方向エッジと3次元モデルから取得される線分が適合するように3次元モデルの位置姿勢パラメータを調整し、再度3次元モデルを投影したときの適合誤差を求める。さらに、横方向のエッジについても同様の処理を行なう。この当てはめ処理を当てはめ候補となる全ての組み合わせに対して行ない、誤差が最小となるものを選択することにより対象物の位置と姿勢を推定していた。
別の従来技術では、GPS(Global Positioning System)やジャイロなど、カーナビに搭載されているセンサーと画像処理をハイブリッドに組み合わせることにより実写に情報を重畳する際のカメラ姿勢情報を推定していた。例えば、非特許文献1では、地図データに格納されている道路データ(リンク情報、道路幅、レーン数)から、道路の3次元モデルデータを構築し、実写から抽出した白線とマッチングを行なうことにより、GPSおよびジャイロの検出位置ずれ誤りであるドリフトの問題を解消していた。
さらに別の従来技術である非特許文献2では、画像から抽出される特徴点やエッジと3次元の点および線分モデルと対応付けることによりカメラの姿勢情報を推定していた。
特開平11−51611号公報(第18頁、図1) Zhencheng Hu and Keiichi Uchimura, "Solution of Camera Registration Problem via 3D-2D Parameterized Model Matching for On-Road Navigation, " International Journal of Image and Graphics, Vol. 4, No. 1, pp. 1-18, 2004. Behzad Kamagar-Parsi and Behrooz Kamgar-Parsi, "Algorithms for Matching 3D Line Sets," IEEE Transaction on Pattern Analysis and Machine Intelligence, Vol. 26, No. 5, pp. 582-593, 2004.
上記の特許文献1で開示された従来技術では、円柱のような左右対称の物体にしか用いることができない問題があった。また、当てはめ処理において縦方向、横方向のエッジそれぞれを分けて処理する必要があり、その度に3次元モデルを2次元画像へ投影する処理を行なわなければならないため、演算量が大きくなるという問題があった。
また、上記の非特許文献1で開示された従来技術では、道路データから推定した道路の3次元モデルが実際と異なる場合が考えられ、また、道路が混雑している場合にマッチングに必要な白線が抽出できないなどの問題があった。
また、上記の非特許文献2で開示された従来技術では、画像から抽出される全ての2次元特徴と3次元モデルの特徴との対応を検査する必要があり、抽出される2次元特徴の数が多くなると演算量が大きくなるという問題があった。
本発明は上記課題を解決するためになされたものであり、任意形状の物体を撮影したときの物体の位置および姿勢、あるいは画像を撮影したカメラの位置および姿勢を画像から抽出した特徴と、対象とする物体の3次元モデルから抽出した特徴との対応を取る際に、上記2次元特徴の候補を絞り込むことにより、全体の演算量を抑えることを目的にするものである。
このような問題を解決するため、本発明に係る3次元位置補正装置は、カメラ画像を入力する画像入力手段と、入力された前記カメラ画像を、白から黒までの明暗の濃淡だけで表示されたグレースケール画像に変換するグレースケール変換手段と、現在のカメラ位置および姿勢を測定する測位手段と、複数種類の、ポリゴンから構成される3次元モデルを格納する3次元モデルDBと、前記3次元モデルDBから、前記測位手段により測定された前記現在のカメラ位置および姿勢で見える範囲の複数種類の前記3次元モデルのモデル特徴を抽出するモデル特徴抽出手段と、予め設定された画像特徴抽出条件に基づいて、前記グレースケール画像から、前記モデル特徴とのマッチングに必要な画像特徴を抽出する画像特徴抽出手段と、予め設定された特徴対応抽出条件に基づいて、前記モデル特徴と前記画像特徴とを2次元平面上でマッチングさせて、前記モデル特徴と前記画像特徴との対応関係である特徴対応情報を取得する2次元マッチング手段と、前記特徴対応情報に基づいて、前記測位手段で測定した前記現在のカメラ位置および姿勢を補正するために、前記特徴対応情報から、カメラあるいは前記モデル特徴に対応する物体の3次元の位置および姿勢のパラメータを、3次元姿勢パラメータとして推定する3次元姿勢パラメータ推定手段とを備えることとしたものである。

本発明によれば、画像特徴抽出手段により、グレースケール画像から、モデル特徴とのマッチングに必要な画像特徴を所定の画像特徴制約条件で絞り込んで抽出し、また、2次元マッチング手段により、モデル特徴と画像特徴との対応関係である特徴対応情報を、所定の特徴対応制約条件で絞り込んで取得するように構成したので、全体の演算量を抑えることができるようになる。
実施の形態1.
本発明の実施の形態1を、図1〜図9を用いて説明する。図1は、本発明の実施の形態1の3次元位置補正装置の構成図である。図2は、本発明の実施の形態1における、実写映像中の物体上に適切に情報を重畳する例の概念図である。図3は、本発明の実施の形態1における、3次元位置補正装置の基本処理動作を示すフローチャートである。図4は、本発明の実施の形態1における、画像特徴抽出手段における処理結果の説明図である。図5は、本発明の実施の形態1における、画像特徴抽出手段の処理動作を示すフローチャートである。図6は、本発明の実施の形態1における、線分情報抽出手段で抽出された線分情報を格納するテーブルを示す図である。図7は、本発明の実施の形態1における、コーナー検出手段で検出したコーナー情報を格納するテーブルを示す図である。図8は、本発明の実施の形態1における、コーナーIDを格納する2次元配列を示す図である。図9は、本発明の実施の形態1における、複数の線分が異なる角度で交わっている重要な線分情報の例を示す図である。以下、図1〜図9を適宜参照しながら本発明の実施の形態1を詳細に説明する。
図1において、101は3次元位置補正装置、102はカメラからの画像を入力する画像入力手段、103は画像入力手段102からカラー画像が入力されたときに画像を白から黒までの明暗の濃淡だけで表示されたグレースケールに変換するグレースケール変換手段、104はグレースケール画像からモデル特徴とのマッチングに必要な2次元画像特徴を所定の画像特徴制約条件で絞り込んで抽出する画像特徴抽出手段、105はカメラの初期位置および姿勢情報をGPSやジャイロセンサーなどから獲得する測位手段、106は2次元画像特徴に対応する3次元モデル特徴を抽出するモデル特徴抽出手段、107は3次元モデル特徴と2次元画像特徴とを2次元上でマッチングするための2次元マッチング手段、108は2次元マッチング手段で対応の取れた2次元画像特徴と3次元モデル特徴から、対象となる物体あるいはカメラの3次元姿勢パラメータを推定する3次元姿勢パラメータ推定手段、109は例えば、図2に示すように、実写映像中の物体上に適切に情報を重畳する場合に、3次元位置補正装置101で獲得したカメラの位置および姿勢情報を用いて情報を重畳する情報重畳手段である。
また、画像特徴抽出手段104は、画像からエッジを抽出するエッジ抽出手段110と、画像から曲率の高いコーナー情報を検出するコーナー検出手段111と、抽出されたエッジを直線近似する線分情報抽出手段112と、抽出された線分情報とコーナー情報に基づいて対応線分候補を絞り込む対応線分候補抽出手段113とにより構成されている。
また、モデル特徴抽出手段106は、現在のカメラの位置および姿勢情報とカメラパラメータを用いて3次元モデルを投影したときの線分情報を獲得するモデル線分獲得手段114と、3次元モデルを格納する3次元モデルDB115と、カメラパラメータを格納するカメラパラメータDB116とにより構成されている。
次に、図3を用いて、本発明の実施の形態1における3次元位置補正装置の基本処理動作について説明する。まず、画像入力手段102においてカメラで撮影されたカラー画像、あるいは、白黒画像を入力する(ステップS101)。ここで、入力された画像がカラー画像である場合、画像特徴の抽出精度を高めるために、グレースケール変換手段103でカラー画像をグレースケール画像に変換する(ステップS102)。カラー画像からグレースケール画像に変換するためには、例えば次の計算式(1)を用いて行なう。
Figure 0005109294

ここで、Gray(x、y)とは、座標(x、y)におけるグレースケール画像の画素値、R(x、y)は座標(x、y)におけるカラー画像の赤色成分の画素値、G(x、y)は座標(x、y)におけるカラー画像の緑色成分の画素値、B(x、y)は座標(x、y)におけるカラー画像の青色成分の画素値である。
次に、画像特徴抽出手段104において、マッチングに必要な画像特徴を抽出する。まず、エッジ抽出手段110で画像からエッジを抽出する(ステップS103)。エッジを抽出するためには、例えば下記の文献1に記載されたSobelオペレータとよばれる画像フィルタを用いる。
エッジ抽出手段110で抽出したエッジを、線分情報抽出手段112において始点と終点からなる直線情報に変換する(ステップS104)。この結果、エッジ抽出結果は、例えば、図4の中央のようになる。ここで、画像から抽出したエッジを上記線分情報として抽出する手法としては、例えば、下記の文献2に示された手法を用いる。
上記線分情報を抽出する一方で、コーナー検出手段111において画像からコーナー情報を検出する(ステップS105)。この結果、コーナー検出結果は、例えば、図4の左のようになる。なお、画像からコーナー情報を検出する方法としては、例えば、下記の文献3に示された方法を用いる。
・文献1: 「画像解析ハンドブック」、東京大学出版会
・文献2: Tsuda, K., Minoh, M., Ikeda, K., “Extracting Straight-Lines by Sequential Fuzzy Clustering, ” PRL(17), No. 6, May 15 1996, pp. 643-649.
・文献3: Chris Harris and Mike Stephens, “A Combined Corner and Edge Detector, ” Proceedings of The Fourth Alvey Vision Conference, Manchester, pp 147-151. 1988
以上で求めた線分情報とコーナー情報に基づき、3次元モデル特徴と対応付ける線分情報の候補を対応線分候補として、対応線分候補抽出手段113で抽出する(ステップS106)。
ステップS106までの処理と平行して、3次元モデル特徴を、測位手段105およびモデル特徴抽出手段106で抽出する。まず、3次元位置補正装置101に装備されたGPSおよびジャイロセンサーからの情報を測位手段105で取得する(ステップS107)。次に、取得した3次元位置補正装置101の位置および方向に基づき、モデル線分獲得手段114において、カメラの視野に入る物体の3次元モデルを、3次元モデルDB115から取得する。なお、取得する3次元モデルはワイヤーフレームモデルとして表現されているものとする。そして、前記位置および方向をカメラの位置および姿勢とし、さらに、カメラの焦点距離などのパラメータを、カメラパラメータDB116から取得し、前記取得した3次元モデルを2次元平面に投影する(ステップS108)。このとき、3次元モデルのワイヤーフレーム(線分情報)を画像化するのではなく、2次元平面上のどの位置に線分の始点、終点が配置されるかを演算する。また、上記で3次元モデルを投影するとき、モデル内の各面およびモデル間の前後関係から見えなくなる線分情報も存在するので、投影処理時に陰線消去処理を同時に行なう。
以上で求めた2組の2次元線分(画像から抽出した対応線分候補と、3次元モデルを投影した2次元のモデル線分)に対し、2次元マッチング手段107においてマッチング処理を行ない(ステップS109)、求めた線分対応から3次元姿勢パラメータ推定手段108において、カメラの正確な位置および姿勢情報を推定する(ステップS110)。
以下、画像特徴抽出手段104において、所定の画像特徴制約条件で対応線分候補を抽出する処理について、図5を用いて詳細に説明する。線分情報抽出手段112で抽出された線分情報は図6に示すテーブル形式で格納する。図6の通り、線分の始点(x、y)、終点(x、y)と、線分の直線パラメータとして次式(2)のパラメータを格納する。
Figure 0005109294
また、コーナー検出手段111で検出したコーナー情報は、図7に示すテーブル形式で格納する。このテーブルでは、各コーナーIDに対する座標(x、y)と、コーナーを構成する線分の数、および各線分のIDが格納されている。
対応線分候補抽出手段113は、まず、図8に示すような入力画像と同じサイズの2次元配列を用意する(ステップS201)。次に、コーナー検出手段111で検出した全てのコーナーに対して、コーナーの位置から一定距離の範囲の配列要素にコーナーIDを格納する(ステップS202、図7)。次に、線分情報抽出手段112で抽出した図6に示す全ての線分情報に対して、各線分の始点位置、終点位置に上記2次元配列要素に格納したコーナーIDが存在するか否かをチェックする(ステップS203)。もし、始点位置および終点位置両方にコーナーIDが存在しない場合(ステップS204)は、その線分情報を図6に示すテーブルから削除する(ステップS206)。始点位置あるいは終点位置のいずれか、あるいは両方にコーナーIDが存在する場合は、図7に示すテーブルの対応するコーナーIDの情報を求め、線分数を1つ増やし、かつ、線分IDを記憶する(ステップS205)。
図6に示す全ての線分情報に対して処理した後、図7に示すコーナー情報から、各コーナーに対応する線分数をチェックし(ステップS207)、N個以上存在するコーナーを求めて、N個を下回るコーナーを図7のテーブルから削除する(ステップS210)。このとき、例えば、Nを3として設定する。
次に、図7に残されたコーナーに対応する線分について、線分同士の角度がθ以上あるかをチェックする(ステップS209)。これは、後で3次元位置および姿勢パラメータを推定する際、抽出した線分が平行なものを対象とすると、パラメータが適切に求まらないためである。つまり、図9に示すように、平行な線分よりも複数の線分が異なる角度で交わっている部分のほうが、情報量が多く、重要であるとする。線分同士の角度は、図6に示す線分情報の直線パラメータを用いて求めることができる。ここで、直線パラメータのa、bは直線の傾きを表すパラメータであるため、2つの直線のなす角度は、直線1の傾きパラメータをa1、b1、直線2の傾きパラメータをa2、b2とすると、次式(3)で求めることができる。
Figure 0005109294
ここで、角度がθ以上ということは、式(3)の左辺の絶対値が、cosθ以下であることを意味する。この関係を用いて、ステップS211で線分同士の角度がθ以上か否かを求める。以上のようにして求めた線分とコーナーを、以降の処理の対象とする(ステップS212)。例えば、絞り込まれた結果の線分とコーナーは、図4の右のようになる。
次に、図10から図16を用いてモデル特徴抽出手段106の動作を説明する。まず、3次元モデルDB115には、各モデルの情報として、図10から図13に示す情報が格納されているとする。図10は、3次元モデルを構成する頂点座標の情報であり、各頂点には頂点IDがふられている。図11は、3次元モデルを構成するポリゴンの情報であり、ポリゴンIDとともに、ポリゴンを構成する頂点数、頂点ID、世界座標系におけるポリゴンの法線ベクトルから構成されている。図12は、各頂点を結ぶ線分の情報であり、始点および終点に対応する頂点IDと、その線分IDから構成されている。図13は、各頂点が始点あるいは終点となっている線分情報であり、各頂点に属する線分数と線分IDから構成されている。カメラパラメータDB116には、カメラ固有のパラメータとしてカメラ内部変数(焦点距離、歪係数等)が格納されている。
図14に、モデル特徴抽出手段106の動作のフローチャートを示す。モデル線分獲得手段114では、まず、測位手段105で獲得した現在のカメラ位置および方向に基づき、対象となるモデル情報(図10〜図13)を3次元モデルDB115から獲得する(ステップS301)。次に、獲得したモデルの全てのポリゴンをカメラ座標系に投影し(ステップS302)、ポリゴンの法線ベクトルがカメラと反対方向を向いているかをチェックし、反対方向を向いているポリゴン、つまり、裏がえしになっているポリゴンを削除する(ステップS303)。これは、例えば、カメラ座標系のz軸が、原点から遠ざかる方向が正の方向だとしたら、法線ベクトルのz値が正のものを削除すればよい。
次に、透視投影変換により全てのポリゴンを投影し(ステップS304)、ポリゴンの各頂点の奥行き(z座標)の最大値でポリゴンを並べ替える(ステップS305)。ステップS304においては、カメラパラメータDB116に格納されているカメラパラメータを用いる。ポリゴンを並べ替えた後、カメラに対して一番手前にあるポリゴンから、他のポリゴンとの干渉をチェックする(ステップS306)。
ここで、ポリゴンを構成する線分がポリゴンと干渉する、あるいは、干渉しないケースは、図15に示すとおり、以下の4通りがある。
Case1)投影面において干渉しない。
Case2)線がポリゴンを覆っている。
Case3)ポリゴンが線を完全に覆っている。
Case4)ポリゴンが線の一部を覆っている。
Case1およびCase2の場合は、線はポリゴンによって遮蔽されない。Case3およびCase4の場合は、線は完全あるいは一部ポリゴンによって遮蔽される。なお、本発明が対象としているモデルでは、ポリゴンが別のポリゴンを貫くことはないとする。
各線がポリゴンによって遮蔽されるか否かを判定するためには、まず、ポリゴンを無限平面としたときに、線とその平面との関係を求めればよい。ここで、線の始点をPs = (xs、 ys、 zs)、終点をPe = (xe、 ye、 ze)とする。このとき、z座標に関する条件を、以下の式(4)とする。
Figure 0005109294
無限平面の法線ベクトルをNとしたとき、NとPsおよびPeの内積が次の式(5)の条件を満たすとき、始点と終点は無限平面の表側に存在するため、線分はポリゴンによって遮蔽されない。
Figure 0005109294
次に、NとPsおよびPeの内積が次の式(6)の条件を満たすとき、線分はポリゴンに一部遮蔽される可能性がある。
Figure 0005109294
さらに、NとPsおよびPeの内積が次の式(7)の条件を満たすとき、線分はポリゴンに完全あるいは一部遮蔽される可能性がある。
Figure 0005109294
線分がポリゴンに遮蔽される可能性がある場合、次に、投影面上での線分とポリゴンの各線分との交点を求める。線分間の交点は、各線分の方程式を以下の式(8)の通り定義すると、交点は、式(9)で求めることができる。
Figure 0005109294
Figure 0005109294
このとき、Aの逆行列が存在するか否かを判定するためには、Aの行列式が0でないことを調べればよい。そして、求めた交点が、線分の始点、終点の間に存在するか否かを調べ、始点と終点の間に交点が存在する場合は、線分とポリゴンが干渉することになる。ただし、交点がポリゴンの頂点と一致する場合は交点としない。
さらに、始点および終点について、ポリゴンの無限平面の裏面に存在するものが、投影面においてポリゴンに内包されるか否かをチェックする。2次元平面において、ある点が線分で囲まれた矩形に内包されているか否かは、次のようにして判定できる。すなわち、いま、直線をax + by + c = 0、任意の点p = (x'、y')とすると、全ての線分に対して次式(10)のrを求めたときに全ての符号が一致する場合、点pはポリゴンに内包される。
Figure 0005109294
次に、各交点の奥行きを求め、線分上の交点の奥行きがポリゴン上の奥行きよりも大きいものを求める。そして、始点、終点、交点全てに対してポリゴンの裏面に存在する点を投影面のx軸に沿って左から並べたとき、次式(11)の2点Pi、Pi+1を結ぶ部分が遮蔽される。
Figure 0005109294
以上で求めた遮蔽部分を除いて線分を分割し、分割された線分情報を基に次のポリゴンとの干渉チェックを行なう。上記処理により、他のポリゴンにより遮蔽される頂点と線分が除去される(ステップS307)。ステップS307で、残された頂点と線分の情報は図16に示すとおり記憶する。なお、線分の始点、終点の座標、および直線パラメータは2次元に投影後のものである。このように、本発明では、3次元モデルを2次元に投影するとき、その結果を画像化するのではなく、パラメータ化して記憶する。
次に図17を用いて2次元マッチング手段107の処理を詳細に説明する。まず、画像から抽出されたコーナーの特徴と類似したモデルコーナーを求める(ステップS401)。ここで、類似とは、例えば、各コーナーに属する線分数が一致しており、かつ、対応する線分間の角度がθ以内の場合に、類似と判定する。次に、求めたモデルコーナーを、対応する上記画像上のコーナーと一致するようにモデルを平行移動する。そして、モデルの各線分と指定範囲内の画像線分との距離および角度を求める(ステップS402)。以上で求めた距離と角度から、それぞれが閾値以内の線分対応を求める(ステップS403)。例えば、図18に示すようなモデルと画像から抽出した線分が存在した場合、図18の左図のモデルにおいて丸で囲まれたコーナーが、右図の丸で囲まれた箇所の線分と対応が取れているとする。
このとき、モデルを画像から抽出したコーナーに合わせて平行移動したとき、モデルの各線分A、B、C、Dに対応する画像の線分は例えば以下の通りとなる。
A:8、9
B:1、2、3
C:4
D:7
以上で求めた線分対応の候補に対して、最適な線分対応を求める(ステップS404)。最適な線分対応を求めるためのコスト関数として、下記の文献4に示されたIntegrated Squared Perpendicular Distance(ISPD)とOmission Errorを組み合わせたものを用いる。
・文献4: How Easy is Matching 2D Line Models Using Local Search? J. Ross Beveridge, and Edward M. Riseman, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol 19, No 6, June 1997
Integrated Squared Perpendicular Distanceは、図19に示すように、データセグメント上の各点からモデルセグメントに対して垂線をおろしたときの距離をあらわすものであり、距離関数をv(t)、データセグメントの長さをlとしたとき、ISPDは次式(12)で定義できる。
Figure 0005109294
ISPDは、モデルセグメントとデータセグメントの位置ずれの程度をあらわすものである。ここで、上記定義では、モデルやデータセグメントの大きさにより値にばらつきが出てしまうため、正規化する必要がある。そこでモデルセグメントの長さをLmとしたとき、ISPDをLmで正規化した値を新たにFittingエラー(Efit)として、次式(13)のように定義する。
Figure 0005109294
次にOmission Errorに関して説明する。Omission Errorは、図20に示すとおり、モデルセグメントと対応付けられたデータセグメントをモデルセグメントに投影したときに、データセグメントがカバーしていない部分がどの程度存在するかを示すものである。データセグメントによってカバーされない部分のモデルセグメントの長さに対する比率(Omission Rateと呼ぶ)をpとすると、pは次式(14)で定義できる。
Figure 0005109294
ここで、lmはモデルセグメントの長さ、ldは対応付けられたデータセグメントをモデルセグメントに投影したときの長さである。以上で求めた各モデルセグメントのOmission Rateを下記の式(15)のように統合する。
Figure 0005109294
以上で定義したエラー関数に基づき、ISPDのFittingエラー、および、Omission Errorの合計が最小となる組み合わせを求める。以上の処理を、各オブジェクト単位に全てのコーナーに対して処理し(ステップS405)、最もマッチング誤差が小さい線分対応を求める(ステップS406)。
次に、2次元マッチング手段107が求めた線分対応から、カメラの3次元姿勢パラメータを推定する処理(図3、ステップS110)について詳細に説明する。3次元のモデルセグメントをカメラ投影面に投影した2次元のモデルセグメントと、実写から抽出したデータセグメントとの関係は、図21に示すとおりである。3次元のモデルセグメントを無限線としてカメラ投影面に投影したとき、カメラ姿勢情報が正しければ2つの線分は一致する。よって、モデルセグメントに対応するデータセグメントの各端点から下ろした垂線の長さをEとすると、下記の式(16)が成り立つ。
Figure 0005109294
上記の制約条件に基づき、Eが最小となるカメラ姿勢を求めればよい。Eが最小となるということは、データセグメントの端点がモデルセグメント上にあるということであるから、3次元モデルセグメントとカメラ座標系原点でできる平面の法線ベクトルをNとし、データセグメントの端点とカメラ座標系原点とを結ぶベクトルをVとしたとき、下記の式(17)が成り立つ。
Figure 0005109294
ここで、3次元モデルセグメントの端点を、p1、p2とし、カメラの世界座標系での位置をTw、カメラの回転をRとすると、p1、p2とカメラ座標系原点でできる平面の法線ベクトルは次式(18)となる。
Figure 0005109294
一方、投影面のデータセグメントの端点と、カメラ座標系原点とでできるベクトルは、次式で定義できる。
Figure 0005109294
よって、式(16)は、次式(20)の通り再定義することができる。
Figure 0005109294
式(20)を最小化するR、および、Tを求めるため、Eをコスト関数とし、例えばLevenberg Marquardt法などの最適化手法を用いる。なお、最適化過程において、ΔRを計算しやすくするため、回転行列をRodorigue方程式で表現する。Rodorigue方程式は、回転を3次元ベクトルとして表現したものであり、ベクトルの方向が回転軸、ベクトルのノルムが回転角を表す。よって、ΔTと合わせて6つのパラメータを、上記最適化アルゴリズムで求める。
上記の通り、本発明は、任意形状の物体を撮影したときの物体の位置および姿勢、あるいは画像を撮影したカメラの位置および姿勢を画像から抽出した特徴と、対象物体の3次元モデルから抽出した特徴との対応を取る際に、上記2次元特徴の候補を絞り込むようにしたので、全体の演算量を抑えることができるようになる。
また、本発明では、3次元モデルDB115を備えたことにより、円柱のような左右対称の物体に限定されない物体を対象にでき、かつ、縦方向、横方向のエッジそれぞれを分けて処理する必要がないため、3次元モデルを2次元画像へ投影する処理の繰り返しがなく、全体の演算量を抑えることができるようになる。
また、本発明では、現在のカメラ位置および姿勢で見える範囲の3次元モデルからモデル特徴を抽出するモデル特徴抽出手段106を備えているため、道路の3次元モデルを、地図データに格納されている道路データ(リンク情報、道路幅、レーン数)から推定する必要がなく、さらに、白線に依存しないマッチングを行なうため、道路が混雑している場合にも実際の道路を正確に抽出できるようになる。
また、本発明では、上記2次元特徴の候補を絞り込むようにしたので、画像から抽出される全ての2次元特徴と3次元モデルの特徴との対応を検査する必要がないため、全体の演算量を抑えることができるようになる。
本発明の実施の形態1の3次元位置補正装置の構成図である。 本発明の実施の形態1における、実写映像中の物体上に適切に情報を重畳する例の概念図である。 本発明の実施の形態1における、3次元位置補正装置の基本処理動作を示すフローチャートである。 本発明の実施の形態1における、画像特徴抽出手段における処理結果の説明図である。 本発明の実施の形態1における、画像特徴抽出手段の処理動作のフローチャートである。 本発明の実施の形態1における、線分情報抽出手段で抽出された線分情報を格納するテーブルを示す図である。 本発明の実施の形態1における、コーナー検出手段で検出したコーナー情報を格納するテーブルを示す図である。 本発明の実施の形態1における、コーナーIDを格納する2次元配列を示す図である。 本発明の実施の形態1における、複数の線分が異なる角度で交わっている重要な線分情報の例を示す図である。 本発明の実施の形態1における、3次元モデルを構成する頂点座標情報の格納例を示す図である。 本発明の実施の形態1における、3次元モデルを構成するポリゴン情報の格納例を示す図である。 本発明の実施の形態1における、各頂点を結ぶ線分情報の格納例を示す図である。 本発明の実施の形態1における、各頂点が始点あるいは終点となっている線分情報の格納例を示す図である。 本発明の実施の形態1における、モデル特徴抽出手段の動作のフローチャートである。 本発明の実施の形態1における、ポリゴンを構成する線分がポリゴンと干渉する/しないケースの説明図である。 本発明の実施の形態1における、対応線分候補の絞り込み処理で残された頂点と線分の情報の格納例を示す図である。 本発明の実施の形態1における、2次元マッチング手段の処理のフローチャートである。 本発明の実施の形態1における、モデルコーナーに対応する画像上の線分の説明図である。 本発明の実施の形態1における、Integrated Squared Perpendicular Distance(ISPD)の説明図である。 本発明の実施の形態1における、Omission Errorの説明図である。 本発明の実施の形態1における、カメラの3次元姿勢パラメータを推定する処理の説明図である。
符号の説明
101 3次元位置補正装置、102 画像入力手段、103 グレースケール変換手段、104 画像特徴抽出手段、105 測位手段、106 モデル特徴抽出手段、107 2次元マッチング手段、108 3次元姿勢パラメータ推定手段、109 情報重畳手段、110 エッジ抽出手段、111 コーナー検出手段、112 線分情報抽出手段、113 対応線分候補抽出手段、114 モデル線分獲得手段、115 3次元モデルDB、116 カメラパラメータDB。

Claims (7)

  1. カメラ画像を入力する画像入力手段と、
    入力された前記カメラ画像を、白から黒までの明暗の濃淡だけで表示されたグレースケール画像に変換するグレースケール変換手段と、
    現在のカメラ位置および姿勢を測定する測位手段と、
    複数種類の、ポリゴンから構成される3次元モデルを格納する3次元モデルDBと、
    前記3次元モデルDBから、前記測位手段により測定された前記現在のカメラ位置および姿勢で見える範囲の複数種類の前記3次元モデルのモデル特徴を抽出するモデル特徴抽出手段と、
    前記グレースケール画像の特徴を抽出する画像特徴抽出条件を有し、この画像特徴抽出条件に基づいて、前記グレースケール画像から、前記モデル特徴とのマッチングに必要な画像特徴を抽出する画像特徴抽出手段と、
    前記モデル特徴と前記画像特徴との対応関係を抽出する特徴対応抽出条件を有し、この特徴対応抽出条件に基づいて、前記モデル特徴と前記画像特徴とを2次元平面上でマッチングさせて、前記モデル特徴と前記画像特徴との対応関係である特徴対応情報を取得する2次元マッチング手段と、
    前記2次元マッチング手段により取得された前記特徴対応情報に基づいて、カメラの3次元の位置および姿勢、あるいは前記モデル特徴に対応する物体の3次元の位置および姿勢を補正する3次元姿勢パラメータを推定する3次元姿勢パラメータ推定手段と
    を備えたことを特徴とする3次元位置補正装置。
  2. 前記画像特徴抽出手段は、前記明暗の濃淡が変化する境界となるエッジ情報を前記グレースケール画像から抽出するエッジ抽出手段と、抽出した前記エッジ情報から線分情報を抽出する線分情報抽出手段と、前記グレースケール画像から、コーナーの位置とコーナーを構成する線分をコーナー情報として検出するコーナー検出手段と、前記画像特徴抽出条件と前記線分情報と前記コーナー情報とに基づいて、前記モデル特徴と対応する前記線分情報の候補を対応線分候補として抽出する対応線分候補抽出手段とを備えたことを特徴とする請求項1記載の3次元位置補正装置。
  3. 前記画像特徴抽出手段は、前記画像特徴抽出条件に基づいて、前記コーナー検出手段により検出された前記コーナーに近接していない前記線分情報を排除し、前記コーナーに近接した線分の数が閾値以下の前記コーナーを排除することを特徴とする請求項2記載の3次元位置補正装置。
  4. 前記画像特徴抽出手段は、前記画像特徴抽出条件に基づいて、前記コーナーに近接した線分の角度が閾値以下の前記コーナーを排除すること特徴とする請求項2または請求項3に記載の3次元位置補正装置。
  5. 前記2次元マッチング手段は、前記特徴対応抽出条件に基づいて、前記コーナー検出手段により検出された前記コーナー情報に類似した前記3次元モデルのコーナー情報を求めることを特徴とする請求項1から請求項4のいずれかに記載の3次元位置補正装置。
  6. 前記2次元マッチング手段は、前記特徴対応抽出条件に基づいて、近接する線分の数が類似している前記3次元モデルの前記コーナー情報を求めることを特徴とする請求項5記載の3次元位置補正装置。
  7. 前記2次元マッチング手段は、前記特徴対応抽出条件に基づいて、近接する線分の角度が類似している前記3次元モデルの前記コーナー情報を求めることを特徴とする請求項5または請求項6に記載の3次元位置補正装置。
JP2006168786A 2006-06-19 2006-06-19 3次元位置補正装置 Expired - Fee Related JP5109294B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006168786A JP5109294B2 (ja) 2006-06-19 2006-06-19 3次元位置補正装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006168786A JP5109294B2 (ja) 2006-06-19 2006-06-19 3次元位置補正装置

Publications (2)

Publication Number Publication Date
JP2007333679A JP2007333679A (ja) 2007-12-27
JP5109294B2 true JP5109294B2 (ja) 2012-12-26

Family

ID=38933282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006168786A Expired - Fee Related JP5109294B2 (ja) 2006-06-19 2006-06-19 3次元位置補正装置

Country Status (1)

Country Link
JP (1) JP5109294B2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5013961B2 (ja) * 2007-05-21 2012-08-29 キヤノン株式会社 位置姿勢計測装置及びその制御方法
JP5111210B2 (ja) * 2008-04-09 2013-01-09 キヤノン株式会社 画像処理装置、画像処理方法
KR101199492B1 (ko) 2008-12-22 2012-11-09 한국전자통신연구원 광역 이동을 고려한 실시간 카메라 트래킹 장치 및 방법
JP5554654B2 (ja) * 2010-07-13 2014-07-23 キヤノン電子株式会社 画像処理方法、携帯情報端末及びプログラム
JP5939775B2 (ja) * 2011-11-30 2016-06-22 キヤノン株式会社 画像処理装置、画像処理プログラム、ロボット装置及び画像処理方法
JP5903901B2 (ja) * 2012-01-17 2016-04-13 日産自動車株式会社 車両位置算出装置
JP5891802B2 (ja) * 2012-01-17 2016-03-23 日産自動車株式会社 車両位置算出装置
EP2720171B1 (en) * 2012-10-12 2015-04-08 MVTec Software GmbH Recognition and pose determination of 3D objects in multimodal scenes
JP6880618B2 (ja) * 2016-09-26 2021-06-02 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法
JP6948801B2 (ja) * 2017-02-28 2021-10-13 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
KR102022402B1 (ko) * 2017-10-12 2019-09-19 현대모비스 주식회사 캘리브레이션 방법 및 장치
CN109086650B (zh) 2017-06-14 2022-04-12 现代摩比斯株式会社 校准方法和校准设备
JP7059701B2 (ja) 2018-03-08 2022-04-26 富士通株式会社 推定装置、推定方法、及び推定プログラム
JP7161857B2 (ja) * 2018-03-14 2022-10-27 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
US11113819B2 (en) 2019-01-15 2021-09-07 Nvidia Corporation Graphical fiducial marker identification suitable for augmented reality, virtual reality, and robotics
US11847792B2 (en) 2019-12-20 2023-12-19 Niantic, Inc. Location determination and mapping with 3D line junctions

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06194138A (ja) * 1992-12-24 1994-07-15 Nippon Telegr & Teleph Corp <Ntt> 物体の姿勢推定方法およびその装置
JP3384617B2 (ja) * 1994-06-29 2003-03-10 マツダ株式会社 物体計測装置及びその方法
JPH09212643A (ja) * 1996-02-05 1997-08-15 Meidensha Corp 三次元物体認識方法及びその装置
JPH1055446A (ja) * 1996-08-09 1998-02-24 Omron Corp 物体認識装置
JP3475700B2 (ja) * 1997-02-19 2003-12-08 オムロン株式会社 物体認識方法、物体認識装置、および車輌認識装置
JP3516118B2 (ja) * 1997-03-24 2004-04-05 オムロン株式会社 物体認識方法および物体認識装置
JP3465531B2 (ja) * 1997-05-12 2003-11-10 オムロン株式会社 物体認識方法およびその装置
JPH1151611A (ja) * 1997-07-31 1999-02-26 Tokyo Electric Power Co Inc:The 認識対象物体の位置姿勢認識装置および位置姿勢認識方法
JP2002133413A (ja) * 2000-10-26 2002-05-10 Kawasaki Heavy Ind Ltd 画像処理を用いる3次元物体の識別方法および装置
JP2005115500A (ja) * 2003-10-06 2005-04-28 Mitsubishi Electric Corp 情報処理装置及び情報処理方法
JP4162618B2 (ja) * 2004-03-12 2008-10-08 株式会社豊田中央研究所 車線境界判定装置
JP4575031B2 (ja) * 2004-05-31 2010-11-04 三菱電機株式会社 車載用路面標示検出装置

Also Published As

Publication number Publication date
JP2007333679A (ja) 2007-12-27

Similar Documents

Publication Publication Date Title
JP5109294B2 (ja) 3次元位置補正装置
CN112785702B (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
WO2021093240A1 (en) Method and system for camera-lidar calibration
EP2430588B1 (en) Object recognition method, object recognition apparatus, and autonomous mobile robot
CN111563415B (zh) 一种基于双目视觉的三维目标检测系统及方法
US7742634B2 (en) Image processing method, three-dimensional position measuring method and image processing apparatus
JP5832341B2 (ja) 動画処理装置、動画処理方法および動画処理用のプログラム
CN108692719B (zh) 物体检测装置
US20180101932A1 (en) System and method for upsampling of sparse point cloud for 3d registration
WO2020000737A1 (zh) 移动机器人定位方法、存储介质及计算机设备
CN108648194B (zh) 基于cad模型三维目标识别分割和位姿测量方法及装置
JP4521235B2 (ja) 撮影画像の変化抽出装置及び方法
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
KR102113068B1 (ko) 수치지도 및 도로정밀지도 구축 자동화를 위한 방법
KR20160003776A (ko) 자세 추정 방법 및 로봇
JP2004334819A (ja) ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置
KR20210090384A (ko) 카메라 및 라이다 센서를 이용한 3d 객체 검출방법 및 장치
EP2551633B1 (en) Three dimensional distance measuring device and method
CN110570474B (zh) 一种深度相机的位姿估计方法及系统
CN107590444A (zh) 静态障碍物的检测方法、装置及存储介质
KR20110089299A (ko) 스테레오 매칭 처리 시스템, 스테레오 매칭 처리 방법, 및 기록 매체
KR102490521B1 (ko) 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법
Dodge et al. Convex vision-based negative obstacle detection framework for autonomous vehicles
JP4935769B2 (ja) 平面領域推定装置及びプログラム
JP2007200364A (ja) ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110909

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120229

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120924

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees