JP2008309631A - 情報処理方法及び情報処理装置 - Google Patents

情報処理方法及び情報処理装置 Download PDF

Info

Publication number
JP2008309631A
JP2008309631A JP2007157609A JP2007157609A JP2008309631A JP 2008309631 A JP2008309631 A JP 2008309631A JP 2007157609 A JP2007157609 A JP 2007157609A JP 2007157609 A JP2007157609 A JP 2007157609A JP 2008309631 A JP2008309631 A JP 2008309631A
Authority
JP
Japan
Prior art keywords
orientation
straight line
imaging device
image
inclination angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007157609A
Other languages
English (en)
Other versions
JP5058686B2 (ja
JP2008309631A5 (ja
Inventor
Daisuke Kotake
大輔 小竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007157609A priority Critical patent/JP5058686B2/ja
Priority to EP08158246.2A priority patent/EP2003617B1/en
Priority to US12/138,819 priority patent/US8682106B2/en
Priority to CN2008101109222A priority patent/CN101324433B/zh
Publication of JP2008309631A publication Critical patent/JP2008309631A/ja
Publication of JP2008309631A5 publication Critical patent/JP2008309631A5/ja
Application granted granted Critical
Publication of JP5058686B2 publication Critical patent/JP5058686B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】 撮像装置により撮影された画像情報に基づいて行う撮像装置又は物体の位置及び姿勢の計測を安定化させること。
【解決手段】 撮像装置100で撮影した画像を画像取得部110で取得し、そのときの姿勢をセンサ計測値取得部120で取得し、直線検出130が撮影画像から直線を検出する。センサ計測値、検出した直線の3次元空間における方程式に基づき、位置姿勢計測部150が、撮像装置100の位置姿勢、又は、観察対象物体10の位置姿勢を算出する。
【選択図】 図1

Description

本発明は、情報処理方法及び情報処理装置に関し、特に、画像を用いた撮像装置または物体の位置及び姿勢を計測する情報処理方法及び情報処理装置に関する。
近年、現実空間に仮想空間の情報を重ね合わせて表示する拡張現実感(Augmented Reality、以下AR)技術の研究が盛んである。AR技術の情報提示装置としては、ビデオシースルー型のヘッドマウントディスプレイ(Head Mounted Display、以下HMD)が代表的である。ビデオシースルー型HMDには現実空間を撮影するカメラが内蔵されており、このカメラの現実空間における位置及び姿勢に応じて、仮想物体がコンピュータグラフィクスにより描画される。さらに描画された仮想物体を現実空間の画像上に重畳した合成画像が、液晶パネルなどのHMDの表示デバイス上に表示される。この情報提示装置によって、利用者は、あたかも仮想物体が現実空間中に実在するかのように感じることができる。
AR技術を実現する上で解決しなければならない大きな問題の一つとして「位置合わせ」の問題がある。ARにおける位置合わせとは、仮想物体と現実空間との間の幾何学的な整合性を取ることである。仮想物体が現実空間に実在するように利用者が感じるためには、位置合わせが正しく行われ、仮想物体が常に現実空間中の存在すべき位置に存在しているように利用者に提示されなければならない。ビデオシースルー型HMDを利用する場合には、位置合わせの問題は、HMDに内蔵したカメラの現実空間に設定された座標系における位置及び姿勢を計測する問題となる。カメラの位置及び姿勢の計測は、例えば磁気センサや超音波センサなど6自由度のカメラの位置及び姿勢を計測する物理センサによって行うことが可能である。
ところで、ビデオシースルー型HMDを利用する場合には、HMDに内蔵されているカメラからの画像情報を、カメラの位置及び姿勢を計測するために利用することが可能である。このような画像情報を利用する計測方法は、物理センサを利用する方法に比べて手軽でかつ低コストであるため広く利用されている。
非特許文献1では、現実空間や現実物体を線分によって記述した3次元幾何モデルと、カメラが撮影する画像上のエッジ情報を利用してカメラの位置及び姿勢を計測する方法が開示されている。ここでエッジとは、画像上において濃度が急激に変化する点のことを表す。この方法では、画像上で検出される多数のエッジが、カメラの位置及び姿勢に基づいて画像上に投影された3次元幾何モデルの線分に当てはまるようにカメラの位置及び姿勢を算出する。より具体的には、予め入力されるカメラの位置及び姿勢の予測値をもとに3次元幾何モデルの線分を画像に仮想的に投影し、投影された線分の近傍においてエッジ検出を行う。そして、検出されたエッジが投影された線分上に存在するように、カメラの位置及び姿勢の予測値を補正することを繰り返すことにより、カメラの位置及び姿勢を算出する。
前述のエッジを用いたカメラの位置及び姿勢の計測方法では、カメラの位置及び姿勢の予測値として、主に前フレームにおけるカメラの位置及び姿勢が利用される。そのため、あるフレームにおいて位置及び姿勢の計測に失敗した場合には、その後のフレームにおける位置及び姿勢の計測を行うことができない。計測の失敗は、例えばカメラを高速に移動させた場合に起こる。そのような場合には、画像にモーションブラーが発生してエッジが検出されなかったり、カメラの位置及び姿勢の予測値に基づいて投影される線分の近傍にエッジが存在しなかったりするため、位置及び姿勢の計測に失敗しやすい。また、最初のフレームにおいては、前フレームにおけるカメラの位置及び姿勢を得ることができない。
そのため、エッジを用いたカメラの位置及び姿勢を実際に利用するためには、最初のフレームや計測に失敗した直後に、カメラの位置及び姿勢の予測値を利用しないでカメラの位置及び姿勢の計測を行う「初期化処理」が必要となる。
その方策の一つとして、予め決められた初期位置及び初期姿勢を設定しておき、カメラを初期位置及び初期姿勢になるように移動した後に、該初期位置及び初期姿勢を予測値としてエッジを用いたカメラの位置及び姿勢を初期化することが行われている。
別の方策として、画像上で検出される特徴から、カメラの位置及び姿勢の予測値を利用しないでカメラの位置及び姿勢の計測を行う方法がある。本発明は、カメラの位置及び姿勢の予測値を利用しないでカメラの位置及び姿勢の計測を行う方法に関するものである。例えば非特許文献2では、画像上で検出される直線と、それに対応する3次元空間における直線の対応から、カメラの位置及び姿勢の計測を行う方法が開示されている。この方法では、少なくとも8本以上の直線の対応に基づいて立式される線形方程式を解くことにより、カメラの位置及び姿勢を算出する。非特許文献2の方法では、画像上で検出される直線とそれに対応する3次元空間における直線を対応付ける方法は示されていない。そのため、画像上の直線と3次元空間中の直線の対応が未知の状態から、非特許文献2で開示される方法を用いてカメラの位置及び姿勢を計測するためには、何らかの方策により画像上で検出される直線と3次元空間中での直線との対応を求める必要がある。一般的には、画像上での直線と3次元空間での直線とをランダムに対応付けてカメラの位置及び姿勢を算出し、最も整合性の高い対応を用いたときの算出結果を最終的なカメラの位置及び姿勢として出力する。
また、特許文献1では、カメラに傾斜角センサを装着し、傾斜角センサの計測値と画像情報(点の情報)を併用してカメラの位置及び姿勢を計測することで、位置及び姿勢の計測を安定化している。また、特許文献2では、カメラに傾斜角センサを装着し、傾斜角センサの計測値と画像上における直線の情報を利用して、カメラの方位角を算出している。
特開2006−292417号公報 特開2004−108836号公報 T.Drummond and R.Cipolla,"Real−time visual tracking of complex structures",IEEE Transactions on Pattern Analysis and Machine Intelligence,vol.24,no.7,pp.932−946,2002. Y.Liu,T.S.Huang,andO.D.Faugeras,"Determination of camera location from 2−D to 3−D line and point correspondences",IEEE Transactions on Pattern Analysis and Machine Intelligence,vol.12,no.1,pp.28−37,1990.
非特許文献2に開示された方法によりカメラの位置及び姿勢を計測する方法では、直線の検出誤差や画像解像度が有限であることに起因して、安定に位置及び姿勢を算出できない場合がある。特許文献1で開示される方法は、位置及び姿勢の計測を安定化させる方法であるが、画像上の点と3次元空間中の点の対応を用いる方法であるため、直線の対応の場合には用いることができない。両端の3次元座標が既知である線分を画像から検出することが可能であれば、線分を2つの点とみなすことで特許文献1の方法を適用することができる。しかしながら、一般的に線分の端点を精度よく検出することは困難であるため、特許文献1の方法を適用することはできない。一方、特許文献2で開示される方法では、1枚の画像からはカメラの方位角しか算出することができず、カメラの位置を算出することができない。
また、画像上の直線と3次元空間中の直線との対応が未知である場合に、それらをランダムに対応付けて位置及び姿勢を複数算出しその中から最も整合性の高いものを選択する方法では、正解の位置及び姿勢を含むように多数の位置及び姿勢を算出する必要がある。さらに各算出された位置及び姿勢について、整合性を評価する必要がある。そのため、最終的な解を得るまでに多大な時間を必要とする。そのため、この方法をエッジを用いたカメラの位置及び姿勢の初期化に用いると、初期化に多大な時間がかかり、利用者は位置姿勢計測が失敗するたびに長時間待つ必要が生じるため、利用者の利便性を損なってしまうという解決すべき課題がある。
本発明は以上の問題に鑑みてなされたものであり、カメラの位置及び姿勢の予測値を利用せずに画像を用いて行うカメラの位置及び姿勢の計測を安定化することを目的とする。また、本発明の別の目的は、カメラの位置及び姿勢の予測値を利用せずに画像を用いて行うカメラの位置及び姿勢の計測の処理時間を短くすることを目的とする。
上記目的を達成するために、本発明の情報処理方法は、物体または撮像装置に装着された傾斜角センサの傾斜角計測値を入力する傾斜角計測値の入力工程と、前記撮像装置から撮影画像を入力する画像の入力工程と、前記撮影画像から直線を検出する直線検出工程と、前記傾斜角計測値、前記検出された直線の撮影画像での方程式および該直線に対応する3次元空間中における直線の3次元空間中での方程式に基づき、前記傾斜角センサが装着された物体または撮像装置の位置と姿勢を算出する位置姿勢算出工程とを備える。
また、本発明の情報処理方法は、物体または撮像装置に装着された傾斜角センサの傾斜角計測値を入力する傾斜角計測値の入力工程と、前記撮像装置から撮影画像を入力する画像の入力工程と、前記撮影画像から直線を検出する直線検出工程と、前記検出された直線の夫々と、前記物体を表す線分モデルを構成する線分の夫々の方向ベクトルとが仮に対応するとみなして、夫々の組合せについて方位角を求めて投票することにより方位角候補値を算出する方位角候補値算出工程とを備える。
また、本発明の情報処理方法は、物体または撮像装置の位置及び姿勢を計測する情報処理方法であって、物体または撮像装置に装着された傾斜角センサの傾斜角計測値を入力する傾斜角計測値の入力工程と、前記撮像装置から撮影画像を入力する画像の入力工程と、前記撮影画像から検出される直線と前記傾斜角センサの計測値に基づいて物体または撮像装置の位置と姿勢を算出する第一の位置姿勢算出工程と、前記撮影画像から検出される特徴に基づいて物体または位置及び姿勢の予測値に対する補正値を算出することにより物体または撮像装置の位置と姿勢を算出する第二の位置姿勢算出工程とを備え、前記位置及び姿勢の予測値が得られない場合には第一の位置姿勢算出工程を、前記位置及び姿勢の予測値が得られる場合には第二の位置姿勢算出工程を選択する選択工程とを備える。
更に、本発明の情報処理装置は、物体または撮像装置に装着された傾斜角センサの傾斜角計測値を入力する傾斜角計測値の入力手段と、前記撮像装置から撮影画像を入力する画像の入力手段と、前記撮影画像から直線を検出する直線検出手段と、前記傾斜角計測値、前記検出された直線の撮影画像での方程式および該直線に対応する3次元空間中における直線の3次元空間中での方程式に基づき、前記傾斜角センサが装着された物体または撮像装置の位置と姿勢を算出する位置姿勢算出手段を備える。
また、本発明の情報処理装置は、物体または撮像装置に装着された傾斜角センサの傾斜角計測値を入力する傾斜角計測値の入力手段と、前記撮像装置から撮影画像を入力する画像の入力手段と、前記撮影画像から直線を検出する直線検出手段と、前記検出された直線の夫々と、前記物体を表す線分モデルを構成する線分の夫々の方向ベクトルとが仮に対応するとみなして、夫々の組合せについて方位角を求めて投票することにより方位角候補値を算出する方位角候補値算出手段とを備える。
また、本発明の情報処理装置は、物体または撮像装置の位置及び姿勢を計測する情報処理装置であって、物体または撮像装置に装着された傾斜角センサの傾斜角計測値を入力する傾斜角計測値の入力手段と、前記撮像装置から撮影画像を入力する画像の入力手段と、前記撮影画像から検出される直線と前記傾斜角センサの計測値に基づいて物体または撮像装置の位置と姿勢を算出する第一の位置姿勢算出手段と、前記撮影画像から検出される特徴に基づいて物体または位置及び姿勢の予測値に対する補正値を算出することにより物体または撮像装置の位置と姿勢を算出する第二の位置姿勢算出手段とを備え、前記位置及び姿勢の予測値が得られない場合には第一の位置姿勢算出手段を、前記位置及び姿勢の予測値が得られる場合には第二の位置姿勢算出手段を選択する選択工程とを備える。
本発明により、位置及び姿勢の予測値を利用せずに画像を用いて行う撮像装置または物体の位置及び姿勢の計測を安定化させ、処理時間を短くすることが可能になる。
以下、添付図面を参照して本発明の好適な実施形態について詳細に説明する。
[第一の実施形態]
第一の実施形態では、傾斜角センサを撮像装置に装着し、本発明を撮像装置の位置及び姿勢の計測に適用した場合の実施形態について説明する。
図1は、第一の実施形態における位置姿勢計測装置1の構成を示している。同図に示すように、位置姿勢計測装置1は、画像取得部110、センサ計測値取得部120、直線検出部130、モデルデータ記憶部140、位置姿勢算出部150によって構成されている。
画像取得部110は撮像装置100に接続されており、センサ計測値取得部120は傾斜角センサ105に接続されている。撮像装置100は観察対象物体10を撮影し、位置姿勢計測装置1は、観察対象物体10を含む3次元空間中に規定される座標系(以下、基準座標系)における撮像装置100の位置及び姿勢を計測する。また、傾斜角センサ105は撮像装置100に固定されており、基準座標系に対する撮像装置の傾斜角を計測する。なお、観察対象物体は現実空間中に固定されているものとする。以下、位置姿勢計測装置1を構成する各部について説明する。
画像取得部110は、撮像装置100によって撮像された撮影画像を位置姿勢計測装置1に入力する。画像取得部110は、撮像装置の出力がNTSC信号などのアナログ出力であればアナログビデオキャプチャボードによって実現される。また撮像装置の出力がIEEE1394などのデジタル出力であれば、例えばIEEE1394インタフェースボードによって実現される。また、予め記憶装置に記憶してある静止画像や動画像のデジタルデータを読み出してもよい。
センサ計測値取得部120は、傾斜角センサ105が計測した傾斜角計測値を位置姿勢計測装置1に入力する。センサ計測値取得部120は、画像取得部110が取得する画像の撮影時刻とほぼ同一時刻の傾斜角計測値を取得できるものとする。また、画像取得部110が予め記憶装置に記憶してある静止画像や動画像のデジタルデータを読み出す場合には、傾斜角センサ105が出力する傾斜角計測値ではなく、予め記憶装置に記憶してある傾斜角計測値を読み出してもよい。撮像装置100に対する傾斜角センサ105の姿勢は予め校正済みであるとし、傾斜角センサ105から得られる傾斜角計測値により、撮像装置100の傾斜角が計測できるものとする。
直線検出部130は、画像取得部110によって取得された画像上において直線を検出する。撮像装置100の焦点距離や歪みパラメータなどの固有パラメータは予め校正されているものとし、直線の検出結果は焦点距離が1となるように変換されているものとする。
モデルデータ記憶部140は、観察対象物体10の3次元幾何モデルデータを記憶する。図2は本実施形態における3次元幾何モデルの定義方法を説明する図である。3次元モデルは、点の集合及び各点を結んで構成される線分の集合によって定義される。図2(a)に示すように、観察対象物体10の3次元幾何モデルは点P1〜点P14の14点から構成される。3次元空間中に規定される基準座標系の原点をP12に、x軸を点P12から点P13に向かう方向に、y軸を点P12から点P8に向かう方向に、z軸を点P12から点P11に向かう方向に取る。y軸は鉛直上方向(重力軸の反対方向)であるとする。
また図2(b)に示すように、観察対象物体10の3次元幾何モデルは線分L1〜L16により構成されている。図2(c)に示すように、点P1〜点P14は3次元座標値によって表される。また図2(d)に示すように、線分L1〜L16は、線分を構成する点のIDによって表される。さらに3次元幾何モデルは、陰線消去の問題を取り扱うため、面の情報も保持する。各面は、各面を構成する点のIDによって表される。図2に示す3次元幾何モデルでは、直方体の6つの各面の情報が記憶されている。位置姿勢算出部150は、センサ計測値取得部120によって取得された傾斜角計測値、直線検出部130によって検出された直線の方程式及び該直線に対応する基準座標系における直線の方程式に基づいて、撮像装置100の位置及び姿勢を算出する。
次に、第一の実施形態における位置姿勢計測方法の処理手順について説明する。図3は、第一の実施形態における位置姿勢計測方法の処理手順を示すフローチャートである。
まずステップS1010において、位置姿勢計測装置1は、画像取得部110及びセンサ計測値取得部120を介して、撮像装置100が撮影する観察対象物体10の画像及び画像が撮影された時刻とほぼ同時刻の撮像装置100の傾斜角計測値を取り込む。
次にステップS1020において、直線検出部130は、ステップS1010で取得された画像上で直線検出を行う。
図4は、直線検出部130で実行される画像上の直線検出の処理手順を示すフローチャートである。
まずステップS1110において、画像からエッジ検出を行う。前述したように、エッジとは、画像上で濃度が急激に変化する点である。エッジ検出は、例えばSobelオペレータ,Prewittオペレータなどの公知のエッジ検出オペレータにより行う。各画素について、エッジ検出オペレータを画像の水平方向、垂直方向について適用する。そして、その出力値をもとに、エッジ強度及びエッジ方向を算出する。エッジ検出オペレータの水平方向の出力値がf、垂直方向の出力値がfである場合、エッジ強度Iは
Figure 2008309631
、エッジ方向Φはφ=arctan(f/f)として算出する。
次にステップS1120において細線化を行う。ステップS1110では、エッジのぼけやエッジ検出オペレータのウィンドウサイズの影響により、エッジはその垂直方向にある幅を持って検出される。そこで、各画素について、エッジ方向に対して垂直な方向の隣接画素のエッジ強度を比較し、隣接画素よりもエッジ強度が大きい画素のみをエッジとして残すことでエッジ幅を1画素にする細線化を行う。このステップS1120の処理においてエッジとして残った画素には1を、それ以外の画素には0を割り当てることにより2値化画像を生成する。なお、細線化されたエッジ検出結果を出力する、Cannyのエッジ検出器を用いてエッジ検出と細線化を行ってもよい。
次にステップS1130において、ステップS1120で生成された2値化画像について、隣接エッジのラベリングを行う。ラベリングは、例えばある画素の周囲8画素の中にエッジが存在すれば、同一ラベルを割り当てることにより行う。
次にステップS1140において、ステップS1130において同一ラベルに分類された隣接エッジの中から複数の枝が分岐する点を探索し、該分岐点において枝を切断し、各枝に異なるラベルを割り当てる。分岐点がないものについては、分岐点の処理を行わない。
さらにステップS1150では、ステップS1140においてラベルを割り当てられた各枝について、折れ線近似を行う。折れ線近似は例えば以下の方法により行う。まず、枝の両端を線分で結び、枝上の点のうち該線分との距離が最大かつ閾値以上の点に新たに分割点を設ける。次に、この分割点と枝の両端を線分で結び、該線分との距離が最大の点に分割点を設ける。この処理を、枝が折れ線によって十分近似されるまで再帰的に繰り返す。その後、折れ線を構成する各線分について、両端の座標を画像上の直線の通過点として出力する。
なお、ここではラベリング処理と折れ線近似により直線検出を行ったが、直線検出方法はこれに限るものではなく、画像上から直線を検出する方法であればいかなる方法であってもよい。例えば、ハフ変換によって直線を検出してもよい。なお、本ステップでは、観察対象物体10上の直線だけでなく、背景に存在する直線も検出される。
図3に戻って、ステップS1030では、ステップS1020における直線の検出結果を利用して、観察対象物体10に対する撮像装置100の位置及び姿勢を算出する。姿勢のうち、傾斜角成分は傾斜角センサの計測値として得られているので、ここでは姿勢の方位角成分と位置を未知変数として算出する。なお、第1の実施形態においては、ステップS1020で検出された直線と、モデルデータ記憶部140に記憶されている3次元幾何モデルの線分との対応は、手動で対応付けるなどしてわかっているものと仮定する。また、手動で対応付けるのではなく、予め現実空間における線分の周辺の画像情報を記録しておき、該記録された周辺の画像情報と、画像上で検出された線分の周辺の画像情報とパターンマッチングなどによって比較し、対応付けを行ってもよい。
ここで、撮像装置100の座標系(以下、カメラ座標系)を次のように定義する。すなわち、視点Cをカメラ座標系の原点とし、視軸ベクトルの反対方向をz軸、画像平面の水平方向をx軸、垂直方向をy軸とする。また、撮像装置100の焦点距離を1として、画像平面をカメラ座標系のz=−1にとり、画像座標系の原点を画像平面とカメラ座標系のz軸(すなわち視軸ベクトル)との交点とする。ステップS1020で検出された直線の情報は、以上のように定義された画像座標系において表す。
基準座標系における任意の3次元ベクトルxは、式1によりカメラ座標系における3次元ベクトルxに変換される。
=Rcw+tcw (式1)
cwはカメラ座標系に対する基準座標系の姿勢を表す3×3回転行列である。基準座標系におけるカメラ座標系(すなわち撮像装置100)の姿勢を表す3×3回転行列をRwcとすると、
Figure 2008309631
の関係がある。tcwはカメラ座標系に対する基準座標系の原点の位置を表す3次元ベクトルである。基準座標系におけるカメラ座標系(すなわち撮像装置100)の位置を表す3次元ベクトルをtwcとすると、twc=−Rwccwの関係がある。
図5は、画像上の直線と3次元空間中の直線との関係を説明する図である。一般に、3次元空間中の直線を撮像装置により撮像すると、その画像平面上における投影像は直線となる。図5に示すように、3次元空間中の点P及びQを通過する直線Lの画像平面上における投影像である直線lは、直線L及び視点Cを含む平面πと画像平面との交線である。また平面πの法線ベクトルnは、ベクトルCP,CQ,PQと直交する。点P、点Qの基準座標系における位置を表す3次元ベクトルをそれぞれp、q、直線Lの基準座標系における方向ベクトルをd(=q−p)とすると、この3つの直交条件は式2〜式4のように表される。
n・(Rcwp+tcw)=0 (式2)
n・(Rcwq+tcw)=0 (式3)
n・Rcwd=0 (式4)
ただし「・」はベクトルの内積である。
撮像装置100の姿勢の傾斜角成分を表す3×3回転行列を
Figure 2008309631
,方位角成分を表す3×3回転行列を
Figure 2008309631
とすると,Rwc
Figure 2008309631
のように分解できるため、
Figure 2008309631
となる。ここで傾斜角とは、計測対象の座標系(ここではカメラ座標系)に対する重力軸の傾きを表し、2自由度で表現される。また方位角とは、計測対象の重力軸周りの回転を表し、1自由度で表現される。
Figure 2008309631
を式5のように表す。
Figure 2008309631
、r、rはそれぞれ行列
Figure 2008309631
の各列ベクトルである。
Figure 2008309631
の各要素の値は、傾斜角センサ105の計測値によって決定される。センサ計測値取得部120の説明で述べたように、撮像装置100に対する傾斜角センサ105の姿勢は予め校正済みであると仮定しているため、傾斜角センサ105の計測値から撮像装置100の傾斜角が得られる。一方、モデルデータ記憶部140の説明で述べたように、基準座標系のy軸は鉛直上ベクトルとしているので、方位角を表す回転行列
Figure 2008309631
は、方位角をθ、α=cosθ、β=sinθとすると式6のように表される。
Figure 2008309631
n=[n、p=[p、q=[q、tcw=[tとして、式5、式6を式2、式3に代入すると、式7、式8が得られる。
Figure 2008309631
式7、式8は、未知変数α、β、t、t、tについての線形方程式になっている。また、画像上で検出された直線の2つの通過点の、前述の焦点距離を1とした画像平面の座標系における座標を(x,y)、(x,y)とすると、そのカメラ座標はxc1=[x −1]、xc2=[x −1]
となる。法線ベクトルnは、xc1、xc2の双方に直交するベクトルであるので、n=xc1×xc2により求められる(×は外積を表す)。これによって、画像上で検出される直線と、3次元空間中の直線とが法線ベクトルnを介して方程式として対応付けられる。
複数の画像上の直線と3次元空間中の直線との対応について成り立つ式7、式8をα、β、t、t、tについての連立方程式として解くことにより、α、β、t、t、tを算出することができる。以下、未知パラメータα、β、t、t、tを表すベクトルをs=[α β tと表す。p、qとしては、3次元幾何モデルにおける各線分の両端の座標を用いる。
(i) 少なくとも一つの直線が同一水平面上に存在しない場合
位置及び姿勢の算出に用いる直線のうち、少なくとも一つの直線が3次元空間において同一水平面上に存在しない場合には,As=b(Aは式7、式8の左辺の係数の値からなる行列、bは式7、式8の右辺の値からなるベクトル)の形の連立方程式を解くことによりsを算出する。通常Aの行数は未知変数の数(すなわちsの要素数)より多いため、式9に示すように最小二乗法によりsを算出する。
s=(AA)−1b (式9)
また、s’=[s 1]、A’=[A −b]として、行列(A’)A’の最小固有値に対応する固有ベクトルを求め、最後の要素が1になるようにs’の各要素を割ることで、sを算出してもよい。
得られたsから方位角θ及び撮像装置100の位置twcを算出する。方位角θはα、βの符号とtan−1(β/α)から算出する。算出した方位角と傾斜角計測値から
Figure 2008309631
により撮像装置100の姿勢を表す回転行列Rwcを計算する。撮像装置100の位置twcは式10により算出する。
wc=−Rwccw (式10)
(I)の場合には、未知変数sの自由度は5である。1本の直線の対応からは式7、式8の2つの方程式が立式できるので、少なくとも3本の直線の対応が必要となる。但し、すべての直線が3次元空間において一点で交わらず、かつすべての直線が平行ではないことが一意な解を得る必要条件となる。
(ii) すべての直線が同一水平面上にある場合
位置及び姿勢の算出に用いる直線が3次元空間においてすべて同一水平面上(y=y)にある場合には、p=y、q=yとなる。そのため、P=0、q=0とおいて式7、式8の右辺をすべて0とすることにより、式11、式12が得られる。
Figure 2008309631
これにより、連立方程式をAs=0の形にすることができるため、sは行列AAの最小の固有値に対応する固有ベクトルとして算出できる。このときsの符号を含むスケールファクターは不定である。そこで、α+β=1(すなわちcosθ+sinθ=1)となるようにスケールを決定する。sの符号については、符号の異なる2つのs(s=[α βx0y0z0、s=[−α −β −tx0 −ty0 −tz0)から以下の方法により選択する。まず、s、sそれぞれについて、撮像装置100の位置及び姿勢を算出する。方位角θはα、βの符号とtan−1(β/α)から算出する。算出した方位角と傾斜角計測値から
Figure 2008309631
により撮像装置100の姿勢を表す回転行列Rwcを計算する。位置twcは式13により算出する。
Figure 2008309631
次に、それぞれの位置及び姿勢について、画像平面上における直線の通過点(x,y)、(x,y)のカメラ座標における位置を求め、そのzの値が負であるようなsを解として選択する。
(ii)の場合には、未知変数sの自由度は4である。1本の直線の対応から式11、式12の2つの方程式が立式されるため、4自由度の未知変数を求めるためには2本の直線の対応があればよい。しかしながら、同一水平面上にある2本の直線は、平行であるか交わるかのどちらかであり、このような場合には未知変数を一意に決定することができない。そのため、すべての直線が同一水平面上にある場合には、少なくとも1本の直線が他の直線と平行ではなく、かつ一点で交わらないことが一意な解を得る必要条件であり、少なくとも3本の直線の対応を必要とする。
以上説明したように、第一の実施形態では、撮像装置に装着した傾斜角センサが計測する傾斜角計測値と、画像上で検出される直線とそれに対応する3次元幾何モデルの線分とから、直接的に撮像装置の位置及び姿勢を算出する。傾斜角センサを利用することで未知変数の自由度を6から4に減らすことができるため、より少ない直線の対応から一意な位置及び姿勢を算出することができる。また、多数の対応がある場合でも、画像のみを用いる場合に比べてより安定的に解を求めることができる。
[変形例1−1]
第一の実施形態において、すべての直線が同一水平面上に存在しない場合((ii)の場合)には、本来独立ではないαとβを独立に求めていたため、αとβは必ずしもα+β=1(すなわちcosθ+sinθ=1)という拘束条件を満たしていなかった。
そこで、第一の実施形態で説明した方法を用いて未知変数θ、t、t、tを算出した後、非線形最適化を行うことによってθ、t、t、tを補正してもよい。
第一の実施形態で説明した方法を用いて算出された未知変数をθ、tx0、ty0、tz0とすると、その近傍において式7、式8を一次近似すると式14、式15が得られる。
Figure 2008309631
ただし
Figure 2008309631
であり、△θ、△、△t、△tはそれぞれθ、t、t、tの微小変化量である。
式14、式15を用いて△θ、△t、△t、△tについての線形連立方程式を立てて解くことによって得られる補正値△θ、△t、△t、△tにより、θ0,x0,ty0,tz0の補正を行う。なお、この処理は1回だけ行ってもよいし、補正した結果をもとに再度式14、式15をもとに連立方程式を立てて補正値を求め補正することを繰り返してもよい。
[変形例1−2]
第一の実施形態では、式2、式3の拘束条件を利用し、撮像装置の位置と方位角を同時に算出していた。しかしながら、位置と方位角を同時に算出する必要はなく、両者を別々に算出してもよい。すなわち、式4の拘束条件を用いて方位角を算出した後、式2または式3の拘束条件を用いて位置を算出してもよい。
d=[dとして、式5、式6を式2、式3に代入すると、式16が得られる。
Figure 2008309631
複数の画像上の直線と3次元空間中の直線との対応について成り立つ式16をα、βについての連立方程式として解くことにより、α、βを算出することができる。なお、直線の方向が鉛直ベクトルと平行である場合にはd=d=0であるため、左辺の係数がすべて0になってしまうのでそのような直線は用いることができない。α、βから方位角θを算出する方法は第一の実施形態で説明した方法と同じ方法を用いる。直線の方向がすべて水平方向である場合にはd=0であり、式16の右辺がすべて0になる。この場合、未知変数の自由度は1となるので、少なくとも1本の直線によりα、βを算出することが出来る。また、少なくとも1本の直線の方向が水平方向でない場合には、自由度は2であるので、少なくとも2本の直線によりα、βを算出することが出来る。式16の右辺がすべて0である場合には、α、βの符号を決定することができない。そのような場合には、符号の異なる2種類のα、βから2個の方位角を求め、以降で説明する位置の算出をそれぞれの方位角について行い、第一の実施形態で説明した方法と同じ方法によりどちらか一方を選択する。
算出した方位角と傾斜角計測値から
Figure 2008309631
により撮像装置100の姿勢を表す回転行列Rwcを計算する。ここでp’=RCWp、q’=RCWqとすると、式2、式3より式17、式18が得られる。式4より、式17、式18は同じ方程式を表す。
Figure 2008309631
複数の画像上の直線と3次元空間中の直線との対応について成り立つ式17または式18を連立方程式として解くことにより、t、t、tを算出することができる。一意な解を得るためには、一点で交わらず、かつ平行でない直線が少なくとも3本必要である。
なお、本変形例の方法により撮像装置の位置と方位角を算出した後、変形例1−1の方法によって補正を行ってもよい。
[第二の実施形態]
第一の実施形態は、画像上で検出された直線と3次元幾何モデルの線分との対応が既知である場合の位置及び姿勢の算出方法を取り扱うものである。それに対して、第二の実施形態では、画像上で検出された直線と3次元幾何モデルの線分との対応が未知の場合に、傾斜角センサの計測値を利用して位置及び姿勢の算出を行う方法について述べる。
図6は、第二の実施形態における位置姿勢計測装置2の構成を示している。同図に示すように、位置姿勢計測装置2は、画像取得部210、センサ計測値取得部220、直線検出部230、モデルデータ記憶部240、方位角候補算出部250、位置姿勢算出部260によって構成されている。画像取得部210は、撮像装置200に接続されている。また、センサ計測値取得部220は、傾斜角センサ205に接続されている。第一の実施形態と同様に、撮像装置200は観察対象物体20を撮影し、位置姿勢計測装置2は、観察対象物体20を含む3次元空間中に規定される基準座標系における撮像装置200の位置及び姿勢を計測する。また、傾斜角センサ205は、撮像装置200に固定されている。以下、位置姿勢計測装置2を構成する各部について説明する。
画像取得部210、センサ計測値取得部220、直線検出部230、モデルデータ記憶部240は、夫々第一の実施形態における画像取得部110、センサ計測値取得部120、直線検出部130、モデルデータ記憶物140と同一の処理を行うため説明を省略する。
方位角候補算出部250は、センサ計測値取得部220によって取得された傾斜角計測値と直線検出部230によって検出された直線の方程式に基づいて、撮像装置100の方位角候補値を算出する。
位置姿勢算出部260は、センサ計測値取得部220によって取得された傾斜角計測値と直線検出部230によって検出された直線の方程式、及び方位角候補算出部250によって算出された方位角候補値に基づいて、撮像装置200の位置及び姿勢を算出する。
第二の実施形態におけるモデルデータ記憶部240は、自身が記憶している線分モデルデータをその方向ベクトルによって予め分類し、得られた分類をモデルデータの一部として保持している。図9は、線分モデルデータの方向ベクトルによる分類を説明する図である。方向ベクトルD1、D2、D3の方向をそれぞれ(1,0,0)、(0,1,0)、(0,0,1)として、図2に示される物体を構成する線分L1〜L16を方向ベクトルにより分類する。方向ベクトルの数は、例えば互いのなす角度が一定角度以上であれば異なるベクトルとして計数することにより決定する。線分L1〜L16は、図9に示すように、方向ベクトルD1、D2、D3に分類される。
次に、第二の実施形態における位置姿勢計測方法の処理手順について説明する。図7は、第二の実施形態における位置姿勢計測方法の処理手順を示すフローチャートである。
まずステップS2010において、位置姿勢計測装置2は、画像取得部210及びセンサ計測値取得部220を介して、撮像装置200が撮影する観察対象物体20の画像及び画像が撮影された時刻とほぼ同時刻の撮像装置200の傾斜角計測値を取り込む。
次にステップS2020において、直線検出部230は、ステップS2010で取得された画像上で直線検出を行う。直線検出の方法は第一の実施形態で説明した方法と同様であるので説明を省略する。ただし、本実施形態においては、検出された直線の線分としての特徴(端点の情報)を、後に述べるステップS2245等の処理において利用する。そのため、ハフ変換のように直線を直接検出する方法を用いる場合には、検出された直線から連続領域を線分として抽出し、その端点を直線の通過点として登録しておく。
ステップS2030では、方位角候補算出部250は、傾斜角計測値及びステップS2020における直線の検出結果を利用して、基準座標系における撮像装置200の方位角候補値を算出する。第二の実施形態では、画像上で検出される直線と3次元幾何モデルにおける線分の対応は未知であるため、第一の実施形態の方法を用いて直接位置及び姿勢を算出することはできない。そこで、ある検出直線が3次元幾何モデルにおけるある線分と対応すると仮定して(仮の対応)、その場合の方位角を算出してみる。これをすべての3次元幾何モデルにおける線分に対して行い、算出される方位角を投票する。さらに、この処理をすべての検出直線について行い、投票結果から最も尤もらしい方位角を求める。
なお、ある検出直線を、同一の方向ベクトルを持つ線分と対応付けた場合には同じ方位角が得られる。そこで、各検出された直線について、3次元幾何モデルにおいて分類されている方向ベクトルをそれぞれ対応付けて方位角を算出して方位角を投票し、投票数の多い方位角を方位角候補値として出力する。
図8は、方位角候補値算出の処理方法を説明するフローチャートである。ここでは、iを現在処理している直線検出結果、jを現在処理している方向ベクトルとする。ここで、ステップS2020において検出された直線の数をN、3次元幾何モデルの線分の方向ベクトル数をMとする。すなわち、1≦i≦N、1≦j≦Mである。
まずステップS2105において、方位角のヒストグラムを初期化する。方位角の範囲をあらかじめ決められたステップで量子化し、ヒストグラムの各階級の度数を0にセットする。量子化ステップは例えば1度である。しかしながら、量子化ステップの大きさはこれに限るものではない。
次に、ステップS2110においてiを1にセットし、ステップS2120において、jを1にセットする。
次にステップS2130において方位角の算出と投票を行う。方位角の算出は、画像上での直線iと方向ベクトルjの対応から式16に基づいて行う。簡単のため、式16を式19のように表す。
aα+bβ+c=0 (式19)
式19は、α−β平面における直線の方程式とみなすことができる。また、α+β=1(すなわちcosθ+sinθ=1)であることから、図10に示すように、α、βは円α+β=1と直線aα+bβ+c=0の交点から求めることができ、方位角θ、θが得られる。円α+β=1と直線aα+bβ+c=0が接する場合には、一つの方位角しか得られない。また、円α+β=1と直線aα+bβ+c=0が交わらない場合は、方位角は得られない。さらには、方向ベクトルが鉛直方向のベクトルである場合には、a=b=0になるので方位角が得られない。
このようにして得られた方位角θ、θのそれぞれに最も近い代表値を持つ方位角ヒストグラムの階級の度数に1を加える。このとき、投票した階級について、方位角の計算に用いた画像上での直線と方向ベクトルの組合せも合わせて記憶しておく。
次に、ステップS2140において、jに1を加算する。ステップS2150において、すべての方向ベクトルについて処理が終わったと判断された場合には、ステップS2160に進み、そうでない場合にはステップS2130に戻って新たな組合せで方位角の算出及び投票を行う。
ステップS2160では、iに1を加算する。ステップS2170において、すべての画像上での直線について処理が終わったと判断された場合には、ステップS2180に進み、そうでない場合にはステップS2120に戻って次の直線について処理を行う。
すべての画像上での直線と方向ベクトルの組合せにより方位角を算出しヒストグラムへの投票が終了すると、ステップS2180において方位角候補値の選択を行う。方位角候補値として、方位角ヒストグラムにおける各階級の度数の最も大きい階級の代表値を採用する。
図7に戻って、ステップS2040において、ステップS2020における直線の検出結果とステップS2030における方位角候補値に基づいて、基準座標系に対する撮像装置200の位置及び姿勢を算出する。
図11は、ステップS2040における位置及び姿勢算出の処理の手順を示すフローチャートである。ステップS2040では、検証する仮説の数nmaxを予め設定し、nmax通りの3個の直線の組合せからそれぞれ撮像装置の位置を算出し、最も妥当な位置を選択することにより位置を算出する。
まずステップS2205において、対応データリストの作成を行う。対応データは、画像上での直線lと3次元幾何モデルにおける線分Lの一対一の組合せであり、対応データリストは複数の対応データを保持する。対応データリストは、画像上での直線と3次元幾何モデルの線分との対応のうち、対応する可能性のあるものの組合せをすべて対応データとして持つ。この組合せは、ステップS2030において方位角候補を算出したときに、該方位角候補に投票した画像上での直線と方向ベクトルとの組合せから生成する。
図12は、対応データリストの一例を示す図である。図9で示すように、一つの方向ベクトルには複数の線分が分類されているため、図12では、一本の画像上での直線に対して複数の線分が対応付けられて対応データリストに記憶されている。
次にステップS2210において、検証済み仮説数nを0にセットする。
ステップS2220では、ステップS2205で生成した対応データリストから、無作為に3個の対応データを抽出する。なお、データ抽出を無作為に行わないで、nmaxをすべての組合せ数とし、すべての組合せについて位置を求めてもよい。
次にステップS2230では、ステップS2220において抽出された3個の対応データから位置を計算可能かどうかの判定を行う。具体的には、
・同じ画像上の直線が含まれている場合
・同じ線分が含まれている場合
・3個の線分がすべて平行である場合
・3個の線分が一点で交わる場合
・過去に用いた組合せである場合
のいずれかに該当する場合には計算不可能と判定する。また、3個の線分がすべて平行である場合、3個の線分が一点で交わる場合の判定は、式17、式18の連立方程式を立式し、その係数行列のランクが3未満であるかどうかにより判定してもよい。ステップS2230において計算可能と判定された場合にはステップS2240に進み、そうでない場合にはステップS2220において新たに3個の対応データを抽出し直す。
次にステップS2240において、撮像装置200の位置を算出する。位置tcw=[tは、変形例1−2と同様にして、傾斜角センサから得られる傾斜角と方位角候補値をもとに撮像装置100の姿勢を表す回転行列Rwcを計算した後、複数の式17または式18から構成される連立方程式を解くことにより算出する。
次にステップS2245において、算出された位置及び姿勢の妥当性の評価を行う。まず、算出された位置及び姿勢を用いて、位置算出に用いた3つの線分を仮想的に画像上に投影する。さらに、陰線消去を取り扱うために、3次元幾何モデルを構成する面をデプスマップ上に描画する。そして、次の3つの条件のうち1つでも満たす場合には、算出された位置及び姿勢は妥当性がないと判定し、ステップS2260に進む。そうでない場合には、ステップS2250に進む。条件は次の通りである。
条件1:投影された線分と、それに対応する画像上の直線のどちらかの通過点(線分の端点)との距離が閾値を越える。
条件2:投影された線分と、それに対応する画像上の線分との間にオーバラップがない。
条件3:画像上の直線の通過点に相当する3次元幾何モデルの線分上の点の奥行きが、デプスマップにおける奥行きより大きい。
ステップS2250では、ステップS2240で算出した位置の評価値の算出を行う。ここでは、算出された撮像装置の位置及び姿勢に基づいて3次元幾何モデルのすべての線分を仮想的に画像上に投影し、その近傍に画像上で検出された直線が存在するかどうかを判定する。そして、近傍に画像上での直線が存在する3次元幾何モデルの数を該位置の評価値とする。ここでは、ステップS2245で描画したデプスマップを利用し、面に隠される線分は描画しない。画像上での直線の近傍に3次元幾何モデルの投影線分が存在するかどうかは、直線の両端と投影線分との距離が一定値以内かどうかにより判定する。
ステップS2260において検証済み仮説数nに1を加えた後、ステップS2270においてnがnmaxに等しいかどうか判定する。nがnmaxに等しいと判定された場合にはステップS2280に進み、そうでない場合にはステップS2220に戻って新たに3個の対応データを選択し直す。
ステップS2280では、算出されたnmax個の撮像装置の位置の中で、最も妥当なものを選択する。最も妥当かどうかの判定は、ステップS2250において計算された評価値に基づいて行う。
以上説明したように、第二の実施形態では、画像上で検出される直線と3次元幾何モデルの線分の対応が未知な場合に、傾斜角計測値を利用して方位角候補値と対応候補を求め、撮像装置の位置及び姿勢を算出する。計算負荷の小さい方法によって得られる方位角を投票することで方位角候補値を算出し、その結果得られる画像上の直線と3次元幾何モデルの方向ベクトルとの対応によって可能な対応数を限定することにより、位置及び姿勢の算出を効率化する。
[変形例2−1]
以上で説明した第二の実施形態では、算出された撮像装置の位置及び姿勢に基づいて3次元幾何モデルのすべての線分を仮想的に画像上に投影し、その近傍に画像上で検出された直線が存在する3次元幾何モデルの数を該位置の評価値としていた。ただし、この評価値は直線の数という離散的な値であるため、同一の数である場合には比較を行うことができない。そのため、直線の数とともに、図13(a)に示す直線の両端から投影線分までの距離d、dの和(d+d)を評価値として保持する。図13に示すように、画像上の直線lの両端に対応する投影線分L’の位置が線分外である場合には、投影線分L’の端点から直線lへ下ろした垂線の長さの和を距離として保持する。また、距離ではなく、図13に斜線で示される直線と線分が囲む部分の面積を評価値として用いてもよい。
そして、最も妥当な位置を選択する際には、まず、近傍に3次元幾何モデルの投影線分が存在する画像上での直線の数により候補の位置を選択し、その中で直線の両端から投影線分までの距離の和が最も小さい位置を選択して出力する。また、直線の両端から投影線分までの距離の和だけに基づいて位置を選択してもよい。
また、前述の評価値の計算は計算負荷が比較的小さいため、多数の計算に適している。しかしながら、計算負荷と評価の精度はトレードオフの関係にある。そこで、前述の評価値に基づいて限定された位置及び姿勢を選択した後に、さらにより評価の精度が高い評価値に基づいて最終的な解となる位置及び姿勢を選択してもよい。これによって、計算負荷をそれほど高めることなく、正しい位置及び姿勢が選択される可能性を増すことができる。
別の評価値決定方法として、算出された撮像装置の位置及び姿勢に基づいて画像上に投影される線分上の各点の近傍において、実際にエッジが存在するかどうかによって評価値を決定する。すなわち、図16に示すように、画像上に投影される線分を画像上で等間隔になるように分割点を設定する。そして、各分割点において周辺のエッジを探索し、エッジが近傍にある分割点の数を計数する。そして、総分割点数に対するエッジが近傍にある分割点数の割合を該位置及び姿勢の評価値とする。このとき、エッジ探索には、ステップS2020で検出されたエッジの情報を用いてもよいし、撮影画像において分割点の近傍で再度エッジ検出を行ってもよい。
[変形例2−2]
以上で説明した第二の実施形態では、最も近い代表値を持つ方位角ヒストグラムの階級への投票を行っていた。しかしながら、画像上での直線の検出誤差や、センサの計測誤差などの影響から、算出される方位角の精度が低い場合がある。そのため、最も近い代表値を持つ階級への投票を行うのではなく、その周囲の階級への投票も同時に行ってもよい。また、周囲の階級の度数を均等に1ずつ増やすのではなく、算出された方位角からの差に応じて重み付けして投票してもよい。さらには、ある方向ベクトルに分類されている線分の実際の方向ベクトルに基づいてそれぞれ方位角を算出し、投票の範囲を決定してもよい。
[変形例2−3]
以上で説明した第二の実施形態では、鉛直方向に平行な方向ベクトルは式16の左辺が0になって方位角を算出できないために、該方向ベクトルを持つ線分の情報を後段の位置算出において利用していなかった。しかしながら、式16の左辺だけではなく式16の右辺も0になる場合には、該画像上の直線が鉛直方向に平行な方向ベクトルと対応する可能性がある。そこで、そのような対応を対応データリストに追加し、位置の算出において鉛直方向に平行な方向ベクトルを持つ線分の情報も利用するようにしてもよい。
[変形例2−4]
以上で説明した第二の実施形態では、画像上で検出されたすべての線分について方向ベクトルと組み合わせて方位角の算出を行っていた。しかしながら、画像上で多数の線分が検出されるような場合には計算負荷が大きくなる。そのため、すべての線分を用いるのではなく、一部の線分を無作為に抽出し、方向ベクトルと対応付けて方位角を算出して投票を行うことにより計算負荷の増大を抑制してもよい。
[変形例2−5]
以上で説明した第二の実施形態では、1つの対応をもとに方位角を算出し、投票を行っていた。しかしながら、1つの対応からではなく、複数の対応をもとに方位角を算出し、投票を行ってもよい。例えば、画像上で検出された線分と方向ベクトルの全ての組合せの集合を生成し、該集合から任意のk個(例えば2個)を抽出し、k個の式16からなる連立方程式を解くことにより方位角を算出し投票を行う。
[変形例2−6]
以上で説明した第二の実施形態では、方位角候補値を算出した後、方位角は既知として、位置のみを算出していた。しかしながら、方位角候補値は方位角ヒストグラムの各階級の代表値を用いているため、離散的な値であり実際の方位角とは量子化ステップ分だけ誤っている可能性がある。そのため、抽出された3つの対応から位置のみを算出するのではなく、位置及び方位角の補正値を算出してもよい。この際には、式7、式8を方位角候補値θの近傍で線形化した式20、式21を用いる。
Figure 2008309631
ただし、
Figure 2008309631
である。3つの対応からこの式20、21の方程式を連立方程式として立式し、△θ、t、t、tを未知変数として求めてもよい。このとき方位角はθ=θ+△θとなる。
[変形例2−7]
以上で説明した第二の実施形態では、方位角ヒストグラムから最も度数の大きい階級の代表値を方位角候補値として選択していた。しかしながら、方位角候補値は1つである必要はなく、投票数上位の複数の方位角を方位角候補値として選択してもよい。例えば、各方位角候補値についてステップS2040の処理を行って位置を算出した後、最も評価値の高い位置とそれを算出したときの方位角を最終的な算出結果として出力する。また、変形例2−1で述べたように、各方位角候補値について複数の位置を算出した後、計算負荷が軽い処理によって算出された評価値に基づいて位置を限定した後、異なる評価値に基づいて最終的な位置及び姿勢を決定してもよい。
[変形例2−8]
以上で説明した第二の実施形態では、nmax回組合せを変えて撮像装置の位置を算出していた。しかしながら、nmax回の試行の途中で、十分よい位置が算出された場合には、その時点で処理を打ち切って、その位置を最終的な出力としてもよい。十分よい位置かどうかの判定は、例えば画像中で検出された線分の50%以上が撮像装置の位置及び姿勢に基づいて仮想的に画像上に投影された線分の近傍にあるかどうかを判定することにより行う。
[変形例2−9]
以上で説明した第二の実施形態では、方位角候補値を算出した後、画像上の線分と3次元幾何モデルとの線分の対応をもとに位置を算出していた。しかしながら、位置の算出方法はこれに限るものではない。
例えば、画像上でHarrisオペレータなどによって検出されるコーナー点と、3次元幾何モデルの頂点との対応をもとに位置を算出してもよい。すなわち、前述の方法により姿勢を決定した後、画像上で検出されたコーナー点と3次元幾何モデルの頂点をランダムに対応付けて複数の位置を算出し、最も整合性の高い位置を選択してもよい。
また、画像全体のアピアランスを利用する固有空間法などにより位置を算出してもよい。すなわち、3次元幾何モデルで表される現実物体の画像を、あらかじめ撮像装置の位置及び姿勢を変えて多数撮影しておき、画像とともに位置及び姿勢を記録しておく。さらに、画像の各画素の値をベクトルとした特徴ベクトルとして、多数の画像から特徴ベクトルの固有空間を求めておく。そして、位置を算出する際には、撮像された画像を固有空間内の一点に射影し、射影された点の近傍で、最も姿勢が近い予め撮影された画像の位置を求める位置として出力する。
[変形例2−10]
以上で説明した第二の実施形態では、撮像装置の傾斜角をセンサから得て、位置及び方位角を未知変数として算出した。しかしながら、例えば光学式の位置センサなどによって撮像装置の位置がわかっている場合には、方位角のみが未知変数となる。このような場合には、ステップS2040における位置算出の処理を省略してもよい。
[変形例2−11]
以上で説明した第二の実施形態では、撮像装置の方位角及び位置を全く未知なものとして算出していた。しかしながら、方位角や位置の範囲が事前にわかっている場合には、その範囲外の方位角や位置が算出された場合には、その算出結果を無視してもよい。
[第三の実施形態]
第三の実施形態では、本発明による位置及び姿勢計測方法を、非特許文献1に開示されているエッジを用いた位置及び姿勢計測方法の初期化方法として用いる。ここでは、初期化とは、第1フレーム及び計測破綻時に、エッジを用いた位置及び姿勢計測の位置及び姿勢の予測値を現フレームの情報のみから算出することと定義する。位置姿勢計測装置3は、破綻または初期状態であるか否かを示すフラグFを保持する。初期状態ではF=TRUEである。
図14は、第三の実施形態における処理の手順を説明するフローチャートである。まずステップS4010において、フラグFの値を見ることにより、現在の位置姿勢計測の状態が初期状態または破綻直後の状態であるかどうか判定を行う。初期状態または破綻直後の状態である場合には、ステップS4020に進む。また、初期状態でも破綻直後でもない場合には、ステップS4030に進む。
ステップS4020では、第二の実施形態で説明した方法により撮像装置の位置及び姿勢の計測を行い、フラグFをFALSEにセットして、ステップS4050に進む。
ステップS4030では、非特許文献1で開示されるエッジを用いた撮像装置の位置及び姿勢計測を行う。ステップS4030では、次の処理を行う。
1.図15に示すように、撮像装置の位置及び姿勢の予測値及び予め校正済みのカメラの固有パラメータに基づいて、3次元幾何モデルの線分を画像上に投影する。図15において、(a)は、撮像装置により撮像された画像を示し、(b)は、撮像装置により撮像された画像に3次元幾何モデルの線分(太い実線と点線:点線は見えない部分を示している)を投影した画像を示している。
2.投影された各線分を、画像上で一定間隔となるように分割し、分割点を設定する(図16)。そして各分割点について、該分割点を通過し向きが投影された線分の法線方向である線分(探索ライン)上でエッジ探索を行い、探索ライン上における輝度値の勾配が極大でありかつ分割点に最も近い点を対応エッジとして検出する(図17)
3.分割点毎に検出された対応エッジと、投影される線分との間の画像上での距離の総和が最小となるような撮像装置の位置及び姿勢の補正値を算出し、撮像装置の位置及び姿勢を補正する。
4. 3.の処理を収束するまで繰り返す最適化計算を行う。
ステップS4030の処理が終了したらステップS4040に進み、破綻検出を行う。ここでは、位置及び姿勢の計測に失敗しているかどうかを検出する。破綻検出は、例えば算出された位置及び姿勢に基づき画像上に投影した線分と、上記のステップS4030で検出されたエッジとの距離に基づいて行う。具体的には、該線分とそれに対応する検出エッジとの距離が予め設定された閾値以上であるエッジの割合が一定値以上であれば破綻していると判定する。ステップS4040において破綻していると検出された場合には、フラグFをTRUEにセットする。ステップS4040の処理が終わったら、ステップS4050に進む。
ステップS4050では、位置姿勢計測を終了するか否かの判定を行う。終了しない場合にはステップS4010に戻る。
以上説明したように、第三の実施形態では、本発明による位置及び姿勢計測方法を、エッジを用いた位置及び姿勢計測方法の初期化方法として用いることで、エッジを用いた位置及び姿勢計測方法の初期化を自動化することができる。
[変形例1]
以上で説明した実施形態では、傾斜角センサを撮像装置に装着することにより、撮像装置の傾斜角を計測していた。しかしながら、傾斜角を計測するセンサは傾斜角センサに限るものではなく、傾斜角を計測可能なセンサであればいかなるセンサであってもよい。例えば、3自由度の姿勢センサを撮像装置に装着して姿勢を計測し、該姿勢から傾斜角成分を抽出して傾斜角計測値として利用してもよい。
また、第一の実施形態では、撮像装置の位置と方位角を未知変数として算出していた。しかしながら、上記の3自由度の姿勢センサを用いる場合など方位角がまったく未知でない場合には、撮像装置の位置と方位角計測値の補正値を求めてもよい。位置と方位角の補正値の算出は、変形例2−6で説明した方法により行うことができる。さらに、上記の3自由度の姿勢センサによって計測される方位角の精度が高い場合には、撮像装置の位置だけを算出してもよい。位置の算出は、変形例1−2で説明した方法により行うことができる。
[変形例2]
以上で説明した実施形態では、1台の撮像装置を利用していた。しかしながら、撮像装置は1台に限るものではなく、撮像装置間の相対的な位置及び姿勢が固定されており既知であれば、撮像装置が何台であっても本発明の本質を損なうことはない。ここでは、2台の撮像装置100及び101を用いて位置姿勢計測を行う場合を考える。傾斜角センサ105は撮像装置100の傾斜角を計測するものとする。撮像装置100に対する基準座標系の原点の位置を表す3次元ベクトルをtC1W、基準座標系の姿勢を表す3×3回転行列をRC1Wとすると、基準座標系xから撮像装置100の座標系xC1への変換は次のように表される。
C1=RC1W+tC1W
また、撮像装置101に対する撮像装置100の位置を表す3次元ベクトルをtC2C1、姿勢を表す3×3回転行列をRC2C1とすると、基準座標系xから撮像装置101の座標系xC2への変換は式22のように表される。
Figure 2008309631
第一の実施形態で式2〜式4を導いたのと同様に、基準座標系における直線L上の点p、q、直線Lの基準座標系における方向ベクトルd(=q−p)は、
n・(RC2C1C1Wp+RC2C1C1W+tC2C1)=0 (式23)
n・(RC2C1C1Wq+RC2C1C1W+tC2C1)=0 (式24)
n・RC2C1C1Wd=0 (式25)
を満たす。ここでnは、直線L及び撮像装置101の視点位置を通る平面の法線ベクトルである。n=[n、p=[p、q=[q、d=[d、tcw=[tとすると、式26、式27が得られる。
Figure 2008309631
ただし
Figure 2008309631
である。R、R、Rは、RC2C1の各列ベクトルである。式26、式27、式7、式8によって立式されるα、β、t、t、tについての連立方程式を解くことにより、撮像装置が複数の場合でも、方位角及び位置の算出が可能となる。
[変形例3]
以上で説明した実施形態では、撮像装置に傾斜角センサを装着し、観察対象物体に対する撮像装置の位置及び姿勢を計測していた。しかしながら、本発明はこれに限るものではない。例えば、移動する観察対象物体に傾斜角センサを装着し、基準座標系に固定された撮像装置によって撮影される画像に基づいて、観察対象物体の位置及び姿勢を計測してもよい。
撮像装置の座標系における観察対象物体の位置を表す3次元ベクトルをtco、基準座標系における観察対象物体の姿勢を表す3×3回転行列をRwoとすると、観察対象物体の座標系xから撮像装置の座標系xへの変換は次のように表される。
=RCWWO+tCO
ここでRcwは、撮像装置の座標系に対する基準座標系の姿勢を表す3×3回転行列である。観察対象物体の姿勢を表す3×3回転行列Rwoは、傾斜角成分を表す3×3回転行列を
Figure 2008309631
,方位角成分を表す3×3回転行列を
Figure 2008309631
とすると,
Figure 2008309631
のように分解できる。
Figure 2008309631
は観察対象物体に装着した傾斜角センサの計測値から得ることができる。第一の実施形態で式2〜式4を導いたのと同様に、物体座標系における直線L上の点p、q、直線Lの物体座標系における方向ベクトルd(=q−p)は、
n・(RCWWOp+tCO)=0 (式28)
n・(RCWWOq+tCO)=0 (式29)
n・RCWWOd=0 (式30)
を満たす。ここでnは、直線L及び撮像装置の視点位置を通る平面の法線ベクトルである。
Figure 2008309631
とすると、式31、式32、式33が得られる。
Figure 2008309631
ただし、Rcw=[R]、方位角をθ、α=cosθ、β=sinθとする。式31、式32、式33を用いることにより、以上で説明した実施形態を移動物体の位置及び姿勢の計測に適用することができる。また、基準座標系に固定した撮像装置が複数ある場合であっても、変形例2で説明したのと同様に、本発明を適用することができる。
[変形例4]
以上で説明した実施形態では、撮像装置に傾斜角センサを装着し、観察対象物体に対する撮像装置の位置及び姿勢を計測していた。しかしながら、本発明はこれに限るものではなく、移動する観察対象物体と撮像装置の双方に傾斜角センサを装着し、観察対象物体と撮像装置との間の相対的なの位置及び姿勢を計測してもよい。
撮像装置の座標系における基準座標系の姿勢を表す3×3回転行列をRcw、基準座標系における観察対象物体の姿勢を表す3×3回転行列をRwo、撮像装置の座標系における観察対象物体の位置を表す3次元ベクトルをtcoとすると、観察対象物体の座標系xから撮像装置の座標系xへの変換は次のように表される。
=RCWWO+tCO
woは、傾斜角成分を表す3×3回転行列を
Figure 2008309631
,方位角成分を表す3×3回転行列を
Figure 2008309631
とすると,
Figure 2008309631
のように分解できる。また、Rcwは、傾斜角成分を表す3×3回転行列を
Figure 2008309631
,方位角成分を表す3×3回転行列を
Figure 2008309631
とすると,
Figure 2008309631
のように分解できる。これにより、
Figure 2008309631
と表せる。
Figure 2008309631
は観察対象物体と撮像装置の方位角の差であり、一つの行列
Figure 2008309631
として表すことができる。
Figure 2008309631
は観察対象物体及び撮像装置に装着した傾斜角センサの計測値から得ることができる。第一の実施形態で式2〜式4を導いたのと同様に、物体座標系における直線L上の点p、q、直線Lの物体座標系における方向ベクトルd(=q−p)は、
Figure 2008309631
を満たす。ここでnは、直線L及び撮像装置の視点位置を通る平面の法線ベクトルである。
Figure 2008309631
とすると、式37、式38、式39が得られる。
Figure 2008309631
ただし、Rαのy軸周りの回転角をθ、α=cosθ、β=sinθとする。式37、式38、式39を用いることにより、以上で説明した実施形態を移動物体の位置及び姿勢の計測に適用することができる。また、また、撮像装置に対して相対的な位置及び姿勢が固定されていて既知な他の撮像装置が複数ある場合であっても、変形例2で説明したのと同様に、本発明を適用することができる。
[変形例5]
以上で説明した第一の実施形態及び第二の実施形態では、基準座標系のy軸を鉛直上方向(重力軸の逆方向)としていた。しかしながら、基準座標系のとり方はこれに限るものではなく、いかなるとり方であってもよい。基準座標系のy軸が鉛直上方向でない場合には、その座標系とy軸が鉛直上方向の座標系との相対姿勢を予め算出しておき、基準座標系をy軸が鉛直上方向の座標系に変換することにより本発明を適用可能である。
[その他の実施の形態]
なお、本発明の目的は、前述した実施例の機能を実現するソフトウェアのプログラムコードを記録したコンピュータ可読記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)がコンピュータ可読記憶媒体に記憶されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。
この場合、コンピュータ可読記憶媒体から読出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコードを記憶したコンピュータ可読記憶媒体は本発明を構成することになる。
プログラムコードを供給するためのコンピュータ可読記憶媒体としては、例えば、フレキシブルディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,DVD−ROM,DVD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施例の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施例の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施例の機能が実現される場合も含まれることは言うまでもない。
第一の実施形態における位置姿勢計測装置1の構成を示す図である。 3次元幾何モデルの定義方法を説明する図である。 第一の実施形態における位置姿勢計測方法の処理手順を示すフローチャートである。 画像上の直線検出の処理手順を示すフローチャートである。 画像上の直線と3次元空間中の直線との関係を説明する図である。 第二の実施形態における位置姿勢計測装置1の構成を示す図である。 第二の実施形態における位置姿勢計測方法の処理手順を示すフローチャートである。 方位角候補値算出の処理方法を説明するフローチャートである。 線分データの方向ベクトルによる分類を説明する図である。 方位角の算出方法を説明する図である。 ステップS2040における位置及び姿勢算出の処理の手順を示すフローチャートである。 対応データリストの一例を示す図である。 評価値の算出方法を示す図である。 第三の実施形態における処理の手順を説明するフローチャートである。 画像上への3次元モデルの投影を説明する図である。 3次元モデルの画像上での分割点を説明する図である。 エッジ検出方法を説明する図である。

Claims (13)

  1. 物体または撮像装置に装着された傾斜角センサの傾斜角計測値を入力する傾斜角計測値の入力工程と、
    前記撮像装置から撮影画像を入力する画像の入力工程と、
    前記撮影画像から直線を検出する直線検出工程と、
    前記傾斜角計測値、前記検出された直線の撮影画像での方程式および該直線に対応する3次元空間中における直線の3次元空間中での方程式に基づき、前記傾斜角センサが装着された物体または撮像装置の位置と姿勢を算出する位置姿勢算出工程とを備えることを特徴とする情報処理方法。
  2. 前記位置姿勢算出工程は、前記傾斜角センサが装着された物体または撮像装置の位置と方位角を算出することを特徴とする請求項1に記載の情報処理方法。
  3. 前記位置姿勢算出工程は、前記位置と前記方位角を同時に算出することを特徴とする請求項2に記載の情報処理方法。
  4. 前記位置姿勢算出工程は、前記方位角を算出した後、前記位置を算出することを特徴とする請求項2に記載の情報処理方法。
  5. 前記位置姿勢算出工程は、少なくとも3つの直線の対応をもとに前記位置と前記方位角を算出することを特徴とする請求項2乃至4に記載の情報処理方法。
  6. 物体または撮像装置に装着された傾斜角センサの傾斜角計測値を入力する傾斜角計測値の入力工程と、
    前記撮像装置から撮影画像を入力する画像の入力工程と、
    前記撮影画像から直線を検出する直線検出工程と、
    前記検出された直線の夫々と、前記物体を表す線分モデルを構成する線分の夫々の方向ベクトルとが仮に対応するとみなして、夫々の組合せについて方位角を求めて投票することにより方位角候補値を算出する方位角候補値算出工程とを備えることを特徴とする情報処理方法。
  7. 前記傾斜角計測値、前記方位角候補値及び前記検出された直線と方向ベクトルとの対応に基づき、前記傾斜角センサが装着された物体または撮像装置の位置と姿勢を算出する位置姿勢算出工程を備えることを特徴とする請求項6に記載の情報処理方法。
  8. 前記方位角候補値算出工程は、投票数が最大の方位角を方位角候補値として出力することを特徴とする請求項6乃至7に記載の情報処理方法。
  9. 前記方位角候補値算出工程は、投票数が上位の複数の方位角を方位角候補値として出力することを特徴とする請求項6乃至7に記載の情報処理方法。
  10. 物体または撮像装置の位置及び姿勢を計測する情報処理方法であって、
    物体または撮像装置に装着された傾斜角センサの傾斜角計測値を入力する傾斜角計測値の入力工程と、
    前記撮像装置から撮影画像を入力する画像の入力工程と、
    前記撮影画像から検出される直線と前記傾斜角センサの計測値に基づいて物体または撮像装置の位置と姿勢を算出する第一の位置姿勢算出工程と、
    前記撮影画像から検出される特徴に基づいて物体または位置及び姿勢の予測値に対する補正値を算出することにより物体または撮像装置の位置と姿勢を算出する第二の位置姿勢算出工程とを備え、
    前記位置及び姿勢の予測値が得られない場合には第一の位置姿勢算出工程を、前記位置及び姿勢の予測値が得られる場合には第二の位置姿勢算出工程を選択する選択工程とを備えることを特徴とする情報処理方法。
  11. 物体または撮像装置に装着された傾斜角センサの傾斜角計測値を入力する傾斜角計測値の入力手段と、
    前記撮像装置から撮影画像を入力する画像の入力手段と、
    前記撮影画像から直線を検出する直線検出手段と、
    前記傾斜角計測値、前記検出された直線の撮影画像での方程式および該直線に対応する3次元空間中における直線の3次元空間中での方程式に基づき、前記傾斜角センサが装着された物体または撮像装置の位置と姿勢を算出する位置姿勢算出手段とを備えることを特徴とする情報処理装置。
  12. 物体または撮像装置に装着された傾斜角センサの傾斜角計測値を入力する傾斜角計測値の入力手段と、
    前記撮像装置から撮影画像を入力する画像の入力手段と、
    前記撮影画像から前記物体の直線を検出する直線検出手段と、
    前記検出された直線の夫々と、前記物体を表す線分モデルを構成する線分の夫々の方向ベクトルとが仮に対応するとみなして、夫々の組合せについて方位角を求めて投票することにより方位角候補値を算出する方位角候補値算出手段とを備えることを特徴とする情報処理装置。
  13. 物体または撮像装置の位置及び姿勢を計測する情報処理装置であって、
    物体または撮像装置に装着された傾斜角センサの傾斜角計測値を入力する傾斜角計測値の入力手段と、
    前記撮像装置から撮影画像を入力する画像の入力手段と、
    前記撮影画像から検出される直線と前記傾斜角センサの計測値に基づいて物体または撮像装置の位置と姿勢を算出する第一の位置姿勢算出手段と、
    前記撮影画像から検出される特徴に基づいて物体または位置及び姿勢の予測値に対する補正値を算出することにより物体または撮像装置の位置と姿勢を算出する第二の位置姿勢算出手段とを備え、
    前記位置及び姿勢の予測値が得られない場合には第一の位置姿勢算出手段を、前記位置及び姿勢の予測値が得られる場合には第二の位置姿勢算出手段を選択する選択工程とを備えることを特徴とする情報処理装置。
JP2007157609A 2007-06-14 2007-06-14 情報処理方法及び情報処理装置 Expired - Fee Related JP5058686B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007157609A JP5058686B2 (ja) 2007-06-14 2007-06-14 情報処理方法及び情報処理装置
EP08158246.2A EP2003617B1 (en) 2007-06-14 2008-06-13 Method and apparatus for measuring position and orientation of an object
US12/138,819 US8682106B2 (en) 2007-06-14 2008-06-13 Method and apparatus for measuring position and orientation of an object
CN2008101109222A CN101324433B (zh) 2007-06-14 2008-06-16 信息处理方法和信息处理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007157609A JP5058686B2 (ja) 2007-06-14 2007-06-14 情報処理方法及び情報処理装置

Publications (3)

Publication Number Publication Date
JP2008309631A true JP2008309631A (ja) 2008-12-25
JP2008309631A5 JP2008309631A5 (ja) 2010-07-01
JP5058686B2 JP5058686B2 (ja) 2012-10-24

Family

ID=39855325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007157609A Expired - Fee Related JP5058686B2 (ja) 2007-06-14 2007-06-14 情報処理方法及び情報処理装置

Country Status (4)

Country Link
US (1) US8682106B2 (ja)
EP (1) EP2003617B1 (ja)
JP (1) JP5058686B2 (ja)
CN (1) CN101324433B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011105616A1 (en) * 2010-02-26 2011-09-01 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium
JP2013221797A (ja) * 2012-04-13 2013-10-28 Canon Inc 計測装置、計測方法及びプログラム
JP2016225885A (ja) * 2015-06-01 2016-12-28 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、画像処理システム及びプログラム
CN107436679A (zh) * 2016-05-27 2017-12-05 富泰华工业(深圳)有限公司 手势控制系统及方法
US9930312B2 (en) 2013-05-13 2018-03-27 Samsung Electronics Co., Ltd. Apparatus and method of processing depth image using relative angle between image sensor and target object
JP2019149202A (ja) * 2013-01-03 2019-09-05 メタ ビュー,インコーポレイテッド エクストラミッシブ空間撮像デジタル眼鏡装置または拡張介在ビジョン

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8086026B2 (en) * 2008-06-27 2011-12-27 Waldean Schulz Method and system for the determination of object positions in a volume
US8467612B2 (en) * 2008-10-13 2013-06-18 Honeywell International Inc. System and methods for navigation using corresponding line features
JP5388932B2 (ja) * 2009-04-30 2014-01-15 キヤノン株式会社 情報処理装置およびその制御方法
JP5496008B2 (ja) * 2010-08-06 2014-05-21 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP5671281B2 (ja) * 2010-08-20 2015-02-18 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
CN103460249B (zh) * 2011-12-21 2016-08-17 松下知识产权经营株式会社 图像处理装置以及图像处理方法
US8837778B1 (en) 2012-06-01 2014-09-16 Rawles Llc Pose tracking
US9456187B1 (en) * 2012-06-01 2016-09-27 Amazon Technologies, Inc. Edge-based pose detection
US10528853B1 (en) 2012-06-29 2020-01-07 Amazon Technologies, Inc. Shape-Based Edge Detection
CN103565470B (zh) * 2012-08-07 2015-07-29 香港理工大学 基于三维虚拟图像的超声图像自动标注方法及系统
CN104378539B (zh) * 2014-11-28 2017-08-08 华中科技大学 场景自适应的视频结构化语义提取摄像机及其方法
JP6635690B2 (ja) * 2015-06-23 2020-01-29 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN105023294B (zh) * 2015-07-13 2018-01-19 中国传媒大学 结合传感器与Unity3D的定点移动增强现实方法
CN107865473B (zh) * 2016-09-26 2019-10-25 华硕电脑股份有限公司 人体特征测距装置及其测距方法
JP6880618B2 (ja) * 2016-09-26 2021-06-02 富士通株式会社 画像処理プログラム、画像処理装置、及び画像処理方法
US10582184B2 (en) * 2016-12-04 2020-03-03 Juyang Weng Instantaneous 180-degree 3D recording and playback systems
US10460469B2 (en) 2017-07-07 2019-10-29 GameFace Labs Inc. Systems and methods for position and pose determination and tracking
CN109949230A (zh) * 2017-12-20 2019-06-28 艾迪普(北京)文化科技股份有限公司 基于图像识别的广角摄像机畸变渲染方法
CN109032329B (zh) * 2018-05-31 2021-06-29 中国人民解放军军事科学院国防科技创新研究院 面向多人增强现实交互的空间一致性保持方法
JP7134016B2 (ja) * 2018-08-10 2022-09-09 キヤノン株式会社 情報処理装置、情報処理方法
US11138759B2 (en) * 2018-12-13 2021-10-05 Fujitsu Limited Image processing apparatus and image processing method
CN115359114B (zh) * 2022-08-16 2023-07-25 中建一局集团第五建筑有限公司 一种定位方法、装置、电子设备和计算机可读存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01133183A (ja) * 1987-11-18 1989-05-25 Toshiba Corp 移動体位置検出装置
JPH0591409A (ja) * 1991-05-13 1993-04-09 Sony Corp 画像変換装置
JPH0778258A (ja) * 1993-09-08 1995-03-20 Sumitomo Electric Ind Ltd 物体認識装置
JPH10334236A (ja) * 1997-06-02 1998-12-18 Nippon Telegr & Teleph Corp <Ntt> 線図形の認識方法
JPH1153555A (ja) * 1997-08-07 1999-02-26 Meidensha Corp 線分・円弧の抽出方法
JP2000088554A (ja) * 1998-09-08 2000-03-31 Nippon Telegr & Teleph Corp <Ntt> 物体の特徴点探索方法及びその処理プログラムを記録した記録媒体ならびに特徴点探索装置
JP2004108836A (ja) * 2002-09-13 2004-04-08 Sumitomo Denko Systems Kk 撮像装置の方位角計算方法及び装置、撮像装置の姿勢検出装置、撮像装置の傾きセンサ、コンピュータプログラム、並びに三次元モデル構成装置
JP2006292417A (ja) * 2005-04-06 2006-10-26 Canon Inc 位置姿勢計測方法及び装置
US20070081695A1 (en) * 2005-10-04 2007-04-12 Eric Foxlin Tracking objects with markers

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5528194A (en) * 1991-05-13 1996-06-18 Sony Corporation Apparatus and method for performing geometric transformations on an input image
US6327381B1 (en) * 1994-12-29 2001-12-04 Worldscape, Llc Image transformation and synthesis methods
KR100374509B1 (ko) * 2000-08-16 2003-03-04 한국과학기술원 선형 푸시브룸 영상에서 3차원 지상점의 2차원 영상 좌표값을 구하는 방법 및 기록매체

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01133183A (ja) * 1987-11-18 1989-05-25 Toshiba Corp 移動体位置検出装置
JPH0591409A (ja) * 1991-05-13 1993-04-09 Sony Corp 画像変換装置
JPH0778258A (ja) * 1993-09-08 1995-03-20 Sumitomo Electric Ind Ltd 物体認識装置
JPH10334236A (ja) * 1997-06-02 1998-12-18 Nippon Telegr & Teleph Corp <Ntt> 線図形の認識方法
JPH1153555A (ja) * 1997-08-07 1999-02-26 Meidensha Corp 線分・円弧の抽出方法
JP2000088554A (ja) * 1998-09-08 2000-03-31 Nippon Telegr & Teleph Corp <Ntt> 物体の特徴点探索方法及びその処理プログラムを記録した記録媒体ならびに特徴点探索装置
JP2004108836A (ja) * 2002-09-13 2004-04-08 Sumitomo Denko Systems Kk 撮像装置の方位角計算方法及び装置、撮像装置の姿勢検出装置、撮像装置の傾きセンサ、コンピュータプログラム、並びに三次元モデル構成装置
JP2006292417A (ja) * 2005-04-06 2006-10-26 Canon Inc 位置姿勢計測方法及び装置
US20070081695A1 (en) * 2005-10-04 2007-04-12 Eric Foxlin Tracking objects with markers

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011105616A1 (en) * 2010-02-26 2011-09-01 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium
JP2011179908A (ja) * 2010-02-26 2011-09-15 Canon Inc 3次元計測装置、その処理方法及びプログラム
US9355453B2 (en) 2010-02-26 2016-05-31 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium
JP2013221797A (ja) * 2012-04-13 2013-10-28 Canon Inc 計測装置、計測方法及びプログラム
JP2019149202A (ja) * 2013-01-03 2019-09-05 メタ ビュー,インコーポレイテッド エクストラミッシブ空間撮像デジタル眼鏡装置または拡張介在ビジョン
US11073916B2 (en) 2013-01-03 2021-07-27 Meta View, Inc. Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities
US11334171B2 (en) 2013-01-03 2022-05-17 Campfire 3D, Inc. Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities
US9930312B2 (en) 2013-05-13 2018-03-27 Samsung Electronics Co., Ltd. Apparatus and method of processing depth image using relative angle between image sensor and target object
JP2016225885A (ja) * 2015-06-01 2016-12-28 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、画像処理システム及びプログラム
CN107436679A (zh) * 2016-05-27 2017-12-05 富泰华工业(深圳)有限公司 手势控制系统及方法

Also Published As

Publication number Publication date
US20090022365A1 (en) 2009-01-22
JP5058686B2 (ja) 2012-10-24
EP2003617B1 (en) 2017-11-22
EP2003617A3 (en) 2012-01-18
CN101324433A (zh) 2008-12-17
US8682106B2 (en) 2014-03-25
CN101324433B (zh) 2010-12-08
EP2003617A2 (en) 2008-12-17

Similar Documents

Publication Publication Date Title
JP5058686B2 (ja) 情報処理方法及び情報処理装置
JP4532982B2 (ja) 配置情報推定方法および情報処理装置
JP5388932B2 (ja) 情報処理装置およびその制御方法
JP4739004B2 (ja) 情報処理装置及び情報処理方法
JP5036260B2 (ja) 位置姿勢算出方法及び装置
JP4593968B2 (ja) 位置姿勢計測方法および装置
JP4916167B2 (ja) 指標識別方法及び指標識別装置
JP4926817B2 (ja) 指標配置情報計測装置および方法
JP4976756B2 (ja) 情報処理方法および装置
US9787960B2 (en) Image processing apparatus, image processing system, image processing method, and computer program
JP4599184B2 (ja) 指標配置計測方法、指標配置計測装置
CN111627075B (zh) 基于aruco码的摄像头外参标定方法、系统、终端及介质
JP5196825B2 (ja) 画像処理装置、画像処理方法
JP2010134649A (ja) 情報処理装置、その処理方法及びプログラム
JP4898464B2 (ja) 情報処理装置および方法
JP2014026670A (ja) 情報処理装置、その処理方法及びプログラム
JP2005351886A (ja) 位置姿勢計測方法および情報処理装置
JP5726024B2 (ja) 情報処理方法および装置
JP6109213B2 (ja) 情報処理装置および方法、プログラム
JP4612804B2 (ja) 位置姿勢計測方法および情報処理装置
JP5465299B2 (ja) 情報処理装置、情報処理方法
JP2011071746A (ja) 映像出力装置及び映像出力方法
JP4810403B2 (ja) 情報処理装置、情報処理方法
JP2014215821A (ja) 情報処理装置、情報処理方法及びプログラム
Gava et al. A Unifying Structure from Motion Framework for Central Projection Cameras

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100518

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100518

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120528

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120801

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5058686

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees