JP2015518211A - 立体補正方法 - Google Patents

立体補正方法 Download PDF

Info

Publication number
JP2015518211A
JP2015518211A JP2015505707A JP2015505707A JP2015518211A JP 2015518211 A JP2015518211 A JP 2015518211A JP 2015505707 A JP2015505707 A JP 2015505707A JP 2015505707 A JP2015505707 A JP 2015505707A JP 2015518211 A JP2015518211 A JP 2015518211A
Authority
JP
Japan
Prior art keywords
image
epipole
camera
virtual
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015505707A
Other languages
English (en)
Other versions
JP5917767B2 (ja
Inventor
リチャーズ、チェット・エル.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Raytheon Co
Original Assignee
Raytheon Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Raytheon Co filed Critical Raytheon Co
Publication of JP2015518211A publication Critical patent/JP2015518211A/ja
Application granted granted Critical
Publication of JP5917767B2 publication Critical patent/JP5917767B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)

Abstract

画像のペアを立体補正する方法は、画像のペアにおける各画像について、画像をキャプチャするカメラの、第1のカメラ方位に関連付けられた画像面におけるエピポールの位置を決定することと、画像のペアにおける各画像について、カメラの第2のカメラ方位に関連付けられた仮想画像面の中心におけるエピポールを位置決めすることと、この位置決めの後、画像のペアのエピポールと交差する立体ベースラインの周囲に回転させることによって、画像のペアを互いに揃え、画像面の立体補正されたペアを取得できるように、立体ベースラインに実質的に平行な仮想画像面と、互いに実質的に平行な法線ベクトルとを位置決めするために、仮想画像面を回転することと、を含む。本発明の実施形態は、また、エピポールが知られていない場合に、エピポールを正確に決定するための方法およびシステムに関する。

Description

本開示は、画像処理システムおよび方法に関する。
立体映像では、シーンの3次元モデルが、実質的に同一の直線的な(すなわち、歪みのない)カメラによってある距離離されて撮影された2つの画像から再構築される。分離距離および方向は、立体ベースラインとして知られている。最も一般的なケースでは、立体ベースラインによって分離された1つの場所から別の場所へと単一のカメラを移動させることによって、異なる画像が生成される。
カメラが、露光中に移動するので、シーン内の物体は、互いに対して相対的な動きを示すだろう。この外見上の視差画像動きは、とりわけ、立体ベースラインからの物体の距離の関数である。視差に関し、実際の視差動きは、より遠く離れた物体がより小さくなることであろう。複数の物体に対するこれら実際の視差動きを測定することによって、自然なシーン内での3次元関係の再構築が可能である。
カメラが、その方向を変えることなく、第1の場所から第2の場所へ移動されると、外見上の視差動きは、良好に振る舞い続け、3次元シーン再構築は比較的容易である。しかしながら、カメラが、2つの位置の間で移動している場合に回転すると、視差動きは、図1に図示されるように、渦状のパターンによじれるようになりうる。第1の画像から第2の画像への特徴の外見上の動きは、図1における「流線」として図示される。3次元再構築は、この状況では非常に困難になりえる。
実際、カメラ・パン、チルト、および回転角度は、像への、結合されたインパクトを有する。例えば、カメラ・パンおよびチルトは、回転をエミュレートする画像回転をもたらすだろう。これらの結合は、一般に、解決することが困難である。図1は、これら回転結合効果のみならず、通常の3次元空間におけるカメラの移動の効果をも図示する。
すべて合わせると、2つのカメラ位置体系について、9つの自由度、すなわち、各カメラ位置のパン、チルト、および回転と、x、y、z相対カメラ移動がある。多くのケースでは、カメラが移動した距離は知られていない。さらに、水平方向に関してのカメラの結合されたチルトも知られていないかもしれない。したがって、立体画像形成の間に発見されうる6乃至9の自由度が存在しうる。
シーンの画像の任意のペアから3次元情報を抽出するための既存の方法は、初期カメラ・ポーズ(パン、チルト、回転、およびx、y、z位置)は知られていないが、画像化から抽出されうると仮定する。これら既存の方法は、一般に、Essential Matrixの構築および改善に基づく。これは、立体ベースラインの方向と、立体ベースラインに対するカメラの相対方位とを決定するために使用されうる。相対的なカメラ方位は、カメラ姿勢として定義される。Essential Matrixは、画像のペアから立体モデルを生成するための最も有用な数学的ツールのうちの1つである。
しかしながら、これら既存の方法は、一般に、大規模な非リアルタイムの計算を要し、しばしば不満足な結果を生む。さらに、これらの方法は、ビデオ画像ストリームから、高精度かつ十分に自動化されたリアルタイムの3次元モデルを生成するためには十分ではない。
1つの実施形態では、画像のペアを立体補正するための方法が提供される。この方法は、画像のペアにおける各画像について、画像をキャプチャするカメラの、第1のカメラ方位に関連付けられた画像面におけるエピポールの位置を決定することと、画像のペアにおける各画像について、カメラの第2のカメラ方位に関連付けられた仮想画像面の中心におけるエピポールを位置決めすることと、この位置決めの後、画像のペアのエピポールと交差する立体ベースラインの周囲に、画像のペアを互いに揃え、画像面の立体補正されたペアを取得できるように、立体ベースラインに実質的に平行な仮想画像面と、互いに実質的に平行な法線ベクトルとを位置決めするために、仮想画像面を回転することと、を備える。
別の実施形態では、画像のペアを立体補正するための方法を実行するためのマシン実行可能な命令群を用いてエンコードされた物理的な非一時的なコンピュータ読取可能な媒体を備える製造物品が提供される。この方法は、画像のペアにおける各画像について、画像をキャプチャするカメラの、第1のカメラ方位に関連付けられた画像面におけるエピポールの位置を決定することと、画像のペアにおける各画像について、カメラの第2のカメラ方位に関連付けられた仮想画像面の中心におけるエピポールを位置決めすることと、この位置決めの後、画像のペアのエピポールと交差する立体ベースラインの周囲に、画像のペアを互いに揃え、画像面の立体補正されたペアを取得できるように、立体ベースラインに実質的に平行な仮想画像面と、互いに実質的に平行な法線ベクトルとを位置決めするために、仮想画像面を回転することと、を備える。
さらに別の実施形態では、画像のペアにおける各画像について、画像をキャプチャするカメラの、第1のカメラ方位に関連付けられた画像面におけるエピポールの位置を決定することによって、画像のペアを立体補正することと、画像のペアにおける各画像について、カメラの第2のカメラ方位に関連付けられた仮想画像面の中心におけるエピポールを位置決めすることと、この位置決めの後、画像のペアのエピポールと交差する立体ベースラインの周囲に、画像のペアを互いに揃え、画像面の立体補正されたペアを取得できるように、立体ベースラインに実質的に平行な仮想画像面と、互いに実質的に平行な法線ベクトルとを位置決めするために、仮想画像面を回転し、画像のペアの各画像について、画像全体を、立体補正された画像面へマップするために、この画像に対して、1または複数のホモグラフィック変換を実行することと、を備える画像のペアを処理するための方法が提供される。
本開示のこれらおよびその他の実施形態、機能、および特徴のみならず、構成の関連要素および部品の組み合わせの機能および動作の方法は、以下の説明および特許請求の範囲が、これらすべてが本明細書の一部を形成する添付図面を参照して考慮されると、より明白になるだろう。添付図面では、同一の参照番号が、さまざまな図面における対応する部分を指定する。これら図面は、例示および説明のみの目的のために提供されており、本開示の限定ではないことが明確に理解されるべきである。さらに、本明細書の何れか1つの実施形態に記載または図示された構成的な機能が、その他の実施形態においても同様に使用されうることが認識されるべきである。しかしながら、これら図面は、例示および説明のみの目的のためであり、本開示の限定の定義として意図されていないことが明確に理解されるべきである。明細書および特許請求の範囲で使用されているように、単数形は、コンテキストが明確に述べていないのであれば、複数要素を含む。
図1は、シーンの第1の画像から第2の画像への流線または特徴の外見上の動きを示す。 図2は、2つの異なる位置における移動中のカメラ、または、2つの任意に向けられたカメラの幾何学的な関係を示す。 図3は、2つの異なる位置における移動中のカメラ、または、2つの任意に向けられたカメラの幾何学的な関係を示す。 図4は、実施形態にしたがって、画像のペアを立体補正するための方法を示す。 図5aは、図4にしたがって実行されるさまざまな変換を示す。 図5bは、図4にしたがって実行されるさまざまな変換を示す。 図5cは、図4にしたがって実行されるさまざまな変換を示す。 図5dは、図4にしたがって実行されるさまざまな変換を示す。 図6aは、図4にしたがって実行される画像回転を示す。 図6bは、図4にしたがって実行される画像回転を示す。 図7aは、図4にしたがって実行される画像回転を示す。 図7bは、図4にしたがって実行される画像回転を示す。 図8は、実施形態にしたがってエピポールを発見するために使用されるべきメリット関数を決定するための方法を示す。 図9aは、図8にしたがって実行されるさまざまな変換を示す。 図9bは、図8にしたがって実行されるさまざまな変換を示す。 図9cは、図8にしたがって実行されるさまざまな変換を示す。 図9dは、図8にしたがって実行されるさまざまな変換を示す。 図10は、1つの実施形態にしたがって勾配降下を実行するための方法を示す。 図11は、実施形態にしたがう図10の勾配降下を例示する。 図12aは、図10の方法を適用することによって、優れた立体補正への迅速な収束が、20のフィーチャの集合によってどのようにして得られうるのかを例示する実験結果を示す。 図12bは、図10の方法を適用することによって、優れた立体補正への迅速な収束が、20のフィーチャの集合によってどのようにして得られうるのかを例示する実験結果を示す。 図12cは、図10の方法を適用することによって、優れた立体補正への迅速な収束が、20のフィーチャの集合によってどのようにして得られうるのかを例示する実験結果を示す。 図12dは、図10の方法を適用することによって、優れた立体補正への迅速な収束が、20のフィーチャの集合によってどのようにして得られうるのかを例示する実験結果を示す。 図12eは、図10の方法を適用することによって、優れた立体補正への迅速な収束が、20のフィーチャの集合によってどのようにして得られうるのかを例示する実験結果を示す。 図12fは、図10の方法を適用することによって、優れた立体補正への迅速な収束が、20のフィーチャの集合によってどのようにして得られうるのかを例示する実験結果を示す。 図12gは、図10の方法を適用することによって、優れた立体補正への迅速な収束が、20のフィーチャの集合によってどのようにして得られうるのかを例示する実験結果を示す。 図12hは、図10の方法を適用することによって、優れた立体補正への迅速な収束が、20のフィーチャの集合によってどのようにして得られうるのかを例示する実験結果を示す。 図12iは、図10の方法を適用することによって、優れた立体補正への迅速な収束が、20のフィーチャの集合によってどのようにして得られうるのかを例示する実験結果を示す。 図13は、1つの実施形態にしたがって画像を処理するためのシステムを図示する。
1または複数の実施形態にしたがって、画像のペアを立体補正するための方法が提供される。この方法は、画像のペアにおける各画像について、画像をキャプチャするカメラの、第1のカメラ方位に関連付けられた画像面におけるエピポールの位置を決定することと、画像のペアにおける各画像について、カメラの第2のカメラ方位に関連付けられた仮想画像面の中心におけるエピポールを位置決めすることと、この位置決めの後、画像のペアのエピポールと交差する立体ベースラインの周囲に、画像のペアを互いに揃え、画像面の立体補正されたペアを取得できるように、立体ベースラインに実質的に平行な仮想画像面と、互いに実質的に平行な法線ベクトルとを位置決めするために、仮想画像面を回転することと、を備える。
図2は、カメラが、2つの異なる位置において、シーン内の1つの物体をどのようにして見ているかを示している。カメラは、左の位置から、右の位置へ(あるいはその逆に)に移動される。カメラは、これら2つの位置において、外部にあるポイントWを観察している。これは、カメラから外側へ向かうある遠方にある。本議論はまた、単一の移動中のカメラの代わりに、物体Wを見る2またはそれ以上の別のカメラにも適用可能であることが認識されるだろう。
カメラは、カメラ中心および画像面によって定義される。図2は、右カメラ中心RCC、左カメラ中心LCC、右画像面RIP、および左画像面LIPを示す。本物のカメラでは、実際のカメラ中心は、レンズの節点であり、焦点面(または実際の画像面)の正面にある。この結果、倒立像が焦点面に投影される。便宜上、カメラ中心(つまり、レンズ節点)は、任意に定義された画像面の後ろのポイントであると定義される。この結果、直立した画像となる。
カメラは、カメラ中心に中心付けられた(カメラに結び付けられた)ローカルx,y,z座標系を有する。このローカル座標系では、ベクトルzがある。これは、カメラ中心から画像面の中心への主ベクトルである。このzベクトルは、画像面に対して垂直であり、画像中心点cにおいて、画像面に接する。カメラ中心から画像面への距離fは、カメラの焦点距離である。このローカル座標系では、x軸およびy軸は、画像面に平行である。慣例的に、y軸は、垂直方向にある。
図2はさらに、立体ベースラインを示す。これは、2つのカメラ中心を連結する線である。1つの実施形態において、2つのカメラ位置から3次元シーンを再構築することを可能にするのはこの軸である。この軸はさらに、距離測定のための測定ベースラインでもある。立体ベースラインが、右画像面および左画像面を貫通するポイントは、右エピポールおよび左エピポール(eおよびe)と呼ばれる。
2つのカメラは、共通のワールド・ポイントWを観察している。このポイントは、2つのカメラ中心とともに、共通面CPと称される面を規定する。ベースラインは2つのカメラ中心にも連結しているので、立体ベースラインSBは、この面CP内にある。この共通面には、無限数のポイントが存在することが認識されるだろう。これらのポイントのうちの任意の2つが、画像面における線の終端を形成するだろう。
図2に見られうるように、カメラ中心から共通ポイントWまでの線は、ポイントpにおいて画像面を通過する。左画像のポイントpと、右画像のポイントpとがあるだろう。
何れかに一方にあるカメラによって見られる、ポイントWにおけるシーン物体は、カメラ中心に対するベクトル座標XWL,YWL,ZWLまたはXWR,YWR,ZWRを有する。単一のカメラ位置から、物体Wがカメラ中心からどれだけ遠く離れているのかを決定することは可能ではない。この方向は知られているかもれないが、距離は知られていない。カメラの方位に関する方向は、画像面におけるWの画像の位置から知られる。カメラ中心とWとの間の線は、ベクトル位置x,y,fにおいて画像面と交差する。したがって、この物体の画像位置は、ベクトルp=[x,y,f]によって定義されうる。カメラの焦点距離は、ユニティ:f=1に調節されうる。再スケーリングは、すべてのベクトル成分がfで除されてなる結果である。多くの場合、焦点距離は知られていないが、さまざまな物体位置に対する角度は測定されうるので、これはリーズナブルな再スケーリングである。したがって、Wの抽象的な画像は、[x,y,f]によって定義される。ここで、焦点距離は、画像ベクトルの一部として保持される。
一般に、観察された遠方場には、多くのワールド・ポイントW,W,Wが存在するだろう。これらのポイントの各々は、共通面を有し、これら共通面のおのおのは、立体ベースラインと交差するだろう。その結果、これらの面は、立体ベースラインから外に放射している。図3は、一般的な構成を例示する。放射面の集合は、面のペンシルと称され、これら面の各々は、ペンシル面と称される。図3に見られるように、カメラ中心から共通ポイントW,W,Wへの線は、右カメラおよび左カメラについて、p,p,pにおいて画像面を通過する。
遠方場における物体またはフィーチャW,W,Wは、光線によってカメラ中心に接続される。これらフィーチャの画像は、これら光線がポイントp,p,pにおいて画像面を通過するところで発生する。各遠方フィーチャは、三角形の1つの角であり、その他の角は、カメラ中心である。そのような三角形は、立体ベースラインSBを通過する拡張面の一部である。このフィーチャ面が画像面を通過するところでは、この交差は、エピポールELとして定義される。各面およびフィーチャは、エピポールから放射する対応するエピポール線ELを有する。特に、図3に示されるように、エピポール線ELは、エピポールe,eから放射する。ここでは、立体ベースラインSBが、画像面RIP,LIPを貫通する。これら放射しているエピポール線は、一種の線の「スター」または扇形を構成する。エピポール・スターは、ペンシル面の画像面との交差に対応する。複数のカメラが互いに向かい合っている場合、画像面が平行になるように、右カメラおよび左カメラにおけるエピポール・スターは、互いのミラー画像であることが認識されるだろう。
図2および図3の相対的なカメラ配置は、大まかに互いに向けられたカメラを有する。この相対方位は、エピポールが、画像内に適切に位置されるであろうことを保証する。しかしながら、その他の状況では、これらカメラが広がり、互いに幾分離れて向くことが認識されるだろう。このケースでは、立体ベースラインSBは、画像面と交差する前に、カメラ中心を通過する。したがって、エピポールは、画像の反対側に移動する。
別のケースでは、これらカメラは両方とも、立体ベースラインSBに対して垂直を向きうる。このケースでは、エピポールは、無限にあり、もはや有限のエピポールを定義することは不可能である。これらカメラが平行している限り、すなわち、立体補正されたとして定義された条件である限り、種々のオブジェクトに対する相対距離が、相対的な視差動きによって決定されうる。しかしながら、これらカメラが相対的なチルトを有している(これらカメラが、立体ベースラインの周囲を異なる角度で回転し、もはや互いに平行ではない)のであれば、画像モニタは混乱する。立体補正されたカメラ位置に対する補正がないと、距離測定は困難になる。
立体補正は、これらカメラを、立体ベースラインSBに対して垂直に、かつ、互いに平行になるように揃えることを含む。これがなされた場合、左カメラにおけるすべてのフィーチャが、平行で水平な線に沿って移動し、右カメラにおける位置に達する。エピポールe,eは、両カメラ内に無限にあるだろう。実際、これらカメラ(または、移動中の単一のカメラ)は一般に、画像が形成された場合、立体補正された位置にはないだろう。したがって、立体補正された画像の所望のペアを生成するために、オリジナル画像の仮想的、またはホモグラフィックなマッピングが実行されねばならない。
図4に示すように、この図は、画像のペアを立体補正するための方法400を図示する。
動作410に示すように、(2つの異なるカメラ位置または2つの異なるカメラによって撮影された)画像のペアの各画像について、カメラの画像面におけるエピポールの位置または場所が決定される。
カメラの第1またはオリジナルの方位/姿勢のためのエピポールの位置が決定される。画像面におけるエピポールの位置は、立体ベースラインが、カメラ中心から外れると、立体ベースラインの方向を与える。エピポールの場所を決定する複数の方法がある。1つの実施形態では、エピポール位置を決定するために、Essential MatrixのさらなるSingular Value Decomposition(単一値分解)が使用されうる。別の実施形態では、カメラが1つの場所から別の場所へ移動した場合におけるカメラ姿勢における変化を測定するための現実的なエンジニアリング代替は、慣性計測装置(IMU:Inertial Measurement Unit)を用いることである。
左画像および右画像におけるエピポール位置が決定されると、カメラ中心から立体ベースラインに下るベクトル方向が決定される。(画像面における)このベクトルは、幾何学的な基準として使用され、この立体ベースライン・ベクトルに関してさらなる動作が実行される。両画像についてすべての動作が繰り返される。
動作420では、エピポールが、各画像の仮想面の中心にある。これは、カメラの実際の姿勢または方位(第1の方位)から、立体ベースラインに沿った仮想的な姿勢(または、第2の方位)への仮想的なカメラ回転のシーケンスを実行することによってなされうる。
1つの実施形態では、図5a−bにそれぞれ示されるように、ホモグラフィック画像回転が、右画像および左画像において実行される。これら回転は、y軸にエピポールを配置させるための、y軸の周りの角度ガンマ(γおよびγ)までの各カメラの仮想的な回転に等価である。
左画像については、図5aに定義されるように、時計回りに角度γ回転される。この回転は、ローカル座標系を含んでいる。これは、遠近変換(または、ホモグラフィ)である。1つの実施形態では、回転される成分が、スケール・ファクタを用いて規格化される。一般的な式は、
である。ここで、(xo,yo,f)は、画像ポイントのオリジナルの座標であり、(xl,yl,f)は、回転後の画像ポイントの座標であり、γは、回転角度を表わす。
これは、以下のスケール・ファクタを用いて達成されうる。
ここで、(x1,y1,f)は、画像ポイントの座標であり、(x2,y2,f)は、回転後の画像ポイントの座標であり、γは、回転角度を表わす。
右画像の状況は図5bに例示されている。
(ローカル座標系を含む)画像回転は、新たなy軸上にエピポールを生成するために、反時計回りである。右画像の各ピクセル要素の規格化された回転行列は、
である。ここで、(xl,yl,f)は、画像ポイントの座標であり、(x2,y2,f)は、回転後の画像ポイントの座標であり、γは、回転角度を表わす。
これらの回転の、上面図が図5cに例示されている。
図5a−cに図示される回転を実行した後、各カメラは、そのエピポールをカメラ中心に置くために、ローカルx軸に関して回転される。これは図5dに図示される。したがって、次の回転後、画像面は、立体ベースラインに対して垂直になるであろう。
左画像について、(規格化後の)画像ポイントの座標は、
である。ここで、(x1,y1,f)は、画像ポイントの座標であり、(x2,y2,f)は、回転後の画像ポイントの座標であり、πは、回転角度を表わす。
右画像について、画像ポイントの座標は、
である。ここで、(x1,y1,f)は、画像ポイントの座標であり、(x2,y2,f)は、回転後の画像ポイントの座標であり、πは、回転角度を表わす。
この動作は、カメラまたは画像面の両方が、互いに関して制御された方位を有することを保証する。その後の動作では、カメラは、互いに面するのではなく、互いに平行になるように方位付けられるだろう。
これらの回転の効果は、2つの画像面の中心にエピポールを移動させることであろう。
先行するシーケンスは、先ず、y軸に沿って回転させ、次に、x軸に沿って回転させ、エピポールを、カメラの画像中心に置くことである。別の実施形態では、先ず、画像面をx軸に沿って回転させ、次に、y軸に沿って回転させることが考えられる。たとえこれらの回転行列が置換可能ではなくても、最終結果は同じである。その理由は、エピポールがニュートラル位置、すなわち、カメラ画像中心に置かれるからである。
図4に戻って示すように、この方法は、画像のペアが、立体ベースラインの周囲に互いに揃えられる動作430に進む。
ここまでは、仮想的なカメラ回転が、相対的なカメラ回転およびパン角度を部分的に緩和した。これら補正は両方とも、画像面RIP,LIPにおけるエピポール位置によって表されるように、立体ベースラインSBに関してなされている。しかしながら、1つのカップリング・ファクタがまだ残る。このポイントにおいて仮想カメラが対面するが、仮想カメラは、1つのカメラのx軸およびy軸が、相手カメラのx軸およびy軸に一致するような方向に向けられていない。これは、1つのカメラの、他のカメラに対する相対的な回転角度となる。この相対的な回転を補正するために、1つの実施形態では、外部エージェントが使用される。そのような外部エージェントは、観察空間外の任意の実際の物体でありうる。
具体的には、この残りの相対的な回転を補正するために、左および右の両方における仮想画像において共通の基準物体が選択され、物体の画像が両仮想カメラのx軸に位置するまで、仮想カメラが立体ベースラインの周りを回転される。前の動作にしたがって仮想カメラを回転させるプロセスでは、カメラ・チルトが、立体ベースラインSBの周囲のカメラ回転に自動的に変換される。立体ベースラインSBは、方位付けられた各仮想カメラのローカルx軸に沿って位置する。したがって、各カメラのx軸に同じ物体を置くことによって、これらカメラは、x軸立体ベースラインの周りの回転に揃えられるだろう。
1つの実施形態では、選択された物体は、最も遠いものである。遠近法的な配置の性質によって、この物体はまた、実際の水平に最も近いものになる可能性が高い。この物体がx軸に位置するように仮想カメラ(または仮想画像)を回転させることによって、このカメラは、少なくともほぼ実際の水平を指すだろう。
1つの実施形態では、左カメラのエピポール・スターが、右カメラのエピポール・スターに一致する(ミラー画像になる)ように向けられる。左カメラのための開始状況が、図6aによって例示される。物体Aが、基準物体として任意に選択される。
この画像は、半径RALにおける物体が、x軸に位置するように回転される。この回転後、左画像は図6bのようになるだろう。
ALのx成分は、この左画像ではネガティブであることが認識されるだろう。RALのy軸成分はゼロである。
ローカルz軸の周りに回転が実行されたので、回転行列を再スケールする必要はない。したがって、この回転は、以下の形態をとる。
ここで、(x3,y3,f)は、画像ポイントの座標であり、(x4、y4、f)は、回転後の画像ポイントの座標である。φは、回転角度を表わす。
右カメラのためにも、同じ手続に従う。右カメラ画像は、図7aのように始まる。我々は、我々の方位基準として、同じ遠方の物体を採用し、次に、この物体がx軸に位置するまでスター画像を回転させる。図7bは、回転後の右画像を表わす。
図7aおよび7bと、図6aおよび6bとの比較は、対応するポイントのパターンが同一ではないことを示す。なぜなら、シーン内のさまざまな物体は、実際に、左および右のローカル座標系において異なるx,y,z座標を有するからである。したがって、これらは、左および右の仮想カメラの画像面に異なって映る。しかしながら、さまざまなポイントへの線の間の角度は、左カメラと右カメラについて同じであろう。これは、カメラが立体ベースラインに沿って向いていることを保証する際に非常に役に立つ。さらに、これは、エピポールの位置の推定において、残りの誤差を補正するために使用されうる。
右手の仮想カメラの回転の回転行列は、
である。ここで、(x3,y3,f)は、画像ポイントの座標であり、(x4,y4,f)は、回転後の画像ポイントの座標である。φは、回転角度を表わす。
図4に戻って示すように、この方法は、動作440に進む。ここでは、各画像の立体補正された画像面を得るために、仮想画像面を立体ベースラインに実質的に平行な仮想画像面に位置させ、さらに、これらの法線ベクトルを互いに実質的に平行に位置させるように、仮想画像面が回転される。
特に、仮想カメラを揃えた後、これら仮想カメラは、カメラを立体補正するために、ローカルy軸の回りを90°回転されうる。これを行う行列は以下の通りである。
左カメラについては、仮想回転は次の通りである。
ここで、(x5,y5,f)は、画像ポイントの座標であり、(x4,y4,f)は、回転後の画像ポイントの座標である。
右カメラについては、仮想回転は次の通りである。
ここで、(x5,y5,f)は、画像ポイントの座標であり、(x4,y4,f)は、回転後の画像ポイントの座標である。
動作410−440の実行後、カメラ姿勢は、立体補正されるだろう。方法400に図示される画像再マッピングおよび回転のシーケンスは、パン、チルト、回転角度効果間の結合を自動的に解放する。
図4の変換は、画像全体においてではなく、フィーチャ・ポイントにおいて行われることが認識されるだろう。すべての中間的な変換が完全に定義された後にのみ、画像自体に適用された合成変換が得られる。このアプローチによって、計算量が大きく省かれる。
具体的には、1つの実施形態では、オリジナルの画像全体を、立体補正された画像面へマップするためのホモグラフィックな行列変換は、以下のように導出されうる。左および右の仮想カメラについて、適切な行列が、先のシーケンスに乗じられうる。式(10)は、右カメラのこれら行列乗算を示す。この結果、ホモグラフィ行列[A]が得られる。同様の行列カスケードが、左カメラについて構築されうる。結果として得られる[A]行列は、通常、例えば、openCVおよびMatlabのような標準的なソフトウェア・ルーチンを用いてHomomorphic変形のために規定される。
あるいは、カスタム・ソフトウェア・ルーチンが構築されるべきであれば、各画像ポイントのために[A]行列を規格化するためのスケール・ファクタが必要とされる。規格化された行列は、式(11)において[B]として示される。規格化は、さまざまな規格化係数を乗じることによって計算されうる。あるいは、規格化は、最後に行われ、カメラ焦点距離が、各ピクセルについてz軸によって分割される。これら行列乗算の結果、1つは左画像のためのものであり、別の1つは右画像のためのものである2つの包括的な規格化されたホモグラフィ行列を生成することになるだろう。これらホモグラフィ行列は、所望の立体補正画像を生成するために、標準的なルーチンを用いて適用される。
規格化スケール・ファクタは、オリジナル画像における各x,y位置で変動することが認識されるだろう。したがって、第1の画像面を第2の画像面にマップする際に、非線形マッピング変換が実行される。
前述された実施形態は、オリジナルのカメラ姿勢または方位が知られており、画像面におけるエピポールの位置も知られていると仮定している。しかしながら、姿勢およびエピポール位置は知れられていないことがありうることが認識されるだろう。
実施形態によれば、エピポール、したがって、カメラ姿勢を決定するための方法が提供される。この方法は、特定のメリット関数の急勾配降下軌道を計算することを含む。メリット関数が、現実的な最小値に達した場合、エピポールの位置が知られ、画像ノイズおよびその他の摂動の存在下で決定されうる。この方法を用いて、所望の立体補正行列の生成が、自動的になされる。さらに、この方法は、計算が著しく速い。
1つの実施形態では、メリット関数は、2つの成分を有する。これらは、ともに加えられる。第1は、左カメラおよび右カメラのための角度ベクトルの比較である。第2は、機能フロー・ベクトルの傾きを計算することによって、立体補正を達成する際における成功の尺度である。
メリット関数は、仮想カメラが実際のエピポールと揃えられた場合にゼロになるであろう。
前述したように、エピポール線は、エピポールから発する線のスターまたは扇形を形成しうる。エピポールが各画像の中心になるように左カメラおよび右カメラが互いに面する場合、エピポール・スターは、互いのミラー画像となるだろう。これは、1つのそのようなスターが、相手スターに関して幾らか回転していても事実である。前述したように、特定の共通のフィーチャを取り、そのフィーチャをx軸に配置することによって、共通の回転位置にスターを逆回転することが可能である。
1つの実施形態では、エピポールの位置が正確に知られていない場合であっても、同じプロセスの角度調整が用いられる。推定されたエピポールにカメラを向けることを試みる際に、ポインティング誤差があるだろう。この状況では、左のエピポール・スターは、右のエピポール・スターのミラー画像にはならないだろう。
しかしながら、これらのエピポール・スターは、メリット関数の2つの成分のうちの1つを生成するために使用されうる。これは、図8に示される方法にしたがう1つの実施形態でなされる。
図8の方法に示されるシーケンスでは、画像は実際に、左カメラから右カメラへと関連付けられた物体フィーチャの位置のパターンである。これらカメラによって生成された実際の画像は、図8のシーケンスによって変換されないことが認識されるだろう。
図8の動作810では、エピポールの推定位置が、画像中心(x=0,y=0)へと移動される。これは図9aによって例示される。
図8の動作815では、共通の物体フィーチャが基準フィーチャとして選択される。さらに、このフィーチャがz軸上にあるように、これら画像が回転される。図9bは、この回転後の構成を示す。
図8の動作820では、角度ベクトルが左エピポール・スターについて生成され、同様の角度ベクトルが、右エピポール・スターについて生成される。1つの実施形態では、これらベクトルを生成する方法は以下の通りである。先ず、選択されたフィーチャがx軸に移動されるように、エピポール・スターが回転され、エピポール線とx軸との間のすべての角度が測定される。このベクトルは、ベクトルの成分が以下の角度になるように生成される。Aright={θR1,θR2,θR3,θR4,θR5...}。この状況は、図9cによって例示される。フィーチャおよびそれらの角度の順序は、右エピポール・スターと左エピポール・スターとで同じであることを考慮すると、この順序は任意であることが認識されるだろう。Aleft={θL1,θL2,θL3,θL4,θL5...}。この順序は、適切に相関付けられるべき結果として得られたベクトルについて同じでなければならない。
実験は、完全に順序付けられた角度でなされた。これら実験は、これらフィーチャおよび対応する角度の任意の順序と比較された場合、パフォーマンス向上を示さない。第3のフィーチャはx軸に移動されているので、この例のフィーチャの角度は、θR3=0およびθL3=0になることが認識されるだろう。
動作825では、これらの2つの角度ベクトル間の角度が決定される。これは、以下のように、右角度ベクトルを左角度ベクトルと相関させることによってなされうる。
式(12)において、ccは、右角度ベクトルと左角度ベクトルとの間の相関角度のコサインを表わす。
その後、動作830では、
にしたがってアーク・コサインを取ることによって、これらベクトル間の相関角度が得られる。
動作835では、この式における相関角度が、メリット関数の第1の部分として提供される。
メリット関数の第2の部分は、さまざまなフィーチャ流れベクトルが水平にどれくらい近いかを示す尺度である。これらが完全に水平である場合、完全な立体補正が達成されるだろう。
動作840では、フィーチャの画像を、立体補正された仮想カメラ位置の近傍へ回転させるために式(8)および(9)が用いられる。
動作845では、フィーチャ流れベクトルのおのおのの傾きが計算される。
動作850では、これら傾きの平方2乗和(RSS)が計算される。
動作855では、式の角度ベクトル間の角度にRSSが加えられる。
式(14)は、エピポールの実際の場所の反復的な決定と、フル画像の立体補正のために必要なホモグラフィ行列のその後の進展とのために所望されるメリット関数を与える。
1つの実施形態では、立体補正を達成するために、エピポール位置のシステムの推定値が、正しいエピポール位置に向かって漸進的に移動される。図9dは、システムが、現在推定された正しくないエピポール位置から、実際のエピポールを持つ所望の適切なアライメントへ移動した場合における、エピポール・スターにおける変化を示す。
見られるように、実際のエピポールと揃えられた後、エピポール・スターのエピポール線は、ミラー・イメージの同一となる。しかしながら、このフィーチャの位置は、右画像および左画像において、エピポール線に沿って異なる径方向距離にあるであろう。
式(14)のメリット関数は、4次元空間における表面を形成する。この4次元空間のパラメータは、左カメラおよび右カメラのエピポール位置のx誤差およびy誤差である。仮想カメラが、それぞれのエピポールに完全に揃っている場合、メリット関数は、ゼロの値を有するだろう。したがって、立体アライメント・タスクは、このメリット関数の最小値を見つけることである。
メリット関数の最小値は、社会によく知られているさまざまな方法(例えば、ニュートン方法)において決定されうる。1つの実施形態では、これは、4空間メリット関数面の4次元勾配下降を実行することによってなされる。収束させるために、勾配下降技法について、4つすべてのxパラメータおよびyパラメータが、同時に調節されねばならない
ことが認識されるだろう。
1つの実施形態では、メリット関数は、4つのベクトルとして定義される。
次に、勾配Mが、以下のように計算される。
定義(15)によれば、Mは、デカルト空間にある。したがって、xleft,yleft,xright、およびyrightにおいて分離可能である。したがって、勾配は、容易に計算されうる。図10に図示される以下のフローチャートは、1つの実施形態にしたがう勾配下降方法を示す。
図10のフロー図における動作の後、この方法は、初期化1001で始まる。動作1001では、勾配下降測定のためのパラメータが確立される。ΔxおよびΔyは、エピポール位置の現在の推定値からの小さなオフセットである。これらは、式(16)にしたがってメリット関数の勾配を決定するために用いられる。Δsは、メリット関数の勾配のステップ・ダウンである。それは、エピポール位置の推定値を、実際のエピポール位置のより近くに移動させる。エピポールの新たな推定値は、以下の(17)の通りである。
この方法は、動作1002に進む。ここでは、エピポールの初期推定位置(左および右)の基準メリット関数Mが計算される。前述したように、この計算は、以下のシーケンスを含んでいる。(i)推定されたエピポール位置を、画像面の中心へもたらすフィーチャ画像の仮想回転、(ii)選択された共通のフィーチャを相互に揃えるための、中心の周りの回転、(iii)成分がエピポール線の角度であるベクトル間の角度の計算、(iv)立体補正された仮想カメラ位置の現在の最良の推定値をもたらすための仮想フィーチャ画像の90°回転、(v)フィーチャ動き流線の傾きの平方2乗和(RSS)の取得、(vi)開始メリット関数の計算。
動作1003,1004,1005では、メリット関数の勾配が計算される。この手順は、左および右の仮想カメラを、シーケンスで、現在のエピポール位置から小さな距離離れたΔxおよびΔy移動させるためになされる。このような小さな変位を用いて、メリット関数が再度測定される。このシーケンシャルな測定プロセスは、メリット関数の4次元勾配の4つの異なる成分を与えるだろう。
動作1006は、4次元メリット関数面に沿ってどのように移動するのかを示している。
ボックス内の式は、前述した式(17)と同じである。たとえδsが一定であっても、表面に沿って移動する距離は、メリット関数の勾配が変化すると変わる。この表面は、放物面に似ていると仮定される。これはリーズナブルである。なぜなら、仮想カメラが実際のエピポール・アライメントに近くなると、メリット関数がゼロにスムーズに変化することが期待されるからである。その後、メリット関数の表面の最後に近づくと、勾配は、小さくなり、各反復で移動する距離が、比例的に小さくなる。最後には、表面は、ほとんど平坦になり、勾配は、ほとんどゼロになると予想される。その後、ステップは、極端に小さくなり、さらなる進展は、漸進的に、より多くの反復を採用する。
動作1007では、反復するプロセスの次のフェーズが開始される。システムは、実際のエピポールに向かって短い距離移動する。新たな基準メリット関数が計算される。これは、前の基準メリット関数と比較される。
動作1008は、この比較を行い、動作の2つのコースのうちのどちらかを決定する。新たなメリット関数が古いメリット関数よりも大きいのであれば、システムは、動作1010に進む。この関数が前よりも小さいのであれば、システムは動作1009に進む。
動作1009は、2つのテストを並列的に行なう。第1のテストは、メリット関数が、ある指定された最小値より低くなったかを確認するためのチェックを行う。低くなっているのであれば、システムは、実際のエピポールに許容可能に収束したと言われる。その後、システムは、動作1012に進み、エピポールを求める反復的な探索から出る。あるいは、計算が終了を強制されうるように、最大数の反復を設定することも適切である。この最大数が超過されても、システムは、反復ループから出る。これによって、エピポール位置の現在推定値を、リーズナブルな計算時間で達成されうる最良のものとして受け取る。
これら終了条件の何れも満たされないのであれば、システムは、動作1011のように、次の反復に進む。これを行う際に、最も直近に計算された(動作7において計算された)メリット関数が、新たな基準メリット関数となる。
動作1008におけるテストが、メリット関数が値を増加させるために開始したこと示す場合に、動作1010に進む。これは、システムが、いくつかの理由によって、実際のエピポールの位置を通り越したことを意味する。図11は、これがどのようにして起きるのかを示す。1つの方法は、勾配下降軌道が単にエピポール位置を見失い、メリット関数表面を後ろに登り始めることである。このケースでは、システムは、自動的に補正するだろう。しかし、この軌道は、落ち着く前に、実際のエピポール位置の周囲を回る傾向にあるだろう。軌道の周囲を回ることは、実質的に、反復数を増加させうる。別の可能性は、軌道が実際のエピポール位置に近づくと、勾配ステップがあまりにも大きく残るという可能性である。このケースでは、不連続な軌道が、実際のエピポール位置の上を飛び越し、表面を後ろに登り始める。最終的には、システムは、実際のエピポールに再び落ち着くが、計算負荷が実質的に増える。
この問題に対する解決策は、いつ軌道が表面を登り始め、探索ステップのサイズを低減するのかを検出することである。一般に、Δx,Δyおよびδは、動作1010の半分においてカットされるが、その他のスケール調整値は、許容可能なパフォーマンスを与えうる。
これらの調節がなされると、システムは、(動作1011を経由して)次の反復へと進む。
これらの反復は、(動作1009において)終了基準が満足され、システムが動作1012へ出るまで継続する
図10の方法は、それがオーダ(n)からなる特性を有する。ここで、nは、観察されたフィーチャの数である。これは、シーンから抽出されトラックされたフィーチャの数に対して計算負荷が線形比例的に増加することを意味する。したがって、フィーチャの数を10から100に増加させることは、単に処理負荷を10倍増加させる。
一方、既存の方法またはアルゴリズムは、オーダ(n)またはそれ以上からなる。これらのアルゴリズムを用いると、トラックされたフィーチャが10から100へ増加すると、処理負荷は、1000倍またはそれ以上に増加する。したがって、図10の方法は、既存の計算方法またはアルゴリズムよりも著しく速いことが認識されるだろう。
計算負荷に影響を与える第2のファクタは、エピポールの位置を推定する際における初期誤差の大きさである。実験は、計算負荷が、エピポール推定時の角度誤差よりも速く増加することを示している。したがって、1つの実施形態では、この最初の推定誤差を最小化することが望ましい。
図12a−iに示すように、これら図面は、図10の方法を適用することによって、良好な立体補正への収束が、どの程度迅速に20のフィーチャの集合で取得されうるのかを示している。図12a−eに示される実験は、エピポールの実際の場所が、ほんの概算的にしか知られていないと仮定する。仮定されている誤差は極めて大きく、各エピポールについて20°のオーダである。この実験は、比較的少ない反復での、良好な立体補正への迅速な収束を示す。
図12aは、左カメラと右カメラとの間のフィーチャ流れベクトルの初期設定を示す。
この集合は、20のフィーチャから成る。
図12bは、仮想カメラの回転後の、エピポールのオープン・ループ推定位置への流れベクトルを示す。これらオープン・ループ推定位置における誤差は、約20°である。流れベクトルの解は、明らかに存在する。特に、流れベクトルは、方向を逆にしており、現在、凡そ正確に流れている。
図12cは、メリット関数面を下る単一反復後の結果を示す。いくつかの改良があるが、この改良は、概観的にははっきり分からない。
図12dは、10回の反復後の結果を示す。この改良は、極めて顕著である。しかしながら、未だに実質的な傾き誤差がある。これは、システムが、実際のエピポールにまったく収束していないことを示す。このステージでは、顕著な距離誤差が存在する。
図12eは、100回の反復後、実際のエピポールへの収束がほとんど完全であることを示す。
第2の実験は、エピポール位置の初期推定が改善すると、アルゴリズムは、より迅速になり、エピポールの実際の位置に正確に収束するであろうことを示している。
図12fにおいて、我々は、エピポールの位置の初期推定において3°の誤差がある場合に試みられた立体補正を見ている。これは、メリット関数面の勾配下降前であるので、補正は達成されていないが、フロー傾き誤差が比較的小さいことが明らかである。
図12gは、1回だけの反復後の改善を示す。
図12hは、10回の反復後の結果を示す。補正は完全ではないが、十分良好であって、有用である。シーンの3Dモデリングのためにこの補正を用いることで、僅かな歪みおよび距離誤差しか生じない。
100回の反復後の結果が、図12iに図示される。図12hと図12iとの類似性は、完全ではないものの、10回の反復のみで、実際のエピポールへの収束が有益に達成されることを示す。したがって、エピ位置の比較的正確な推定値を用いて開始することに顕著な利益があることが認識されるだろう。
図13に示すように、この図は、1つの実施形態にしたがって画像を処理するシステム1300を示す。
システム1300は、画像を立体補正するように構成された立体補正モジュール1310と、画像処理モジュール1320とを含む。モジュール1310は、(例えば、リアルタイムでキャプチャされた)画像1301のストリームを受け取るように構成される。モジュール1310は、画像のペアにおける各画像について、画像をキャプチャするカメラの第1のカメラ方位に関連付けられた画像内のエピポールの位置を決定するように構成されたエピポール決定モジュール1311を含む。モジュール1310はまた、画像のペアにおける各画像について、カメラの第2のカメラ方位に関連付けられた仮想画像面の中心におけるエピポールを位置決めするように構成されたエピポール位置決めモジュール1312を含む。モジュール1310はさらに画像のペアのエピポールを交差する立体ベースラインの周囲において、画像のペアを、互いに揃えるように構成されたアライメント・モジュール1313を含む。さらに、モジュール1310は、画像面の立体補正ペアを取得できるように、立体ベースラインに実質的に平行な仮想画像面を位置決めするために、各仮想画像面を回転するように構成された画像回転モジュールを含む。
画像処理モジュール1320は、オリジナル画像の全体を、立体補正された画像面にマップするために、1または複数の変換(例えば、ホモグラフィック行列変換)を実行するように構成される。
図13の異なるモジュールは、1または複数のプロセッサ、メモリ、および/または、要求された動作を実行するための専用回路を含みうる。前述された方法は、例えば、軍事および民間への応用を含む多くの応用において画像を立体補正するために使用されうる。軍事応用は、改善された状況認識、持続的な監視、訓練、交戦リハーサル、目標認識および照準、GPSを使用しない高精度ナビゲーション、センサ融合、ミッション・システム・インテグレーション、および軍事ロボットを含みうる。民間および産業的な応用は、地理学および地図製作、映画やテレビへの応用、建築および建物の立案、広告、産業および一般的なロボット、警察および防火および学校教育を含みうる。しかしながら、これは限定されない。別の応用では、前述された方法およびシステムを用いることが予想される。
さらに、前述した実施形態にしたがって記載された画像の処理は、リアルタイムで実行されうる。
画像を処理する際に含まれる別の動作が、ハードウェア、ソフトウェア、または、ハードウェアとソフトウェアとの組み合わせで実行されうることが認識されるだろう。ソフトウェアは、マシン実行可能命令群またはコードを含みうる。これらマシン実行可能な命令群は、プロセッサ・モジュールのデータ記憶媒体に組み込まれうる。例えば、マシン実行可能な命令群は、図13のシステムのモジュール1310,1311,1312,1313,1314および1320のデータ記憶媒体に組み込まれうる。
ソフトウェア・コードは、汎用コンピュータによって実行可能でありうる。動作において、コードと、恐らくは、関連付けられたデータ・レコードが、汎用コンピュータ・プラットフォーム内に格納されうる。しかしながら、その他の時には、ソフトウェアは、他の場所に格納されうるか、および/または、適切な汎用コンピュータ・システムにロードするために移動されうる。したがって、前述した実施形態は、少なくとも1つの物理的な、非一時的な、マシン読取可能な媒体によって実行される1または複数のコードのモジュールの形態で、1または複数のソフトウェアまたはコンピュータ製品を含む。コンピュータ・システムのプロセッサによるこのようなコードの実行によって、プラットフォームが、本明細書で説明され例示された実施形態において実行される方式で実質的にこれら機能を実施することを可能とする。
本明細書で使用されるように、例えばコンピュータまたはマシン「読取可能な媒体」のような用語は、実行のための命令群をプロセッサへ提供することに参加する任意の媒体を称する。このような媒体は、非一時的で、不揮発性の媒体および揮発性の媒体を含む多くの形態を取り得る。不揮発性の媒体は、例えば、前述したように動作する任意のコンピュータ(単数または複数)における記憶媒体のうちの何れかのような、光ディスクまたは磁気ディスクを含みうる。揮発性媒体は、例えば、コンピュータ・システムのメイン・メモリのような動的メモリを含む。したがって、コンピュータ読取可能な媒体の共通形式は、例えば、フロッピー(登録商標)ディスク、フレキシブル・ディスク、ハード・ディスク、磁気テープ、その他任意の磁気媒体、CD−ROM、DVD、その他任意の光媒体や、例えば、パンチカード、紙テープ、穴のパターンを備えたその他任意の物理媒体、RAM、PROM、EPROM、フラッシュEPROM、その他任意のメモリ・チップ、またはカートリッジのようなあまり一般に使用されていない媒体を含む。これら形式のコンピュータ読取可能な媒体の多くは、実行のためにプロセッサへ1または複数の命令群の1または複数のシーケンスを伝送する際に含まれうる。
本開示は、現在最も現実的で好適な実施形態であると考えられるものに基づいて、例示目的のために、詳細に記載されているが、そのような詳細は、単に、その目的のためであって、本開示は、開示された実施形態に限定されず、その逆に、添付された特許請求の範囲の精神およびスコープ内である修正および等化な構成をカバーすることが意図されていることが理解されるべきである。例えば、さらに、本開示は、可能な限り、任意の実施形態のうちの1または複数の特徴が、その他任意の実施形態のうちの1または複数の機能と結合されうると考慮していることが理解されるべきである。

Claims (23)

  1. 画像のペアを立体補正する方法であって、
    前記画像のペアにおける各画像について、前記画像をキャプチャするカメラの、第1のカメラ方位に関連付けられた画像面におけるエピポールの位置を決定することと、
    前記画像のペアにおける各画像について、前記カメラの第2のカメラ方位に関連付けられた仮想画像面の中心におけるエピポールを位置決めすることと、
    前記位置決めの後、前記画像のペアのエピポールと交差する立体ベースラインの周囲に回転させることによって、前記画像のペアを互いに揃えることと、
    画像面の立体補正されたペアを取得できるように、前記立体ベースラインに実質的に平行な仮想画像面と、互いに実質的に平行な法線ベクトルとを位置決めするために、前記仮想画像面を回転することと、
    を備える方法。
  2. 前記画像のペアは、異なるカメラによってキャプチャされる、請求項1に記載の方法。
  3. 前記画像のペアは、移動しているカメラによってキャプチャされる、請求項1に記載の方法。
  4. 前記仮想画像面の中心におけるエピポールを位置決めした後、前記画像のペアの仮想画像面は互いに実質的に平行である、請求項1に記載の方法。
  5. 前記揃えることは、
    それぞれの仮想画像面における両画像に共通している基準画像フィーチャを選択することと、
    前記画像のペアのうちの1つの画像の仮想面における基準画像フィーチャの位置が、前記画像のペアのうちの他方の画像の仮想面における基準画像フィーチャの位置と一致するように、前記立体ベースラインの周囲の各仮想画像面を位置決めすることと
    を備える、請求項1に記載の方法。
  6. 前記基準画像フィーチャは、実際の水平に最も近い、前記画像内の物体である、請求項5に記載の方法。
  7. 各画像について、
    先ず、前記エピポールを位置決めするために、カメラ中心を中心とする座標系の第1の軸に沿って、前記画像面を回転させ、
    次に、前記エピポールを位置決めするために、前記座標系の第2の軸に沿って、前記画像面を回転させ、前記仮想面の中心におけるエピポールの位置決めを行うことによって、
    前記仮想画像面が取得される、請求項1に記載の方法。
  8. 前記立体ベースラインに実質的に平行な仮想画像面を位置決めするために、前記仮想画像面を回転させた後、前記仮想画像面のおのおのが、第3のカメラ方位に関連付けられる、請求項1に記載の方法。
  9. 前記エピポールの位置を決定することは、
    各画像の推定されたエピポール位置を用いて、4次元空間における面を形成する関数を決定することと、ここで、前記4次元空間は、各画像のエピポール位置の誤差によってパラメータ化される、
    前記関数の最小値を決定することと
    を備える、請求項1に記載の方法。
  10. 前記関数の最小値を決定することは、前記関数の4次元勾配下降を実行することを備える、請求項7に記載の方法。
  11. 前記4次元空間のパラメータは、各画像のエピポール位置のx誤差およびy誤差である、請求項2に記載の方法。
  12. 画像のペアを立体補正するための方法を実行するためのマシン実行可能な命令群を用いてエンコードされた物理的な非一時的なコンピュータ読取可能な媒体を備える製造物品であって、前記方法は、
    前記画像のペアにおける各画像について、前記画像をキャプチャするカメラの、第1のカメラ方位に関連付けられた画像面におけるエピポールの位置を決定することと、
    前記画像のペアにおける各画像について、前記カメラの第2のカメラ方位に関連付けられた仮想画像面の中心におけるエピポールを位置決めすることと、
    前記位置決めの後、前記画像のペアのエピポールと交差する立体ベースラインの周囲に回転させることによって、前記画像のペアを互いに揃えることと、
    画像面の立体補正されたペアを取得できるように、前記立体ベースラインに実質的に平行な仮想画像面と、互いに実質的に平行な法線ベクトルとを位置決めするために、前記仮想画像面を回転することと
    を備える、製造物品。
  13. 前記画像のペアは、異なるカメラによってキャプチャされる、請求項12に記載の製造物品。
  14. 前記画像のペアは、移動しているカメラによってキャプチャされる、請求項12に記載の製造物品。
  15. 前記仮想画像面の中心におけるエピポールが位置決めされた後、前記画像のペアの仮想画像面は、実質的に互いに平行である、請求項12に記載の製造物品。
  16. 前記揃えることは、
    それぞれの仮想画像面における両画像に共通している基準画像フィーチャを選択することと、
    前記画像のペアのうちの1つの画像の仮想面における基準画像フィーチャの位置が、前記画像のペアのうちの他方の画像の仮想面における基準画像フィーチャの位置と一致するように、前記立体ベースラインの周囲の各仮想画像面を位置決めすることと
    を備える、請求項12に記載の製造物品。
  17. 前記基準画像フィーチャは、実際の水平に最も近い、前記画像内の物体である、請求項16に記載の製造物品。
  18. 各画像について、
    先ず、前記エピポールを位置決めするために、カメラ中心を中心とする座標系の第1の軸に沿って、前記画像面を回転させ、
    次に、前記エピポールを位置決めするために、前記座標系の第2の軸に沿って、前記画像面を回転させ、前記仮想面の中心におけるエピポールの位置決めを行うことによって、
    前記仮想画像面が取得される、請求項12に記載の製造物品。
  19. 前記立体ベースラインに実質的に平行な仮想画像面を位置決めするために、前記仮想画像面を回転させた後、前記仮想画像面のおのおのが、第3のカメラ方位に関連付けられる、請求項12に記載の製造物品。
  20. 前記エピポールの位置を決定することは、
    各画像の推定されたエピポール位置を用いて、4次元空間における面を形成する関数を決定することと、ここで、前記4次元空間は、各画像のエピポール位置の誤差によってパラメータ化される、
    前記関数の最小値を決定することと
    を備える、請求項12に記載の製造物品。
  21. 前記関数の最小値を決定することは、前記関数の4次元勾配下降を実行することを備える、請求項19に記載の製造物品。
  22. 前記4次元空間のパラメータは、各画像のエピポール位置のx誤差およびy誤差である、請求項19に記載の製造物品。
  23. 画像のペアを処理する方法であって、
    前記画像のペアにおける各画像について、前記画像をキャプチャするカメラの、第1のカメラ方位に関連付けられた画像面におけるエピポールの位置を決定することによって、前記画像のペアを立体補正することと、
    前記画像のペアにおける各画像について、前記カメラの第2のカメラ方位に関連付けられた仮想画像面の中心におけるエピポールを位置決めすることと、
    前記位置決めの後、前記画像のペアのエピポールと交差する立体ベースラインの周囲に回転させることによって、前記画像のペアを互いに揃えることと、
    画像面の立体補正されたペアを取得できるように、前記立体ベースラインに実質的に平行な仮想画像面と、互いに実質的に平行な法線ベクトルとを位置決めするために、前記仮想画像面を回転することと
    によって前記画像のペアを立体補正することと、
    前記画像のペアの各画像について、画像全体を立体補正された画像面にマップするために、前記画像において1または複数のホモグラフィックな変換を実行することと、
    を備える方法。
JP2015505707A 2012-04-12 2013-02-12 立体補正方法 Active JP5917767B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/445,454 US9019350B2 (en) 2012-04-12 2012-04-12 Stereo rectification method
US13/445,454 2012-04-12
PCT/US2013/025789 WO2013154668A1 (en) 2012-04-12 2013-02-12 Stereo rectification method

Publications (2)

Publication Number Publication Date
JP2015518211A true JP2015518211A (ja) 2015-06-25
JP5917767B2 JP5917767B2 (ja) 2016-05-18

Family

ID=47843383

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015505707A Active JP5917767B2 (ja) 2012-04-12 2013-02-12 立体補正方法

Country Status (4)

Country Link
US (1) US9019350B2 (ja)
EP (1) EP2839431B1 (ja)
JP (1) JP5917767B2 (ja)
WO (1) WO2013154668A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102482186B1 (ko) 2013-04-08 2022-12-29 스냅 아이엔씨 멀티-카메라 장치를 사용하는 거리 추정
JP6156126B2 (ja) * 2013-12-19 2017-07-05 富士通株式会社 検索方法、検索プログラムおよび検索装置
US9501826B2 (en) 2014-05-06 2016-11-22 Intel Corporation Rectification techniques for heterogeneous camera arrays
US9846974B2 (en) * 2014-12-05 2017-12-19 Stmicroelectronics S.R.L. Absolute rotation estimation including outlier detection via low-rank and sparse matrix decomposition
US10002435B2 (en) * 2016-01-29 2018-06-19 Google Llc Detecting motion in images
US10371784B2 (en) 2016-06-03 2019-08-06 Raytheon Company System and method for multi-sensor multi-target 3D fusion using an unbiased measurement space
US11882262B2 (en) * 2021-11-08 2024-01-23 Foresight Automotive Ltd. System and method for stereoscopic image analysis

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6606404B1 (en) * 1999-06-19 2003-08-12 Microsoft Corporation System and method for computing rectifying homographies for stereo vision processing of three dimensional objects
JP2010220177A (ja) * 2009-03-19 2010-09-30 Asahi Kasei Corp ステレオ画像処理装置、ステレオ画像処理方法及びステレオ画像処理プログラム
US20100329543A1 (en) * 2008-03-03 2010-12-30 Huawei Technologies Co., Ltd. Method and system for rectifying images

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7142726B2 (en) 2003-03-19 2006-11-28 Mitsubishi Electric Research Labs, Inc. Three-dimensional scene reconstruction from labeled two-dimensional images
KR100850931B1 (ko) 2006-06-29 2008-08-07 성균관대학교산학협력단 실시간 스테레오 영상 교정 시스템 및 방법
US8593524B2 (en) * 2006-12-18 2013-11-26 Koninklijke Philips N.V. Calibrating a camera system
US8610708B2 (en) * 2010-09-22 2013-12-17 Raytheon Company Method and apparatus for three-dimensional image reconstruction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6606404B1 (en) * 1999-06-19 2003-08-12 Microsoft Corporation System and method for computing rectifying homographies for stereo vision processing of three dimensional objects
US20100329543A1 (en) * 2008-03-03 2010-12-30 Huawei Technologies Co., Ltd. Method and system for rectifying images
JP2010220177A (ja) * 2009-03-19 2010-09-30 Asahi Kasei Corp ステレオ画像処理装置、ステレオ画像処理方法及びステレオ画像処理プログラム

Also Published As

Publication number Publication date
EP2839431B1 (en) 2016-04-06
WO2013154668A1 (en) 2013-10-17
JP5917767B2 (ja) 2016-05-18
EP2839431A1 (en) 2015-02-25
US20130271578A1 (en) 2013-10-17
US9019350B2 (en) 2015-04-28

Similar Documents

Publication Publication Date Title
JP5917767B2 (ja) 立体補正方法
JP6001776B2 (ja) 固定されていないカメラによる点群構築
CN110296691B (zh) 融合imu标定的双目立体视觉测量方法与系统
JP5946924B2 (ja) シーン構造ベース自己姿勢推定
Elqursh et al. Line-based relative pose estimation
JP5362189B2 (ja) 画像処理装置及びその処理方法
JP5992184B2 (ja) 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
US20190012804A1 (en) Methods and apparatuses for panoramic image processing
US20150116691A1 (en) Indoor surveying apparatus and method
US20090153669A1 (en) Method and system for calibrating camera with rectification homography of imaged parallelogram
CN110033489A (zh) 一种车辆定位准确性的评估方法、装置及设备
JP2007323615A (ja) 画像処理装置及びその処理方法
Barczyk et al. Towards realistic covariance estimation of ICP-based Kinect V1 scan matching: The 1D case
US8509522B2 (en) Camera translation using rotation from device
Ji et al. Self-calibration of a rotating camera with a translational offset
JP4809134B2 (ja) 画像処理装置及びその処理方法
US20180350216A1 (en) Generating Representations of Interior Space
JP2007323616A (ja) 画像処理装置及びその処理方法
JP4778569B2 (ja) ステレオ画像処理装置、ステレオ画像処理方法及びステレオ画像処理プログラム
Kurz et al. Bundle adjustment for stereoscopic 3d
Pathak et al. Distortion-robust spherical camera motion estimation via dense optical flow
CN114187344A (zh) 一种地图构建方法、装置及设备
Kim et al. Pose initialization method of mixed reality system for inspection using convolutional neural network
JP2003209836A (ja) 情報伝達システム及び情報表示システム及び情報伝達方法及び情報表示方法
Masher Accurately scaled 3-D scene reconstruction using a moving monocular camera and a single-point depth sensor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160406

R150 Certificate of patent or registration of utility model

Ref document number: 5917767

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250