JP5538617B2 - 複数カメラのキャリブレーション用の方法および構成 - Google Patents

複数カメラのキャリブレーション用の方法および構成 Download PDF

Info

Publication number
JP5538617B2
JP5538617B2 JP2013501714A JP2013501714A JP5538617B2 JP 5538617 B2 JP5538617 B2 JP 5538617B2 JP 2013501714 A JP2013501714 A JP 2013501714A JP 2013501714 A JP2013501714 A JP 2013501714A JP 5538617 B2 JP5538617 B2 JP 5538617B2
Authority
JP
Japan
Prior art keywords
image
camera
calibration data
cameras
homography
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013501714A
Other languages
English (en)
Other versions
JP2013524593A (ja
Inventor
アーツ,マールテン
ティトガット,ドニー
マック,ジャン−フランソワ
リーヴェンス,サミー
Original Assignee
アルカテル−ルーセント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルカテル−ルーセント filed Critical アルカテル−ルーセント
Publication of JP2013524593A publication Critical patent/JP2013524593A/ja
Application granted granted Critical
Publication of JP5538617B2 publication Critical patent/JP5538617B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F01MACHINES OR ENGINES IN GENERAL; ENGINE PLANTS IN GENERAL; STEAM ENGINES
    • F01DNON-POSITIVE DISPLACEMENT MACHINES OR ENGINES, e.g. STEAM TURBINES
    • F01D21/00Shutting-down of machines or engines, e.g. in emergency; Regulating, controlling, or safety means not otherwise provided for
    • F01D21/003Arrangements for testing or measuring
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F01MACHINES OR ENGINES IN GENERAL; ENGINE PLANTS IN GENERAL; STEAM ENGINES
    • F01DNON-POSITIVE DISPLACEMENT MACHINES OR ENGINES, e.g. STEAM TURBINES
    • F01D25/00Component parts, details, or accessories, not provided for in, or of interest apart from, other groups
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/01Arrangements or apparatus for facilitating the optical investigation
    • G01N21/15Preventing contamination of the components of the optical system or obstruction of the light path
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/85Investigating moving fluids or granular solids
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2492Arrangements for use in a hostile environment, e.g. a very hot, cold or radioactive environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F05INDEXING SCHEMES RELATING TO ENGINES OR PUMPS IN VARIOUS SUBCLASSES OF CLASSES F01-F04
    • F05DINDEXING SCHEME FOR ASPECTS RELATING TO NON-POSITIVE-DISPLACEMENT MACHINES OR ENGINES, GAS-TURBINES OR JET-PROPULSION PLANTS
    • F05D2260/00Function
    • F05D2260/80Diagnostics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/01Arrangements or apparatus for facilitating the optical investigation
    • G01N21/15Preventing contamination of the components of the optical system or obstruction of the light path
    • G01N2021/151Gas blown
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/954Inspecting the inner surface of hollow bodies, e.g. bores
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/08Optical fibres; light guides
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Engineering & Computer Science (AREA)
  • Immunology (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Astronomy & Astrophysics (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、複数カメラ間のキャリブレーション・データを算出するための方法に関する。
異なる視点からの複数カメラのキャリブレーション・データは、1つのカメラからのデータが別のカメラからのデータに関係しなければならない場合、例えばこれらのカメラによって見られたシーンのフル3D再構成中に、人々の3Dトラッキングを実行しているときに、または、例えば増強されたリアリティ・アプリケーションの中で使用されるようなコンピュータ生成グラフィックスのアプリケーション中に、常に使用される。
通常、キャリブレーション・データは、内部および外部のカメラ・パラメータを含む。前者は、ピクセル・サイズ、アスペクト比、ゆがみ、および主点などの、カメラ自体の内部のメトリクスに関連する。外部キャリブレーション・データは、指定された世界フレーム、または別の(基準)カメラを基準とした、カメラの位置および視野角に関連する。
内部キャリブレーション・パラメータはカメラの位置に依存せず、したがって、これらは、一般にカメラ・ベンダによって与えられるかまたは推定されるので、既知であるとみなすことができる。
一方、カメラの相対位置ならびに視野角は未知の変数である。それらは、カメラが転置または移動するたびに、例えば、映像の製作中、またはモバイル装置を使用した画像取り込み中、または画像を取り込むウェブカメラの移動中、変化する。
これら外部キャリブレーション・データを提供するための既知の技法は、通常、一部人間の介入を伴い、これらの位置が手動で測定されたり、またはいくつかの手動介入技法によって取得されたりする。完全自動の技法は存在するが、さまざまな視点から生じた画像における変形を扱うのが困難なので、カメラ間の位置および視野角における差異のケースだけに限定される。これらの限定されたケースは、例えば、小さい角度の視点の差異だけでなく、カメラ間の短い距離を参照するだけである。
したがって、本発明の実施形態の目的は上記既知の種類の方法を提供することであるが、それが完全自動で、複数カメラの相対位置にかかわらずそれらの役に立つことができる。
本発明の実施形態によれば、この目的は、同じシーンを前記カメラによって撮影したそれぞれの画像上で少なくとも1つのそれぞれのホモグラフィ変換を識別するためのそれぞれのパラメータを、前記それぞれの画像上でそれぞれの幾何解析を実行することによって算出するステップと、前記それぞれの画像上で少なくとも1つのそれぞれの結合ホモグラフィ変換/特徴検出ステップを実行し、それによってそれぞれの変換された画像上でそれぞれの特徴のセットを取得するステップとを含む方法によって達成され、その結果前記キャリブレーション・データは前記それぞれの特徴のセットの間で求められた一致から取得される。
このようにして、同じシーンをカメラによって取り込んだそれぞれの画像上の少なくとも1つの適正なホモグラフィ変換を識別するパラメータを算出することによって、汎用的で完全に自動化された技法が得られる。これらのホモグラフィ変換は、それ自体カメラおよびシーンのセットアップに依存し、それぞれの画像の幾何解析を実行することによって算出される。さらに、それぞれの変換された画像上のそれぞれの特徴のセットの間の、対応する項目または一致を求めることによって、1つのカメラからの外部キャリブレーション・パラメータをその他と比べて取得することができる。
この手順は、必要に応じ全セットの中の任意の一対のカメラで繰り返して、大多数のカメラのキャリブレーションを達成することができる。
したがって、キャリブレーション・データは、カメラ間の相対位置および/または相対視野角の差異に関する情報を含むことができる。相対位置は相対距離によって表現することができ、一方、相対視野角の差異はカメラ間の相対的なチルティング角度、ローリング角度、およびパンニング角度の差異によって表現することができる。
それぞれのホモグラフィ変換を識別するパラメータは、取り込んだシーン、したがってそれぞれの画像の幾何解析によって算出することができる。この文書のさらに先の部分に記載される実施形態から明らかになるように、これは多くの比較的簡単な方法で行うことができる。1つの変形形態はカメラのそれぞれの画像の中で検出されたライン・セグメントの使用を含むことができ、一方、別の変形形態は、例えばこれらの画像上のカーブ・セグメントの比較を含むことができる。また、長方形の検出および平坦な物体認識のようなより高度な技法のように、ライン角度、直角度および平行の解析を活用することができる。さらに他の変形形態では、これらの技法を組み合わせて使用することができる。
使用されるシーンの幾何解析のタイプに応じて、画像毎に1つまたは複数のホモグラフィ変換を計算することができる。
さらなる特徴は、添付特許請求の範囲およびその説明において、さらに先に記載される。
同様に、本発明は、本方法の実施形態を実行するための装置、本方法の実施形態のいずれかを実行するように適合されたコンピュータ・プログラム、および、そのようなコンピュータ・プログラムを含むコンピュータ可読記憶媒体に関する。
特許請求の範囲において使用される用語「含む」は、その後に列記された手段に限定されるように解釈すべきでないことに留意すべきである。したがって、表現「手段AおよびBを含む装置」の範囲は、構成要素AおよびBだけからなる装置に限定すべきでない。本発明に関して装置に関連するにすぎない構成要素がAおよびBであるという意味である。
添付図面と併用して実施形態の以下の説明を参照することにより、本発明の上記その他の目的および特徴がより明白になり、本発明自体を最も良く理解することができよう。
方法の実施形態を示す高度概略ブロック図である。 図1aの高度ブロック図の第1の変形実施形態を示す図である。 図1aの高度ブロック図の第2の変形実施形態を示す図である。 カメラの内部キャリブレーション・パラメータを図式的に示す図である。 カメラの外部キャリブレーション・パラメータを図式的に示す図である。 図1cに描写された第2の変形実施形態のコンピュータ実装形態を示す図である。 内部キャリブレーション・パラメータも計算される、図3aの実装形態の変形形態を示す図である。 好ましくは非自然的なシーンで使用することができる、図3aの実施形態のより詳細な実施形態を示す図である。 好ましくは非自然的なシーンで使用することができる、図3aの実施形態のより詳細な実施形態を示す図である。
説明および図面は本発明の原理を示すにすぎない。したがって、明細書において明確に記載または図示されていなくても、当業者は本発明の原理を具現化し、その精神および範囲内に含まれるさまざまな構成を考案できることが理解されよう。さらに、本明細書に列挙されたすべての例は、主に、本発明の原理および発明者によって当技術分野を進展させるのに貢献した概念を、読者が理解するのを助ける教育目的のみを明確に意図しており、そのように具体的に列挙された例および条件に限定するものではないと解釈されるべきである。その上、本明細書において本発明の原理、態様、および実施形態を列挙するすべての記述、ならびにその具体例は、その均等物を包含するものである。
本明細書の中のいずれのブロック図も本発明の原理を具現化する例示的な電気回路の概念図を表すことを、当業者は理解すべきである。同様に、いずれのフローチャート、流れ図、状態遷移図、疑似コードなども、実質的にコンピュータ可読媒体の中で表現され、コンピュータまたはプロセッサが明確に示されていてもいなくても、そのようなコンピュータまたはプロセッサによって実行され得る、さまざまな処理を表すことが理解されよう。
図の中に示されたさまざまな構成要素の機能は、専用ハードウェア、ならびに適切なソフトウェアと共同してソフトウェアを実行する能力があるハードウェアの使用を介して提供することができる。プロセッサによって提供されるとき、機能は、単一の専用プロセッサによって、単一の共用プロセッサによって、または、一部は共用されている場合もある複数の個別のプロセッサによって、提供することができる。さらに、用語「プロセッサ」または「コントローラ」の明示的な使用は、ソフトウェアを実行する能力があるハードウェアに排他的に言及するものと解釈すべきでなく、限定なしに、デジタル・シグナル・プロセッサ(DSP)ハードウェア、ネットワーク・プロセッサ、特定用途向け集積回路(ASIC)、フィールド・プログラマブル・ゲートアレイ(FPGA)、ソフトウェア格納用リード・オンリ・メモリ(ROM)、ランダム・アクセス・メモリ(RAM)、および不揮発性記憶装置を暗黙的に含むことができる。従来の、および/または特別仕様の他のハードウェアも含むことができる。同様に、図に示されたいずれのスイッチも概念的にすぎない。それらの機能は、プログラム論理回路の動作を介して、専用論理回路を介して、プログラム制御と専用論理回路との相互作用を介して、または、文脈からより具体的に理解されるように実装者によって選択可能な特定の技法を使用して手動でも実行することができる。
図1aは、2台のカメラについてキャリブレーション・データを算出する方法の高度な実施形態を示す。この実施形態が2台を超えるカメラを伴う複数カメラの状況にも適用できることは明白である。一般に、キャリブレーション・データは、内部カメラ・パラメータおよび外部カメラ・パラメータを含む。これらは、それぞれ図2aおよび図2bに示される。内部カメラ・パラメータは、図2aに示したように、例えば、主点の2つの成分pxおよびpy、ならびにピクセルの幅(ax)、高さ(ay)およびゆがみ(s)に関係する、カメラ自体の内部のメトリクスに関連する。
図2bは、これらのカメラ間の相対位置およびこれらの視野角に関係する、外部カメラ・パラメータを示す。一般に、1台のカメラが基準カメラになり、次いで、セットのすべての個別のカメラについて、その他のカメラの相対位置および相対視野角がこの基準カメラに対して算出される。相対位置は(dx,dy,dz)と表記され、基準カメラに対するカメラ1の位置ベクトルの3つの成分を表す。パンニング角度、チルティング角度、およびローリング角度は、基準カメラの基準視野角に対するカメラ1の視野角における差異の3つの成分を含む。
キャリブレーション・データが算出されるカメラは、多視点位置の中に配置され、それらがすべて多かれ少なかれ同じシーンから写真を撮影することができることを意味する。シーンとは、カメラによって光学的に位置合わせすることができる、風景、人間、アニメーションなどの任意の対象を意味する。したがって、「シーン」は、人間、風景などの普通の写真に限定されるだけでなく、カメラによって検出可能な仮想または現実どちらの対象にも限定される。
従来技術の方法とは反対に、本方法の実施形態は、これらのカメラ間の相対距離および方向付けにおける差異にかかわらず、外部カメラ・キャリブレーション・データを生成することができる。
したがって、これらの外部カメラ・パラメータは、距離における差異、例えば、カメラの2つの焦点の間、または1つのカメラの焦点と基準フレームの起点との間の差異に関連する。一般に、この差異は、図2bに描写されたように、これら3つの異なる距離成分を含む位置ベクトルとして表現することができる。3つの回転角度における差異は、図2bで示され、当業者によってよく知られているようなチルト、パンおよびロールの角度であり、一般に、これら3つの角度α、β、γから計算することができる回転行列Rによって表現される。
Figure 0005538617
異なるカメラ間のこれらのキャリブレーション・データを取得するために、それぞれの画像は、それぞれのカメラによって同じシーンすなわち対象から撮影される。図1aの実施形態では、これらの写真は、それぞれ画像1、画像2と表記される。これらの画像は、その後、これらの画像上またはその部分上で実行されるべき、少なくとも1つのホモグラフィ変換を定義するパラメータを算出するために使用される。この目的を達成するために、シーンの幾何形状が解析される。このステップは、図1aに示されたように、画像1の幾何解析に対して100と表記される。
この幾何解析を実行するためのさまざまな方法が存在し、一部をさらなる実施形態において説明する。画像上のすべてのタイプのホモグラフィ変換を完全に試してみる他の方法と対照的に、本発明の実施形態で使用される幾何解析ステップは、1つまたは複数の適切なホモグラフィ変換を迅速に識別することができる。これによって、キャリブレーション・パラメータを算出するための計算時間が減少し、この後のステップによって使用される正しい特徴一致の数の特徴一致の総数に対する比、したがってその有用性および正確性が増加する。
ホモグラフィ変換は、水平面の矯正、鳥瞰図の模倣、または垂直面の矯正を含んで、前面図または側面図、...を作成することができる。そのようなホモグラフィ変換は、画像の各ピクセル(x,y)上で実行される変換行列Hによって算出される。
Figure 0005538617
次いで、変換された各ピクセル座標(x’,y’)は同次座標(x’,y’,t’)によって表現することができ、t’はピクセル毎に以下の変換が実行されるような比率因子を表す。
Figure 0005538617
図1aに戻ると、画像1用のそれぞれのホモグラフィ変換の算出がステップ200として表記される。次のステップは、そこからシーンの幾何形状パラメータが変換パラメータの生成を可能にするように引き出されたそれぞれの画像に適用された、結合ホモグラフィ変換/特徴検出を含む。
図1a上で画像1用に300と表記された、この結合変換/特徴検出ステップは、完全な画像の完全変換302を含むことができ、図1bに示されたように、そのステップの後、特徴検出301が変換された画像上で実行される。さらに他の実施形態では、図1cに示されたように、検出器が画像の中のピクセルにアクセスするたびに、ホモグラフィ変換3002によってピクセル座標が最初に変換された後、元の画像の中のピクセル情報が取り出されるような方法で、特徴検出ステップ3001が適用される。これらすべての実施形態の場合、結合変換/特徴検出ステップ300の結果は、変換された画像上のそれぞれの特徴のセットになり、図1a、図1bおよび図1c上で、画像1用特徴セット1および画像2用特徴セット2と表記される。
特徴検出は、類似性不変の特徴検出方法に基づいて実行することができる。Scale Invariant Feature Transformの略語であるSIFT、Speeded Up Robust Featuresの略語であるSURF、Gradient Location and Orientation Histogramの略語であるGLOH、Harris、Maximaly Stable External Regionsの略語であるMSER、Tomasi、ブロック・マッチング、...などの方法を使用して、エッジ、コーナ、斑点または領域を検出するような、この目的に対していくつかの異なるアルゴリズムが存在する。これらのアルゴリズムはすべて、わずかな拡大縮小、変換および回転を伴う類似性以外の変形下で不適切に実行される傾向があるので、それらは入力画像上に直接適用することはできない。したがって、最初にホモグラフィ変換を実行する必要がある。
変換された画像上で特徴が検出されると、一致が検索される。一致した特徴は、対応するピクセル、対応するライン、対応する物体、対応する領域などを含むことができる。第1の段階で抽出されたシーンの幾何形状のタイプが許す場合、特徴は、両方のカメラから生じた、対応する変換された画像の間で一致する。そうでない場合、1台のカメラのすべてのホモグラフィ変換から生じたすべての特徴は、第2のカメラから生じたすべての特徴に対して比較される。したがって、図3a〜bの中で描写された実施形態のようないくつかの実施形態において、これらのホモグラフィ変換のうちのいくつかは、1つの幾何解析がいくつかの適切なホモグラフィをもたらすことができる場合があるので、それぞれの画像上で算出される。次いで、これは、再びすべての算出した変換用のそれぞれの画像の結合変換/特徴検出ステップに続き、その結果、変換された特徴のセットを再び取得し、次いで、このセットはすべてのホモグラフィ変換についてのすべての変換された特徴を含む。次いで、両方の画像用の変換された特徴のセットの間で、一致した項目が再び見つけられるはずである。
両方の変換された画像について一致した項目または属性のセットは、図1a〜cおよび図3a〜bの中でm1からmkと表記され、2つの変換された画像の間の一致した属性のk個のペアを表す。次いで、これらの一致した項目は、前述の回転行列および位置ベクトルのような、キャリブレーション・データを算出するために使用することができる。
より詳細な実施形態で説明するように、やはり第1ステップのシーン幾何形状のタイプに応じて、マッチングのステップおよびキャリブレーション・データの抽出は、シーンのパラメータまたはそれら自体のホモグラフィ変換によって支援することができる。
したがって、変換された画像の対応する特徴は、2台のカメラ間の外部キャリブレーション・パラメータを引き出すために使用される。変換された画像の中で特徴は薄らぐので、これらの特徴を使用してキャリブレーション・データを抽出するときに、それぞれのホモグラフィ変換が考慮に入れられる。シーンの幾何形状パラメータのタイプに応じて、これらのパラメータは、必要ではないが、実現可能なキャリブレーション解法の部分空間の改良をさらに助けることもできる。エピポーラ幾何学または他の背面投影技法を使用して、対応関係から相対位置ベクトルおよび回転行列を計算することができる。
図3aおよび図3bは、記載した方法のそれぞれのコンピュータ実装形態を描写する。図3aに示された変形形態は、図1cの変形方法に基づき、さらに、ステップ200におけるいくつかのホモグラフィの選択を含む。さらに、外部キャリブレーション・パラメータの計算中、一致のセットが考慮に入れられるだけでなく、特徴自体も考慮に入れられる。これらの実施形態においてこれは興味深い。この位置はキャリブレーション・データの算出用に使用されるので、一致自体は元の画像自体の中の特徴の位置に関係する情報を含まない。図1a〜cを参照した実施形態では、一致はこの情報を含むと仮定する。
図3bに描写された変形形態は図3aの変形形態と似ているが、ステップ500では、外部キャリブレーション・データだけでなく、内部キャリブレーション・データもさらに計算される。
ここで、幾何解析および特徴検出およびマッチングのステップの詳細説明を含む、より詳細なコンピュータで実現可能な実施形態を、図4a〜bを参照して記載する。この実施形態は、好ましくは人為的なシーンで使用され、したがって、通常、平行な線、整列した物体などを特徴とする、室内シーン、都会シーンなどの非自然的な、しばしば人為的なシーンとも表記されるシーンを取り込むカメラをキャリブレーションするために使用される。この実施形態は、シーンの中の豊富な垂直線、およびそれほどではないにせよ水平線を採用して、共通の垂直消滅点を見つける。
キャリブレーションされる各カメラは、再びシーンの写真を撮影する。実行されるべきステップは両方のカメラについて同様なので、第1のカメラを参照するステップだけが図4aおよび図4bで示される。
カメラ1によって撮影された画像上の幾何解析100は、図4aの中では画像1と表記されているが、人為的なシーンからの画像が一般に多くのラインを含むので、ライン・セグメント検出ステップ101の実行を含む。これを行うための方法は、ハフ変換、LSD、曲率解析、SLIDE、組合せ最適化法、クラスタリング、...を含むことができる。別の変形形態では、方法は初期フィルタリング・ステップも含むことができる。
ライン・セグメントが検出されると、ステップ102において、それらはチルト角度およびロール角度の推定を実行するために使用することができる。これは垂直消滅点の検索を含む。
チルト角度およびロール角度の推定に基づいて、パンニング角度の推定がステップ103で実行される。
パンニング角度を含むこれらすべての角度が推定されると、g ..g N1と表記される幾何形状パラメータのセットは完全になる。次いで、ホモグラフィ変換パラメータは、このセットに基づいて算出することができる。この場合、これらは鳥瞰図ホモグラフィに基づく。
そのような鳥瞰図ホモグラフィ変換は矯正に対応し、パラメータの詳細計算は後の段落で説明する。
次いで、このように計算されたパラメータ(h 00,...,h 22)は、異なる画像上でこれらの矯正を実行するために使用することができる。次いで、このように取得された矯正画像は、それぞれマッチングまたは対応する特徴の検索を受ける。やはり、これはさまざまな方法で行うことができる。
前に説明したように、特徴は変換された画像上で検出することができ、そのステップの後、一致はそれぞれの特徴セットから求められる。スケール不変の特徴検出方法に基づく実装形態を、図4bを参照して再び説明する。
さらに、この図4bは、図4aに概説されたさまざまなステップのそれぞれについて、いくつかのさらに詳細な実施形態を与える。
ライン・セグメント検出に関係する図4aの段階101に関して、図4bに描写された実施形態は、各画像上の初期フィルタリング・ステップを含む。図4bのこの実施形態では、これはエッジ検出フィルタによって実現される。それによって、ネットワークの中の各カメラの画像は、画像の中のすべてのエッジを示すバイナリ画像にフィルタリングされる。この初期フィルタリング・ステップを実行するためのさまざまな可能性があるが、好ましい解決法は、キャニー・エッジ検出器の使用であり、なぜならそれは多くのアプリケーションで堅固であり、多くのパラメータ設定を必要としないからである。アルゴリズムは画像の中のエッジに沿って走るので、次のステップと早く統合された実装形態が実現可能である。代替物は、ソーベル・フィルタ、ラプラシアン・フィルタ、Difference−of−Gaussianフィルタ、...などの単純傾斜法の使用を含むことができる。
このエッジ検出フィルタリングの後、フィルタリング動作によって生成されたバイナリ・エッジ出力の中でライン・セグメントを検出するためのステップが続く。やはり、ライン・セグメント検出はさまざまな方法で行うことができる。従来のフィルタリング・ステップとの早い統合を可能にする好ましい実施形態は、エッジ検出ステップの中でそれに沿って走る間、エッジの曲率の測定を含む。累積曲率が高いエッジのピクセルでは、エッジがカットされ、新しい実現可能なライン・セグメントが形成される。短いライン・セグメントは廃棄される。同じラインを表すライン・セグメントはマージされる。
次いで、ライン・セグメントが検出されると、チルト角度およびロール角度の推定段階102がそれらの上で実行される。これは、それ自体の中に3つのステップを含む、垂直消滅点の検索によって行うことができる。垂直消滅点とは、実際の世界では平行であるラインの投影図が、画像の中で交差するように見える点である。第1のステップは、ライン・セグメントを、恐らく垂直なライン・セグメントと水平面の中にあるようなライン・セグメントとに、大まかに分類する。この特定の実施形態の場合、カメラが大きなロール角度(=光軸のまわりの回転、図2b参照)をもたないと仮定され、また、シーンの中の垂直なラインの投影図が多かれ少なかれ垂直であると仮定することができる。したがって、例えば垂直から20度未満の異なる角度をもつすべてのラインは、これらの例えば垂直から20度の偏差を閾値とする閾値処理によって、その他のラインから区別され、図4bの中で「水平」と表記される。他の、より単純化された実施形態はこのような仮定を必要としないことに留意されたい。
Random Sample Consensusの略語であるRANSACは、垂直消滅点の良い候補を選択し、誤った候補を除去するための堅固な変形形態であり、次に、選択された垂直ラインに適用される。これは、反復型の方法で実行することができ、各繰り返し中に前の段階からの2本の恐らく垂直なラインが選択される。次いで、この2本のラインの交点は、垂直消滅点の候補として推薦される。多くの他の恐らく垂直なラインが、ある制限値未満の距離でこの点を通過した場合、この点候補がより高い得点を得る。次いで、この反復が何回も繰り返される。「インライア」と表記された、最も高い得点および対応する垂直ラインをもつ消滅点の候補が、「再推定」と表記された最後の改良ステップまで通る。「アウトライア」と表記された残りのラインは、前に実行された閾値処理ステップから水平に分類されたリストに追加される。
この「再推定」ステップは、前のステップにおけるように2本だけのラインの交点を計算するよりむしろ、閾値未満のすべての垂直ラインから選択された最適の消滅点を改良する。この時点で、垂直方向に関するカメラの方向付けは、チルト角度および光軸のまわりであり、ロール角度であることは既知である。なぜなら、式1から、これら2つの角度は、この消滅点の正規化された同次座標によって正しく定義された回転行列の1つの列だけに依存しているからである。
この時点で、いかなら水平面も、異なるカメラの2つの視点間の類似性クラスに対する変形を削減する方法(すなわち、単なる変換、回転および拡大縮小)でホモグラフィ変換によって矯正することができることに気付くべきである。したがって、パンニング角度推定ステップ103を省略し、変換ステップに直進することが可能である。しかしながら、この後者のステップを容易にし、正確性を改善するために、この実施形態ではパンニング角度の推定が存在する。
パンニング角度は垂直軸のまわりの角度である(図2b参照)。その算出は3つのサブステップを含むことができる。第1のサブステップでは、各視点の視野が計算される。この視野は、画像の中で水平面のすべての投影図が交差するラインに対応する。水平面の中の任意の方向のすべての消滅点は、このライン上にある。このライン上の点と水平方向角度との間には1対1の関係さえある。このラインは、垂直消滅点、および図2aに示されたカメラの前述の内部キャリブレーション・パラメータから計算することができる。より具体的には、このライン上の点は、正規化された消滅点の数学的なゼロ空間と同じ部分空間を形成する。内部キャリブレーションが知られていない場合、推定はこの段階での目的には十分良い。なぜなら、技法は視野のかすかな変化に対して堅固であるからである。推定は、当然知られている画像の幅および高さのみから容易に引き出すことができる。
視野が取得されると、各垂直でないラインは、水平に閾値処理されたラインとRANSACによって廃棄されたラインとの集合体であり、この視野と交差してその水平方向を引き出す。ラインの計測、視野の推定および交点の探索は、騒音の影響を大いに受けるので、画像毎のライン方向のヒストグラムが生成される。この結果、各ラインはその長さによって重さを量られる。
第2のサブステップは、シーンに対する直接キャリブレーションを可能にする「主方向」を、これらのヒストグラムの中で検索することを含む。ヒストグラムの中の最大値は、シーンの中で豊富な水平ラインの方向に対応する。人々は整理されていない物体より美的に整列された物体を見つける傾向があるので、これはしばしば人為的なシーンで起こる。さらに、これらの最大値とそれらに対応する主方向は、しばしば90度離れており、最大値探索アルゴリズムによって採用することができ、視点毎に2つの主方向をもたらし、その結果パンニング角度は、n*90度までの不明確さで定義される。この不明確さは、段階4(ホモグラフィ変換およびSIFT)の中のステップを、パンニング角度phi、phi+90、phi+180およびphi+270について、4回実行することによって解決することができる。しかし、次の段階におけるほとんどのステップが一度に4つの角度を行うことができるので、これは4倍倍増した複雑さを意味しない。
しかしながら、ヒストグラムからは主方向が現れないことが起きる場合がある。この場合、ヒストグラムを共通の基準フレームに関係づけるよりむしろ、常にカメラと基準カメラの間のパンニング角度における差異の探索に頼ることができる。画像毎のヒストグラムは、現在比較されている一対の画像を生成した2台のカメラ間の相対的なパンニング角度を引き出すために、お互いに対して比較される。この目的に対して、1つの視点の平滑化されたヒストグラムは、パンニング角度検索空間の標本化されたサブセットによって、その他の平滑化されたヒストグラムとの何らかの距離基準を最小化するまで、シフトされなければならない。基準としてカルバック・ライブラー・ダイバージェンス、および平滑化用に簡単なパルツェン窓を使用することができる。当然他の選択が利用可能である。
「主方向」パスおよび「パンニング角度差異」パスが両方とも失敗した場合、優先権選択ステップは、両方の画像用のランダムなパンニング角度を選択し、図4bの段階4のマッチング・ステップまでこの不明確さの解決をやめる。この時点では、お互いに対する、場合により−主方向が見つかった場合−シーンの中の主方向に対するカメラの完全な方向付けは、チルト角度、ロール角度およびパン角度の算出によって見つけられる。次のステップはカメラの位置の探索を扱う。
シーン自体について何も知られていないので、お互いに対するカメラの相対位置だけが引き出される。したがって、これは、最初にそれぞれの画像を矯正することによって実行され、そのステップの後、対応する成分または属性が検索される。
したがって、図4bの段階2および段階3の結果は、カメラ毎に1つの適正なホモグラフィ変換を定義するシーンの幾何形状パラメータとして使用することができる。変換は、シーンの鳥瞰図を模倣するように選択される。カメラからの元の画像の中で傾斜した角度から見た水平面は、真上から見たような画像に変換される。この変換は実際の世界から変換された画像への角度メトリクスを保存するので、この変換は「矯正する」と言われる。
段階の最後で、2つのそれぞれの画像は、すべての視点間に類似性が存在するような方法で変換されることに留意されたい。類似性は、4つの自由度:変換用に2つ、回転用に1つ、および均一な拡大縮小を含む。これらは、カメラのパンニング角度および位置の3つの自由度に対応する。段階3は、ヒストグラム間の類似性測定の正確性、または絶対的なケースにおける様式性に依存して、すでにパンニング角度を除去した可能性がある。
各画像上で矯正を実行した後、対応する特徴が検索される。図4bに描写された実施形態では、Similarity Invariant Feature Transform(SIFT)と呼ばれる技法が使用される。これは、画像の中で低レベルの似ている特徴を検索し記述する、既知の技法である。
したがって、この技法は、複数カメラのうちの1つとして選択された基準カメラから撮影された基準画像と他のすべてのカメラからの他のすべての画像との間で、対応する特徴を検索するのに適用される。これらの特徴は、SIFT技法に従って記述される。多くの特徴が水平面内で見つかるので、それらのSIFT記述は、類似性の変化のみが存在するので、すべての視線の間で不変のままである。パンニング角度がすでに第3段階によって説明された場合、したがって、優先権をもたらす最初の2つのパスのうちの1つが続くステップを選択すると、SIFT記述子は、回転記述を排除することによって簡易化される。別のオプションは、次のステップの間のマッチング・アルゴリズム上の追加の制約として記述子の中で回転を使用することである。別のRANSACライクなステップは、共通の変換、倍率、および(必要なら)回転角度を見つけるために使用される。この時点で、1つの視点の中の水平面を別の視点の中の同じ面に完全に位置合わせする第2のホモグラフィ行列(回転だけを説明した前述の行列とは別の行列)が知られている。
最後に、視点毎のこの第2のホモグラフィ行列は、カメラ毎に有効な回転行列および変換ベクトルに分解することができる。段階2および段階3からの方向付けパラメータに関する知識を使用することはこの分解を容易にするが、必要ではない。
このキャリブレーションは、それ自体で、または、良い初期化推定を必要とするバンドル調節装置のような改良方法への入力として使用することができる。
他の実施形態では、シーンの中のラインの存在も採用されるが、いくつかの消滅点、例えばそれらのうちの3つを探すことができることに気付くことができる。続けて、それらは回転行列Rの有効な列を構成する。これは、RANSACのより拡張されたバージョンおよび段階2の再推定ステップによって行うことができる。
シーンの中の3つの主方向X、YおよびZに対応する3つの消滅点すべての堅固な推定を見つけた後、3つの異なるホモグラフィ変換がカメラ毎に計算される。それぞれは異なる側面図(上面、前面および側面)を模倣する。ここで、段階4は、1台のカメラの中の各変換された視点からの特徴を、基準カメラの対応する特徴に一致させて、対応関係の良いセットを取得し、そこから段階5は再びすべてのキャリブレーション・データを計算することができる。
(図の中には示されない)代替の実施形態は、シーンの中で長方形の物体を検索することができる。しばしば、非自然的なシーンは、窓、テーブル、ドア、コンピュータ画面、数枚の紙を特徴とし、それらすべては形として長方形である。より困難な技法を必要とする、これらの物体を実際に識別する代わりに、それらは一般に投影された画像の中で不規則四辺形に対応するものとして考えることができるので、シーンの中で長方形を探すことで一般に十分である。このための方法はライン検出用の方法と似ている。
次いで、次の段階は、これらの不規則四辺形をそれらの元の長方形の形状に矯正する、すべてのホモグラフィ変換を計算する。多くの他の(また長方形でない)物体は、これらの長方形の物体(例えば、テーブルに置かれた物体、窓の隣の壁につり下げられた物体、...)と整列されているので、それらは同じ適切な方法で変換され、後のスケール不変特徴検出ステップが、複数の視点の中で多くの同じ特徴を見つけることを可能にする。他の段階の中の前と同じ方法を使用して、やはり、これはすべてのカメラの完全なキャリブレーションを可能にする。
同様の実施形態は、例えば、CD、カップ、丸いボタン、...を描写するシーンのケースで楕円を円に矯正すること、または、規則的に間隔を空けた物体、例えばキーボード上のボタン、壁紙、タイル、カーテン、クローゼットのドア、...を伴うシーンの画像を扱うホモグラフィ変換と考えられる。ここに記載されたこれらすべての例は、うまく組み合わせることもできる。
本発明の原理を特定の装置と関連して記載したが、この説明は、例として作成されたにすぎず、本発明の範囲を限定するものではなく、添付特許請求の範囲の中で定義されるものとして、明確に理解されるべきである。

Claims (15)

  1. 複数の視点位置の中で少なくとも2台のカメラ(カメラ1、カメラ2)用にキャリブレーション・データを算出するための方法であって、前記方法が、
    同じシーンを前記カメラによって撮影したそれぞれの画像(画像1、画像2)上で少なくとも1つのそれぞれのホモグラフィ変換を識別するためのそれぞれのパラメータ((h 00,...,h 22),(h 00,...,h 22))を、前記それぞれの画像(画像1、画像2)上でそれぞれの幾何解析を実行することによって算出するステップと、
    前記それぞれの画像上で少なくとも1つのそれぞれの結合ホモグラフィ変換/それぞれの画像上で特徴検出ステップを実行し、それによってそれぞれの変換された画像上でそれぞれの特徴のセット(特徴セット1、特徴セット2)を取得するステップとを含み、その結果前記キャリブレーション・データが前記それぞれの特徴のセットの間で求められた一致(m,...,m)から取得される、方法。
  2. 前記キャリブレーション・データが前記カメラ間の相対位置に関する情報を含む、請求項1に記載の方法。
  3. 前記キャリブレーション・データが前記カメラ間の相対視野角の差異に関する情報を含む、請求項1または2に記載の方法。
  4. 前記少なくとも1つのそれぞれの結合ホモグラフィ変換/特徴検出ステップ(300)が、前記それぞれの画像を変換するステップ(302)と、それに続く前記変換された画像内で特徴を検出するステップ(301)とを含む、請求項1乃至3のいずれか1項に記載の方法。
  5. 前記少なくとも1つのそれぞれの結合ホモグラフィ変換/特徴検出ステップ(300)が、前記それぞれの画像(画像1)のすべてのピクセル座標が変換されるまで、前記それぞれの画像のピクセル座標変換(3002)とそれに続く部分的に変換された画像の特徴検出(3001)とを反復する処理を含む、請求項1乃至3のいずれか1項に記載の方法。
  6. 前記それぞれの幾何解析を実行すること(100)が前記それぞれの画像上のライン・セグメントを求めるステップを含む、請求項1乃至5のいずれか1項に記載の方法。
  7. 前記それぞれの幾何解析を実行すること(100)が前記それぞれの画像上のカーブ・セグメントを求めるステップを含む、請求項1乃至5のいずれか1項に記載の方法。
  8. 前記それぞれの幾何解析を実行すること(100)が前記それぞれの画像上の物体認識を実行するステップを含む、請求項1乃至5のいずれか1項に記載の方法。
  9. 前記それぞれのライン・セグメントが前記少なくとも2台のカメラ間の視点角度の差異を算出するためにさらに使用される、請求項6に記載の方法。
  10. 前記キャリブレーション・データが前記それぞれの特徴のセットからさらに算出される、請求項1乃至9のいずれか1項に記載の方法。
  11. 前記キャリブレーション・データが前記それぞれのホモグラフィ変換を識別するための前記パラメータからさらに算出される、請求項1乃至10のいずれか1項に記載の方法。
  12. 前記キャリブレーション・データがその値を前記一致に基づいてさらに最適化することができる内部カメラ・パラメータをさらに含む、請求項1乃至11のいずれか1項に記載の方法。
  13. 請求項1乃至12に提示されたようなステップのいずれかを実行するように適合された装置。
  14. 請求項1乃至13のいずれか1項に記載の方法のいずれかを実行するように適合されたコンピュータ・プログラム。
  15. 請求項14に記載のコンピュータ・プログラムを含むコンピュータ可読記憶媒体。
JP2013501714A 2010-03-26 2011-03-08 複数カメラのキャリブレーション用の方法および構成 Expired - Fee Related JP5538617B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP10305309.6A EP2375376B1 (en) 2010-03-26 2010-03-26 Method and arrangement for multi-camera calibration
EP10305309.6 2010-03-26
PCT/EP2011/053483 WO2011117069A1 (en) 2010-03-26 2011-03-08 Method and arrangement for multi-camera calibration

Publications (2)

Publication Number Publication Date
JP2013524593A JP2013524593A (ja) 2013-06-17
JP5538617B2 true JP5538617B2 (ja) 2014-07-02

Family

ID=42289381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013501714A Expired - Fee Related JP5538617B2 (ja) 2010-03-26 2011-03-08 複数カメラのキャリブレーション用の方法および構成

Country Status (7)

Country Link
US (1) US9303525B2 (ja)
EP (1) EP2375376B1 (ja)
JP (1) JP5538617B2 (ja)
KR (1) KR101333871B1 (ja)
CN (1) CN102834845B (ja)
TW (1) TWI485650B (ja)
WO (1) WO2011117069A1 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2972061B1 (fr) * 2011-02-24 2013-11-15 Mobiclip Procede de calibrage d'un dispositif de prise de vue stereoscopique
CN102376093B (zh) * 2011-10-13 2014-04-23 清华大学 一种摄像机标定方法
EP2595393B1 (en) * 2011-11-15 2015-03-11 ST-Ericsson SA Rectified stereoscopic 3d panoramic picture
IL216515A (en) * 2011-11-22 2015-02-26 Israel Aerospace Ind Ltd A system and method for processing images from a camera set
GB2501684B (en) 2012-04-30 2018-12-12 2D3 Ltd Collaborative sighting
JP5923422B2 (ja) * 2012-09-24 2016-05-24 クラリオン株式会社 カメラのキャリブレーション方法及び装置
US20140218482A1 (en) * 2013-02-05 2014-08-07 John H. Prince Positive Train Control Using Autonomous Systems
US20150071488A1 (en) * 2013-09-11 2015-03-12 Sony Corporation Imaging system with vanishing point detection using camera metadata and method of operation thereof
GB201318990D0 (en) 2013-10-28 2013-12-11 Omg Plc Optical sighting
US9282326B2 (en) 2013-10-28 2016-03-08 The Regents Of The University Of Michigan Interactive camera calibration tool
JP6326624B2 (ja) * 2014-04-02 2018-05-23 パナソニックIpマネジメント株式会社 キャリブレーション装置、キャリブレーション方法、キャリブレーション機能を備えたカメラ及びプログラム
KR102225620B1 (ko) * 2014-04-03 2021-03-12 한화테크윈 주식회사 카메라 모델링 시스템
DE102014108684B4 (de) 2014-06-20 2024-02-22 Knorr-Bremse Systeme für Nutzfahrzeuge GmbH Fahrzeug mit Umfeldüberwachungseinrichtung sowie Verfahren zum Betreiben einer solchen Überwachungseinrichtung
US10623649B2 (en) 2014-07-31 2020-04-14 Hewlett-Packard Development Company, L.P. Camera alignment based on an image captured by the camera that contains a reference marker
DE102014012285A1 (de) * 2014-08-22 2016-02-25 Jenoptik Robot Gmbh Verfahren und Achsenzähl-Vorrichtung zur berührungslosen Achsenzählung eines Fahrzeugs sowie Achsenzählsystem für den Straßenverkehr
US9491452B2 (en) * 2014-09-05 2016-11-08 Intel Corporation Camera calibration
KR102149276B1 (ko) * 2014-10-23 2020-08-28 한화테크윈 주식회사 영상 정합 방법
KR102225617B1 (ko) * 2014-11-03 2021-03-12 한화테크윈 주식회사 영상 정합 알고리즘을 설정하는 방법
CN104464290B (zh) * 2014-12-08 2018-12-21 无锡加视诚智能科技有限公司 一种基于嵌入式双核芯片的道路交通参数采集及违章抓拍系统
CN105744254B (zh) * 2014-12-30 2017-12-29 钰立微电子股份有限公司 校正导引系统和校正导引系统的操作方法
KR102248459B1 (ko) * 2015-02-03 2021-05-06 한국전자통신연구원 카메라 캘리브레이션 장치 및 방법
JP6521658B2 (ja) * 2015-02-13 2019-05-29 センスシングスジャパン株式会社 角度検出システム、プログラムおよび角度検出方法
CN105072414B (zh) * 2015-08-19 2019-03-12 浙江宇视科技有限公司 一种目标检测和跟踪方法及系统
CN105678748B (zh) * 2015-12-30 2019-01-15 清华大学 三维监控系统中基于三维重构的交互式标定方法和装置
TWI573459B (zh) * 2016-03-18 2017-03-01 聚晶半導體股份有限公司 具有多攝像模組的電子裝置及其控制的方法
FR3052278B1 (fr) * 2016-06-07 2022-11-25 Morpho Procede d'autocalibration d'un reseau de cameras et installation correspondante
EP3264761A1 (en) 2016-06-23 2018-01-03 Thomson Licensing A method and apparatus for creating a pair of stereoscopic images using least one lightfield camera
FR3055446A1 (fr) 2016-09-01 2018-03-02 Arjo Solutions Procede et syteme de generation de la signature d'une surface
US10885667B2 (en) 2016-09-28 2021-01-05 Chung Ang University Industry Academic Cooperation Foundation Normalized metadata generation device, object occlusion detection device and method
KR102617992B1 (ko) 2016-12-27 2023-12-26 한화비전 주식회사 예측 진단 장치 및 감시 시스템
CN106897666B (zh) * 2017-01-17 2020-09-08 上海交通大学 一种室内场景识别的闭环检测方法
EP3382646A1 (en) 2017-03-29 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus for providing calibration data, camera system and method for obtaining calibration data
CN109215077B (zh) * 2017-07-07 2022-12-06 腾讯科技(深圳)有限公司 一种相机姿态信息确定的方法及相关装置
US10388029B1 (en) * 2017-09-07 2019-08-20 Northrop Grumman Systems Corporation Multi-sensor pose-estimate system
US10621753B2 (en) * 2017-09-29 2020-04-14 Intel IP Corporation Extrinsic calibration of camera systems
DE102017221721A1 (de) 2017-12-01 2019-06-06 Continental Automotive Gmbh Vorrichtung zum Kalibrieren eines Multikamerasystems
US10762664B2 (en) * 2017-12-29 2020-09-01 Intel Corporation Multi-camera processor with feature matching
US10733761B2 (en) 2018-06-29 2020-08-04 Zoox, Inc. Sensor calibration
CN112368741B (zh) * 2018-06-29 2024-06-11 祖克斯有限公司 传感器校准
CN112655023A (zh) * 2018-06-29 2021-04-13 物流及供应链多元技术研发中心有限公司 用于精确图像融合的多模态成像传感器校准方法
US20210385426A1 (en) * 2018-10-16 2021-12-09 Advertima Ag A calibration method for a recording device and a method for an automatic setup of a multi-camera system
US11609574B2 (en) 2018-11-13 2023-03-21 FLIR Belgium BVBA Extrinsic sensor calibration systems and methods
CN109341685B (zh) * 2018-12-04 2023-06-30 中国航空工业集团公司西安航空计算技术研究所 一种基于单应变换的固定翼飞机视觉辅助着陆导航方法
CN110992261A (zh) * 2019-11-15 2020-04-10 国网福建省电力有限公司漳州供电公司 一种输电线路无人机影像快速拼接的方法
US11209573B2 (en) 2020-01-07 2021-12-28 Northrop Grumman Systems Corporation Radio occultation aircraft navigation aid system
US11468578B2 (en) 2020-09-14 2022-10-11 Amazon Technologies, Inc. Systems and methods for video-based sports field registration
US11514799B2 (en) 2020-11-11 2022-11-29 Northrop Grumman Systems Corporation Systems and methods for maneuvering an aerial vehicle during adverse weather conditions
CN113033348A (zh) * 2021-03-11 2021-06-25 北京文安智能技术股份有限公司 行人重识别的俯视图像校正方法、存储介质和电子设备
KR102585261B1 (ko) 2023-04-26 2023-10-06 주식회사 케이유전자 3차원 보정객체의 단일 영상을 활용하여 적응형 영상 증강 방법 기반의 최적화된 다중 카메라 보정 시스템
KR102585255B1 (ko) 2023-04-26 2023-10-05 주식회사 케이유전자 칼만 필터 기반으로 한 다중 카메라 프레임 대 프레임 매칭 및 추적 알고리즘

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4501239B2 (ja) * 2000-07-13 2010-07-14 ソニー株式会社 カメラ・キャリブレーション装置及び方法、並びに、記憶媒体
US20020158873A1 (en) * 2001-01-26 2002-10-31 Todd Williamson Real-time virtual viewpoint in simulated reality environment
US6917702B2 (en) * 2002-04-24 2005-07-12 Mitsubishi Electric Research Labs, Inc. Calibration of multiple cameras for a turntable-based 3D scanner
US7307654B2 (en) * 2002-10-31 2007-12-11 Hewlett-Packard Development Company, L.P. Image capture and viewing system and method for generating a synthesized image
JP3977776B2 (ja) * 2003-03-13 2007-09-19 株式会社東芝 ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置
EP1637836A1 (en) * 2003-05-29 2006-03-22 Olympus Corporation Device and method of supporting stereo camera, device and method of detecting calibration, and stereo camera system
US7512261B2 (en) * 2004-07-27 2009-03-31 Microsoft Corp. System and method for calibrating multiple cameras without employing a pattern by inter-image homography
DE102006050379A1 (de) * 2006-10-25 2008-05-08 Norbert Prof. Dr. Link Verfahren und Vorrichtung zur Überwachung eines Raumvolumens sowie Kalibrierverfahren
CN101127128B (zh) 2007-09-14 2010-06-09 清华大学 一种环形摄像机阵列校准系统及其方法
KR100966592B1 (ko) * 2007-12-17 2010-06-29 한국전자통신연구원 영상에서 평행 사변형의 호모그래피를 이용한 카메라의 보정 방법
JP4629131B2 (ja) * 2008-09-03 2011-02-09 大日本印刷株式会社 画像変換装置
EP2236980B1 (en) * 2009-03-31 2018-05-02 Alcatel Lucent A method for determining the relative position of a first and a second imaging device and devices therefore
US8917317B1 (en) * 2010-01-18 2014-12-23 Disney Enterprises, Inc. System and method for camera calibration

Also Published As

Publication number Publication date
WO2011117069A1 (en) 2011-09-29
US20130070108A1 (en) 2013-03-21
EP2375376B1 (en) 2013-09-11
KR20120130788A (ko) 2012-12-03
JP2013524593A (ja) 2013-06-17
TWI485650B (zh) 2015-05-21
EP2375376A1 (en) 2011-10-12
CN102834845A (zh) 2012-12-19
TW201214335A (en) 2012-04-01
KR101333871B1 (ko) 2013-11-27
CN102834845B (zh) 2016-10-26
US9303525B2 (en) 2016-04-05

Similar Documents

Publication Publication Date Title
JP5538617B2 (ja) 複数カメラのキャリブレーション用の方法および構成
US10334168B2 (en) Threshold determination in a RANSAC algorithm
US9715761B2 (en) Real-time 3D computer vision processing engine for object recognition, reconstruction, and analysis
JP5580164B2 (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
US8755630B2 (en) Object pose recognition apparatus and object pose recognition method using the same
CN108648194B (zh) 基于cad模型三维目标识别分割和位姿测量方法及装置
Mistry et al. Image stitching using Harris feature detection
WO2019035155A1 (ja) 画像処理システム、画像処理方法、及びプログラム
WO2005081178A1 (en) Method and apparatus for matching portions of input images
CN109919971B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN113689578B (zh) 一种人体数据集生成方法及装置
JP2009093644A (ja) コンピュータによって実施されるシーン内を移動している物体の3d位置を追跡する方法
JP6515039B2 (ja) 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
US9836846B2 (en) System and method of estimating 3D facial geometry
CN110443228B (zh) 一种行人匹配方法、装置、电子设备及存储介质
WO2020151078A1 (zh) 一种三维重建的方法和装置
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP2005031044A (ja) 三次元誤差測定装置
JP7326965B2 (ja) 画像処理装置、画像処理プログラム、及び画像処理方法
Gilbert et al. Inpainting of wide-baseline multiple viewpoint video
Liu et al. Synthesis and identification of three-dimensional faces from image (s) and three-dimensional generic models
Tsapko et al. Three-dimensional room visualization on the basis of two-dimensional pictures
Chand et al. Implementation of Panoramic Image Stitching using Python
Reynolds et al. Swipe mosaics from video
CN117788710A (zh) 基于鱼眼图的三维空间融合方法、装置、电子设备和介质

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131031

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140401

R150 Certificate of patent or registration of utility model

Ref document number: 5538617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140428

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees