JP6769010B2 - ステレオカメラの自己調整 - Google Patents
ステレオカメラの自己調整 Download PDFInfo
- Publication number
- JP6769010B2 JP6769010B2 JP2017534356A JP2017534356A JP6769010B2 JP 6769010 B2 JP6769010 B2 JP 6769010B2 JP 2017534356 A JP2017534356 A JP 2017534356A JP 2017534356 A JP2017534356 A JP 2017534356A JP 6769010 B2 JP6769010 B2 JP 6769010B2
- Authority
- JP
- Japan
- Prior art keywords
- pan
- parallax
- image
- value
- values
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 100
- 238000013178 mathematical model Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 description 24
- 230000009897 systematic effect Effects 0.000 description 22
- 235000008429 bread Nutrition 0.000 description 15
- 238000012937 correction Methods 0.000 description 14
- 230000000875 corresponding effect Effects 0.000 description 14
- 230000009466 transformation Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000001427 coherent effect Effects 0.000 description 4
- 230000000717 retained effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 241000287828 Gallus gallus Species 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/246—Calibration of cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/107—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
- B60R2300/303—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20072—Graph-based image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
Description
P=[R t]
と定義される相対ポーズPを復元することと等価であり、ここで、Rは回転であり、tは位置成分であり、2つのカメラの間の相対ポーズをコード化する。Pは3×4の行列である。H∞は、無限遠における平面のホモグラフィを表す。パラメータfBは、調整された画像の焦点距離と基線(2つのカメラ間の距離)の積である。さらに、それは、2つの光軸間の水平角用のパン(またはパン角)と呼ばれ、この角度は偏揺れとしても知られ、この測定値は、ステレオカメラシステムの両眼転導角(vergence angle)と呼ばれることがある。
するが、本発明の範囲を限定し、調整プロセスを複雑にするステレオカメラ上のアクチュエータを使用する。
、それぞれの画像ペアの第1の画像からの1つの点およびそれぞれの画像ペアの第2の画像からの1つの点を各一致点ペアが備えるように、作成することを備える。言い換えれば、各画像ペアの2つの画像内の対応する点は、画像ペアごとに一定数の一致点ペアを作成するために照合される。この点に関連して、「点」という表現はサブピクセルまたはピクセルに関係することができる。自己調整のためのこの方法では、画像ペアごとに複数の視差(disparity)が作成され、得られた複数の視差が自己調整のために考慮に入れられる
ように、一致点ペアごとに視差が計算される。その中で、「視差」という表現は、ピクセル単位で測定された特定の一致点ペアの2つの点の間の相対水平オフセットとして理解されるべきである。視差を計算する前に一致点ペアの一部を形成する点の調整を実行することは有利である。そのような調整は、相対ポーズPから導出された特定のホモグラフィを各画像に加えることにより、両方の画像を前額平行および垂直に整列させることと等価な古典的なプロセスである。この調整を仮定すると、「視差」という表現は、調整された画像内においてピクセル単位で測定された特定の一致点ペアの2つの点の間の相対水平オフセット(左−右)として理解されるべきであり、「左」はステレオカメラシステムの最も左のカメラを指し、「右」はステレオカメラシステムの最も右のカメラを指す。言い換えれば、左のカメラは、通常、左眼に対応し、右のカメラは、通常、右眼に対応する。たとえば、2つのカメラが水平に整列されるようにステレオカメラが設置された車両の前方の運転方向を見ているとき、最も左のカメラは左のカメラと呼ぶことができ、最も右のカメラは右のカメラと呼ぶことができる。
ン)と、近接シーン(すなわち、ステレオカメラシステムが設置された車両の前方を走行している車両などの近い物体を備えるシーン)との間を適正に区別できないこと、ステレオカメラのためのこれらの利用可能な自己調整方法が、さらにパンを適正に推定できないこと、現在利用可能な自己調整方法が、自己調整用の関連パラメータの推定における複数の問題を提示すること、ならびにすべてのこれらの問題が、視差を計算して、得られた複数の視差を自己調整方法の考慮に入れることによってより良く対処できることの理解に基づく。通常、少なくとも100、好ましくは少なくとも200、より好ましくは少なくとも500の一致点ペアが、画像ペアごとに作成される。通常、少なくとも100、好ましくは少なくとも200、より好ましくは少なくとも500の画像ペアが、方法を実行する間に作成される。
することを可能にするために、それを補正することは可能である。しかしながら、負の視差値における関連ピークを識別することは、絶対に必須であるとはかぎらない。代替として、負の視差値をまったく考慮に入れないか、またはすべての視差値を考慮に入れることも可能であろう。
備える。言い換えれば、一定量の別個のパン値から一定量の補正されたパン値が確立され、この量の補正されたパン値からパン角全体が推定される。これは、統計的に連続したパン角全体の推定を行う利点を有する。しかしながら、理論的には、ただ1つの別個のパン値および/または1つの補正されたパン値からパン角全体を決定することも可能であろう。複数の補正されたパン値を作成するため、および/またはパン角全体を推定するために、好ましくは少なくとも10、より好ましくは少なくとも100、最も好ましくは少なくとも500の別個のパン値が使用される。好ましくは、パン角全体の推定は、方法の中の進行中プロセスであり、ならびに/または、パン角全体は、何度も、および/もしくは反復的に、および/もしくは基本的に無限ループで推定される。
全体の計算は単純明快なので、それを最初に決定することは有利である。視差を考慮に入れることによりパン角の推定における誤差の補償が可能であり、したがって、パン角全体はロール角全体よりも確実に推定でき、したがって、最後にロール角全体を決定することは考えられる最も小さい誤差をもたらすように想像できるので、ロール角全体より前にパン角全体を決定することは有利である。好ましくは、チルト角全体、パン角全体、および/もしくはロール角全体の推定は、方法の中の進行中プロセスであり、ならびに/または、チルト角全体、パン角全体、および/もしくはロール角全体は、何度も、および/もしくは反復的に、および/もしくは基本的に無限ループで推定される。
記憶するステップと、非線形システムの解決策を推定するときに補償値を使用して系統的誤差を局所的に除去するステップとを備える。この文脈では、「系統的残差を学習すること」は、モデルの最良の可能なパラメータの使用にかかわらず、観測空間のいくつかの点において、目的関数が系統的残差を測定できることを意味する。したがって、それらによって損なわれることを回避するために、この残差を学習し除去可能である。
E=t^R
を使用することが好都合であり、tは位置成分を表し、Rは回転を表す。
P0=[I3 O3]、および
P1=P=[R t]
を有する第1のカメラの基準フレーム内に見られるように、3つのオイラー角を有する回転Rのモデルを示す。
R=R(roll,z)*R(tilt,x)*R(pan,y)
R(roll,z)はz軸のまわりのロール角の回転であり、R(tilt,x)はx軸のまわりのチルト角の回転であり、R(pan,y)はy軸のまわりのパン角の回転である。
らの2D分布が十分であると、これらの一致は、内部パラメータの情報に基づいてユークリッド空間に送られ、次いで、基本行列Eが推定される。通常、基本行列Eは、エピポーラ制約条件
mi0 tEmi1=0
を満たすべきであり、mijは射影座標内で表されたそれぞれの画像0または1の中の一致i、すなわち、形式(x,y,1)^tのベクトルであり、(x、y)はそれぞれx軸およびy軸上の座標である。
)を除去する古典的な堅固な方式を含む。
自動車セクタ内の文献は、主に、回転Rのみをモデル化するが、位置成分tをモデル化しない。本発明は、さらに、これは、理論的には、無限遠におけるシーン、すなわち遠方シーンには適しているが、たとえば、駐車するとき、または別の車両に接近するときの近接シーンの場合、位置成分tが(fBパラメータ−焦点距離、基線に応じて)重要であり、それを無視することは、場合によっては復元を偏らせる、という理解に基づく。より近い環境、たとえば、統計的にダウンタウンまたは自宅に入ると、取得された調整は最適ではなく、距離の認知における誤差の原因になる場合がある。
・エピポーラ制約条件は、リジッド(固定)または無限遠におけるシーンに限定されないので、特有の汎用制約条件であり、したがって、広く使用される。しかしながら、最優先に、パン摂動は調整されるカメラのエピポーラ制約条件(水平変位−まれな垂直フロー−図2参照)を破らないので、精細なパン推定には十分には差別的でない。
・H∞の残差は、離れた環境、たとえばハイウェイに限定されるか、または、特に近接と遠方との間の境界が画定されていない近接/遠方環境を選び出す堅固な方式を必要とする。
・(古典的なバンドル調整技法を使用する)再投影誤差は、時間的な一致、ポーズ推定を必要とし、煩雑ではない場合、解決するには複雑である。それらは、誤差の別の重要なソースを追加し、一致の品質は環境に依存する。したがって、この技法は、毎日の状況の中で使用困難である。
・カルマンフィルタは、モデルも観測値も線形ではなく、状態の信念(belief)もガウス分布ではないので、必ずしも適切とはかぎらず、それらは、そのような技法のすべての理論上の前提条件である。直観的に、(たとえば、潜在的に間違った内部パラメータおよび一致の外れ値に起因する)偏りは、特に様々なパラメータが大いに相関するので、フィルタの能力を損なう。
t=sqrt(R)*(−B,0,0)t
などの模擬モデルを使用することのいずれかが可能である。モデルの選択は、(左の画像と右の画像との間の)視差の分布に依存する。この分布が十分大きい視差を含んでいる
場合、位置成分tはモデルに含まれなければならず、そうでない場合、位置成分tは除去されなければならない。そうするために、大きい視差の総数が所与のしきい値と比較される。
panoffset≒Xoffset/f
であることが分かり、Xoffsetは無限遠のピークを0に変換するために必要なオフセットであり、fは焦点距離であり、panoffsetはパンを調整するための補正値である。
pannew←panold+panoffset
を使用して補正され、panoldはこの特定の画像ペア用のパンの現在の推定値であり、pannewは補正されたパン、すなわち、0における視差のピークにつながるパンである。
容可能であるが、(パンが不正確なままである場合があり、これが未知のままであるシーンにおいて)まだ曖昧な状況が存在する。
たは右の画像に対応する各一致点ペアの点)が収集され、局所的な残差が学ばれる。中央値が残差のローカルモデルになる。残差の標準偏差が大きすぎる場合、または中央値がその近傍の値とあまりに異なる場合、このバケットは省略される。したがって、ささいなスキップテーブル、すなわち、任意の一致が拒絶されるいくつかのバケットの識別情報を導入する必要がある。これは図6において視覚化され、そこでは、スキップテーブルを読み取った画像が示され、省略されるべきバケットが×印でマークされている。省略されるバケットは、(この場合)画像の円を観測でき、たぶん、対象の擬似点を作成している遠方の周辺にかかっている。画像によって完全にカバーされる他のバケットの場合、中心から離れた投影モデルの品質が粗雑になると想定される。それは、中心対称も課されている。魚眼レンズを取り扱うと、エピポールは画像の内部または画像の近くにあるかもしれず、近くの点は、調整プロセス中に、y方向に沿って無限遠に向かって送られ、それらそれぞれの残差またはそれらのyフローを使用不可にすることに留意されたい。この全体はそれらの拒絶を説明する。
u0’←u0+fΔθ
を用いてu0を修正する場合、pan0およびpan∞はコヒーレントになり、3D距離は保たれる(本明細書では、それは左のカメラのu0であり、Δθ=θ∞−θ0であり、右のカメラのu0を変更したい場合、符号は反転される必要がある)。実際、pan0の推定は、一見したところ、1つの画像の小さい水平変換に実際には依存していない。p
an∞は、観測された視差に直接依存するので逆である。
#1 強力な較正手順によって提案されたように、すなわち、3Dグリッド/チェッカーボードを使用して、内部パラメータを取得する。
#2 3D距離を使用してpanrefを見つける。それは「右」パンではないかもしれないが、それは、この段階において利用可能な最良の推定である。
#3 多くの一致点ペア、特に遠方の一致点ペア(たとえば、数100k、すなわち、たとえば500000の一致点ペア)を用いて移動シーケンスを行う。
#4 シーケンス上で、「最良」のパラメータ(パン、チルト、ロール、およびt)、ならびにpan∞を推定する(これらのパラメータは、図5に記載されたように前にもたらされたパラメータを指す)。pan∞が十分に明白である場合、それがpanrefと可干渉であることを確認する。そうでない場合、(実験的なセットアップからの誤差の様々なソースに応じて)最も信頼するものを取得する。次いで、2つのパンの間の非干渉性Δθを評価し、上記で説明されたように、それに応じてu0を更新する。
#5 識別された較正(更新されたu0、「最良」のパラメータ)を用いてすべての一致を調整する。
#6 上記で説明されたように残りのフローを学習する。
#7 確認するためだけに、補償テーブルを使用してシーケンス上の完全な推定を再開する。安定したパンを観測するべきである。
#8 新しい安定したパンの推定が#5において使用されたパンとあまりに異なる場合、この新しいパン、場合によっては新しいu0を用いて学習するフロー上の段階#5からループできる。
明細書を用いて、残りのフロー内(すなわち、系統的誤差内)の反復構造も観測している。実際、バケット当たり、残りのフローの符号(すなわち、正または負)の遠心分布を観測できる。この反復構造は、以下の証拠となる。
・補償テーブル内に包括的な傾向/平滑性が存在する。
・この16×12の解像度は、正確に補償をサンプルするには少し粗雑である。
Claims (9)
- ステレオカメラの自己調整のための方法であって、
a)前記ステレオカメラが、第1のカメラと第2のカメラとを備え、
b)前記方法が、それぞれ、前記第1のカメラによって撮られた複数の第1の画像および前記第2のカメラによって撮られた複数の第2の画像から複数の画像ペアを、それぞれ、前記第1のカメラおよび前記第2のカメラによって基本的に同時に撮られた2つの画像を各画像ペアが備えるように、作成するステップを備え、
c)前記方法が、画像ペアごとに、各画像ペアの前記2つの画像内の対応する点から複数の一致点ペアを、前記それぞれの画像ペアの前記第1の画像からの1つの点および前記それぞれの画像ペアの前記第2の画像からの1つの点を各一致点ペアが備えるように、作成する(S01)ステップを備え、
d)画像ペアごとに複数の視差が作成され、前記得られた複数の視差が前記自己調整のために考慮に入れられるように、一致点ペアごとに視差が計算され(S03)方法において、
画像ペアごとに、前記複数の視差から視差ヒストグラムが作成され(S03)、前記自己調整がこの視差ヒストグラムに基づく(S03、S12)ことと、
画像ペアごとに、前記対応する視差ヒストグラムが負の視差値における関連ピークを備えるかどうかが判定され(S12)、関連ピークとは、他のピークの相対値よりも高い相対値を有するピーク、および/または、ある大きさのしきい値より上の絶対値を有するピークであり、わずかに正の視差値における関連ピークも、好ましくは負の視差値における関連ピークとして解釈されることと、
a)前記方法が、画像ペアごとにパン値を決定し(S12)、複数の決定されたパン値をもたらすステップを備え、
b)前記方法が、好ましくは、ある決定されたパン値を補正し、残りの決定されたパン値を補正しない(S12)ことにより、前記複数の決定されたパン値から複数の補正されたパン値を作成するステップを備え、
c)前記方法が、前記複数の補正されたパン値からのパン角全体の推定(S13)を備えることと、
負の視差値における関連ピークが検出された場合、前記対応する画像ペアの前記決定されたパン値が補正され、および/または負の視差値における関連ピークが検出されなかった場合、前記対応する画像ペアの前記決定されたパン値が補正されない(S12)ことと
、
前記方法を実行するために使用される数学モデルが、画像ペアごとに、可能なモデルのグループから選ばれ(S04)、前記複数の視差が考慮に入れられ、前記視差ヒストグラムが考慮に入れられる
ことを特徴とする、方法。 - a)前記ヒストグラムが少なくとも所定の量の大きい視差を備える場合、位置成分(t)を備える数学モデルが前記モデルのグループから選ばれ(S04)、
b)前記ヒストグラムが前記所定の量よりも少ない大きい視差を備える場合、位置成分(t)をもたない数学モデルが前記モデルのグループから選ばれる(S04)
ことを特徴とする、請求項1に記載の方法。 - a)前記方法が、画像ペアごとにチルト値を決定し(S07)、複数の決定されたチルト値をもたらすステップを備え、
b)前記方法が、前記複数の決定されたチルト値からのチルト角全体の推定(S07)を備え、
c)前記方法が、画像ペアごとにロール値を決定し、複数の決定されたロール値をもたらす(S12)ステップを備え、および/または
d)前記方法が、前記複数の決定されたロール値からのロール角全体の推定(S12)を備え、
e)前記チルト角全体が、前記パン角全体が推定される前、および/または前記ロール角全体が推定される前に推定され、
f)前記パン角全体が、前記ロール角全体が推定される前に推定される
ことを特徴とする、請求項1または2に記載の方法。 - 前記自己調整のために補償テーブルが考慮に入れられ、前記補償テーブルが複数のフロー補償値を備え、各フロー補償値が各一致点ペアの1つの点に潜在的に適用されるフロー補償を示す
ことを特徴とする、請求項1から3のいずれか一項に記載の方法。 - 前記フロー補償が、各画像ペアの1つの画像、好ましくは各画像ペアの右の画像のみに適用され、前記フロー補償が、
a)前記フロー補償が適用されるべき前記画像をグリッド、好ましくは16×12のグリッドとして細分化し、こうして複数のバケット、好ましくは192個のバケットを作成し、こうして前記フロー補償が適用される前記画像のあらゆる点を1つの特定のバケットに入るようにするステップであって、各バケットが前記補償テーブルの1つのフロー補償値に対応する、ステップと、
b)前記対応するフロー補償値によって示された前記フロー補償をあらゆるバケット内の各点に適用するステップと
を備えることを特徴とする、請求項4に記載の方法。 - 前記方法が、画像ペアごとの別個の位置補償テーブルを決定するステップを備え、前記別個の位置補償テーブルがパン角、及び/又は、ロール角、及び/又は、チルト角から作成されたものではなく、前記別個の位置補償テーブルが、好ましくは複数の別個の位置補償テーブルをもたらす垂直オフセットテーブルであり、若しくは好ましくは垂直オフセットテーブルであり、前記方法が、前記複数の別個の位置補償テーブルから、位置補償テーブル全体、好ましくは垂直オフセットテーブル全体を推定するステップを備える
ことを特徴とする、請求項4または5に記載の方法。 - 前記方法が、前記補償テーブルを作成する手順を備え、
前記補償テーブルを作成する前記手順が、
a)強力な較正手順、特に3Dグリッドおよび/またはチェッカーボードを使用する較正手順によって前記ステレオカメラの内部パラメータを定義するステップと、好ましくは、
b)3D基準距離を使用することにより、基準パン角および/もしくは基準幾何形状値、好ましくは変換を見つけるステップ、または
c)請求項4から6のいずれか一項に記載の前記ステップを適用することにより、前記基準パン角および/または前記基準幾何形状値を見つけるステップのいずれかと
を備えることを特徴とする、請求項4から6のいずれか一項に記載の方法。 - 請求項1から7のいずれか一項に記載の方法を実行するように構成された、デバイス、特にステレオカメラシステム。
- 請求項8に記載のデバイスを備える、車両。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102015000250.3 | 2015-01-16 | ||
DE102015000250 | 2015-01-16 | ||
PCT/EP2016/050916 WO2016113429A2 (en) | 2015-01-16 | 2016-01-18 | Self-rectification of stereo camera |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018508853A JP2018508853A (ja) | 2018-03-29 |
JP2018508853A5 JP2018508853A5 (ja) | 2019-01-31 |
JP6769010B2 true JP6769010B2 (ja) | 2020-10-14 |
Family
ID=55177942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017534356A Active JP6769010B2 (ja) | 2015-01-16 | 2016-01-18 | ステレオカメラの自己調整 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20180007345A1 (ja) |
JP (1) | JP6769010B2 (ja) |
DE (1) | DE112016000356T5 (ja) |
WO (1) | WO2016113429A2 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2014239979B2 (en) | 2013-03-15 | 2017-06-22 | Aurora Operations, Inc. | Methods, systems, and apparatus for multi-sensory stereo vision for robotics |
US10077007B2 (en) * | 2016-03-14 | 2018-09-18 | Uber Technologies, Inc. | Sidepod stereo camera system for an autonomous vehicle |
US20170359561A1 (en) * | 2016-06-08 | 2017-12-14 | Uber Technologies, Inc. | Disparity mapping for an autonomous vehicle |
WO2018195096A1 (en) * | 2017-04-17 | 2018-10-25 | Cognex Corporation | High-accuracy calibration system and method |
US11568568B1 (en) * | 2017-10-31 | 2023-01-31 | Edge 3 Technologies | Calibration for multi-camera and multisensory systems |
US10967862B2 (en) | 2017-11-07 | 2021-04-06 | Uatc, Llc | Road anomaly detection for autonomous vehicle |
CN111343360B (zh) * | 2018-12-17 | 2022-05-17 | 杭州海康威视数字技术股份有限公司 | 一种校正参数获得方法 |
CN109520480B (zh) * | 2019-01-22 | 2021-04-30 | 合刃科技(深圳)有限公司 | 基于双目立体视觉的测距方法及测距系统 |
US11427193B2 (en) | 2020-01-22 | 2022-08-30 | Nodar Inc. | Methods and systems for providing depth maps with confidence estimates |
KR20230104298A (ko) * | 2020-01-22 | 2023-07-07 | 노다르 인크. | 비-강성 스테레오 비전 카메라 시스템 |
CN111743510B (zh) * | 2020-06-24 | 2023-09-19 | 中国科学院光电技术研究所 | 一种基于聚类的人眼哈特曼光斑图像去噪方法 |
US20240169574A1 (en) * | 2021-01-27 | 2024-05-23 | Sony Group Corporation | Mobile body, information processing method, and program |
CN112991464B (zh) * | 2021-03-19 | 2023-04-07 | 山东大学 | 基于立体视觉的三维重建的点云误差补偿方法及系统 |
EP4325836A4 (en) * | 2021-04-15 | 2024-09-25 | Sony Group Corp | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM |
US11577748B1 (en) | 2021-10-08 | 2023-02-14 | Nodar Inc. | Real-time perception system for small objects at long range for autonomous vehicles |
CN114897997B (zh) * | 2022-07-13 | 2022-10-25 | 星猿哲科技(深圳)有限公司 | 相机标定方法、装置、设备及存储介质 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3617709B2 (ja) * | 1995-11-10 | 2005-02-09 | 株式会社日本自動車部品総合研究所 | 距離計測装置 |
EP2026589B1 (en) | 2007-08-10 | 2011-02-23 | Honda Research Institute Europe GmbH | Online calibration of stereo camera systems including fine vergence movements |
JP2009048516A (ja) * | 2007-08-22 | 2009-03-05 | Sony Corp | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
DE102008008619A1 (de) | 2008-02-12 | 2008-07-31 | Daimler Ag | Verfahren zur Kalibrierung eines Stereokamerasystems |
US8120644B2 (en) * | 2009-02-17 | 2012-02-21 | Autoliv Asp, Inc. | Method and system for the dynamic calibration of stereovision cameras |
JP5440461B2 (ja) * | 2010-09-13 | 2014-03-12 | 株式会社リコー | 校正装置、距離計測システム、校正方法および校正プログラム |
US20120242806A1 (en) | 2011-03-23 | 2012-09-27 | Tk Holdings Inc. | Dynamic stereo camera calibration system and method |
US9191649B2 (en) * | 2011-08-12 | 2015-11-17 | Qualcomm Incorporated | Systems and methods to capture a stereoscopic image pair |
EP3869797B1 (en) * | 2012-08-21 | 2023-07-19 | Adeia Imaging LLC | Method for depth detection in images captured using array cameras |
US9519968B2 (en) * | 2012-12-13 | 2016-12-13 | Hewlett-Packard Development Company, L.P. | Calibrating visual sensors using homography operators |
US11290704B2 (en) * | 2014-07-31 | 2022-03-29 | Hewlett-Packard Development Company, L.P. | Three dimensional scanning system and framework |
WO2016154123A2 (en) * | 2015-03-21 | 2016-09-29 | Mine One Gmbh | Virtual 3d methods, systems and software |
US10554956B2 (en) * | 2015-10-29 | 2020-02-04 | Dell Products, Lp | Depth masks for image segmentation for depth-based computational photography |
DE102016201741A1 (de) * | 2016-02-04 | 2017-08-10 | Hella Kgaa Hueck & Co. | Verfahren zur Höhenerkennung |
-
2016
- 2016-01-18 DE DE112016000356.0T patent/DE112016000356T5/de active Pending
- 2016-01-18 US US15/539,984 patent/US20180007345A1/en not_active Abandoned
- 2016-01-18 WO PCT/EP2016/050916 patent/WO2016113429A2/en active Application Filing
- 2016-01-18 JP JP2017534356A patent/JP6769010B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
DE112016000356T5 (de) | 2018-01-11 |
WO2016113429A3 (en) | 2016-09-09 |
JP2018508853A (ja) | 2018-03-29 |
US20180007345A1 (en) | 2018-01-04 |
WO2016113429A2 (en) | 2016-07-21 |
WO2016113429A4 (en) | 2017-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6769010B2 (ja) | ステレオカメラの自己調整 | |
US10097812B2 (en) | Stereo auto-calibration from structure-from-motion | |
US11270467B2 (en) | System and method for camera calibration | |
CN113920205B (zh) | 一种非同轴相机的标定方法 | |
CA3206206A1 (en) | Device and method for correspondence analysis in images | |
CN111971956B (zh) | 用于动态立体校准的方法及系统 | |
JP2019139420A (ja) | 立体物認識装置、撮像装置および車両 | |
KR20230003803A (ko) | 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법 | |
Miksch et al. | Automatic extrinsic camera self-calibration based on homography and epipolar geometry | |
JP2017517727A (ja) | 三次元情報の規模測定 | |
CN112712566B (zh) | 基于结构参数在线校正的双目立体视觉传感器测量方法 | |
Beauchemin et al. | Modelling and removing radial and tangential distortions in spherical lenses | |
CN102968784B (zh) | 一种多视角拍摄进行孔径合成成像方法 | |
CN112262411A (zh) | 图像关联方法、系统和装置 | |
CN107622514B (zh) | 摄像机凸镜模型自主标定方法 | |
EP4016444A1 (en) | Method for rectification of images and/or image points, camera-based system and vehicle | |
Yang et al. | Error model for scene reconstruction from motion and stereo | |
JPWO2020095549A1 (ja) | 撮像装置 | |
JP6570321B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
Ahouandjinou et al. | An approach to correcting image distortion by self calibration stereoscopic scene from multiple views | |
KR101047150B1 (ko) | 레이저스캐너와 비디오카메라간 물리적 편의 보정장치 및 방법과, 물리적편의보정치 측정장치 및 방법 | |
Knorr et al. | Robust ground plane induced homography estimation for wide angle fisheye cameras | |
CN117152694A (zh) | 自动驾驶系统光学攻击检测方法、装置、设备及存储介质 | |
WO2021109068A1 (zh) | 手势控制方法及可移动平台 | |
Morat et al. | Evaluation method for automotive stereo-vision systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181214 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181214 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200603 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200623 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200806 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200903 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6769010 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |