JP7464745B2 - 単一カメラの較正 - Google Patents

単一カメラの較正 Download PDF

Info

Publication number
JP7464745B2
JP7464745B2 JP2022557818A JP2022557818A JP7464745B2 JP 7464745 B2 JP7464745 B2 JP 7464745B2 JP 2022557818 A JP2022557818 A JP 2022557818A JP 2022557818 A JP2022557818 A JP 2022557818A JP 7464745 B2 JP7464745 B2 JP 7464745B2
Authority
JP
Japan
Prior art keywords
patch
camera
image
offset
positions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022557818A
Other languages
English (en)
Other versions
JPWO2021213879A5 (ja
JP2023520189A (ja
Inventor
パンディ・アビナブ
ジェイブド・ナウマン
チニョリ・ロドルフォ
ビシュノイ・サハーシュ
カディロフ・アレクサンダー
ジロット・ロバート
Original Assignee
コンチネンタル・オートナマス・モビリティ・ジャーマニー・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コンチネンタル・オートナマス・モビリティ・ジャーマニー・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング filed Critical コンチネンタル・オートナマス・モビリティ・ジャーマニー・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング
Publication of JP2023520189A publication Critical patent/JP2023520189A/ja
Publication of JPWO2021213879A5 publication Critical patent/JPWO2021213879A5/ja
Application granted granted Critical
Publication of JP7464745B2 publication Critical patent/JP7464745B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、車両に搭載されているカメラの外部変数を決定する、単一カメラ較正の方法及びシステム、単一カメラ較正の使用、コンピュータプログラム要素ならびにコンピュータ可読媒体に関する。
車両の後部(リアカメラの外部変数、例えばピッチ角、ヨー角、ロール角、高さは、従来、所定の目標使って計算される。較正対象のカメラは、目標の既知の寸法を持つパターンを検出する。得られ画像外部ソルバー(問題を解くためのアルゴリズム)により処理され、カメラの外部を計算する。良好な結果を得るために、目標は非常によく維持される必要があり、明るい照明を備える良好で実験室のような環境条件が設けられる必要がある。照明のいかなる変化そして目標検出しやすさ較正の正確な測定に影響を及ぼし、較正には、労力と時間を要するので、高価である。
そのため、カメラを較正する労力と費用を削減する必要があるだろう
本課題は、独立請求項の主題により解決される。
複数の実施形態は、従属請求項、詳細な説明及び添付の図面により提供される。
同様に、説明される複数の実施形態は、単一カメラ較正の方法、単一カメラの較正システム、単一カメラ較正の使用、コンピュータプログラム要素及びコンピュータ可読媒体に関する。
さらに、方法に関する本発明の全ての実施形態は、記載されているステップの順序で実行されてよいが、これは本方法のステップの唯一かつ必須の順序では必ずしもないことに注意すべきである。本開示の方法は、以下において明示的にその逆と指摘されない限り、開示されているステップの他の順序で、各方法形態から逸脱することなく実行してよい
技術用語はその共通の意味により、使われる。特定の意味が特定の用語に付与される場合、以下、その用語が使われる文脈において用語の定義が与えられる。
第1観点によると、カメラの外部変数を決定する方法が提供される。本方法は以下のステップを備える。第1に、カメラの移動を開始させる。第2ステップにおいて、
第1時点における第1パッチと第1パッチに対して平行な第2パッチとを持つ第1未処理画像と、第2時点における第3パッチと第3パッチに対して平行な第4パッチとを持つ第2未処理画像とが撮影され、第1パッチと第2パッチとの間の距離は、第3パッチと第4パッチとの間の距離と同じである。次のステップにおいて、第1パッチにおける少なくとも1つの画像特徴の基準位置Aと、第2パッチにおける少なくとも1つの画像特徴の基準位置Cと、第3パッチにおける第1パッチの少なくとも1つの特徴のオフセット位置Bと、第4パッチにおける第2パッチの少なくとも1つの特徴のオフセット位置Dとが検出される。次のステップにおいて、基準位置A、C、オフセット位置B、D及び第1時点と第2時点との間に移動カメラが走行した決定距離に基づいてエピポーラモデルが適用される。最後に、エピポーラモデルの出力としてカメラの外部変数が決定される。
言い換えると、移動カメラは画像を撮影し、各画像は道路の一部を表す。パッチ1、3は、それぞれ、パッチ2、4に対して平行であるか略平行である。パッチ1、3はカメラ方向に関して左側のパッチであり、第2及び第4パッチは右側に位置する。パッチ1、2を持つ第1画像とパッチ3、4を持つ第2画像は順々に迅速に撮影されてよく、その結果、左側のパッチ、よって画像特徴も部分的に重なり合う。右側のパッチについても同様である。画像は1つのカメラにより撮影されるため、左側と右側のパッチとの間の距離は各画像において略同一である。検出された特徴は、カメラ座標系の各画像上の点を示してよく、それにより4つの点A、B、C、Dが得られる。AとBの現実の距離と共にこれらの座標はエピポーラモデルへの入力であり、下記において詳細に説明される。この入力により、カメラの移動の方向を幾何的に決定できて、もしくは直線移動及び移動が直線的でない場合には回転を導出できる。さらに、カメラの高さを決定できて、その結果、全ての所望の外部変数を決定できる。
「パッチ」の用語は、画像に捉えられた内容について使われる。これはカメラ下の任意の移動するテクスチャ、つまり関心のある領域であってよい。これは、例えば、カメラが車両に搭載されている場合、道路のアスファルト構造体であってよい。
実施形態によると、カメラの移動は直線移動、円移動又はその両方である。非直線移動は、実質的に、直線移動と回転とに分割されるため、現実の(「実際の」)経路は任意の経路であってよい。純粋に直線的な移動において、回転は一切検出されないか、ほぼ検出されない。実際の円状の経路により、直線移動及び回転が得られることになる。
実施形態によると、カメラはフィッシュアイカメラであり、基準位置A、オフセット位置B、基準位置C及びオフセット位置Dを検出するステップは、第1パッチ、第2パッチ、第3パッチ及び第4パッチの地表面マッピングを備え、それに対応するパッチを、所定の画像フォーマットで仮想平面において2次元の地表面画像として得る。地表面は、それに関連する構成可能な変数、例えば現実世界のメータ単位のパッチの高さ、その投影、つまり画素単位での幅と長さ、及び地表面が車両の前にカメラ基準系からどれだけ離れて配置されているかを決定するずれ(オフセット)を持つ。フィッシュアイカメラ用に球面モデルが使われてもよい。このことは、フィッシュアイ画像における各画素について、点が単位球面に保存されることを意味する。球面は、原点をOとして軸x、y、zを持つ90°の座標系を持ち、これは本開示においてはカメラ座標系と称される。地表面マッピングに関して、アルゴリズムは現実の平面表面、例えば路面から2つのパッチを選び出す。例えば128×256画素持つ、選び出されたパッチは、現実の平面表面又は路面が投影される仮想平面を示す。
実施形態によると、仮想平面における第1パッチ、第2パッチ、第3パッチ及び第4パッチは前処理され、前処理は平均輝度値を減算することと、ガウス窓を適用することとを備え、ガウス窓は画像の中心に最大を、画像のに最小を持つ
つまり、前処理の入力は、所定のフォーマットで仮想平面において道路パッチを持つ地表面画像である。前処理は、4つの地表面画像又は地表面パッチのそれぞれについて、それぞれ行われる。画像の平均輝度値は原画像から減算され、そして得られた画像はガウス窓画像により乗算される。ガウス窓画像は画像の近傍の画素を除去し、画像の中心近傍の特徴を強調する。
実施形態によると、第1パッチの基準位置Aに対する第3パッチのオフセット位置B及び第2パッチの基準位置Cに対する第4パッチのオフセット位置Dは、位相相関を行うことにより決定される。
実施形態によると、位相相関は高速フーリエ変換、FFTを備える。基準位置A、Cは画像の自動相関により、もしくは同等に、画像の中心を決定することにより得られてよく、オフセット位置B、Dは、第1パッチを第3パッチと、そして第2パッチを第4パッチと位相相関させることにより決定される。より具体的には、相関は、画像の特徴をフーリエ変換して、それに対応するそのように変換された画像を乗算することにより行われる。基準位置が画像の中心である理由は、画像をずれのない垂下との相関が自動相関に相当し、画像の中心におけるピークが得られるからである。
実施形態によると、基準位置A、C及びオフセット位置B、Dは相対的な位置であり、オフセットは勾配に基づく類似度測定を使って決定される。言い換えると、位相相関出力(FFT)からのオフセットが得られ、第1画像パッチ、つまり第1及び第2パッチ、及び第2画像パッチ、つまり第3及び第4パッチの勾配が計算される。第2画像パッチの勾配はずらされる(シフトされる。その後、第2及び第1画像パッチの勾配間のドット積が計算される。得られた画像は、画素座標、つまり位置を得るためにぼかされるか、フィルタ処理され、その結果、最も高い類似性を持つ
実施形態によると、オフセット位置B及びオフセット位置Dを検出するステップは、カメラから基準位置A、C及びオフセット位置B、Dまでの地表面の単位ベクトルを決定することをさらに備える。この処理段階において、カメラ、つまりカメラ座標系の原点から位置A、B、C、Dまでの方向のみが既知であることに注意されたい。オフセットは既知である一方、座標系における絶対的な位置は未知である。そのため、原点から位置までのベクトルというよりもむしろ単位ベクトルが決定される。オフセットにより、外部を決定するべく、以下のステップにおいて使われる複数の拘束条件のうちの1つが得られる。
実施形態によると、エピポーラモデルを適用するステップは、
第1サブステップにおいて、基準位置Bからオフセット位置Dまでと同じ方向である、基準位置Aからオフセット位置Cまでの第1方向Vと、オフセット位置Cからオフセット位置Dまでと同じ方向である、基準位置Aから基準位置Bまでの第2方向Wとを決定するために地表面の単位ベクトルを使うことと、
第1方向V及び第2方向Wの法線ベクトルN=V×Wを決定することと、
原点から画像位置A、B、C、Dにそれぞれ対応する現実の位置A’、B’、C’、D’までのベクトルを決定することによりカメラの高さHを決定することと、
備える
さらなる観点によると、カメラを較正する単一カメラの較正システムが提供され、カメラを較正する単一カメラの較正システムは、
カメラが、移動時に、第1時点における第1パッチと第1パッチに対して平行な第2パッチとを持つ第1未処理画像と、第2時点における第3パッチと第3パッチに対して平行な第4パッチとを持つ第2未処理画像とを撮影するように較正されるようにカメラを制御するように構成されるカメラ制御装置であって、第1パッチと第2パッチとの間の距離が、第3パッチと第4パッチとの間の距離と同じである、カメラ制御装置と、
第1パッチにおける少なくとも1つの画像特徴の基準位置Aと、
第2パッチにおける少なくとも1つの画像特徴の基準位置Cと、
第3パッチにおける第1パッチの少なくとも1つの特徴のオフセット位置Bと、
第4パッチにおける第2パッチの少なくとも1つの特徴のオフセット位置Dと
を検出するように構成され、基準位置A、C、オフセット位置B、D及び第1時点と第2時点との間に移動カメラが走行した決定距離に基づいてエピポーラモデルを適用するように構成され、エピポーラモデルの出力としてカメラの外部変数を決定するように構成される処理モジュールと
を備える。
実施形態によると、システムはカメラ制御部により制御されるカメラをさらに備え、カメラは車両に搭載される。
さらなる観点によると、カメラを較正する上記単一カメラの較正システムを備える車両が提供される。
さらなる観点によると、車両に搭載されるカメラの外部変数を決定する上記単一カメラの較正システムの使用が記載される。
一例において、本方法のステップを実施する手段を備えるデータ処理システム、例えばコンピュータが提供される。データ処理システムは、プログラマブルロジックを持たない回路を備えてよく、又は、マイクロコントローラ、フィールドプログラマブルゲートアレイ(FPGA)、ASIC、コンプレックスプログラマブルロジックデバイス(CPLD)又は当業者に既知である任意の他のプログラマブルロジックデバイスであるか、又はこれを備えてよい。
さらなる観点によると、プログラムがコンピュータにより実行されると、コンピュータに本方法のステップを実施させる命令を備えるコンピュータプログラム要素が提供される。コンピュータプログラム要素は、コンピュータプログラムの一部であってよいが、それ自体がプログラム全体であってもよい。例えば、コンピュータプログラム要素は、本発明を達成するために既存のコンピュータプログラムの更新に使われてよい。
さらなる観点によると、コンピュータにより実行されると、コンピュータに本方法のステップを実施させる命令を備えるコンピュータ可読媒体が提供される。コンピュータ可読媒体は、記憶媒体、例えばUSBディスク、CD、DVD、データ記憶装置、ハードディスク、埋め込みシステムの集積チップメモリ又は上記プログラム要素を記憶可能な任意の他の媒体として見なされてよい。
このようにして、アルゴリズムは、車両がEOL(end of line)工場、サービスステーション及び通常の運転条件において運転されている際にカメラの外部(変数)を推定するという課題を解決する。アルゴリズムは、例えばリアカメラのCAD値の形態のすなわち、及びY位置、カメラのx、y、z軸を中心とする回転といった、既知の内部(変数)持つカメラを必要とする。さらに、アルゴリズムは、車両の速度、操舵及びサスペンション信号、上記のその対応する信号を持つカメラにより撮影された画像を必要とする。
アルゴリズムは、ランタイムとメモリに関して限られたリソースを持つ埋め込みプラットフォームにおいて実装可能な非常に軽量なアルゴリズムである。単一カメラの較正専用の目標又はパターンを維持する必要はなく、較正のための専用の空間又は環境を設ける必要はない。カメラは、移動画像を撮影できるので、EOLにおいて運転されている間又はコンベヤベルト上にある際に較正されてよい。アルゴリズムは、4つのカメラを持つサラウンドビューシステムに関連する仕事に合わせて調節されてよい。
本発明のこれら及び他の態様は、以下、説明される実施形態から明らかになり、これらに基づいて解明されるだろう。
以下、本発明の例示的な実施形態について、図面を参照しながら説明する。
図1は、カメラの外部変数を決定する方法のフロー図を示す。 図2は、単一カメラ較正システムの概略図を示す。 図3は、地表面マッピングの説明を示す。 図4は、エピポール計算の説明を示す。 図5は、周波数領域スペクトル分析前のパッチ前処理の概略図を示す。 図6は、周波数領域スペクトル分析及び2つのパッチ間のオフセットを計算するフロー図を示す。 図7は、パッチのシフトの図を示す。 図8は、カメラからパッチ上の特徴点までの地表面ベクトルの概略図を示す。 図9は、仮想タイヤの概略図を示す。 図10は、カメラの球面上の2つの点の解釈の図を示す。 図11は、地表面に投影された、カメラの球面上の点とカメラの中心の幾何及び張られた平面の法線ベクトルの図を示す。 図12は、カメラ移動の図を示す。
図は概略的な記載に過ぎず、本発明の実施形態を例示しているに過ぎない。同一又は等価の要素には、原則的に同じ参照符号が付されている。
図1は、以下のステップを備える、カメラの外部変数を決定する方法100のフロー図を示す。第1ステップ102において、カメラの移動を開始させる。第2ステップ104において、カメラを移動させることにより、2つの未処理画像を順々に2つの異なる場所で撮影する。第1時点における第1パッチと第1パッチに対して平行な第2パッチとを持つ第1未処理画像と、第2時点における第3パッチと第3パッチに対して平行な第4パッチとを持つ第2未処理画像とが撮影され、第1パッチと第2パッチとの間の距離は、第3パッチと第4パッチとの間の距離と同じである。次のステップ108において、第1パッチにおける少なくとも1つの画像特徴の基準位置Aと、第2パッチにおける少なくとも1つの画像特徴の基準位置Cと、第3パッチにおける第1パッチの少なくとも1つの特徴のオフセット位置Bと、第4パッチにおける第2パッチの少なくとも1つの特徴のオフセット位置Dとが検出される。さらなるステップ110において、基準位置A、C、オフセット位置B、D及び第1時点と第2時点との間に移動カメラが走行した決定距離に基づいてエピポーラモデルが適用される。最後のステップ112において、エピポーラモデルの出力としてカメラの外部変数が決定される。
図2は、外部変数を決定するように構成されシステム200を示す。システムは、カメラ202を制御するカメラ制御部220と、処理モジュール230とを備える。単一カメラ較正システム200は、例えば車両に搭載されているカメラの「オンライン」較正のために車両に設けられてよい。カメラ202は、有線又は無線でアクセスされてよい。処理モジュール230は、地表面マッピングモジュール204を備え、未処理画像202は、地表面マッピングモジュール204に入力され、地表面マッピングモジュール204は、未処理画像を所定のフォーマットに変換する。未処理画像は、例えば車両が移動する道路の2つの隣り合うパッチをそれぞれ持つ画像を撮影してよい。地表面マッピングモジュール204は、例えば図3に示されているように1m×1.5mのサイズを持つ、道路の平面パッチの未処理画像302を、画像に又は256画素×512画素のサイズを持つパッチ312に投影し、その結果、パッチの長さに沿って、1/256=0.0039メートル/画素の解像度が得られる。このステップは、道路の2つのパッチをそれぞれ備える、2つの連続する時点において撮影された2つの画像について行われる。例えば、図3に示されているように、第1画像は、第1時点における、カメラ322の光(x)軸に対する左側パッチ302及び右側パッチ304と、第2時点における、道路のさらなる2つのパッチ(図3においては不図示)とを備える。図3は、本例においては画像を撮影するリアビューカメラ322と、車両300の左側、右側及び前側にさらなるカメラ324とを持つ車両300をさらに示す。また、さらなるカメラは、カメラ322と同様の画像を撮影してよいため、これらの画像も上記方法により処理されてよい。
各時点(及び短い時間間隔)において、図4に示されているように、後輪の中心は、車両が移動する円周の中心に沿って回転する。提案される方法に関して図2及び4を参照すると、車両エゴモーションモジュール210により任意の2つの時点間の以下の変数の値が提供される。これらの変数は、カメラの高さの決定に使われる、エピポール長さ、つまりベクトル長さ404と、エピポールにより前方向402との決定に使われる、エピポール404と前方向402との間の角度と、車両の角度、よってカメラ回転の角度406である。この角度406は、球面画像の回転を補償するべく使われる。車両エゴモーションモジュール210の入力、例えば車両速度、ホイール角度、場合によっては、サスペンションデータは、車両センサ208により例えばCANバスを使って提供される。変数の値は、地表面ベクトルモジュール212に提供されるが、このことについては後に説明する。
図2及び図5を参照すると、オフセット決定モジュール206において実行されるさらなる処理ステップにおいて、パッチ、例えば図5のパッチ502は、パッチ502から平均値を減算し、得られたパッチ504をガウス窓506により乗算することにより前処理されてよく、これによりパッチ504の近傍の画素を除去し、画像の中心近傍の特徴により高い重みを付けることにより、これら特徴がより顕著になる。ここで得られたパッチ508は、FFTに基づくスペクトル分析用の入力として使われ、これによりオフセットを決定する。
ここで図6を参照すると、FFTを適用することにより、例えば第1時点において撮影された道路の第1左側パッチ602の特徴を、第2時点において撮影された道路の第2左側パッチ604の特徴に合致させてよい。その結果、第1パッチ602と第2パッチ604の特徴間の、車両が第1時点と第2時点との間に走行した距離に対応するオフセットが決定されてよい。その処理が、より詳細に図6に示されている。位相相関は、高速フーリエ変換(FFT)を使って、前処理画像602、604を変換することにより行われる。606において、それらのスペクトルが乗算され、積が逆変換(IFFT)されることにより、その結果、位相相関画像が608で得られる。IFFTは、得られたスペクトルに適用され、画素領域の画像が得られると、得られた画像は610において調整され、中心をゼロ周波数成分とする。単にこのことは、ずらし(シフト)のない、2つのパッチが位相相関されると、シフトのない結果が画像の中心に配置されることを意味する。予測された検索窓を定義する目標マスクは、612、最大相関、つまりシフトされた画素位置を見つけるために適用されてよい。612で目標マスクを適用する理由は以下において説明される。位相相関画像におけるピーク画素値は2つのパッチ602、604間のシフトに関する情報を提供する。画像スケールの変化に応じてかつカメラの搭載位置に応じて、パッチ特徴の性状も変化する可能性がある。その結果、画像を通して複数の不正確な高い相関値が得られる場合がある。これを克服するために、ピーク値は予測され、画素の予想一の近傍におけるピーク値のみが考慮される。このために、目標マスクは計算され、これにより、第1パッチの中心画素の予測位置の周辺において指数関数的に減衰する重みを付ける。上述したように、シフトなしの相関により、画像の中心にピーク画素値が生じる場合があるため、画像の中心は、シフトされたピーク画素値が関連する基準位置である。それにより、位相相関後に中心画素座標をピーク画素値の座標から減算することにより、画素のシフトが得られる。
図7を参照すると、2つのパッチ602、604においてよりはっきり区別できる特徴を考慮に入れるため、さらに勾配に基づく類似度測定が使われる。このために、第1道路パッチ、つまり図7におけるパッチ702は、画素の計算されたシフト分だけシフトされる結果、シフトされたパッチ704が得られる。このシフトされた第1パッチ704は、第3パッチ706、つまり同一の、例えば第2時点における左側のパッチと比較される。シフトされた第1パッチ704の勾配画像及び第2時点の第3パッチ706の勾配画像が得られ、これら2つの勾配画像はガウシアンぼかしフィルタ処理される。最後に、これら2つの勾配画像は乗算される。ピーク値の画素座標は特徴点として考慮され、第3パッチ706の画像の中心に関連してよい。つまり、第1パッチの対応する画素座標は、計算された画素のシフトを特徴点から減算することにより、単純に計算できる。
上記手順は、2つの異なる時点におけるカメラの左側から、そしてこれらの2つの異なる時点における右側から抽出された2つのパッチについて行われる。これ、4つの特徴点と、図8に示されているように、これら特徴点に関連する本質的に4つのカメラ光線801、802、803、804を提供する。カメラ光線は、カメラ基準系における4つの特徴点それぞれに対応する単位ベクトルである。カメラ光線801、802は互いに対してシフトされた2つのパッチを使ってカメラの左側から計算され、同様に、カメラ光線803、804は右側から計算される。
以下、外部を計算するエピポーラモデルが説明される。このモデルは、全天球カメラにおいてカメラレンズに原点を持つものとして点A、B、C、Dにてカメラの球面と交差する上記単位ベクトル(複数)に基づいている。
ここで紹介されるエピポーラモデル用に全天球カメラは車両に搭載されてよい。「上」方向は、(道路が傾斜している場合においても)路面に対する垂直として定義される。この方向は、原点としてカメラレンズから見た際の球面上のまさに点である。別の重要な方向は前方向である。前方向は、路面の平面において、車両の長軸と平行であるか、長軸上に位置しているため、車両が前進する場合、車両が移動する方向と一致する。ここでは、これらの方向を「上方向」及び「前方向」と称する。これらは、全天球カメラにおいて2つのドットにより示される。カメラ高さと共にこれらの2つのドットは、求められる外部変数全てを備える
方向×上方向のまさにクロス積である、右方向もまた存在する。カメラ座標におけるベクトル列として、上、前及び右の3つのベクトルは、現在のカメラ高さと共に単一カメラの較正アルゴリズムの出力である行列Mを備える。行列Mは「カメラ回転行列」と指定されてよい。
車両が一定の角度で回転している場合、アッカーマンステアリングモデルが適用され、これによると、車両の現在の速度及び操舵に起因してカメラ位置がどのように移動するかを示すために、図9に示されているように、アッカーマンステアリングモデルが適用される。車両902が一定の操舵で回転している場合、4つのタイヤ全てによりどのような円状の軌跡となるかが問われる。アッカーマンステアリングモデルによると、前方車軸の中心のタイヤ904が仮想タイヤとして導入される。車両操舵情報は、仮想タイヤ904が回転した角度の決定に使われ得る。中心タイヤ、内側タイヤ及び外側タイヤが相異なる円状の軌跡上を動くことを指摘することは重要である。操舵角(δ)である、中心の仮想タイヤが回転した角度は分かっていて、この角度は、tan(δ)=L/rを使う半径情報(r)の計算に使われ得る、ここでLは前輪の軸後輪の軸との間の距離である。円弧(s)の長さが既知である場合、円方程式s=rδを使うことにより、半径を求めてもよい。
以下、エピポーラモデルと、外部計算用エピポーラモデルの適用について次に説明する。
図10及び図11は、全天球カメラから見た際の2つの見られる平行な線分の方向をどのようにして決定できるかを示す。図10は、全天球カメラの2つの点A、Bを観測すると、現実の点を決定できないことを示す。Aの実際の点はA’又はA’’であるかもしれず、Bの現実の点はB’又はB’’であるかもしれない。線分A’B’の長さが既知である場合でさえ、点A’又はB’を決定できない。
その一方、3つの既知の点O、A、Bは、それらを通る平面を定義する。この平面は、この平面における2つのベクトルのクロス積として見出されてよい、法線ベクトルN(O、A、B)=OA×OBであるその直交ベクトルにより定義される。ここで、図11に示されているように、現実の点A’C’及びB’D’により定義される2つの平行な線分がある。これらの点は、全天球カメラにおいて、点AC及びBCとして現れる。方向A’C’はN(O、A、C)に対して直交である。また、これは(方向B’D’と同一であるため)N(O、B、D)に対して直交である。そのため、現実世界の方向A’C’はクロス積N(O、A、C)×N(O、B、D)と平行であり、後者はカメラ座標において利用可能である。
(AC及びBDとしてカメラにおいて示される)平行な線分A’C’及びB’D’は、両者共にベクトルV=(OA×OC)×(OB×OD)と平行であると結論付けられる。符号は、ベクトルのドット積(・)により確認される。
AC>0の場合、VとA’C’は同方向を持つ
AC<0の場合、VとA’C’は逆方向を持つ
球面画像において点ACDBを持つ平行四辺形A’C’D’B’において、3D構築を行ってよい。平行線分に関する上記式を使い、平行四辺形の辺の2つの方向を、V=(OA×OC)×(OB×OD)及びW=(OA×OB)×(OC×OD)として求める。平行四辺形の法線はそれらのクロス積V×Wである。外側の法線Nを以下のように定義する。
(V×W)・OA<0の場合、N=V×W/ノルム(V×W)。
(V×W)・OA<0の場合、N=-V×W/ノルム(V×W)。
ここで、OAをOB、OC,ODにより置換できる。
平行四辺形の平面へのOの投影O’について考えると、O’Oの長さをHが示す場合、以下のように表すことができる。
OA’=OA*H/(-N・OA)。
OB’=OB*H/(-N・OB)。
OC’=OC*H/(-N・OC)。
OD’=OD*H/(-N・OD)。
そのため、ノルム(B’A’)=ノルム(OA*H/(-N・OA)-OB*H/(-N・OB))。
ここから、H=ノルム(B’A’)/ノルム(OA*H/(-N・OA)-OB*H/(-N・OB))。
よって、平行四辺形の1辺の長さ(本例においては長さA’B’)が分かると、カメラ座標において示される空間における全てのその4つの交点の位置を決定できる。
単純な第1シナリオ1において、カメラは回転せずに直線移動する。図12に示されているように、2つのフレーム間をベクトルVで移動するように、カメラは回転せずに道路と平行に直線移動する場合を考える。さらに、第1フレームにおける道路上の点A、Cが第2フレームにおいてB、Dとして現れたように2つの点を追跡した場合を考える。カメラをVだけ移動させる代わりに、カメラは静止している一方で、道路がVで移動したと仮定してよい。点A、Cは道路上の現実の点A’、C’を示す。この場合、道路は-Vだけ移動し、点A’、C’は新しい場所B’、D’において現れ、B’=A’-V及びD’=C’-Vである。点B’、D’は全天球カメラにおいてB、Dとして見られる。点A’、C’、B’=A’-V、D’=C’-Vは図12に示されている平行四辺形を形成する。
ここで、第1シナリオにおいて、車両は回転せずに直線移動し、ベクトルVは車両の直線移動のベクトルである場合を考える。2つのフレーム間の速度及び時間はCANデータから既知であるため、Vの長さが分かる。それにより、平行四辺形に関して上記のように導出した式を使い、Vの方向、法線N、カメラから道路までの距離Hを計算できる。これらの変数はこの単純なシナリオにおいて求められる外部を定義する。
第2シナリオにおいて、カメラは既知の軸に沿って回転し、既知の角度で移動する。このシナリオは、回転を補正する、つまりカメラを後ろに回転させると、前のシナリオに減らせる。カメラは、道路に直交する軸OZを中心に回転する。この場合、OZはカメラ座標において既知である。2つのフレーム間で生じた既知の回転角を、既知の角度を持つ既知の軸OZ_iterを中心とする回転に関するCarAngleOfRotation回転行列として指定することは、ロドリゲスの公式により説明され、ロドリゲス(OZ_iter*CarAngleOfRotation)として計算される。
ここで、回転をどのように補償可能か検討する。注意する点として、カメラは実際には湾曲して移動するが、ここでは2つの位置のみが関心の対象となるため、カメラはそれらの間をエピポールベクトルに沿って直線移動すると考えられる。フレーム間のカメラの移動は、2つのステージにおいて説明できる。第1に、回転せずにエピポールベクトルVに沿って直線移動すること。第2に、その新しい位置において、(CarAngleOfRotationへと)カメラへの回転が適用される。第1移動の後、点A’、C’はB’=A’-V、D’=C’-Vとなり、まさに上記の例と同じように、4つの点は平行四辺形を形成する。その後、第2移動において、点B、Dはロドリゲス(OZ_iter*CarAngleOfRotation)の逆により回転する。このことは、カメラが右側に回転すると可視画像は左側に回転することを考慮することにより理解できる。移動全体と、上記第1及び第2ステップの完了後、球面画像においてB_とD_の点が見える、つまりそれらは計算に利用可能である。その一方、直接利用可能ではない、B及びDを得たい。
OB=Rodrigues(OZ*CarAngleOfRotation)*OB_
OD=Rodrigues(OZ*CarAngleOfRotation)*OD_
その後、第1シナリオに至るため、エピポールVを求められ、法線Nを計算できて、既知の車両及びカメラのエゴモーションから、エピポールの長さが既知であることを使って、カメラの高さを計算できる。法線Nを計算することに注意されたい。全ての条件が厳密に成立する場合、NはOZに等しいはずである。
エピポールVと前方向との間の角度が既知であるため、Nを中心としてVをその角度へと回転させることにより前方向を見つけられる。Nとして上方向と、前方向と、カメラの高さが得られ、よって、外部が得られると結論する
較正処理中に外部変数のより精密な測定を提供する最適な推定器が提案される。カメラの物理的な設置の逸脱が精度に影響するので、較正測定の幅は大きくなる。最適な推定器はサンプル較正の履歴を経時的に取り入れ、サンプル統計値と、組み合わされた誤差解析とを適用することにより、外部サンプルを収束した出力へと反復的に調整する。
開示された実施形態に対する他の変形は、当業者により、特許請求される発明を実施する際に、図面、開示内容、及び添付の請求項の精査から理解され、実現され得る。請求項において「備える(comprising)」の語は、他の構成要素又はステップを排除するものではなく、不定冠詞「a」又は「an」は、複数を排除するものではない。単一のプロセッサ又は他のユニットは請求項に記載の複数のアイテムの機能又はステップを実現してよい。特定の手段が相互に異なる従属請求項に記載されているという単なる事実は、これら手段の組み合わせを有利に使用できないということを示すものではない。コンピュータプログラムは、他のハードウェアと合わせて、又は他のハードウェアの一部として供給される、光学記憶媒体又はソリッドステート媒体のような適切な媒体において記憶配布がなされてもよいが、さらに、他の形態で、例えばインターネット、もしくは他の有線又は無線の遠隔通信システムを介して配信されてもよい。請求項における任意の参照符号は、本発明の範囲を限定するものと解釈されるべきではない。

Claims (14)

  1. カメラの外部変数を決定する方法(100)であって、
    カメラを移動すべく開始するステップ(102)と、
    第1時点にて、第1パッチと前記第1パッチに対して平行な第2パッチとを持つ第1未処理画像と、
    第2時点にて、第3パッチと前記第3パッチに対して平行な第4パッチとを持つ第2未処理画像と
    を、移動している前記カメラにより撮影するステップ(104)であって、前記第1パッチと前記第2パッチとの間の距離が、前記第3パッチと前記第4パッチとの間の距離と同じである、前記撮影するステップ(104)と、
    前記第1パッチ内の、少なくとも1つの画像特徴の基準位置Aと、
    前記第2パッチ内の、少なくとも1つの画像特徴の基準位置Cと、
    前記第3パッチ内の、前記第1パッチの前記少なくとも1つの特徴のオフセット位置Bと、
    前記第4パッチ内の、前記第2パッチの前記少なくとも1つの特徴のオフセット位置Dと
    を検出するステップ(108)と、
    前記基準位置A、Cと、前記オフセット位置B、Dと、前記第1時点と前記第2時点との間に移動している前記カメラが走行したと決定された距離とに基づいてエピポーラモデルを適用するステップ(110)と、
    前記エピポーラモデルの出力として前記カメラの外部変数を決定するステップ(112)と
    を備える、カメラの外部変数を決定する方法(100)。
  2. 前記カメラの移動は、直線移動、円移動又はその両方であり、
    移動している前記カメラが走行した距離が、外部センサと測定データとの少なくとも一方により決定される、請求項1に記載の方法(100)。
  3. 前記カメラはフィッシュアイカメラであり、
    基準位置A、オフセット位置B、基準位置C及びオフセット位置Dを検出する前記ステップ(108)は、対応するパッチを、予め定めた画像フォーマットで、仮想平面内の2次元の地表面画像として得るべく、前記第1パッチ、前記第2パッチ、前記第3パッチ及び前記第4パッチの地表面マッピングを備える、請求項1又は2に記載の方法(100)。
  4. 前記仮想平面における前記第1パッチと、前記第2パッチと、前記第3パッチと、前記第4パッチとは前処理され、
    前記前処理は平均輝度値を減算することと、ガウス窓を適用することとを備え、
    前記ガウス窓は画像の中心に最大を、画像の縁に最小を持つ、請求項3に記載の方法(100)。
  5. 前記第1パッチの前記基準位置Aに対する前記第3パッチの前記オフセット位置B及び前記第2パッチの前記基準位置Cに対する前記第4パッチの前記オフセット位置Dは、位相相関を行うことにより決定される、請求項1から4のいずれか1項に記載の方法(100)。
  6. 前記位相相関は高速フーリエ変換(FFT)を備える、請求項5に記載の方法(100)。
  7. 前記基準位置A、C及び前記オフセット位置B、Dは相対的な位置であり、オフセットは勾配に基づく類似度測定を使って決定される、請求項1から6のいずれか1項に記載の方法(100)。
  8. 前記位置A、B、C、Dは座標系における位置であり、
    前記座標系の原点は前記カメラのレンズと一致し、
    基準位置A、オフセット位置B、基準位置C及びオフセット位置Dを検出する前記ステップ(108)は、前記座標系原点から前記基準位置A、C及び前記オフセット位置B、Dまでの地表面の単位ベクトルを決定することをさらに備える、請求項1から7のいずれか1項に記載の方法(100)。
  9. エピポーラモデルを適用する前記ステップ(110)は、
    第1サブステップにおいて、
    前記基準位置Bから前記オフセット位置Dまでと同じ方向である、前記基準位置Aから前記オフセット位置Cまでの第1方向Vと、
    前記オフセット位置Cから前記オフセット位置Dまでと同じ方向である、前記基準位置Aから前記基準セット位置Bまでの第2方向Wと
    を決定するために前記地表面の単位ベクトルを使うことと、
    前記第1方向V及び前記第2方向Wの法線ベクトルN=V×Wを決定することと、
    前記原点から前記画像位置A、B、C、Dにそれぞれ対応する現実の位置A’、B’、C’、D’までのベクトルを決定することにより前記カメラの高さHを決定することと、
    を備える、請求項8に記載の方法(100)。
  10. カメラ(202)を較正する単一カメラの較正システム(200)が、
    前記カメラ(202)が、移動時に、第1時点における第1パッチと前記第1パッチに対して平行な第2パッチとを持つ第1未処理画像と、第2時点における第3パッチと前記第3パッチに対して平行な第4パッチとを持つ第2未処理画像とを撮影するように較正されるべく前記カメラ(202)を制御するように構成されるカメラ制御部(220)であって、前記第1パッチと前記第2パッチとの間の距離は、前記第3パッチと前記第4パッチとの間の距離と同じである、カメラ制御部(220)と、
    処理モジュールであって、
    前記第1パッチ内の、少なくとも1つの画像特徴の基準位置Aと、前記第2パッチ内の、少なくとも1つの画像特徴の基準位置Cと、前記第3パッチ内の、前記第1パッチの前記少なくとも1つの特徴のオフセット位置Bと、前記第4パッチ内の、前記第2パッチの前記少なくとも1つの特徴のオフセット位置Dとを検出するように構成され、
    前記基準位置A、Cと、前記オフセット位置B、Dと、前記第1時点と前記第2時点との間に前記移動カメラが走行した決定距離とに基づいてエピポーラモデルを適用するように構成され、
    前記エピポーラモデルの出力として前記カメラの外部変数を決定するように構成された処理モジュールと
    を備える、カメラ(202)を較正する単一カメラの較正システム(200)。
  11. 前記カメラ(202)を較正する単一カメラの較正システムは前記カメラ制御部により制御されるカメラをさらに備え、前記カメラは車両(300)に搭載されている、請求項10に記載の単一カメラの較正システム(200)。
  12. 請求項10又は11に記載のカメラを較正する、単一カメラの較正システム(200)を備える車両(300)。
  13. コンピュータにより実行されると、前記コンピュータに請求項1から9のいずれか1項に記載の方法(100)を実施させる命令を備える、コンピュータプログラム。
  14. コンピュータにより実行されると、前記コンピュータに請求項1から9のいずれか1項に記載の方法(100)を実行させる命令を備える、コンピュータ可読媒体。
JP2022557818A 2020-04-22 2021-04-15 単一カメラの較正 Active JP7464745B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP20170748.6 2020-04-22
EP20170748.6A EP3901913A1 (en) 2020-04-22 2020-04-22 Single camera calibration
PCT/EP2021/059754 WO2021213879A1 (en) 2020-04-22 2021-04-15 Single camera calibration

Publications (3)

Publication Number Publication Date
JP2023520189A JP2023520189A (ja) 2023-05-16
JPWO2021213879A5 JPWO2021213879A5 (ja) 2023-12-07
JP7464745B2 true JP7464745B2 (ja) 2024-04-09

Family

ID=70390944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022557818A Active JP7464745B2 (ja) 2020-04-22 2021-04-15 単一カメラの較正

Country Status (5)

Country Link
US (1) US20230230279A1 (ja)
EP (1) EP3901913A1 (ja)
JP (1) JP7464745B2 (ja)
CN (1) CN115485725A (ja)
WO (1) WO2021213879A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110228101A1 (en) 2010-03-19 2011-09-22 Sony Corporation Method and device for determining calibration parameters of a camera
JP2012504889A (ja) 2008-10-01 2012-02-23 ハイ キー リミテッド 画像取込装置の較正方法および較正システム
US20190197982A1 (en) 2017-12-21 2019-06-27 Magic Leap, Inc. Method for calibrating an augmented reality device
WO2019225681A1 (ja) 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 校正装置および校正方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8373763B2 (en) * 2008-05-22 2013-02-12 GM Global Technology Operations LLC Self calibration of extrinsic camera parameters for a vehicle camera
WO2012139636A1 (en) * 2011-04-13 2012-10-18 Connaught Electronics Limited Online vehicle camera calibration based on road surface texture tracking and geometric properties

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012504889A (ja) 2008-10-01 2012-02-23 ハイ キー リミテッド 画像取込装置の較正方法および較正システム
US20110228101A1 (en) 2010-03-19 2011-09-22 Sony Corporation Method and device for determining calibration parameters of a camera
US20190197982A1 (en) 2017-12-21 2019-06-27 Magic Leap, Inc. Method for calibrating an augmented reality device
WO2019225681A1 (ja) 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 校正装置および校正方法

Also Published As

Publication number Publication date
WO2021213879A1 (en) 2021-10-28
CN115485725A (zh) 2022-12-16
JP2023520189A (ja) 2023-05-16
US20230230279A1 (en) 2023-07-20
EP3901913A1 (en) 2021-10-27

Similar Documents

Publication Publication Date Title
US11035958B2 (en) Systems and methods for correcting a high-definition map based on detection of obstructing objects
JP6411646B2 (ja) 自動車両カメラシステムのオンライン較正
US10580164B2 (en) Automatic camera calibration
CN113870343B (zh) 相对位姿标定方法、装置、计算机设备和存储介质
CN102999759B (zh) 一种基于光流的车辆运动状态估计方法
CN103578117B (zh) 确定摄像头相对于环境的姿态的方法
CN114144809A (zh) 通过摄像机进行交通工具环境建模
US20100303336A1 (en) Method for ascertaining the axis of rotation of a vehicle wheel
JP2019510312A (ja) 自動車両の環境領域の2つの画像間の動き推定のための方法、コンピュータデバイス、運転者支援システム、及び自動車両
US20140085409A1 (en) Wide fov camera image calibration and de-warping
JP2020113268A (ja) 牽引ヒッチの位置を計算する方法
Botha et al. Digital image correlation techniques for measuring tyre-road interface parameters: Part 1–Side-slip angle measurement on rough terrain
Mueller et al. Continuous stereo camera calibration in urban scenarios
CN117197241B (zh) 一种基于多目视觉的机器人末端绝对位姿高精度跟踪方法
JP7464745B2 (ja) 単一カメラの較正
CN116839592A (zh) 一种基于光照鲁棒的半直接法的相对定位方法
CN113450415B (zh) 一种成像设备标定方法以及装置
CN111489398B (zh) 一种成像设备标定方法以及装置
JPWO2021213879A5 (ja)
Iida et al. High-accuracy Range Image Generation by Fusing Binocular and Motion Stereo Using Fisheye Stereo Camera
CN111489397A (zh) 一种成像设备标定方法以及装置
JP7382799B2 (ja) 物体認識方法及び物体認識装置
CN114648576B (zh) 一种目标车辆的定位方法、装置以及系统
US11882262B2 (en) System and method for stereoscopic image analysis
CN117523010B (zh) 车辆的相机位姿确定方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230913

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240328

R150 Certificate of patent or registration of utility model

Ref document number: 7464745

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150