JP2023505891A - 環境のトポグラフィを測定するための方法 - Google Patents

環境のトポグラフィを測定するための方法 Download PDF

Info

Publication number
JP2023505891A
JP2023505891A JP2022535783A JP2022535783A JP2023505891A JP 2023505891 A JP2023505891 A JP 2023505891A JP 2022535783 A JP2022535783 A JP 2022535783A JP 2022535783 A JP2022535783 A JP 2022535783A JP 2023505891 A JP2023505891 A JP 2023505891A
Authority
JP
Japan
Prior art keywords
camera
image
vehicle
images
mapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022535783A
Other languages
English (en)
Other versions
JP7502440B2 (ja
Inventor
キアラン、ヒューズ
パンテリス、エルミリオス
マティアス、レンク
スニル、チャンドラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Connaught Electronics Ltd
Original Assignee
Connaught Electronics Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Connaught Electronics Ltd filed Critical Connaught Electronics Ltd
Publication of JP2023505891A publication Critical patent/JP2023505891A/ja
Application granted granted Critical
Publication of JP7502440B2 publication Critical patent/JP7502440B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

撮像された環境のトポグラフィに対応する点群を形成するための方法は、車両に搭載されたWFOVレンズを有するカメラで環境の第1の画像を取得することと、閾値よりも大きい調整によってカメラの姿勢を変更することと、変更された姿勢のカメラを用いて環境の第2の画像を取得することと、を含む。画像は、それぞれの表面にマッピングされて、同じ非平面形状によって画定されたそれぞれのマッピングされた画像を形成する。第1または第2のマッピングされた画像の一方は、画素のブロックに分割され、画素のブロックごとに、マッピングされた画像の各々における画素のブロックの場所の位置の視差を評価するために他方のマッピングされた画像を探索することによって深さマップが形成される。深さマップは、車両が環境を移動するときに車両を取り囲む環境の局所的なトポグラフィに対応する点群の一部に変換され、点群は、カメラの姿勢の調整に従ってスケーリングされる。

Description

本出願は、カメラによって撮像される環境のトポグラフィを測定するための方法に関する。より詳細には、本発明は、環境のモーションステレオ画像から評価された高密度深さ測定値を使用して撮像される環境のトポグラフィを測定する方法に関する。
カメラは、シーンまたは環境の画像を生成するための装置である。2つのカメラが異なる位置から同じシーンの画像を生成する場合、異なる画像を比較してシーンの部分の深さを確認することができ、深さは、2つのカメラの位置によって定義される平面からの相対距離の尺度である。特定の仮定の下で、および/または特定の情報を用いて、相対深さを絶対距離測定値に較正することができる。これが視差イメージングからの深さの原理である。深さ測定値を使用して、撮像される環境のトポグラフィを近似することができる。
典型的には、視差イメージングからの深さは、N>1である、典型的には両眼システムが、シーンの同期された一対の画像を生成する2つのカメラを有するN個の接眼システムを必要とする。一対の画像のうちの一方の画像の特徴は、他方の画像の対応する特徴と一致し得る。特徴は、同様の画素、ブロブの角または領域などの別個の画像化要素を含み得るが、特徴はまた、画像の任意の所与の画素を含み得る。次いで、画像間の一致した特徴の位置付けの差を使用して、視差を計算することができる。特徴の視差および両眼システムのカメラの既知の分離から、特徴の深さが評価され得る。多くの場合、両眼システムによって取得された画像は、後続の画像処理を支援するために、または取得された画像を見るためにより適したものにするため、表面にマッピングされる。
OmniVis,1,2005のGehrigによる“Large Field of View Stereo for Automotive Applications”は、自動車のバックミラーの左右に配置されるカメラに関し、広い視野でステレオビジョンを分析し、物体検出を実施するオプションを説明する。
2011年に出版された、Yamaguchiによる本“Three Dimensional Measurement Using Fisheye Stereo Vision, Advances in Theory and Applications of Stereo Vision”の第8章“Three Dimensional Measurement Using Fisheye Stereo Vision, Advances in Theory and Applications of Stereo Vision”は、魚眼画像を平面にマッピングし、特徴を一致させることを開示し、魚眼ステレオビジョンにより比較的広い空間で3D物体の測定が可能になると結論付ける。
IEEE ICAR,2001のZhuによる“Omnidirectional Stereo Vision”は、全方向ステレオイメージングの構成に関し、全方向表現、エピポーラ幾何、および深さ誤差特性に関する数値解析を提示する。
ICARCV2016のBogdanらによる”Direct Fisheye Stereo Correspondence Using Enhanced Unified Camera Model and Semi-Global Matching Algorithm”は、円錐セクションに直線を投影する魚眼カメラのモデルを提示し、魚眼画像の修正なしに高密度の直接ステレオ対応を計算するための魚眼ステレオシステムのマッチングアルゴリズムを説明している。
IEEE trans. on Intelligent Transportation Systems 9,589,2008のLiによる “Binocular Spherical Stereo”は、両眼魚眼ステレオに関し、特徴点マッチングを高速化するための球面画像への変換および緯度経度表現の使用を説明する。
J. of Photogrammetry and Remote Sensing 59,278,2005のAbrahamらによる“Fish-Eye-Stereo Calibration and Epipolar Rectification”は、魚眼ステレオ画像の較正およびエピポーラ修正に関し、エピポーラ画像の生成について論じている。
IEEE Robotics and Automation,1,227,2016のSchnedierらによる“On the Accuracy of Dense Fisheye Stereo”は、魚眼ステレオカメラのエピポーラ修正モデルを分析し、関連する精度を論じている。
IEEE,ICCP,2014のDruleaらによる“Omnidirectional stereo vision using fisheye lenses”は、全方向ステレオシステムおよび魚眼画像の修正画像への分割に関する。ステレオマッチングアルゴリズムが、点群を形成するために各対の修正画像に適用される。
本発明の目的は、この関連する研究の制限の少なくともいくつかを克服することである。
本発明は、独立請求項によって定義される。
本発明の実施形態は、広視野レンズを有するカメラによって取得された画像から高密度で正確な深さ情報を復元する方法を提供する。
これにより、車両上の単眼カメラからの画像は、車両が環境を移動するときに車両を取り囲む環境の局所的なトポグラフィに対応する点群の一部を形成することができる。
従属請求項は、さらなる任意選択の特徴を提供する。
ここで、添付図面を参照して、本発明の実施形態を例として説明する。
本発明に従ってそれぞれ動作することができる、カメラが取り付けられた車両を概略的に示す。 複数のカメラからのつなぎ合わされた画像をマッピングすることができるボウル面を示す。 修正されていないステレオカメラの設定を示す。 修正されたステレオカメラの設定における視差を示す。 移動するカメラの球面エピポーラ修正面およびカメラが運動軸に沿って見ているときの状況を示す。 移動するカメラの球面エピポーラ修正面およびカメラが運動軸に対して垂直に見ているときの状況を示す。 移動するカメラの円筒形エピポーラ修正面およびカメラが運動軸に沿って見ているときの状況を示す。 移動するカメラの円筒形エピポーラ修正面およびカメラが運動軸に対して垂直に見ているときの状況を示す。 カメラが運動軸に沿って見ている、かつ円筒が運動軸と同心であるときの、移動するカメラの円筒形修正面を示す。 ベースラインに位置合わせされた球面修正面を示す。 ベースラインに位置合わせされた円筒形修正面を示す。 エピポーラ修正のための球面座標系を示す。 円錐修正面を示す。 複数の平面を含む修正面を示す。 本発明の実施形態によるそれぞれのマルチパート修正面を示す。 本発明の実施形態によるそれぞれのマルチパート修正面を示す。 平面修正面を使用して深さを計算するための幾何学的関係を示す。 平面修正面を使用して深さを計算するための幾何学的関係を示す。 球面修正面を使用して深さを計算するための幾何学的関係を示す。
車両の運転を伴う多くの作業にとって、局所的な環境に関する情報を取得することは、作業を安全に完了するために重要である。例えば、車両を駐車するとき、車両の周囲の環境のライブ画像を運転者に表示することは有利である。
車両の運転者は、車両が自動運転、すなわち自律型車両であり得るため、人間である必要はない。この場合、取得された情報の精度は、物体を識別し、取得された情報が車両駆動システムに誤解を与えることを回避するために特に重要である。運転者はまた、人間と運転を支援するための1つまたは複数の自動化システムとの組み合わせであってもよい。
本発明で使用されるカメラの感度は、任意の特定の波長範囲に限定される必要はないが、最も一般的には、可視光に敏感なカメラで使用される。カメラは、一般に、レンズ用のハウジングとセンサとを備えるカメラモジュールの形態であり、レンズは、センサ上に光を集束させる役割を果たす。カメラモジュールはまた、センサに電力を供給し、センサとの通信を可能にするための電子機器、ならびに場合によっては画像を処理するための処理電子機器を有することができる。処理は、低レベルの画像信号処理、例えば、利得制御、露出制御、ホワイトバランス、デノイズなどであってもよく、および/または、例えば、コンピュータビジョンのためのより強力な処理を含んでもよい。
車両の周囲の環境を撮像する場合、1つのカメラは一般に、すべての必要なデータを取得するのに十分な視野を持たない。この問題に対処する1つの方法は、複数のカメラを使用することである。図1では、車両の周囲に4つのカメラ101、102、103、104が配置された車両100が示されている。各カメラの視野の一方の縁部は、点線101a、102a、103a、104aで印を付けられている。このようなカメラの構成は、領域101b、102b、103b、104bにおいて重なり合う視野をもたらす。図示された構成は単なる例示である。開示された教示は、他のカメラ構成でも同様に有効である。
図示された視野は、約180度に対応する。広視野は、典型的には、魚眼レンズのような広視野レンズを有するカメラによって達成される。魚眼レンズは概ね円筒対称であるため好ましい。本発明の他の用途では、視野は、180度未満または180度超であってよい。魚眼レンズが好ましいが、広視野を提供する任意の他のレンズを使用することができる。これに関連して、広視野は、100度を超え、好ましくは150度を超え、より好ましくは170度を超える視野を有するレンズである。通常、そのような広視野を有するカメラは、取得された画像に撮像アーチファクトおよび歪みをもたらす。
レンズは、典型的には長方形であるセンサに光を集束させる。したがって、取得されるデータは、レンズのアーチファクトおよび歪みの複合効果、ならびにセンサの限定された敏感な表面効果によって影響を受ける。その結果、取得された画像は、撮像されたシーンの歪んだ表現である。取得された歪んだ画像は、取得されたデータを別の表面にマッピングすることを含むプロセスによって少なくとも部分的に補正され得る。いくつかの表面上のマッピングは、後続の処理技術をより正確またはより容易にする。いくつかの特に有利な表面については、後でより詳細に説明する。
図1に示すような複数のカメラを有する車両の状況では、複数のカメラからの複数の画像ではなく、局所的な環境の単一の画像を表示することが好ましい。したがって、カメラからの画像が合成される。この合成を実施するための複数の既知の方法がある。例えば、画像は、重複領域内の特徴を識別することによってつなぎ合わせることができる。次いで、画像内の識別された特徴の位置を使用して、1つの画像を別の画像にマッピングすることができる。重複領域を有する画像をつなぎ合わせるための他の多くの方法は当業者には既知であり、例えば、2019年11月26日出願の”An image processing module”と題するドイツ特許出願第102019131971.4号(参照番号、2018 PF 02667)および2019年10月7日出願の”An electronic control unit”と題するドイツ特許出願第102019126814.1号(参照番号、2019 PF 00721)は、特に車両を駐車する際に、運転者を支援するために車両のサラウンドビューを提供する電子制御ユニットの例を示している。
図1のように、カメラの構成が車両の周囲の全方向からの画像を提供するような構成である場合、つなぎ合わされた画像は、他の方向からのビューを生成するのに十分な情報ビューを提供する。
つなぎ合わされた画像は、一緒につなぎ合わされた平坦な画像を含むので、つなぎ合わされた画像自体は平坦に見える。つなぎ合わされた画像のより良好な表示は、つなぎ合わされた画像を非平坦面にマッピングすることによって達成され得る。一例として、図2に示すボウル形状の表面300を使用することができる。この表面について、近くの物体は平坦な床にマッピングされ、一方、遠くの物体は便器の側壁にマッピングされる。車両は、遠くにある木および建物などの物体を有する平地にあることが多いので、そのようなマッピングは、通常、フラットマッピングよりも良好でより正確なつなぎ合わされた画像の表示を生成する。
最適な表面は、カメラによって撮像されたシーンのトポグラフィに対応する表面である。本発明は、画像の一部分の深さの計算によって周囲のトポグラフィの近似を生成する方法を提供する。これは、両眼ステレオカメラおよび/または非標準レンズを使用するカメラの費用を負担する必要なくリアルタイムで達成される。
モーションステレオモジュール
本発明は、モーションステレオモジュールを用いて単眼カメラからのモーションステレオ画像を処理する方法に関する。モーションステレオモジュールは、シーンの一対の画像から高密度で正確な深さ測定値を復元し、それによって撮像されたシーンのトポグラフィの再構成を可能にする。以下に説明する方法を使用することにより、モーションステレオモジュールは、リアルタイムで完了することができるほど十分迅速に動作され得る。言い換えれば、処理は、ライブカメラフィードに基づく画像の表示が悪影響を受けないほど十分に迅速である。
視差イメージングからの深さにより、深さ測定値をシーンの一対の画像から抽出することが可能になる。典型的には、視差イメージングからの深さは、同期された一対の画像が直接取得され得るように互いに近接して位置付けられた、または同じ装置に統合された、2つのカメラを備えるステレオカメラから取得された一対の画像を使用する。しかしながら、本発明は、移動式単眼カメラに基づいている。単眼カメラからの一対の画像は、単眼カメラで1つの画像を捕捉し、次いで単眼カメラの姿勢を調整する、すなわち単眼カメラを移動させ、別の画像を取得することによって取得される。
結果として得られる深さ測定値は、カメラによって撮像された環境のトポグラフィに近似する3D点群または同様の3D再構成の一部に形成され得る。3D再構成は、静的特徴のより良好な評価および測定を可能にする。カメラが自動車に取り付けられている場合、一般的な静的特徴の例には、縁石、傾斜、表面の凹凸、またはポール、樹木、障壁、壁、および駐車車両などのより大きな物体が含まれ、貴重な情報を提供する。したがって、本発明は、そのような物体を検出することをより容易にする。
これにより、より高い解像度の3D再構成が可能になるため、多数の深さ測定を行うことが好ましい。既知の高密度再構成技術は、ステレオカメラを必要とする。単眼カメラに対して、ステレオカメラは複雑なハードウェアおよびフレーム同期を必要とするが、2つのカメラ間の固定された分離により、カメラの動きに関係なく深さ推定および3D再構成に十分な両眼視差を提供するので有利である。
ステレオおよび動きからの構造
移動単眼カメラ技術を用いて3D再構成を形成することは、典型的には、古典的な動きからの構造技術を用いて試みられる。そのような技術は、深さ測定値の低密度のセットのみを生成する。そのような低密度のセットは、3D再構成において点の限定されたセットを生成し、局所トポグラフィをあまり表さないようにする。
本方法では、画像対は、捕捉された画像間のカメラ運動の知識を用いて生成される。視差処理のための深さが始まる前に、画像対の修正も一般に必要とされる。修正は、多くの表面で可能である。球面または円筒面へのエピポーラ修正(epipolar rectification)は、修正画像内のソース画像解像度を有利な方法で分配しながら、使用可能な視野が改善されるという特定の利点を有する。これは、魚眼レンズを有するカメラなど、高度に歪んだ形状を生成するカメラで作業する場合に特に重要である。
典型的には、両眼視差およびエピポーラ幾何の原理を利用する3D再構成方法は、異なるカメラの姿勢から捕捉された同じシーンの少なくとも2つの画像を入力として取得する。カメラの正確な動き(位置および向きの変化)は、コンピュータビジョン技術または慣性センサを用いて動的に決定することができる。そのようなカメラが車両に搭載される場合、動きは、搭載されたオドメトリ情報から少なくとも部分的に評価され得る。そのような情報は、典型的には、現代の車両の車両CANまたはFlexRayバスで利用可能である。
その結果、深さ測定値を取得するために、まず、カメラでシーンの画像が取得され、カメラが移動され、シーンの別の画像が取得される。得られた画像は、共通平面または特定のエピポーラ幾何によって画定された適切な表面にマッピングすることによって修正される。修正画像は、視差からの深さを評価するために処理される。例えば、既知のマッチングアルゴリズムは、修正画像間のすべての画素の視差を計算する。視差情報は、続いて深さに、または3D点群に直接変換される。いくつかの実施形態では、各画素が一致するのではなく、画素のブロックが一致する。画素のブロックは、1つの画素が画素のいくつかのブロックに含まれるように重なり合ってもよい。ブロックは長方形である必要はなく、マッチングを可能にする任意のサイズとすることができる。
単眼カメラが車両に結合されると、カメラの動きは、搭載されたオドメトリセンサから2つの自由度(2つのパラメータ)の低加速度で合理的な精度内で計算することができる。そのようなオドメトリセンサは、車両の長手速度およびヨーレートまたは操舵角を提供する。この情報は、車両の動きが真に平坦であれば十分である。しかしながら、実際には、路面の凹凸、加速、減速、および旋回に対するサスペンションの動的反応のために、車両の動きはより複雑である。この複雑さは、ピッチ、ロールおよび高さの瞬間的な変化をもたらす。また、機械的測定値およびシステムバス上のそれらの伝送は遅延の影響を受け、デフォルトではカメラフレームと同期されない。2019年5月29日に出願の”Image acquisition system”と題するドイツ特許出願第102019114404.3号明細書(参照番号2018 PF02113(SIE0883))は、路面に対する車両の姿勢におけるこれらの変化に対処する技術を開示している。
しかしながら、車両およびカメラの動的運動は、最小3つの位置パラメータ(X、Y、Z)および3つの回転パラメータ(ヨー、ピッチおよびロール)を用いて6自由度(6-DoF)で完全に特徴付けることができる。モーションステレオモジュールは、2つの画像間の相対的なカメラの動きを6-DoFで推定することができるとき、最も信頼性が高く正確な結果を生成する。6-DoFはまた、スケール情報、すなわち3D再構成(例えば、点群)を正しくスケーリングするために使用される並進ベクトルの長さを提供する。修正画像および視差マップは、推定されたスケールに対して不変である。既知の関連する相対姿勢推定問題は、既知の技術を使用して解決される。
エピポーラ修正
図3を見て、カメラCおよびCをピンホールカメラとして考慮し、カメラCおよびCの光学中心の前の仮想画像平面を考慮することによって、以下の有用な用語を定義することができる。エピポールは、光学中心と画像平面との間に延びるベースラインの交点である。エピポールは、一方のカメラにおける、他方のカメラの光学中心の画像と考えられ得る。エピポーラ平面は、3D点Zと光学中心とによって画定される平面である。エピポーラ線は、エピポーラ平面と画像平面との交差の直線である。これは、光学中心を通る光線の一方のカメラにおける画像であり、他方のカメラにおける画像点である。すべてのエピポーラ線は、エピポールで交差する。
モーションステレオの場合、既知のステレオマッチングモジュール(例えば、Renesas STVハードウェアアクセラレータ)を使用して深さ分析を実施することができ、これは入力として修正画像を取り込み、エピポーラ線が水平走査線にマッピングされ、両方の画像で同じ垂直オフセットにある2つの画像を意味する。原則として、任意のシーンの幾何学的形状は、これらの画像間の特徴点の対応関係の知識によって、異なるカメラ姿勢から捕捉される2つ以上の画像から再構成され得る。
例えば高密度オプティカルフローフィールドの形態で、そのような対応関係を考慮すると、3D点群または3D再構成は、光線がカメラ視点からそれぞれの画像点を通って逆投影され、誤差メトリックを最小化することによって3D空間で交差する三角測量として知られる数学的プロセスによって計算することができる。しかしながら、オプティカルフローとは異なり、エピポーラ(すなわち、ステレオ)修正の場合、対応問題は共役エピポーラ線に沿った1D探索に縮小され、三角測量は類似の三角形間の比を解く単純な式に単純化される。1D検索は、典型的には、複数の検索からの情報を集計し、視差マップの形式で堅牢な1D対応関係を生成する技術を適用するステレオマッチングアルゴリズムによって効率的に実施される。このようにして、三角測量の計算負荷の大部分は、エピポーラ修正に移される。この効果の一例は、エピポーラが画像平面を横切る対角線である図3とは対照的に、左側の画像の修正が水平エピポーラ線をもたらす図4で見られることができる。
1つの画像が基準姿勢を提供する各捕捉画像の内部較正パラメータおよびカメラの相対姿勢の知識は、画像の較正を可能にする。基準姿勢は、外部基準フレームに対して与えられてもよく、または任意に0に設定する、すなわち、(0、0、0)のカメラ原点および標準基底ベクトル(単位回転行列)によって定義される軸を用いて設定することができる。内部パラメータは、常に既知で一定であると仮定することができる。しかしながら、これは、例えばカメラを含む材料の熱膨張および収縮によって引き起こされる変化に起因するなど、常に安全な想定であるとは限らない。代替的な手法は、そのような変化を特徴付けて考慮することによって、またはシステムに記憶された内部較正情報を定期的に更新するためにオンライン内部較正方法を使用することによって、任意の変化を補償することである。
モーションステレオでは、相対姿勢は車両の動きに従って変化し、ステレオ画像対ごとに動的に推定することができる。相対姿勢は、最小6つのパラメータ(3つの位置パラメータおよび3つの回転パラメータ)によって、すなわち6自由度で完全に決定されるか、または最小5つのパラメータ(3つの回転パラメータおよび2つの位置パラメータ)によって、すなわち第6の自由度(スケール)が欠落している5自由度において、「最大スケール」で決定することができる。後者では、2つの位置パラメータは、並進ベクトルの方向を、例えば単位長さの射影座標または球面座標で表す。「スケール」の欠如またはいわゆる「スケールのあいまいさ」は、シーン幾何学的形状およびカメラ並進ベクトルが、捕捉された画像内の特徴点の位置およびそれらの対応関係に影響を与えることなく一緒にスケーリングされ得るという単純な事実から生じる単眼コンピュータビジョンにおける典型的な障害であり、したがって、逆に、スケールは、一般に、そのような対応関係のみから復元することはできない。スケールの推定または絶対スケーリングは、エピポーラ修正には必要ないことに留意されたい。言い換えれば、5自由度(3つの回転パラメータおよび2つの位置パラメータ)が十分な情報を提供するとき、エピポーラ修正画像は推定スケールに対して不変である。しかしながら、スケーリングは、正確な深さ測定値を得ることを可能にし、より現実的な3D再構成(すなわち、正しい3D点群座標)を形成することを可能にする。
エピポーラ修正は、画像を適切な平面または表面に直接マッピングし、2つの単純な幾何学的制約、すなわち共役エピポーラ線または曲線が水平走査線に沿って、両方の修正(rectified)画像において同じ垂直オフセットでマッピングされることを満たす方法で再サンプリングすることによって実施され得る。エピポーラ修正の最も単純な形態は、ベースライン(カメラ並進ベクトル)およびデカルトサンプリンググリッドに平行に配向された2つの同一平面上の表面(画像平面)を使用する。魚眼レンズを使用するカメラの場合、この方法は、遠近法投影の数学的制限、および画素「伸長」などの広角遠近効果による修正画像の品質の損失のために取得される視野を厳しく制限する。
再構成された視野を増加させるために複数の平面が使用されたとしても、これらは依然として、無限サイズに近づく画像平面を必要とするため、拡張の焦点に近い領域に到達することができない。これは、車両が直線経路を移動しているときに拡張の焦点が魚眼画像のほぼ中心付近に位置する、車両上の前方および後方に向くカメラにとって特に懸念事項である。
側面カメラまたはウィングミラーカメラの拡張の焦点は、通常、関心の低い画像の領域に位置する。しかしながら、これらのカメラでさえ、平面表面は再構成された視野に制限を課す。
一般化エピポーラ修正
上記の問題を軽減し、水平方向(HFOV)、垂直方向(VFOV)、または両方向の再構築された視野を強化するために、球、円柱、または多項式面などの非平面マッピング面をエピポーラ修正に効果的に使用することができる。
一例として、カメラ視点を表す2つの点CおよびCが「ベースライン」である並進ベクトルを定義する図5aを考える。ベースラインと各マッピング面との交点は、エピポールEおよびEであり、シーン内の任意の物体点Pおよび2つの点CおよびCは、エピポーラ平面を画定する。ベースラインの周りを互いに回転する無数のエピポーラ平面が存在する。この群の平面は、エピポーラペンシルとして知られている。これらの平面のいずれかとマッピング面との交差は、この場合には「エピポーラ線」または曲線を画定し、これは球面マッピング面の円または直立円筒マッピング面の楕円である。任意の物体点Pは、同じエピポーラ平面に属する点QおよびQにマッピングされ、両方の修正画像において水平走査線上に同じ垂直オフセットでマッピングされる共役エピポーラ曲線にマッピングされる。
エピポーラ線または曲線に沿った魚眼画像画素の、修正画像内の水平走査線の画素へのマッピングは、各エピポーラ線または曲線に沿った光線をそれぞれの視点を通して「サンプリング」し、次いで、内部較正および相対姿勢情報を使用して各光線を魚眼画像にトレースバックすることによって達成することができる。このようにして、修正画像内のすべての画素を魚眼画像内の画像点までトレースバックすることができる。最も近いソース画素の強度値は、直接的に、または双線形フィルタ(すなわち、バイリニア補間が使用され得る)などの隣接画素の値を考慮に入れる再構成および/またはアンチエイリアシングフィルタを使用することによって取得することができる。
このプロセスは、メモリ帯域幅を節約し、実行時性能を向上させるために、例えば12整数ビットおよび4小数ビット、すなわち座標あたり16ビットまたは画素あたり32ビットで、その画素の対応する魚眼画像座標を小数精度で格納する、修正画像内の画素のサブセットのための低密度ルックアップテーブル(例えば、水平方向および垂直方向の16番目の画素ごとに)を構築することによって、非常に高い計算効率で実施され得る。ソフトウェアまたはハードウェア加速「レンダラ」を使用して、欠落画素の座標を補間することによって、これらのルックアップテーブルを使用して修正画像を非常に迅速に「レンダリング」することができる。これにより、修正画像ごとに計算する必要がある光線の数が、例えば、両方向で1:16のサブサンプリングが使用される場合、256分の1に低減される。
メモリ帯域幅を節約するために、絶対画像座標(例えば、4小数ビットを有する4ビット整数デルタ、すなわち座標ごとに8ビットまたは画素ごとに16ビット)ではなくデルタを格納することによってこのルックアップテーブルを圧縮することも可能である。この場合、初期絶対座標は、絶対座標が、レンダリング中に格納されたデルタから増分的に復元され得るように、テーブル全体または行ごとにシードとして格納される。それに加えて、ルックアップテーブルは、各領域がレンダリング中にその領域内のすべてのデルタに適用されるオフセット値を割り当てられる、より小さな領域に細分されてもよい。
球面の場合、光線は、球面の円である各エピポーラ曲線に沿って角度間隔でサンプリングされ得る。エピポーラ平面は、各平面が修正画像内の離散水平走査線上にマッピングされるように、ベースラインの周りを回転する角度間隔で定義することができる。修正画像の水平画素座標xを極角θに、および垂直画素座標y(走査線番号)を方位角φにマッピングする数学関数は、θ=f(x)およびφ=g(y)として一般化することができるか、または最も単純な場合には、線形とすることができ、sおよびsが一定のスケール係数であるθ=sxおよびφ=syである。極角および方位角は、魚眼画像画素をサンプリングするために使用される光線方向を定義する。より複雑な関数が、修正画像にわたってソース画像解像度を有利な方法で分配するために使用され得る。
球形(図5aおよび図5b)または円柱(図6aおよび図6b)などのマッピング面の概念は、このプロセスを数学的およびプログラム的に抽象化することができるため、モデリング支援としてのみ使用されることに留意されたい。エピポーラ平面とマッピング面との交差は、修正画像内のエピポーラ線または曲線の所望の位置合わせを達成するために光線がサンプリングされる経路を単に定義する。この経路に沿った光線は、角度間隔ではなく「弧長」の間隔でサンプリングすることもできる。3D表面の形状(例えば、扁円または偏重回転楕円体に)またはマッピング関数若しくはその両方を変更することによって、両方の表現を同等にすることができる。
直立円筒面の場合、図6aおよび図6bに示すように、光線は、この場合は楕円である各エピポーラ曲線に沿って角度間隔でサンプリングすることができるが、垂直寸法が直線であるため、エピポーラ平面は平面と同様のデカルト座標間隔で定義される。同様に、水平な円筒面の場合、水平寸法は直線であり、エピポーラ平面はベースラインの周りを回転する角度間隔で定義されるため、各エピポーラ線に沿ってデカルト座標間隔で光線をサンプリングすることができる。
図5a、図5b、図6a、図6b、および図7を参照すると、長方形によって表される平面は、限られた視野を有する平面が球面または円筒面の代わりにエピポーラ修正にどのように使用され得るかを示す。前方および後方に面する車両搭載カメラの場合、これらの平面は、カメラの動きの方向でもあるベースラインに垂直に向けることができる。この場合、エピポーラ線は、エピポールE1およびE2から半径方向に生じ、極(polar)サンプリンググリッドを使用して、修正画像内の水平走査線に沿ってそれらをマッピングすることができる。この構成は、球面モデリングと同様の方法で画像の中央部分を修正することを可能にする。視野は、画像平面が無限サイズに近づくと、理論上の最大180度に制限される。
一般的な場合、エピポールは、画像内(具体的には、前方または後方から画像を取得するときの前方の動き)または画像の近くにあってもよい。このような場合、線形変換を使用できない。ここでは、半径変換を使用できる。しかしながら、左方向または右方向から画像を取得するときに、前方向の動きの場合のように、エピポールが画像の外側にある場合、変換は線形変換と同様である。
魚眼補正
魚眼の歪みを補正するためにメッシュを計算する。歪んでいない画像内の各メッシュ点x、yについて、歪んだ空間内のメッシュ点x’、y’は、以下に従って定義することができる。
Figure 2023505891000002
Figure 2023505891000003
Figure 2023505891000004
Figure 2023505891000005
Figure 2023505891000006
Figure 2023505891000007
Figure 2023505891000008
焦点距離fの値は、以下のように決定されるべきである。歪みは、歪みの中心c、cの周りで最小である。出力画像内の画素は圧縮(または拡大)されるべきではない。歪みの中心付近では、kパラメータが支配的である。f=kの場合、歪み中心の周りの小さな角度θに対して、r=f・tan(θ)≒fθおよびr’≒kθであるため、歪みのない画像内の画素は同じスケールを使用する。
しかしながら、カメラは、その歪みパラメータ、この場合はk...kへのアクセスを許可しない場合がある。この場合、歪みが最小となる小さな角度の人工光線を用いて焦点距離を決定することができる。結果として得られる画素位置を使用して、焦点距離を推定することができる。選択された仮想画像平面内の方向のメッシュ点(x、y)ごとにメッシュを計算すると、以下の光線v=(x,-y,-f・s)が生成され、式中、sはスケール係数である。
この光線は、カメラの元の画像平面に対して画像平面の回転行列によって回転される。結果として得られるベクトルを使用して、元のカメラ画像の画素座標に戻すことができる。
汎用単一ステップ画像マッピング
平面または半径平面マッピングは、歪んでいない(魚眼補正された)画像で動作し得る。歪みおよび修正を補正するステップは、単一の画像マッピングプロセスに組み合わせることもできる。これは、より効率的であり、メモリを節約することができる。
上記で説明したように、修正に使用することができるのは、平面だけでなく、球形または円柱などの他の形状でもある。これらの他の形状は、画像歪みと深さ推定の実現可能性との間のトレードオフの点で有益であり得る。一般的な場合、エピポーラ線はエピポーラ曲線である。図8aおよび図8bは、ベースラインに位置合わせされた球面、平面および円筒マッピングを示す。エピポールは、カメラの動きによって決定される。
球面または平面マッピングに基づいて、他のマッピングは、座標ワーピングによって達成され得る。
3Dエピポールの決定
車両に取り付けられたカメラを有する実施形態では、車両システムバスからのオドメトリは、車両の回転および動きを提供することができる。現在のカメラのエピポールの位置を計算するために、前のカメラの位置が現在の車両座標系で計算される。前のカメラのエピポールを計算するために、前の車両カメラシステムにおける現在のカメラの位置が計算される。現在のカメラから前のカメラへの(またはその逆の)ベクトルは、エピポールを指し、このベクトルはベースラインと呼ばれる。以下の式は、測定された機械的オドメトリに基づく。
Figure 2023505891000009
Figure 2023505891000010
式中、RWV は現在の車両から世界(world)への回転であり、RVW は前の世界から車両への回転である。2つの行列は、デルタ回転行列に組み合わせることができる。cは、車両座標におけるカメラの位置(カメラの外部較正)である。δは、世界座標におけるデルタ並進である。視覚的オドメトリは、車両座標におけるデルタ並進を提供することができ、その場合、方程式はさらに単純化される。
ベースライン位置合わせ
マッピングの計算を容易にするために、得られた画像はベースラインに位置合わせされ得る。幾何学的に、これは、仮想カメラがベースラインに対して垂直または同一直線上にあるように、仮想カメラがカメラの動きを補正するように回転されることを意味する。これにより、車両座標系がベースラインに対して回転される。この回転は、軸および角度の周りの回転によって決定され得る。エピポールベクトルと車両座標軸との間の角度は、以下のように決定される。
Figure 2023505891000011
回転軸は、2つのベクトルの外積である。
Figure 2023505891000012
次いで、回転行列は、例えば標準的な軸角度式を使用して決定され得る。
Figure 2023505891000013
この回転(Repi と呼ぶ)を使用して、エピポーラ座標系の任意の光線を車両座標系に変換することができ、その逆も可能である。
エピポーラ座標系
修正のためのマッピングを定義するために、図9に示されているように、エピポールを極として有し、緯度および経度の角度を使用する球面座標系が定義される。回転(車の純粋な前後運動)なしで、エピポールは車両座標系のX軸の方向を指す。その場合、緯度±90°はX軸に沿った方向を指し、、経度0°は車の上方(0,0,1)の方向を指す。X軸に平行な平面を画定する球形を囲む円は、球形上のエピポーラ円を示す。任意のマッピングは、これらの円を修正画像内の水平線にマッピングすべきである。
球面マッピング
図9に示す幾何学的形状を考慮すると、球面マッピングでは、エピポーラ座標は出力画像内のxおよびy座標に直接マッピングされる。緯度はyにマッピングされ、経度はx座標にマッピングされる。出力画像の画素密度は、角度の密度を定義する。各ビューについて、経度および緯度の範囲を定義することができる。例えば、図1に示す車両の状況では、以下のとおりである。
・後方カメラ、経度[0°、360°]、緯度[-10°、-90°]
・前方カメラ、経度[0°、360°]、緯度[10°、90°]
・ミラー左カメラ、経度[70°、180°]、緯度[-80°、80°]
・ミラー右カメラ、経度[-70°、-180°]、緯度[-80°、80°]
次に、これらは以下の順序でカメラ画像座標にマッピングされる。
・エピポーラ座標を(x、y、z)座標を有する光線ベクトルに変換する。
・エピポーラ座標から車両座標に光線を回転させる。
・車両からカメラ座標系に光線を回転させる。
・カメラ投影を使用して生のソース画像座標を決定する。
次の式は、エピポーラ座標を(x、y、z)座標を有する光線ベクトルに変換する。
Figure 2023505891000014
式中、φは経度でγは緯度である。光線は、以下によってカメラ光線に変換される。
Figure 2023505891000015
VCは、車両からカメラ座標系へのカメラ回転行列である。次に、組み込み関数を適用して、エピポーラ座標(φ、γ)のソース画像内の画素座標を検索する。
ベースラインに位置合わせされた平面マッピング
平面マッピングの場合、球面マッピングと同じ仕組みが使用される。平面座標(x、y)は、最初にエピポーラ座標に変換されるが、その後の計算ステップは同じである。変換は以下の通りである。
Figure 2023505891000016
車両上の後方および前方カメラの場合、緯度値はラジアルマッピングを必要とする特異点で収束するため、変換は代わりに次のようになる。
Figure 2023505891000017
ビューポートは、開口角として球面マッピングと同様に定義することができる。これらは、所与の画素密度で画素範囲に変換され得る平面座標の範囲に変換することができる。
円筒マッピング
円筒マッピングは、球面と平面を混合したものである。それらは、車両上のミラービューカメラのための特に有用なマッピングである。垂直または水平円柱のマッピングはそれぞれ、以下のとおりである。
Figure 2023505891000018
円錐マッピング
円錐および球面マッピングは、マッピング面の形状に起因して、必要な伸長が少ないため、円筒マッピングよりも拡張の焦点に近いところに到達することができるという特性を有する。欠点は、これらのマッピングは、あるカメラ画像から次のカメラ画像に移動するときに物体の形状を維持しないことである。
しかしながら、円錐の視野では範囲がはるかに良好であり、特に近くの検出品質は円筒マッピングよりも良好である。
一部の車両では、円錐のビューポートは地面および縁石の検出を劣化させる可能性があるが、それらは球面よりも計算コストが低い。円錐マッピング面の例を図10に示す。車両に搭載されたカメラを有する実施形態を考慮すると、円錐図は、側面カメラではなく前面および後面カメラにのみ使用される可能性が高い。
汎用マッピング
球面の代わりに、平面または円柱また他のマッピングも可能である。これらは、3つの関数f(x)、g(y)およびh(x)によって定義することができる。図1のカメラ構成を仮定すると、以下の変換が与えられ得る。
ミラー(左右の視野)の場合:
Figure 2023505891000019
後方および前方ビューの場合:
Figure 2023505891000020
平面の場合:
Figure 2023505891000021
球面の場合:
Figure 2023505891000022
カスタム設計された関数は、ステレオマッチャの深さマップまたは歪みにおける視野と空間解像度との間の正しいバランスにおいて有益であり得る。
理想的には、関数f(x)、g(y)およびh(x)について以下の目標が満たされるべきである。
空間解像度、視野および歪みの間の良好なバランスを達成するためのatan(x)≦f(x)≦xおよびatan(y)≦g(y)≦y、
この関数がエピポール付近に伸長して、そこでより大きな視差解像度を有するが、xがより大きくなると線形挙動に戻ることを必要とするx≦h(x)≦c・x、および
計算労力をほとんど伴わない単純な定式化。
例えば、
Figure 2023505891000023
Figure 2023505891000024
である。
メッシュへのマッピング
1つの宛先画素ごとにエピポーラ座標からソース画素座標へのマッピングを計算することは時間がかかる。これは、目的地座標のグリッドに対してのみこれらのマッピングを計算することによって高速化することができる。マッピングは、目的地座標内の規則的なグリッドを使用した自動目的地座標生成を使用することができる。グリッド上の各ノードについて、生のソース画素座標へのマッピングが計算される。バイリニア補間により、宛先画像内の画素は、提供されたメッシュに従ってマッピングされる。グリッドセルサイズは、メッシュ作成の実行時間が実現可能であるが、一方でメッシュによる歪みが十分に小さいように定義され得る。
表面の組み合わせ
エピポーラ修正のために複数の平面を使用することを含む、エピポーラマッピングのための表面の組み合わせを有することも可能である。これについては、上記のDruleaらによる”Omnidirectional stereo vision using fisheye lenses”で説明されている。一例として、2つの平面を含むマッピング面が図11に示されている。これが車両搭載カメラの状況で考慮される場合、第1の水平面Hは、例えば、地面を再構成するために使用され、第1の平面に垂直な第2の平面Vは、他の物体のために使用される。
複数の他の表面を使用することが可能である。円筒形(および平面)のビューポートは、地面、縁石、および物体を検出するとき、自動車の近くで良好な性能を示すので、それらの特性の恩恵を受け続けることが有利である。拡張の焦点付近にも検出を有するために、この領域をカバーするためだけに別の表面を追加することができる。理想的には、マッピング面は、画像の伸長のバランスをとるべきである。拡張の焦点は画像の小さな部分であるため、ビューポートも小さくなければならなく、また、円筒形の視野の検出の終わりからの範囲をカバーし、拡張の焦点に近づくべきである。
図12aは、円筒形120と円錐台122(カットオフされたコーンに基づく)のビューポートの組み合わせを示している。このような修正面は、カメラがシーンに出入りする車両の前方および後方カメラに有利である。ウィングミラーカメラは、典型的には、シーンに対して横方向に移動するとき、円筒面のみを使用する。
図12bは、半球面124が円筒面120に追加された別の修正面を示す。なお、両方の修正面について、有効な視差および深さをその領域で抽出することができないため、拡張の焦点に直ぐ隣接する領域をマッピングすることは有用ではないことに留意されたい。したがって、考慮される表面は、図12aおよび図12bに示すように、拡張の焦点で欠落した表面126の一部を有することができる。
深さ計算および点群生成
ステレオマッチャを実行した後、結果として得られる視差マップは、前の画像から現在の画像への水平移動を含む画像である。これらの動きは、深さ情報に変換されてもよく、または3D点の点群に直接変換されてもよい。使用されるエピポーラ修正方法に応じて、この変換は異なる式を使用して計算され得る。
平面深さ計算
ベースラインに位置合わせされた平面エピポーラ修正は、深さを決定するための単純な計算手順を可能にする特別なケースである。図13aを参照し、車両の側面に取り付けられたカメラを考慮する。深さdは、同様の三角形を用いて算出することができる。視差qは、深さdを有する焦点距離fに対するベースラインb=|δ|に類似している。
Figure 2023505891000025
式中、fおよびqは画素で与えられてもよい。
関連して、図13bを参照し、車両の前方または後方に取り付けられたカメラを考慮すると、以下の関係が導出され得る。
Figure 2023505891000026
Figure 2023505891000027
これは、以下のように簡略化することができる。
Figure 2023505891000028
見て分かるように、視差q-qだけでなくqにも依存性がある。これは、視差マップにおける深さ計算が、マップ内のどこにいるかに依存することを意味する。また、qが小さい物体は、qが大きい物体よりも同じ距離での視差が小さいことを意味する。これは、特徴マッチャが画素レベルで動作するため、これらの場合に空間解像度を低下させる。当然ながら、エピポールに近づくにつれて空間解像度は0に近づく。しかしながら、異なるマッピング関数は、深さと視差の関係をある程度均等化することによって効果を低減することができる。
球面深さ計算
図14に示す球面の場合、深さ計算はより困難であるが、球面マッピングにおける単一のエピポーラ円を考慮することにより、以下の三角形の関係を導き出すことができる。
Figure 2023505891000029
Figure 2023505891000030
角度αおよびβ(緯度)は、球面に修正画像内の一致する画素の水平画素位置に対応し、検索が容易である。また、経度を考慮してもよい。上記で計算された深さdは、ベースラインからの距離であり、したがって、
Figure 2023505891000031
は、仮想カメラ平面からの深さである。球面マッピングは広い視野を提供するが、距離関係に対する視差はあまり好ましくない。小さい角度α、βについての上記の式の近似変形は以下の通りである。
Figure 2023505891000032
Figure 2023505891000033
深さに対する視差の関係は一定ではなく、深さの場合には入射角に対して二乗依存性を持つことさえある。これは、ミラービューカメラのための修正画像の縁部において空間解像度が非常に低いことを意味する。結果として、視野と空間解像度とのバランスをとる異なるマッピングが有利であり得る。
円筒深さ計算
円筒形のケースもまた、平面と球面を混合したものである。それが水平か垂直の円筒であるかに応じて、深さは、上述した平面方法または球面方法のいずれかを使用して計算される。平面深さの場合、経度調整は球面経度調整と同等に実施される。
汎用深さ計算
球面マッピングについては、以下の式が使用される。
Figure 2023505891000034
Figure 2023505891000035
上記の定義(「汎用マッピング」の項を参照)によれば、以下が使用され得る。
Figure 2023505891000036
経度を考慮に入れると、収率は、
Figure 2023505891000037
深さからの点群
上記の方法を使用して、仮想カメラ平面に対する個々の視差マップ画素の距離を計算する場合、得られた座標を車両座標に変換して点群を形成することができる。選択されたカメラ(現在の)行列Repi に対してエピポーラ基準フレーム内のユークリッド座標を仮定することは、車両座標系に対して回転し、カメラの外部位置を追加して車両座標を取得するために使用され得る。計算上、この手法は、各画素に対して非常にわずかで非常に単純な操作が含まれるため、ベースラインに位置合わせされた平面マッピングに非常に効率的である。
三角測量による点群
深さから点群を形成する代替手法として、視差マップから点群を生成するために三角測量が使用されてもよい。これは入力として、考慮される座標系における車両の2つの光線および動きベクトルをとる。いくつかの基本的かつ既知の操作(乗算、加算、減算および除算)によって、三角測量される光線の3D位置の出力を得ることができる。
視差マップから光線を決定するために、上記の深さ計算を使用するか、または事前に計算された光線のグリッドを使用する、2つの手法を選択することができる。
前者の手法は、深さ値から直接点群を生成するより効率的ではない。後者の手法は効率的である。必要な光線はまた、上記のエピポーラマッピングのためのメッシュを生成するときに計算される。以下の中間結果、
Figure 2023505891000038
は、メッシュ内の各ノードに利用可能であり、後で使用するために格納することができる。rは、エピポーラ座標系から車両座標系への回転後の光線であった。ここで、視差マップ内の各画素について、対応する光線は、画素の周囲のノードに格納された光線から二線(またはより高度な方法、例えばスプラインを用いて、)補間され得る。エピポーラマッピングのためのグリッドセルサイズを選択するとき、結果として得られる点群の精度が十分であるように、この項で説明する方法を考慮に入れることができる。
三角測量法
三角測量の方法は既知であるため、簡潔にするために最終式のみを示す。2つの車両線r、rおよび車両δのデルタ運動が与えられると、以下の6つの量が定義され得る。
Figure 2023505891000039
両方の光線が単位ベクトルである場合、aおよびcは1つの値を有し、以下の式をさらに簡略化して、
Figure 2023505891000040
光線の2つの交点を提供することができる。通常、3D空間内の2つの光線は必ずしも交差しない。2つの3D点の平均は、両方の光線の最も近い点になる。しかしながら、本発明者らの場合、2つの光線はエピポーラ曲線と交差し、したがって交点を有する。これは、上記の式のうちの1つだけで十分であることを意味する。しかしながら、補間から生じるような光線の計算の不正確さは、両方の3D点を計算し、平均結果を最終的な3D点出力として使用することによって少なくとも部分的に説明することができる。
適用
上記の技術を使用することにより、広視野レンズを有する車両上の移動単眼カメラからの画像を使用して、車両が環境を移動するときに車両を取り囲む環境の局所的なトポグラフィの一部に近似する点群の一部を形成することができる。移動する単眼カメラからの画像をつなぎ合わせることによって形成された画像は、点群によって画定された表面にマッピングすることができる。得られた仮想シーンの画像は、任意の仮想カメラの姿勢から評価することができる。仮想画像は、仮想カメラの姿勢に関係なく撮像シーンと同様のトポグラフィを有するので、提供される画像は現実的である。

Claims (16)

  1. 撮像環境のトポグラフィに対応する点群を形成するための方法であって、
    車両に搭載された広視野レンズを有するカメラ(C1)で前記環境の第1の画像を取得することと、閾値よりも大きい調整によって前記カメラの姿勢を変更することと、前記変更された姿勢(C2)の前記カメラで前記環境の第2の画像を取得することと、
    前記第1の画像を第1の表面にマッピングして第1のマッピングされた画像を形成することと、前記第2の画像を第2の表面にマッピングして、第2のマッピングされた画像を形成することであって、前記第1の表面および前記第2の表面が、同じ非平面形状(120、122、124)によって画定される、第2のマッピングされた画像を形成することと、前記第1のまたは前記第2のマッピングされた画像のうちの一方を画素のブロックに分割することと、
    画素のブロックごとに、前記第1または第2のマッピングされた画像の他方を探索して、前記マッピングされた画像の各々における前記画素のブロックの場所の位置の視差を評価することによって深さマップを形成することと、前記車両が前記環境を移動するときに前記車両を取り囲む前記環境の局所的なトポグラフィに対応する点群の一部に前記深さマップを変換することと、
    前記カメラの姿勢の調整に従って前記点群をスケーリングすることと、を含む、方法。
  2. 探索を実施することが、修正(rectified)エピポーラ線(b)に沿って画像データの一次元探索を実施することを含む、請求項1に記載の方法。
  3. 前記方法が、車両オドメトリセンサから供給されたオドメトリ情報を用いて前記カメラの姿勢の変化を評価することをさらに含む、請求項1または2に記載の方法。
  4. 前記広視野レンズが魚眼レンズである、請求項1から3のいずれか一項に記載の方法。
  5. 前記非平面形状が、円錐面を画定する、請求項1から4のいずれか1項に記載の方法。
  6. 前記非平面形状が球面を画定する、請求項1から4のいずれか一項に記載の方法。
  7. 前記非平面形状が円筒面を画定する、請求項1から4のいずれか一項に記載の方法。
  8. 前記非平面形状が、前記カメラの光軸を中心に対称である、請求項1から7のいずれか一項に記載の方法。
  9. 前記非平面形状が、
    第1の非平面(120)と、第2の非平面(122、124)と、を含み、前記第1の非平面が、前記カメラから前記第2の非平面に延び、前記第2の非平面が、前記第1の非平面から前記光軸に向かって収束する、請求項8に記載の方法。
  10. 前記第2の非平面が、円錐台表面(122)を画定する、請求項9に記載の方法。
  11. 前記第2の非平面が半球面(124)を画定する、請求項9に記載の方法。
  12. 前記マッピングが、前記マッピングされた画像内の画素のサブセットのための低密度ルックアップテーブルを構築することおよび小数精度でその画素の対応するカメラ画像座標を格納することによって実施される、請求項1から11のいずれか一項に記載の方法。
  13. 前方向への移動のための車両(100)であって、
    光軸が前記前方向に位置合わせされたカメラ(101)と、
    光軸が、前記前方向とは反対の後方向に位置合わせされたカメラ(104)と、を備え、
    各カメラが、請求項8から12のいずれか一項に記載の方法に従って動作する、車両(100)。
  14. 前記前方向に垂直である対向する方向に位置合わせされた2つのカメラ(102,103)をさらに備え、前記2つのカメラが、請求項1から7のいずれか一項に記載の方法に従って動作する、請求項13に記載の車両。
  15. 前記カメラが、前記車両の自動駐車または自律運転のためのシステムに情報を提供する、請求項13または14に記載の車両。
  16. 車両の周囲にシーンを表示するための方法であって、
    視野が重複する前記車両の周囲に配置された複数のカメラから画像を取得することと、前記画像をつなぎ合わされた画像につなぎ合わすことと、請求項1から12のいずれか一項に記載の方法によって生成された前記点群によって画定された表面上に前記つなぎ合わされた画像をマッピングすることと、を含む、方法。
JP2022535783A 2019-12-13 2020-12-08 環境のトポグラフィを測定するための方法 Active JP7502440B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102019134324.0 2019-12-13
DE102019134324.0A DE102019134324A1 (de) 2019-12-13 2019-12-13 Ein Verfahren zum Messen der Topografie einer Umgebung
PCT/EP2020/085023 WO2021116078A1 (en) 2019-12-13 2020-12-08 A method for measuring the topography of an environment

Publications (2)

Publication Number Publication Date
JP2023505891A true JP2023505891A (ja) 2023-02-13
JP7502440B2 JP7502440B2 (ja) 2024-06-18

Family

ID=73790100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022535783A Active JP7502440B2 (ja) 2019-12-13 2020-12-08 環境のトポグラフィを測定するための方法

Country Status (7)

Country Link
US (1) US20230351625A1 (ja)
EP (1) EP4073756A1 (ja)
JP (1) JP7502440B2 (ja)
KR (1) KR20220113781A (ja)
CN (1) CN115023736A (ja)
DE (1) DE102019134324A1 (ja)
WO (1) WO2021116078A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020112204A1 (de) 2020-05-06 2021-11-11 Connaught Electronics Ltd. System und Verfahren zum Steuern einer Kamera
CN113742863B (zh) * 2021-08-31 2023-10-27 上海卫星工程研究所 环火轨道中分全球及局部成像能力地面验证系统
US20230132967A1 (en) * 2021-10-28 2023-05-04 Argo AI, LLC Method, System, and Computer Program Product for Parallax Estimation for Sensors for Autonomous Vehicles

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03113305A (ja) * 1989-09-28 1991-05-14 Nippon Telegr & Teleph Corp <Ntt> 三次元座標計測装置
JP2011064566A (ja) * 2009-09-17 2011-03-31 Fujitsu Ltd 距離推定装置
JP2013025528A (ja) * 2011-07-20 2013-02-04 Nissan Motor Co Ltd 車両用画像生成装置及び車両用画像生成方法
WO2013190772A1 (ja) * 2012-06-20 2013-12-27 パナソニック株式会社 空間情報検出装置、人位置検出装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4969269B2 (ja) 2007-02-21 2012-07-04 アルパイン株式会社 画像処理装置
EP2530647A1 (en) 2011-06-01 2012-12-05 Harman Becker Automotive Systems GmbH Method of calibrating a vehicle vision system and vehicle vision system
US9811880B2 (en) * 2012-11-09 2017-11-07 The Boeing Company Backfilling points in a point cloud
US8892358B2 (en) * 2013-03-14 2014-11-18 Robert Bosch Gmbh System and method for distortion correction in three-dimensional environment visualization
US11010910B2 (en) * 2015-12-18 2021-05-18 Iris Automation, Inc. Systems and methods for dynamic object tracking using a single camera mounted on a moving object
US11108992B2 (en) 2016-06-08 2021-08-31 Sony Corporation Imaging control device and method, and vehicle
DE102016124978A1 (de) * 2016-12-20 2018-06-21 Connaught Electronics Ltd. Virtuelle Repräsentation einer Umgebung eines Kraftfahrzeugs in einem Fahrerassistenzsystem mit mehreren Projektionsflächen
US11127202B2 (en) * 2017-12-18 2021-09-21 Parthiv Krishna Search and rescue unmanned aerial system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03113305A (ja) * 1989-09-28 1991-05-14 Nippon Telegr & Teleph Corp <Ntt> 三次元座標計測装置
JP2011064566A (ja) * 2009-09-17 2011-03-31 Fujitsu Ltd 距離推定装置
JP2013025528A (ja) * 2011-07-20 2013-02-04 Nissan Motor Co Ltd 車両用画像生成装置及び車両用画像生成方法
WO2013190772A1 (ja) * 2012-06-20 2013-12-27 パナソニック株式会社 空間情報検出装置、人位置検出装置

Also Published As

Publication number Publication date
WO2021116078A1 (en) 2021-06-17
DE102019134324A1 (de) 2021-06-17
KR20220113781A (ko) 2022-08-16
CN115023736A (zh) 2022-09-06
US20230351625A1 (en) 2023-11-02
JP7502440B2 (ja) 2024-06-18
EP4073756A1 (en) 2022-10-19

Similar Documents

Publication Publication Date Title
WO2022222121A1 (zh) 一种全景图像的生成方法、车载图像处理装置及车辆
KR101265667B1 (ko) 차량 주변 시각화를 위한 3차원 영상 합성장치 및 그 방법
JP7502440B2 (ja) 環境のトポグラフィを測定するための方法
EP1242966B1 (en) Spherical rectification of image pairs
CN110910453B (zh) 基于无重叠视域多相机系统的车辆位姿估计方法及其系统
JP5455124B2 (ja) カメラ姿勢パラメータ推定装置
US20190012804A1 (en) Methods and apparatuses for panoramic image processing
CN112396664A (zh) 一种单目摄像机与三维激光雷达联合标定及在线优化方法
KR20160116075A (ko) 카메라로부터 획득한 영상에 대한 자동보정기능을 구비한 영상처리장치 및 그 방법
EP3221844A1 (en) Localising portable apparatus
CN112669354A (zh) 一种基于车辆非完整约束的多相机运动状态估计方法
CN113205603A (zh) 一种基于旋转台的三维点云拼接重建方法
CN110675436A (zh) 基于3d特征点的激光雷达与立体视觉配准方法
CN114782636A (zh) 三维重建方法、装置及系统
Kinzig et al. Real-time seamless image stitching in autonomous driving
CN117611438A (zh) 一种基于单目图像的2d车道线到3d车道线的重构方法
Schönbein et al. Environmental Perception for Intelligent Vehicles Using Catadioptric Stereo Vision Systems.
CN114485648B (zh) 一种基于仿生复眼惯性系统的导航定位方法
KR102225321B1 (ko) 복수 영상 센서로부터 취득한 영상 정보와 위치 정보 간 연계를 통한 도로 공간 정보 구축을 위한 시스템 및 방법
KR102107465B1 (ko) 방향코사인을 이용한 에피폴라 영상 제작 시스템 및 그 제작 방법
JP2021111302A (ja) カメラモジュールに基づいて自動的に地面を推定する方法
Huang et al. Wide-angle vision for road views
Agrawal et al. RWU3D: Real World ToF and Stereo Dataset with High Quality Ground Truth
Groom et al. On Depth Error from Spherical Camera Calibration within Omnidirectional Stereo Vision
Xiong et al. Panoramic image mosaics assisted by lidar in vehicle system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230630

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240606

R150 Certificate of patent or registration of utility model

Ref document number: 7502440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150