JP2023504298A - 非剛性ステレオ・ビジョン・カメラ・システム - Google Patents

非剛性ステレオ・ビジョン・カメラ・システム Download PDF

Info

Publication number
JP2023504298A
JP2023504298A JP2022544695A JP2022544695A JP2023504298A JP 2023504298 A JP2023504298 A JP 2023504298A JP 2022544695 A JP2022544695 A JP 2022544695A JP 2022544695 A JP2022544695 A JP 2022544695A JP 2023504298 A JP2023504298 A JP 2023504298A
Authority
JP
Japan
Prior art keywords
stereo
calibration
camera
image
generate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022544695A
Other languages
English (en)
Other versions
JP7319003B2 (ja
Inventor
オールデン ジャン、リーフ
ブラッドリー ローゼン、フィリップ
スヴィエルチンスキ、ピョートル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nodar Inc
Original Assignee
Nodar Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nodar Inc filed Critical Nodar Inc
Publication of JP2023504298A publication Critical patent/JP2023504298A/ja
Priority to JP2023114397A priority Critical patent/JP2023133334A/ja
Application granted granted Critical
Publication of JP7319003B2 publication Critical patent/JP7319003B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

システムの2つ以上のカメラの間の相対的モーションがデプス・マップの推定を劣化させない非剛性アセンブリにおける使用に適した長いベースラインおよび長いデプス範囲のステレオ・ビジョン・システムが提供される。ステレオ・ビジョン・システムは、カメラ位置への高速摂動および低速摂動の間ですらカメラからの画像を訂正する時間の関数としてカメラ・パラメータを追跡するプロセッサを含んでよい。システムの工場キャリブレーションは必要とされず、通常の動作中の手動キャリブレーションも必要とされず、したがって、システムの製造を簡略化する。

Description

本発明の技術は、ステレオ・ビジョン・システムに関する。より詳細には、本技術は、高速および低速な機械的摂動の存在下で動作を改善するための特性を有するステレオ・ビジョン・システム(たとえば、ステレオ・カメラ・システム)、およびシステムの自動キャリブレーションのための方法に関する。
ステレオ・カメラ・システムは、三角測量技法によって視野内の物体についての3次元情報を獲得するために使用されることがある。
従来のステレオ・カメラ・システムは、剛性装着部材を使用して、互いに対するカメラの位置を固定し得る。たとえば、カメラの相対的位置を機械的に安定化するためにカメラならびにそれらの関連付けられたCMOSセンサおよびレンズの直接的な取り付けのための剛性装着部材としての厚い金属プレートの使用が開示されている(たとえば、特許文献1参照)。本文献の図5に図示されるプレートの厚さは、カメラ間の距離の約5分の1であり、このことは、そのような構造を非常に重くし、これは、広いベースライン・ステレオ・カメラをもつシステムにおける使用に適さないことがある。たとえば、カメラ間の1mベースラインをもつステレオ・カメラ・システムは、20cm厚さの金属プレートを必要とするであろう。20cm厚さの金属プレートは、アルミニウムから作製された場合、108kgの重さとなるであろう(1m×0.2m×0.2m)。「広いベースライン」および「長いベースライン」という用語は、本明細書において互換的に使用されてよい。
そのような既存のステレオ・カメラ・システムに関する問題は、個々のカメラ・モジュール(本明細書では「カメラ・センサ」または単純に「カメラ」と呼ばれるときがある)が、経時的に互いに対してシフトおよび/または回転することがあり、これが、初期キャリブレーション・パラメータを経時的に不正確なものにすることがあることである。ステレオ・カメラ・システムが適切にキャリブレーションされたままであるために、ステレオ・カメラ・システムのカメラ・モジュールの視野が互いに対して移動しないことが望ましい。いくつかのステレオ・カメラ・システムでは、0.05度のみの相対的なカメラ方位回転によっても、システムのキャリブレーションが損なわれることがあり得る。さらに、従来のステレオ・カメラ・システムでは、たとえば、回路基板および/または他のカメラ構成要素に対するレンズ・ホルダの移動の可能性、カメラ・モジュール間の相対的なポインティングが変化する可能性、ならびにまた、回路基板およびフレーム自体の位置が経時的に変化する可能性がある。従来のステレオ・カメラ・システム内の構成要素間の複数のインタフェースは、構成要素間の振動、衝撃、および熱膨張すら、ステレオ・カメラ・システム内のカメラの視野を経時的にシフトさせるということが起こる可能性を高める。カメラ構成要素の相対的移動が、システムの初期工場キャリブレーションを無効にすることがあり、このことによって、システムによって取得されるステレオ・ビジョン・データが信頼できないものになることがある。
従来技術によるステレオ・ビジョン・システムは、典型的には、一般に衝撃もしくは振動を受けない研究室システムであるか、または一般に非常に正確なキャリブレーションが不可欠であると考えられる状況でない短範囲室内ロボットなどの状況で使用されているか、のどちらかであるので、そのようなキャリブレーション問題は、従来技術では対処されていない、または認識すらされていない。したがって、従来のシステムは短いベースライン長に限定されており、大きい機械的補強材を利用するので、キャリブレーションを失うことに対する従来のステレオ・ビジョン・システムの固有感受性は、解決されるべき特定の問題と認識されてこなかった。
従来の自動的キャリブレーション方法は、典型的に、2つのカテゴリすなわち疎なキーポイント手法および消失点手法に分類される。キーポイントとは、コーナまたはエッジなどの、画像内で容易に認識され得る目的のポイントであり、多くの場合、関連付けられた画像記述子を有することがある。たとえば、David Loweによって開発されたスケール不変特徴変換(SIFT)方法は、キーポイントを発見し、不変である記述子を平行移動、回転、およびスケーリング変換に対して提供するためのアルゴリズムの一例である。消失点は、無限距離にある点を表すために使用される。消失点は、カメラ・モジュール方位に対して感受性が高いが、カメラ・モジュール間の相対的平行移動に対して感受性が高くなく、ステレオ・カメラ・モジュールのペアの方位をアライメントするために使用可能である。
疎なキーポイント手法を使用してステレオ・ビジョン・システムを自動的にキャリブレーションするための方法も開示されている(特許文献2および特許文献3参照)。特許文献2における方法は、キーポイントを抽出し、第1のカメラおよび第2のカメラからの画像内のキーポイントをマッチングさせ、垂直誤差の特異値分解解析に基づいてカメラ・キャリブレーションを決定する。特許文献3における方法は、特許文献2の方法に類似しているが、複数の画像フレームにわたってキーポイントを追跡し、モーション由来構造(structure-from-motion)技法を使用して3次元制約を適用する。疎なキーポイント手法は、第1のカメラからの画像と第2のカメラからの画像との間でキーポイントが誤ってマッチングされるとき、失敗する場合があり、これは、繰り返す構造(たとえば、杭垣、建物の窓など)をもつ画像シーンにおいて起こる場合がある。そのうえ、特徴点のサブピクセル精度は、長いベースラインおよび長い範囲動作のための十分な精度をもつカメラ・パラメータを取得するために必要とされることがあり、これは、多くの場合、滑らかなもしくは丸い特徴、またはわずかに焦点のぼけたもしくはぼんやりした画像では、可能でない。従来のモーション由来構造計算は、一般に、フレームごとにキャリブレーション誤差を補償するのに十分なほど高速ではなく、したがって、典型的には、短いベースラインのステレオ・ビジョン・システムの低速摂動に適している。疎なキーポイント手法に関する別の問題は、内因性カメラ・パラメータまたは外因性カメラ・パラメータを正確に決定するのに十分な情報を提供しない、画像の疎なサンプリングである。たとえば、典型的な道路シーンの画像は、空から離れテクスチャレス道路表面から離れる画像の中心においてクラスタ化されたほとんどの特徴を有することがあり、したがって、サンプリングが、一般に画像の中心において行われる。このクラスタ化サンプリングは、ステレオ・カメラの相対的方位(外因性カメラ・パラメータ)、はるかに少ないレンズ歪み係数(内因性カメラ・パラメータ)を、高い精度で決定するのに十分な情報を提供しない。これらのパラメータは、画像のエッジにおける歪みに対して感受性が高い。言い換えれば、これらの従来の技法は、ステレオ・ビジョン・システムの適切なキャリブレーションにとって重要なことがあり得るカメラ・パラメータを補償しない。
消失点を探索してピッチ誤差およびヨー誤差を補正することによってステレオ・ビジョン機器を自動的にキャリブレーションするための方法が開示されている(たとえば、特許文献4参照)。この方法は、機器の2つのカメラ間のロール誤差または相対的平行移動ベクトルを補正しない。そのうえ、方法は、まっすぐで信頼できる道路舗装マーキングを必要とするが、これは、利用できないことがあり、または雪によって遮られたり摩耗もしくは日光曝露によって色あせていたりすることがあり、したがって、機器のキャリブレーションの角度精度を制限する。
モデル飛行機の翼上に装着された構成要素を使用するステレオ・ビジョンのための方法も開示されている(たとえば、非特許文献1参照)。翼は可撓性であり、動き得るので、著者らは、相対的なカメラ・モーションを補償するためにシステムを開発した。このシステムは、カメラの加速度および角速度を測定するためにステレオ・カメラに対して直接的に取り付けられた慣性測定ユニット(IMU)の使用を必要とする。このシステムは、次いで、拡張カルマン・フィルタを使用して、カメラの相対的方位および位置を算出する。このシステムの1つの欠点は、システムが、IMUハードウェアを必要とし、ビデオ・ストリームのみからでは、カメラ位置を補正することはできないことである。別の欠点は、IMUが高速摂動を補償するために使用可能であるが、低速摂動(たとえば、カメラの位置の低速のずれ)を補償するためには使用可能でないことであり、このことは、カメラが頻繁に(たとえば、毎日)手動でキャリブレーションされることが必要であり得ることを意味する。
米国特許第6392688号明細書 米国特許第8797387号明細書 米国特許第10097812号明細書 特表2008-509619号公報
著者ティー.ヒンツマン(T.Hinzmann),ティー.タオプナー(T.Taubner)およびアール.ジークバルト(R.Siegwart)による「可撓性立体:固定翼航空プラットフォームのための制約のある非剛性広いベースライン立体視(Flexible Stereo:Constrained,Non-rigid,Wide-baseline Stereo Vision for Fixed-Wing Aerial Platforms)」という題名の2018会議論文
上記で説明されたキャリブレーション問題は、カメラ・モジュール間の距離が、たとえば、約20cmよりも大きい場合、2つ以上のカメラ・モジュールを重量のある構造の梁または装着部材と接続することが可能でないシステム内で、長いベースラインのステレオ・ビジョン・システム内で悪化され得る。スタイリングの場合、および最適な視聴視点の場合、独立したカメラを非剛性である構造(たとえば、可撓性構造)上に装着することが望ましいときがある。たとえば、車両のヘッドライト内に、車両のウインドシールドの上部コーナにおいて、または車両のサイド・ミラー上に、ステレオ・カメラのペアを装着することは、そのような場所が、車両(たとえば、車、トラック、バスなど)内のステレオ・ビジョン・システムのための長いベースラインを確立するのに好都合であり得るので、有利であろう。しかしながら、これらの場所は、数時間または数日にわたってキャリブレーションを維持するのに十分なほど剛性でなく、ましてなおさら、典型的な車両の15年の寿命については言うまでもない。場合によっては、剛性機械的支持構造のための最も短い経路はそれぞれ、エンジンブロックによってブロックされることがあり、運転手の視界をブロックすることがあり、運転手自身によってブロックされることがあるので、これらの支持構造をヘッドライト、ウインドシールドの上部コーナ、またサイド・ミラーの間に追加することは、現実的には可能でないことがある。そのうえ、支持用構造が追加され得る場合ですら、妥当な構造的支持を提供するために必要とされるそのような構造の厚さおよび重さは、非実際的であることがある。すなわち、梁のたわみ変位は、梁の長さの3乗に比例してスケーリングするので、梁が長いほど、梁に適用される同じ量の力に対して梁がより大きく変位し得る。たとえば、同じ終端力の場合、2mベースラインのステレオ・ビジョン・システムは、20cmベースラインのステレオ・ビジョン・システムの1000倍変位するであろう。このスケーリングは、市販のステレオ・ビジョン・システムが20cm未満のベースラインに対して物理的に限定されることをもたらした。
高振動および衝撃環境において動作し得、非剛性構造上に装着され得、長いベースラインおよび長い範囲のステレオ・ビジョンを支持し得、高い精度で動作し得る、ステレオ・ビジョン・システムが必要とされている。
長いベースラインおよび非剛性構造に適した自動的キャリブレーション技術は、少なくとも4つの理由で、本明細書で開示される技術の前に達成されていない。(1)大きさ:物理によって、梁変位は、梁長さの3乗に比例して増加し(上記の論議を参照)、したがって、相対的なカメラ変位の大きさは、梁長さとともに増加する。剛性を保証しカメラ変位を防止する追加の構造的支持は、現実的には達成可能でないことがある。(2)帯域幅:自動キャリブレーション・システムのキャリブレーション・スピードは、低速変動と高速変動の両方を考慮するために、増加しつつあるベースライン長とともに増加するべきである。必要な算出スピードを達成するために必要とされるプロセッサ・ハードウェアは、高価であることがあり、システムに対して望ましくない複雑さを追加することがある。(3)精度:長いベースライン・システムのために必要とされるキャリブレーション精度は、より大きい角度精度が、より長い距離にあるターゲットを推定するために必要とされるので、短いベースライン・システムの場合よりもはるかに大きいことがある。および(4)完全性:ステレオ・カメラの自動的キャリブレーションのための従来の技法は、少数のカメラ・パラメータ(たとえば、ステレオ・カメラの相対的な方位)を補償し得るが、フル・キャリブレーションは、外因性および内因性カメラ・パラメータすべてのための補償を必要とするであろう。本明細書において提示される技術の前に、これらの4つの理由に対処するシステムは、達成されていない。
本明細書において説明され、特許請求の範囲において特許請求される本発明の技術は、剛性装着部材が必要とされないステレオ・ビジョン・システムを対象とする。ビジョンは、複数のビジョン・センサ(たとえば、カメラ・モジュール)を介して達成されてよい。本技術のいくつかの態様では、第1のカメラ・モジュール(たとえば、カメラ・センサ)および第2のカメラ・モジュールは、撓曲する、シフトする、屈曲する、および/または移動する構造の上に置かれてもよいし、それに取り付けられてもよい。本明細書における別の場所で述べられるように、カメラ・センサ、カメラ・モジュール、およびカメラという用語は、互換的に使用されてよい。本技術の態様によるステレオ・カメラ・システムは、たとえば温度変化による低速材料変形から、たとえば道路ノイズまたはエンジン・ノイズによる高速振動モーションまで、すべてのモーション頻度にわたって正確なデプス・マップを提供するために、第2のカメラに対する第1のカメラの移動に関するアクティブな追跡および補償を実施するように構成されたプロセッサからなってよい。カメラの剛性装着の要件はないので、本技術の態様は、定期的な手動キャリブレーションを必要とすることのない、長い範囲測定のための広いベースライン・ステレオ構成を可能にし得る。
本技術の一態様によれば、ステレオ・ビジョン・システムが提供される。このステレオ・ビジョン・システムは、第1の画像の第1の反射エネルギーを感知し、この第1の反射エネルギーに基づいて第1のセンサ信号を生成するように構成された第1のカメラ・センサと、第2の画像の第2の反射エネルギーを感知し、この第2の反射エネルギーに基づいて第2のセンサ信号を生成するように構成された第2のカメラ・センサと、第1のカメラ・センサからの第1のセンサ信号および第2のカメラ・センサからの第2のセンサ信号を受け取り、第1のセンサ信号および第2のセンサ信号から3次元(3D)データを生じさせるように構成された少なくとも1つのプロセッサとからなってよい。この少なくとも1つのプロセッサは、ステレオ・キャリブレーション・パラメータを利用して第1のセンサ信号および第2のセンサ信号から訂正された(rectified)ステレオ画像を生成し、訂正された画像に対してステレオ・マッチングを実施し、第1のカメラ・センサおよび第2のカメラ・センサによって取得される複数のステレオ画像からのデータを使用して自動的システム・キャリブレーションを実施するように構成されてよい。自動的システム・キャリブレーションは、コスト関数を最小化することに基づいてよい。本態様のいくつかの実施形態では、第1の反射エネルギーおよび/または第2の反射エネルギーは、少なくとも1つの電子デバイス(たとえば、ヘッドライト、街灯、レーザなど)から発せられる光エネルギーまたは光子からなることがある。本態様のいくつかの実施形態では、第1の反射エネルギーおよび/または第2の反射エネルギーは、太陽から発せられる太陽光エネルギーまたは光子からなることがある。本態様のいくつかの実施形態では、第1の反射エネルギーおよび/または第2の反射エネルギーは、太陽光エネルギーと電子デバイスから発せられる光エネルギーの組み合わせからなることがある。
本技術の別の態様によれば、画像内の物体の検出のためのコンピュータ実装方法が提供される。この方法は、1つまたは複数のプロセッサによって実施されてよく、物体上の接続された構成要素領域(connected component region)を色によって識別する工程と、接続された構成要素領域の各々のアスペクト比を決定する工程と、接続された構成要素領域の間の距離を決定する工程と、アスペクト比および接続された構成要素領域の間の距離に基づいて、既知の物体であると物体を識別する工程とからなってよい。既知の物体の存在、場所、およびサイズ、のうちの任意の1つまたはそれらのうちの任意の組み合わせは、画像から決定されてよい。
本技術の別の態様によれば、ステレオ・ビジョン・システムをキャリブレーションするコンピュータ実装キャリブレーション方法が提供される。この方法は、1つまたは複数のプロセッサによって実施されてよい。ステレオ・ビジョン・システムは、第1の画像の第1の反射エネルギーを感知し、この第1の反射エネルギーに基づいて第1のセンサ信号を生成するように構成された第1のカメラ・センサと、第2の画像の第2の反射エネルギーを感知し、この第2の反射エネルギーに基づいて第2のセンサ信号を生成するように構成された第2のカメラ・センサとを含んでよい。方法は、第1のセンサ信号および第2のセンサ信号からステレオ画像を生成する工程と、訂正されたステレオ画像を生じさせるために、ステレオ・キャリブレーション・パラメータを使用してステレオ画像を訂正する工程と、訂正されたステレオ画像に対してステレオ・マッチングを実施する工程と、ステレオ・マッチングの結果を使用して、自動的システム・キャリブレーションを実施する工程とからなってよい。自動的システム・キャリブレーションは、コスト関数を最小化することに基づいてよい。本態様のいくつかの実施形態では、第1の反射エネルギーおよび/または第2の反射エネルギーは、少なくとも1つの電子デバイス(たとえば、ヘッドライト、街灯、レーザなど)から発せられる光エネルギーまたは光子からなることがある。本態様のいくつかの実施形態では、第1の反射エネルギーおよび/または第2の反射エネルギーは、太陽から発せられる太陽光エネルギーまたは光子からなることがある。本態様のいくつかの実施形態では、第1の反射エネルギーおよび/または第2の反射エネルギーは、太陽光エネルギーと電子デバイスから発せられる光エネルギーの組み合わせからなることがある。
本技術の別の態様によれば、1つまたは複数のプロセッサによって実行されるとき、1つまたは複数のプロセッサに、第1の画像の第1の反射エネルギーを感知し、第1の反射エネルギーに基づいて第1のセンサ信号を生成するように構成された第1のカメラ・センサと、第2の画像の第2の反射エネルギーを感知し、第2の反射エネルギーに基づいて第2のセンサ信号を生成するように構成された第2のカメラ・センサとを含んでよいステレオ・ビジョン・システムをキャリブレーションさせることができる、コンピュータ実行可能コードを記憶する非一時的なコンピュータ可読媒体が提供される。方法は、第1のセンサ信号および第2のセンサ信号からステレオ画像を生成する工程と、訂正されたステレオ画像を生じさせるために、ステレオ・キャリブレーション・パラメータを使用してステレオ画像を訂正する工程と、訂正されたステレオ画像に対してステレオ・マッチングを実施する工程と、ステレオ・マッチングの結果を使用して、自動的システム・キャリブレーションを実施する工程とからなってよい。自動的システム・キャリブレーションは、コスト関数を最小化することに基づいてよい。本態様のいくつかの実施形態では、第1の反射エネルギーおよび/または第2の反射エネルギーは、少なくとも1つの電子デバイス(たとえば、ヘッドライト、街灯、レーザなど)から発せられる光エネルギーまたは光子からなることがある。本態様のいくつかの実施形態では、第1の反射エネルギーおよび/または第2の反射エネルギーは、太陽から発せられる太陽光エネルギーまたは光子からなることがある。本態様のいくつかの実施形態では、第1の反射エネルギーおよび/または第2の反射エネルギーは、太陽光エネルギーと電子デバイスから発せられる光エネルギーの組み合わせからなることがある。
本技術のいくつかの実施形態による、大型で重い構造的支持材料をカメラ間で使用または必要とすることなく車内またはその上でカメラを装着するための場所を図示する図。 本技術のいくつかの実施形態による、大型で重い構造的支持材料をカメラ間で使用または必要とすることなく車内またはその上でカメラを装着するための場所を図示する図。 本技術のいくつかの実施形態による、大型で重い構造的支持材料をカメラ間で使用または必要とすることなく車内またはその上でカメラを装着するための場所を図示する図。 本技術のいくつかの実施形態による、図1Aの車の透明化図または部分的透視図。 本技術のいくつかの実施形態による、図1Bの車の透明化図または部分的透視図。 本技術のいくつかの実施形態による、図1Cの車の透明化図または部分的透視図。 本技術のいくつかの実施形態による、車内の種々の場所に装着された前向きステレオ・ビジョン・カメラ・モジュールの図。 本技術のいくつかの実施形態による、車内の種々の場所に装着された前向きステレオ・ビジョン・カメラ・モジュールの図。 本技術のいくつかの実施形態による、車内の種々の場所に装着された前向きステレオ・ビジョン・カメラ・モジュールの図。 本技術のいくつかの実施形態による、車内の種々の場所に装着された前向きステレオ・ビジョン・カメラ・モジュールの図。 本技術のいくつかの実施形態による、車内の種々の場所に装着された前向きステレオ・ビジョン・カメラ・モジュールの図。 本技術のいくつかの実施形態による、車内の種々の場所に装着された前向きステレオ・ビジョン・カメラ・モジュールの図。 本技術のいくつかの実施形態による、トラック上に装着された前向きステレオ・ビジョン・カメラ・センサの図。 本技術のいくつかの実施形態による、トラックのサイド・ミラー上にカメラ・モジュールが装着された、ステレオ・ビジョン・システムの横向きカメラ・モジュールおよび後ろ向きカメラ・モジュールの斜視図。 本技術のいくつかの実施形態による、トラックのサイド・ミラー上にカメラ・モジュールが装着された、ステレオ・ビジョン・システムの横向きカメラ・モジュールおよび後ろ向きカメラ・モジュールの平面図。 本技術のいくつかの実施形態による、トラックのサイド・ミラー上にカメラ・モジュールが装着された、ステレオ・ビジョン・システムの横向きカメラ・モジュールおよび後ろ向きカメラ・モジュールの正面立面図。 本技術のいくつかの実施形態による、交通信号上に装着されたステレオ・ビジョン・システムのカメラの概略図。 本技術のいくつかの実施形態による、街灯柱上に装着されたステレオ・ビジョン・システムのカメラの概略図。 本技術のいくつかの実施形態による、建設用クレーン上に装着されたステレオ・ビジョン・システムのカメラの概略図。 本技術のいくつかの実施形態による、固定翼機に装着されたステレオ・ビジョン・システムのカメラの概略図。 本技術のいくつかの実施形態による、オフロード車または全地形対応車両上に装着されたステレオ・ビジョン・システムのカメラ配置の正面斜視図。 本技術のいくつかの実施形態による、オフロード車または全地形対応車両上に装着されたステレオ・ビジョン・システムのカメラ配置の背面斜視図。 本技術のいくつかの実施形態による、コンバイン収穫機上に装着された2つのステレオ・ビジョン・システムのカメラの概略図。 本技術のいくつかの実施形態による、自動化されたフォークリフト上に装着されたステレオ・ビジョン・システムのカメラの側面立面図(A)、正面立面図(B)、および平面図(C)。 本技術のいくつかの実施形態による、ステレオ・ビジョン・システムのブロック図。 本技術のいくつかの実施形態による、図13のシステムの処理構成要素のブロック図。 本技術のいくつかの実施形態において利用される訂正アルゴリズムの流れ図。 本技術のいくつかの実施形態による、アルゴリズムによって実施される訂正手順の幾何学的詳細を示す図。 本技術のいくつかの実施形態による、図14の処理構成要素の自動キャリブレーション・エンジンのブロック図。 本技術のいくつかの実施形態による、図16の自動キャリブレーション・エンジンのキャリブレーション・エンジンのブロック図。 本技術のいくつかの実施形態による、高速最適化方法の流れ図。 本技術のいくつかの実施形態による、中間的最適化方法の流れ図。 本技術のいくつかの実施形態による、図17C-1の中間的最適化方法の角度探索プロセスの流れ図。 本技術のいくつかの実施形態による、低速最適化方法の流れ図。 本技術のいくつかの実施形態による、低速最適化方法の流れ図。 本技術のいくつかの実施形態による、低速最適化方法の流れ図。 本技術のいくつかの実施形態による、低速最適化方法の流れ図。 本技術のいくつかの実施形態による、図16の自動キャリブレーション・エンジンのステレオ画像安定化エンジンの手順の流れ図。 本技術のいくつかの実施形態による、図16の自動キャリブレーション・エンジンの絶対的範囲キャリブレーション・エンジンの手順のブロック図であり、この手順は、非負視差制約を有する図。 本技術のいくつかの実施形態による、負の視差をもつピクセルの数がヨーの関数としてどのように変わり得るかを図示するグラフ。 本技術のいくつかの実施形態による、図16の自動キャリブレーション・エンジンの絶対的範囲キャリブレーション・エンジンの手順の流れ図であり、この手順は、既知の寸法をもつ物体のためのものである図。 本技術のいくつかの実施形態による、既知の寸法をもつ物体の画像の一例を図示する図。 本技術のいくつかの実施形態による、図16の自動キャリブレーション・エンジンの絶対的範囲キャリブレーション・エンジンの手順の流れ図であり、この手順は、車両走行距離測定を利用する図。 本技術のいくつかの実施形態による、視差が範囲の関数としてどのように変わり得るかを図示するグラフ。 本技術のいくつかの実施形態による、図16の自動キャリブレーション・エンジンのキャリブレーション・マネージャの手順の流れ図。 本技術のいくつかの実施形態による、図22のキャリブレーション・マネージャの時系列入力図。 本技術のいくつかの実施形態による、一時停止標識検出器の手順の流れ図。 本技術のいくつかの実施形態による、図14の処理構成要素のステレオ対応エンジンの手順を例示する図。
本発明者らは、振動の存在下ですら、およびシステムのカメラのための装着構造が剛性でない(たとえば、装着構造が外力から容易に変形され得る)ときですら、高品質をもつデプス・マップをステレオ・ビジョン・システムが生じさせることを可能にし得る画像処理技法を開発した。本発明者らは、高速摂動と低速摂動の両方を補償し得るカメラ自動キャリブレーション方法は、長いベースライン(本明細書では、「広いベースライン」とも呼ばれる)のステレオ・ビジョン・システムが、ロボット、車、トラック、電灯柱(light post)、建設用クレーン、航空機などの動的プラットフォーム上で使用されることを可能にし得ることを認識している。
自動車およびトラックなどの車両の場合、審美的設計にとって、製造にとって、および/またはステレオ・ビジョン・システムのセンサもしくはカメラに最適な視点を提供することにとって、好ましいまたは理想的であることすらある装着場所がある。しかしながら、これらの装着場所は、従来のステレオ・ビジョン・システムにおいて使用されるカメラの厳密な角度許容を支持するのに十分な剛性または安定性を有さないことがある。ステレオ・カメラの相対的ポインティング方向をいくつかの従来のステレオ・ビジョン・システムの0.05度のみ摂動させたとしても、信頼できない範囲推定量が提供されるため、デプス・マップが損なわれるおそれがある。
図1A~図1Cは、本技術のいくつかの実施形態による、カメラ間に大型で重い構造的支持材料を使用または必要とすることなく車両内またはその上でカメラを装着するための3つの異なる場所を図示する。
図1Aは、本技術のいくつかの実施形態によるステレオ・ビジョン・システムの装着構成を図示し、システムの左カメラ100および右カメラ102は、車両のフロント・ウインドシールドの頂部部分に装着されてよい。この場所は、カメラ100、102が車両のキャビンの内部にあり、したがって、塵および雨から保護され得るので、望ましいことがある。たとえば、ウインドシールド・ワイパーは、カメラ100、102の視野から細片(たとえば、雨、雪、葉など)を一掃するために使用されてよい。いくつかの実施形態では、右カメラ100および左カメラ102は、非対称的に装着されることがあり、車両のウインドシールド・ワイパーの掃除ゾーン内にあるように配置されることがある。いくつかの実施形態では、右カメラ100と左カメラ102との間の典型的なベースライン幅は約80cmであってよいが、この幅は、従来のステレオ・ビジョン・システムでは、2つのカメラ100、102を接続するために非実際的に厚くて重い剛性構造部材を必要とすることになる幅である。理解されるように、そのような構造部材は、人間の運転手の視覚を遮る可能性がある。50cmよりも大きいベースラインをもつステレオ・カメラを有する従来の自律型試験車両は、典型的には、45mm×45mmまたは90mm×90mmプロファイルをもつ、嵩高いスロット・アルミニウム部材を使用して、一日または時にはそれよりも長くカメラ・アライメントを維持するのに十分な剛性を提供する。
図1Bは、本技術のいくつかの実施形態によるステレオ・ビジョン・システムの装着構成を図示し、システムの左カメラ104および右カメラ106は、車両のルーフ部分上に装着されてよい。ルーフ部分は、高い視点を提供し得るが、これは、ビジョン・システムが車両の前の物体を見回り、濡れた舗道および道路細片からのはねおよびしぶきから遠く位置することを可能にし得る。いくつかの実施形態では、カメラ104、106は、カメラ104、106を安定化するために余分な構造材料を使用することなくルーフ・ヘッドライナー上へ装着されることがある。そのうえ、いくつかの実施形態では、カメラ104、106とともに使用されるカメラ筐体は、1つまたは複数の掃除デバイス(たとえば、霜を除去するおよび/または曇りを取るように構成された発熱体、固体細片を除去するように構成された液体および/または空気のための噴霧器など)を含んでよい。いくつかの実施形態では、左カメラ104と右カメラ106との間の典型的なベースライン幅は、1.25mであることがある。いくつかの実装形態では、車両のルーフ部分上のカメラ・モジュール104、106は、車両のスタイリングに対する影響をほとんどまたはまったく有さないことがある。たとえば、いくつかの実施形態では、カメラ104、106は、車両のルーフ・ラックに沿って連続的に置かれることがある。
図1Cは、本技術のいくつかの実施形態によるステレオ・ビジョン・システムの装着構成を図示し、システムの左カメラ108および右カメラ110は、車両のサイド・ミラー上に装着されてよい。サイド・ミラーは、前向きステレオ・ビジョン・システムに典型的には2.1mである最も幅広いベースラインを提供し得るが、図1Aおよび図1Bに図示される装着構成よりも大きい摂動を経験することがある。典型的な車両の場合、サイド・ミラーは、車両の端にある。典型的なサイド・ミラーは、関節式接合部に対して装着され、内部振動源(たとえば、車両のエンジン)ならびに外部摂動(たとえば、風、道路の振動などからの)に対して感受性が高い軽量構造である。サイド・ミラー上に装着されたカメラは、一般に、高速摂動ならびに低速摂動を経験する。
図2A~図2Cは、本技術のいくつかの実施形態による、図1A~図1Cそれぞれの車両の透明化図または部分的透視図を図示する。いくつかの実施形態では、ワイヤ200、202、204、206、208、210は、カメラ100、102、104、106、108、110を電子制御ユニット212、214、216に対して接続し得る。ワイヤ200、202、204、206、208、210は、電子制御ユニット212、214、216に対してデータを送出し、カメラ100、102、104、106、108、110に対して電力を供給するように構成されてよい。
図3Aから図12は、移動もしくは撓曲し得る、振動および衝撃を受け得る、手動でキャリブレーションするのに不都合であるもしくはコストがかかることがある、ならびに/または手動キャリブレーションおよび維持なしに数年間動作することが必要であることがある、異なるプラットフォーム上のステレオ・ビジョン・システムの種々の実施形態を図示する。図3Aから図12では、本技術のいくつかの実施形態によれば、システムのカメラは、プラットフォーム上に装着されて図示されることがあるが、電子制御ユニットおよびワイヤリングは、プラットフォームのシャーシ内部またはプラットフォーム自体の内部に装着されることがあるので、図示されないことがある。
図3A~図3Fは、本技術のいくつかの実施形態による、車内またはその上の種々の場所に装着された前向きステレオ・ビジョン・システムのためのカメラ・モジュールC1、C2を図示する。これらの場所は、典型的には、車の寿命を超える、またはたとえば、季節的な変化および/もしくは夜間から日中への温度変動の間に典型的な車によって経験される温度範囲を超えるステレオ・ビジョン・カメラのアライメントを保証する光学的剛性を提供しない。図3Aは、サイド・ミラー上に装着されたカメラC1、C2を図示する。図3Bは、ルーフ上に装着されたカメラC1、C2を図示する。図3Cは、車のウインドシールド・ガラスの後ろに装着されたカメラC1、C2を図示する。図3Dは、車のグリル内に装着されたカメラC1、C2を図示する。図3Eは、車のヘッドライト・ハウジング内に装着されたカメラC1、C2を図示する。図3Fは、車のフォッグライト・ハウジング内に装着されたカメラC1、C2を図示する。
図4は、本技術のいくつかの実施形態による、前向きステレオ・ビジョン・システムのカメラ・モジュールC1、C2を描いたものであり、カメラ・モジュールC1、C2は、トラックのサイド・ミラー上に装着される。トラックは、左サイド・ミラーから右サイド・ミラーまで約3mの広いベースライン長を有することがあるが、この長さは、非常に長い範囲の立体視を可能にし得る。いくつかの実施形態では、カメラ・モジュールC1、C2は、CMOSセンサからなることがある。
図5A~図5Cは、本技術のいくつかの実施形態による、横向きステレオ・ビジョン・システムおよび後ろ向きステレオ・ビジョン・システムのための配置を図示したものであり、カメラ・モジュール500、502は、図5Aではトラックの右サイド・ミラー上に装着されるように図示されている。図5Aはトラックの等角図または斜視図であり、図5Bはトラックの上面図または平面図であり、図5Cはトラックの正面立面図である。いくつかの実施形態では、重複ステレオ・ビジョン・システムはまた、トラックの左側にある物体を感知するために、トラックの左サイド・ミラー上に装着されることがある。重複ステレオ・ビジョン・システムは、不必要な混乱を回避するために、図面に図示されていない。ステレオ・ビジョン・システムの2つのカメラ・モジュール500、502は、垂直に装着されてよく、約1m離れて離間されてよい。理解されるように、ステレオ・マッチングは、互いに対して任意の角度で方位付けられたカメラからの画像をマッチングさせるように実施されてよい。たとえば、互いに対して垂直に配置されたカメラからの画像のステレオ・マッチングは、画像のピクセルの水平ラインすなわち行を相関させてよく、互いに対して水平に配置されたカメラからの画像のステレオ・マッチングは、画像のピクセルの垂直ラインすなわち列を相関させてよい、などである。ステレオ・ビジョン・システムのデプス範囲は、システムのカメラ間の距離に比例してよい。図5A~図5Cに図示されるシステムの場合、システムは、図5Bに描かれるように、135度の水平視野504を有してよく、図5Cに描かれるように、90度の垂直視野506を有してよい。理解されるように、本技術の他の実施形態では、他の視野は、たとえば、異なるカメラ・レンズ(たとえば、標準レンズ、異なるタイプの広角レンズなど)を介して可能である。図5A~図5Cの構成などの横向きおよび後ろ向きステレオ・ビジョン構成は、歩行者を感知およびしたがって回避すること、自転車に乗っている人を感知およびしたがって回避すること、ならびに車両通り抜けを感知することに特に有用であることがある。従来のステレオ・ビジョン・システムは、広い視野システムでは、各ピクセルがより広い範囲の角度にマップされるにつれて角度を正確に推定する能力が劣化するので、典型的には、特に広い視野システムでは非常に不良なデプス範囲を有する。理解されるように、ステレオ・ビジョン・システムのデプス範囲分解能は、システムの視野に比例し得る。広いベースラインのステレオ・ビジョン・システムの場合、システムのデプス範囲分解能はシステムのステレオ・カメラのベースライン長に反比例するので、広い視野カメラを使用することが有利であることがある。したがって、本技術の実施形態は、従来のステレオ撮像システムにおける約5cmから10cmのベースラインのみと比較して長いステレオ・ビジョン・ベースライン(たとえば、1mまたはそれ以上)を可能にすることによって、物体の長い範囲の、サラウンド・ビュー3次元(「3D」)感知を可能にし得る。
図6は、本技術のいくつかの実施形態による、交通信号ポール602上に装着されたステレオ・ビジョン・システムの2つのカメラ600、606を図示する。2つのカメラ600、606は、交通信号ポール602のブーム(boom)602aの長さによって制限される長いベースラインによって分離されてよい。いくつかの交通信号ポールは、約5mのステレオ・ビジョン・ベースライン長を支持することがあり、このことは、極端に長い範囲のデプス推定(たとえば、300mを超える)を可能にし得、これは、交通信号604のインテリジェントな切り換えのための交通待ち行列内の車両の待ち行列長さの測定を可能にし得る。理解されるように、交通信号ポールのブームは、撓曲してよい(たとえば、強風、ブームからのぶら下がる物体の動き、近くの大型トラックの通過からの道路振動などに伴って)。そのような撓曲は、カメラ600、606によって経験されることがあり、そのような撓曲は、カメラ600、606を保持する長いポール608によって大きくされることがある。したがって、長いベースライン長は、交通信号ポール602の典型的な動作環境において、2つのカメラ600、606をすばやくミスアライメントさせ得る。
図7は、本技術のいくつかの実施形態による、街灯柱700上に装着されたステレオ・ビジョン・システムの2つのカメラ702、704を図示する。2つのカメラ702、704は、垂直に装着されることがあり、関心領域(たとえば、歩行者横断歩道)を見るためにわずかに下方へ向けられることがある。たとえば、カメラ702の視野の上部エッジ706は、水平ラインから約30度(たとえば、20度、10度、5度)未満それることがある。2つのカメラ702、704間のベースライン距離は、数メートルまたはそれ以上(たとえば、3m、3.5m、4m、4.5mなど)であってよい。カメラの類似した垂直構成は、標識ポール、電話/公益事業ポールなどの上に装着されてよい。
図8は、本技術のいくつかの実施形態による、建設用クレーン800上に装着されたステレオ・ビジョン・システムの2つのカメラ804、806を図示する。カメラ804、806は、トロリー802上に装着され、たとえば、ペイロード808ならびにペイロード808の近くおよびその下の周囲建設環境をモニタリングするために、下向き視野を有するように配置されてよい。典型的な視野810は、約90度から約120度であってよく、クレーン800のブームと平行またはほぼ平行な方向に延びてよい。カメラ804、806間の距離は、望ましい最小デプス範囲およびデプス範囲分解能に応じて、約2mから5mであってよい。約50mのブーム長さおよび約200mのクレーン高さは、特に構造衝撃および振動によってカメラ804、806間の一定の相対的位置の維持が困難となるとき、広いベースライン、長い範囲のステレオ・ビジョン・システムを、建設用クレーンの環境をモニタリングするための魅力的な解決策にする。
図9は、本技術のいくつかの実施形態による、固定翼機900上に装着されたステレオ・ビジョン・システムの2つのカメラ902、904を図示する。航空機900は、たとえば、農薬散布機、無人機(UAV)、クアッドコプターまたはヘキサコプター、飛行機などであってよい。いくつかの実施形態では、カメラ902、904は、航空機900の翼の下面上に装着され、地上領域906を見るために下方へ向けられることがある。いくつかの実施形態では、2つのカメラ902、904は、前方方向に、または後方方向に向けられることがある。翼は、航空機900の動作中に撓曲または移動し得るので、カメラ902、904は、所定の位置で互いに対して前後に振動することがあり、立体視は、通常のステレオ・ビジョン技法を使用しても可能でないことがある。
図10Aおよび図10Bはそれぞれ、本技術のいくつかの実施形態による、オフロード車両1000上に装着されたステレオ・ビジョン・システムのカメラ配置の正面斜視図および背面斜視図を図示するものである。ステレオ・ビジョン・システムは、4つのステレオ・ビジョン・カメラ・ペア、すなわち、前面ステレオ・ビジョン・カメラ・ペア1002、左ステレオ・ビジョン・カメラ・ペア1004、後面ステレオ・ビジョン・カメラ・ペア1006、および右ステレオ・ビジョン・カメラ・ペア1008からなるサラウンド・ビュー構成を有してよい。4つのステレオ・ビジョン・カメラ・ペア1002、1004、1006、1008は、前面方向、後面方向、左方向、および右方向の各々に1つ、少なくとも90度の4つの水平視野を提供し得る。理解されるように、オフロード車両は、起伏の多い地形で運転するとき、極端な量の振動および衝撃に遭遇し、このことは、従来のステレオ・ビジョン・カメラをすぐにミスアライメントさせるであろう。オフロード車両の例としては、たとえば、軍用車両、ジープ(登録商標)、全地形対応車両、ダンプ・トラック、採掘車両、および砂利、岩の多い地形、玉石、掘削現場などの未舗装表面上で運転され得る任意のタイプの車両がある。オフロード車両の周囲環境についての高分解能3D情報は、岩、巨岩、木の枝などで満ちていることがある不均一な表面をナビゲートするために肝要であることがあり、したがって、そのような情報を取得するために信頼できるシステムは、重要性が高い。
図11は、本技術のいくつかの実施形態による、コンバイン収穫機1100上に装着された2つのステレオ・ビジョン・システムを図示する。前向きステレオ・ビジョン・システムは、前方カメラ1102と、前方カメラ1104とを含んでよく、これらのカメラは、たとえば、収穫機1110のスロットルの情報に基づいた制御を可能にする、したがって、送り速度を最大化するために、収穫機1100に遭遇される前に、収穫物の量を測定するための情報を取得するために使用されてよい。前方カメラ1102、1104は、たとえば、収穫機1100のヘッドライナー1116上に装着されることがある。噴出口(spout)装着ステレオ・ビジョン・システムは、噴出口カメラ1108と、噴出口カメラ1110とを含んでよく、これらのカメラは、たとえば、噴出口1112の位置を制御し、収集容器内の材料の量を測定するための情報を取得するために使用されてよい。収穫機1100が農地、植物、および植生の上を移動するとき、収穫機1100の噴出口1112とヘッドライナー1116の両方は、極端な量の振動および衝撃を経験することがある。そのうえ、理解されるように、ヘッドライナー1116および噴出口1112は、前面カメラ1102、1104の相対的移動および噴出口カメラ1108、1110の相対的移動が回避され得るような、「光学的に堅固な」構造でないことがある。すなわち、農期を越えて、ましてなおさら、収穫機1100の寿命全体を越えて、カメラのペアの一定のアライメントを維持することが可能でないことがある。収穫機1100に関連のあるカメラ・アライメント問題は、他の農場機器(たとえば、トラクタ、乾草梱包機、土木機械車両など)においても問題であることがある。
図12は、本技術のいくつかの実施形態による、自動化されたフォークリフト1200上に装着された前向きステレオ・ビジョン・システムのカメラ1202、1204の左立面図、正面立面図、および平面図を図示する。いくつかの実施形態では、カメラ1202、1204は、たとえば、135度の広い視野を提供することがあり、衝突回避および物体局所化を可能にすることがあるが、これらは、オペレータの視野を遮ることがある大型物体を移動するとき、望ましい特徴である。幅が1mを超える広いベースラインは、典型的なフォークリフト・プラットフォーム上では可能である。フォークリフト・システムは、典型的には、約30mのデプス範囲を必要とし、これは、従来のステレオ・ビジョン・ソリューションの能力を十分に超える。フォークリフトはまた、動作中に極端に大きい衝撃を受けることがあり、このことは、キャリブレーションを維持することができる耐衝撃性カメラならびに耐衝撃性電子機器(たとえば、センサ)を有するようにフォークリフトとともに使用される任意のステレオ・ビジョン・システムにとって必須でないとしても、非常に望ましい。衝撃抵抗は、フォークリフトにとってだけでなく、たとえば倉庫および工場内で使用される自動化されたモバイル車両(たとえば、スマート無人誘導車両)にとっても、望ましい。
図3Aから図12に関する上記の論議から諒解可能であるように、非剛性プラットフォーム上に装着されることがあり、低速アライメント摂動および/または高速アライメント摂動を調整するために自動的にキャリブレーションされ得るステレオ・ビジョン・システムは、多くの異なるシチュエーションにとって望ましい場合がある。
図13は、本技術のいくつかの実施形態による、ステレオ・ビジョン・システムのブロック図を図示する。処理構成要素1310は、電子制御ユニット(たとえば、電子制御ユニット212、214、216)の各々の一部として含まれてよい。ステレオ・ビジョン・システムの第1のカメラ1300(「カメラ1」とも呼ばれる)および第2のカメラ1302(「カメラ2」とも呼ばれる)は、未加工画像1304および1306の信号またはデータを処理構成要素1310に送出し得る。いくつかの実施形態では、カメラ1300、1302は、モノクロCMOSカメラ、カラーCMOSカメラ、近赤外線カメラ、短波赤外線カメラ、中波赤外線カメラ、長波赤外線カメラのいずれかであってよく、未加工画像1304および1306を処理構成要素1310にリアルタイムまたはほぼリアルタイムで提供し得る。いくつかの実施形態では、カメラ1300、1302は、メモリを有することがある、および/またはデータ記憶デバイスと関連付けられることがある、ならびに、カメラ1300、1302は、メモリおよび/またはデータ記憶デバイスから再生される画像のシーケンス(たとえば、未加工画像1304および1306のシーケンス)を処理構成要素1310に対して提供することがある。いくつかの実施形態では、画像は、2次元(たとえば、高さおよび幅)であってよい。いくつかの実施形態では、画像は、3次元(たとえば、高さおよび幅および色)であってよい。処理構成要素1310は、コマンドおよび制御ライン1312を通じてメイン・システム・コントローラ1316によって命令されるように構成されてよい。理解されるように、コマンドおよび制御ライン1312は、ワイヤード通信機構(たとえば、データ・バス、通信ライン)であってもよいし、または当技術分野で知られている通信技法を使用するワイヤレス通信機構であってもよい。いくつかの実施形態では、メイン・システム・コントローラ1318は、高レベル機能(たとえば、自動車のための自動非常ブレーキ)を協調させるように、および種々のサブ・システム(たとえば、ブレーキ・システム、センサ・システムなど)と通信するように構成されたコンピュータからなってよい。いくつかの実施形態では、一般的な通信プロトコルが、コマンドおよび制御ライン1312を介する通信に使用されてよい(たとえば、イーサネット(登録商標)、CAN(コントローラ・エリア・ネットワーク)、I2C(集積回路間)など)。いくつかの実施形態では、処理構成要素1310は、コマンドおよび制御ライン1312を通じて、メイン・システム・コントローラ1318に対し、キャリブレーション・ステータス(たとえば、システム・ヘルス・ステータス、情報品質ステータスなど)に関して報告を行うことがある。いくつかの実施形態では、コマンドおよび制御ライン1312は、処理構成要素1310の自動キャリブレーションおよびステレオ対応設定を構成するために使用されることがある。コマンドおよび制御ライン1312は、処理構成要素1310内の入力データ・ストリームと出力データ・ストリームの両方を開始、停止、および記録するために使用されることもある。デプス・マップ1308および対応する信頼マップ1314は、未加工画像1304および1306の各ペアのための処理構成要素1310から出力されることがある。いくつかの実施形態では、デプス・マップ1308は、未加工画像1304と同じ幅と高さとをもつ2次元行列であってよいが、その値は、ターゲット(たとえば、視野内の物体)に対する範囲(たとえば、距離)を示す。デプス・マップ1308は、報告されてもよいし、RGB画像として出力されてもよく、各24ビット色値が、ターゲットに対する範囲であるように符号化され得る。たとえば、デプス・マップ1308の値がmm(ミリメートル)の単位を有する場合、0から16,777.215m(メートル)までの距離が、24ビットを用いて表され得る。いくつかの実施形態では、信頼マップ1314は、未加工画像1304と同じ高さと幅とをもつ2次元行列であってよく、信頼マップ1314の各要素は、未加工画像1304の各ピクセルのデプス推定のための信頼値または信頼レベルを表し得る。いくつかの実施形態では、信頼値は、0から255までの8ビットの符号なし値であってよく、比較的高い値は、対応するデプス推定における高いレベルの信頼性を示し得る。いくつかの実施形態では、信頼マップ1314のための8ビット表現を使用することは、信頼マップ1314が好都合にはグレースケール画像として表示されることを可能にすることがあり、信頼マップ1314のためのデータがモノクロ・ビデオ・データ・ストリームとして送出されることを可能にすることもある。信頼マップ1314によって提供される情報は、周囲環境の高信頼推定を提供するために種々のセンサ(たとえば、レーダ、ライダー、ソナーなど)からの推定を組み合わせるように機能するセンサ・フュージョン処理パイプラインにとって重要であることがある。
照明器1316は、本技術のいくつかの実施形態によれば、夜間動作のために光を投影するために使用されることがある。照明器1316は、1つまたは複数の照明要素(たとえば、ランプ、LEDなど)からなることがある。いくつかの実施形態では、ステレオ・ビジョン・システムは、車上で提供されることがあり、照明器1316は、車のヘッドライトからなることがあり、ヘッドライトは、可視放射または赤外放射を発し得る。いくつかの実施形態では、照明器1316は、可視放射または赤外放射を発するように構成された外部に装着されたランプからなることがある。いくつかの実施形態では、照明器1316は、第1のカメラ・センサの露光間隔および第2のカメラ・センサの露光間隔と同期して可視放射または赤外放射を発するように構成されることがある。変調された波形では、ピーク光パワーは、同じ平均光パワーに対して、より高いことがあり、したがって、カメラ・センサによって登録される光子の数は、平均光パワーに対して感受性が高いことがある、近づいてくる運転手または歩行者の目をくらませることなく増加することがある。いくつかの実施形態では、照明器1316は、垂直共振器型面発光レーザ(VCSEL)アレイからなることがあり、VCSELアレイは、疑似ランダム・ドット・パターンを投影するように構成されてよい。ランダム化されたドット・パターンの使用は、照明されているシーンにテクスチャを追加することがあり、このことは、正確なデプス・マップを生成するステレオ対応エンジン1420の能力を改善し得る。
本技術のいくつかの実施形態では、図13のステレオ・ビジョン・システムは、3つのカメラをもつシステムであるように修正されることがある。第1のカメラおよび第2のカメラは、短い範囲感知用ステレオ・ビジョン・システムを形成してよく、第1のカメラおよび第3のカメラは、長い範囲感知用ステレオ・ビジョン・システムを形成してよい。第1のカメラと第2のカメラとの間のベースライン距離は、第1のカメラと第3のカメラとの間のベースライン距離よりも短くてよい。第1のカメラおよび第2のカメラからなるステレオ・ビジョン・システムは、第1のカメラおよび第3のカメラからなるステレオ・ビジョン・システムと比較して、より低い最小距離範囲を有することがあるが、より高い範囲分解能を有することがある。
本技術のいくつかの実施形態では、図13のステレオ・ビジョン・システムは、2つのステレオ・ビジョン・システム、すなわち第1のカメラと第2のカメラとをもつ短い範囲のシステムと第3のカメラと第4のカメラとをもつ長い範囲のシステムからなる、4つのカメラをもつシステムであるように修正されることがある。3つのカメラをもつシステムと比較すると、追加の(第4の)カメラは、追加の動作自由度を提供し得、短い範囲のシステムが、長い範囲のシステムよりも異なる(たとえば、より広い)視野を有することを可能にし得る。いくつかの実施形態では、第1のカメラおよび第2のカメラは、第3のカメラおよび第4のカメラよりも短いベースラインとより広い視野を有することがある。
本技術のいくつかの実施形態では、図13のステレオ・ビジョン・システムは、ステレオ・ビジョン・システムの最小距離よりもカメラ1300、1302に近い物体を測定するように構成されてよい飛行時間カメラを含むように修正されることがある。
図14は、本技術のいくつかの実施形態による、処理構成要素1310のブロック図を図示する。上記で論じられたように、処理構成要素1310は、未加工画像1304および1306をデプス・マップ1308および信頼マップ1314へと変換し得る。第1のカメラからの未加工画像1304は、訂正エンジン1416によって訂正されてよい。第2のカメラからの未加工画像1306は、訂正エンジン1418によって訂正されてよい。理解されるように、コンピュータ・ビジョン技術では、訂正は、カメラ1およびカメラ2からの画像が行ごとにアライメントされるように画像をゆがめるために使用される変換プロセスである。すなわち、カメラ1からの未加工画像1304から生じる訂正された画像1406内のピクセルの行内の特徴は、カメラ2の未加工画像1306からの訂正された画像1408内のマッチング特徴と同じピクセルの行に対してアライメントされる。そのようなピクセルの行アライメントは、対応する特徴に関する探索が行および列に沿った2次元探索よりも行に沿った1次元探索でとなることを可能にするので、ステレオ対応エンジン1420がより速く動作することを可能にし得る。いくつかの実施形態では、訂正エンジン1416および1418は、それぞれカメラ・パラメータ1410および1412を利用して、マッピング動作またはゆがめ動作を決定することがある。図15Aは、本技術のいくつかの実施形態における、訂正エンジン1416、1418によって利用され得る訂正アルゴリズムの流れ図を図示する。図15Bは、本技術のいくつかの実施形態による、アルゴリズムによって実施される訂正手順の座標系および幾何学的詳細を図示する。
本技術のいくつかの実施形態によれば、カメラ・パラメータ1410、1412は、2つのカメラ1300、1302の相対的位置および方位を説明し得る6つの外因性カメラ・パラメータと、カメラ座標系から各カメラ1300、1302のピクセル座標系への変換を特徴付け得る18個の内因性カメラ・パラメータとからなってよい。6つの外因性変数は、相対的ロール、相対的ピッチ、相対的ヨー、相対的平行移動x、相対的平行移動y、および相対的平行移動zからなることがある。カメラ1300と1302の両方のための18個の内因性カメラ・パラメータは、各カメラ1300、1302に関して、焦点距離(Fx,Fy)、主点(Cx,Cy)、半径方向レンズ歪み係数K1、K2、およびK3、ならびに接線方向レンズ歪み係数P1およびP2からなってよい。これらのカメラ・パラメータはよく知られており、数百のコンピュータ・ビジョン・アルゴリズムを含むオープン・ソースのライブラリであるOpenCV(オープン・ソースのコンピュータ・ビジョン・ライブラリ)によって説明される。広い視野レンズおよび/または魚眼レンズが使用されるとき、1つまたは複数の追加の高次レンズ歪みパラメータが使用されることが必要であることがある。いくつかの実施形態では、カメラ・パラメータ1410、1412は、一定でなくてよく、カメラ1300、1302における実際の変化を追跡するために、時間の関数として変化してよい。いくつかの実施形態では、カメラ・パラメータ1410、1412は、あらゆるフレームに関して更新されることがある。
本技術のいくつかの実施形態によれば、自動キャリブレーション・エンジン1414は、カメラ1300、1302のステレオ・カメラ・キャリブレーションを維持する方法を実装するように構成されることがある。いくつかの実施形態では、自動キャリブレーション・エンジン1414は、現在のフレームの未加工画像1304、1306および前のフレームの訂正された画像1406、1408を入力として利用することができる。自動キャリブレーション・エンジン1414は、第1のカメラ1300(カメラ1)のためのカメラ・パラメータ1410および第2のカメラ1302(カメラ2)のためのカメラ・パラメータ1412を出力し得、第1のカメラ1300のための平行移動パラメータ1426および第2のカメラ1302のための平行移動パラメータ1428を出力し得る。
本技術のいくつかの実施形態によれば、平行移動エンジン1422、1424は、非常に高速な摂動を補償するように訂正された画像1406、1408をシフトし、互いに対して訂正された画像1406、1408を安定化するために、変換動作を実施することがある。平行移動動作は、ピクセル行および/またはピクセル列によって実施されてよく、これは、アフィン変換手順を使用してすばやく達成され得る。平行移動パラメータ1426、1428は、行に基づいた平行移動オフセットおよび列に基づいた平行移動オフセットであってよい。いくつかの実施形態では、算出時間を減少させるために、平行移動エンジン1422、1424のうちの一方は破棄される(たとえば、使用されない、またはアイドルである、または存在しない)ことがあり、他方は、(たとえば、和として)平行移動オフセットを受け取る。平行移動エンジン1422、1424によって出力される画像1430、1432は、訂正され、安定化された画像1430、1432であってよく、これらは、ステレオ対応エンジン1420へと送られてよい。ステレオ対応エンジン1420は、画像1430、1432内のマッチング・ピクセル間の視差を決定してよく(たとえば、画像1430、1432は、左画像および右画像であってよい)、視差マップを算出してよく、視差マップからデプス・マップ1308を算出および出力してよく、信頼マップ1314を算出および出力してよい。
図16は、本技術のいくつかの実施形態による、自動キャリブレーション・エンジン1414のブロック図を図示する。自動キャリブレーション・エンジン1414は、5つのキャリブレーション・エンジン、すなわち、高速キャリブレーション・エンジン1600、中間的キャリブレーション・エンジン1602、低速キャリブレーション・エンジン1604、絶対的範囲キャリブレーション・エンジン1606、およびステレオ画像安定化エンジン1608からなってよい。いくつかの実施形態では、高速キャリブレーション・エンジン1600、中間的キャリブレーション・エンジン1602、および低速キャリブレーション・エンジン1604は、低速時間スケールから高速時間スケール上で発生し得るカメラ・パラメータ摂動を補償することがあり、これらのキャリブレーション・エンジン1600、1602、1604によって使用される方法は、コスト関数を最適化することに基づいてよい。いくつかの実施形態では、絶対的範囲キャリブレーション・エンジン1606は、外因性カメラ・パラメータである相対的ヨーを調整することによって、物体に対する絶対的範囲をキャリブレーションすることがある。いくつかの実施形態では、エピポーラ・ジオメトリ制約はヨーの変化に対して感受性が高くないので、絶対的範囲キャリブレーションのキャリブレーションは、最も重要で、十分にキャリブレーションするのが最も困難なパラメータのうちの1つであり得る。いくつかの実施形態では、ステレオ画像安定化エンジン1608は、フレームごとのピッチおよびヨーの変動を追跡および補償するために使用されることがある。カメラ・パラメータの時系列履歴は、記憶デバイス1622に記憶されてよい。現在のカメラ・パラメータ1620は、キャリブレーション・エンジン1600、1602、1604、1606、1608のための開始点として使用されてよい。いくつかの実施形態では、キャリブレーション・エンジン1600、1602、1604、1606、1608の出力1610、1612、1614、1616、1626は、キャリブレーション・マネージャ1624によって組み合わされることがあり、キャリブレーション・マネージャ1624は、この情報を使用して、第1のカメラ1300および第2のカメラ1302のためのカメラ・パラメータ1410、1412の最良推定量を決める。コマンドおよび制御ライン1312は、カメラ・パラメータのための値を初期化するために使用されることがあり、これらの値は、手動工場キャリブレーション、製造仕様、またはあて推量から生じることがある。以下で論じられるように、絶対的範囲キャリブレーション・エンジン1606は、異なる実施形態を有する。いくつかの実施形態では、高速キャリブレーション・エンジン1600によって実施される高速キャリブレーション手順、中間的キャリブレーション・エンジン1602によって実施される中間的キャリブレーション手順、および低速キャリブレーション・エンジン1604によって実施される低速キャリブレーション手順、のうちの任意の1つまたは任意の組み合わせは、1つまたは複数の内因性カメラ・パラメータをキャリブレーションするための内因性パラメータ・キャリブレーション手順を含んでよい。たとえば、各カメラに対して、焦点距離、主点、少なくとも1つの半径方向レンズ歪み係数、および少なくとも1つの接線方向レンズ歪み係数、のうちの任意の1つまたはそれらのうちの任意の組み合わせは、内因性パラメータ・キャリブレーション手順によってキャリブレーションされ得る。いくつかの実施形態では、第1のカメラおよび第2のカメラ1300、1302についての演繹的知識がある場合、たとえば、まれなケースであるが、レンズ装着具自体が可撓性であることが知られている場合、内因性パラメータ・キャリブレーション手順は、高速キャリブレーション・エンジン1600および/または中間的キャリブレーション・エンジン1602によって実施されてよい。いくつかの実施形態では、内因性カメラ・パラメータは、いくつかの理由から、高速時間スケールおよび/または中間的時間スケールでキャリブレーションされることは必要でないことがある。理由:(1)貫通(piercing)点水平場所(Cx)および焦点距離(FxおよびFy)の小さい変化は、ヨーに対する変化だけ1次(first order)へ補正されてよい、(2)貫通点水平場所(Cy)の小さい変化は、ピッチに対する変化だけ1次へ補正されてよい、および(3)レンズ形状は一般に変えられないので、レンズ歪み係数は、典型的には、変化しなくてよい。
図17Aは、本技術のいくつかの実施形態による、高速キャリブレーション・エンジン1600、中間的キャリブレーション・エンジン1602、および低速キャリブレーション・エンジン1604のブロック図を図示する。キャリブレーション・エンジン1600、1602、1604は、同じブロック図構造を有してよいが、異なる最適化方法1700、1722、1724をそれぞれ利用してよい。いくつかの実施形態では、方法1700、1722、1724の基本概念は、方法1700、1722、1724の各々に対して、最適なまたは的確なカメラ・パラメータは、対応する方法に適した最小化されたコスト関数1704と関連付けられてよいということである。たとえば、24個のカメラ・パラメータ(6つの外因性パラメータおよび18個の内因性パラメータ)の公称ケースの場合、パラメータの力まかせ探索は、コスト関数10024倍を評価し、パラメータあたり100の値を仮定することを必要とすることがあり、これは、従来のコンピュータを使用して算出するのに不合理に長い時間がかかる(従来のコンピュータを使用した場合、宇宙の年齢よりも長い時間がかかるであろう)。理解されるように、現実世界の設定にとって実際的であるために、最適化動作は、リアルタイムで完了され、摂動の源もしくは原因の時間スケールにマッチングする時間スケールで、またはより早く、実装されるべきである。したがって、いくつかの実施形態では、探索を異なる時間スケールへと分けることによってカメラ・パラメータが効率的に探索されることが非常に望ましい。
本技術のいくつかの実施形態によれば、最適化方法1700、1722、1724のうちの1つまたは複数は、有界の探索範囲に対してカメラ・パラメータのサブセットに関してコスト関数1704を繰り返し評価することがある。いくつかの実施形態では、コスト関数1704の評価をスピード・アップするために、最適化方法1700、1722、1724のうちの1つまたは複数は、第1のカメラおよび第2のカメラ1300、1302からの未加工画像1304、1306のピラミッド・レベル1703を動的に合わせることがある。「ピラミッド」という用語は、画像のより小さい画像へのダウンサンプリングを指すと広く理解される一般的なコンピュータ・ビジョン用語である。コスト関数を算出する(すなわち、最小コスト関数を決定する)時間の量は、半分の分解能(またはピラミッド・レベル1)へのサブサンプリングによって、処理されている画像のサイズに比例し得るので、コスト関数を算出する時間は、4分の1に減少され得る。粗いパラメータ探索の場合、高いピラミッド・レベルが、探索をスピード・アップするために使用されてよい。細かいパラメータ探索の場合、低いピラミッド・レベルが、強化された精度のために使用されてよい。いくつかの実施形態では、最適化方法1700、1722、1724のそれぞれの出力1610、1612、1614は、対応する最適化方法のコスト関数1704を最小化するカメラ・パラメータであってよい。理解されるように、コスト関数を最小化することは、等価な手法と考えられ得るので、性能指数(figure of merit)を最大化するとも考えられ得る。
本技術のいくつかの実施形態によれば、キャリブレーション・ヘルスのインジケータは、コマンドおよび制御ライン1312を通じてメイン・システム・コントローラ1316に報告されることがある。いくつかの実施形態では、キャリブレーション・ヘルスは、最適化されたカメラ・パラメータに対応する(最小化された)コスト関数(または最大化された性能指数)の負数となるようにされてよい。
本技術のいくつかの実施形態によれば、コスト関数1704は、未加工画像1304、1306のサイズを減少させるように構成されたピラミッド・ダウン・ブロック1701と、試験カメラ・パラメータ1702に従って減少された画像をゆがめ、行アライメントするように構成された訂正ブロック1706と、ステレオ・ブロック・マッチング・ブロック1710と、有効ピクセルの数の負数を算出するように構成されたブロック1714とからなってよい。いくつかの実施形態では、ステレオ・ブロック・マッチング・ブロック1710は、9×9というピクセル・ウィンドウ・サイズ、正規化応答プレフィルタ、63というプレフィルタ・キャップ、11というプレフィルタ・サイズ、100というスペックル・ウィンドウ・サイズ、64というスペックル範囲、10というテクスチャしきい値、10という一意性比、および0から255という視差探索範囲を含んでもよい、パラメータとともに、OpenCVのステレオ・ブロック・マッチング・アルゴリズムを使用してよい。そのようなブロック・マッチング・アルゴリズムは、多くの異なるタイプのプロセッサにわたるその高速な実行のために選ばれてよい。テクスチャしきい値および一意性比は、間違った距離推定量の数を最小化するため、および対応するピクセルを無効なピクセルと置き換えるために、比較的高く(たとえば、10~50という値)設定されてよい。いくつかの実施形態では、最適化方法1700、1722、1724の各々は、ステレオ・ブロック・マッチングが実施された後で、無効なピクセルの数を最小化する最適なカメラ・パラメータを発見してよい。
図17Bは、本技術のいくつかの実施形態による、高速キャリブレーション・エンジン1600の高速最適化方法1700の流れ図を図示する。ピッチおよびロール外因性カメラ・パラメータは、短い時間スケールの歪みのほとんどに対して責任を負い得るので、高速最適化方法1700は、これらのパラメータを調節し得る。高速最適化方法1700は、最適化方法1700、1722、1724の中で、最も頻繁な更新に使用されることがある。高速最適化方法1700は、小さい範囲にわたって比較的少数のカメラ・パラメータ(2つ)を探索するので、高速と考えることができる。
高速最適化方法1700の工程1726では、クイック探索が、選ばれたグリッド点内のコストをチェックすることによって、カメラ・パラメータ1620の初期推量のために実施される。いくつかの実施形態では、グリッド点は、典型的には、合計で27個のグリッド点に対して、-0.4度から0.4度までのピッチに関する9つの値と、カメラ・パラメータ1620の初期推量についての-0.2度から0.2度までのロールに関する3つの値とを有してよい。コスト関数1704を評価する場合、評価をスピード・アップするために、1というピラミッド・レベルが使用されることがある。
高速最適化方法1700の工程1728では、最低コスト(コスト関数1704の最小値)に対応するピッチおよびロールが、グリッド点の中で選択されてよい。
高速最適化方法1700の工程1730では、非線形不等制約を伴う導関数なし最適化のためのCOBYLA(Constrained Optimization BY Linear Approximations:線形近似による制約下最適化)アルゴリズムは、工程1728において発見されたピッチおよびロール、カメラ・パラメータ1620の初期推量の他のカメラ・パラメータ、ならびにピッチとロールの両方における0.1度の境界とともに適用されてよい。工程1730において使用されるコスト関数1704は、0というピラミッド・レベルを有してよい。カメラ・パラメータ1620は、COBYLAによって発見された最低コストに対応するピッチおよびロールを用いて更新されてよく、更新されたカメラ・パラメータ1610は、高速最適化方法1700のために返される。
本技術のいくつかの実施形態によれば、COBYLAアルゴリズムは、目的関数の連続した線形近似および点のシンプレックスを用いた制約を構築し得、これらの近似を各工程における信用領域内で最適化し得る。いくつかの実施形態では、2つの探索次元、すなわち、ピッチに関して0.1度およびロールに関して0.1度という小さい探索範囲にわたって、ステレオ・カメラのペアの相対的ピッチおよびロールのみがあるので、最適化は、すばやく(たとえば、Intel Core i7 CPUプロセッサ上で100ms)算出可能であり、必要とされる場合、20FPSで1つおきのフレームを補償することができる。いくつかの実施形態では、探索範囲は、所与のプラットフォームのための予想逸脱(excursion)に基づいて増加または減少可能である。たとえば、車上の吸引カップ装着の場合、0.1度は十分に大きいが、小道で乗られているマウンテン・バイク上に緩く装着されたカメラの場合、0.2度が必要とされることがある。
いくつかの実施形態では、COBYLA探索方法は、Nelder-Meadシンプレックス探索方法、Broyden-Fletcher-Goldfar-Shanno(BFGS)法、Powell法、逐次二次計画(SLSQP)法、またはMonte Carlo法などの他の探索方法によって置き換えられてもよいことが留意されるべきである。
図17C-1は、本技術のいくつかの実施形態による、中間的キャリブレーション・エンジン1602の中間的最適化方法1722の流れ図を図示するものである。中間的最適化方法1722は、高速最適化方法1700よりも多くのパラメータを更新し得るが、高速最適化方法1700よりも遅く更新され得る。いくつかの実施形態では、中間的最適化方法1722の主要な目的は、平行移動ベクトルを発見し、次いでピッチおよびロールを最適化することである。図17C-2は、本技術のいくつかの実施形態による、図17C-1の中間的最適化方法の角度探索プロセスの流れ図を図示するものである。
中間的最適化方法1722の工程1732では、グリッド探索が平行移動ベクトル角度に対して実施され、平行移動ベクトル角度は、2つの角度すなわちayおよびazによって表される。角度ayは、平行移動ベクトルとxz平面上で測定されるx軸との間の角度であってよい。角度azは、平行移動ベクトルとyz平面上で測定されるx軸との間の角度であってよい。たとえば、探索は、カメラ・パラメータ1620の初期平行移動ベクトルのまわりで、1度刻みで-7度から7度までの値(ay,az)のグリッドのすべてを試験することがある。各平行移動ベクトルに対して、工程1732は、角度探索プロセス1736(図17C-2を参照)を使用して、最低コストをもたらすピッチ角度およびロール角度の最良タプルを探す。本技術のいくつかの実施形態では、角度探索プロセス1736は、探索プロセスを粗い角度探索1738、中間的角度探索1740、および細かい角度探索1742へと分解することがある。
粗い角度探索1738は、カメラ・パラメータ1620において指定される初期ピッチ、ヨー、およびロールから(0,0,0)、(-1,-1,-1)、(-1,-1,1)、(-1,1,-1)、(1,-1,-1)、(1,1,-1)、(1,-1,1)、(-1,1,1)、および(1,1,1)度の(ピッチ,ヨー,およびロール)を中心とする、9つのCOBYLA探索を適用し得る。COBYLA探索は、高速評価のためにコスト関数1704とともにピラミッド・レベル3を使用することがあり、すべての角度に関する探索境界は[-1,1]度であることがある。最低コストに対応するピッチ、ヨー、およびロールは、中間的角度探索1740の開始点として使用されてよい。
中間的角度探索1740は、粗い角度探索1738から返されたピッチ、ヨー、およびロールから始まるCOBYLA探索を適用してよい。このCOBYLA探索は、ピッチ、ヨー、およびロールに関する[-0.2,0.2]度の角度境界を有することがあり、コスト関数1704にピラミッド・レベル3を使用することがある。最低コストに対応するピッチ、ヨー、およびロールは、細かい角度探索1742の開始点として使用されてよい。
細かい角度探索1742は、中間的角度探索1740から返されたピッチ、ヨー、およびロールから始まるCOBYLA探索を適用してよい。このCOBYLA探索は、ピッチ、ヨー、およびロールに関する[-0.1,0.1]度の角度境界を有することがあり、コスト関数1704にピラミッド・レベル0を使用することがある。最低コストに対応するピッチ、ヨー、およびロールは、工程1732に返されてよい。
工程1732からのay、az、ピッチ、ヨー、およびロールのための最良推定量は、細かい平行移動ベクトルおよび角度探索1734の開始点として使用されてよく、細かい平行移動ベクトルおよび角度探索1734は、COBYLA最適化を(ay,az)に適用し、それに続いてCOBYLA最適化を(ピッチ、ヨー、ロール)に適用してよい。両方のCOBYLA探索は、コスト関数1704にピラミッド・レベル0を使用して、最適化パラメータに対する感受性を最大化することがある。2つのCOBYLA探索は、改善がコスト関数においてほとんど見られなくなるまで繰り返されてよい。初期カメラ・パラメータ1620は、ay、az、ピッチ、ヨー、およびロールに最適な値を用いて更新されてよく、次いで、更新されたカメラ・パラメータ1612が、中間的最適化方法1722から返されてよい。
図17D-1から図17D-4(総称して「図17D」)は、本技術のいくつかの実施形態による、低速最適化方法1724の流れ図を図示するものである。いくつかの実施形態では、図17Dの低速最適化方法1724は、工場キャリブレーションで1回、次いで、メイン・システム・コントローラ1316によって必要と見なされる(たとえば、加速度計または他のセンサが大きい衝撃イベントを報告する)とき、低速キャリブレーション・エンジン1604によって実施されてよい。低速最適化方法1724は、外因性カメラ・パラメータおよび内因性カメラ・パラメータを最適化し得る。工程1744、グローバル・グリッド探索は、[-10,10]度にわたってサンプリング間隔(たとえば、0.2度、0.4度、0.7度など)を用いてピッチ角度、ヨー角度、およびロール角度に対して実施されてよい。残っている工程1746から1796、図17Dは、カメラ・パラメータ1602の以前の最良推定量に対して、COBYLAなどのローカル探索方法を適用してよい。前述のように、内因性カメラ・パラメータは、焦点距離(FX,FY)、貫通点(CX,CY)、およびレンズ歪み係数(K1、K2、K3、P1、P2)であってよい。外因性カメラ・パラメータは、ピッチ、ヨー、ロール、および平行移動ベクトル(TX,TY,TZ)であってよい。いくつかの実施形態では、相補的パラメータ(たとえば、ピッチとTX、ロールとTY、ヨーとTZ)は画像(たとえば、未加工画像1304、1306)を同様にゆがめ得るので、ピッチ、ヨー、およびロールの最適化に続いて、工程1746から工程1748へ、工程1768から工程1770へ、工程1772から工程1774へ、工程1784から工程1786へ、および工程1788から工程1790へ、平行移動ベクトルの最適化が行われることがある。
図18は、本技術のいくつかの実施形態による、自動キャリブレーション・エンジン1414のステレオ画像安定化エンジン1608のための流れ図を図示するものである。ステレオ画像安定化エンジン1608は、カメラ1とカメラ2との相対的変位が最小化されるように、これらのカメラから取得された画像を水平および垂直にシフトする量を決定し得る。ステレオ画像安定化エンジン1608は、最も速い摂動(たとえば、エンジン・ノイズおよび道路ノイズ)を補償することがあり、あらゆるフレームを更新することがある。地球に対して画像を安定化し得る従来の単眼画像安定化とは異なり、ステレオ画像安定化エンジン1608は、2つの画像を互いに対して安定化し得る。いくつかの実施形態では、ステレオ画像安定化エンジン1608は、カメラ1からの未加工画像1304から生じる訂正された画像1406と、カメラ2の未加工画像1306から生じる訂正された画像1408を入力として受け取る。ステレオ画像安定化エンジン1608は、カメラ1のための平行移動パラメータ1426と、カメラ2のための平行移動パラメータ1428を出力し得る。1800では、前方追跡プロセスは、前のフレームから現在のフレームへ、左訂正された画像および右訂正された画像であってよい訂正された画像1406、1408のためのピラミッドとともに反復的Lucas-Kanade法を使用して疎な特徴セットのためのオプティカル・フローを算出し得る。1802では、後方追跡プロセスが、現在のフレーム内の点から前のフレーム内の点へ、逆方向にオプティカル・フローを算出し得る。1804では、プロセスは、後方軌道(track)から良好な軌道を決定し得る(たとえば、良好な軌道は、1802における後方追跡プロセスが前の軌道の点の1ピクセル以内の点を再投影するときである)。1806では、プロセスは、不良な軌道を破棄し得る。1808では、プロセスは、残っている良好な点を軌道に対して追加し得る。1810では、プロセスは、平行移動パラメータの推定量を更新し得る。いくつかの実施形態では、カメラ1のための平行移動パラメータ1426およびカメラ2のための平行移動パラメータ1428は、前のフレームに対してカメラ1およびカメラ2からの画像の行および列をシフトする量であってよい。いくつかの実施形態では、平行移動パラメータは、異常値が平均から除去された、カメラ1からの画像とカメラ2からの画像との間のフレームごとの平均相対的平行移動に等しくてよい。
いくつかのフレームの後、キーポイントが画面から(たとえば、視野の外に)消えることがある、または遮られることがあるので、1つまたは複数の軌道が破棄されることがある。1812では、プロセスは、新しい軌道を作成するために、新しいキーポイントを発見し得る。たとえば、n個のフレームごとに、ここでnは典型的には5であってよいが、ステレオ画像安定化エンジン1608は、訂正された画像1406、1408内で新しいキーポイントを探索し得る。キーポイント検出器(図示せず)は、たとえば、Shi-Tomasiコーナ検出器を使用して、追跡するのに良好な点を探し得る。1814では、プロセスは、カメラ1とカメラ2との間の相対的モーションを除去するために、平行移動パラメータ1426、1428を使用して訂正された画像1406、1408を平行移動させ得る。1816では、プロセスは、ブロック・マッチング・アルゴリズムを使用して、訂正された画像1406、1408から視差マップを算出し得る。1818では、プロセスは、カメラ1の訂正された画像1406のための現在追跡されるキーポイントを無視し得、1820では、プロセスは、カメラ1の訂正された画像1406内で追跡するのに良好な特徴を発見し得る。1822では、カメラ1の訂正された画像1406のための発見された各キーポイントに対して、プロセスは、1824、1826、1828、1830におけるプロセスを使用して、カメラ2の訂正された画像1408内でマッチング・キーポイントを発見し得る。1824では、プロセスは、phasecorrelation関数のためのハニング・ウィンドウを作成するために実施され得る。OpenCVでは、phasecorrelationは、等しいサイズをもつ2つの画像の類似度をチェックする方法を指す。phasecorrelationは、テンプレート・マッチングの高速実装形態である。1826では、プロセスは、カメラ1とカメラ2との間のマッチング・キーポイントを発見するために実施され得る。画像1406および1408は訂正されるので、マッチング・キーポイントは、同じ行に沿って並べられる。視差値1816をカメラ1キーポイント列値に対して追加することは、カメラ2キーポイント列値のための予想場所をもたらす。1828では、プロセスは、マッチングされたキーポイントのためのphasecorrelation関数を算出することによって1826のマッチを検証するために実施され得る。phasecorrelation関数は、カメラ1とカメラ2との間のマッチング・キーポイントのペアを中心とする画像パッチ(典型的には40×40ピクセル)に対して算出される。phasecorrelation関数は、補正された座標シフトと、応答(典型的には、2つの画像パッチの類似度を示す、0から1の間の値)を返す。1830では、プロセスは、マッチング・キーポイントを記録し、1828からの補正された座標シフトに従ってキーポイント座標を補正し、phasecorrelation応答がしきい値(典型的には、0.3のしきい値)よりも大きい場合、軌道情報を更新するために実施される。
本技術のいくつかの実施形態では、絶対的範囲キャリブレーション・エンジン1606は、3つの異なる実装形態(1606a、1606b、および1606cと呼ばれる)を有してよく、実装形態のいずれかまたはすべては、自動キャリブレーション・エンジン1414に組み込まれてよい。3つの実装形態1606a、1606b、および1606cは、異なる絶対的距離参照を使用することがある。実装形態1606aは、非負視差制約を使用することがあり(図19A、図19B参照)、実装形態1606bは、一時停止標識などの既知の物体を使用することがあり(図20A、図20B参照)、実装形態1606cは、車両走行距離測定を使用することがある(図21A、図21B参照)。いくつかの実施形態では、カメラ1300、1302の間の相対的ヨーは、ステレオ・ビジョン・システムの絶対的範囲のキャリブレーションに対する大きい影響を有することがある。絶対的範囲キャリブレーション・エンジン1606は、ヨーをキャリブレーションするために使用されてよい。
図19Aは、本技術のいくつかの実施形態による、絶対的範囲キャリブレーション・エンジン1606が非負視差制約を有する実装形態1606aの流れ図を図示するものである。実装形態1606aは、第1のカメラおよび第2のカメラ1300、1302の主光線が交差しない場合、ヨーを発見し得る。主光線がカメラの前で交差するとき、対応する視差値は、交差点よりも遠い範囲で、負であることがある。光線が交差しなくなるまでヨーを調節することによって、カメラ1300、1302は、平行になることがあり、視差マップ1712内のいくつかの負値は、最小値へ(時には大幅に)減少することがあり、適切な絶対的範囲が発見されることがある。
図19Bは、本技術のいくつかの実施形態による、視差マップ(たとえば、訂正の後で初期カメラ・パラメータ1620を使用して未加工画像1304、1306から算出されるが、ヨーの種々の値をもつ視差マップ)内の負の視差値をもつピクセルの数がヨーの関数としてどのように変わり得るかを図示するグラフ1900である。グラフ1900内で約1.8度未満のヨー値の場合、負の視差値の数は大きく増加し、長い範囲において、次いで、ますます近くなる範囲において、カメラ1300、1302の主光線が交差し始め得ることを示す。1.65度未満のヨー値の場合、負の視差値の数は減少する。これは、この分析で使用されるブロック・マッチャーは、-32ピクセルまでの視差値のみを探索し得るからであり得る。-33ピクセルまたはより低い視差値をもつピクセルは、カウントされないことがある。1.85度よりも大きいヨー値の場合、負の値をもつピクセルの数は少ないが、ゼロではない。これは、マッチングしていないピクセルは、時には負の視差値を有することがあるからであり得る。望ましいヨーは、移行領域内にあり、この移行領域では、グラフ1900が、ピクセルの数が少なく一般に一定である(グラフ1900ではヨー>1.85度)領域から移行し、ピクセルの数が急速に増加する領域(たとえば、上向きにポインティング矢印1912によって示される領域)を含む。グラフ1900は、ピクセルの視差値が最小視差限度よりも負であり得る領域(たとえば、下向きにポインティング矢印1914によって示される領域)も図示する。図19Aに図示される実装形態1606aの流れ図に戻ると、1920では、粗い探索は、視差マップが算出されるヨーのための初期推量1904の周囲で-0.5度(1902参照)から1.0度(1906参照)まで実施され、負の視差値の数が総計される。探索は、0.1度ステップで実施されてよい。粗い探索の結果は、16個の値の配列であってよい。グラフ1900は、粗い曲線のための16個のデータポイントのプロットの一例である。ヨーに関する粗い曲線の導関数が算出されてよい。粗い曲線の導関数は、変化に対して感受性が高いことがあり、したがって、粗い曲線において移行を発見するのに有用であることがある。1922では、粗い探索の品質が、移行領域(たとえば、グラフ1900内の1.65度から1.8度までの領域)がテール・ノイズ1908の5倍より大きいことを保証することによって、チェックされる。テール・ノイズ1908は、粗い曲線の導関数の最後の5つの点の標準偏差であるように定義されてよい。言い換えれば、移行領域は、負の視差の数がゼロであるべきである領域と比較して、負の視差値の数の著しい変化を有するべきである。次に、1924では、細かい探索範囲が、最も負の傾き(たとえば、グラフ1900では約1.7度のヨー)に対応するヨーの周囲の探索によって決定される。最も大きい粗いヨー値から始まり、より低い粗いヨー値の方へ探索すると、上限は、粗い曲線の導関数がテール・ノイズの-3倍よりも大きい値であるように決定される。最も負の傾きに対応するヨーから始まり、最大のヨーへ増加すると、下限は、粗い曲線の導関数がテール・ノイズの-3倍未満である値であるように決定される。次に、1926では、細かい探索グリッドが下限から上限まで作成され、細かい探索が実施される。このグリッドは、典型的には、21個の点を有してよい。1928では、最も少ない数の負の視差ピクセルに対応するヨー値が決定される。いくつかの実施形態では、曲線中の移行点は、このように推定されてよい。
図20Aは、本技術のいくつかの実施形態による、既知の寸法をもつ物体を絶対的範囲キャリブレーション・エンジン1606が使用する実装形態1606bの流れ図を図示するものである。図20Bは、本技術のいくつかの実施形態による、既知の寸法をもつ物体2006を撮像するための撮像用光学部品の一例を例示する。いくつかの実施形態では、物体2006の寸法が知られているので、およびカメラ1300、1302のカメラ・レンズの焦点距離が知られているので、物体(ターゲット)2006までの範囲または距離は、式2020によって決定されることがある。より具体的には、式2020によれば、物体の幅W(2012参照)と物体までの範囲R(2014参照)の比は、カメラ・レンズ2008の焦点距離F(2016参照)とカメラ・センサ2010(たとえば、CMOSセンサ)によって感知される画像の幅H(2018参照)の比に等しい。いくつかの実施形態では、既知の物体は、既知の検出技術(たとえば、交通標識認識システム、ナンバー・プレート検出器、物体検出器など)を使用する自動化された様式で認識可能である。いくつかの実施形態では、既知の物体は、バウンディング・ボックスおよび既知の物体までの距離の手動入力によって、手動で指定されてよい。一時停止標識を検出するための物体検出器の一例は、図24に図示されている。
図20Aに図示される実装形態1606bの流れ図に戻ると、2000では、絶対的範囲キャリブレーション・エンジン1600が、物体までの平均距離が既知の距離に等しいヨーを発見する。本技術のいくつかの実施形態では、平均距離は、物体の関心領域にわたって算出されることがある。2002では、求根アルゴリズムのための良好な開始間隔は、初期カメラ・パラメータ1620のヨーの±0.1度までの間隔を最初に初期化し、次いで、関心領域にわたる平均デプスが間隔の左端では正となり、間隔の右端では負となるまで、左端および右端を0.1度ずつ修正することによって発見される。2004では、求根アルゴリズムが稼働される。いくつかの実施形態では、求根アルゴリズムはBrent法であってよく、Brent法では、2002で発見された探索間隔は、ヨーの最良推定量を決定するために使用される。その後、初期カメラ・パラメータ1620は、更新されたヨー値1616とともに返される。
図21Aは、本技術のいくつかの実施形態による、絶対的範囲キャリブレーション・エンジン1606が車両走行距離測定1628を利用する実装形態1606cの流れ図を図示する。図21Bは、本技術のいくつかの実施形態による、視差が範囲の関数としてどのように変わり得るかを図示するグラフ2108である。走行距離測定(たとえば、スピード、距離、進行方向など)は、すでに車内(「車載」)センサから入手可能な情報であってよく、ステレオ・ビジョン・システムのヨーを計算する助けとなるために使用されてよい。いくつかの実施形態では、走行距離測定は、車載レーダおよび/またはライダー・システムから入手可能であってよい。実装形態1606cでは、2100において、ステレオ画像安定化エンジン1608からの各軌道1626に対して、範囲の変化ΔRODOは、時間t1から時間t2までの走行距離測定データから算出される。対応する範囲の変化ΔRは、ステレオ・ビジョン・システムによって測定され、キャリブレーション不良のためにΔRODOとマッチングしないことがある。2102では、視差オフセットdoffsetは、d=fB/Rによって表現される関数を使用して算出され、ここで、fはレンズの焦点距離、Bは、補正された範囲ΔR’がΔRODOに等しいような、第1のカメラ1300と第2のカメラ1302との間のベースライン幅である。静止した物体の軌道は、doffsetのために同じまたは類似した値を与えるが、移動中の物体はそうでないことがある。2104では、doffsetのための異常値が除去され、残っている値は平均化される。2104では、ヨーは、初期ヨーと、平均視差オフセットをカメラの焦点距離で除算したものとの和に等しいようにキャリブレーションされる。その後、初期カメラ・パラメータ1620は、更新されたヨー値1616とともに返される。
図22は、本技術のいくつかの実施形態による、キャリブレーション・マネージャ1624によって実施される手順の流れ図を図示する。2200では、カメラ・パラメータが初期化され、コマンドおよび制御インタフェース1312が、キャリブレーション・エンジン1600、1602、1604、1606、1608を構成する。初期カメラ・パラメータは、設計図、CAD図面、製造業者のデータシートなどから取得される外因性カメラ・パラメータおよび内因性カメラ・パラメータであってもよいし、または手動キャリブレーション手順から取得されてもよい。2202では、キャリブレーション・マネージャ1624が、キャリブレーション・エンジン1600、1602、1604、1606、1608からの出力を待機する。カメラ・パラメータの推定量の出力が受け取られると、2204では、この推定量が、経時的に一連の測定を使用し、カメラ・パラメータの新しい推定量を生じさせるトラッキング・フィルタ(たとえば、Kalmanフィルタ)において使用され、この新しい推定量は、単一の測定のみに関する推定量よりも正確であり得る。これは、複数のカメラ・パラメータの各々に対してなされてよい。2206では、カメラ・パラメータのための新しい推定量は、記憶デバイス1622内に保存されてよく、カメラ1およびカメラ2のための更新されたカメラ・パラメータ1410、1412は、キャリブレーション・マネージャ1624から出力されてよい。
図23は、本技術のいくつかの実施形態による、キャリブレーション・マネージャ1624の時系列入力図を図示する。時間軸は、異なるフレーム番号に関して図示され、異なるフレーム番号は、異なるフレーム・レート(たとえば、10、30、または60FPS)に対応し得る。上向き矢印は、キャリブレーション・マネージャ1624によるキャリブレーション方法1600、1602、1604、1606、1608の初期化または開始を示し、下向き矢印は、キャリブレーション方法の完了を示し、最適なパラメータがキャリブレーション・マネージャ1624に返される。図23におけるキャリブレーション方法のための実行時間は、一実施形態の一例である。
図24は、本技術のいくつかの実施形態による、絶対的範囲キャリブレーションに使用され得る一時停止標識検出器2400によって実施され得る手順の流れ図を図示する。検出器2400への入力は、カラー画像2402であってよい。たとえば、検出器2400は、「STOP」という文字内の赤色の接続された構成要素の配置を探すことがある。これらの構成要素は、卵形内の赤色領域(たとえば、文字「O」2406)と、特定の形状内部の赤色領域(たとえば、文字「P」2408)と、赤色八角形領域2404とを含んでよい。接続された構成要素の相対的場所およびサイズは、一意のシグネチャを与えることがあり、これは、ほとんど算出リソースを用いずにすばやく検出され得る。
図25は、本技術のいくつかの実施形態による、ステレオ対応エンジン1420によって実施される手順の流れ図を図示する。ステレオ対応エンジン1420への入力は、カメラ1およびカメラ2からの訂正および安定化された画像1430、1432であってよい。ステレオ対応エンジン1420は、デプス・マップ1308および信頼マップ1314を出力し得る。いくつかの実施形態では、訂正および安定化された画像1430内のマッチング・ウィンドウ2500は、訂正および安定化された画像1432内の対応する行2502と比較されることがある。各ピクセルに対して、結果として生じるマッチング値2506は、マッチング・ウィンドウと対応する行2502に沿った各オフセットとの絶対的差の和の負の値であってよい。最良のマッチ2510が、最も高いマッチング値に対応し得る場合、および2番目に良いマッチ2512が、2番目に高いマッチング値に対応し得る場合、各オフセットのためのマッチング値は算出され得る。所与のピクセルのための一意性比は、最良のマッチ2510を2番目に良いマッチ2512で除算したものとして決定される比であってよい。より高い信頼は、より高い一意性比に対応する。デプス・マップ1308は、最良のマッチ2510から導き出されてよい。信頼マップは、最良のマッチ2510と2番目に良いマッチ2512の比から導き出されてよい。
本技術のいくつかの実施形態によれば、処理構成要素1310は、ハードウェア(たとえば、上記で説明された手順および方法を実施するようにプログラムされたコンピュータ・プロセッサ)内で実装されることがある。本技術のいくつかの実施形態によれば、処理構成要素1310は、ソフトウェア(たとえば、コンピュータ実行可能コード)内で実装されることがあり、ソフトウェアは、非一時的なコンピュータ可読記憶媒体上または複数の非一時的なコンピュータ可読記憶媒体上に記憶されてよく、コンピュータ・プロセッサによってアクセスおよび実行されてよい。本技術のいくつかの実施形態によれば、処理構成要素1310は、ハードウェアとソフトウェアの組み合わせで実装されることがある。いくつかの実施形態では、処理構成要素1310の態様は、1つまたは複数のソフトウェア・モジュールとして実装されることがある。たとえば、処理構成要素1310のエンジンのうちの1つまたは複数は、非一時的なコンピュータ可読記憶媒体上に記憶されたソフトウェア・モジュールとして実装されることがある。
本明細書において説明される技術によるステレオ撮像システムは、異なる構成で具現化されてよい。例示的構成は、次のように、構成(1)から(27)の組み合わせを含む。
(1)第1の画像の第1の反射エネルギーを感知し、この第1の反射エネルギーに基づいて第1のセンサ信号を生成するように構成された第1のカメラ・センサと、第2の画像の第2の反射エネルギーを感知し、この第2の反射エネルギーに基づいて第2のセンサ信号を生成するように構成された第2のカメラ・センサと、第1のカメラ・センサからの第1のセンサ信号および第2のカメラ・センサからの第2のセンサ信号を受け取り、第1のセンサ信号および第2のセンサ信号から3次元(3D)データを生じさせるように構成された少なくとも1つのプロセッサであって、ステレオ・キャリブレーション・パラメータを利用して第1のセンサ信号および第2のセンサ信号から訂正されたステレオ画像を生成し、訂正された画像に対してステレオ・マッチングを実施し、第1のカメラ・センサおよび第2のカメラ・センサによって取得される複数のステレオ画像からのデータを使用して自動的システム・キャリブレーションを実施するように構成された、少なくとも1つのプロセッサとを備え、自動的システム・キャリブレーションは、コスト関数を最小化することに基づく、ステレオ・ビジョン・システム。
(2)自動的システム・キャリブレーションは、
第1の画像および第2の画像内の特徴に対応する画像点を追跡することに基づいて、高頻度摂動を補償すること、ならびに
各カメラに対して、焦点距離、主点、少なくとも1つの半径方向レンズ歪み係数、および少なくとも1つの接線方向レンズ歪み係数、のうちの任意の1つまたは任意の組み合わせをキャリブレーションすること
の一方または両方を実施するために第1のステレオ・キャリブレーション・パラメータを生成するように構成された高速キャリブレーション手順からなる、構成(1)のステレオ・ビジョン・システム。
(3)自動的システム・キャリブレーションは、
相対的カメラ・ピッチおよび相対的カメラ・ロールの関数として高密度(dense)ステレオ・ブロック・マッチングのための有効ピクセルの数を最適化することに基づいて、中間的頻度摂動を補償すること、ならびに
各カメラに対して、焦点距離、主点、少なくとも1つの半径方向レンズ歪み係数、および少なくとも1つの接線方向レンズ歪み係数、のうちの任意の1つまたは任意の組み合わせをキャリブレーションすること
の一方または両方を実施するために第2のステレオ・キャリブレーション・パラメータを生成するように構成された中間的キャリブレーション手順からなる、構成(1)または(2)のステレオ・ビジョン・システム。
(4)自動的システム・キャリブレーションは、
相対的カメラ・ピッチ、相対的カメラ・ロール、相対的カメラ・ヨー、相対的カメラ位置、のうちの任意の1つまたは任意の組み合わせの関数として高密度ステレオ・ブロック・マッチングのための有効ピクセルの数を最適化することに基づいて、低頻度摂動を補償すること、ならびに
各カメラに対して、焦点距離、主点、少なくとも1つの半径方向レンズ歪み係数、および少なくとも1つの接線方向レンズ歪み係数、の任意の1つまたは任意の組み合わせをキャリブレーションすること
の一方または両方を実施するために第3のステレオ・キャリブレーション・パラメータを生成するように構成された低速キャリブレーション手順からなる、構成(1)から(3)のいずれかのステレオ・ビジョン・システム。
(5)自動的システム・キャリブレーションは、非負視差制約に基づいて相対的カメラ・ヨーのためのステレオ・キャリブレーション・パラメータを生成するように構成された絶対的範囲キャリブレーション手順からなる、構成(1)から(4)のいずれかのステレオ・ビジョン・システム。
(6)自動的システム・キャリブレーションは、複数のステレオ画像のシーン中の物体の寸法ならびに第1のカメラ・センサおよび第2のカメラ・センサの焦点距離に基づいて相対的カメラ・ヨーのためのステレオ・キャリブレーション・パラメータを生成するように構成された絶対的範囲キャリブレーション手順からなる、構成(1)から(5)のいずれかのステレオ・ビジョン・システム。
(7)物体は交通標識である、構成(6)のステレオ・ビジョン・システム。
(8)物体はナンバー・プレートである、構成(6)のステレオ・ビジョン・システム。
(9)自動的システム・キャリブレーションは、車両走行距離測定に基づいて相対的カメラ・ヨーのためのステレオ・キャリブレーション・パラメータを生成するように構成された絶対的範囲キャリブレーション手順からなる、構成(1)から(8)のいずれかのステレオ・ビジョン・システム。
(10)自動的システム・キャリブレーションは、低速キャリブレーション手順、中間的キャリブレーション手順、高速キャリブレーション手順、および絶対的範囲キャリブレーション手順の動作スケジュールを管理するように構成されたキャリブレーション管理手順からなる、構成(1)から(9)のいずれかのステレオ・ビジョン・システム。
(11)自動的システム・キャリブレーションは、自動的システム・キャリブレーションの精度を示すキャリブレーション・ヘルスインジケータからなる、構成(1)から(10)のいずれかのステレオ・ビジョン・システム。
(12)ステレオ・マッチングは、複数のステレオ画像の各ピクセルのためのデプス推定信頼スコアからなる、構成(1)から(11)のいずれかのステレオ・ビジョン・システム。
(13)第1のカメラ・センサおよび第2のカメラ・センサは、車両、車、トラック、交通信号、街灯柱、車両の左サイド・ミラーおよび右サイド・ミラーそれぞれ、車両のルーフ・ライン、ウインドシールドの左上側および右上側それぞれ、ならびに左ヘッド・ランプおよび右ヘッド・ランプそれぞれ、のいずれかの上に装着される、構成(1)から(12)のいずれかのステレオ・ビジョン・システム。
(14)コスト関数は、視差マップ内の有効ピクセルの数に基づく、構成(1)から(13)のいずれかのステレオ・ビジョン・システム。
(15)コスト関数は、内因性カメラ・パラメータに基づいて最適化される、構成(1)から(14)のいずれかのステレオ・ビジョン・システム。
(16)コスト関数は、外因性カメラ・パラメータに基づいて最適化される、構成(1)から(15)のいずれかのステレオ・ビジョン・システム。
(17)少なくとも1つのプロセッサは、キャリブレーション・ヘルス・インジケータを提供するように構成される、構成(1)から(16)のいずれかのステレオ・ビジョン・システム。
(18)第1のカメラ・センサおよび第2のカメラ・センサの最小デプス範囲よりも近い範囲内の物体のための3Dデータを提供するように構成された近範囲センサ・システムであって、少なくとも1つのプロセッサは、第1のセンサ信号および第2のセンサ信号から生じる3Dデータを近範囲センサ・システムによって提供される3Dデータと組み合わせるように構成される、近範囲センサ・システムをさらに備える、構成(1)から(17)のいずれかのステレオ・ビジョン・システム。
(19)近範囲センサ・システムは、第1のカメラ・センサおよび第2のカメラ・センサよりも広い視野とより短いベースライン距離を有するカメラ・センサのペアからなる、構成(18)のステレオ・ビジョン・システム。
(20)近範囲センサ・システムは、第1のカメラ・センサおよび第2のカメラ・センサが第1のカメラ・センサおよび第3のカメラ・センサよりも短いベースライン長を有するように、第1のカメラ・センサおよび第2のカメラ・センサとともに三眼ステレオ・システムを形成する第3のカメラ・センサからなる、構成(18)のステレオ・ビジョン・システム。
(21)近範囲センサ・システムは、飛行時間カメラからなる、構成(18)のステレオ・ビジョン・システム。
(22)第1のカメラ・センサおよび第2のカメラ・センサの視野に向けて可視放射または赤外放射を発するように構成されたアクティブ照明デバイスをさらに備える、構成(1)から(21)のいずれかのステレオ・ビジョン・システム。
(23)アクティブ照明デバイスは、放射を発することと放射を発しないことを交互に行い、第1のカメラ・センサの露光間隔および第2のカメラ・センサの露光間隔と同期して放射を発するように構成される、構成(22)のステレオ・ビジョン・システム。
(24)アクティブ照明構成要素は、垂直共振器型面発光レーザ・アレイ、可視スペクトル範囲内で発する放射ランプ、および近赤外線スペクトル範囲内で発する放射ランプ、のうちの任意の1つまたは任意の組み合わせからなる、構成(22)のステレオ・ビジョン・システム。
(25)少なくとも1つのプロセッサは、第1のセンサ信号からおよび第2のセンサ信号からモーション由来構造データを算出し、このモーション由来構造データを使用して、第1のカメラ・センサおよび第2のカメラ・センサの最小デプス範囲よりも近い物体の3D位置を推定するように構成される、構成(1)から(24)のいずれかのステレオ・ビジョン・システム。
本明細書において説明される技術による物体の検出のための方法は、種々のプロセスを含んでよい。例示的方法は、次のように、プロセス(26)および(27)の組み合わせを含む。
(26)画像内の物体の検出のための1つまたは複数のプロセッサによって実施されるコンピュータ実装方法であって、色によって、物体上の接続された構成要素領域を識別する工程と、接続された構成要素領域の各々のアスペクト比を決定する工程と、接続された構成要素領域の間の距離を決定する工程と、アスペクト比および接続された構成要素領域の間の距離に基づいて、既知の物体であると物体を識別する工程とを備え、既知の物体の存在、場所、およびサイズは、画像から決定される、コンピュータ実装方法。
(27)接続された構成要素領域の識別は、赤色であると色を識別し、物体の識別は、一時停止標識であると物体を識別する、プロセス(26)の方法。
本明細書において説明される技術によりステレオ・ビジョン・システムをキャリブレーションする方法は、種々のプロセスを含んでよい。例示的方法は、次のように、プロセス(28)から(33)の組み合わせを含む。
(28)第1の画像の第1の反射エネルギーを感知し、この第1の反射エネルギーに基づいて第1のセンサ信号を生成するように構成された第1のカメラ・センサと、第2の画像の第2の反射エネルギーを感知し、この第2の反射エネルギーに基づいて第2のセンサ信号を生成するように構成された第2のカメラ・センサとを含むステレオ・ビジョン・システムをキャリブレーションするために1つまたは複数のプロセッサによって実施されるコンピュータ実装キャリブレーション方法であって、第1のセンサ信号および第2のセンサ信号からステレオ画像を生成する工程と、訂正されたステレオ画像を生じさせるために、ステレオ・キャリブレーション・パラメータを使用してステレオ画像を訂正する工程と、訂正されたステレオ画像に対してステレオ・マッチングを実施する工程と、ステレオ・マッチングの結果を使用して、自動的システム・キャリブレーションを実施する工程とを備え、自動的システム・キャリブレーションは、コスト関数を最小化することに基づく、コンピュータ実装キャリブレーション方法。
(29)自動的システム・キャリブレーションは、第1の画像および第2の画像内の特徴に対応する画像点を追跡することに基づいて高頻度摂動を補償するために第1のステレオ・キャリブレーション・パラメータを生成するように構成された高速キャリブレーション手順、相対的カメラ・ピッチおよび相対的カメラ・ロールの関数として高密度ステレオ・ブロック・マッチングのための有効ピクセルの数を最適化することに基づいて中間的頻度摂動を補償するために第2のステレオ・キャリブレーション・パラメータを生成するように構成された中間的キャリブレーション手順、ならびに相対的カメラ・ピッチ、相対的カメラ・ロール、相対的カメラ・ヨー、および相対的カメラ位置の関数として高密度ステレオ・ブロック・マッチングのための有効ピクセルの数を最適化することに基づいて低頻度摂動を補償するために第3のステレオ・キャリブレーション・パラメータを生成するように構成された低速キャリブレーション手順、のうちの任意の1つまたは任意の組み合わせからなる、プロセス(28)の方法。
(30)自動的システム・キャリブレーションは、非負視差制約に基づいて相対的カメラ・ヨーのためのステレオ・キャリブレーション・パラメータを生成するように構成された絶対的範囲キャリブレーション手順からなる、プロセス(28)またはプロセス(29)の方法。
(31)自動的システム・キャリブレーションは、複数のステレオ画像のシーン中の物体の寸法ならびに第1のカメラ・センサおよび第2のカメラ・センサの焦点距離に基づいて相対的カメラ・ヨーのためのステレオ・キャリブレーション・パラメータを生成するように構成された絶対的範囲キャリブレーション手順からなる、プロセス(28)から(30)のいずれか1つの方法。
(32)自動的システム・キャリブレーションは、車両走行距離測定に基づいて相対的カメラ・ヨーのためのステレオ・キャリブレーション・パラメータを生成するように構成された絶対的範囲キャリブレーション手順からなる、プロセス(28)から(31)のいずれか1つの方法。
(33)自動的システム・キャリブレーションは、低速キャリブレーション手順、中間的キャリブレーション手順、高速キャリブレーション手順、および絶対的範囲キャリブレーション手順の動作スケジュールを管理するように構成されたキャリブレーション管理手順からなる、プロセス(28)から(32)のいずれか1つの方法。
本明細書において説明される技術によりステレオ・ビジョン・システムをキャリブレーションするためにコンピュータ実行可能コードを記憶する非一時的なコンピュータ可読媒体は、異なる構成で具現化されてよい。例示的構成は、次のように、構成(34)から(39)の組み合わせを含む。
(34)1つまたは複数のプロセッサによって実行されるとき、1つまたは複数のプロセッサに、第1の画像の第1の反射エネルギーを感知し、この第1の反射エネルギーに基づいて第1のセンサ信号を生成するように構成された第1のカメラ・センサと、第2の画像の第2の反射エネルギーを感知し、この第2の反射エネルギーに基づいて第2のセンサ信号を生成するように構成された第2のカメラ・センサとを含むステレオ・ビジョン・システムをキャリブレーションさせるコンピュータ実行可能コードを記憶する非一時的なコンピュータ可読媒体であって、方法は、第1のセンサ信号および第2のセンサ信号からステレオ画像を生成する工程と、訂正されたステレオ画像を生じさせるために、ステレオ・キャリブレーション・パラメータを使用してステレオ画像を訂正する工程と、訂正されたステレオ画像に対してステレオ・マッチングを実施する工程と、ステレオ・マッチングの結果を使用して、自動的システム・キャリブレーションを実施する工程とからなり、自動的システム・キャリブレーションは、コスト関数を最小化することに基づく、非一時的なコンピュータ可読媒体。
(35)自動的システム・キャリブレーションは、第1の画像および第2の画像内の特徴に対応する画像点を追跡することに基づいて高頻度摂動を補償するために第1のステレオ・キャリブレーション・パラメータを生成するように構成された高速キャリブレーション手順、相対的カメラ・ピッチおよび相対的カメラ・ロールの関数として高密度ステレオ・ブロック・マッチングのための有効ピクセルの数を最適化することに基づいて中間的頻度摂動を補償するために第2のステレオ・キャリブレーション・パラメータを生成するように構成された中間的キャリブレーション手順、ならびに相対的カメラ・ピッチ、相対的カメラ・ロール、相対的カメラ・ヨー、および相対的カメラ位置の関数として高密度ステレオ・ブロック・マッチングのための有効ピクセルの数を最適化することに基づいて低頻度摂動を補償するために第3のステレオ・キャリブレーション・パラメータを生成するように構成された低速キャリブレーション手順、のうちの任意の1つまたは任意の組み合わせからなる、構成(34)の非一時的なコンピュータ可読媒体。
(36)自動的システム・キャリブレーションは、非負視差制約に基づいて相対的カメラ・ヨーのためのステレオ・キャリブレーション・パラメータを生成するように構成された絶対的範囲キャリブレーション手順からなる、構成(34)または構成(35)の非一時的なコンピュータ可読媒体。
(37)自動的システム・キャリブレーションは、複数のステレオ画像のシーン中の物体の寸法ならびに第1のカメラ・センサおよび第2のカメラ・センサの焦点距離に基づいて相対的カメラ・ヨーのためのステレオ・キャリブレーション・パラメータを生成するように構成された絶対的範囲キャリブレーション手順からなる、構成(34)から(36)のいずれか1つの非一時的なコンピュータ可読媒体。
(38)自動的システム・キャリブレーションは、車両走行距離測定に基づいて相対的カメラ・ヨーのためのステレオ・キャリブレーション・パラメータを生成するように構成された絶対的範囲キャリブレーション手順からなる、構成(34)から(37)のいずれか1つの非一時的なコンピュータ可読媒体。
(39)自動的システム・キャリブレーションは、低速キャリブレーション手順、中間的キャリブレーション手順、高速キャリブレーション手順、および絶対的範囲キャリブレーション手順の動作スケジュールを管理するように構成されたキャリブレーション管理手順からなる、構成(34)から(38)のいずれか1つの非一時的なコンピュータ可読媒体。
本明細書において説明される実施形態および例は、本発明の技術およびその実際的な適用例の原理、方法、およびプロセスを例示し、それによって、当業者が、種々の実施形態において、企図された特定の使用に適している種々の修正とともに、本発明の技術を利用することを可能にするために選ばれ、説明されたことが理解されるべきである。本発明の技術の特定の実施形態が説明されているが、これらの実施形態は、網羅的と見なされるべきではない。当業者には明らかであろうが、本明細書では具体的に説明されていない他の実施形態および変形形態は、本技術の範囲内である。
別段に述べられていない限り、「約(approximately)」および「約(about)」という用語は、いくつかの実施形態ではターゲット値の±20%以内、いくつかの実施形態ではターゲット値の±10%以内、いくつかの実施形態ではターゲット値の±5%以内、およびさらに、いくつかの実施形態ではターゲット値の±2%以内を意味するために使用される。「約(approximately)」および「約(about)」という用語は、ターゲット値を含むことができる。「本質的に」という用語は、ターゲット値の±3%以内を意味するために使用される。
本明細書において説明される技術は、少なくともいくつかの行為が説明されている方法として具現化されてよい。方法の一部として実施される行為は、任意の適切な手段で順序付けられてよい。したがって、行為が説明されるものとは異なる順序で実施される実施形態が実装されてよく、これは、例示的な実施形態では逐次的な行為と説明されるにもかかわらず、いくつかの行為を同時に実施することを含んでよい。さらに、方法は、いくつかの実施形態では説明される行為よりも多い行為を、他の実施形態では説明される行為よりも少ない行為を含んでよい。
本開示の種々の態様は、単独で使用されてもよいし、組み合わせて使用されてもよいし、前述の内容で説明される実施形態で具体的に論じられないさまざまな配置で使用されてもよく、したがって、その適用例では、前述の説明に記載されるまたは図面に例示される構成要素の詳細および配置に限定されない。たとえば、一実施形態に説明される態様は、他の実施形態に説明される態様と任意のやり方で組み合わされてよい。
請求項要素を修飾するための、請求項における「第1の」、「第2の」、「第3の」などの順序を表す用語の使用は、それ自体では、別の請求項要素に対する1つの請求項要素の優先順位、先行、もしくは順序または方法の行為が実施される時間的順序を暗示せず、請求項要素を区別するために、ある名前を有する1つの請求項要素と、同じ名前を有する別の要素を区別する(通常の用語の使用がなければ)ために、ラベルとして使用されるにすぎない。
本明細書において使用される語法および用語は、説明を目的としたものであり、限定と見なされるべきではない。本明細書における「含む(including)」、「備える(comprising)」、または「有する(having)」、「含む(containing)」、「伴う(involving)」、およびその変形体の使用は、その後にリストされる項目およびその等価物、ならびに追加の項目を包含することを意味する。
「1つの(a)」および「1つの(an)」という不定冠詞は、本明細書および請求項において使用されるとき、それとは明らかに反対のことが示されない限り、「少なくとも1つの」を意味すると理解されるべきである。
1つまたは複数の要素のリストに関する「少なくとも1つの」という句のいかなる使用も、要素のリスト内の要素のうちのいずれか1つまたは複数から選択された少なくとも1つの要素を意味するが、要素のリスト内に具体的にリストされたあらゆる要素のうちの少なくとも1つを必ずしも含むとは限らず、要素のリスト内の要素のあらゆる組み合わせを除外しないと理解されるべきである。この定義は、「少なくとも1つの」という句が参照する要素のリスト内で具体的に識別される要素以外の要素が、具体的に識別されるそれらの要素が関連するにせよ、関連しないにせよ、任意選択で存在することも可能にする。
2つの値(たとえば、距離、幅など)に関する「等しい(equal)」または「同じ(the same)」という句のいかなる使用も、2つの値が製作公差以内で同じであることを意味する。したがって、2つの値が等しい、または同じであることは、2つの値が互いとは±5%異なることを意味することがある。
「および/または(and/or)」という句は、本明細書および請求項において使用されるとき、そのように結合された要素の「どちらかまたは両方(either or both)」、すなわち、ある場合には結合的に存在し、他の場合には分離的に存在する要素を意味すると理解されるべきである。「および/または」とともにリストされた複数の要素は、同じ様式で、すなわち、そのように結合された要素のうちの「1つまたは複数(one or more)」と解釈されるべきである。「および/または」という節によって具体的に識別される要素以外の他の要素が、具体的に識別されるそれらの要素が関連するにせよ、関連しないにせよ、任意選択で存在することがある。したがって、非限定的な例として、「Aおよび/またはB」への言及は、「備える」などの制限のない文言とともに使用されるとき、一実施形態ではAのみ(任意選択で、B以外の要素を含む)、別の実施形態ではBのみ(任意選択で、A以外の要素を含む)、さらに別の実施形態では、AとBの両方(任意選択で、他の要素を含む)などを指すことができる。
本明細書および請求項において使用されるとき、「または(or)」は、上記で定義された「および/または」と同じ意味を有すると理解されるべきである。たとえば、リスト内の項目を分離するとき、「または」または「および/または」は、包含的である、すなわち、いくつかの要素または要素のリストの少なくとも1つの包含であるが、複数も含み、任意選択で、リストされていない追加の項目も含むと解釈されるものとする。「のうちの1つのみ(only one of)」または「のうちの1つだけ(exactly one of)」などの、それとは明らかに反対のことが示される用語のみ、または請求項において使用されるとき、「からなる(consisting of)」は、いくつかの要素または要素のリストの1つの要素だけの包含を指すであろう。一般に、本明細書において使用される「または」という用語は、「どちらか(either)」、「のうちの1つ(one of)」、「のうちの1つのみ(only one of)」または「のうちの1つだけ(exactly one of)」などの排他性の用語によって先行されるとき、排他的な代替物(すなわち、「両方ではなく一方または他方(one or the other but not both)」)を示すとのみ解釈されるものとする。「から実質的になる(Consisting essentially of)」は、請求項において使用されるとき、特許法の分野において使用されるその通常の意味を有するものとする。
「実質的に(substantially)」という用語は、本明細書において使用される場合、いくつかの実施形態ではターゲット値の95%以内、いくつかの実施形態ではターゲット値の98%以内、いくつかの実施形態ではターゲット値の99%以内、およびいくつかの実施形態ではターゲット値の99.5%以内を意味すると解釈されてよい。いくつかの実施形態では、「実質的に」という用語は、ターゲット値の100%に等しいことがある。
また、上記で説明された実施形態のうちのいくつかは、いくつかの例が提供されている1つまたは複数の方法として実装されることがある。方法の一部として実施される行為は、任意の適切な手段で順序付けられてよい。したがって、本明細書において例示または説明されるものとは異なる順序で行為が実施される実施形態が構築されてよく、これは、例示的な実施形態では逐次的な行為と図示されるにもかかわらず、いくつかの行為を同時に実施することを含んでよい。
さらに、本発明の利点が示されてきたが、本発明のあらゆる実施形態が、あらゆる説明された利点を含むわけではないことが理解されるべきである。いくつかの実施形態は、本明細書において有利と説明された特徴を実装しなくてよい。したがって、前述の説明および添付の図面は、例にすぎない。

Claims (20)

  1. 第1の画像の第1の反射エネルギーを感知することによって前記第1の画像の複数のフレームを取得し、前記第1の反射エネルギーに基づいて第1のセンサ信号を生成するように構成された第1のカメラ・センサと、
    第2の画像の第2の反射エネルギーを感知することによって前記第2の画像の複数のフレームを取得し、前記第2の反射エネルギーに基づいて第2のセンサ信号を生成するように構成された第2のカメラ・センサと、
    前記第1のカメラ・センサからの前記第1のセンサ信号および前記第2のカメラ・センサからの前記第2のセンサ信号を受け取り、前記第1のセンサ信号および前記第2のセンサ信号から3次元(3D)データを生じさせるように構成された少なくとも1つのプロセッサであって、
    前記第1の画像の前記フレームおよび前記第2の画像の前記フレームからステレオ画像を生成することと、
    ステレオ・キャリブレーション・パラメータを使用して前記ステレオ画像を訂正することと、
    訂正された画像に対してステレオ・マッチングを実施することと、
    ステレオ・マッチングされた画像からのデータを使用して自動的システム・キャリブレーションを実施することであって、前記自動的システム・キャリブレーションが、コスト関数を最小化することに基づき、前記自動的システム・キャリブレーションが、
    高頻度摂動を補償するために高速間隔で実施される高速キャリブレーション手順と、
    中間的頻度摂動を補償するために中間的間隔で実施される中間的キャリブレーション手順であって、各中間的間隔は各高速間隔よりも長い、中間的キャリブレーション手順と、
    低頻度摂動を補償するために低速間隔で実施される低速キャリブレーション手順であって、各低速間隔は各中間的間隔よりも長い、低速キャリブレーション手順と
    からなる、自動的システム・キャリブレーションを実施することと
    を行うように構成された、少なくとも1つのプロセッサと
    を備えるステレオ・ビジョン・システム。
  2. 前記第1の画像および前記第2の画像の前記フレームが前記第1のカメラ・センサおよび前記第2のカメラ・センサによって取得されているとき、前記第1のセンサ信号および前記第2のセンサ信号が、リアルタイムまたはほぼリアルタイムで前記少なくとも1つのプロセッサに対して提供される、請求項1に記載のステレオ・ビジョン・システム。
  3. 前記自動的システム・キャリブレーションが、1フレームごとの間隔で実施されるステレオ画像安定化からなる、請求項1に記載のステレオ・ビジョン・システム。
  4. 前記高速キャリブレーション手順が、前記第1の画像および前記第2の画像内の特徴に対応する画像点を追跡することによって高頻度摂動を補償するために第1のステレオ・キャリブレーション・パラメータを生成するように構成される、請求項1に記載のステレオ・ビジョン・システム。
  5. 前記中間的キャリブレーション手順が、相対的カメラ・ピッチおよび相対的カメラ・ロールの関数として高密度ステレオ・ブロック・マッチングのための有効ピクセルの数を最適化することによって中間的頻度摂動を補償するために第2のステレオ・キャリブレーション・パラメータを生成するように構成される、請求項1に記載のステレオ・ビジョン・システム。
  6. 前記低速キャリブレーション手順が、相対的カメラ・ピッチ、相対的カメラ・ロール、相対的カメラ・ヨー、および相対的カメラ位置の関数として高密度ステレオ・ブロック・マッチングのための有効ピクセルの数を最適化することによって低頻度摂動を補償するために第3のステレオ・キャリブレーション・パラメータを生成するように構成される、請求項1に記載のステレオ・ビジョン・システム。
  7. 前記自動的システム・キャリブレーションが、各高速間隔よりも長く各中間的間隔よりも短い間隔で実施される絶対的範囲キャリブレーション手順からなる、請求項1に記載のステレオ・ビジョン・システム。
  8. 前記絶対的範囲キャリブレーション手順が、非負視差制約に基づいて、相対的カメラ・ヨーのためのステレオ・キャリブレーション・パラメータを生成するように構成される、請求項7に記載のステレオ・ビジョン・システム。
  9. 前記絶対的範囲キャリブレーション手順が、複数のステレオ画像のシーン内の物体の寸法ならびに前記第1のカメラ・センサおよび前記第2のカメラ・センサの焦点距離に基づいて、前記ステレオ・キャリブレーション・パラメータを生成するように構成される、請求項8に記載のステレオ・ビジョン・システム。
  10. 第1の画像の第1の反射エネルギーを感知することによって前記第1の画像の複数のフレームを取得し、前記第1の反射エネルギーに基づいて第1のセンサ信号を生成するように構成された第1のカメラ・センサと、第2の画像の第2の反射エネルギーを感知することによって前記第2の画像の複数のフレームを取得し、前記第2の反射エネルギーに基づいて第2のセンサ信号を生成するように構成された第2のカメラ・センサとを含むステレオ・ビジョン・システムをキャリブレーションするために1つまたは複数のプロセッサによって実施されるコンピュータ実装キャリブレーション方法であって、
    前記1つまたは複数のプロセッサによって、前記第1の画像の前記フレームおよび前記第2の画像の前記フレームからステレオ画像を生成する工程と、
    前記1つまたは複数のプロセッサによって、訂正されたステレオ画像を生じさせるために、ステレオ・キャリブレーション・パラメータを使用して前記ステレオ画像を訂正する工程と、
    前記1つまたは複数のプロセッサによって、ステレオ・マッチングされた画像を生じさせるために、訂正されたステレオ画像に対してステレオ・マッチングを実施する工程と、
    前記1つまたは複数のプロセッサによって、ステレオ・マッチングされた画像からのデータを使用して自動的システム・キャリブレーションを実施する工程であって、前記自動的システム・キャリブレーションが、コスト関数を最小化することに基づき、前記自動的システム・キャリブレーションが、
    高頻度摂動を補償するために高速間隔で実施される高速キャリブレーション手順と、
    中間的頻度摂動を補償するために中間的間隔で実施される中間的キャリブレーション手順であって、各中間的間隔は各高速間隔よりも長い、中間的キャリブレーション手順と、
    低頻度摂動を補償するために低速間隔で実施される低速キャリブレーション手順であって、各低速間隔は各中間的間隔よりも長い、低速キャリブレーション手順と
    からなる、自動的システム・キャリブレーションを実施する工程と
    を備えるコンピュータ実装キャリブレーション方法。
  11. 前記第1の画像および前記第2の画像の前記フレームが前記第1のカメラ・センサおよび前記第2のカメラ・センサによって取得されているとき、前記1つまたは複数のプロセッサによって、前記第1のセンサ信号および前記第2のセンサ信号をリアルタイムでまたはほぼリアルタイムで受け取る工程
    をさらに備える、請求項10に記載の方法。
  12. 前記自動的システム・キャリブレーションが、1フレームごとの間隔で実施されるステレオ画像安定化からなる、請求項10に記載の方法。
  13. 前記高速キャリブレーション手順が、高頻度摂動を補償するように第1のステレオ・キャリブレーション・パラメータを生成するために前記第1の画像および前記第2の画像内の特徴に対応する画像点を追跡することからなる、請求項10に記載の方法。
  14. 前記中間的キャリブレーション手順が、中間的頻度摂動を補償するように第2のステレオ・キャリブレーション・パラメータを生成するために相対的カメラ・ピッチおよび相対的カメラ・ロールの関数として高密度ステレオ・ブロック・マッチングのための有効ピクセルの数を最適化することからなる、請求項10に記載の方法。
  15. 前記低速キャリブレーション手順が、低頻度摂動を補償するように第3のステレオ・キャリブレーション・パラメータを生成するために、相対的カメラ・ピッチ、相対的カメラ・ロール、相対的カメラ・ヨー、および相対的カメラ位置の関数として高密度ステレオ・ブロック・マッチングのための有効ピクセルの数を最適化することからなる、請求項10に記載の方法。
  16. 前記自動的システム・キャリブレーションが、各高速間隔よりも長く各中間的間隔よりも短い間隔で実施される絶対的範囲キャリブレーション手順からなる、請求項10に記載の方法。
  17. 前記絶対的範囲キャリブレーション手順が、非負視差制約を使用して、相対的カメラ・ヨーのためのステレオ・キャリブレーション・パラメータを生成する、請求項16に記載の方法。
  18. 前記絶対的範囲キャリブレーション手順が、複数の前記ステレオ画像内の物体の寸法ならびに前記第1のカメラ・センサおよび前記第2のカメラ・センサの焦点距離を使用して、前記ステレオ・キャリブレーション・パラメータを生成する、請求項17に記載の方法。
  19. 1つまたは複数のプロセッサによって実行されるとき、前記1つまたは複数のプロセッサに、第1の画像の第1の反射エネルギーを感知することによって前記第1の画像の複数のフレームを取得し、前記第1の反射エネルギーに基づいて第1のセンサ信号を生成するように構成された第1のカメラ・センサと、第2の画像の第2の反射エネルギーを感知することによって前記第2の画像の複数のフレームを取得し、前記第2の反射エネルギーに基づいて第2のセンサ信号を生成するように構成された第2のカメラ・センサとを含むステレオ・ビジョン・システムをキャリブレーションする方法を実施させるコンピュータ実行可能コードを記憶する非一時的なコンピュータ可読媒体であって、前記方法が、
    前記第1の画像の前記フレームおよび前記第2の画像の前記フレームからステレオ画像を生成する工程と、
    訂正されたステレオ画像を生じさせるために、ステレオ・キャリブレーション・パラメータを使用して前記ステレオ画像を訂正する工程と、
    ステレオ・マッチングされた画像を生じさせるために、訂正されたステレオ画像に対してステレオ・マッチングを実施する工程と、
    ステレオ・マッチングされた画像からのデータを使用して自動的システム・キャリブレーションを実施する工程であって、前記自動的システム・キャリブレーションが、コスト関数を最小化することに基づき、前記自動的システム・キャリブレーションが、
    高頻度摂動を補償するために高速間隔で実施される高速キャリブレーション手順と、
    中間的頻度摂動を補償するために中間的間隔で実施される中間的キャリブレーション手順であって、各中間的間隔は各高速間隔よりも長い、中間的キャリブレーション手順と、
    低頻度摂動を補償するために低速間隔で実施される低速キャリブレーション手順であって、各低速間隔は各中間的間隔よりも長い、低速キャリブレーション手順と、
    1フレームごとの間隔で実施されるステレオ画像安定化と
    からなる、自動的システム・キャリブレーションを実施する工程と
    からなる非一時的なコンピュータ可読媒体。
  20. 前記自動的システム・キャリブレーションが、各高速間隔よりも長く各中間的間隔よりも短い間隔で実施される絶対的範囲キャリブレーション手順からなり、
    前記絶対的範囲キャリブレーション手順が、複数の前記ステレオ画像内の物体の寸法ならびに前記第1のカメラ・センサおよび前記第2のカメラ・センサの焦点距離に基づいて、相対的カメラ・ヨーのためのステレオ・キャリブレーション・パラメータを生成するように構成される、
    請求項19に記載の非一時的なコンピュータ可読媒体。
JP2022544695A 2020-01-22 2021-01-06 非剛性ステレオ・ビジョン・カメラ・システム Active JP7319003B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023114397A JP2023133334A (ja) 2020-01-22 2023-07-12 非剛性ステレオ・ビジョン・カメラ・システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062964148P 2020-01-22 2020-01-22
US62/964,148 2020-01-22
PCT/US2021/012294 WO2021150369A1 (en) 2020-01-22 2021-01-06 Non-rigid stereo vision camera system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023114397A Division JP2023133334A (ja) 2020-01-22 2023-07-12 非剛性ステレオ・ビジョン・カメラ・システム

Publications (2)

Publication Number Publication Date
JP2023504298A true JP2023504298A (ja) 2023-02-02
JP7319003B2 JP7319003B2 (ja) 2023-08-01

Family

ID=76993257

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022544695A Active JP7319003B2 (ja) 2020-01-22 2021-01-06 非剛性ステレオ・ビジョン・カメラ・システム
JP2023114397A Pending JP2023133334A (ja) 2020-01-22 2023-07-12 非剛性ステレオ・ビジョン・カメラ・システム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023114397A Pending JP2023133334A (ja) 2020-01-22 2023-07-12 非剛性ステレオ・ビジョン・カメラ・システム

Country Status (5)

Country Link
US (4) US11282234B2 (ja)
EP (1) EP4094433A4 (ja)
JP (2) JP7319003B2 (ja)
KR (2) KR102550678B1 (ja)
WO (1) WO2021150369A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2728836C2 (ru) 2016-10-28 2020-07-31 Ппг Индастриз Огайо, Инк. Покрытия для увеличения расстояния обнаружения до объекта, обнаруживаемого с помощью электромагнитного излучения ближнего инфракрасного диапазона
US11568568B1 (en) * 2017-10-31 2023-01-31 Edge 3 Technologies Calibration for multi-camera and multisensory systems
WO2020014683A1 (en) * 2018-07-13 2020-01-16 Kache.AI Systems and methods for autonomous object detection and vehicle following
US11427193B2 (en) 2020-01-22 2022-08-30 Nodar Inc. Methods and systems for providing depth maps with confidence estimates
KR102550678B1 (ko) 2020-01-22 2023-07-04 노다르 인크. 비-강성 스테레오 비전 카메라 시스템
GB2610414A (en) * 2021-09-03 2023-03-08 Integrated Design Ltd Anti-climb system
US11577748B1 (en) 2021-10-08 2023-02-14 Nodar Inc. Real-time perception system for small objects at long range for autonomous vehicles
EP4223593A1 (en) * 2022-02-08 2023-08-09 Continental Autonomous Mobility Germany GmbH Rear-view stereo camera system
US11909944B1 (en) * 2022-02-21 2024-02-20 Ghost Autonomy Inc. Dynamic calibration of cameras in a stereoscopic configuration
US11763492B1 (en) * 2022-06-10 2023-09-19 Plusai, Inc. Apparatus and methods to calibrate a stereo camera pair
US11782145B1 (en) 2022-06-14 2023-10-10 Nodar Inc. 3D vision system with automatically calibrated stereo vision sensors and LiDAR sensor

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170287169A1 (en) * 2014-09-25 2017-10-05 Continental Automotive France Extrinsic calibration method for cameras of an on-board system for formation of stereo images
WO2017209015A1 (ja) * 2016-06-03 2017-12-07 Kyb株式会社 ステレオカメラの設置パラメータ校正方法
WO2018196001A1 (en) * 2017-04-28 2018-11-01 SZ DJI Technology Co., Ltd. Sensing assembly for autonomous driving
US10257489B2 (en) * 2013-12-30 2019-04-09 Lg Innotek Co., Ltd. Stereo camera device and rectification method therefor

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6392688B1 (en) 1999-10-04 2002-05-21 Point Grey Research Inc. High accuracy stereo vision camera system
JP3855812B2 (ja) 2002-03-15 2006-12-13 ソニー株式会社 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
DE10310698A1 (de) 2003-03-12 2004-09-23 Valeo Schalter Und Sensoren Gmbh Optisches Erfassungssystem für Kraftfahrzeuge
EP1709568A4 (en) 2003-12-15 2009-07-29 Sarnoff Corp METHOD AND APPARATUS FOR TRACKING OBJECTS BEFORE THE IMMINENT DETECTION OF A COLLISION
FR2874300B1 (fr) 2004-08-11 2006-11-24 Renault Sas Procede de calibration automatique d'un systeme de stereovision
US7561731B2 (en) 2004-12-27 2009-07-14 Trw Automotive U.S. Llc Method and apparatus for enhancing the dynamic range of a stereo vision system
US20070070069A1 (en) * 2005-09-26 2007-03-29 Supun Samarasekera System and method for enhanced situation awareness and visualization of environments
US7786898B2 (en) 2006-05-31 2010-08-31 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
JP5117003B2 (ja) 2006-07-11 2013-01-09 本田技研工業株式会社 運転支援装置
KR100918480B1 (ko) 2007-09-03 2009-09-28 한국전자통신연구원 스테레오 비전 시스템 및 그 처리 방법
JP5194679B2 (ja) 2007-09-26 2013-05-08 日産自動車株式会社 車両用周辺監視装置および映像表示方法
US9449378B2 (en) 2008-05-22 2016-09-20 Matrix Electronic Measuring Properties, Llc System and method for processing stereoscopic vehicle information
US8120644B2 (en) * 2009-02-17 2012-02-21 Autoliv Asp, Inc. Method and system for the dynamic calibration of stereovision cameras
US20110025548A1 (en) * 2009-07-31 2011-02-03 Gm Global Technology Operations, Inc. System and method for vehicle sensor fusion
EP2474167A4 (en) 2009-09-01 2014-12-10 Prime Focus Vfx Services Ii Inc SYSTEM AND PROCESS FOR TRANSFORMING TWO-DIMENSIONAL IMAGES TO THREE-DIMENSIONAL IMAGES
WO2011104151A1 (en) 2010-02-26 2011-09-01 Thomson Licensing Confidence map, method for generating the same and method for refining a disparity map
US8797387B2 (en) 2011-04-27 2014-08-05 Aptina Imaging Corporation Self calibrating stereo camera
KR101316433B1 (ko) 2011-09-14 2013-10-08 현대자동차주식회사 차량 주변정보 제공 시스템 및 그 방법
US9507967B2 (en) 2012-02-15 2016-11-29 Blackberry Limited Thwarting attacks that involve analyzing hardware sensor output
DE102012009577A1 (de) * 2012-05-15 2012-11-29 Daimler Ag Verfahren zur Kalibrierung und Verfahren zur Justierung von Einzelbildkameras einer Kameraanordnung
US9571818B2 (en) * 2012-06-07 2017-02-14 Nvidia Corporation Techniques for generating robust stereo images from a pair of corresponding stereo images captured with and without the use of a flash device
KR102245648B1 (ko) 2012-09-10 2021-04-29 에이매스, 아이엔씨. 복수의 기기를 이용한 다차원의 환경 데이터 캡쳐
US8971634B2 (en) 2012-10-26 2015-03-03 Texas Instruments Incorporated Approximate pyramidal search for fast displacement matching
US20140267616A1 (en) 2013-03-15 2014-09-18 Scott A. Krig Variable resolution depth representation
US9563951B2 (en) 2013-05-21 2017-02-07 Magna Electronics Inc. Vehicle vision system with targetless camera calibration
CN104581136B (zh) * 2013-10-14 2017-05-31 钰立微电子股份有限公司 图像校准系统和立体摄像机的校准方法
US9509979B2 (en) 2013-11-26 2016-11-29 Mobileye Vision Technologies Ltd. Stereo auto-calibration from structure-from-motion
JP6323018B2 (ja) 2014-01-17 2018-05-16 株式会社デンソー 運転支援装置
JP6337504B2 (ja) 2014-02-21 2018-06-06 株式会社リコー 画像処理装置、移動体、ロボット、機器制御方法およびプログラム
JP2016048839A (ja) 2014-08-27 2016-04-07 株式会社小糸製作所 電子制御ユニットおよび車両用映像システム
US9286680B1 (en) * 2014-12-23 2016-03-15 Futurewei Technologies, Inc. Computational multi-camera adjustment for smooth view switching and zooming
DE112016000356T5 (de) * 2015-01-16 2018-01-11 Imra Europe S.A.S. Selbstrektifizierung von Stereokameras
US9369689B1 (en) 2015-02-24 2016-06-14 HypeVR Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video
JP6545997B2 (ja) 2015-04-24 2019-07-17 日立オートモティブシステムズ株式会社 画像処理装置
US9930315B2 (en) * 2015-04-29 2018-03-27 Lucid VR, Inc. Stereoscopic 3D camera for virtual reality experience
US10591594B2 (en) 2015-09-30 2020-03-17 Sony Corporation Information processing apparatus, information processing method, and program
KR102415505B1 (ko) 2015-12-14 2022-07-01 삼성전자주식회사 스테레오 영상 매칭 방법 및 장치
WO2017106846A2 (en) 2015-12-18 2017-06-22 Iris Automation, Inc. Real-time visual situational awareness system
US10788836B2 (en) 2016-02-29 2020-09-29 AI Incorporated Obstacle recognition method for autonomous robots
JP6686593B2 (ja) 2016-03-23 2020-04-22 日本電気株式会社 データ処理装置、データ処理システム、データ処理方法及びプログラム
EP3223196B1 (en) 2016-03-24 2021-05-05 Aptiv Technologies Limited A method and a device for generating a confidence measure for an estimation derived from images captured by a camera mounted on a vehicle
US10451740B2 (en) * 2016-04-26 2019-10-22 Cepton Technologies, Inc. Scanning lidar systems for three-dimensional sensing
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
US10645366B2 (en) * 2016-06-10 2020-05-05 Lucid VR, Inc. Real time re-calibration of stereo cameras
US10602126B2 (en) 2016-06-10 2020-03-24 Lucid VR, Inc. Digital camera device for 3D imaging
BR102017002219B1 (pt) 2017-02-02 2020-01-07 Vale S/A Sistema e método para o monitoramento de rodas ferroviárias
WO2018146558A2 (en) 2017-02-07 2018-08-16 Mindmaze Holding Sa Systems, methods and apparatuses for stereo vision and tracking
US11435456B2 (en) 2017-12-28 2022-09-06 Lyft, Inc. Sensor calibration facility
US10798368B2 (en) 2018-03-13 2020-10-06 Lyft, Inc. Exposure coordination for multiple cameras
US11080590B2 (en) 2018-03-21 2021-08-03 Nvidia Corporation Stereo depth estimation using deep neural networks
US20200077073A1 (en) * 2018-08-28 2020-03-05 Qualcomm Incorporated Real-time stereo calibration by direct disparity minimization and keypoint accumulation
US11024037B2 (en) 2018-11-15 2021-06-01 Samsung Electronics Co., Ltd. Foreground-background-aware atrous multiscale network for disparity estimation
JP6843819B2 (ja) 2018-11-27 2021-03-17 本田技研工業株式会社 交通案内物認識装置、交通案内物認識方法、およびプログラム
US10965929B1 (en) 2019-01-04 2021-03-30 Rockwell Collins, Inc. Depth mapping and parallel distortion correction for mixed reality
US20200346581A1 (en) 2019-05-02 2020-11-05 Jared Lawson Trailer tracking commercial vehicle and automotive side view mirror system
US10930054B2 (en) 2019-06-18 2021-02-23 Intel Corporation Method and system of robust virtual view generation between camera views
US20220259936A1 (en) 2019-07-03 2022-08-18 Bn Technology Holdings Inc. Modular downhole tool reservoir system
CN111028281B (zh) 2019-10-22 2022-10-18 清华大学 基于光场双目系统的深度信息计算方法及装置
KR102550678B1 (ko) 2020-01-22 2023-07-04 노다르 인크. 비-강성 스테레오 비전 카메라 시스템
US11427193B2 (en) 2020-01-22 2022-08-30 Nodar Inc. Methods and systems for providing depth maps with confidence estimates
US11961243B2 (en) 2020-02-26 2024-04-16 Nvidia Corporation Object detection using image alignment for autonomous machine applications
US11577748B1 (en) 2021-10-08 2023-02-14 Nodar Inc. Real-time perception system for small objects at long range for autonomous vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10257489B2 (en) * 2013-12-30 2019-04-09 Lg Innotek Co., Ltd. Stereo camera device and rectification method therefor
US20170287169A1 (en) * 2014-09-25 2017-10-05 Continental Automotive France Extrinsic calibration method for cameras of an on-board system for formation of stereo images
WO2017209015A1 (ja) * 2016-06-03 2017-12-07 Kyb株式会社 ステレオカメラの設置パラメータ校正方法
WO2018196001A1 (en) * 2017-04-28 2018-11-01 SZ DJI Technology Co., Ltd. Sensing assembly for autonomous driving

Also Published As

Publication number Publication date
US11321876B2 (en) 2022-05-03
KR20230104298A (ko) 2023-07-07
WO2021150369A1 (en) 2021-07-29
US11321875B2 (en) 2022-05-03
KR20220123726A (ko) 2022-09-08
EP4094433A4 (en) 2024-02-21
KR102550678B1 (ko) 2023-07-04
US20230005184A1 (en) 2023-01-05
US20210350576A1 (en) 2021-11-11
JP7319003B2 (ja) 2023-08-01
EP4094433A1 (en) 2022-11-30
US11282234B2 (en) 2022-03-22
JP2023133334A (ja) 2023-09-22
US20210352259A1 (en) 2021-11-11
US20210327092A1 (en) 2021-10-21
US11983899B2 (en) 2024-05-14

Similar Documents

Publication Publication Date Title
JP7319003B2 (ja) 非剛性ステレオ・ビジョン・カメラ・システム
US11940539B2 (en) Camera-to-LiDAR calibration and validation
US11463610B2 (en) Cross field of view for autonomous vehicle systems
CN108647646B (zh) 基于低线束雷达的低矮障碍物的优化检测方法及装置
US11619496B2 (en) System and method of detecting change in object for updating high-definition map
JP5588812B2 (ja) 画像処理装置及びそれを用いた撮像装置
WO2017149813A1 (ja) センサキャリブレーションシステム
WO2020185489A1 (en) Sensor validation using semantic segmentation information
KR20180055292A (ko) 다중 라이다 좌표계 통합 방법
US11353590B2 (en) Sensor pod calibration
CN114829979A (zh) 激光雷达传感器的校准
US20210339699A1 (en) Pedestrian protection system for sensor pods
US11953623B2 (en) Sensor pod assembly
US11623585B2 (en) Sensor pod coverage and placement on vehicle
WO2019208101A1 (ja) 位置推定装置
CN110750153A (zh) 一种无人驾驶车辆的动态虚拟化装置
CN111833443A (zh) 自主机器应用中的地标位置重建
US10249056B2 (en) Vehicle position estimation system
CN114973037B (zh) 一种无人机智能检测与同步定位多目标的方法
WO2022133986A1 (en) Accuracy estimation method and system
EP4143064A1 (en) Sensor pod assembly
CN115713523A (zh) 一种高速公路场景事件监测系统及方法
CN113239948A (zh) 一种面向毫米波雷达与视频图像的数据融合方法及系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220829

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220829

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230712

R150 Certificate of patent or registration of utility model

Ref document number: 7319003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150