JP2022513428A - 知覚を改善するための多重チャネル多重偏光イメージング - Google Patents

知覚を改善するための多重チャネル多重偏光イメージング Download PDF

Info

Publication number
JP2022513428A
JP2022513428A JP2021523384A JP2021523384A JP2022513428A JP 2022513428 A JP2022513428 A JP 2022513428A JP 2021523384 A JP2021523384 A JP 2021523384A JP 2021523384 A JP2021523384 A JP 2021523384A JP 2022513428 A JP2022513428 A JP 2022513428A
Authority
JP
Japan
Prior art keywords
filter
data
image data
pixels
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021523384A
Other languages
English (en)
Inventor
ブリッグス、フォレスト、ザムエル
クレメント、ロマイン
ゾウ、イ
Original Assignee
ウーブン プラネット ノース アメリカ,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウーブン プラネット ノース アメリカ,インコーポレイティド filed Critical ウーブン プラネット ノース アメリカ,インコーポレイティド
Publication of JP2022513428A publication Critical patent/JP2022513428A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • G02B5/3025Polarisers, i.e. arrangements capable of producing a definite output polarisation state from an unpolarised input state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • H04N23/15Image signal generation with circuitry for avoiding or correcting image misregistration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/28Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
    • G02B27/288Filters employing polarising elements, e.g. Lyot or Solc filters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/201Filters in the form of arrays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0092Image segmentation from stereoscopic image signals

Abstract

一実施形態では、方法は、第1のフィルタパターンを有する第1のフィルタアレイを有する第1のイメージセンサによって生成された第1の画像データにアクセスする段階を含む。第1のフィルタパターンは複数の第1のフィルタタイプを含む。方法はまた、第1のフィルタパターンとは異なる第2のフィルタパターンを有する第2のフィルタアレイを有する第2のイメージセンサによって生成された第2の画像データにアクセスする段階を含む。第2のフィルタパターンは複数の第2のフィルタタイプを含み、複数の第2のフィルタタイプおよび複数の第1のフィルタタイプは、少なくとも1つの共通のフィルタタイプを有する。方法はまた、共通のフィルタタイプと関連付けられた第1の画像データの部分に基づいて、第1の画像データの1つまたは複数の第1のピクセルと、第2の画像データの1つまたは複数の第2のピクセルとの間の対応を決定する段階を含む。

Description

光学カメラは、静止画像または映像を取得するように構成されたイメージセンサを含むことがある。一例として、限定ではないが、光学カメラは、電荷結合素子(CCD)イメージセンサまたは相補型金属酸化膜半導体(CMOS)アクティブピクセルイメージセンサを含むことがある。特定の実施形態では、CMOSイメージセンサはフィルタアレイを含むことがある。一般的なフィルタアレイは、光の特定の特徴(例えば、波長または偏光)の情報を取得するように調整されたフィルタのモザイクを有する。
多重スペクトルイメージングは、多くの実際のアプリケーションを改善するのに使用されたことがある。例示の適用例は、自律車両のナビゲーション、ロボット用途、または空中作業台からの森林検査を含んでもよい。一例として、限定ではないが、成功するナビゲーション(例えば、支援式または自律)は、路上にある障害物の適時の検出および認識に依存しているが、フィルタアレイのスペクトル外にある波長のスペクトルを検出することは、困難であって計算集約的であることがある。
一例のフィルタアレイを有するイメージセンサを示す断面図である。
一例の多重チャネルの組み合わせを有するフィルタアレイを含むカメラの概略を示す図である。
自動車用カメラシステムの一例の概略を示す図である。
一例のコスト計算を示す図である。
複合データを生成する一例の方法を示す図である。
輸送管理環境の一例のブロック図である。
コンピューティングシステムの一例を示す図である。
以下の記載で、様々な実施形態について記載する。説明目的で、実施形態の徹底的な理解を提供するために、具体的な構成および詳細について説明する。しかしながら、実施形態はかかる具体的な詳細なしで実施されてもよいことも、当業者には明白となるであろう。更に、記載する実施形態が曖昧にならないようにするため、良く知られている特徴は省略または単純化されることがある。それに加えて、本明細書に開示する実施形態は単なる例であり、本開示の範囲はそれらに限定されない。特定の実施形態は、上記に開示した実施形態の構成要素、要素、特徴、機能、動作、または段階の全てもしくは一部を含むか、あるいはいずれも含まないことがある。本発明による実施形態は、特に、方法、記憶媒体、システム、およびコンピュータプログラム製品を対象とした添付の特許請求の範囲に開示され、1つのクレーム分類、例えば方法において言及される任意の特徴が、別のクレームカテゴリ、例えばシステムにおいて請求される場合もある。添付の特許請求の範囲における従属または後方参照は、形式上の理由でのみ選択される。しかしながら、任意の先行クレームに対する意図的な後方参照(特に、多項従属)の結果による任意の主題も同様に請求することができ、それによってクレームおよびその特徴の任意の組み合わせが開示され、添付の特許請求の範囲において選択される従属にかかわらずそれらを請求することができる。請求することができる主題は、添付の特許請求の範囲に提示されるような特徴の組み合わせだけではなく、特許請求の範囲における特徴の他の任意の組み合わせも備え、特許請求の範囲で言及される各特徴を、特許請求の範囲における他の任意の特徴または他の特徴の組み合わせと組み合わせることができる。更に、本明細書に記載もしくは描写する実施形態および特徴のいずれも、別個のクレームで、ならびに/あるいは本明細書に記載もしくは描写する任意の実施形態または特徴との、あるいは添付の特許請求の範囲の特徴のうち任意のものとの任意の組み合わせで、請求することができる。
光学カメラは、相補型金属酸化膜半導体(CMOS)アクティブピクセルイメージセンサと、フィルタアレイとを含んでもよい。フィルタアレイは、更に詳細に後述するが、入射光の特定の性質に応答する特徴を有するフィルタのモザイクである。一例として、限定ではないが、フィルタアレイは、入射光の特定の波長に応答する特徴の組み合わせを有してもよい。別の例として、フィルタアレイは、特定の偏光(例えば、0°、45°、90°、135°、または任意の適切な偏光)を有する入射光の成分に応答する、フィルタの組み合わせを有してもよい。異なる偏光を使用して取得されるデータは、油がある、濡れた、または凍った路面に共通である、鏡面反射を検出するのに使用されてもよい。これは、例えば、路面摩擦係数を画像から推定するのに使用されてもよい。更に、偏光は、空に対応するピクセルを他のピクセルから区別する助けとして使用されてもよい。深度推定に関する一般的な不良モードは、空が光学カメラから遠く離れていないと予測することによって、空に対する深度予測が不適正になるものである。
一例として、限定ではないが、光学カメラから取得した生データは、個々のフォトサイトの未修正スペクトル情報を格納してもよいが、多くの用途では、画像信号プロセッサ(ISP)を使用して、各フォトサイトに対するフィルタアレイの特徴一式に対応するデータを推論して、フル解像度の画像が生成されてもよい。一例として、限定ではないが、赤フィルタを有するフォトサイトは、主に赤色に対応するスペクトルの波長範囲に対応する入射光の部分に応答するが、ISPは、隣接するフォトサイトからのデータに基づいて、緑色および青色に対応するスペクトルの波長範囲に対応する信号を推定してもよい。別の例として、0°偏光を有するフォトサイトは、主に0°偏光に対応する入射光の部分に応答するが、ISPは、隣接するフォトサイトからのデータに基づいて、90°偏光データに対応する信号を推定してもよい。フィルタの特徴外にある特徴の検出における困難は、これら他の特徴を有する障害物を認識する際のレイテンシにつながることがあり、それがひいては、これらの障害物を回避するための介入の数が増加することにつながることがある。一例として、限定ではないが、オレンジ色(例えば、「セーフティ」オレンジ)に対応するスペクトルは、多くのフィルタアレイで比較的低いスペクトル応答を有することがあり、それによって、更に詳細に後述するように、交通信号の注意信号を検出すること、または建設工事領域(例えば、オレンジの作業コーンもしくはオレンジの機器)を回避することが困難になることがある。
本明細書では、特徴に対する言及は、例えばスペクトル(色)、偏光、または温度など、光と関連付けられた品質を指す。更に、本明細書のフィルタタイプに対する言及は、光と関連付けられた特定の特徴を指す。一例として、限定ではないが、赤色もしくは緑色に対応するスペクトルに対する、または垂直もしくは45°偏光フィルタの偏光に対するフィルタタイプである。複数のカメラのモザイクは、少なくとも1つの他のカメラのモザイクと共通の特徴を有するモザイクにおける、少なくとも1つの対応するフィルタを含んでもよい。一例として、限定ではないが、第1のフィルタアレイは、赤、緑、青、および可視スペクトルのフィルタの組み合わせを有してもよく、第2のフィルタアレイは、赤、オレンジ、緑、および可視スペクトルのフィルタの組み合わせを有してもよい。特定の実施形態では、共通または参照フィルタ素子は、それぞれのフィルタアレイを使用して取得された画像からピクセルの深度を推定するのに使用されてもよい。更に、フィルタアレイの特徴からのデータから干渉または推定された画像情報のスーパーセットが組み合わされて、多重スペクトル多重偏光画像が生成されてもよく、その場合、フィルタアレイの各特徴はデータのチャネルに寄与してもよい。更に詳細に後述する実施形態は、多重スペクトル多重偏光画像のデータを使用して、画像の中から対象物または1つもしくは複数の対象物を決定してもよい。
特定のフィルタの一次応答外にある入射光の特徴は、更に詳細に後述するように、センサの関連するフォトサイトにおける応答の低減を誘発する。複数のカメラからの1つまたは複数のフォトサイトの深度情報を決定することによって、特に特徴なしの領域(例えば、空白の壁)を含むシーンに関して、コスト集約計算に基づいてカメラ間でのステレオマッチングを決定するのに使用されてもよい。換言すれば、1つのイメージセンサにおける特定のフォトサイトの深度、および別のイメージセンサにおける対応するフォトサイト位置が、同じシーンを取得している対応するフォトサイト間における空間オフセットの量を推定するのに使用されてもよい。同じシーンを取得する異なるイメージセンサにおけるフォトサイト間の対応を決定することによって、多様なフィルタアレイを使用して取得されたデータを含む多重スペクトル多重偏光画像が、対象物検出、対象物分類、または画像セグメント化のために生成されてもよい。
本明細書に記載する実施形態は、多重スペクトルデータを提供し、従来は既存のイメージセンサを使用して識別するのが困難である、特定の波長を決定することによって、様々なプラットフォーム、システム、または方法、特に周囲環境の正確な特性付けおよび知覚が重要であるものに有益であってもよい。一例として、限定ではないが、本明細書に記載する実施形態を使用して生成される多重スペクトル画像は、車両(例えば、自律、半自律、または従来のマニュアル車両)が(例えば、コンピュータビジョン技術を使用して)その周囲環境を理解し、情報に基づいて適宜判断する能力を改善してもよい(例えば、改善されたナビゲーションおよび運転上の判断、危険回避、緊急応答、特定の色の交通標識に対する応答など)。同様に、有人または無人航空機(UAV)の操縦者は、コンピュータ支援の基になる基礎的データの改善および強化により、改善されたコンピュータ支援を用いて飛行しナビゲートすることができてもよい。例えば、UAVは、障害物(例えば、木、建物、および鳥)ならびに非障害物(例えば、雲)としての対象物を検出し分類する能力において、改善された信頼度でナビゲートすることができてもよい。別の例として、ロボットハンドリングシステムは、ロボットのビジョンシステムが、対象物の固有の色、多重スペクトル、および/または多重偏光シグネチャに基づいて、一括して様々な対象物を認識することができる場合、より効率的に働いてもよい。別の例として、自動収穫(例えば、果物)は、知覚しづらい色(例えば、オレンジ、紫、ピンクなど)を有する農産物を検出および認識できることによって、改善されてもよい。組立ラインにおける部品の欠陥の自動検出は、視覚画像だけを使用して検出するのは難しいことがある欠陥を、多重スペクトル多重偏光シグネチャが検出するのを利用して利益を得てもよい。
図1は、一例のフィルタアレイを有するイメージセンサの断面を示している。一例として、限定ではないが、光学カメラは、静止画像または映像を取得するように構成されたイメージセンサ102を使用する。光学カメラは、CCDまたはCMOSアクティブピクセルイメージセンサを含んでもよい。光学カメラは、道路、車線区分線、道路標識、交通信号、車両、人、動物、または外部環境に存在する他の目に見える関心対象物を認識するのに使用されてもよい。イメージセンサ102は、入射光の量に比例する信号をそれぞれ生成するフォトサイト(例えば、フォトダイオード、伝達ゲート、浮遊拡散、または任意の好適な感光素子)のアレイを含む。図1の例に示されるように、イメージセンサ102は、イメージセンサ102の上面の上に位置するフィルタアレイ104を含んでもよい。特定の実施形態では、フィルタアレイ104はマイクロレンズアレイ(図示なし)の下方にあってもよい。図1の例に示されるように、2×2のフィルタアレイ104は、特定のフィルタタイプ(例えば、特定の波長範囲もしくは偏光タイプ)をそれぞれ有する、特徴のパターンまたはモザイク(例えば、特定の波長範囲の光を通過させる波長フィルタ、もしくは特定の偏光の光を通過させる偏光子)を形成する、領域106A~Dを含んでもよい。チャネルは、その特定の波長における光の強度のデータ、面法線および深度を計算するための異なる偏光のデータ、または画像内の対象物の位置に基づいてピクセルの速度を計算するためのデータを提供してもよい。更に、各領域106A~Dは、例えば、特定の波長フィルタおよび特定の偏光フィルタなど、複数のフィルタタイプを含んでもよい。各領域106A~Dは、イメージセンサ102の特定のフォトサイトに対応してもよい。図1の例に示されるように、領域106Aは、更に詳細に後述するように、多様なフィルタタイプを有するフィルタのパターンを形成する、領域106A~Dの2×2のサブセットを含んでもよい。本開示は、特定の寸法のパターンを有するフィルタを記載し例証しているが、本開示は、例えば4×4、132×132、または1080×1080など、任意の好適な寸法を有するパターンを考慮する。
図2は、一例のフィルタタイプの組み合わせを有するフィルタアレイを有するカメラの概略図を示している。シーンは、視野(FOV)または視錐台が重なり合う複数の光学カメラ(例えば、カメラ1およびカメラ2)を使用して、三次元(3D)で再構築されてもよい。ステレオ再構築は、視錐台が重なり合ったカメラから導き出される情報に基づいて得られる、深度および3D構造の知覚である。光学カメラは異なる横方向位置に位置するので、両眼視差により、2つの異なる視線に沿って見た対象物の見かけの位置には知覚される変位または差がある。変位は、脳の視覚皮質で処理されて深度知覚をもたらす。短縮遠近法により、異なる位置から観察したとき、近くの対象物は遠くの対象物よりも大きい視差を示すので、視差は距離を決定するのに使用することができる。
一例として、限定ではないが、カメラシステム200は、少なくとも部分的に重なり合う視錐台を有する複数(例えば、2つ以上)の光学カメラを含んでもよい。別の例として、車両の光学カメラは、3D視覚データを取得するため、所定数(例えば、6つ)の対として組織化されてもよい。特定の実施形態では、外部環境の3D再構築は、複数(例えば、2つ以上)の光学カメラの多重スペクトル多重偏光データからの画像データを使用して実施されてもよい。図2の例に示されるように、カメラシステム200は、FOVまたは視錐台の少なくとも部分的な重なりを有する複数のカメラ、カメラ1およびカメラ2を含んでもよい。一例として、限定ではないが、3D再構築は、各カメラ(カメラ1およびカメラ2)の複数チャネルデータストリームからの画像を使用して実施されてもよく、チャネルの数は、フィルタアレイ104Aおよび104Bのフィルタタイプの数に対応してもよい。図2の例に示されるように、ステレオカメラシステム200は更に、多様なフィルタタイプの組み合わせを有するフィルタアレイ104Aおよび104Bを使用して得られるチャネルを使用して、3D多重スペクトル多重偏光画像を再構築するためのデータを生成するように構成された、更に詳細に後述する、画像信号プロセッサ(ISP)204を含んでもよい。
各光学カメラ(例えば、カメラ1)は、イメージセンサと、入ってくる光をイメージセンサの焦点領域上に集光し合焦させる、レンズまたはレンズアセンブリとを含んでもよい。一例として、限定ではないが、光学カメラ(カメラ1およびカメラ2)は、光をイメージセンサ上に合焦させるのに、魚眼レンズ、超広角レンズ、広角レンズ、または標準レンズを含んでもよい。本開示は、特定のイメージセンサおよびフィルタアレイを有する特定の光学カメラを記載し例証しているが、本開示は、任意の好適な特徴を有する任意の好適なイメージセンサおよびフィルタアレイを有する、任意の好適な光学カメラを考慮する。
更に詳細に上述したように、カメラ1のイメージセンサは、フィルタタイプの特定の組み合わせを有するフィルタアレイ104Aを含んでもよい。特定の実施形態では、フィルタアレイ104Aは、フィルタアレイ104Bのフィルタタイプの組み合わせとは異なる、フィルタタイプの組み合わせを有してもよい。一例として、限定ではないが、フィルタアレイ104Aは、図2の例に示されるように、フィルタアレイ104Bのスペクトルの組み合わせとは異なるスペクトルの組み合わせを有してもよい。特定の実施形態では、フィルタアレイ104Aおよび104Bは、波長1、波長2、波長3、または波長4に対するフィルタを含んでもよいフィルタタイプの組み合わせを含む、N×N(Nは2以上)の領域のサブセットのパターンを含んでもよい。特定の実施形態では、フィルタアレイ104Aおよび104Bは、偏光1、偏光2、偏光3、または偏光4に対する偏光フィルタの組み合わせを含んでもよいフィルタタイプの組み合わせを含む、N×N個(Nは2以上)の領域のサブセットのパターンを含んでもよい。一例として、限定ではないが、偏光1、偏光2、偏光3、および偏光4はそれぞれ、0°、45°、90°、および135°に対応してもよい。更に、フィルタアレイ104Aおよび104Bは、波長フィルタおよび偏光フィルタの任意の好適な組み合わせを含んでもよい。
特定の実施形態では、フィルタアレイ104Aおよび104Bは、フィルタアレイ104Aおよび104Bの間で異なるモザイク内の空間位置を有する、参照フィルタタイプを含んでもよい。この場合、MLアルゴリズムは既知の位置オフセットを相殺してもよい。特定の実施形態では、フィルタアレイ104Aおよび104Bは、図2の例に示されるように、両方のフィルタアレイ104Aおよび104Bに共通であるモザイク内の空間位置を有する、参照フィルタタイプを含んでもよい。一例として、限定ではないが、2×2のパターンまたはモザイクの場合、104Aおよび104Bのモザイクの左下は、「透明」または可視スペクトルのフィルタを参照フィルタタイプとして含んでもよい。更に詳細に後述するように、可視スペクトルフィルタに対応するフォトサイトからのデータは、重なり合う視錐台を有する2つ以上のカメラ(例えば、カメラ1およびカメラ2)におけるピクセル間の対応を確立し、フィルタアレイ104Aおよび104Bのフィルタタイプの複合データを含む、多重スペクトル多重偏光画像を生成するのに使用されてもよい。本開示は、特定の参照または共通フィルタタイプを有するフィルタアレイを記載し例証しているが、本開示は、例えば、特定の色もしくは偏光など、任意の好適な参照または共通フィルタタイプを考慮する。
特定の実施形態では、カメラ1のイメージセンサはフィルタアレイ104Aを含んでもよい。フィルタアレイ104Aまたは104BのN×Nのパターンは、色フィルタタイプ、偏光フィルタタイプ、またはそれらの任意の組み合わせを含んでもよい。一例として、限定ではないが、フィルタアレイ104Aは、赤、垂直偏光、青、および可視スペクトルフィルタを含むフィルタタイプの組み合わせを有してもよく、フィルタアレイ104Bは、水平偏光、45°偏光、オレンジ、および可視スペクトルフィルタを含むフィルタタイプの組み合わせを有してもよい。特定の実施形態では、カメラ1およびカメラ2の異なるフィルタの組み合わせを使用して取得される画像が、多重スペクトル多重偏光画像を再構築するのに使用されてもよい。多重スペクトル多重偏光画像は、複数(例えば、3から16)のフィルタタイプまたはチャネルからの複合データを使用して構築されてもよい。特定の実施形態では、深度マップは、更に詳細に後述するように、異なるフィルタタイプの組み合わせを有するフィルタアレイ(例えば、104Aおよび104B)を有するカメラ1およびカメラ2からの複合データを使用して、多重スペクトル画像を再構築するのに使用されてもよい。本開示は、特定のフィルタタイプの組み合わせを有するフィルタアレイを記載し例証しているが、本開示は、フィルタタイプおよび特徴の任意の好適な組み合わせを有する任意の好適なフィルタアレイを考慮する。
図3は、カメラシステムの一例の概略図を示している。図3の例に示されるように、各光学カメラ(例えば、カメラ1およびカメラ2)は、それぞれの同軸ケーブルを介した電源供給(PoC)のシリアルリンク304を通して、カメラインターフェース基板(CIB)302に接続されてもよい。特定の実施形態では、CIB 302は、車両内または車両外(例えば、屋根)でセンサアレイ内に搭載されてもよい。更に、CIB 302は、そのシリアルリンク(例えば、304)に接続された、それぞれの光学カメラ(例えば、カメラ1)に送信される電力、ならびにタイミングおよび制御(例えば、IC)データと、それぞれの光学カメラ(例えば、カメラ1)から受信される画像/映像データ(例えば、MIPI)とを多重化してもよい。CIB 302に結合されたタイミングシステム306は、それぞれのシリアルリンク304を通して、同期(シンク)パルスをカメラ1およびカメラ2に提供する。更に、タイミングシステム306は、メインコンピュータ308に結合され、重なり合う視錐台を有する光学カメラによって取得されるデータのタイムスタンプ情報を提供する。特定の実施形態では、外界とのインターフェースのメインコンピュータ308が、車両の機能全体を制御する。本開示は、構成要素の特定の構成を有する特定のカメラシステムを記載し例証しているが、本開示は、構成要素の任意の好適な構成を有する任意の好適なカメラシステムを考慮する。
特定の実施形態では、CIB 302は、イメージセンサからのデータを処理して、フィルタタイプの多様な組み合わせからのデータを組み合わせる複合データを生成するように構成された、更に詳細に上述したISPを含んでもよい。特定の実施形態では、関心の特徴またはフィルタタイプをフィルタアレイのモザイクに含めることによって、ISPを使用せずに対象物を検出することを可能にしてもよい。一例として、限定ではないが、機械学習(ML)アルゴリズムは、関心色(例えば、オレンジ)を有する対象物を検出し、これらの対象物を含有する画像の部分のみを処理することができてもよい。更に、関心色を有する対象物は、フォトサイトからのデータを使用して、これらのフォトサイトからのデータ(例えば、強度に比例する信号)の値が所定の閾値よりも大きいことに基づいて検出されてもよい。
ISPは、各フォトサイトに存在しない特徴またはフィルタタイプに対応するデータを外挿するように構成されてもよい。例えば、ISPは、隣接するフォトサイトからのデータに基づいて、赤色、青色、および緑色に対応する波長フィルタを有するフォトサイトに対して、データを内挿してもよい。更に、複数のカメラによって取得される各画像のピクセルに対して、ISPは、更に詳細に後述するように、各々の画像で利用可能なチャネルの全てに対応するデータを組み合わせて、一連の複合データまたは特徴マップにするように構成されてもよい。
図4は、一例のコスト計算を示している。特定の実施形態では、メインコンピュータまたは他のコンピューティングシステムは、多様なフィルタアレイからの複合データに基づいて、直接測定できない特性に対する値を導き出してもよい。一例として、限定ではないが、コンピューティングシステムは、異なる偏光フィルタタイプを有するフィルタアレイからのデータに基づいて、各ピクセルの面法線を推定するように構成されてもよい。更に、コンピューティングシステムは、ピクセルの深度、ピクセルと関連付けられた速度を推定するか、またはオクルージョンマスクを推定してもよい。特定のシーンに対するオクルージョンマスクは、シーンにおける特定のピクセルが、シーンの少なくとも一部を取得する他の光学カメラの画像において可視であるか否かの情報を提供する。
深度マップは、視野(FOV)内の対象物の表面に対応する、各ピクセルの距離に関連する情報を含有する、画像または画像チャネルである。特定の実施形態では、深度情報は、画像に対するコストボリュームを計算することによって決定されてもよい。コストボリュームは、各々のピクセルにおけるコストの値を有する、3D(例えば、x、y、および視差ΔX)ルックアップテーブルである。コストボリュームは、x、y、および視差(ΔX)の関数である、単一の画像に対するコストの計算である。コスト(x、y、ΔX)はまた、第1の画像のx、yにおけるピクセルが他のいくつかの画像のピクセルとどの程度良好に一致するかの指標であってもよい(他の画像で比較するピクセルまたはピクセルのパッチの位置は、視差の関数である)。コストは、ピクセルのデータ(例えば、強度)に基づいて計算されてもよい。特定の実施形態では、視差の各値に対するコストは、ピクセルデータの絶対差の合計として計算されてもよい。特定の実施形態では、可視スペクトルピクセルからのデータは、フィルタアレイのフィルタ処理によって影響を受けないので、コストボリュームは、これらのピクセルに対応するイメージセンサのフォトサイトによって取得されるデータに基づいて計算されてもよい。特定の実施形態では、各ピクセルに対する特定の視差値を選択する、コスト集約が実施される。図4の例に示されるように、コスト402は視差ΔXの関数として計算されてもよい。特定の実施形態では、視差ΔXの「適正」値は、最低コスト404のΔX値であってもよい。いくつかの例では、ほぼ同じコスト402を有する視差ΔXのいくつかの値がある。特定の実施形態では、視差ΔXの最良値は、コストボリュームがピクセル類似度に対するコストを最小限に抑えるように、各々のピクセルにおける視差ΔXの値を求めるより大きいシステムに、コストボリュームを組み込むことによって決定されてもよく、特定の実施形態では、解の全体的な滑らかさを測定する他のコスト項を含んでもよい。換言すれば、滑らかな3D表面の場合、隣接するピクセルの視差ΔXが類似していることが予期される。
Δxの値を決定することで、シーンを取得し、外部環境の多視点ステレオ再構築に使用される、画像中のピクセル間の空間的対応の情報が提供される。特定の実施形態では、深度情報は、対応する画像におけるピクセル間の空間的相関を決定するのに使用されてもよく、異なるフィルタアレイまたはカメラ(例えば、2つ以上)によって取得される特徴に対する値は、フル解像度の多重スペクトル多重偏光画像の各ピクセルに割り当てられてもよい。換言すれば、第1のイメージセンサで特定のフォトサイトによって取得される赤の値、および第2のイメージセンサで特定の偏光を有する対応するフォトサイトによって取得される強度値が、多重スペクトル多重偏光画像のピクセルに割り当てられてもよい。一例として、限定ではないが、ハーフ解像度画像は、フィルタアレイのN×Nのモザイクからのデータを組み合わせて単一のピクセルにすることによって生成されてもよく、その場合、単一のピクセルは、N×Nのモザイクの特徴全てからのデータを含む。一例として、限定ではないが、第1のカメラのフィルタアレイの特徴は、可視スペクトル、赤、青、およびオレンジの、N×Nのスペクトルの組み合わせを含んでもよい。第2のカメラは、可視スペクトル、赤、青、および緑に対応する特徴のN×Nのモザイクを含むフィルタアレイを有してもよい。深度が両方の画像で推定されると、可視スペクトル、赤、青、緑、およびオレンジのフィルタタイプに対して取得されたデータを有する、ピクセルを含むハーフ解像度画像が生成されてもよい。
特定の実施形態では、シーンの第1の画像におけるピクセルの深度が推定された後、ISPまたはMLアルゴリズムは、対応するピクセルが第2の画像に現れる位置を決定することができ、または第2のカメラがオクルージョンマスクに基づいてピクセルを取得できないと決定することができる。換言すれば、深度の推定は、対応するピクセルからのデータの内挿、またはデモザイクを支援する。本開示は、特定の特徴の組み合わせを有するフィルタアレイを記載し例証しているが、本開示は、例えば色、偏光、またはIR(熱)など、特徴の任意の好適な組み合わせを有する任意の好適なフィルタアレイを考慮する。これらの特徴は、シーンの深度マップを計算する情報を提供してもよく、マップは次に、データのデモザイク、または特定のピクセルによって直接測定されない特徴の内挿を実施するのに使用されてもよい。
特定の実施形態では、異なる偏光を使用してフィルタ処理される入射光からのデータを同時に取得することで、より正確な3D再構築が可能になる。一例として、限定ではないが、異なる偏光を有するデータの解析によって、面法線推定が改善されることがあるが、純粋に物理学に基づくモデルには曖昧さが残り、それはMLアルゴリズムを使用して解決することができる。各偏光タイプ(例えば、垂直または45°)からの画像データは異なる情報を提供し、それは次に、面法線を決定するのに使用されてもよい。特定の実施形態では、生の偏光データをMLアルゴリズムに直接適用して、面法線が抽出され、深度マッピングが改善されてもよい。異なる偏光を通して画像データを獲得することで、光学カメラの視錐台における特徴なしの対象物を検出する助けとなる、より正確な深度マッピングが可能になる。複数のカメラからのデータを3D再構築する場合、第1の光学カメラの視錐台における特定の位置と、他の光学カメラの視錐台における対応する位置との識別は、特に、特徴がない対象物上の位置を識別するのを支援する目立った特徴が不足している、特徴がない対象物(例えば、白い壁)の場合、困難なことがある。異なる偏光を有するフィルタを通して取得される画像データは、3D環境を再構築するための制約条件として使用する、面法線の推定値を得るのに使用されてもよい。
特定の実施形態では、偏光フィルタは、1つまたは複数の光学カメラのフィルタアレイと統合されてもよい。一例として、限定ではないが、フィルタのN×Nの各サブセット内にある各フィルタは、異なる偏光を有してもよい。一例として、限定ではないが、第1のフィルタタイプは垂直偏光または90°であってもよく、第2のフィルタタイプは水平偏光または0°であってもよく、第3のフィルタタイプは45°偏光であってもよい。偏光されたフィルタを使用することで、異なる偏光を使用してフィルタ処理された入射光からデータを同時に獲得することが可能になってもよく、これは、シーン内の対象物が移動している場合に映像またはシーンを取得するのに有用である。対照的に、多重偏光データは、連続画像の間で回転させられる、調節可能な偏光フィルタを有する単一のカメラによって取得されてもよいが、この場合、映像を取得することは不可能である。各偏光タイプ(例えば、垂直、水平、または45°)からの画像データは異なる情報を提供し、それは面法線を決定するのに使用されてもよい。特定の実施形態では、面法線は、異なる偏光フィルタタイプからのデータを使用して推定されてもよい。面法線は、深度の推定を改良して、更に詳細に上述した、深度マップを生成するのに使用されてもよく、または対象物検出のためのMLアルゴリズムへの入力として使用されてもよい。
テンソルは、テンソルのインデックスの数に対応する、関連するランクを有する。例えば、ランク0のテンソルはスカラーであり、ランク1のテンソルはベクトルであり、ランク2のテンソルは2Dアレイである。特定の実施形態では、ISPは、空間座標(例えば、xおよびy座標)と、データの1つまたは複数のチャネルとを含むテンソルを生成してもよく、チャネルに対応する第3のインデックスCは複数の値を有してもよい。一例として、限定ではないが、C=0は赤に対応してもよく、C=1は緑に対応してもよく、C=2は青に対応してもよく、C=3は深度に対応してもよく、またはC=4は面法線のx成分に対応してもよい。特定の実施形態では、MLアルゴリズムは、複合データを有するテンソルに対して畳み込みを実施し、追加の特徴または特徴マップを含む新しいテンソルを生成してもよい。畳み込みは、1つの形状またはランクを有するテンソルを入力として取ってもよく、一般的に、ランクは同じであるが形状または充填指数の数が異なるテンソルを出力する。一例として、限定ではないが、畳み込み後、テンソルは、赤、緑、青、他の関心色、IR、偏光、法線、深度、速度、または他の好適な特徴に対応するデータを含んでもよい。車両の外部環境にある対象物は移動中であってもよく、シーン内にあるこれらの対象物の深度および速度の決定は、シーンフローと呼ばれる。シーンの完全な低レベル知覚には、光学カメラからの距離に加えて、シーン内における対象物の移動速度および方向を決定する必要がある。
特定の実施形態では、MLアルゴリズムは、テンソルを受信し、対象物検出、対象物分類、またはセマンティックセグメンテーションのため、連続してまたは同時にいくつかの動作を実行してもよい。特定の実施形態では、フィルタアレイの特徴を用いてISPによって生成されるテンソルは、ピクセルまたはピクセル群がシーンにおける対象物の特定のクラス(例えば、車もしくは木)に対応するという予測である、対象物分類に使用されてもよい。一例として、限定ではないが、ISPは、真/偽どちらかの値(例えば、0もしくは1)を含むインデックス、またはピクセル群が対象物の特定のクラスに対応する確率を有する、テンソルを生成してもよい。一例として、限定ではないが、テンソルは、特定のピクセルが車であるか、特定のピクセルが道路に対応するか、または特定のピクセルが木に対応する確率を含んでもよい。特定の実施形態では、複合データを有するテンソルはまた、シーン内の対象物のクラスだけではなく、それらのクラスの空間位置に関する追加情報も提供する、局所化/検出を実施するのに使用されてもよい。特定の実施形態では、複合データを有するテンソルはまた、各ピクセルにそれが包含する対象物または領域の特定のクラスをラベル付けすることができるように、各々のピクセルに対するラベルを推論する、セマンティックセグメンテーションに使用されてもよい。セマンティックセグメンテーションはピクセルレベルで画像を理解している。換言すれば、セマンティックセグメンテーションは、画像の各ピクセルを特定の対象物クラス(例えば、花、人、道路、空、海、または車)に割り当てる。特定の実施形態では、この時点で追加データを有する畳み込みから出力されたテンソルは、畳み込みネットワークの別のレベルへの入力として使用されてもよい。この畳み込みネットワークの次のレベルは、この時点で画像の追加のチャネルを有し、それを用いて、例えば画像全体に関する判断を行う、または各ピクセルのベクトル確率を決定するなど、特定の機能を実施する。
図5は、複合データを生成する一例の方法を示している。方法500は、段階510で始まってもよく、コンピューティングシステムは、第1のフィルタパターンを有する第1のフィルタアレイを有する第1のイメージセンサによって生成された、第1の画像データにアクセスしてもよい。特定の実施形態では、第1のフィルタパターンは複数の第1のフィルタタイプを含む。一例として、限定ではないが、第1のフィルタタイプは、特定の波長または偏光に対応するフィルタを含んでもよい。特定の実施形態では、第1のフィルタタイプの第1のサブセットは特定の波長のフィルタを含んでもよく、第1のフィルタタイプの第2のサブセットは特定の偏光のフィルタを含んでもよい。段階520で、コンピューティングシステムは、第1のフィルタパターンとは異なる第2のフィルタパターンを有する第2のフィルタアレイを有する第2のイメージセンサによって生成された、第2の画像データにアクセスしてもよい。特定の実施形態では、第2のフィルタパターンは複数の第2のフィルタタイプを含む。更に、第2のフィルタタイプおよび第1のフィルタタイプは、少なくとも1つの共通のフィルタタイプを有する。一例として、限定ではないが、第1および第2のフィルタタイプの両方に共通のフィルタタイプは、透明フィルタであってもよい。段階530で、コンピューティングシステムは、共通のフィルタタイプと関連付けられた第1の画像データの部分、および共通のフィルタタイプと関連付けられた第2の画像データの部分に基づいて、第1の画像データの1つまたは複数の第1のピクセルと第2の画像データの1つまたは複数の第2のピクセルとの間の対応を決定してもよい。更に詳細に上述したように、対応は、第1の画像データと複数の(例えば、2つを超える)画像の画像データとの間で決定されてもよい。
段階535で、コンピューティングシステムは、共通のフィルタタイプのデータに基づいて、第1の画像データの1つまたは複数のピクセルおよび第2の画像データの1つまたは複数のピクセルの深度情報を計算してもよい。特定の実施形態では、深度情報は、第1のフィルタパターンおよび第2のフィルタパターンに共通である透明フィルタの強度を使用して計算される。段階545で、コンピューティングシステムは、共通のフィルタタイプと関連付けられた第1の画像データの部分、および共通のフィルタタイプと関連付けられた第2の画像データの部分に基づいて、第1の画像データのピクセルと第2の画像データの対応するピクセルとの間の空間オフセットを決定してもよい。特定の実施形態では、空間オフセットは、空間オフセットの異なる値と関連付けられたコストに基づいて決定される。
段階550で、コンピューティングシステムは、対応に基づいて、第1の画像データおよび第2の画像データを使用して複合データを生成してもよい。特定の実施形態では、複合データは、多数の第1のフィルタタイプのうち1つもしくは複数と関連付けられた第1のデータと、多数の第2のフィルタタイプのうち1つもしくは複数と関連付けられた第2のデータとをそれぞれ含む、1つまたは複数の第3のピクセルを含む。更に詳細に上述したように、複合データは、第1の画像データおよび複数の画像の画像データから生成されてもよい。段階555で、コンピューティングシステムは、第3のピクセルの位置情報および複合データを備えるテンソルを生成してもよい。段階565で、コンピューティングシステムは、テンソルの複合データに基づいて、1つまたは複数の関心対象物を識別してもよい。
特定の実施形態は、適切な場合、図5の方法の1つまたは複数の段階を繰り返してもよい。本開示は、特定の順序で起こるものとして図5の方法の特定の段階を記載し例証しているが、本開示は、任意の好適な順序で起こる図5の方法の任意の好適な段階を考慮する。更に、本開示は、図5の方法の特定の段階を含む、複合データを生成する一例の方法を記載し例証しているが、本開示は、適切な場合、図5の方法の段階の全てもしくはいくつかを含んでもよい、またはいずれも含まなくてもよい任意の好適な段階を含む、複合データを生成する任意の好適な方法を考慮する。更に、本開示は、図5の方法の特定の段階を実施する特定の構成要素、デバイス、またはシステムを記載し例証しているが、本開示は、図5の方法の任意の好適な段階を実施する、任意の好適な構成要素、デバイス、またはシステムの任意の好適な組み合わせを考慮する。
本明細書に記載する実施形態は、様々な文脈で適用可能であり、輸送車両(自律、マニュアル、または半自律運転)で使用される撮像および知覚システム、ロボットシステム、ならびに/あるいは周囲環境の正確な特性付けおよび知覚を利用する任意の好適な用途など、画像から導き出される情報を利用する任意のシステムまたは方法に有益であり得る。一例として、限定ではないが、図6は、多重スペクトル多重偏光イメージングシステムを使用してもよい、輸送管理環境の一例のブロック図を示している。図6に示される例は、車両の観点で(例えば、自動運転、ナビゲーション補助、または危険検出機構に関して)、開示される実施形態を使用しているが、本明細書に記載する実施形態は、航空機、ドローン、ロボット、交通監視システム、人検出システム、マッピングもしくは3D再構築システム、またはコンピュータビジョンを使用するもしくは画像から導き出される情報を利用する他の任意の好適なシステムなど、他の観点あるいはプラットフォームで使用することもできることが、理解されるべきである。特定の実施形態では、環境は、ユーザ601(例えば、乗車提供側もしくは要求側)のユーザコンピューティングデバイス630、輸送管理システム660、自律車両640、および1つまたは複数の第三者システム670など、様々なコンピューティングエンティティを含んでもよい。コンピューティングエンティティは、任意の好適なネットワーク610を通じて通信接続されてもよい。一例として、限定ではないが、ネットワーク610の1つまたは複数の部分は、アドホックネットワーク、エクストラネット、仮想私設ネットワーク(VPN)、ローカルエリアネットワーク(LAN)、無線LAN(WLAN)、広域ネットワーク(WAN)、無線WAN(WWAN)、メトロポリタンエリアネットワーク(MAN)、インターネットの一部分、公衆交換電話網(PSTN)の一部分、セルラーネットワーク、または上記の任意の組み合わせを含んでもよい。特定の実施形態では、コンピューティングエンティティが互いに通信できるようにする、任意の好適なネットワーク構成およびプロトコルが使用されてもよい。図6は、単一のユーザデバイス630、単一の輸送管理システム660、車両640、複数の第三者システム670、および単一のネットワーク610を示しているが、本開示は、任意の好適な数のこれらのエンティティそれぞれを考慮する。一例として、限定ではないが、ネットワーク環境は、複数のユーザ601、ユーザデバイス630、輸送管理システム660、自律車両640、第三者システム670、およびネットワーク610を含んでもよい。
特定の実施形態では、輸送管理システム660は、1つまたは複数のサーバコンピュータを含んでもよい。各サーバは、単一のサーバ、または複数のコンピュータもしくは複数のデータセンタにまたがる分散型サーバであってもよい。サーバは、例えば、非限定的に、ウェブサーバ、ニュースサーバ、メールサーバ、メッセージサーバ、広告サーバ、ファイルサーバ、アプリケーションサーバ、交換サーバ、データベースサーバ、プロキシサーバ、本明細書に記載する機能もしくはプロセスを実施するのに適した別のサーバ、またはそれらの任意の組み合わせなど、様々なタイプのものであってもよい。特定の実施形態では、各サーバは、ハードウェア、ソフトウェア、あるいはサーバによって実装または支援される適切な機能性を実施する、組込み論理構成要素または2つ以上のかかる構成要素の組み合わせを含んでもよい。特定の実施形態では、輸送管理システム660は、1つまたは複数のデータストアを含んでもよい。特定の実施形態では、データストアに格納された情報は、特定のデータ構造にしたがって組織化されてもよい。特定の実施形態では、各データストアは、関係、カラム型、相関、または他の任意の好適なタイプのデータベースシステムであってもよい。本開示は、特定のタイプのデータベースを記載または例証しているが、本開示は、任意の好適なタイプのデータベースを考慮する。
特定の実施形態では、車両640は、自律車両であって、センサのアレイ644と、ナビゲーションシステム646と、乗車サービスコンピューティングデバイス648とを具備してもよい。特定の実施形態では、一団の自律車両640が輸送管理システム660によって管理されてもよい。一団の自律車両640は、全体または一部が、輸送管理システム660と関連付けられたエンティティによって所有されてもよく、または輸送管理システム660に関連する第三者エンティティによって所有されてもよい。いずれの場合も、輸送管理システム660は、例えば、乗車要求を満たすように選択車両640を派遣すること、車両640に指示して選択動作(例えば、サービスセンターもしくは充電/給油ステーションに向かう、停車する、直ちに停止する、自己診断する、車室をロック/ロック解除する、音楽ラジオ局を変更する、温度を変更する、および他の任意の好適な動作)を実施させること、車両640に指示して選択動作モード(例えば、通常の動作、低速で走行、人間のオペレータの命令で走行、および他の任意の好適な動作モード)を入力させることを含む、自律車両640の動作を制御してもよい。
特定の実施形態では、車両640は、輸送管理システム660および第三者システム670からデータを受信し、またそれらにデータを送信してもよい。受信データの例としては、例えば、命令、新しいソフトウェアもしくはソフトウェア更新、マップ、3Dモデル、訓練済みもしくは訓練されていない機械学習モデル、位置情報(例えば、乗車要求側、自律車両640自体、他の自律車両640、およびサービスセンターなどの目的地の位置)、ナビゲーション情報、交通情報、気象情報、娯楽コンテンツ(例えば、音楽、ビデオ、およびニュース)、乗車要求側情報、乗車情報、ならびに他の任意の好適な情報を挙げることができる。自律車両640から送信されるデータの例としては、例えば、遠隔測定およびセンサデータ、かかるデータに基づいた決定/判定、車両条件または状態(例えば、電池/燃料レベル、タイヤおよびブレーキ条件、センサ条件、速度、走行距離計など)、位置、ナビゲーションデータ、乗客の入力(例えば、車両640のユーザインターフェースを通して、乗客は、輸送管理システム660および/または第三者システム670にデータを送受信してもよい)、ならびに他の任意の好適なデータを挙げることができる。
特定の実施形態では、自律車両640は、センサ/遠隔測定データを得て処理してもよい。かかるデータは、任意の好適なセンサによって取得されてもよい。例えば、車両640は、360°回転して、パルスレーザー光を放射し、車両640周囲の対象物からの反射光を測定するように構成された、複数のLiDAR送受信機のLiDARセンサアレイを有してもよい。特定の実施形態では、LiDAR送信信号は、光回折の原理を使用して光線を方向付けるMEMデバイスであってもよい、ゲーテッドライトバルブ(gated light valve)を用いて誘導されてもよい。かかるデバイスは、自律車両の周囲360°で光線を誘導するのにジンバル式ミラーを使用しないことがある。それよりもむしろ、ゲーテッドライトバルブは、光線を自律車両の周囲における多数の離散的な位置へと方向付けることができるように配置されてもよい、複数の光ファイバのうち1つへと光線を方向付けてもよい。それにより、自律車両の周囲360°でデータが取得されてもよいが、回転部品は不要であってもよい。LiDARは、標的までの距離を測定するのに有効なセンサであり、そのため、自律車両640の外部環境の三次元(3D)モデルを生成するのに使用されてもよい。一例として、限定ではないが、3Dモデルは、センサ配置の最大範囲(例えば、50、100、または200メートル)以内の他の車、縁石、岩屑、物体、および歩行者などの対象物を含む外部環境を表してもよい。別の例として、自律車両640は、異なる方向を指す光学カメラを有してもよい。カメラは、例えば、道路、車線区分線、道路標識、交通信号、警察、他の車両、および他の任意の目に見える関心対象物を認識するのに使用されてもよい。車両640が夜間に「見る」ことができるようにするため、赤外線カメラが据え付けられてもよい。特定の実施形態では、車両は、例えば、路上の歩行者または木の枝などの危険を見分ける、ステレオ視を具備してもよい。別の例として、車両640は、例えば、遠くの他の車両および/または危険を検出する、レーダーを有してもよい。更に、車両640は、例えば、駐車および障害物検出のための、超音波機器を有してもよい。車両640が、周囲の外部世界を検出、測定、および理解できるようにするセンサに加えて、車両640は更に、車両自体の状態および条件を検出し自己診断するためのセンサを具備してもよい。例えば、車両640は、例えば速度を測定するホイールセンサ、例えば車両の現在の地理位置を決定する全地球測位システム(GPS)、ならびに/あるいは移動もしくは運動検出のための慣性測定ユニット、加速度計、ジャイロスコープ、および/または走行距離計システムを有してもよい。これらのセンサの記載は有用性の特定の例を提供するが、当業者であれば、センサの有用性はそれらの例に限定されないことを認識するであろう。更に、有用性の一例は特定のタイプのセンサに関して記載されることがあるが、有用性は、センサの任意の組み合わせを使用して達成されてもよいことが認識されるべきである。例えば、自律車両640は、輸送管理システム660または第三者システム670から得られる予め生成されたマップとともに、自身のLiDAR、レーダー、ソナー、およびカメラからのデータに基づいて、周囲環境の3Dモデルを構築してもよい。センサ644は、図6では、自律車両640の特定の位置に見えているが、センサ644は、自律車両640の中または上の任意の好適な位置に位置してもよい。センサの位置の例としては、フロントおよびリアバンパー、ドア、フロントガラス、サイドパネル上、または他の任意の好適な位置が挙げられる。
特定の実施形態では、自律車両640は、処理装置(例えば、1つまたは複数のCPUおよびGPU)と、メモリと、記憶装置とを具備してもよい。このように、車両640は、センサデータの処理、有用な情報の抽出、および適宜の動作を含む、様々な計算および処理タスクを実施するように装備されてもよい。例えば、カメラおよびマシンビジョンモデルによって取得される画像に基づいて、車両640は、歩行者、他の車両、車線、縁石、および他の任意の関心対象物など、画像によって取得される特定のタイプの対象物を識別してもよい。
図7は、一例のコンピュータシステムを示している。特定の実施形態では、1つまたは複数のコンピュータシステム700は、本明細書に記載または例証される1つまたは複数の方法の1つもしくは複数の段階を実施する。特定の実施形態では、1つまたは複数のコンピュータシステム700は、本明細書に記載または例証される機能性を提供する。特定の実施形態では、1つまたは複数のコンピュータシステム700で稼働するソフトウェアは、本明細書に記載または例証される1つまたは複数の方法の1つもしくは複数の段階を実施するか、あるいは本明細書に記載または例証される機能性を提供する。特定の実施形態は、1つまたは複数のコンピュータシステム700の1つもしくは複数の部分を含む。本明細書では、コンピュータシステムに対する言及は、適切な場合、コンピューティングデバイスを包含してもよく、その逆もまた真である。更に、コンピュータシステムに対する言及は、適切な場合、1つまたは複数のコンピュータシステムを包含してもよい。
本開示は、任意の好適な数のコンピュータシステム700を考慮する。本開示は、任意の好適な物理的形態を取るコンピュータシステム700を考慮する。一例として、限定ではないが、コンピュータシステム700は、組込み型コンピュータシステム、システムオンチップ(SOC)、シングルボードコンピュータシステム(SBC)(例えば、コンピュータオンモジュール(COM)もしくはシステムオンモジュール(SOM)など)、デスクトップコンピュータシステム、ラップトップまたはノートブックコンピュータシステム、インタラクティブキオスク、メインフレーム、コンピュータシステムのメッシュ、移動電話、携帯情報端末(PDA)、サーバ、タブレットコンピュータシステム、拡張/仮想現実デバイス、あるいはこれらのうち2つ以上の組み合わせであってもよい。適切な場合、コンピュータシステム700は、1つもしくは複数のコンピュータシステム700を含むか、一体型または分散型であるか、複数の位置にまたがるか、複数の機械にまたがるか、複数のデータセンタにまたがるか、あるいは1つもしくは複数のクラウドコンポーネントを1つまたは複数のネットワークに含んでもよい、クラウドに常駐してもよい。適切な場合、1つまたは複数のコンピュータシステム700は、実質的に空間的または時間的な限定なしに、本明細書に記載または例証される1つまたは複数の方法の1つもしくは複数の段階を実施してもよい。一例として、限定ではないが、1つまたは複数のコンピュータシステム700は、リアルタイムまたはバッチモードで、本明細書に記載または例証される1つまたは複数の方法の1つもしくは複数の段階を実施してもよい。1つまたは複数のコンピュータシステム700は、適切な場合、異なる時間または異なる位置で、本明細書に記載または例証される1つまたは複数の方法の1つもしくは複数の段階を実施してもよい。
特定の実施形態では、コンピュータシステム700は、プロセッサ702と、メモリ704と、記憶装置706と、入力/出力(I/O)インターフェース708と、通信インターフェース710と、バス712とを含む。本開示は、特定の構成で特定の数の特定の構成要素を有する、特定のコンピュータシステムを記載し例証しているが、本開示は、任意の好適な構成で任意の好適な数の任意の好適な構成要素を有する、任意の好適なコンピュータシステムを考慮する。
特定の実施形態では、プロセッサ702は、コンピュータプログラムを作成するものなど、命令を実行するためのハードウェアを含む。一例として、限定ではないが、命令を実行するには、プロセッサ702は、内部レジスタ、内部キャッシュ、メモリ704、または記憶装置706から命令を検索し(もしくは取り出し)、それらを復号し実行し、次に1つまたは複数の結果を、内部レジスタ、内部キャッシュ、メモリ704、または記憶装置706に書き込んでもよい。特定の実施形態では、プロセッサ702は、データ、命令、またはアドレスのための1つもしくは複数の内部キャッシュを含んでもよい。本開示は、適切な場合、任意の好適な数の任意の好適な内部キャッシュを含むプロセッサ702を考慮する。一例として、限定ではないが、プロセッサ702は、1つまたは複数の命令キャッシュと、1つまたは複数のデータキャッシュと、1つまたは複数のトランスレーションルックアサイドバッファ(TLB)とを含んでもよい。命令キャッシュ内の命令は、メモリ704または記憶装置706内の命令のコピーであってもよく、命令キャッシュは、プロセッサ702によるそれらの命令の検索を高速化してもよい。データキャッシュ内のデータは、コンピュータ命令によって操作されるべきメモリ704もしくは記憶装置706内のデータのコピー、後に続く命令にアクセス可能なプロセッサ702によって実行された、またはメモリ704もしくは記憶装置706に書き込むための以前の命令の結果、あるいは他の任意の好適なデータであってもよい。データキャッシュは、プロセッサ702による読出しまたは書込み動作を高速化してもよい。TLBは、プロセッサ702のための仮想アドレス変換を高速化してもよい。特定の実施形態では、プロセッサ702は、データ、命令、またはアドレスのための1つもしくは複数の内部レジスタを含んでもよい。本開示は、適切な場合、任意の好適な数の任意の好適な内部レジスタを含むプロセッサ702を考慮する。適切な場合、プロセッサ702は、1つもしくは複数の論理演算装置(ALU)を含むか、マルチコアプロセッサであるか、または1つもしくは複数のプロセッサ702を含んでもよい。本開示は、特定のプロセッサを記載し例証しているが、本開示は、任意の好適なプロセッサを考慮する。
特定の実施形態では、メモリ704は、プロセッサ702が実行する命令、またはプロセッサ702が操作するデータを格納する、メインメモリを含む。一例として、限定ではないが、コンピュータシステム700は、命令を記憶装置706または別のソース(別のコンピュータシステム700など)からメモリ704にロードしてもよい。プロセッサ702は次に、命令をメモリ704から内部レジスタまたは内部キャッシュにロードしてもよい。命令を実行するため、プロセッサ702は、命令を内部レジスタまたは内部キャッシュから検索し、それらを復号してもよい。命令の実行中または実行後、プロセッサ702は、1つまたは複数の結果(中間結果もしくは最終結果であってもよい)を内部レジスタまたは内部キャッシュに書き込んでもよい。プロセッサ702は次に、それらの結果の1つまたは複数をメモリ704に書き込んでもよい。特定の実施形態では、プロセッサ702は、1つもしくは複数の内部レジスタまたは内部キャッシュ内、あるいはメモリ704内(記憶装置706または他の場所ではない)の命令のみを実行し、1つもしくは複数の内部レジスタまたは内部キャッシュ内、あるいはメモリ704内(記憶装置706または他の場所ではない)のデータのみを操作する。1つまたは複数のメモリバス(それぞれアドレスバスおよびデータバスを含んでもよい)は、プロセッサ702をメモリ704に結合してもよい。バス712は、更に詳細に後述するように、1つまたは複数のメモリバスを含んでもよい。特定の実施形態では、1つまたは複数のメモリ管理ユニット(MMU)は、プロセッサ702とメモリ704との間に常駐し、プロセッサ702の要求によってメモリ704にアクセスするのを容易にする。特定の実施形態では、メモリ704はランダムアクセスメモリ(RAM)を含む。このRAMは、適切な場合、揮発性メモリであってもよい。適切な場合、このRAMはダイナミックRAM(DRAM)またはスタティックRAM(SRAM)であってもよい。更に、適切な場合、このRAMはシングルポートまたはマルチポートRAMであってもよい。本開示は、任意の好適なRAMを考慮する。メモリ704は、適切な場合、1つまたは複数のメモリ704を含んでもよい。本開示は、特定のメモリを記載し例証しているが、本開示は、任意の好適なメモリを考慮する。
特定の実施形態では、記憶装置706は、データまたは命令のための大容量記憶装置を含む。一例として、限定ではないが、記憶装置706は、ハードディスクドライブ(HDD)、フロッピーディスクドライブ、フラッシュメモリ、光学ディスク、光磁気ディスク、磁気テープ、またはユニバーサルシリアルバス(USB)ドライブ、あるいはそれらのうち2つ以上の組み合わせを含んでもよい。記憶装置706は、適切な場合、取外し可能または取外し不能(固定)の媒体を含んでもよい。記憶装置706は、適切な場合、コンピュータシステム700の内部または外部であってもよい。特定の実施形態では、記憶装置706は不揮発性固体メモリである。特定の実施形態では、記憶装置706は読出し専用メモリ(ROM)を含む。適切な場合、このROMは、マスクプログラムROM、プログラマブルROM(PROM)、消去可能PROM(EPROM)、電気消去可能PROM(EEPROM)、電気的に書き換え可能なROM(EAROM)、またはフラッシュメモリ、あるいはこれらのうち2つ以上の組み合わせであってもよい。本開示は、任意の好適な物理的形態を取る大容量記憶装置706を考慮する。記憶装置706は、適切な場合、プロセッサ702と記憶装置706との間の通信を容易にする、1つまたは複数の記憶装置制御ユニットを含んでもよい。適切な場合、記憶装置706は、1つまたは複数の記憶装置706を含んでもよい。本開示は、特定の記憶装置を記載し例証しているが、本開示は、任意の好適な記憶装置を考慮する。
特定の実施形態では、I/Oインターフェース708は、コンピュータシステム700と1つまたは複数のI/Oデバイスとの間で通信するための、1つまたは複数のインターフェースを提供する、ハードウェア、ソフトウェア、または両方を含む。コンピュータシステム700は、適切な場合、これらのI/Oデバイスのうち1つまたは複数を含んでもよい。これらのI/Oデバイスのうち1つまたは複数は、人とコンピュータシステム700との間で通信できるようにしてもよい。一例として、限定ではないが、I/Oデバイスは、キーボード、キーパッド、マイクロフォン、モニタ、マウス、プリンタ、スキャナ、スピーカー、スチールカメラ、スタイラス、タブレット、タッチスクリーン、トラックボール、ビデオカメラ、別の好適なI/Oデバイス、またはこれらのうち2つ以上の組み合わせを含んでもよい。I/Oデバイスは1つまたは複数のセンサを含んでもよい。本開示は、任意の好適なI/Oデバイス、およびそれらのための任意の好適なI/Oインターフェース708を考慮する。適切な場合、I/Oインターフェース708は、プロセッサ702がこれらのI/Oデバイスのうち1つまたは複数を駆動できるようにする、1つもしくは複数のデバイスまたはソフトウェアドライバを含んでもよい。I/Oインターフェース708は、適切な場合、1つまたは複数のI/Oインターフェース708を含んでもよい。本開示は、特定のI/Oインターフェースを記載し例証しているが、本開示は、任意の好適なI/Oインターフェースを考慮する。
特定の実施形態では、通信インターフェース710は、コンピュータシステム700と1つもしくは複数の他のコンピュータシステム700または1つもしくは複数のネットワークとの間で通信(例えば、パケットベースの通信など)するための、1つまたは複数のインターフェースを提供する、ハードウェア、ソフトウェア、または両方を含む。一例として、限定ではないが、通信インターフェース710は、イーサネット(登録商標)または他の任意の有線ベースのネットワークと通信するための、ネットワークインターフェースコントローラ(NIC)またはネットワークアダプタ、あるいはWI-FI(登録商標)ネットワークなどの無線ネットワークと通信するための、無線NIC(WNIC)または無線アダプタを含んでもよい。本開示は、任意の好適なネットワーク、およびそのための任意の好適な通信インターフェース710を考慮する。一例として、限定ではないが、コンピュータシステム700は、アドホックネットワーク、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、メトロポリタンエリアネットワーク(MAN)、またはインターネットの1つもしくは複数の部分、あるいはこれらのうち2つ以上の組み合わせを用いて通信してもよい。1つまたは複数のこれらのネットワークにおける1つもしくは複数の部分は、有線または無線であってもよい。一例として、コンピュータシステム700は、無線PAN(WPAN)(例えば、ブルートゥース(登録商標)WPANなど)、WI-FI(登録商標)ネットワーク、WI-MAXネットワーク、セルラー電話ネットワーク(例えば、汎欧州デジタル移動体通信システム(GSM(登録商標))ネットワークなど)、または他の任意の好適な無線ネットワーク、あるいはこれらのうち2つ以上の組み合わせを用いて通信してもよい。コンピュータシステム700は、適切な場合、これらのネットワークのうち任意のものに対する、任意の好適な通信インターフェース710を含んでもよい。通信インターフェース710は、適切な場合、1つまたは複数の通信インターフェース710を含んでもよい。本開示は、特定の通信インターフェースを記載し例証しているが、本開示は、任意の好適な通信インターフェースを考慮する。
特定の実施形態では、バス712は、コンピュータシステム700の構成要素を互いに結合する、ハードウェア、ソフトウェア、または両方を含む。一例として、限定ではないが、バス712は、アクセラレイテッドグラフィックスポート(AGP)または他の任意のグラフィックスバス、拡張業界標準アーキテクチャ(EISA)バス、フロントサイドバス(FSB)、ハイパートランスポート(HT)相互接続、業界標準アーキテクチャ(ISA)バス、インフィニバンド相互接続、低ピン数(LPC)バス、メモリバス、マイクロチャネルアーキテクチャ(MCA)バス、周辺構成要素相互接続(PCI)バス、PCIエクスプレス(PCIe)バス、シリアルアドバンストテクノロジーアタッチメント(SATA)バス、ビデオエレクトロニクススタンダーズアソシエーションローカル(VLB)バス、または別の好適なバス、あるいはそれらのうち2つ以上の組み合わせを含んでもよい。バス712は、適切な場合、1つまたは複数のバス712を含んでもよい。本開示は、特定のバスを記載し例証しているが、本開示は、任意の好適なバスまたは相互接続を考慮する。
本明細書では、コンピュータ可読非一時的記憶媒体は、適切な場合、1つもしくは複数の半導体ベースまたは他のタイプの集積回路(IC)(例えば、フィールドプログラマブルゲートアレイ(FPGA)もしくは特定用途向けIC(ASIC)など)、ハードディスクドライブ(HDD)、ハイブリッドハードドライブ(HHD)、光学ディスク、光学ディスクドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピーディスケット、フロッピーディスクドライブ(FDD)、磁気テープ、固体ドライブ(SSD)、RAMドライブ、セキュアデジタルカードもしくはドライブ、他の任意の好適なコンピュータ可読非一時的記憶媒体、あるいはこれらのうち2つ以上の任意の好適な組み合わせを含んでもよい。コンピュータ可読非一時的記憶媒体は、適切な場合、揮発性、不揮発性、または揮発性と不揮発性との組み合わせであってもよい。
本明細書では、「または」は、文脈による別段の明示または別段の指示がない限り、包括的であって排他的ではない。したがって、本明細書では、「AまたはB」は、文脈による別段の明示または別段の指示がない限り、「A、B、または両方」を意味する。更に、「および」は、文脈による別段の明示または別段の指示がない限り、共同および個別の両方である。したがって、本明細書では、「AおよびB」は、文脈による別段の明示または別段の指示がない限り、「共同的または個別的に、AおよびB」を意味する。
本開示の範囲は、当業者であれば理解するであろう、本明細書に記載または例証する例示的実施形態に対する全ての変更、置換、変形、修正、および改良を包含する。本開示の範囲は、本明細書に記載または例証する例示的実施形態に限定されない。更に、本開示は、特定の構成要素、要素、特徴、機能、動作、または段階を含むものとして、本明細書のそれぞれの実施形態を記載し例証しているが、これらの実施形態はいずれも、当業者であれば理解するであろう、本明細書の任意の箇所に記載または例証される構成要素、要素、特徴、機能、動作、または段階のうちいずれかの任意の組み合わせもしくは並べ替えを含んでもよい。更に、添付の特許請求の範囲における、特定の機能を実施するように適合された、配置された、可能である、構成された、可能にされた、動作可能な、または動作する、装置もしくはシステム、あるいは装置もしくはシステムの構成要素に対する言及は、装置、システム、または構成要素がそのように適合されるか、配置されるか、可能であるか、構成されるか、可能にされるか、動作可能であるか、または動作する限り、それもしくはその特定の機能が活性化されるか、始動されるか、またはロック解除されるか否かにかかわらず、装置、システム、構成要素を包含する。更に、本開示は、特定の利点を提供するものとして特定の実施形態を記載または例証しているが、特定の実施形態は、これらの利点を全く提供しなくても、または一部もしくは全てを提供してもよい。

Claims (20)

  1. コンピューティングシステムによって、
    第1のフィルタパターンを有する第1のフィルタアレイを有する第1のイメージセンサによって生成された第1の画像データにアクセスする段階であって、前記第1のフィルタパターンが複数の第1のフィルタタイプを有する、段階と、
    前記第1のフィルタパターンとは異なる第2のフィルタパターンを有する第2のフィルタアレイを有する第2のイメージセンサによって生成された第2の画像データにアクセスする段階であって、前記第2のフィルタパターンが複数の第2のフィルタタイプを有し、前記複数の第2のフィルタタイプおよび前記複数の第1のフィルタタイプが少なくとも1つの共通のフィルタタイプを有する、段階と、
    前記共通のフィルタタイプと関連付けられた前記第1の画像データの部分、および前記共通のフィルタタイプと関連付けられた前記第2の画像データの部分に基づいて、前記第1の画像データの1つまたは複数の第1のピクセルと前記第2の画像データの1つまたは複数の第2のピクセルとの間の対応を決定する段階と、
    前記対応に基づいて、前記第1の画像データおよび前記第2の画像データを使用して複合データを生成する段階であって、前記複合データが、前記複数の第1のフィルタタイプの1つまたは複数と関連付けられた第1のデータおよび前記複数の第2のフィルタタイプの1つまたは複数と関連付けられた第2のデータをそれぞれ含む、1つまたは複数の第3のピクセルを有する、段階と
    を備える方法。
  2. 前記共通のフィルタタイプのデータに基づいて、前記第1の画像データの1つまたは複数のピクセルおよび前記第2の画像データの1つまたは複数のピクセルの深度情報を計算する段階を更に備える、請求項1に記載の方法。
  3. 前記深度情報を計算する段階が、前記共通のフィルタタイプと関連付けられた前記第1の画像データの前記部分、および前記共通のフィルタタイプと関連付けられた前記第2の画像データの前記部分に基づいて、前記第1の画像データのピクセルと前記第2の画像データの対応するピクセルとの間の空間オフセットを決定する段階を備える、請求項2に記載の方法。
  4. 各第3のピクセルの空間情報および前記複合データを有するテンソルを生成する段階を更に備える、請求項1から3のいずれか一項に記載の方法。
  5. 前記複合データを生成する段階が、前記1つまたは複数の第1のピクセルの前記複数の第1のフィルタタイプの前記第1の画像データと、1つまたは複数の対応する第2のピクセルの前記複数の第2のフィルタタイプの前記第2の画像データとを組み合わせる段階を備え、前記複数の第1のフィルタタイプの前記第1の画像データおよび前記複数の第2のフィルタタイプの前記第2の画像データが、波長フィルタのデータ、偏光フィルタのデータ、または前記第1の画像データおよび前記第2の画像データの1つもしくは複数から計算されたデータを備える、請求項1から4のいずれか一項に記載の方法。
  6. 前記1つまたは複数の第3のピクセルの前記複合データを、対象物の1つまたは複数のクラスの格納された複合データと比較する段階と、
    少なくとも前記対応する第1のデータおよび第2のデータを、機械学習モデルを使用して処理することによって、前記1つまたは複数の第3のピクセルの分類を決定する段階と
    を更に備える、請求項1から5のいずれか一項に記載の方法。
  7. 前記1つまたは複数の第3のピクセルの前記複合データを、対象物の1つまたは複数のクラスの格納された複合データと比較する段階と、
    前記対応する第1のデータおよび第2のデータを、機械学習モデルを使用して処理することによって、前記1つまたは複数の第3のピクセルと関連付けられた1つまたは複数の関心対象物を識別する段階と
    を更に備える、請求項1から6のいずれか一項に記載の方法。
  8. 第3の画像データにアクセスする段階であって、前記第3の画像データが追加の共通のフィルタタイプと関連付けられたデータを有する、段階を更に備え、前記複合データを生成する段階が、1つまたは複数の追加のイメージセンサによって生成された1つもしくは複数の画像データを使用する段階を更に有し、前記1つまたは複数の追加のイメージセンサの少なくとも1つが、前記第1のフィルタパターンまたは前記第2のフィルタパターンとは異なる第3のフィルタパターンを有する第3のフィルタアレイを有する、請求項1から7のいずれか一項に記載の方法。
  9. 前記複数の第1のフィルタタイプが特定の色または偏光のフィルタを備える、請求項1から8のいずれか一項に記載の方法。
  10. 前記第1のフィルタパターンおよび前記第2のフィルタパターンにおける共通の前記フィルタタイプの相対位置が同じである、請求項1から9のいずれか一項に記載の方法。
  11. 第1のフィルタパターンを有する第1のフィルタアレイを有する第1のイメージセンサによって生成された第1の画像データにアクセスする段階であって、前記第1のフィルタパターンが複数の第1のフィルタタイプを有する、段階と、
    前記第1のフィルタパターンとは異なる第2のフィルタパターンを有する第2のフィルタアレイを有する第2のイメージセンサによって生成された第2の画像データにアクセスする段階であって、前記第2のフィルタパターンが複数の第2のフィルタタイプを有し、前記複数の第2のフィルタタイプおよび前記複数の第1のフィルタタイプが少なくとも1つの共通のフィルタタイプを有する、段階と、
    前記共通のフィルタタイプと関連付けられた前記第1の画像データの部分、および前記共通のフィルタタイプと関連付けられた前記第2の画像データの部分に基づいて、前記第1の画像データの1つまたは複数の第1のピクセルと前記第2の画像データの1つまたは複数の第2のピクセルとの間の対応を決定する段階と、
    前記対応に基づいて、前記第1の画像データおよび前記第2の画像データを使用して複合データを生成する段階であって、前記複合データが、前記複数の第1のフィルタタイプの1つまたは複数と関連付けられた第1のデータおよび前記複数の第2のフィルタタイプの1つまたは複数と関連付けられた第2のデータをそれぞれ含む、1つまたは複数の第3のピクセルを有する、段階と
    を含む動作をコンピュータに実行させるプログラム。
  12. 前記共通のフィルタタイプのデータに基づいて、前記第1の画像データの1つまたは複数のピクセルおよび前記第2の画像データの1つまたは複数のピクセルの深度情報を計算することを更に前記コンピュータに実行させる、請求項11に記載のプログラム。
  13. 前記共通のフィルタタイプと関連付けられた前記第1の画像データの前記部分、および前記共通のフィルタタイプと関連付けられた前記第2の画像データの前記部分に基づいて、前記第1の画像データのピクセルと前記第2の画像データの対応するピクセルとの間の空間オフセットを決定することを更に前記コンピュータに実行させる、請求項12に記載のプログラム。
  14. 前記1つまたは複数の第3のピクセルの位置情報および前記複合データを備えるテンソルを生成することを更に前記コンピュータに実行させる、請求項11から13のいずれか一項に記載のプログラム。
  15. 前記1つまたは複数の第1のピクセルの前記複数の第1のフィルタタイプのデータと、1つまたは複数の対応する第2のピクセルの前記複数の第2のフィルタタイプのデータとを組み合わせることを更に前記コンピュータに実行させ、前記複数の第1のフィルタタイプおよび前記複数の第2のフィルタタイプの前記データが、波長フィルタのデータ、偏光フィルタのデータ、または前記第1の画像データおよび前記第2の画像データの1つもしくは複数から計算されたデータを備える、請求項11から14のいずれか一項に記載のプログラム。
  16. コンピューティングシステムであって、
    1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサのうち1つまたは複数に結合された1つまたは複数のコンピュータ可読非一時的記憶媒体であって、前記1つまたは複数のプロセッサのうち1つまたは複数によって実行されると、前記コンピューティングシステムに動作を実施させるように動作可能な命令を有する、1つまたは複数のコンピュータ可読非一時的記憶媒体と、を備え、前記動作が、
    第1のフィルタパターンを有する第1のフィルタアレイを有するイメージセンサによって生成された第1の画像データにアクセスする段階であって、前記第1のフィルタパターンが複数の第1のフィルタタイプを有する、段階と、
    前記第1のフィルタパターンとは異なる第2のフィルタパターンを有する第2のフィルタアレイをそれぞれ有する1つまたは複数の追加のイメージセンサによって生成された1つまたは複数の第2の画像データにアクセスする段階であって、前記第2のフィルタパターンが複数の第2のフィルタタイプを有し、前記複数の第2のフィルタタイプおよび前記複数の第1のフィルタタイプが少なくとも1つの共通のフィルタタイプを有する、段階と、
    前記共通のフィルタタイプと関連付けられた前記第1の画像データの部分、および前記共通のフィルタタイプと関連付けられた前記1つまたは複数の第2の画像データの部分に基づいて、前記第1の画像データの1つもしくは複数の第1のピクセルと前記1つまたは複数の第2の画像データの1つもしくは複数の第2のピクセルとの間の対応を決定する段階と、
    前記対応に基づいて、前記第1の画像データおよび前記1つまたは複数の第2の画像データを使用して複合データを生成する段階であって、前記複合データが、前記複数の第1のフィルタタイプの1つまたは複数と関連付けられた第1のデータおよび前記複数の第2のフィルタタイプの1つまたは複数と関連付けられた第2のデータをそれぞれ含む、1つまたは複数の第3のピクセルを有する、段階と
    を備える、コンピューティングシステム。
  17. 前記命令が、前記共通のフィルタタイプのデータに基づいて、前記第1の画像データの1つもしくは複数のピクセルおよび前記1つまたは複数の第2の画像データの1つもしくは複数のピクセルの深度情報を計算するように更に動作可能である、請求項16に記載のコンピューティングシステム。
  18. 前記命令が、前記共通のフィルタタイプと関連付けられた前記第1の画像データの前記部分、および前記共通のフィルタタイプと関連付けられた前記1つまたは複数の第2の画像データの前記部分に基づいて、前記第1の画像データのピクセルと前記1つまたは複数の第2の画像データの対応するピクセルとの間の空間オフセットを決定するように更に動作可能である、請求項17に記載のコンピューティングシステム。
  19. 前記命令が、前記1つまたは複数の第3のピクセルの位置情報および前記複合データを備えるテンソルを生成するように更に動作可能である、請求項16から18のいずれか一項に記載のコンピューティングシステム。
  20. 前記命令が、前記1つまたは複数の第1のピクセルの前記複数の第1のフィルタタイプのデータと、1つまたは複数の対応する第2のピクセルの前記複数の第2のフィルタタイプのデータとを組み合わせるように更に動作可能であり、前記複数の第1のフィルタタイプおよび前記複数の第2のフィルタタイプの前記データが、波長フィルタのデータ、偏光フィルタのデータ、または前記第1の画像データおよび前記1つまたは複数の第2の画像データの1つもしくは複数から計算されたデータを備える、請求項16から19のいずれか一項に記載のコンピューティングシステム。
JP2021523384A 2018-12-14 2019-12-05 知覚を改善するための多重チャネル多重偏光イメージング Pending JP2022513428A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/221,406 US10659751B1 (en) 2018-12-14 2018-12-14 Multichannel, multi-polarization imaging for improved perception
US16/221,406 2018-12-14
PCT/US2019/064758 WO2020123259A1 (en) 2018-12-14 2019-12-05 Multichannel, multi-polarization imaging for improved perception

Publications (1)

Publication Number Publication Date
JP2022513428A true JP2022513428A (ja) 2022-02-08

Family

ID=70736151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021523384A Pending JP2022513428A (ja) 2018-12-14 2019-12-05 知覚を改善するための多重チャネル多重偏光イメージング

Country Status (4)

Country Link
US (2) US10659751B1 (ja)
EP (1) EP3857871A4 (ja)
JP (1) JP2022513428A (ja)
WO (1) WO2020123259A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019067323A (ja) * 2017-10-05 2019-04-25 ソニー株式会社 情報処理装置、情報処理方法、及び記録媒体
JP7273250B2 (ja) * 2019-09-17 2023-05-12 ボストン ポーラリメトリックス,インコーポレイティド 偏光キューを用いた面モデリングのためのシステム及び方法
DE112020004813B4 (de) 2019-10-07 2023-02-09 Boston Polarimetrics, Inc. System zur Erweiterung von Sensorsystemen und Bildgebungssystemen mit Polarisation
KR20230116068A (ko) 2019-11-30 2023-08-03 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템및 방법
CA3126236A1 (en) * 2020-07-29 2022-01-29 Uatc, Llc Systems and methods for sensor data packet processing and spatial memoryupdating for robotic platforms
US11393117B2 (en) * 2020-09-01 2022-07-19 Utah State University Space Dynamics Laboratory See-and-avoid sensor
US11418762B2 (en) * 2020-09-11 2022-08-16 GM Global Technology Operations LLC Imaging system and method
US20220295038A1 (en) * 2021-03-10 2022-09-15 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
EP4184932A1 (de) * 2021-09-10 2023-05-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Ein bildsensor, ein verfahren zum betreiben eines bildsensors, ein verfahren zum herstellen eines bildsensors und ein stationäres gerät oder ein fahrzeug oder eine drohne mit einem bildsensor
CN116721134B (zh) * 2023-08-10 2023-10-10 武汉能钠智能装备技术股份有限公司四川省成都市分公司 一种无特征目标的跟踪系统及其方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3025408A (en) 1958-09-23 1962-03-13 George D Wolf Emergency power supply
EP1830585B1 (en) * 2003-10-21 2008-12-17 Barco N.V. Method and device for performing stereoscopic image display based on color selective filters
EP1607773B1 (en) * 2004-06-18 2009-03-11 STMicroelectronics (Research & Development) Limited Polarization sensitive solid state image sensor
US7962495B2 (en) * 2006-11-20 2011-06-14 Palantir Technologies, Inc. Creating data in a data store using a dynamic ontology
US7787112B2 (en) * 2007-10-22 2010-08-31 Visiongate, Inc. Depth of field extension for optical tomography
CN101960859B (zh) * 2008-07-08 2013-04-10 松下电器产业株式会社 图像处理方法、图像处理装置、图像合成方法和图像合成装置
US8587681B2 (en) * 2008-11-21 2013-11-19 Omnivision Technologies, Inc. Extended depth of field for image sensor
KR101739880B1 (ko) 2010-12-01 2017-05-26 삼성전자주식회사 컬러 필터 어레이, 이를 포함하는 이미지 센서, 및 이를 포함하는 이미지 처리 장치
JP6008298B2 (ja) * 2012-05-28 2016-10-19 パナソニックIpマネジメント株式会社 画像処理装置、撮像装置、画像処理方法、およびプログラム
WO2014018836A1 (en) 2012-07-26 2014-01-30 Leap Motion, Inc. Object detection and tracking
JP5903528B2 (ja) 2013-07-29 2016-04-13 富士フイルム株式会社 撮像装置及び画像処理方法
KR20150026393A (ko) 2013-09-02 2015-03-11 삼성전자주식회사 이미지 처리 및 그 방법을 처리하는 전자장치
KR101611261B1 (ko) * 2013-12-12 2016-04-12 엘지전자 주식회사 스테레오 카메라, 이를 구비한 차량 운전 보조 장치, 및 차량
KR101641406B1 (ko) * 2013-12-30 2016-07-21 연세대학교 산학협력단 스테레오 카메라
KR102211862B1 (ko) * 2014-04-09 2021-02-03 삼성전자주식회사 이미지 센서 및 이를 포함하는 이미지 센서 시스템
WO2016161104A1 (en) * 2015-04-01 2016-10-06 Vayavision, Ltd. Generating 3-dimensional maps of a scene using passive and active measurements
JP6566749B2 (ja) * 2015-07-01 2019-08-28 株式会社ソニー・インタラクティブエンタテインメント 撮像素子、イメージセンサ、および情報処理装置
JP2017139742A (ja) 2016-02-02 2017-08-10 パナソニックIpマネジメント株式会社 撮像装置、撮像システム、撮像方法及びプログラム
WO2017171412A2 (ko) 2016-03-30 2017-10-05 엘지전자 주식회사 이미지 처리 장치 및 이동 단말기
US10440353B2 (en) * 2017-05-17 2019-10-08 Electronic Arts Inc. Dual-camera image capture system
US11105905B2 (en) * 2018-11-30 2021-08-31 Lyft, Inc. LiDAR and camera rotational position calibration using multiple point cloud comparisons

Also Published As

Publication number Publication date
US20200280707A1 (en) 2020-09-03
US10659751B1 (en) 2020-05-19
WO2020123259A1 (en) 2020-06-18
EP3857871A1 (en) 2021-08-04
EP3857871A4 (en) 2022-08-03
US11570416B2 (en) 2023-01-31

Similar Documents

Publication Publication Date Title
US11570416B2 (en) Multichannel, multi-polarization imaging for improved perception
JP7372322B2 (ja) 色覚困難の知覚を改善する多重スペクトル多重偏光(msmp)フィルタ処理
US20210365750A1 (en) Systems and methods for estimating future paths
US10970878B2 (en) Camera calibration using reference map
US10943355B2 (en) Systems and methods for detecting an object velocity
US11255952B2 (en) Image sensor processing using a combined image and range measurement system
US10671082B2 (en) High resolution 3D point clouds generation based on CNN and CRF models
US20190004534A1 (en) High resolution 3d point clouds generation from upsampled low resolution lidar 3d point clouds and camera images
US20200209858A1 (en) Generating environmental parameters based on sensor data using machine learning
WO2019007263A1 (zh) 车载传感器的外部参数标定的方法和设备
US11961243B2 (en) Object detection using image alignment for autonomous machine applications
CN107798699A (zh) 用立体图像进行深度图估计
CN112740268B (zh) 目标检测方法和装置
JP6574611B2 (ja) 立体画像に基づいて距離情報を求めるためのセンサシステム
US11842440B2 (en) Landmark location reconstruction in autonomous machine applications
WO2017043331A1 (ja) 画像処理装置、及び、画像処理方法
El-Hassan Experimenting with sensors of a low-cost prototype of an autonomous vehicle
CN116048060A (zh) 用于自主系统和应用的使用神经网络基于真实世界数据的3d表面结构估计
CN116051780A (zh) 用于自主系统和应用的使用人工智能利用点云致密化的3d表面重建
Nguyen et al. Neural network‐based optical flow versus traditional optical flow techniques with thermal aerial imaging in real‐world settings
US20230298268A1 (en) Environment reconstruction and path planning for autonomous systems and applications
Moreno-Escobar et al. Unmanned ground vehicle with stereoscopic vision for a safe autonomous exploration
Morales-Matamoros et al. Unmanned Ground Vehicle with Stereoscopic Vision for a Safe Autonomous Exploration

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210917

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240409