JP2021522585A - マスクを使用したデータセグメンテーション - Google Patents

マスクを使用したデータセグメンテーション Download PDF

Info

Publication number
JP2021522585A
JP2021522585A JP2020559462A JP2020559462A JP2021522585A JP 2021522585 A JP2021522585 A JP 2021522585A JP 2020559462 A JP2020559462 A JP 2020559462A JP 2020559462 A JP2020559462 A JP 2020559462A JP 2021522585 A JP2021522585 A JP 2021522585A
Authority
JP
Japan
Prior art keywords
mask
sensor data
data
voxel
voxel space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020559462A
Other languages
English (en)
Other versions
JP7350013B2 (ja
Inventor
ワン ゾン
ワン ゾン
ファイファー デイビッド
ファイファー デイビッド
ディミトロフ アンゲロフ ドラゴミール
ディミトロフ アンゲロフ ドラゴミール
ダス スバシス
ダス スバシス
ゼレナー アラン
ゼレナー アラン
Original Assignee
ズークス インコーポレイテッド
ズークス インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ズークス インコーポレイテッド, ズークス インコーポレイテッド filed Critical ズークス インコーポレイテッド
Publication of JP2021522585A publication Critical patent/JP2021522585A/ja
Application granted granted Critical
Publication of JP7350013B2 publication Critical patent/JP7350013B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Electromagnetism (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Game Theory and Decision Science (AREA)
  • Optics & Photonics (AREA)
  • Business, Economics & Management (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)

Abstract

車両には、環境内のオブジェクトを検出するためのさまざまなセンサを含めることが可能である。センサデータは、車両の知覚システムによって取り込まれることが可能であり、ボクセル空間で表されることが可能である。工程は、トップダウン視点からデータを分析することが含んでよい。この視点から、技術はボクセル空間内のオブジェクトを表すマスクを関連付けることと、生成することとが可能である。マスクの領域を操作することにより、そのマスクに関連付けられたセンサデータおよび/またはボクセルはクラスター化されることが可能であり、または別の方法でそのオブジェクトに関連付けられたセグメントデータにまとめられることが可能である。
【選択図】図4B

Description

本発明は、マスクを使用したデータセグメンテーションに関する。
(関連出願の相互参照)
この特許出願は、2018年4月26日に出願された出願番号15/963,833の米国実用新案特許出願の優先権を主張している。出願番号15/963,833は参照により本明細書に完全に組み込まれる。
自律車両は、センサを使用して環境のデータを取り込むことが可能である。自律車両は、効果的に周囲の環境の中を進むために、センサデータを使用して環境内のオブジェクトを検出し、衝突を回避する。セグメンテーション技術は、センサデータをオブジェクトに関連付けるために使用できる。しかし、三次元データのセグメンテーションには、オブジェクトの検出、セグメンテーションが不正確になったり、および/またはオブジェクトの検出と、セグメンテーションの応答性と、が低下したりする結果をもたらしかねない特定の課題がある。
詳細な説明は、添付の図を参照して説明される。図では、参照番号の左端の数字は、参照番号が最初に表示される図を示す。異なる図で同じ参照番号を使用している場合は、類似または同一のコンポーネントまたは特徴を示す。
トップダウンセグメンテーションの例示的なプロセスの絵の流れを示す図である。 環境のセンサデータを取り込む車両の例を示す図である。 ボクセル空間に関連付けられたセンサデータを備えたボクセル空間の例を示す図である。 ボクセル空間の部分に関連付けられたセンサデータとともに、トップダウン視点から見たボクセル空間の例示的な部分を示す図である。 ボクセル空間の部分に関連付けられたマスクを用いてトップダウン視点から見た例示的なボクセル空間を示す図である。 拡張されたマスクを生成する例示的なプロセスの絵の流れを示す図。 ボクセル空間で表される異なるオブジェクトに関連付けられたマスクを生成する例示的なプロセスの絵の流れを示す図である。 第1のマスクを拡張して第2のマスクを生成するための例示的なプロセスを示す図である。 本明細書で説明される技術を実施するための例示的なシステムのブロック図である。 1つまたは複数のマスクを出力するように機械学習アルゴリズムを訓練するための例示的なプロセスを示す図である。 少なくとも部分的にセンサデータに基づいて自律車両に指令するための例示的なプロセスを示す図である。
本開示は、環境内のオブジェクトを決定するために、体積要素(「ボクセル」)空間で表される三次元データに対してセグメンテーションを実行するための方法、装置、およびシステムを説明する。例えば、自律車両は、車両の環境に対応するセンサデータを取り込むために複数のセンサを含むことが可能である。センサデータは、いくつかの実例では、複合的なオブジェクト(例えば、歩行者、車両、自転車に乗る人など)が互いに隣接または近接して配置されている環境に関連するデータを含むことが可能である。本明細書で説明される技術には、センサデータの取り込み、センサデータとボクセル空間との関連付け、「トップダウン視点」からのセンサデータの表示、および機械学習アルゴリズムを使用し、1つ以上のオブジェクトに関連付けられたマスクの出力が含まれるが、これらに限定されない。このようなアルゴリズムは、検出された1つまたは複数のオブジェクトよりも小さく表現されたマスクの領域を出力するために訓練され、推論モードにおいて、閾値がマスクの固定値のマージンまたは百分率で表現可能な場合には、閾値に達するまで、またはマスクが他の車両および/またはオブジェクトを表現している他のマスクと交差するまで、マスクのサイズを増やすことが可能である。マスク内のボクセルは、1つまたは複数のオブジェクト識別子に関連付けることが可能であり、マスクに関連付けられたデータをセグメント化することが可能である。セグメント化されたデータは、他の分類器に渡して1つまたは複数のオブジェクトを分類し、計画システムに渡して車両の軌道を決定することが可能である。セグメンテーション技術は、LIDARデータ、RADARデータ、画像データなどで使用されることが可能である。
本明細書で論じられるように、センサデータは、1つまたは複数のセンサによって取り込まれることが可能であり、ボクセル空間で表されることが可能である。ボクセル空間は、三次元空間内のボクセルにおけるグリッド内のセンサデータにかかる表現を含むことが可能である。ボクセル空間内で表されたセンサデータとともに、処理は、機械学習アルゴリズムを使用して、環境内のオブジェクトに関連付けられたマスクを出力することを含む。いくつかの実例では、マスクは平面図またはトップダウン視点で表すことが可能である。他の実例では、マスクは立面図または側面図で表すことが可能である。ここまで論じたように、そのような機械学習アルゴリズムは、関連付けられた地上における真のオブジェクトよりもわずかに小さい寸法を有するマスクを出力するように訓練されてもよい。
推論中に第1のマスク出力を拡張することにより、システムは、環境内のオブジェクトに関連付けられた第2のマスク(例えば、「拡張マスク」とも呼ばれる)を生成することが可能である。いくつかの実例では、マスクのサイズを閾値の増加まで増やすことが可能であり、したがって、第2のマスクは、第2のマスクがない場合よりも全体としてオブジェクト表現の確実性のレベルが高く、センサデータの一部を表すことが可能である。さらに、いくつかの実例では、第2のマスクは、本明細書で説明される技術なしのマスクよりも全体としてオブジェクト表現の確実性のレベルが高く、センサデータの一部を表すことが可能である。
システムは、第2のマスクの少なくとも一部に基づいてセンサデータをセグメント化することが可能である。セグメンテーションデータに基づいて、システムはセンサデータと環境とに関連する多数のオブジェクトを検出および決定できる。いくつかの実例では、システムはセグメンテーションデータを車両の軌道を生成するために使用することが可能であり、環境を横断するために車両を制御することが可能である。
理解されるように、環境内のオブジェクトを決定および検出することは、必要とされるデータ処理およびコンピューティングリソースの量に関してかなりの量のコストを必要とし得る。さらに、大量のデータを送信すると、消費電力が増加し、ネットワークの輻輳も増加し得る。従来の方法では、環境内のオブジェクトを判別して検出するのにかなりの時間がかかり得る。一方、環境内のオブジェクトを決定および検出する方法は、特に車両や自律車両の文脈では、正確な結果を提供する必要がある。例えば、以前のセグメンテーション技術では、個別のオブジェクトを単一のオブジェクトとして結合する(例えば、アンダーセグメンテーション)だけでなく、単一のオブジェクトを複合的な個別のオブジェクトに分割する(例えば、オーバーセグメンテーション)クラスタリング技術または領域拡張手法を使用していた。したがって、本明細書で論じられる技術は、さまざまなタイプのデータのセグメンテーションの精度を向上させる。
本明細書で論じられるトップダウンセグメンテーション技術は、センサデータをセグメント化するためのコンピューティングリソースの量を減らすことによって、演算装置の機能を改善することが可能である。いくつかの実例では、コンピューティングリソースの量を減らすことは、オペレーションされるデータの量を減らすという形をとる。他の実例では、コンピューティングリソースの量を減らすことは、データをより効率的に処理するという形をとる。他の実例では、コンピューティングリソースの量を減らすことは、使用されるデータの量を減らすことと、データをより効率的に処理することの両方の形をとる。さらに、いくつかの実例では、コンピューティングリソースの量を減らすことは、処理時間の削減、メモリ使用量の削減、ネットワーク輻輳の削減、および/または電力消費の削減を含む。本明細書で説明される技術はまた、環境内のオブジェクトを決定および検出する精度を維持および/または向上させることが可能である。理解されるように、オブジェクトの決定および検出の精度を維持および/または向上させることにより、特に車両および自律車両の状況において、安全性の結果を改善することが可能である。本明細書で説明される技術はまた、オブジェクトを決定および検出する処理時間を短縮することにより、安全性の結果を改善することが可能である。理解されるように、車両および自律車両の文脈では、オブジェクトの決定および検出が迅速かつ正確に行われなければならない状況が発生し得る。非限定的な例として、環境内のオブジェクトをアンダーセグメント化および/またはオーバーセグメント化する他の方法は、安全な車両操作のためにそのようなデータに依存する後続のシステム(例えば、分類システム、計画システムなど)でエラーを引き起し得る。したがって、本明細書で説明される技術は、演算装置の機能を改善するだけでなく、安全性の結果を改善することが可能である。
本明細書で説明される技術は、いくつかの方法で実施することが可能である。以下の図を参照して、実施例を下記に示す。自律車両のコンテキストで説明されているが、本明細書で説明される技術は、オブジェクトの決定と検出を必要とするさまざまなシステムに適用でき、自律車両に限定されない。別の例では、方法、装置、およびシステムは、航空または航海の状況で使用されてもよい。さらに、本明細書で説明される技術は、実際のデータ(例えば、センサを使用して取り込まれた)、シミュレートされたデータ(例えば、シミュレータによって生成された)、または2つの任意の組み合わせで使用されてもよい。
図1は、センサデータを取り込み、センサデータを体積要素(「ボクセル」)空間に関連付け、ボクセル空間内のオブジェクトを表すマスクを受け取り、マスクを拡張して拡張されたマスクまたは第2のマスクを生成し、少なくとも第2のマスクの一部に基づいて、センサデータをセグメント化するための例示的なプロセス100示すフローチャートの図である。
工程102において、プロセス100は、センサデータとしてLIDAR(光検出および測距)データを取り込むことを含むことが可能である。工程102はまた、RADARデータ、SONARデータ、画像データ、音声データ、赤外線データ、位置データ、またはそれらの任意の組み合わせを含むことが可能である様々なセンサデータを取り込むことを含むことが可能である。いくつかの実例では、工程102は、複数のセンサからセンサデータを取り込むことを含むことが可能である。いくつかの実例では、工程102は、ある期間にわたってなど、処理のためにセンサデータの一部を抽出することを含むことが可能である。センサデータの例は、例104に示され、これは、車両、道路、樹木、歩行者、建物などの環境内の様々なオブジェクトに関連するLIDARデータ(例えば、データポイントまたはポイントクラウド)を含んでもよい。
工程106において、プロセス100は、センサデータをボクセル空間に関連付けることを含むことが可能である。例108は、各次元(例えば、x、y、およびz)に5つのボクセルを含むボクセル空間を示しているが、任意の数のボクセルがボクセル空間に含んでもよい。いくつかの実例では、ボクセル空間は、センサデータの原点または仮想原点の周囲の領域などの物理環境に対応されてもよい。例えば、ボクセル空間は、幅100メートル、長さ100メートル、高さ20メートルの領域を表し得る。さらに、ボクセル空間内の各ボクセル(例えば、ボクセル110)は、各次元で25センチメートルなどの物理的領域を表してもよい。本開示の文脈で理解されるように、ボクセル空間は、環境の任意の領域(例えば、車両が移動するにつれて更新される車両に近接する領域)を表し得、個々のボクセルも同様に任意の体積を表してもよい。いくつかの実例では、ボクセルはボクセル空間全体で均一なサイズを表し得、一方、いくつかの実例では、ボクセルの体積は、データの原点に対するボクセルの位置に基づいて変化を表してもよい。例えば、センサからの距離が増加するにつれてセンサデータにおける密度の減少を表し得、ボクセル空間内のボクセルのサイズは、ボクセルからセンサ(または複数のセンサを表す原点)までの距離に比例して増加してもよい。
一例では、ボクセル空間は空の空間として初期化されてもよく、センサデータは、それが取り込まれると、ボクセル空間に追加されてもよい。別の例では、ボクセル空間は、以前取り込まれたデータのグローバルマップを表すデータで初期化されてもよい。グローバルマップデータを使用する場合、工程には、ローカルで取り込まれたセンサデータをグローバルデータと比較して、グローバルマップ空間で車両をローカライズすることが含まれてもよい。
いくつかの実例では、工程106は、センサデータの個々のデータポイントを個々のボクセルにマッピングすることを含むことが可能である。いくつかの実例では、工程106は、例えば、センサデータが自律車両などの移動プラットフォームによって取り込まれた場合に、センサデータに関連付けられた動きベクトルを減算して、センサデータを例えば静止した基準点に変換することを含むことが可能である。すなわち、いくつかの実例では(例えば、RADARデータを使用する場合)、センサデータは、例えば、グローバルマップに関して固定されたボクセル空間に関連付けられてもよい(例えば、ボクセル空間とは対照的に移動する車両に関して固定される。)。いくつかの実例では、工程106は、まばらなボクセル空間を作成するために、データを含まない、または閾値数未満のデータポイントの数を含むボクセルを破棄または省略することを含むことが可能である。さらに、いくつかの実例では、工程106は、例えば、ボクセル空間に関する車両の位置に関連する可能性のある誤差を補償または調整するために、車両の姿勢(例えば、車両の向き)および関連するセンサデータをボクセル空間に位置合わせすることを含むことが可能である。
さらに、いくつかの実例では、工程106は、センサデータを統計的に蓄積し、個々のボクセルに追加されると、センサデータを処理することを含むことが可能である。例えば、個々のボクセルは、データポイントの数を表すセンサデータ、平均強度、センサデータの平均x値、センサデータの平均y値、センサデータの平均z値および/または個々のボクセルに関連付けられたセンサデータに基づく共分散行列を含んでもよい。したがって、いくつかの実例では、個々のボクセルに関連付けられたデータは、システムの処理パフォーマンスを改善するために、部分的に処理されたデータを表してもよい。
工程112において、プロセス100は、ボクセル空間内のオブジェクトを表す第1のマスクを受信することを含むことが可能である。いくつかの実例では、ボクセル空間に関連付けられた少なくとも1つのマスクを出力するように機械学習アルゴリズムを訓練できる。さらに、いくつかの実例では、機械学習アルゴリズムがセンサデータを使用してマスクを出力できる。他の実例では、機械学習アルゴリズムは、センサデータおよび/または処理されたセンサデータを使用してマスクを出力することが可能である。この出願の文脈中では、「トップダウン」とは、そのような機械学習アルゴリズムへと入力された対応するボクセルデータを指す。特に、アルゴリズムは、グリッドのXおよびY離散化の数に等しいサイズの画像の形式でボクセルデータを受け入れる。画像は、Z次元の離散化の数に等しいチャネル数を持つ。ここで、Z次元は高さの寸法、および本明細書で説明される他の数のチャネル(追加の特徴など)を示す。つまり、ボクセルデータは効果的に回転され、上から見た後、機械学習アルゴリズムに入力される。いくつかの例では、アルゴリズムは、立面図または側面図から見られるように効果的に回転されたボクセルデータを受け入れることが可能である。
マスクは、いくつかの実例では、オブジェクトに関連付けられたボクセル空間内の領域を表すことが可能である。以下で詳細に説明されるように、このような機械学習アルゴリズムは、関連するオブジェクトよりも寸法が小さいマスクを出力するように訓練されている。プロセス100は、他の実例では、ボクセル空間内のオブジェクトに関連付けられたマスクを生成することを含むことが可能である。両方の場合において、マスクを受信するか、またはマスクを生成するかのいずれかで、マスクは、工程102で取り込まれたセンサデータの少なくとも一部に基づくことが可能である。
例114は、ボクセル空間116の俯瞰図または平面図を示す。例114はまた、センサデータ118を示す。例示の目的で、センサデータ118は、関連する工程102における環境で取り込まれたセンサデータであることが可能である。例114はまた、ボクセル空間116に関連付けられた第1のマスク120を示している。第1のマスク120は、ボクセル空間内のオブジェクトを表すことが可能であり、例104に示されるようにオブジェクトに関連付けることが可能である。図示を目的として非限定的な例として、第1のマスク120は、センサデータ118よりも少ない数のボクセル空間116内のボクセルに関連付けられている。
いくつかの実例では、ボクセル空間116の個々のボクセルは、複数の特徴を含むことが可能である。非限定的な例として、個々のボクセルは、通常のまたは平均の三次元座標値、座標値の共分散行列、セマンティックセグメンテーション確率(すなわち、ボクセルがオブジェクトの異なるクラスに属するかどうかを示す確率のセット)、占有の表示(つまり、ボクセルにデータがあるかどうか)、レイキャスティング情報(例えば、LIDARからの光線がボクセルを通過したかどうかを示す)、および/またはバックグラウンド減算情報(例えば、センサデータで表されるオブジェクトが背景オブジェクト(例えば、静的オブジェクト)であるかどうか、またはオブジェクトが一時的なオブジェクト(例えば、駐車中の車、歩行者、動物、車など)であるかどうかを示す)などの特徴を含むことが可能である。いくつかの実例では、ボクセル空間116は、例108に示されるように、完全なボクセル空間の「折りたたまれた」バージョンを表すことが可能である。他の実例では、ボクセル空間116は、各疑似ピクセルがボクセルの列に関連付けられている複数の疑似ピクセルとして表現または想定することが可能である。さらに、いくつかの実例では、個々の疑似ピクセルは、個々の疑似ピクセルに関連付けられたボクセルのすべての特徴を含むか、または関連付けることが可能である。非限定的な例として、400×400×7の寸法のボクセルグリッドは、119チャネルの400×400画像として表してもよい。つまり、119チャネルは、7チャネルのボクセルグリッドの高さのそれぞれにボクセルの高さごとに17の特徴(平均位置の3つのチャネル、共分散行列の9つのチャネル、占有チャネル、およびセマンティック分類確率の4つのチャネル)を掛けて表すことが可能である。
工程122において、プロセス100は、第1のマスクを拡張して第2のマスクを生成することを含むことが可能である。いくつかの実例では、システムは第1のマスクをマージン、固定値または百分率、あるいはその両方で拡張することが可能である。他の実例では、システムは第1のマスクを固定値または百分率、あるいはその両方で段階的に拡張することが可能である。いくつかの実例では、システムは、ボクセルまたは疑似ピクセルの占有に関連する領域拡大操作に少なくとも部分的に基づいて、第1のマスクを拡張することが可能である。いくつかの実例では、第2のマスクは第1のマスクと同じ領域を表すことが可能である。さらに、いくつかの実例では、第1のマスクの拡張がすべての方向で均一ではないことがある。したがって、説明の目的で、第2のマスクを生成すると、システムは、第1のマスクの異なる側よりも多いまたは少ない量だけ、第1のマスクの一方の側を拡張することが可能である。
他の実例では、第2のマスクは、本明細書で論じられる工程の結果として、第1のマスクと比較して、より小さな領域またはより大きな領域を表すことが可能である。さらに、システムは、センサデータの少なくとも一部を使用して第2のマスクを生成することが可能である。他の実例では、システムは、機械学習アルゴリズムからの第1のマスクに関連付けられたマージンデータを使用して第2のマスクを生成することが可能である。他の実例では、システムは、ボクセル空間内の追加のオブジェクトを表す追加のマスクを参照しながら、第2のマスクを生成することが可能である。したがって、説明の目的で、システムは、第1のマスクが閾値の増加に達するまで、および/またはそれが追加のマスクに達するまで、第1のマスクを拡張することが可能である。
例124は、ボクセル空間116の俯瞰図を示している。例124はまた、例114で論じられるような第1のマスク120を示す。例124は、上述したように、拡張マスクまたは第2のマスク126をさらに示す。したがって、例示の目的で、第2のマスク126は、第1のマスク120をマージンだけ拡張した後、または少なくとも部分的に領域成長アルゴリズムに基づくクラスタリング技術を使用することによって、第1のマスク120を表すことが可能である。
工程128において、プロセス100は、少なくとも部分的に第2のマスクに基づいて、センサデータをセグメント化することを含むことが可能である。いくつかの実例では、第2のマスクをボクセル空間内のオブジェクトに関連付けることが可能である。さらに、いくつかの実例では、第2のマスクをセンサデータの一部に関連付けられることが可能である。したがって、説明の目的で、システムは、第2のマスクに関連付けられたセンサデータを直接セグメント化することによってセンサデータをセグメント化することが可能である。さらに、システムはボクセルに関連付けられたセンサデータをセグメント化することが可能であり、ボクセルは第2のマスクに関連付けられることが可能である。
説明のために、システムは、領域成長などの1つまたは複数のクラスタリング技術を、センサデータまたは第2のマスクに関連付けられたボクセルに適用して、すべての隣接するデータを単一のオブジェクトに関連付けることが可能である。さらに、システムは、オブジェクト識別子をセンサデータまたは第2のマスクに関連付けられたボクセルに関連付けることが可能である。上記のように、そのような領域成長は、所定の半径内に追加の占有ボクセルがなくなるまで、事前設定された数のボクセルの間、または領域が実質的に同時に成長する1つまたは複数の追加領域と衝突するまで伝播してもよい。
本明細書で説明されるセグメンテーション技術は、オブジェクト検出のためにデータを効率的にセグメント化するためのフレームワークを提供することによって、演算装置の機能を改善することが可能である。例えば、トップダウン視点を使用することで、データの量を減らすことが可能であり、これにより、上述したように、消費される演算リソースの量を減らすことが可能である。さらに、データの量を減らすことで、演算装置がデータをより効率的に処理することが可能となる。いくつかの実例では、システムはデータの一部を別の演算装置に送信することが可能であるため、送信するデータが少なくなることでネットワークの輻輳が軽減される。いくつかの実例では、システムは、オブジェクト検出のためにデータをセグメント化するための処理時間を短縮することが可能である。いくつかの実例では、セグメンテーションの境界は、少なくとも部分的に第2のマスクで定義することが可能である。つまり、いくつかの場合、第2のマスクなしで、クラスタリング技術によってボクセルが複合的な個別のオブジェクトから単一のオブジェクトにクラスタリングされてもよい。したがって、本明細書で論じられる技術の使用は、個別のオブジェクトに関連する領域の併合を防ぐことによって、セグメンテーションの精度を改善することが可能である。
いくつかの実例では、検出されたオブジェクトに関連付けられたデータを計画システムに提供して、軌道を使用して環境を横断する自律車両の軌道を生成することが可能である。いくつかの実例では、検出されたオブジェクトに関連付けられたデータを他のセグメンテーションアルゴリズムおよび/または分類アルゴリズムに提供して、さらに処理することが可能である。これらおよび他の工程は、本明細書で説明される技術の一部として可能である。
図2は、例示的な車両202が通過する例示的な環境200を示している。例えば、車両202は、米国国家高速道路交通安全局が発行するレベル5分類に従って作動するように構成された自律車両などの無人車両であってもよく、これは、運転手(または乗員)が車両を常に制御することを期待しないで、全体行程のすべての安全上重要な機能を実行可能な車両について説明している。そのような例では、車両202は、すべての駐車機能を含み、行程の開始から完了までのすべての機能を制御するように構成されているため、運転手ならびに/またはステアリングホイール、アクセルペダル、および/もしくはブレーキペダルなどの車両202を駆動するための操縦器具を含まなくともよい。これは単なる例であり、本明細書で説明されるシステムと方法は、運転手が常に手動で制御する必要がある車両から、部分的または完全に自律的に制御されているものまで、を含んでいる任意の地上ホーム、空中、または水上車両に組み込んでもよい。いくつかの実例では、この技術はマシンビジョンを使用する任意のシステムに実装でき、車両に限定されない。
例示的な車両202は、例えば、バン、スポーツ用多目的車、クロスオーバー車両、トラック、バス、農業用車両、および建設用車両などの任意の構成の車両であってもよい。車両202は、1つまたは複数の内燃機関、1つまたは複数の電気モーター、水素動力、それらの任意の組み合わせ、および/または任意の他の適切な動力源によって動力を供給されてもよい。例示的な車両は4つの車輪を有するが、本明細書で説明されるシステムおよび方法は、より少ないまたはより多い数の車輪、タイヤ、および/または無限軌道を有する車両に組み込んでもよい。例示的な車両202は、四輪操舵を有してもよく、例えば、車両202の第1の端部が第1の方向に走行する場合の車両202の前端であり、第1の端部は、反対の方向に移動すると車両202の後端になるように、すべての方向でほぼ等しい性能特性で動作してもよい。同様に、車両202の第2の端部は、第2の方向に移動する場合の車両の前端であり、第2の端部は、反対方向に移動する場合の車両202の後端になる。これらの例示的な特性は、例えば、狭い空間または駐車場および/または都市部などの混雑した環境において、より優れた操縦性を促進してもよい。
例示的な車両202などの車両を使用して、環境200を通過し、データを収集してもよい。例えば、車両202は、1つまたは複数のセンサを含むことが可能であり、例示の目的で、1つまたは複数のセンサは、1つまたは複数のLIDARセンサであることが可能である。他のセンサタイプが企図されている(例えば、RADARセンサ、SONARセンサ、イメージセンサ、オーディオセンサ、赤外線センサ、位置センサなど、またはそれらの任意の組み合わせ)。
車両202が環境200を通過する場合、センサは、環境に関連するセンサデータを取り込むことが可能である。さらに、センサデータの一部は、オブジェクト(例えば、樹木204、車両206、および歩行者208)に関連付けられることが可能である。センサデータは、建物、路面、看板、柵などを含むがこれらに限定されない他のオブジェクトに関連付けられることが可能である。
図3Aは、ボクセル空間302に関連付けられたセンサデータ304を備えた三次元ボクセル空間302を含む例300を示している。例300が示すように、ボクセル空間302は三次元に拡張することが可能であり、例300は、ボクセル空間全体の一部を示す。センサデータ304は、LIDARデータを含むことが可能である。いくつかの実例では、ボクセル空間302は、共分散行列、位置情報、分類情報、セグメンテーション情報、ボクセルが占有されているかどうかにかかわらず、いくつかの観測値などを含むがこれらに限定されない任意の数の特徴を表すことが可能である。説明のために複合的なデータポイントとして描かれているが、そのようなセンサデータ304はボクセルごとに格納されている。
図3Bは、トップダウン視点または平面図からのボクセル空間302の例306を示し、ボクセル空間302に関連付けられたセンサデータ304を示している。
図3Cは、ボクセル空間302の例308およびボクセル空間302に関連付けられたセンサデータ304を示している。例308はまた、トップダウン視点からマスク310(図1に示されるような第1のマスク120に対応してもよい)を示す。上述したように、機械学習アルゴリズムはマスク310を出力することが可能である。したがって、説明の目的で、機械学習アルゴリズムは、センサデータ304を使用して、いくつかの実例では、ボクセル空間302内のオブジェクトを表すことが可能であるマスク310を出力することが可能である。他の実例では、システムはマスク310を生成することが可能である。上述したように、いくつかの実例では、機械学習アルゴリズムは、センサデータ304よりも少ない数のボクセルに関連付けられたマスク310を出力することが可能である。他の実例では、機械学習アルゴリズムは、センサデータ304と同数またはそれ以上の数のボクセルに関連付けられたマスク310を出力することが可能である。
図4Aは、センサデータ404を有するボクセル空間402の例400を示している。例400はまた、トップダウン視点からマスク406を示している。説明のために、ボクセル空間402はボクセル空間302を表すことが可能であり、マスク406はマスク310を表すことが可能である。上述したように、機械学習アルゴリズムは、センサデータ404よりも少ない数のボクセルに関連付けられたマスク406を出力することが可能である。
図4Aはまた、ボクセル空間402およびマスク406の例408を示している。さらに、例408はまた、拡張マスク410を示している。非限定的な例として、本明細書で説明される技術を実行することにより、例400は例408をもたらすことが可能である。いくつかの実例では、システムは、クラスタリング技術または領域成長技術を使用して、個別のボクセルを組み合わせて、拡張マスク410を生成することが可能である。他の実例では、システムは、マスク406をマージンまで増加させることによって拡張マスク410を生成することが可能であり、マージンは固定値または百分率で固定されることが可能である。他の実例では(そして図4Bに示されるように)、システムは、拡張マスク410が異なるマスクと交差するまで、拡張マスク410を生成することが可能である。さらに、他の実例では、システムは、上記の技術の組み合わせを使用して、拡張マスク410を生成することが可能である。例408は、本明細書で説明される技術を実行することにより、拡張マスク410が、センサデータ404にも関連付けられたボクセル空間402内のボクセルに関連付けられる例を示す。他の実例では、拡張マスク410は、センサデータ404に関連付けられたボクセルの数より少ないまたは多い数に関連付けることが可能である。
図4Bは、センサデータ418を備えたボクセル空間416の例414を示している。例414はまた、マスクA420およびマスクB422を示している。理解されるように、図4Aは、1つのオブジェクト(例えば、車両)が存在する環境を表す。図4Bは、2つのオブジェクト(例えば、2台の車両)が環境内で互いに隣接または近接してもよい環境を表す。上述したように、機械学習アルゴリズムは、センサデータ418よりも少ない数のボクセルに関連付けられたものとして、マスクA420およびマスクB422を出力することが可能である。
図4Bはまた、マスクA420およびマスクB422を備えたボクセル空間416の例424を示している。非限定的な例として、本明細書で説明される技術を実行することにより、例414は例424をもたらすことが可能である。例424はまた、拡張マスクA424および拡張マスクB426を示している。システムが拡張マスクを生成する場合、システムは、拡張マスクA424または拡張マスクB426のいずれか、あるいはその両方が、別のマスクと接触するか、または交差することが可能であると判断することが可能である。いくつかの実例では、システムは第1のマスクをマージンまで、固定値または百分率、あるいはその両方で拡張することが可能である。次に、システムは、交差基準を満たさなくなるまで、拡張されたマスクを段階的に減らすことが可能である。他の実例では、システムは、別のマスクとの接触または交差をチェックしながら、マスクを段階的に拡張することが可能である。例424では、システムが、マスクA420とマスクB422とをマージンまでそのように拡張した結果、拡張マスクA424と拡張マスクB426とは交差しない。いくつかの実例では、システムは、オーバーラップ閾値によって拡張されたマスクと接触することおよび/または交差することが可能に構成される。他の例では、システムは、拡張されたマスクを構成されるが、拡張されたマスクと接触することはできない。例えば、マスクが交差または接触していると判断すると、システムは一方または両方のマスクのサイズを縮小して、2つのマスクの間にバッファを導入することが可能である。
拡張マスクまたは第2のマスクを生成後、システムは、上述したように、ボクセル空間内におけるオブジェクトを決定するためにセンサデータ上で成長する領域のようなクラスタリング技術または第2のマスクに関連付けられたボクセルを使用することが可能である。つまり、クラスタリング工程は、マスクによって効果的に制限されることが可能である。さらに、システムは、オブジェクト識別子をセンサデータまたは第2のマスクに関連付けられたボクセルに関連付けることが可能である。
図5は、拡張されたマスク(例えば、第2のマスク)を生成するための例示的なプロセス500を示している。いくつかの例では、本明細書で説明されるように、プロセス500のいくつかまたはすべては、図6に示した1つまたは複数の構成要素によって実行されることが可能である。
工程502において、プロセス500は、環境のセンサデータの取り込みを含むことが可能である。上述したように、センサデータは、LIDARデータ、RADARデータ、画像データなどを表すことが可能である。工程504において、プロセス500は、センサデータをボクセル空間に関連付けることを含むことが可能である。上述したように、いくつかの実例では、センサデータは、生のセンサデータとして(例えば、データポイントに関連付けられた個々の<x、y、z、範囲、時間など>の値で)ボクセル空間で表されてもよく/データの統計的蓄積として表されてもよい。
工程506において、プロセス500は、ボクセル空間内のオブジェクトを表す第1のマスクを受け取ることを含むことが可能である。例えば、第1のマスクは、環境内の車両などのオブジェクトを表してもよい。いくつかの実例では、第1のマスクは、センサデータの取り込みに関連付けられた第1の視点とは異なる第2の視点からのオブジェクトを表してもよい。例えば、第1のマスクは、ボクセル空間で表されるオブジェクトの俯瞰図を表してもよい。いくつかの実例では、第1のマスクは、ボクセルデータに関連付けられたマスクを出力するように訓練された機械学習アルゴリズムから受信されることが可能である。いくつかの実例では、機械学習アルゴリズムによって出力されるマスクは、ボクセルデータに関連付けられた分類データまたはセグメンテーションデータの少なくとも一部に基づけられることが可能である。一例では、「歩行者」分類に関連付けられたボクセルに関連付けられたマスクは、固定されたサイズとして生成されることが可能であり、別の例では、「車両」分類に関連付けられたボクセルに関連付けられたマスクは、ボクセルデータのサイズに基づいて生成されることが可能である。マスクは、さまざまな要因に基づいて生成されることが可能であり、本明細書で論じられる例に限定されない。いくつかの例では、機械学習アルゴリズムは、データのクラスター(平均、重心、データの最高密度など)を中心とするマスクを出力するように訓練される。
工程508において、プロセス500は、第1のマスクを拡張することが可能である。上述したように、プロセス500は、第1のマスクを固定値または百分率で拡張することが可能であり、またはプロセス500は、第1のマスクを段階的に拡張することが可能である。いくつかの実例では、プロセス500は、領域成長アルゴリズムの少なくとも一部に基づくクラスタリング技術を使用して、第1のマスクを拡張することが可能である。他の実例では、プロセス500は、それが別のマスクに接触するか交差するまで、第1のマスクを拡張することが可能である。いくつかの実例では、工程508は、ボクセルに関連付けられた分類データまたは第1のマスクによって表された疑似ピクセルの少なくとも一部に基づけられることが可能である。つまり、いくつかの場合、車両に関連付けられたマスクを拡張することは、例えば、歩行者に関連付けられたマスクを拡張することとは、異なる場合がある。例えば、閾値の増加は分類タイプに基づけられることが可能である。
工程510において、プロセス500は、拡張された第1のマスクが、センサデータに関連付けられているすべてのオブジェクトボクセルを含むか、または関連付けられているかどうかを決定することを含むことが可能である。非限定的な例として、工程510は、ボクセル空間が単一のオブジェクトを表すセンサデータに関連付けられ、マスクを拡張することがマスクのある半径内のセンサデータを含むすべてのボクセルを含むことができる事態において肯定的な結果を生じさせることができる。理解されるように、工程510は、図4Aに示されるように表されることが可能である。工程510が肯定的な結果をもたらす場合、プロセス500は、工程516に進むことが可能である。工程510が否定的な結果をもたらす場合、プロセス500は工程512に進み、そこでプロセス500は、拡張された第1のマスクがマージンに接触するかまたは超えるかに関するチェックを実行することができる。非限定的な例として、プロセス500がマージンとして固定値または百分率を使用する場合、工程512は肯定的な結果をもたらすことが可能である。工程512が肯定的である場合、プロセス500は、工程516に進むことが可能である。工程512が否定的な結果をもたらす場合、プロセス500は、工程514に進むことが可能であり、そこでプロセス500は、拡張された第1のマスクが別のマスクと接触するか交差するかに関するチェックを実行することが可能である。
非限定的な例として、工程514は、プロセス500が、別のオブジェクトを表す別のマスクが第1のマスクに隣接または近接しているボクセル空間内の第1のマスクを拡張する場合、肯定な結果をもたらすことが可能である。理解されるように、工程514は、図4Bに示されるように表すことが可能である。工程514が否定的な結果をもたらす場合、プロセス500は、工程508に戻ることが可能である。工程514が肯定的である場合、プロセス500は、工程516に進むことが可能である。説明の目的でこの構成に示されているように、プロセス500は、工程510、512、および514を任意の順序で並行して実行することが可能である。
さらに、工程510、512、および514は、第1のマスクの各側(例えば、左、右、上、下)で独立して実行されることが可能である。したがって、理解されるように、第1のマスクは、例えば、領域拡大アルゴリズムに少なくとも部分的に基づくクラスタリング技術を使用することにより、別のマスクと交差するまで一方の側で拡張され、マージンを満たすか超えるまで別の側で拡張され、センサデータに関連するすべてのボクセルを含むまでさらに別の側で拡張されることが可能である。さらに、参照を目的に図5を通して、すべての工程510、512、514が実行される必要はない。非限定的な例として、工程510、512、または514のいずれかまたはすべてが省略されてもよい。
工程516において、プロセス500は、第1のマスクの拡張後、第2のマスク(例えば、拡張されたマスク)を生成することが可能である。いくつかの実例では、第2のマスクは第1のマスクよりも大きな領域を表すことが可能である。他の実例では、第2のマスクは、第1のマスクと実質的に同様の領域を表すことが可能である。いくつかの実例では、拡張された第1のマスクが異なるマスクと接触するか交差する場合、工程516は、他の工程におけるボクセルデータのセグメンテーションを改善するために、例えば、異なるマスク間に「バッファ」を有する第2のマスクを生成することを含めることが可能である。
図6は、本明細書で論じられる技術を実装するための例示的なシステム600のブロック図を示す。少なくとも1つの例では、システム600は、車両602を含むことが可能であり、これは、図2を参照して上述の車両202と同じ車両であることが可能である。
車両602は、車両演算装置604、1つまたは複数のセンサシステム606、1つまたは複数のエミッタ608、1つまたは複数の通信コネクション610、少なくとも1つのダイレクトコネクション612(例えば、車両602と物理的に結合して、データを交換するため、および/または電力を供給する)および1つまたは複数の駆動モジュール614を含むことが可能である。
1つまたは複数のセンサシステム606は、環境に関連するセンサデータを取り込むように構成されることが可能であり、環境は、図2を参照して上述の環境200と同様の環境であることが可能である。
車両演算装置604は、1つまたは複数のプロセッサ616および1つまたは複数のプロセッサ616と通信可能に結合されたメモリ618を含むことが可能である。図示の例600において、車両602は自律車両である。しかしながら、車両602は任意の他のタイプの車両であることが可能である。図示の例では、車両演算装置604のメモリ618は、ローカリゼーションコンポーネント620、訓練コンポーネント622、計画コンポーネント624、1つまたは複数のシステムコントローラ626、および知覚コンポーネント628を格納する。説明の目的でメモリ618内に存在するものとして示されているが、ローカリゼーションコンポーネント620、訓練コンポーネント622、計画コンポーネント624、1つまたは複数のシステムコントローラ626、および知覚コンポーネント628は、追加的に、または代替的に、車両602(例えば、遠隔で格納される)にアクセス可能であると考えられる。
少なくとも1つの例では、ローカリゼーションコンポーネント620は、車両602の位置を決定するためにセンサシステム606からデータを受信する機能を含むことが可能である。例えば、ローカリゼーションコンポーネント620は、環境の三次元マップを含み、および/または要求/受信することが可能であり、マップ内の自律車両の場所を継続的に決定することが可能である。いくつかの実例では、ローカリゼーションコンポーネント620は、SLAM(simulatenous 同時位置推定およびマッピング)またはCLAMS(同時に較正、位置推定およびマッピング)を使用して、画像データ、LIDARデータ、RADARデータ、SONARデータ、IMUデータ、GPSデータ、ホイールエンコーダーデータ、および自律車両の場所を正確に確定するその他のデータを受信することが可能である。いくつかの実例では、本明細書で論じられるように、ローカリゼーションコンポーネント620は車両602の様々なコンポーネントにデータを提供して、軌道候補を生成するための自律車両の初期位置を確定することが可能である。
いくつかの実例では、訓練コンポーネント622は、センサシステム606からデータを受信し、データ内のクラスを識別するための機械学習アルゴリズムで使用するための訓練データセットを作成する機能を含むことが可能である。例えば、訓練コンポーネント622は、車両、歩行者、自転車、オートバイ、樹木、路面、建物などのクラスを示すことが可能である。いくつかの実例では、訓練コンポーネント622は、センサデータで表されるオブジェクトの範囲(例えば、長さ、幅、高さ)を手動または自動で示す機能を含むことが可能である。いくつかの実例では、訓練データには、訓練データで表されたオブジェクトの範囲を表すLIDARデータに関連付けられた三次元の境界ボックスを含めることが可能である。次に、訓練コンポーネント622は、センサデータをこれらのクラスおよび/または範囲に関連付けて、訓練データセットを作成することが可能である。いくつかの実例では、訓練データセットの少なくとも一部に、オブジェクトによって表されるオブジェクトの真の範囲(例えば、長さと幅)よりも小さいマスクを表す地上における真の情報を含めることが可能である。そのようなグラウンドトゥルースは、例えば、手作業でラベル付けされたデータ、シミュレートされたデータ、またはマスクをデータに関連付ける他のアルゴリズムによって作成されてもよく、その範囲は、その後、ある量だけ減少する。訓練データセットを使用して、センサデータ内のオブジェクトを識別するための機械学習アルゴリズムを訓練することが可能である。機械学習アルゴリズムが訓練されると、機械学習アルゴリズムは、センサデータに基づいて1つ以上のオブジェクトを表す1つ以上のマスクを出力することが可能である。
一般に、計画コンポーネント624は環境を横断するために車両602が辿る経路を確定することが可能である。例えば、計画コンポーネント624は様々なルートおよび軌道ならびに様々なレベルの詳細を確定することできる。例えば、計画コンポーネント624は第1の場所(例えば現在の場所)から第2の場所(例えば目標の場所)へ走行するルートを確定することが可能である。この議論の目的に、ルートは二か所間を走行するための一連の経由地点にすることが可能である。非限定的な例として、経由地点は、道路、交差点、全地球測位システム(GPS)座標などが含まれる。さらに、計画コンポーネント624は、第1の場所から第2の場所への経路の少なくとも一部に沿って自律車両を誘導するための命令を生成することが可能である。少なくとも1つの例では、計画コンポーネント624は経由地点のシーケンス内の第1の経由地点から経由地点のシーケンス内の第2の経由地点まで自律車両をどのように誘導するかを確定することが可能である。いくつかの例では、命令は軌道または軌道の一部であることが可能である。いくつかの例では、後退地平線技法に従って、複合的な軌道は実質的に同時に生成することが可能である(例えば技術的な許容範囲内で)。最高の信頼レベルを有する後退地平線内の複合的な軌道うちの単一の軌道を選択してもよく、車両を操作してもよい。
他の例では、計画コンポーネント624は、代替的に、またはさらに、知覚コンポーネント628からのデータを使用して、環境を横断するために車両602がたどる経路を決定することが可能である。例えば、計画コンポーネントは、環境に関連付けられたオブジェクトに関する知覚コンポーネント628からデータを受け取ることが可能である。このデータを使用して、計画コンポーネント624は、環境内のオブジェクトを回避するために、第1の場所(例えば、現在の場所)から第2の場所(例えば、目標の場所)に移動するルートを決定することが可能である。
少なくとも1つの例では、車両演算装置604は、車両602のステアリング、推進、ブレーキ、安全、エミッタ、通信、および他のシステムを制御するように構成されてもよく1つまたは複数のシステムコントローラ626を含むことが可能である。これらシステムコントローラ626は、駆動モジュール614の対応するシステムおよび/または計画システム624から提供される軌道に従って動作するように構成されてもよい車両602の他の構成要素と通信および/または制御することが可能である。
いくつかの例では、知覚コンポーネント628は、オブジェクトの検出、セグメンテーション、および/または分類作業を実行するための機能を含むことが可能である。いくつかの例では、知覚コンポーネント628は、車両602に近接する実体の存在および/または実体タイプとしての実体の分類(例えば、自動車、歩行者、サイクリングをする人、建物、樹木、路面、縁石、歩道、不明など)を示す処理されたセンサデータを提供することが可能である。追加および/または代替の例では、知覚コンポーネント628は、検出された実体および/または実体が配置されている環境に関連付けられた1つまたは複数の特性を示す処理されたセンサデータを提供することが可能である。いくつかの例では、実体に関連付けられた特性には、x位置(グローバル位置)、y位置(グローバル位置)、z位置(グローバル位置)、方向、実体タイプ(分類など)、実体の速度、実体の範囲(サイズ)などを含むことが可能であるが、これらに限定されない。環境に関連付けられた特性は、環境内における別の実体の存在、環境内における別の実体の状態、時刻、曜日、季節、気象条件、暗さ/明るさの表示などを含むことが可能であるが、これらに限定されない。
図示の例600では、知覚コンポーネント628は、セグメンテーションコンポーネント630を含むことが可能である。次に、セグメンテーションコンポーネントは、関連付けコンポーネント632、拡張コンポーネント634、検証コンポーネント636、およびマスクコンポーネント638を含むことが可能である。
少なくとも1つの例では、関連付けコンポーネント632は、センサデータを受信し、センサデータをボクセル空間に関連付ける機能を含むことが可能であり、ボクセル空間は、いくつかの実例では、三次元を含む。いくつかの実例では、関連付けコンポーネント632は、センサデータを統計的に蓄積し、センサが個々のボクセルに関連付けられている場合にセンサを処理する機能を含むことが可能である。他の実例では、関連付けコンポーネント632は、センサデータを生のセンサデータとしてボクセル空間に関連付ける機能を含むことが可能である(例えば、データポイントに関連付けられた個々の<x、y、z、範囲、時間など>の値)。
図示の例600では、拡張コンポーネント634は、マスクを受け取り、マスクを拡張する機能を含むことが可能であり、いくつかの例では、マスクは、二次元でボクセル空間内のオブジェクトを表す。いくつかの実例では、オブジェクトを二次元で表すマスクは、平面図またはトップダウン視点を使用できる。説明のために、このマスクは第1のマスクと呼ばれることがある。そのようなマスクは、例えば、本明細書で説明されるように、マスクを出力するように訓練された機械学習アルゴリズムに複合的なチャネルの画像としてボクセルグリッドを入力することによって提供されてもよい。マスクの拡張は、本明細書で説明される技術のいずれかに従って(例えば、図5に関して説明されているように)実行されてもよい。
図示の例600では、検証コンポーネント636は、拡張コンポーネント634が第1のマスクを十分に拡張するかどうかを決定するための機能を含むことが可能である。いくつかの実例では、検証コンポーネント636は、拡張コンポーネント634が第1のマスクを拡張して、マスクの周りにおける領域内のセンサデータに関連するすべてのボクセルを含むか(例えば、少なくとも部分的にシードボクセルに基づく、および/またはシードボクセルからの距離または半径に少なくとも部分的に)、拡張コンポーネント634が第1のマスクを拡張してマージンと接触するか(マージンを)超えるか、または拡張コンポーネント634が第1のマスクを拡張して別のマスクに接触するか交差するか、どうかを決定することが可能である。いくつかの実例では、検証コンポーネント636は、これらの機能を並列または直列に実行することが可能である。さらに、いくつかの実例では、拡張コンポーネント634が第1のマスクの側面ごとに第1のマスクを拡張するので、検証コンポーネント636はこれらの機能を実行することが可能である。上述したように、マージンは固定値または第1のマスクの百分率にすることが可能である。さらに、検証コンポーネント636は、少なくとも部分的に領域成長に基づくクラスタリング技術などの技術を使用することが可能である。いくつかの実例では、検証コンポーネント636の決定に基づいて、拡張コンポーネント634は、第1のマスクを拡張し続けることが可能である。いくつかの実例では、検証コンポーネント636の決定に基づいて、マスクコンポーネント638は、拡張コンポーネント634からデータを受信することが可能である。
図示の例600では、マスクコンポーネント638は、拡張コンポーネント634からのデータに少なくとも部分的に基づいて第2のマスクを決定および/または生成する機能を含むことが可能である。いくつかの実例では、マスクコンポーネント638は、第1のマスクに少なくとも部分的に基づいて、第2のマスクを決定および/または生成することが可能である。
セグメンテーションコンポーネント630は、第2のマスクに関連付けられたセンサデータをセグメント化して、オブジェクトおよび/またはオブジェクト識別子を第2のマスクに関連付けられたセンサデータに関連付ける機能を含むことが可能である。いくつかの実例では、セグメンテーションコンポーネント630は、領域成長などの1つまたは複数のクラスタリング技術を、第2のマスクに関連付けられたセンサデータまたはボクセルに適用して、ボクセル空間内のオブジェクトを決定することが可能である。さらに、セグメンテーションコンポーネント630は、いくつかの実例では、オブジェクト識別子を、第2のマスクに関連付けられたセンサデータまたはボクセルに関連付けることが可能である。
少なくとも1つの例では、センサシステム606は、LIDARセンサ、RADARセンサ、超音波変換器、SONARセンサ、位置センサ(例えば、GPS、コンパスなど)、慣性センサ(例えば、慣性測定ユニット(IMU)、加速度計、磁気計、ジャイロスコープなど)、カメラ(RGB、IR、強度、深度など)、マイク、ホイールエンコーダー、環境センサ(温度センサ、湿度センサ、光センサなど)、圧力センサなど)などを含むことが可能である。センサシステム606は、これらまたは他のタイプのセンサのそれぞれの複合的な実例を含むことが可能である。例えば、LIDARセンサは、車両602の角、前部、後部、側面、および/または上部に配置された個々のLIDARセンサを含むことが可能である。別の例として、カメラセンサは、車両602の外部および/または内部の周りの様々な場所に配置された複合的なカメラを含むことが可能である。センサシステム606は、車両演算装置604に入力を提供することが可能である。さらに、および/または代替として、センサシステム606は、1つまたは複数のネットワーク640を介して、所定の期間の経過後、ほぼリアルタイムなどで、特定の周波数で1つまたは複数の演算装置642にセンサデータを送信することが可能である。
車両602はまた、上述したように、光および/または音を放出するための1つまたは複数のエミッタ608を含むことが可能である。この例のエミッタ608は、車両602の乗客と通信するための内部オーディオエミッタおよび内部ビジュアルエミッタを含む。例として限定されないが、内部エミッタは、スピーカー、ライト、標識、ディスプレイスクリーン、タッチスクリーン、触覚エミッタ(例えば、振動および/または力のフィードバック)、機械的アクチュエータ(例えば、シートベルトテンショナー、シートポジショナー、ヘッドレストポジショナーなど)などを含むことが可能である。この例のエミッタ608はまた、外部エミッタを含む。非限定的な例として、この例の外部エミッタは、進行方向または車両動作の他のインジケータ(例えば、インジケータライト、標識、ライトアレイなど)を信号で伝えるライト、および歩行者または他の近くの車両と聴覚的に対話する1つまたは複数のオーディオエミッタ(例えば、スピーカー、スピーカーアレイ、ホーンなど)を含み、その1つまたは複数は、音響ビームステアリング技術を含んでもよい。
車両602はまた、車両602と1つまたは複数の他のローカルまたは遠隔演算装置との間の通信を可能にする1つまたは複数の通信コネクション610を含むことが可能である。例えば、通信コネクション610は、車両602および/または駆動モジュール614上の他のローカル演算装置との通信を容易にすることが可能である。また、通信コネクション610は、車両が他の近くの演算装置(例えば、他の近くの車両、交通信号など)と通信することを可能にすることが可能である。通信コネクション610はまた、車両602が遠隔操作演算装置または他の遠隔サービスと通信することを可能にすることが可能である。
通信コネクション610は、車両演算装置604を別の演算装置またはネットワーク640などのネットワークに接続するための物理的および/または論理的インターフェースを含むことが可能である。例えば、通信コネクション610は、IEEE802.11規格で定義された周波数、Bluetoothなどの短距離無線周波数、セルラー通信(2G、3G、4G、4GLTE、5Gなど)などのwi−fiベースの通信を有効にすることが可能である。
少なくとも1つの例では、車両602は、1つまたは複数の駆動モジュール614を含むことが可能である。いくつかの例では、車両602は単一の駆動モジュール614を有することが可能である。少なくとも1つの例では、車両602が複合的な駆動モジュール614を有する場合、個々の駆動モジュール614は車両602の両端部(例えば前部および後部など)に配置されることができる。少なくとも1つの例では、駆動モジュール614は、駆動モジュール614および/または車両602の周辺環境の状態を検出するための1つまたは複数のセンサシステムを含むことが可能である。非限定的な例として、センサシステムは、駆動モジュールのホイールの回転を感知するための1つまたは複数のホイールエンコーダー(例えばロータリーエンコーダー)、ドライブモジュールの向きと加速度を測定するための慣性センサ(例えば、慣性測定ユニット、加速度計、ジャイロスコープ、磁力計など)、カメラまたはその他の画像センサ、ドライブモジュールの周辺環境のオブジェクトを音響的に検出するための超音波センサ、LIDARセンサ、RADARセンサなど、を含むことが可能である。ホイールエンコーダーなどの一部のセンサは、駆動モジュール614に固有のものにできる。いくつかの場合、駆動モジュール614上のセンサシステムは車両602の対応するシステム(例えばセンサシステム606)と重複または補足することが可能である。
駆動モジュール614は、高電圧バッテリー、車両を推進するモーター、バッテリーからの直流を他の車両システムで使用する交流に変換するインバーター、ステアリングモーターおよびステアリングラック(電動であることが可能である)を含むステアリングシステム、油圧または電気アクチュエータを含むブレーキシステム、油圧および/または空気圧コンポーネントを含むサスペンションシステム、トラクションの損失を軽減し制御を維持するブレーキ力分散用の安定性制御システム、HVACシステム、照明(例えば車両の外部環境を照らすヘッド/テールライトなどの照明)、および1つ以上の他のシステム(例えば冷却システム、安全システム、車載充電システム、DC/DCコンバーター、高電圧ジャンクション、高電圧ケーブル、充電システム、充電ポートなどのその他の電装コンポーネント)を含む多くの車両システムを含むことが可能である。さらに、駆動モジュール614は、センサシステムからデータを受信し、事前処理することが可能であり、様々な車両システムの工程を制御できる駆動モジュールコントローラを含むことが可能である。いくつかの例では、駆動モジュールコントローラは、1つまたは複数のプロセッサ、および1つまたは複数のプロセッサと通信可能に結合されたメモリを含むことが可能である。メモリは1つまたは複数のモジュールを格納して、駆動モジュール614の様々な機能を実行できる。さらに、駆動モジュール614はまた、それぞれのドライブモジュールによる1つまたは複数の他のローカルまたは遠隔演算装置との通信を可能にする1つまたは複数の通信接続を含む。
少なくとも1つの例では、ローカリゼーションコンポーネント620および/または計画コンポーネント624は、上述したように、センサデータを処理することが可能であり、1つまたは複数のネットワーク640を介して、1つまたは複数の演算装置にそれぞれの出力を送信することが可能である。少なくとも1つの例では、ローカリゼーションコンポーネント620、および/または計画コンポーネント624は、所定の期間の経過後、特定の周波数で、ほぼリアルタイムなどで、それぞれの出力を1つまたは複数の演算装置642に、送信することが可能である。
車両602は、ネットワーク640を介して、センサデータを1つまたは複数の演算装置642に送信することが可能である。いくつかの例では、車両602は未処理のセンサデータを演算装置642に送信することが可能である。他の例では、車両602は処理されたセンサデータおよび/またはセンサデータの表現を演算装置642に送信することが可能である。いくつかの例では、車両602は、所定の期間が経過した後、ほぼリアルタイムなどで、特定の周波数でセンサデータを演算装置642に送信することが可能である。いくつかの場合、車両602はセンサデータ(未処理または処理済み)を1つまたは複数のログファイルとして演算装置642に送信することが可能である。
演算装置642は、センサデータ(未処理または処理された)を受信でき、センサデータに基づいてマップを生成および/または更新できる。さらに、演算装置642は、少なくとも1つの例では、1つまたは複数のプロセッサ644および1つまたは複数のプロセッサ644と通信可能に結合されたメモリ646を含むことが可能である。図示の例では、演算装置642のメモリ646は、訓練コンポーネント648と、関連コンポーネント652、拡張コンポーネント654、検証コンポーネント656、およびマスクコンポーネント658を含むセグメンテーションコンポーネント650を格納する。
訓練コンポーネント648は、センサデータを受信し、訓練データセットを作成することが可能である。理解されるように、訓練コンポーネント648は、訓練コンポーネント622と併せて説明される機能において対応することが可能である。
一般に、セグメンテーションコンポーネント650は、1つまたは複数の車両(車両602など)からデータを受信することが可能であり、環境内のオブジェクトを検出するためにセンサデータをセグメント化することが可能である。理解されるように、セグメンテーションコンポーネント650およびそこに含まれるコンポーネントは、セグメンテーションコンポーネント630に関連して論じられる機能において対応することが可能である。
車両602のプロセッサ616および演算装置642のプロセッサ644は本明細書で説明されるようにデータを処理し工程を実行するための命令を実行できる任意の適切なプロセッサであることが可能である。非限定的な例として、プロセッサ616および644は、1つまたは複数の中央処理装置(CPU)、画像処理装置(GPU)、または電子データを処理して電子データをレジスタまたはメモリに格納できる他の電子データに変換する他の任意のデバイスまたはデバイスの一部、を備えることが可能である。いくつかの例では、集積回路(例えばASICsなど)、ゲートアレイ(例えばFPGAsなど)、および他のハードウェアデバイスもまた、それらが符号化された命令を実装するように構成される限り、プロセッサと見做すことが可能である。
メモリ618およびメモリ646は、非一時的なコンピュータ可読媒体の例である。メモリ618およびメモリ646は、オペレーティングシステムおよび1つまたは複数のソフトウェアアプリケーション、命令、プログラム、および/またはデータを格納して、本明細書で説明される方法および様々なシステムに起因する機能を実装することが可能である。様々な実装では、メモリ618およびメモリ646は、スタティックランダムアクセスメモリ(SRAM)、シンクロナスダイナミックRAM(SDRAM)、不揮発性/フラッシュタイプのメモリ、または情報を格納可能なその他のタイプのメモリなど、適切なメモリ技術を使用して実装されることが可能である。本明細書で説明される構成、システム、および個々の要素は、他の多くの論理的、プログラム的、および物理的コンポーネントを含むことが可能であり、それらの添付図面に示すものは、本明細書の議論に関連する例にすぎない。
いくつかの実例では、本明細書で論じられるコンポーネントのいくつかまたはすべての態様は、任意のモデル、アルゴリズム、および/または機械学習アルゴリズムを含むことが可能である。例えば、いくつかの実例では、メモリ618および646内のコンポーネントは、ニューラルネットワークとして実装することが可能である。
本明細書で説明されるように、例示的なニューラルネットワークは、入力データを一連の接続された層に通して出力を生成する生物学的に着想を得たアルゴリズムである。ニューラルネットワークの各層は、別のニューラルネットワークを含むことも、任意の数の層を含むことが可能である(畳み込みかどうかに関係なく)。本開示の文脈で理解されるように、ニューラルネットワークは、機械学習を使用することが可能であり、学習されたパラメータに基づいて生成された出力におけるアルゴリズムのような広範囲のクラスを参照することができる。
ニューラルネットワークの文脈で説明されているが、任意のタイプの機械学習がこの開示と一致して使用されることが可能である。例えば、機械学習アルゴリズムは、回帰アルゴリズム(例:通常の最小二乗回帰(OLSR)、線形回帰、ロジスティック回帰、段階的回帰、多変量適応回帰スプライン(MARS)、局所的に推定されたスキャッタープロットスムージング(LOESS))、インスタンスベースのアルゴリズム(例、リッジ回帰、最小絶対収縮および選択演算子(LASSO)、エラスティックネット、最小角度回帰(LARS))、決定ツリーアルゴリズム(例:分類および回帰ツリー(CART)、反復二分法3(ID3)、カイ二乗自動相互作用検出(CHAID)、決定の切り株、条件付き決定ツリー)、ベイジアンアルゴリズム(例、ナイーブベイズ、ガウスナイーブベイズ、多項ナイーブベイズ、平均1依存推定器(AODE)、ベイジアン信念ネットワーク(BNN)、ベイジアンネットワーク)、クラスタリングアルゴリズム(例、k−means、k−medians、expectation最大化(EM)、階層型クラスタリング)、関連ルール学習アルゴリズム(例、パーセプトロン、逆伝播、ホップフィールドネットワーク、放射状基底関数ネットワーク(RBFN))、深層学習アルゴリズム(例、DeepBoltzmannMachine(DBM)、DeepBeliefNetworks(DBN)、ConvolutionalNeuralNetwork(CNN)、StackedAuto−Encoders)、次元削減アルゴリズム(例、主成分分析(PCA)、主成分回帰(PCR)、部分最小二乗回帰(PLSR)、サモンマッピング、多次元スケーリング(MDS)、射影追跡、線形判別分析(LDA)、混合判別分析(MDA)、二次判別分析(QDA)、柔軟な判別分析(FDA))、アンサンブルアルゴリズム(例、ブースティング、ブートストラップ集約(バギング)、AdaBoost、スタック一般化(ブレンド)、勾配ブースティングマシン(GBM)、勾配ブースティング回帰ツリー(GBRT)、ランダムフォレスト)、SVM(サポートベクトルマシン)、教師あり学習、非教師あり学習、半教師あり学習など、を含むことが可能であるが、これらに限定されない。
アーキテクチャの追加の例には、ResNet70、ResNet101、VGG、DenseNet、PointNetなどのニューラルネットワークが含まれる。
図6は分散されたシステムとして示されているが、代替の例では、車両602のコンポーネントは演算装置642に関連付けられることが可能であり、および/または演算装置642のコンポーネントは車両602に関連付けられることが可能である、という事に注意すべきである。すなわち、車両602は演算装置642に関連付けられた機能のうちの1つまたは複数を実行でき、逆もまた同様である。
図7は、1つまたは複数のマスクを出力するように機械学習アルゴリズムを訓練するための例示的なプロセスを示している。いくつかの例では、プロセス500のいくつかまたはすべては、本明細書で説明されるように、図6の1つまたは複数の構成要素によって実行されることが可能である。
工程702において、プロセスは、環境内の少なくとも1つのオブジェクトを表すセンサデータ(例えば、LIDARデータ、画像データなど)の取り込みを含むことが可能である。例えば、環境は、車両、歩行者、建物、動物などのオブジェクトを含んでもよいが、これらに限定されない。
工程704において、プロセスは、少なくとも部分的にセンサデータに基づいて、少なくとも1つのオブジェクトに関連付けられた三次元境界ボックスを生成することを含むことが可能である。例えば、境界ボックスは、画像データで表されるオブジェクトの範囲(長さ、幅、高さなど)を表すことが可能である。いくつかの実例では、工程704は、センサデータの少なくとも一部をボクセル空間に関連付けることを含むことが可能である。いくつかの実例では、ボクセル空間のボクセルには、LIDARデータを表す任意の数の特徴を含めることが可能である。例えば、ボクセルの特徴は、ボクセルに関連付けられたLIDARデータの平均、1つまたは複数のデータの自由度(例えば、x方向、y方向、z方向など)に関連する1つまたは複数の共分散行列、セマンティックセグメンテーション確率(例えば、1つ以上のLIDARデータポイントが、車両、動物、歩行者、建物を含むがこれらに限定されない1つ以上のオブジェクトを表す確率等)、ボクセルの占有の表示、レイキャスティング情報、空きスペースの表示、バックグラウンド減算情報など、を含んでもよいが、これらに限定されない。
工程706において、プロセスは、訓練データとして、少なくとも部分的に三次元境界ボックスに基づいた、少なくともオブジェクト上に関連付けられた領域よりも小さい領域を表すマスクであって、ボクセル空間のトップダウン視点に関連付けられたマスクを生成することを含めることができる。
例えば、マスクは、ボクセル空間で表されるオブジェクトの地上における真の境界ボックスよりも小さい表現を表してもよい。
工程708において、プロセスは、十分な訓練データがあるかどうかを決定することを含むことが可能である。noの場合、プロセスは、工程702に戻って、追加のセンサデータを取り込み、追加の境界ボックスおよび/またはマスクを生成することが可能である。yesの場合、プロセスは工程710を続行することが可能である。
工程710において、プロセスは、訓練を含むことが可能であり、訓練データ、オブジェクトよりも小さいオブジェクトの領域を表すマスクを出力するための機械学習アルゴリズムに少なくとも部分的に基づいている。例えば、マスクは、オブジェクトの「内部」を表してもよく、そのようなマスクは、比較的高いレベルの信頼性で、実際に、特定のオブジェクトに関連付けられた、マスクに関連付けられたボクセルを表す。
工程712において、プロセスは、取り込まれたセンサデータをセグメント化するためのシステムに機械学習アルゴリズムを送信することを含むことが可能である。本明細書で論じられるように、システムは、自律型車両または、本明細書で論じられるように、マシンビジョンを利用する任意のシステムを含むことが可能である。
図8は、本明細書で論じられるように、センサデータに基づく位置に少なくとも部分的に基づいて自律車両に指令するための例示的なプロセス800を示す。例えば、本明細書で説明されるように、プロセス800の一部またはすべては、図6の1つまたは複数のコンポーネントによって実行されることが可能である。例えばプロセス800の一部またはすべては車両602の1つまたは複数のコンポーネントによって実行されることが可能である。
工程802において、プロセスは自律車両によって取り込まれたセンサデータを受信することを含むことが可能である。いくつかの実例では、センサデータは、環境の地表面に関連付けられた領域を決定するために、車両602によって受信されることが可能である。
工程804において、プロセスは少なくとも部分的にセンサデータに基づいて、自律車両のための軌道の生成を含むことが可能である。例えば、本明細書で論じられるように、工程804は、オブジェクトに関連付けられたセグメンテーションデータを受信し、オブジェクト(例えば、車、歩行者など)を追跡して、セグメンテーションデータに少なくとも部分的に基づいて軌道を決定することを含むことが可能である。
工程806において、プロセスは自律車両に軌道に従うように指令することを含むことが可能である。いくつかの実例では、工程806は、自律車両の1つ以上のシステムへの経路、軌道、および/または制御信号を生成して、環境内での自律車両の誘導を含むことが可能である。
図1、図5、図7、および図8は、本開示の実施形態による例示的なプロセスを示す。これらのプロセスはロジカルフローグラフとして示され、各工程は、ハードウェア、ソフトウェア、またはそれらの組み合わせで実装される工程のシーケンスを表す。ソフトウェアの文脈では、工程は、1つまたは複数のプロセッサによって実行されると、列挙された工程を実行する、1つまたは複数のコンピュータ可読記憶媒体に格納されたコンピュータ実行可能命令を表す。一般に、コンピュータ実行可能命令は、特定の機能を実行するか、または特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含む。工程が説明される順序は、限定として解釈されることを意図されておらず、説明された工程のいくつかは任意の順序および/または並行して組み合せわられ、プロセスを実装することができる。
[実施形態]
A.システムは1つまたは複数のプロセッサと、1つまたは複数のプロセッサによって実行可能な命令を格納し、命令が実行されると、システムに以下の工程を実行させる1つまたは複数のコンピュータ可読媒体と、を備え、工程は、車両の光検出および測距(LIDAR)センサを使用してセンサデータを取り込むこと(工程と)、センサデータを少なくとも三次元を含むボクセル空間に関連付けること、ボクセル空間の二次元表現を生成すること、画像チャネルの数を含む二次元表現を機械学習アルゴリズムに入力すること、機械学習アルゴリズムから、ボクセル空間内のオブジェクトを二次元で表す第1のマスクを受け取ること、第1のマスクの拡張部分の少なくとも一部に基づいて、第2のマスクを生成することであって、拡張部分は、少なくとも1つの拡張領域アルゴリズム、前記第1のマスクのサイズ、または他のオブジェクトに関連付けられた第3のマスクの交点の少なくとも一部に基づくこと、および少なくとも部分的に第2のマスクに基づいて、センサデータを、セグメント化すること、を含む。
B:段落Aのシステムであって、機械学習アルゴリズムは、取り込まれたLIDARデータを受け取ることと第1の幅および第1の長さを有する検出されたオブジェクトを表現することとの少なくとも一部に基づいて検出されたオブジェクトに関連付けられたマスクを出力するために訓練されており、マスクは第1の幅以下の第2の幅、および第1の長さ以下の第2の長さを有する。
C:段落AまたはBのシステムであって、疑似ピクセルは、前記ボクセル空間のボクセルに関連付けられており、前記疑似ピクセルは、前記ボクセル空間における前記ボクセルの列を表している。
D:段落Cのシステムであって、疑似ピクセルは、ボクセルの列に関連付けられた特徴を含む。
E:段落A〜Dのいずれかに1つに記載のシステムであって、センサデータをセグメント化することは、第2のマスク内のボクセル空間の1つまたは複数のボクセルをクラスター化するために領域成長アルゴリズムを使用することを含む。
F:方法Aは、1つまたは複数のセンサを使用して、環境内のオブジェクトを示す、環境のセンサデータを取り込むこと、センサデータをボクセル空間に関連付けること、ボクセル空間の一部に関連付けられた第1のマスクを受け取ること、第1のマスクは、オブジェクトよりもサイズが小さい領域を表すこと、第1のマスクを拡張することによって第2のマスクを生成すること、および、少なくとも部分的に第2のマスクと、センサデータと、に基づいてセグメント化すること、を含む。
G:段落Fの方法は、センサデータのセグメント化に少なくとも部分的に基づいて、自律車両の軌道を生成すること、および、少なくとも部分的に軌道に基づいて、環境を横断する自律車両を制御すること、を含む。
H:段落FまたはGの方法は、機械学習アルゴリズムの中にボクセル空間の二次元表現を入力することと、第1のマスクとして、機械学習アルゴリズムの出力を受け取ることと、をさらに含む。
I:段落Hの方法であって、ボクセル空間の二次元表現は、少なくともボクセル空間の高さと1つまたは複数の特徴の一部とに基づく、チャネルの数を有する画像を含む。
J:段落Iの方法であって、1つまたは複数の特徴は、センサデータの平均、センサデータがボクセルに関連付けられた回数、センサデータの共分散、ボクセルが1つまたは複数の分類に属する確率、ボクセルに関連付けられたレイキャスティング情報、または、ボクセルの占有、を含む。
K:段落F〜Jのいずれかに1つに記載の方法であって、1つまたは複数のセンサは、1つまたは複数の光検出および測距(LIDAR)センサを含む。
L:段落F〜Kのいずれかに1つに記載の方法であって、第1のマスクは、センサデータに関連付けられた分類データ上の、少なくとも一部に基づいて、生成される。
M:段落Lの方法であって、分類データは、車両、自転車、または歩行者のうちの
少なくとも1つまたは複数である。
N:段落F〜Mのいずれかに1つに記載の方法であって、第2のマスクを生成することは、第1のマスクの拡張部分と、ボクセル空間に関連付けられた他のオブジェクトに関連付けられた第3のマスクと、における交点の少なくとも一部に基づくことを含む。
O:段落F〜Nのいずれかに1つに記載の方法であって、センサデータをセグメント化することは、第2のマスクに関連付けられたボクセル空間の1つまたは複数のボクセルを関連付けることを含む。
P:Aは、1つまたは複数のプロセッサによって実行可能な命令を格納する非一時的なコンピュータ可読媒体であって、命令が実行されると、1つまたは複数のプロセッサに、自律車両上の1つまたは複数のセンサから環境のセンサデータを受け取ることと、センサデータをボクセル空間に関連付けることと、ボクセル空間の一部分に関連付けられており、第2の視点を使用して、少なくともオブジェクトの一部分を表している第1のマスクを受け取ることと、第1のマスクを拡張することにより、第2のマスクを生成することと、少なくとも第2のマスクの一部に基づいて、センサデータをセグメント化することと、を含む工程を実行させる。
Q:段落Pに記載の非一時的なコンピュータ可読媒体であって、センサデータをセグメント化することは、ボクセル空間の1つまたは複数のボクセルを第2のマスクに関連付けることを含む。
R:段落PまたはQに記載の非一時的なコンピュータ可読媒体であって、工程は、第1のマスクの拡張部とボクセル空間内の他のオブジェクトに関連付けられた第3のマスクとにおける交点の少なくとも一部に基づいて、第2のマスクを生成すること、をさらに含む。
S:段落P〜Rのいずれか1つに記載の非一時的なコンピュータ可読媒体であって、工程は、機械学習アルゴリズムの中にボクセル空間を、二次元表現として、入力することと、機械学習アルゴリズムの出力を、第1のマスクとして、受け取ることと、を含み、二次元表現は、ボクセル空間の一次元に関連付けられた長さと、ボクセル空間の二次元に関連付けられた幅と、ボクセル空間の三次元上におけるセンサデータの平均、センサデータの共分散、センサデータの観測の回数、占有率、またはセマンティック分類に関連付けられた1つまたは複数の確率の1つまたは複数の特徴の少なくとも一部に基づくチャネルの数と、を有する疑似画像を含む。
T:段落P〜Sのいずれか1つに記載の非一時的なコンピュータ可読媒体であって、工程は、センサデータをセグメント化することの少なくとも一部に基づいて、自律車両の軌道を生成することと、軌道の少なくとも一部に基づいて、環境を横断する自律車両を制御することと、さらに含む。
上述の例示の条項は、1つの特定の実装に関して論じられたが、この文書のコンテキストにおいて、例示の条項におけるコンテンツはまた、方法、デバイス、システム、および/またはコンピュータ可読媒体を介して実装できると、理解されるべきである。
本明細書で説明される技術における1つまたは複数の例が説明されてきたが、様々な変更、追加、置換、およびそれらの同等物が、本明細書で説明された技術の範囲内に含まれる。
例示の説明では、本明細書の一部を形成する添付の図面を参照するが、これは例示として請求される主題の具体的な例を示す。他の例を使用することが可能であり、構造的変更などの変更または代替を行うことが可能であることを理解されたい。そのような例、変更または代替は、意図された請求された主題に関する範囲から必ずしも逸脱しない。本明細書のステップは特定の順序で提示されることが可能であるが、場合によっては、説明するシステムおよび方法の機能を変更することなく、特定の入力が異なる時間または異なる順序で提供されるように順序を変更されることが可能である。開示された手順はまた、異なる順序で実行されることが可能である。
さらに、本明細書にある様々な計算は開示された順序で実行される必要はなく、計算の代替順序を使用する他の例は容易に実装されることが可能である。並べ替えに加えて、計算はまた、サブ計算に分解されて同じ結果を得ることが可能である。

Claims (15)

  1. 1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサによって実行可能な命令を格納し、前記命令が実行されると、前記システムに以下の工程を実行させる1つまたは複数のコンピュータ可読媒体と、を備え、前記工程は、
    車両上のセンサを使用してセンサデータを取り込むこと、(工程と、)
    前記センサデータを少なくとも三次元を含むボクセル空間に関連付けること、
    前記ボクセル空間の二次元表現を生成すること、
    前記二次元表現を機械学習アルゴリズムに入力すること、
    前記機械学習アルゴリズムから、前記ボクセル空間内のオブジェクトを二次元で表す第1のマスクを受け取ること、
    前記第1のマスクの拡張部分の少なくとも一部に基づいて、第2のマスクを生成することであって、前記拡張部分は、少なくとも1つの拡張領域アルゴリズム、前記第1のマスクのサイズ、または他のオブジェクトに関連付けられた第3のマスクの交点の少なくとも一部に基づくこと、および
    前記第2のマスクの少なくとも一部に基づいて、前記センサデータをセグメント化すること、
    を含むことを特徴とするシステム。
  2. 請求項1に記載のシステムであって、前記機械学習アルゴリズムは、取り込まれたLIDARデータを受け取ることと第1の幅および第1の長さを有する検出されたオブジェクトを表現することとの少なくとも一部に基づいて検出されたオブジェクトに関連付けられたマスクを出力するために訓練されており、前記マスクは第1の幅以下の第2の幅、および第1の長さ以下の第2の長さを有する、ことを特徴とするシステム。
  3. 請求項1または2に記載のシステムであって、疑似ピクセルは、前記ボクセル空間のボクセルに関連付けられること、前記疑似ピクセルは、前記ボクセル空間における前記ボクセルの列および前記ボクセルの列に関連付けられた特徴を含むことを特徴とするシステム。
  4. 請求項1または2に記載のシステムであって、前記センサデータをセグメント化することは、前記領域成長アルゴリズムを使用して前記第2のマスク内のボクセル空間の1つまたは複数のボクセルをクラスター化することを含むことを特徴とするシステム。
  5. センサを用いて、環境のセンサデータの取り込むことであって、前記センサデータは環境内の1つのオブジェクトを示すこと、
    前記センサデータをボクセル空間に関連付けること、
    ボクセル空間の一部に関連付けられた第1のマスクを受け取ることであって、前記第1のマスクは前記オブジェクトよりも小さいサイズの領域を表わすこと、
    前記第1のマスクを拡張することにより第2のマスクを生成すること、および
    少なくとも前記第2のマスクの一部に基づいて、前記センサデータを、セグメント化すること、
    を含むことを特徴とする方法。
  6. 請求項5に記載の方法であって、
    少なくともセンサデータをセグメント化することの一部に基づいて、自律車両のための軌道を、生成すること、および
    少なくとも前記軌道の一部に基づいて、前記自律車両が前記環境を横断するための、制御をすること、を含むことを特徴とする方法。
  7. 請求項5に記載の方法であって、
    前記ボクセル空間の二次元表現を機械学習アルゴリズムに入力すること、および
    前記機械学習アルゴリズムの出力を前記第1のマスクとして受け取ること、を含むことを特徴とする方法。
  8. 請求項7に記載の方法であって、前記ボクセル空間の前記二次元表現は、少なくともボクセル空間の高さ及び1つまたは複数の特徴に基づくチャネルの数を有する画像を含むことを特徴とする方法。
  9. 請求項8に記載の方法であって、前記1つまたは複数の特徴は、
    前記センサデータの平均、
    前記センサデータが前記ボクセルに関連付けられている回数、
    前記センサデータの共分散、
    一以上の分類に属するボクセルの確率
    前記ボクセルに関連付けられたレイキャスティング情報;または
    ボクセルの占有
    のうち少なくとも1つを含む、
    ことを特徴とする方法。
  10. 請求項7に記載の方法であって、前記二次元表現は、前記ボクセル空間の一次元に関連付けられた長さ、前記ボクセル空間の二次元に関連付けられた幅、およびチャネルの数を有する疑似画像を含むこと、および
    前記チャネルの数は、前記ボクセル空間の三次元と1つのまたは複数の特徴を備えたセンサデータの平均、センサデータの共分散、センサデータの観測数、占有、またはセマンティック分類に関連付けられた1つのまたは複数の確率、の少なくとも一部、に基づくことを特徴とする方法。
  11. 請求項5に記載の方法であって、前記センサは、光検出および測距(LIDAR)センサを含むことを特徴とする方法。
  12. 請求項5に記載の方法であって、前記第1のマスクは、少なくともセンサデータに関連付けられたクラス上のデータの一部に基づいて生成されること、前記クラス上のデータは、少なくとも1つのまたは複数の車両、自転車、または歩行者であることを特徴とする方法。
  13. 請求項5に記載の方法であって、
    前記第1のマスクの拡張部分と前記ボクセル空間に関連付けられた他のオブジェクトに関連付けられた第3のマスクとの交点の少なくとも一部に基づいて前記第2のマスクを生成すること、
    ことをさらに含むことを特徴とする方法。
  14. 請求項5に記載の方法であって、前記センサデータをセグメント化することは、前記第2のマスクに関連付けられたボクセル空間の1つまたは複数のボクセルを関連付けることを含むことを特徴とする方法。
  15. 実行されると、1つまたは複数のプロセッサに、請求項5から14のいずれか1項に記載されている方法を実装させる命令を格納する非一時的なコンピュータ可読媒体。
JP2020559462A 2018-04-26 2019-04-23 マスクを使用したデータセグメンテーション Active JP7350013B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/963,833 US10649459B2 (en) 2018-04-26 2018-04-26 Data segmentation using masks
US15/963,833 2018-04-26
PCT/US2019/028667 WO2019209795A1 (en) 2018-04-26 2019-04-23 Data segmentation using masks

Publications (2)

Publication Number Publication Date
JP2021522585A true JP2021522585A (ja) 2021-08-30
JP7350013B2 JP7350013B2 (ja) 2023-09-25

Family

ID=68292419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020559462A Active JP7350013B2 (ja) 2018-04-26 2019-04-23 マスクを使用したデータセグメンテーション

Country Status (5)

Country Link
US (3) US10649459B2 (ja)
EP (1) EP3784984A4 (ja)
JP (1) JP7350013B2 (ja)
CN (2) CN112041633B (ja)
WO (1) WO2019209795A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017063033A1 (en) * 2015-10-12 2017-04-20 Groundprobe Pty Ltd Slope stability lidar
US10649459B2 (en) 2018-04-26 2020-05-12 Zoox, Inc. Data segmentation using masks
US10810792B2 (en) * 2018-05-31 2020-10-20 Toyota Research Institute, Inc. Inferring locations of 3D objects in a spatial environment
US11995763B2 (en) * 2018-07-02 2024-05-28 Vayyar Imaging Ltd. System and methods for environment mapping
US20210165413A1 (en) * 2018-07-26 2021-06-03 Postmates Inc. Safe traversable area estimation in unstructured free-space using deep convolutional neural network
WO2020082382A1 (en) * 2018-10-26 2020-04-30 Intel Corporation Method and system of neural network object recognition for image processing
US10983201B2 (en) 2018-10-29 2021-04-20 Dji Technology, Inc. User interface for displaying point clouds generated by a lidar device on a UAV
DK201970115A1 (en) * 2018-11-08 2020-06-09 Aptiv Technologies Limited DEEP LEARNING FOR OBJECT DETECTION USING PILLARS
CN109685762A (zh) * 2018-11-09 2019-04-26 五邑大学 一种基于多尺度深度语义分割网络的天线下倾角测量方法
US11010907B1 (en) * 2018-11-27 2021-05-18 Zoox, Inc. Bounding box selection
US10936902B1 (en) 2018-11-27 2021-03-02 Zoox, Inc. Training bounding box selection
US11294042B2 (en) * 2018-12-31 2022-04-05 Wipro Limited Method and system for detecting presence of partial visual fault in Lidar sensor of vehicle
US11521010B2 (en) * 2019-01-23 2022-12-06 Motional Ad Llc Automatically choosing data samples for annotation
CN111771206B (zh) * 2019-01-30 2024-05-14 百度时代网络技术(北京)有限公司 用于自动驾驶车辆的地图分区系统
US11210554B2 (en) 2019-03-21 2021-12-28 Illumina, Inc. Artificial intelligence-based generation of sequencing metadata
US11347965B2 (en) 2019-03-21 2022-05-31 Illumina, Inc. Training data generation for artificial intelligence-based sequencing
US11593649B2 (en) 2019-05-16 2023-02-28 Illumina, Inc. Base calling using convolutions
CA3150615C (en) * 2019-08-30 2024-01-16 Deere & Company System and method of control for autonomous or remote-controlled vehicle platform
US20210181758A1 (en) 2019-10-26 2021-06-17 Zoox, Inc. Object detection and tracking
GB2591171B (en) 2019-11-14 2023-09-13 Motional Ad Llc Sequential fusion for 3D object detection
US11604465B2 (en) * 2019-11-26 2023-03-14 Zoox, Inc. Correction of sensor data alignment and environment mapping
US11462041B2 (en) 2019-12-23 2022-10-04 Zoox, Inc. Pedestrians with objects
US11789155B2 (en) 2019-12-23 2023-10-17 Zoox, Inc. Pedestrian object detection training
EP4107735A2 (en) 2020-02-20 2022-12-28 Illumina, Inc. Artificial intelligence-based many-to-many base calling
US20210278852A1 (en) * 2020-03-05 2021-09-09 Uatc, Llc Systems and Methods for Using Attention Masks to Improve Motion Planning
US11472442B2 (en) 2020-04-23 2022-10-18 Zoox, Inc. Map consistency checker
US20220067399A1 (en) * 2020-08-25 2022-03-03 Argo AI, LLC Autonomous vehicle system for performing object detections using a logistic cylinder pedestrian model
US11636685B1 (en) * 2020-12-18 2023-04-25 Zoox, Inc. Multi-resolution top-down segmentation
RU2767831C1 (ru) * 2021-03-26 2022-03-22 Общество с ограниченной ответственностью "Яндекс Беспилотные Технологии" Способы и электронные устройства для обнаружения объектов в окружении беспилотного автомобиля
CN112733817B (zh) * 2021-03-30 2021-06-04 湖北亿咖通科技有限公司 一种高精度地图中点云图层精度的测量方法及电子设备
US11810225B2 (en) * 2021-03-30 2023-11-07 Zoox, Inc. Top-down scene generation
US11858514B2 (en) 2021-03-30 2024-01-02 Zoox, Inc. Top-down scene discrimination
US20220336054A1 (en) 2021-04-15 2022-10-20 Illumina, Inc. Deep Convolutional Neural Networks to Predict Variant Pathogenicity using Three-Dimensional (3D) Protein Structures
US20230027496A1 (en) * 2021-07-22 2023-01-26 Cnh Industrial America Llc Systems and methods for obstacle detection
US11787419B1 (en) 2021-10-22 2023-10-17 Zoox, Inc. Robust numerically stable Kalman filter for autonomous vehicles
US20230311930A1 (en) * 2022-03-31 2023-10-05 Zoox, Inc. Capturing and simulating radar data for autonomous driving systems

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7333648B2 (en) * 1999-11-19 2008-02-19 General Electric Company Feature quantification from multidimensional image data
US7330528B2 (en) * 2003-08-19 2008-02-12 Agilent Technologies, Inc. System and method for parallel image reconstruction of multiple depth layers of an object under inspection from radiographic images
US9600933B2 (en) * 2011-07-01 2017-03-21 Intel Corporation Mobile augmented reality system
US8793046B2 (en) 2012-06-01 2014-07-29 Google Inc. Inferring state of traffic signal and other aspects of a vehicle's environment based on surrogate data
US9488492B2 (en) 2014-03-18 2016-11-08 Sri International Real-time system for multi-modal 3D geospatial mapping, object recognition, scene annotation and analytics
WO2014167466A1 (en) * 2013-04-09 2014-10-16 Koninklijke Philips N.V. Layered two-dimensional projection generation and display
US20150071541A1 (en) * 2013-08-14 2015-03-12 Rice University Automated method for measuring, classifying, and matching the dynamics and information passing of single objects within one or more images
US10121082B2 (en) * 2015-10-07 2018-11-06 Honda Motor Co., Ltd. System and method for providing laser camera fusion for identifying and tracking a traffic participant
DE102016200656A1 (de) 2016-01-20 2017-07-20 Robert Bosch Gmbh Verfahren zum Auswerten eines Umfeldes eines Fahrzeuges
GB2567587B (en) 2016-09-16 2021-12-29 Motorola Solutions Inc System and method for fixed camera and unmanned mobile device collaboration to improve identification certainty of an object
EP3392798A1 (en) * 2017-04-21 2018-10-24 Delphi Technologies, Inc. A method for the semantic segmentation of an image
US10650531B2 (en) * 2018-03-16 2020-05-12 Honda Motor Co., Ltd. Lidar noise removal using image pixel clusterings
US10649459B2 (en) 2018-04-26 2020-05-12 Zoox, Inc. Data segmentation using masks

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JUNG-UN KIM, ET AL.: "LiDAR based 3D object detection using CCD information", 2017 IEEE THIRD INTERNATIONAL CONFERENCE ON MULTIMEDIA BIG DATA, JPN6023009596, 2017, ISSN: 0005012222 *
MATTI LEHTOMAKI, ET AL.: "Object Classification and Recognition From Mobile Laser Scanning Point Clouds in a Road Environment", IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE ZSENSIZNG, vol. 54, no. 2, JPN6023009595, 2016, XP011595766, ISSN: 0005012223, DOI: 10.1109/TGRS.2015.2476502 *

Also Published As

Publication number Publication date
US10649459B2 (en) 2020-05-12
JP7350013B2 (ja) 2023-09-25
US11195282B2 (en) 2021-12-07
CN112041633B (zh) 2023-06-02
CN112041633A (zh) 2020-12-04
US20190332118A1 (en) 2019-10-31
WO2019209795A1 (en) 2019-10-31
EP3784984A4 (en) 2022-01-26
US20220156940A1 (en) 2022-05-19
EP3784984A1 (en) 2021-03-03
CN116563548A (zh) 2023-08-08
US20200218278A1 (en) 2020-07-09
US11620753B2 (en) 2023-04-04

Similar Documents

Publication Publication Date Title
US11620753B2 (en) Data segmentation using masks
US11353577B2 (en) Radar spatial estimation
US11010907B1 (en) Bounding box selection
US11169531B2 (en) Trajectory prediction on top-down scenes
US11748909B2 (en) Image-based depth data and localization
US10936902B1 (en) Training bounding box selection
EP4077084A1 (en) Prediction on top-down scenes based on object motion
WO2020112649A1 (en) Probabilistic risk assessment for trajectory evaluation
CN114072841A (zh) 根据图像使深度精准化
US11379684B2 (en) Time of flight data segmentation
US20210157325A1 (en) Latency accommodation in trajectory generation
US11614742B2 (en) Height estimation using sensor data
US20230169777A1 (en) Center-based detection and tracking
US20220176988A1 (en) Determining inputs for perception system
US11270437B1 (en) Top-down segmentation pixel orientation and distance
US11761780B1 (en) Determining data for semantic localization
CN117545674A (zh) 用于识别路缘的技术
US11636685B1 (en) Multi-resolution top-down segmentation
US11906967B1 (en) Determining yaw with learned motion model
WO2023114590A1 (en) Identifying relevant objects within an environment
WO2022146622A1 (en) Intermediate input for machine learned model
WO2023219893A1 (en) Sensor calibration validation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230912

R150 Certificate of patent or registration of utility model

Ref document number: 7350013

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150