JP7192935B2 - Lidarの出力を強化するためのシステム及び方法 - Google Patents

Lidarの出力を強化するためのシステム及び方法 Download PDF

Info

Publication number
JP7192935B2
JP7192935B2 JP2021143501A JP2021143501A JP7192935B2 JP 7192935 B2 JP7192935 B2 JP 7192935B2 JP 2021143501 A JP2021143501 A JP 2021143501A JP 2021143501 A JP2021143501 A JP 2021143501A JP 7192935 B2 JP7192935 B2 JP 7192935B2
Authority
JP
Japan
Prior art keywords
image
ambient
point cloud
pipeline
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021143501A
Other languages
English (en)
Other versions
JP2022051524A (ja
Inventor
クーマー シーバークーマー プラサナー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of JP2022051524A publication Critical patent/JP2022051524A/ja
Application granted granted Critical
Publication of JP7192935B2 publication Critical patent/JP7192935B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Geometry (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本明細書に記載される主題は、概して、LiDARの出力を強化するためのシステム及び方法、より具体的には、LiDARによって出力される周囲の画像及び点群を強化する処理パイプラインの実装に関する。
環境の認識は、自動車両支援システム、セキュリティ監視など、多くの様々なコンピュータを使用する機能にとって重要な要素になる可能性がある。しかしながら、環境を正確に認識することは、センサのコストとそのセンサに関連する精度とをバランスさせる複雑なタスクになる可能性がある。例えば、一部の光検出・測距(LiDAR)センサは非常に正確ではあるが、非常に高価でかさばる場合もある。対照的に、他のLiDARセンサは、より安価でコンパクトであるが、自動運転機能などの特定の機能を十分にサポートするには、精度、解像度、又は他の特性が不足する場合がある。一例では、単一光子アバランシェダイオード(SPAD)ベースのLiDARは、周囲光画像を生成する能力も提供し、それによって2つのセンサの仕事を1つで行う、より安価なオプションとして実装され得る。しかし、そのようなセンサはさまざまな問題に直面する可能性がある。問題には、低解像度の画像、より長い距離でのまばらな点群、太陽光による飽和などが含まれる。従って、SPADベースのLiDARは多機能性を提供するとしても、SPADベースのLiDARが提供する情報は、通常、多くの目的に対して十分ではない。
一実施形態において、LiDARセンサの出力を強化することに関連する例示的なシステム及び方法が開示される。前述のように、センサが選択されるとき、コストと出力データの特性の間でトレードオフが発生し得る。かくして、センサは高解像度のデータや高密度の深度出力を提供しない場合がある。そのため、単独で用いると、センサの出力は、様々な計算の基礎として役立つには十分でない場合がある。
しかしながら、一実施形態において、開示されるアプローチは、様々な計算結果が正確な決定を提供できるように、出力の品質を改善するためにセンサの出力を強化する。例えば、少なくとも1つの態様では、開示されるシステムは、センサデータの品質を改善するために複数の異なる段階を含む後処理パイプラインを実装する。つまり、SPADベースのLiDARの例では、LiDARは、周囲環境の観測領域の深度データを示す点群と、観測領域の周囲光画像も出力する。すなわち、LiDARセンサは一般的に点群データのみを提供することで知られているが、SPADベースのセンサは周囲光画像も提供することができる。このように、この特定のタイプのLiDARセンサは追加機能を提供する。
そのため、開示されるシステムは、周囲画像及び点群を強化するように機能するエンハンサパイプラインを実装する。少なくとも1つのアプローチでは、エンハンサパイプラインは、様々な強化機能を実行するための機械学習アルゴリズムで構成され得る別個のモジュールを含む。別個のモジュールは、周囲画像を高解像度画像に超解像処理するモジュール、画像の欠落部分を補完するモジュール、画像を色付けするモジュールなどを含み得る。そして、1つ以上の構成では、強化された周囲画像は、点群も強化するために、元の点群と組み合わせて使用され得る。例えば、エンハンサパイプラインは、点群を高密度化(つまり、補助的な深度点を追加)するモジュールを含むことができる。エンハンサパイプラインの様々なモジュールは、機械学習アルゴリズム又は記載された効果を実現するための他のコンピュータを使用するアプローチを実装することができる。いずれの場合も、エンハンサパイプラインは元のセンサデータを改善し、それによって元のセンサの出力が、上記の計算をサポートするのに十分であることを確保する。このように、開示されるアプローチは、より費用対効果の高いセンサの使用を提供すると同時に、自動運転機能及びより正確な情報を必要とする他の機能をサポートする高品質のセンサデータを提供する。
一実施形態において、LiDARセンサの出力を強化するためのリファインメントシステムが開示される。リファインメントシステムは、1つ以上のプロセッサと、1つ以上のプロセッサに通信可能に結合されるメモリとを含む。メモリは、1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、LiDARセンサを使用して、点群及び周囲画像を取得させる命令を含むセンサモジュールを格納する。メモリは、1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、点群及び周囲画像を処理させ、一連の処理ルーチンを含むエンハンサパイプラインに従って強化データを生成する命令を含むパイプラインモジュールを格納する。パイプラインモジュールは、強化データからLiDARセンサの周囲環境に関する決定を生成することを容易にするために、強化データを少なくとも1つのモジュールに提供するための命令を含む。
一実施形態において、非一時的なコンピュータ可読媒体が開示される。コンピュータ可読媒体は、1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに開示される機能を実行させる命令であって、LiDARセンサの出力を強化するための命令を格納する。命令には、LiDARセンサを使用して、点群及び周囲画像を取得する命令が含まれる。命令には、点群及び周囲画像を処理し、一連の処理ルーチンを含むエンハンサパイプラインに従って強化データを生成する命令が含まれる。命令には、強化データからLiDARセンサの周囲環境に関する決定を生成することを容易にするために、強化データを少なくとも1つのモジュールに提供するための命令が含まれる。
一実施形態において、LiDARセンサの出力を強化する方法が開示される。一実施形態では、方法は、LiDARセンサを使用して、点群及び周囲画像を取得することを含む。方法は、一連の処理ルーチンを含むエンハンサパイプラインに従って強化データを生成するため、点群及び周囲画像を処理することを含む。方法は、強化データからLiDARセンサの周囲環境に関する決定を生成することを容易にするために、強化データを少なくとも1つのモジュールに提供することを含む。
本明細書に組み込まれ、その一部を構成する添付の図面は、本開示の様々なシステム、方法、及び他の実施形態を示す。図中の図示された要素の境界(例えば、ボックス、ボックスのグループ、又は他の形状)は、境界の一実施形態を表すことが理解されよう。いくつかの実施形態では、1つの要素が複数の要素として設計されても良いし、又は複数の要素が1つの要素として設計されても良い。いくつかの実施形態では、別の要素の内部コンポーネントとして示される要素は、外部コンポーネントとして実装されても良く、逆もまた同様である。さらに、要素は縮尺通りに描かれない場合がある。
本明細書に開示される例示的なシステム及び方法が動作し得る車両の構成の一実施形態を示す。 センサ出力の強化に関連するリファインメントシステムの一実施形態を示す。 エンハンサパイプラインの1つの構成の図を示す。 複数のLiDARの出力を組み合わせて強化するためのバッチプロセスアーキテクチャを示す。 LiDARセンサの出力を強化することに関連する方法の一実施形態を示す。 エンハンサパイプラインの実行に関連する方法の一実施形態を示す。 画像の超解像及び画像の補完の例を示す。 画像の色付けの例を示す。 点群を強化する例を示す。
LiDARセンサの出力を強化することに関連するシステム、方法、及び他の実施形態が開示される。前述のように、センサが選択されるとき、コストと出力データの特性の間でトレードオフが発生し得る。かくして、センサは高解像度のデータや高密度の深度出力を提供しない場合があり、正確な出力を提供する一部のコンピュータを使用する機能に支障をきたす可能性がある。しかしながら、一実施形態において、開示されるアプローチは、様々な計算結果が正確な決定を提供できるように、出力の品質を改善するためにセンサデータを強化する。
例えば、少なくとも1つの態様では、開示されるシステムは、センサデータの品質を改善するために複数の異なる処理段階を含む後処理パイプラインを実装する。つまり、SPADベースのLiDARの例では、LiDARは、周囲環境の観測領域の深度データを示す点群と、観測領域の周囲光画像も出力する。すなわち、LiDARセンサは一般的に点群データのみを提供することで知られているが、SPADベースのセンサは周囲光画像も提供することができる。このように、この特定のタイプのLiDARセンサは、追加の利点として、追加機能を提供する。しかしながら、前述のように、周囲画像の品質が、過飽和、低解像度などで悪化する場合がある。さらに、点群データは、より遠い距離でまばらになる可能性がある。
そのため、開示されるシステムは、周囲画像及び点群を強化するように機能するエンハンサパイプラインを実装する。少なくとも1つのアプローチでは、エンハンサパイプラインは、様々な強化機能を実行するための機械学習アルゴリズムで構成され得る別個のモジュールを含む。別個のモジュールは、周囲画像を高解像度画像に超解像処理するモジュール、画像の欠落部分(例えば、遮蔽又は過飽和セグメント)を補完するモジュール、画像を色付けするモジュールなどを含み得る。1つ以上の構成では、強化された周囲画像は、点群も強化するために、元の点群と組み合わせて使用され得る。例えば、エンハンサパイプラインは、点群を高密度化(つまり、補助的な深度点を追加)するモジュールを含むことができる。エンハンサパイプラインの様々なモジュールは、機械学習アルゴリズム又は記載された結果を実現するための他のコンピュータを使用したアプローチを実装することができる。いずれの場合も、エンハンサパイプラインは元のセンサデータを改善し、それによって出力が、上記の計算をサポートするのに十分であることを確保する。このように、開示されるアプローチは、より費用対効果の高いセンサの使用を提供すると同時に、自動運転機能及びより正確な情報を必要とする他の機能をサポートする高品質のセンサデータを提供する。
図1を参照すると、車両100の一例が示されている。本明細書で使用される場合、「車両」とは、動力で動くあらゆる形態の輸送手段のことである。1つの又は複数の実装形態において、車両100は自動車である。本明細書において、自動車に関する構成が説明されるが、実施形態は自動車に限定されないことが理解されよう。いくつかの実装形態では、車両100は、例えば、周囲環境の観測値を取得するための前述のセンサを含み、本明細書で説明される機能から利益を得る、任意の電子デバイス又は任意の形態の輸送手段であり得る。
車両100は、様々な要素も含む。様々な実施形態において、車両100は、図1に示されるすべての要素を有さなくても良いことが理解されよう。車両100は、図1に示される様々な要素の異なる組み合わせを有することができる。さらに、車両100は、図1に示される要素への追加の要素を有することができる。いくつかの構成では、車両100は、図1に示される1つ以上の要素なしで実現されても良い。様々な要素が図1の車両100内に配置されているように示されているが、これらの要素のうちの1つ以上を、車両100の外部に配置することができることが理解されよう。さらに、示されている要素は、大きな距離によって物理的に隔てられ、リモートサービス(例えば、クラウドコンピューティングサービス)として提供されても良い。
車両100の考えられる要素のいくつかが図1に示されており、以降の図とともに説明される。図1の多くの要素の説明は、説明を簡潔にする目的のため、図2-9の説明の後でなされる。さらに、図を簡単かつ明確にするため、必要に応じて、対応する、類似の、又は同様の要素を示すために、異なる図の間で参照番号が繰り返されていることが理解されよう。さらに、本明細書に記載の実施形態は、記載された要素の様々な組み合わせを使用して実施できることを理解されたい。
いずれの場合も、車両100は、LiDARセンサ123からのセンサデータの品質を改善するように機能するリファインメントシステム170を含む。さらに、スタンドアロンコンポーネントとして示されているが、1つ以上の実施形態において、リファインメントシステム170は、他のシステム/モジュールの機能を容易にするために、車両100の支援システム160、又は別の同様のシステムと統合される。記載される機能及び方法は、図のさらなる説明にてより明らかとなる。
図2を参照すると、リファインメントシステム170の一実施形態がさらに示されている。示されるように、リファインメントシステム170は、プロセッサ110を含む。それに合うように、プロセッサ110は、リファインメントシステム170の一部であっても良いし、又はリファインメントシステム170は、データバス又は別の通信経路を介してプロセッサ110にアクセスしても良い。1つ以上の実施形態において、プロセッサ110は、センサモジュール220及びパイプラインモジュール230に関連する機能を実現するように構成された特定用途向け集積回路である。より一般的には、1つ以上の態様において、プロセッサ110は、リファインメントシステム170に関連するコード化された機能を実行するときに、本明細書に記載の様々な機能を実行することができるマイクロプロセッサなどの電子プロセッサである。
一実施形態において、リファインメントシステム170は、センサモジュール220及びパイプラインモジュール230を格納するメモリ210を含む。メモリ210は、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、ハードディスクドライブ、フラッシュメモリ、又はモジュール220、230を格納するのに適した他のメモリである。モジュール220、230は、例えば、プロセッサ110による実行時に、プロセッサ110に本明細書に開示される様々な機能を実行させるコンピュータ可読命令である。1つ以上の実施形態において、モジュール220、230は、メモリ210内に具現化された命令であるが、さらなる態様では、モジュール220、230は、記載される機能の1つ以上を独立して実行するための、処理コンポーネント(例えば、コントローラ)、回路などのハードウェアを含む。
さらに、一実施形態において、リファインメントシステム170は、データストア240を含む。データストア240は、一実施形態において、情報を格納するための電子ベースのデータ構造である。例えば、1つのアプローチでは、データストア240は、メモリ210又は別の適切な媒体に格納され、格納されたデータを分析し、格納されたデータを提供し、格納されたデータを整理するなどのため、プロセッサ110によって実行され得るルーチンで構成されるデータベースである。いずれにせよ、一実施形態では、データストア240は、様々な機能を実行する際にモジュール220、230によって使用されるデータを格納する。一実施形態では、データストア240は、例えば、モジュール220、230によって使用される他の情報とともに、センサデータ250及びシステムパラメータ260(例えば、センサ設定、パイプライン設定、タイミング閾値、起動ゾーン、走査ゾーン、アラートオプションなど)を含む。
従って、センサモジュール220は、一般的に、プロセッサ110を制御して、センサデータ250を形成する車両100の1つ以上のセンサ(例えば、LiDARセンサ123)からのデータ入力を取得するように機能する命令を含む。概して、センサデータ250は、車両100の周囲環境の観測結果を具体化する情報を含む。様々な実施形態における周囲環境の観測結果は、車両100が走行している又は駐車されている、車線内、車道に近接して、駐車場内、ガレージ構造内、私道内、又は別の領域内に存在する可能性がある、周囲の車線、車両、オブジェクト、障害物などを含むことができる。
センサモジュール220は、センサデータ250を提供するように様々なセンサを制御するものとして説明されるが、1つ以上の実施形態では、センサモジュール220は、能動的又は受動的のいずれかである、センサデータ250を取得するための他の技術を使用することができる。例えば、センサモジュール220は、様々なセンサによって車両100内のさらなるコンポーネントに提供される電子情報のストリームからセンサデータ250を受動的にスニッフィングしても良い。さらに、センサモジュール220は、センサデータ250を提供するときに、複数のセンサからのデータを融合するための様々なアプローチを担うことができる。このように、一実施形態では、センサデータ250は、複数のセンサから取得された認知の組み合わせを表す。
このように、センサデータ250が単一のセンサから得られるか、複数のセンサから得られるかに係わらず、センサデータ250は、少なくとも2つの別個の形式のデータから構成される。1つ以上の構成では、センサデータ250は、点群及び周囲画像から構成される。さらに別の構成では、センサデータ250は、強度画像である第3の要素を含んでも良い。いずれの場合でも、LiDARセンサ123は、単一光子アバランシェダイオード(SPAD)ベースのLiDARであっても良い。この特定のタイプのLiDARセンサは、記載されたデータ要素を並行して取得することができる。すなわち、LiDARセンサ123が周囲環境をスキャンしている間、LiDARセンサは、深度データ及び画像データを並行して取得している。深度データは点群の形式をとり、画像データは周囲画像の形式をとることができ、いくつかの構成では、強度画像の形式をとることができる。
前述のように、LiDARセンサ123は高解像度データを提供しない場合がある。つまり、点群と周囲画像は、比較的低い解像度である可能性がある。さらに、周囲画像はグレースケールであり、また、画像内の要素に入射する太陽光による画像内の領域の過飽和などの様々な異常も含み得る。強度画像は、少なくとも1つの態様において、センサ123の視野内に存在するオブジェクト/表面の反射レベルを含む。従って、強度画像は、一般的に、点群内の各個別の点の反射強度に対応する。
さらに、一実施形態では、センサモジュール220は、周囲環境の包括的な評価を提供するために、車両100の周りの360度を含む領域についてセンサデータ250を取得するようにセンサを制御する。もちろん、特定の実施形態に応じて、対象のセンサは、車両100の後ろの後方領域、車両100の側方の領域、又は車両100の周りの別の領域に焦点を合わせた視野を有しても良い。さらに、複数のセンサからのビューをつなぎ合わせて、より広い視野を形成しても良い。
いずれの場合も、センサモジュール220がセンサデータ250を取得すると、リファインメントシステム170は、パイプラインモジュール230を利用して、LiDARセンサ123から出力されるセンサデータ250を強化することができる。パイプラインモジュール230は、エンハンサパイプラインを実装し、センサデータ250に対して複数の異なる後処理ステップを実行し、それによって、例えば、解像度を高め、欠落領域を補完し、色付けし、さらなる深度情報を生成することによって、元のセンサデータの品質を改善する。
パイプラインモジュール230によって実装されるエンハンサパイプラインの一例として、図3を検討する。図3は、処理モジュールの複数のステージを含むエンハンサパイプライン300の一実施形態を示す。図3に示すように、エンハンサパイプライン300は、画像超解像310、画像補完320、画像着色330、及び深度補完340のためのモジュールを含む。エンハンサパイプライン300は、さらなる構成において、深度推定350のためのモジュールも含んでも良い。いずれにせよ、さまざまなモジュールは、概して、ディープニューラルネットワーク又は他の機械学習アルゴリズムで構成される。例として、モジュールは、敵対的生成ネットワーク(GAN)、畳み込みニューラルネットワーク、オートエンコーダなどを含むことができる。1つ以上のアプローチにおいて、モジュールは、ネットワークの一部(例えば、デコーダ)を共有することができる。さらに別のアプローチでは、モジュールは、モジュールの対応するタスクに固有のネットワークの別個の例を含むことができる。
モジュール自体の一般的な機能を参照すると、画像超解像モジュール310は、LiDARセンサ123からの周囲画像を受け入れる。次に、画像超解像モジュール310は、センサデータ250の周囲画像を処理して、元の周囲画像と比較して高解像度である強化された画像を生成する。さらなるアプローチでは、超解像モジュール310は、周囲画像に加えて強度画像をさらに使用して、高解像度画像へ超解像することができる。強度画像には、周囲画像によって表されるシーン内のオブジェクト/表面の反射率に関する情報が含まれているため、超解像を実行するための追加情報が提供される。
一例として、画像超解像モジュール310は、元の周囲画像の解像度を上げるためにGANを実装することを含む深層学習を使用して、単一画像超解像を実行することができる。このように、GANは超解像ニューラルネットワークとして機能し、超解像された高解像度画像の形式で強化データを生成する。別のアプローチでは、モジュール310は、画像を超解像するために、例えばスキップ接続を含む畳み込みニューラルネットワークを実装しても良いし、又は別のネットワークアーキテクチャを実装しても良い。一般的に、画像を超解像するプロセスは、コンピュータのリソースの利用可能性及びモジュール310が実装する特定の機械学習アプローチに応じて、元の周囲画像の解像度を2倍にするか、又は解像度を大幅に増加することができる。
画像補完用モジュール320を参照して、LiDARセンサ123内の光検出器の性質のために、周囲画像が様々な異常を含み得ることを検討する。異常には、過飽和の領域、暗すぎる領域などが含まれ得る。これは、通常、LiDARセンサ123が、特定の波長を持つ走査レーザーから反射光を検出する光検出器を最適化するために発生する。そして、記載された周囲画像の領域は、ほとんど又はまったく情報を持たない可能性がある。このため、画像補完モジュール320は、周囲画像の高解像度バージョンを使用して、記載された異常のために、欠落しているか、又は十分に表現されていない周囲画像の部分を予測する。これには、シーン内で太陽光が入射している部分や、周囲画像の別の領域に太陽光が入射しているために薄暗くなっている部分を埋めることが含まれる。いずれの場合も、画像補完モジュール320は、画像補完を実行するように訓練されたGAN又は別の生成ネットワークアーキテクチャなどの機械学習アルゴリズムに従って、周囲画像から導出された高解像度画像を処理する。このように、強化データは、向上した解像度の、画像の以前に劣化した領域の情報を含む、さらに強化された画像からなる。
エンハンサパイプライン300を引き続き参照すると、画像着色器モジュール330は、元の周囲画像に比較して、補完され(すなわち、異常を修正するように埋められ)、高解像度の強化画像である、画像補完モジュール320の出力を処理する。しかしながら、元の周囲画像とこの時点までの周囲画像の強化された形式は、グレースケール画像である。従って、画像着色器モジュール330は、強化された画像を完全な赤-緑-青(RGB)の画像に色付けし、強化画像360として出力する。1つのアプローチでは、画像着色器モジュール330は、画像を色付けするために完全な畳み込みニューラルネットワーク(CNN)を実装する。このようにして、エンハンサパイプライン300は、低解像度及び他の障害を持つ可能性があるLiDARセンサ123からの周囲画像を受け入れ、後処理の複数の段階を通じて周囲画像を強化画像360に変換する。
加えて、エンハンサパイプライン300は、少なくとも1つのアプローチにおいて、深度補完モジュール340をさらに含む。深度補完モジュール340は、LiDARセンサ123がセンサデータ250の一部として最初に取得する点群を強化するように機能する。1つの構成では、深度補完モジュール340は、入力として、強化画像360と点群を受け入れる。深度補完モジュール340は、元の点群を高密度化し、強化画像360からの情報を元の点群と組み合わせて追加の点を生成する結果として生じる、高解像度、広範囲、及び高品質を含む強化された点群を生成する。一実施形態では、深度補完モジュール340は、ディープニューラルネットワーク(DNN)又は別の機械学習アーキテクチャなどの機械学習アルゴリズムを実装し、強化点群370を生成するときに追加の点を生成する。このようにして、エンハンサパイプライン300は、点群及び周囲画像を処理して、少なくとも周囲画像の異常を修正し、可視光画像とともに強化データを生成するように機能する(例えば、少なくとも周囲画像と元の点群から導出される強化画像360と強化点群370)。このように、リファインメントシステム170は、より費用対効果の高いセンサを活用し、それでもそこから高品質のセンサデータを提供することができる。
追加の態様として、1つ以上の実施形態において、エンハンサパイプライン300は、深度推定モジュール350である追加の分岐を持って構成される。深度推定モジュール350は、強化画像360などの単眼画像から深度データを予測する単眼深度推定モデルなどの機械学習モデルを実装する。予測された深度データは、疑似点群380として出力される。もちろん、リファインメントシステム170がLiDARセンサ123から元の点群を受信する場合、深度推定モジュール350は動作しないように保たれ得る。しかしながら、点群が信頼できないか利用できない場合、リファインメントシステム170は、深度推定モジュール350を動作させ、強化点群370の代わりに、又は強化点群370を検証するためのメカニズムとして、疑似点群380を生成することができる。いずれの場合でも、エンハンサパイプライン300は、深度データを生成するための複数の処理パスを含む。
図4に目を向けると、複数のLiDARのデータを一括して処理することに関連するエンハンサパイプライン300の追加の実装が示されている。図4に示されるように、リファインメントシステム170は、バッチ処理アーキテクチャ400を実装することができる。すなわち、パイプラインモジュール230内の複数の別々の反復でエンハンサパイプライン300を繰り返す代わりに、リファインメントシステム170は、複数のLiDAR123a、123bから123nからの周囲画像及び点群のバッチの処理を容易にする追加のコンポーネントを実装する。例えば、バッチ処理アーキテクチャ400は、シンクロナイザ410を含むことができる。1つのアプローチでは、シンクロナイザ410は、個々のセンサが、提供されるセンサデータ250上でわずかに異なるタイムスタンプを有する可能性があるため、LiDAR123a~nからの出力データを同期させる。このようにして、シンクロナイザはバッチ処理のために同様のタイムフレームからのデータを相互に関連付ける。
アーキテクチャ400は、異なるLiDARセンサ123a~nからのデータを連結して、周囲画像、点群、及び1つ以上の構成では、強度画像も含めた時間的に同期したバッチテンソルを出力する入力バッチャ420をさらに含む。次に、このバッチ処理されたセンサデータ250は、エンハンサパイプライン300に供給される。エンハンサパイプラインは、図3に関連して説明した同様の要素と概ね相関する、バッチ処理された強化画像430、バッチ処理された強化点群440、及びバッチ処理された疑似点群450を生成する。そして、バッチ処理された出力430~450は、点群スティッチャ460に提供され、点群スティッチャ460は、バッチ処理された強化データを360度の点群にまとめる。このようにして、バッチ処理アーキテクチャ400は、リファインメントシステム170が複数のLiDARからの入力を処理する際に、センサデータ250の処理を簡素化することができる。このように、パイプラインモジュール230は、単一のLiDAR又はバッチからに係わらず、車両の制御、環境の特徴の認識、又は他の機能を容易にする自動運転モジュールなどの少なくとも1つのモジュールに、強化データを提供することができる。従って、リファインメントシステム170は、強化データを生成して、費用対効果の高いセンサから有用な情報を提供することができ、それによって、関連するモジュール及びデバイスの機能を改善する。
センサデータを強化する追加の態様が、図5に関連して説明される。図5は、LiDARセンサの出力を強化することに関連する方法500を示す。方法500は、図1のリファインメントシステム170の観点から説明される。方法500は、リファインメントシステム170と組み合わせて説明されるが、方法500は、リファインメントシステム170内で実行されることに限定されず、むしろ、方法500を実行することができるシステムの一例であることを理解されたい。
510において、センサモジュール220は、車両100の少なくとも1つのセンサからセンサデータ250を取得する。一実施形態では、センサモジュール220は、車両100の周囲環境に関するセンサデータ250を取得する。前述のように、センサモジュール220は、1つ以上の実装形態において、センサシステム120の1つ以上のセンサからセンサデータ250を繰り返し取得する。センサデータ250は、支援システム160(例えば、起動ゾーン、走査ゾーンなど)、自動運転モジュール(例えば、自動運転、半自動運転など)などのような車両100のシステムによって実行される機能に関連する特定の領域を含む、対象車両100の周囲環境の観測値を含む。さらに、センサモジュール220は、少なくとも1つの実施形態において、SPADベースのLiDARからセンサデータ250を取得する。かくして、センサデータ250は、点群、周囲画像、及び強度画像を含む、複数の別個のデータ要素を含み得る。
520で、パイプラインモジュール230は、センサデータ250に対してエンハンサパイプラインを実行して、強化データを生成する。上記のように、エンハンサパイプラインは、品質を改善するためにセンサデータ250に対して異なる機能を実行する一連の強化処理ルーチンを含む。エンハンサパイプラインは通常、周囲画像の異常を修正し、点群内に追加のデータ点を提供するように機能する。エンハンサパイプラインの特定のブロックは、方法600に関連してさらに説明される。
530で、パイプラインモジュール230は、強化データを少なくとも1つのモジュールに提供して、強化データからLiDARセンサの周囲環境についての決定を生成することを容易にする。パイプラインモジュール230は、車両の制御を容易にするため、自動運転モジュールなどの車両100のローカルな部分に強化データを提供することができる。さらなる態様では、パイプラインモジュール230は、リモートクラウドベースのリソースとして機能して、LiDARセンサ123を含む様々なデバイスの強化データを導出することができる。
エンハンサパイプラインに従ってセンサデータを処理する追加の態様が、図6に関連して説明される。図6は、センサデータを強化するためにセンサデータに対して処理パイプラインを実行することに関連する方法600を示す。方法600は、図1のリファインメントシステム170の観点から説明される。方法600は、リファインメントシステム170と組み合わせて説明されるが、方法600は、リファインメントシステム170内で実行されることに限定されず、むしろ、方法600を実行することができるシステムの一例であることを理解されたい。
610で、パイプラインモジュール230は、センサデータ250を受信し、センサデータ250をエンハンサパイプラインに提供する。上記のように、センサデータ250は、通常、少なくとも点群と周囲画像を含み、これらは両方とも低解像度を有し、さらなる異常を含み得る。さらに、上記のように、パイプラインモジュール230は、センサデータ250が複数のLiDARに対してバッチ処理されるときに、さらなる処理を実行することができる。いずれの場合も、センサデータ250は、610でエンハンサパイプラインに供給される。
620で、パイプラインモジュール230は、エンハンサパイプラインを使用して、超解像ニューラルネットワークに従って、周囲画像を低解像度画像から高解像度画像に超解像する。超解像ニューラルネットワークは、GAN、CNN、又は別の形式のニューラルネットワークであり得る。結果として得られる高解像度画像は、例えば、画像に描かれているオブジェクトをより適切に識別するために、元の周囲画像に比べて改善された解像度を提供するように強化される。
630で、パイプラインモジュール230は、エンハンサパイプラインを使用して、周囲画像の一部分を予測する。パイプラインモジュール230は、GANなどのエンハンサパイプライン内の画像補完ネットワークを使用して、強化画像の利用可能な領域から欠落領域を推測する。欠落している領域は、LiDARセンサからの過飽和又はその他の知覚アーティファクトを含む異常の影響を受けている可能性がある。いずれの場合も、欠落領域を予測するための画像補完を実行すると、強化画像によって提供される情報が改善される。
640で、パイプラインモジュール230は、エンハンサパイプラインから画像着色プロセスを実行して、強化画像を色付けする。1つのアプローチでは、エンハンサパイプラインは、グレースケール画像をRGB画像に変換することによってグレースケール画像を色付けするように訓練されたCNNをさらに含む。画像に色を追加すると、オブジェクトに関する追加の手がかりが得られ、さまざまな計算で使用する画像の全体的な品質が向上する。
650で、パイプラインモジュール230は、エンハンサパイプラインを使用して点群内に追加の深度データを生成する。1つのアプローチでは、パイプラインモジュールは、周囲画像から導出され色付けされた高解像度画像(つまり、前のステップからの強化画像)を使用して、点群を高密度化する。様々なアプローチにおいて、パイプラインモジュール230は、異なる形態のディープニューラルネットワーク(DNN)を使用して、追加の深度データを生成することができる。いずれの場合も、パイプラインモジュール230は、周囲画像を高解像度画像に超解像すること、欠落部分を埋めるように高解像度画像を補完すること、高解像度画像を色付けすること、及び元のセンサデータ250から強化データを生成するため点群を高密度化することを含む、元のセンサデータ250に複数の異なる機能を実行する。
本開示のシステム及び方法がどのように機能するかのさらなる説明として、図7-9を検討する。図7は、LiDARセンサ123が生成することができる元の周囲画像710の例を示す。エンハンサパイプラインは、画像超解像(例えば、単一画像超解像(SISR))を使用して周囲画像710を処理し、元の画像710よりも高い解像度で強化画像720を生成する。しかしながら、強化画像720に示されるように、画像710に見られる、直射日光が元々存在することに起因する異常730が存在する。そのため、パイプラインモジュール230は、エンハンサパイプラインの画像補完ブロックを使用して、異常730に対応する欠落領域に何が存在するべきかを推測する。強化され補完された画像740に見られるように、以前に存在した異常730はもはや存在しない。
続く図8に、別の強化画像810が示されている。強化画像810は、グレースケール画像である。そのため、パイプラインモジュール230は、エンハンサパイプラインの画像着色ブロックを使用して、画像820で見られるように、グレースケールをRGBフルカラーに変換する。画像820はグレースケールで再現されているが、それは色付けされた画像を表すことが意図されていることを理解されたい。最後に、図9は、点群910の深度補完を示している。前述のように、パイプラインモジュール230は、入力として、点群910と、超解像され、補完され、色付けされた強化画像820を受け入れる。次いで、パイプラインモジュール230は、エンハンサパイプラインの対応するブロックを使用して深度補完を実行することができる。結果として得られる超点群920は、追加の深度情報を含み、また、強化画像820と組み合わされて、画像品質表現を提供することができる。このようにして、リファインメントシステム170は、LiDARセンサ123からの元のセンサデータ250を改善して、LiDARセンサ123からの情報の有用性を向上するとともに、高品質のセンサデータを生成するための費用対効果の高いソリューションを提供する。
加えて、図1のリファインメントシステム170は、別個の集積回路及び/又は電子チップを用いて、様々な配置で構成することができることを理解されたい。そのような実施形態において、センサモジュール220は、別個の集積回路として具現化される。さらに、パイプラインモジュール230は、個々の集積回路上に具現化される。回路は、別個の回路間で信号の通信を提供するため、接続パスを介して接続される。もちろん、別個の集積回路が説明されているが、様々な実施形態では、回路は、共通の集積回路及び/又は集積回路基板に統合されても良い。さらに、集積回路は、より少ない集積回路に結合されるか、又はより多くの集積回路に分割されても良い。別の実施形態では、モジュール220及び230は、別個の特定用途向け集積回路に組み合わせても良い。さらなる実施形態では、モジュール220及び230に関連する機能の一部が、プロセッサによって実行可能なファームウェアとして具現化され、非一時的メモリに格納されても良い。さらに別の実施形態では、モジュール220及び230は、プロセッサ110のハードウェアコンポーネントとして統合される。
別の実施形態では、説明された方法及び/又はそれらの等価物は、コンピュータ実行可能命令で実装することができる。従って、一実施形態では、非一時的なコンピュータ可読媒体は、マシン(例えば、プロセッサ、コンピュータなど)による実行時に、マシン(及び/又は関連するコンポーネント)にその方法を実行させる、格納されたコンピュータ実行可能命令を備えるように構成される。
説明を簡単にするために、図に示されている方法は一連のブロックとして示され、説明されているが、いくつかのブロックは、示され説明されたものとは異なる順序で、及び/又は、他のブロックと同時に起こり得るので、方法はブロックの順序によって制限されないことを理解されたい。さらに、図示されたすべてのブロックよりも少ないブロックを使用して、例示的な方法を実行しても良い。ブロックは、結合され、又は複数のコンポーネントに分離され得る。さらに、追加の及び/又は代替の方法は、図示されていない追加のブロックを使用することができる。
次に、本明細書に開示されるシステム及び方法が動作することができる例示的な環境として、図1が詳細に説明される。場合によっては、車両100は、自動運転モード、1つ以上の半自動運転動作モード、及び/又は手動モードの間で選択的に切り替えるように構成される。このような切り替えは、適切な方法で実行することができる。「手動モード」は、車両のナビゲート及び/又は操縦のすべて又は大部分が、ユーザ(例えば、人間の運転手)から受け取った入力に従って実行されることを意味する。
1つ以上の実施形態において、車両100は自動運転車両である。本明細書で使用されるように、「自動運転車両」は、自動運転モードで動作する車両を指す。「自動運転モード」は、人間の運転者からの最小限の入力又は入力なしで、車両100を制御するための1つ以上のコンピューティングシステムを使用して、走行ルートに沿って車両100をナビゲートする及び/又は操縦することを指す。1つ以上の実施形態において、車両100は完全に自動化される。一実施形態では、車両100は、1つ以上のコンピューティングシステムが、走行ルートに沿って車両100のナビゲート及び/又は操縦の一部を実行し、車両のオペレータ(すなわち、運転者)が、走行ルートに沿って車両100のナビゲート及び/又は操縦の一部を実行するように車両に入力を与える、1つ以上の半自動運転モードを備えるように構成される。そのような半自動運転動作は、車両100が定義された状態制約内に留まることを確実にするために、リファインメントシステム170によって実行される監視制御を含むことができる。
車両100は、1つ以上のプロセッサ110を含むことができる。1つ以上の構成では、プロセッサ110は、車両100のメインプロセッサであり得る。例えば、プロセッサ110は、電子制御ユニット(ECU)とすることができる。車両100は、1つ以上のタイプのデータを格納するための1つ以上のデータストア115(例えば、データストア240)を含むことができる。データストア115は、揮発性及び/又は不揮発性メモリを含むことができる。適切なデータストア115の例は、RAM(ランダムアクセスメモリ)、フラッシュメモリ、ROM(リードオンリーメモリ)、PROM(プログラマブルリードオンリーメモリ)、EPROM(消去可能プログラマブルリードオンリーメモリ)、EEPROM(電気的消去可能プログラマブルリードオンリーメモリ)、レジスタ、磁気ディスク、光ディスク、ハードドライブ、又は任意の他の適切な記憶媒体、あるいはそれらの任意の組み合わせを含むことができる。データストア115は、プロセッサ110の構成要素であり得るか、又はデータストア115は、プロセッサ110による使用のためにプロセッサ110に動作可能に接続され得る。この説明全体で使用される「動作可能に接続される」という用語は、直接的な物理的接触のない接続を含む、直接的又は間接的な接続を含むことができる。
1つ以上の構成において、1つ以上のデータストア115は、地図データを含むことができる。地図データには、1つ以上の地理的領域のマップを含めることができる。いくつかの例では、地図データは、1つ以上の地理的領域における道路、交通管制装置、道路標示、構造、特徴、及び/又はランドマークに関する情報(例えば、メタデータ、ラベルなど)を含むことができる。いくつかの例では、地図データは航空写真/衛星写真を含むことができる。いくつかの例では、地図データは、360度の地上ビューを含む、領域の地上ビューを含むことができる。地図データは、地図データに含まれる1つ以上のアイテムの、及び/又は地図データに含まれる他のアイテムとの相対的な測定値、寸法、距離、及び/又は情報を含むことができる。地図データは、道路の形状に関する情報を有するデジタル地図を含むことができる。さらに、地図データは、建物、縁石、柱などの相対的な位置に関する情報など、特徴ベースの地図データを含むことができる。1つ以上の構成において、地図データは、1つ以上の地形図を含むことができる。1つ以上の構成において、地図データは、1つ以上の静的な障害物マップを含むことができる。静的障害物マップは、1つ以上の地理的領域内に位置する1つ以上の静的障害物に関する情報を含むことができる。「静的障害物」は、その位置が一定期間にわたって変化しないか又は実質的に変化しない、及び/又はそのサイズが一定期間にわたって変化しないか又は実質的に変化しない物理的物体である。静的障害物の例には、樹木、建物、縁石、柵、手すり、中央分離帯、電柱、彫像、記念碑、看板、ベンチ、家具、郵便受け、大きな岩、丘などが含まれる。静的障害物は、地面の上に伸びる物体であり得る。
1つ以上のデータストア115は、センサデータ(例えば、センサデータ250)を含むことができる。この場合、「センサデータ」は、車両100に装備されているセンサからの任意の情報を意味し、そのようなセンサの能力やその他の情報を含む。
上記のように、車両100は、センサシステム120を含むことができる。センサシステム120は、1つ以上のセンサを含むことができる。「センサ」とは、何かを検出、認識、及び/又は感知できるデバイス、コンポーネント、及び/又はシステムを意味する。1つ以上のセンサは、リアルタイムで動作するように構成することができる。本明細書で使用される場合、「リアルタイム」という用語は、ユーザ又はシステムが特定のプロセス又は判断を行うのに十分な即時性があると感じる、又はプロセッサが何らかの外部プロセスに追従することを可能にする処理応答性のレベルを意味する。
センサシステム120が複数のセンサを含む構成では、センサは互いに独立して動作することができる。あるいは、2つ以上のセンサが互いに組み合わされて動作することもできる。このような場合、2つ以上のセンサはセンサネットワークを形成することができる。センサシステム120及び/又は1つ以上のセンサは、プロセッサ110、データストア115、及び/又は車両100の別の要素(図1に示される要素のいずれかを含む)に動作可能に接続することができる。センサシステム120は、車両100の外部環境の少なくとも一部のデータを取得することができる。
センサシステム120は、任意の適切なタイプのセンサを含むことができる。本明細書では、異なるタイプのセンサの様々な例が説明される。しかしながら、実施形態は、説明される特定のセンサに限定されないことが理解されよう。センサシステム120は、1つ以上の車両センサ121を含むことができる。車両センサ121は、車両100自体又は車両100の内部コンパートメントに関する情報を検出、判断、及び/又は感知することができる。1つ以上の構成では、車両センサ121は、例えば、慣性加速度に基づくなどして、車両100の位置及び向きの変化を検出及び/又は感知するように構成することができる。1つ以上の構成では、車両センサ121は、1つ以上の加速度計、1つ以上のジャイロスコープ、慣性測定ユニット(IMU)、推測航法システム、全地球航法衛星システム(GNSS)、全地球測位システム(GPS)、ナビゲーションシステム、及び/又は他の適切なセンサを含むことができる。車両センサ121は、車両100の1つ以上の特性を検出及び/又は感知するように構成することができる。1つ以上の構成では、車両センサ121は、車両100の現在の速度を決定するための速度計を含むことができる。さらに、車両センサシステム121は、座席内の圧力/重量センサ、シートベルトセンサ、カメラなどのような、乗員室にわたるセンサを含むことができる。
代わりに、あるいは加えて、センサシステム120は、運転環境データを取得及び/又は感知するように構成された1つ以上の環境センサ122を含むことができる。「運転環境データ」には、自動運転車が置かれている外部環境又はその1つ以上の部分に関するデータ又は情報が含まれる。例えば、1つ以上の環境センサ122は、車両100の外部環境の少なくとも一部における障害物及び/又はそのような障害物に関する情報/データを検出及び/又は感知するように構成することができる。そのような障害物は、静止物体及び/又は動的物体であり得る。1つ以上の環境センサ122は、例えば、車線マーカー、標識、交通信号機、交通標識、車線、横断歩道、車両100に近接する縁石、道路外の物体などのような、車両100の外部環境内の他のものを検出及び/又は感知するように構成することができる。
本明細書では、センサシステム120のセンサの様々な例が説明される。例示的なセンサは、1つ以上の環境センサ122及び/又は1つ以上の車両センサ121の一部であり得る。しかしながら、実施形態は、説明される特定のセンサに限定されないことが理解されよう。一例として、1つ以上の構成において、センサシステム120は、1つ以上のレーダーセンサ、1つ以上のLIDARセンサ、1つ以上のソナーセンサ、及び/又は1つ以上のカメラを含むことができる。1つ以上の構成において、1つ以上のカメラは、ハイダイナミックレンジ(HDR)カメラ又は赤外線(IR)カメラであり得る。
車両100は、入力システム130を含むことができる。「入力システム」は、限定されないが、情報/データをマシンに入力することを可能にするデバイス、コンポーネント、システム、要素又は構成もしくはそれらのグループを含む。入力システム130は、車両の乗員(例えば、運転者又は乗客)からの入力を受け取ることができる。車両100は、出力システム140を含むことができる。「出力システム」は、情報/データを車両の乗員(例えば、人、車両の乗客など)に提示することを可能にする任意のデバイス、コンポーネント、又は構成もしくはそれらのグループを含む。
車両100は、1つ以上の車両システム150を含むことができる。1つ以上の車両システム150の様々な例が図1に示されているが、車両100は、提供された例に示されているものとは異なるシステムの組み合わせを含むことができる。一例において、車両100は、推進システム、ブレーキシステム、ステアリングシステム、スロットルシステム、トランスミッションシステム、シグナリングシステム、ナビゲーションシステムなどを含むことができる。記載されたシステムは、別個に又は組み合わせて、1つ以上のデバイス、コンポーネント、及び/又はそれらの組み合わせを含むことができる。
例として、ナビゲーションシステムは、車両100の地理的位置を決定するように、及び/又は車両100の走行ルートを決定するように構成された、1つ以上のデバイス、アプリケーション、及び/又はそれらの組み合わせを含むことができる。ナビゲーションシステムは、車両100の走行ルートを決定するための1つ以上のマッピングアプリケーションを含むことができる。ナビゲーションシステムは、全地球測位システム、ローカル測位システム、又は地理的位置システムを含むことができる。
プロセッサ110、リファインメントシステム170、及び/又は支援システム160は、様々な車両システム150及び/又はそれらの個々のコンポーネントと通信するように、動作可能に接続することができる。例えば、図1に戻ると、プロセッサ110及び/又は支援システム160は、車両100の動き、速度、操縦、進行方向、向きなどを制御するために、様々な車両システム150と情報を送受信するように通信することができる。プロセッサ110、リファインメントシステム170、及び/又は支援システム160は、これらの車両システム150の一部又はすべてを制御することができ、従って、部分的又は完全な自動運転とすることができる。
プロセッサ110、リファインメントシステム170、及び/又は支援システム160は、様々な車両システム150及び/又はそれらの個々のコンポーネントと通信するように、動作可能に接続することができる。例えば、図1に戻ると、プロセッサ110、リファインメントシステム170、及び/又は支援システム160は、車両100の動き、速度、操縦、進行方向、向きなどを制御するために、様々な車両システム150と情報を送受信するように通信することができる。プロセッサ110、リファインメントシステム170、及び/又は支援システム160は、これらの車両システム150の一部又はすべてを制御することができる。
プロセッサ110、リファインメントシステム170、及び/又は支援システム160は、1つ以上の車両システム150及び/又はそのコンポーネントを制御することによって、車両100のナビゲート及び/又は操縦を制御するように動作可能であり得る。例えば、自動運転モードで動作するとき、プロセッサ110、リファインメントシステム170、及び/又は支援システム160は、車両100の方向及び/又は速度を制御することができる。プロセッサ110、リファインメントシステム170、及び/又は支援システム160は、車両100を加速させ(例えば、エンジンに提供されるエネルギーの供給を増加させることによって)、減速させ(例えば、エンジンへのエネルギーの供給を減少させることによって、及び/又はブレーキをかけることによって)、及び/又は方向を変化させる(例えば、2つの前輪の向きを変えることによって)ことができる。
さらに、リファインメントシステム170及び/又は支援システム160は、様々な運転関連タスクを実行するように機能することができる。車両100は、1つ以上のアクチュエータを含むことができる。アクチュエータは、プロセッサ110及び/又は支援システム160からの信号又は他の入力の受信に応答して、車両システム又はそれらのコンポーネントの1つ以上を修正、調整、及び/又は変更するように動作可能な任意の要素又は要素の組み合わせであり得る。任意の適切なアクチュエータが使用可能である。例えば、1つ以上のアクチュエータは、いくつかの可能性を挙げれば、モータ、空気圧アクチュエータ、油圧ピストン、リレー、ソレノイド、及び/又は圧電アクチュエータを含むことができる。
車両100は、1つ以上のモジュールを含むことができ、その少なくともいくつかは本明細書で説明される。モジュールは、プロセッサ110による実行時に、本明細書で説明される様々なプロセスのうちの1つ以上を実行するコンピュータ可読プログラムコードとして実現され得る。1つ以上のモジュールは、プロセッサ110のコンポーネントであり得るか、又は1つ以上のモジュールは、プロセッサ110が動作可能に接続される他の処理システムで実行され得る、及び/又は分散され得る。モジュールは、1つ以上のプロセッサ110によって実行可能な命令(例えば、プログラムロジック)を含むことができる。代わりに又は加えて、1つ以上のデータストア115が、そのような命令を含んでも良い。
1つ以上の構成において、本明細書に記載の1つ以上のモジュールは、人工又は計算知能要素、例えば、ニューラルネットワーク、ファジー論理又は他の機械学習アルゴリズムを含むことができる。さらに、1つ以上の構成では、1つ以上のモジュールを、本明細書に記載の複数のモジュールに分散させることができる。1つ以上の構成では、本明細書に記載の2つ以上のモジュールを組み合わせて単一のモジュールにすることができる。
車両100は、1つ以上の支援システム160を含むことができる。支援システム160は、センサシステム120、及び/又は、車両100及び/又は車両100の外部環境に関連する情報を取得することができる任意の他のタイプのシステムからデータを受信するように構成することができる。1つ以上の構成において、支援システム160は、そのようなデータを使用して、1つ以上の運転シーンモデルを生成することができる。支援システム160は、車両100の位置及び速度を決定することができる。支援システム160は、障害物の位置、又は交通標識、樹木、低木、隣接車両、歩行者などを含む他の環境的特徴を決定することができる。
支援システム160は、プロセッサ110、及び/又は、車両100の位置及び向きを推定する本明細書に記載された1つ以上のモジュールによる使用のための車両100の外部環境内の障害物の位置情報、複数の衛星からの信号に基づくグローバル座標における車両位置、又は、車両100の現在の状態を決定するため、もしくは、地図を作成するか、地図データに対する車両100の位置を決定するかのいずれかで使用するように環境に対する車両100の位置を決定するために使用され得る任意の他のデータ及び/又は信号を受信し、及び/又は、決定するように構成され得る。
支援システム160は、独立して、又はリファインメントシステム170と組み合わせて、センサシステム120によって取得されたデータ、運転シーンモデル、及び/又はモジュール230によって実行されるセンサデータ250からの決定などの任意の他の適切なソースからのデータに基づいて、走行経路、車両100の現在の自動運転操作、将来の自動運転操作、及び/又は現在の自動運転操作の修正を決定するように構成され得る。「運転操作」とは、車両の動きに影響を与える1つ以上のアクションを意味する。運転操作の例には、いくつかの可能性を挙げれば、加速、減速、ブレーキ、旋回、車両100の横方向への移動、走行車線の変更、走行車線への合流、及び/又は後退が含まれる。支援システム160は、決定された運転操作を実施するように構成することができる。支援システム160は、直接的又は間接的に、そのような自動運転操作を実施させることができる。本明細書で使用される場合、「させる」又は「させている」とは、直接的又は間接的な方法で、イベントやアクションが起こるようにさせる、命令する、指示する、及び/又は可能にする、もしくは、少なくともそのようなイベントやアクションが起こりうる状態にすることを意味する。支援システム160は、様々な車両機能を実行するように、及び/又は車両100又はその1つ以上のシステム(例えば、車両システム150の1つ以上)にデータを送信し、そこからデータを受信し、それと相互作用し、及び/又はそれを制御するように構成することができる。
詳細な実施形態が本明細書に開示される。しかし、開示された実施形態は例としてのみ意図されていることを理解されたい。従って、本明細書で開示される特定の構造及び機能の詳細は、限定として解釈されるべきではなく、単に特許請求の範囲の基礎として、及び、実質的に任意の適切な詳細構造において本明細書の態様を様々に採用することを当業者に教示するための代表的な基礎として解釈されるべきである。さらに、本明細書で使用される用語及び語句は、限定することを意図するものではなく、可能な実施例の理解可能な説明を提供することを意図している。種々の実施形態が図1から図9に示されているが、実施形態は、図示された構造又は用途に限定されない。
図中のフローチャート及びブロック図は、様々な実施形態によるシステム、方法、及びコンピュータプログラム製品の可能な実施例のアーキテクチャ、機能、及び動作を示している。これに関して、フローチャート又はブロック図の各ブロックは、特定の論理機能を実行するための1つ以上の実行可能な命令を含むモジュール、セグメント、又はコードの一部を表すことができる。いくつかの代替の実施例では、ブロックに示された機能が、図に記載されている順序以外で発生する可能性があることにも注意されたい。例えば、連続して示された2つのブロックが、実際には、実質的に同時に実行されても良く、又はそれらのブロックが、関連する機能に応じて、ときには逆の順序で実行されても良い。
上述したシステム、コンポーネント、及び/又はプロセスは、ハードウェア又はハードウェアとソフトウェアの組み合わせで実現でき、1つの処理システムにおいて中央集権方式で、又は相互接続された複数の処理システムに異なる要素が分散された分散方式で実現することができる。本明細書に記載の方法を実行するように適合されたあらゆる種類の処理システム又は別の装置が適している。ハードウェア及びソフトウェアの組み合わせは、ロードされ、実行されるときに、本明細書に記載の方法を実行するように処理システムを制御するコンピュータで使用可能なプログラムコードを備えた処理システムであり得る。システム、コンポーネント、及び/又はプロセスは、本明細書に記載された方法及びプロセスを実行するためにマシンによって実行可能な命令のプログラムを目に見える方法で具体化した、マシンによって読み取り可能な、コンピュータプログラム製品又は他のデータプログラムストレージデバイスなどのコンピュータ読み取り可能なストレージに埋め込むこともできる。これらの要素は、本明細書で説明した方法の実行を可能にするすべての特徴を備えた、処理システムにロードされたときにこれらの方法を実行することができるアプリケーション製品に組み込むこともできる。
さらに、本明細書で説明された構成は、例えば記憶されるなどして、具体化されたコンピュータ可読プログラムコードを有する1つ以上のコンピュータ可読媒体に具現化されるコンピュータプログラム製品の形態をとることができる。1つ以上のコンピュータ可読媒体の任意の組み合わせが利用されてもよい。コンピュータ可読媒体は、コンピュータ可読信号媒体又はコンピュータ可読記憶媒体であり得る。「コンピュータ可読記憶媒体」という語句は、非一時的な記憶媒体を意味する。コンピュータ可読媒体は、限定されるものではないが、不揮発性媒体及び揮発性媒体を含む、形態をとることができる。不揮発性媒体には、例えば、光ディスク、磁気ディスクなどが含まれる。揮発性媒体には、例えば、半導体メモリ、ダイナミックメモリなどが含まれる。そのようなコンピュータ可読媒体の例には、限定されるものではないが、フロッピーディスク、フレキシブルディスク、ハードディスク、磁気テープ、他の磁気媒体、ASIC、CD、他の光学媒体、RAM、ROM、メモリチップ又はカード、メモリスティック、及び、コンピュータ、プロセッサ、又は他の電子デバイスが読み取ることが可能な他の媒体が含まれる。この明細書の文脈において、コンピュータ可読記憶媒体は、命令実行システム、装置、又はデバイスによって、もしくはそれに関連して使用するためのプログラムを含む、又は格納できる任意の有形の媒体であってもよい。
以下は、本明細書で使用される選択された用語の定義を含む。定義には、用語の範囲内にあり、様々な実施例に使用できるコンポーネントの様々な例、及び/又は形式が含まれる。これらの例は限定することを意図していない。用語の単数形と複数形の両方が定義内に含まれる場合がある。
「一実施形態」、「実施形態」、「一例」、「例」などへの言及は、そのように記載された実施形態又は例が、特定の特徴、構造、特性、特質、要素、又は限定を含むかもしれないが、すべての実施形態又は例が、必ずしも、その特定の特徴、構造、特性、特質、要素、又は限定を含むわけではない。さらに、「一実施形態において」という語句の繰り返しの使用は、同じ実施形態を指す場合もあるが、必ずしもそうとは限らない。
本明細書で使用される「モジュール」には、機能又はアクションを実行するように構成された、及び/又は、別のロジック、方法、及び/又はシステムから機能又はアクションを引き起こすように構成された、コンピュータ又は電気ハードウェアコンポーネント、ファームウェア、命令を保存する非一時的なコンピュータ可読媒体、及び/又は、これらのコンポーネントの組み合わせが含まれる。モジュールには、アルゴリズムによって制御されるマイクロプロセッサ、ディスクリートロジック回路(ASICなど)、アナログ回路、デジタル回路、プログラムされたロジックデバイス、実行時にアルゴリズムを実行する命令を含むメモリデバイスなどが含まれてもよい。モジュールは、1つ以上の実施形態において、1つ以上のCMOSゲート、ゲートの組み合わせ、又は他の回路部品を含む。複数のモジュールが説明されている場合、1つ以上の実施形態は、複数のモジュールを1つの物理的なモジュールコンポーネントに組み込むことを含む。同様に、単一のモジュールが説明されている場合、1つ以上の実施形態は、単一のモジュールを複数の物理的コンポーネントに分散してもよい。
さらに、本明細書で使用されるモジュールには、特定のタスクを実行したり、特定のデータタイプを実現したりするルーチン、プログラム、オブジェクト、コンポーネント、データ構造などが含まれる。さらなる態様において、メモリは一般に、言及されたモジュールを格納する。モジュールに関連付けられるメモリは、プロセッサ内に埋め込まれたバッファ又はキャッシュ、RAM、ROM、フラッシュメモリ、又は別の適切な電子記憶媒体であってもよい。さらに別の態様では、本開示によって想定されるモジュールは、特定用途向け集積回路(ASIC)、システムオンチップ(SoC)のハードウェアコンポーネント、プログラマブルロジックアレイ(PLA)、又は開示された機能を実行するための定義された設定セット(例えば、命令)が埋め込まれた別の適切なハードウェアコンポーネントとして実現される。
1つ以上の構成において、本明細書に記載のモジュールの1つ以上は、人工又はコンピュータ知能要素、例えばニューラルネットワーク、ファジー論理、又は他の機械学習アルゴリズムを含むことができる。さらに、1つ以上の構成において、モジュールの1つ以上を、本明細書に記載の複数のモジュールに分散させることができる。1つ以上の構成では、本明細書に記載のモジュールの2つ以上が、単一のモジュールに組み合わせることができる。
コンピュータ可読媒体に具現化されるプログラムコードは、限定されるものではないが、無線、有線、光ファイバー、ケーブル、RFなど、又はこれらの任意の適切な組み合わせを含む、任意の適切な媒体を使用して送信されてもよい。本構成の態様の動作を実行するためのコンピュータプログラムコードは、java(登録商標)、スモールトーク、C++などのオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語などの従来の手続き型プログラミング言語を含む、1つ以上のプログラミング言語の任意の組み合わせで記述されてもよい。プログラムコードは、スタンドアロンソフトウェアパッケージとして、完全にユーザのコンピュータ上で、部分的にユーザのコンピュータ上で、あるいは、一部をユーザのコンピュータ上でかつ一部を遠隔コンピュータ上で、もしくは、完全に遠隔コンピュータ又はサーバ上で実行されてもよい。後者のシナリオでは、遠隔コンピュータは、ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN)を含む任意のタイプのネットワークを介してユーザのコンピュータに接続されてもよいし、又は、その接続は、外部コンピュータになされてもよい(例えば、インターネットサービスプロバイダを使用したインターネット経由)。
本明細書で使用される「a」及び「an」という用語は、1つではなく、1つ以上として定義される。本明細書で使用される「複数」という用語は、2つではなく、2つ以上として定義される。本明細書で使用される「別の」という用語は、少なくとも2番目又はそれ以上として定義される。本明細書で使用される「含む」及び/又は「有する」という用語は、包含する(すなわち、オープン言語)と定義される。本明細書で使用される「...及び...の少なくとも1つ」というフレーズは、関連する列挙されたアイテムの1つ以上の任意の及び全ての可能な組み合わせを指し、包含する。例として、「A、B、及びCの少なくとも1つ」というフレーズは、Aのみ、Bのみ、Cのみ、又はそれらの任意の組み合わせ(たとえば、AB、AC、BC又はABC)を含む。
本明細書の態様は、その主旨又は本質的な特質から逸脱することなく、他の形態で具現化することができる。従って、本明細書の範囲を示すものとして、前述の明細書ではなく、以下の特許請求の範囲を参照すべきである。
100:車両、110:プロセッサ、115:データストア、120:センサシステム、121:車両センサ、122:環境センサ、123:LiDARセンサ、130:入力システム、140:出力システム、150:車両システム、160:支援システム、170:リファインメントシステム、210:メモリ、220:センサモジュール、230:パイプラインモジュール、240:データストア、250:センサデータ、260:システムパラメータ、300:エンハンサパイプライン、310:画像超解像モジュール、320:画像補完モジュール、330:画像着色器モジュール、340:深度補完モジュール、350:深度推定モジュール、360:強化画像、370:強化点群、380:疑似点群、400:バッチ処理アーキテクチャ:410:シンクロナイザ、420:入力バッチャ、430:強化画像、440:強化点群、450:疑似点群、460:点群スティッチャ

Claims (20)

  1. 1つ以上のプロセッサと、
    1つ以上のプロセッサに通信可能に結合されるメモリと、を備え、
    メモリは、
    1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、LiDARセンサを使用して、点群及び周囲画像を取得させる命令を含むセンサモジュールと、
    1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、点群及び周囲画像を処理させ、一連の処理ルーチンを含むエンハンサパイプラインに従って、少なくとも周囲画像の欠落部分を補完した強化データを生成する命令を含むパイプラインモジュールと、を格納し、
    パイプラインモジュールは、強化データからLiDARセンサの周囲環境に関する決定を生成することを容易にするために、強化データを少なくとも1つのモジュールに提供するための命令を含む、LiDARセンサの出力を強化するリファインメントシステム。
  2. パイプラインモジュールは、車両の制御を容易にするために、強化データを自動運転モジュールに提供するための命令を含む、強化データを少なくとも1つのモジュールに提供するための命令を含み、
    パイプラインモジュールは、周囲画像における異常を少なくとも修正するための命令を含むエンハンサパイプラインに従って、点群及び周囲画像を処理して、少なくとも周囲画像から導出される可視光画像とともに強化データを生成する命令を含む、請求項1に記載のリファインメントシステム。
  3. パイプラインモジュールは、超解像ニューラルネットワークに従って周囲画像を低解像度画像から高解像度画像に超解像する命令を含む、点群及び周囲画像を処理する命令を含む、請求項1に記載のリファインメントシステム。
  4. パイプラインモジュールは、周囲画像から導出される高解像度画像と敵対的生成ネットワーク(generative adversarial network : GAN)を使用して、異常の影響を受けている周囲画像の部分を予測する命令を含む、点群及び周囲画像を処理する命令を含み、そして、
    パイプラインモジュールは、異常の結果として欠落している周囲画像のセクションを予測する命令を含む、周囲画像の部分を予測する命令を含む、請求項1に記載のリファインメントシステム。
  5. パイプラインモジュールは、畳込みニューラルネットワーク(convolutional neural network : CNN)を使用して、周囲画像から導出される高解像度画像をRGB画像に変換することにより周囲画像を色付けする命令を含む、点群及び周囲画像を処理する命令を含む、請求項1に記載のリファインメントシステム。
  6. パイプラインモジュールは、周囲画像から導出され色付けされた高解像度画像を使用して、深層ニューラルネットワーク(deep neural network : DNN)に従って点群を高密度化する命令を含む、点群及び周囲画像を処理する命令を含む、請求項1に記載のリファインメントシステム。
  7. センサモジュールは、複数のセンサから点群及び周囲画像のバッチを取得し、そのバッチに対する強化データをまとめて生成するために、そのバッチをバッチ処理する命令を含む、点群及び周囲画像を取得して処理する命令を含む、請求項1に記載のリファインメントシステム。
  8. パイプラインモジュールは、周囲画像を高解像度画像に超解像し、高解像度画像を色付けし、高解像度画像を欠落部分を埋めるように補完し、そして、点群を高密度化する命令を含むエンハンサパイプラインに従って点群及び周囲画像を処理する命令を含み、
    センサモジュールは、点群及び周囲画像を一緒に取得するようにLiDARセンサを制御する命令を含む、点群及び周囲画像を取得する命令を含み、LiDARセンサは、単一光子アバランシェダイオード(SPAD)LiDARである、請求項1に記載のリファインメントシステム。
  9. 1つ以上のプロセッサによる実行時に、1つ以上のプロセッサに、
    LiDARセンサを使用して、点群及び周囲画像を取得させ、
    一連の処理ルーチンを含むエンハンサパイプラインに従って、少なくとも周囲画像の欠落部分を補完した強化データを生成するように点群及び周囲画像を処理させ、そして、
    強化データからLiDARセンサの周囲環境に関する決定を生成することを容易にするために、強化データを少なくとも1つのモジュールに提供させる、
    LiDARセンサの出力を強化するための命令を格納する非一時的コンピュータ可読媒体。
  10. 強化データを少なくとも1つのモジュールに提供するための命令は、車両の制御を容易にするために、強化データを自動運転モジュールに提供する命令を含み、及び、
    エンハンサパイプラインに従って点群及び周囲画像を処理する命令は、周囲画像における異常を少なくとも修正して、少なくとも周囲画像から導出される可視光画像とともに強化データを生成する命令を含む、請求項9に記載の非一時的コンピュータ可読媒体。
  11. 命令は、周囲画像を高解像度画像に超解像し、高解像度画像を色付けし、高解像度画像を欠落部分を埋めるように補完し、そして、点群を高密度化する命令を含むエンハンサパイプラインに従って点群及び周囲画像を処理する命令を含む、請求項9に記載の非一時的コンピュータ可読媒体。
  12. 点群及び周囲画像を取得する命令は、点群及び周囲画像を一緒に取得するようにLiDARセンサを制御する命令を含み、LiDARセンサは、単一光子アバランシェダイオード(SPAD)LiDARである、請求項9に記載の非一時的コンピュータ可読媒体。
  13. LiDARセンサを使用して、点群及び周囲画像を取得すること、
    点群及び周囲画像を処理して、一連の処理ルーチンを含むエンハンサパイプラインに従って、少なくとも周囲画像の欠落部分を補完した強化データを生成すること、
    強化データからLiDARセンサの周囲環境に関する決定を生成することを容易にするために、強化データを少なくとも1つのモジュールに提供すること、を備えるLiDARセンサの出力を強化する方法。
  14. 強化データを少なくとも1つのモジュールに提供することは、車両の制御を容易にするために、強化データを自動運転モジュールに提供することを含み、そして、
    エンハンサパイプラインに従って点群及び周囲画像を処理することは、周囲画像における異常を少なくとも修正して、少なくとも周囲画像から導出される可視光画像とともに強化データを生成することを含む、請求項13に記載の方法。
  15. 点群及び周囲画像を処理することは、超解像ニューラルネットワークに従って周囲画像を低解像度画像から高解像度画像に超解像することを含む、請求項13に記載の方法。
  16. 点群及び周囲画像を処理することは、周囲画像から導出される高解像度画像と敵対的生成ネットワーク(generative adversarial network : GAN)を使用して、異常の影響を受けている周囲画像の部分を予測することを含み、そして、周囲画像の部分を予測することは、異常の結果として欠落している周囲画像のセクションを予測することを含む、請求項13に記載の方法。
  17. 点群及び周囲画像を処理することは、畳込みニューラルネットワーク(convolutional neural network : CNN)を使用して、周囲画像から導出される高解像度画像をRGB画像に変換することにより周囲画像を色付けすることを含む、請求項13に記載の方法。
  18. 点群及び周囲画像を処理することは、周囲画像から導出され色付けされた高解像度画像を使用して、深層ニューラルネットワーク(deep neural network : DNN)に従って点群を高密度化することを含む、請求項13に記載の方法。
  19. 点群及び周囲画像を取得して処理することは、複数のセンサから点群及び周囲画像のバッチを取得し、そのバッチに対する強化データをまとめて生成するために、そのバッチをバッチ処理することを含む、請求項13に記載の方法。
  20. エンハンサパイプラインに従って点群及び周囲画像を処理することは、周囲画像を高解像度画像に超解像し、高解像度画像を色付けし、高解像度画像を欠落部分を埋めるように補完し、そして、点群を高密度化することを含み、
    点群及び周囲画像を取得することは、点群及び周囲画像を一緒に取得するようにLiDARセンサを制御することを含み、LiDARセンサは、単一光子アバランシェダイオード(SPAD)LiDARである、請求項13に記載の方法。
JP2021143501A 2020-09-18 2021-09-02 Lidarの出力を強化するためのシステム及び方法 Active JP7192935B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/025,730 US20220091266A1 (en) 2020-09-18 2020-09-18 Systems and methods for enhancing outputs of a lidar
US17/025,730 2020-09-18

Publications (2)

Publication Number Publication Date
JP2022051524A JP2022051524A (ja) 2022-03-31
JP7192935B2 true JP7192935B2 (ja) 2022-12-20

Family

ID=80739334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021143501A Active JP7192935B2 (ja) 2020-09-18 2021-09-02 Lidarの出力を強化するためのシステム及び方法

Country Status (2)

Country Link
US (1) US20220091266A1 (ja)
JP (1) JP7192935B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220163675A1 (en) * 2020-11-24 2022-05-26 Waymo Llc Methods of Using Background Images from a Light Detection and Ranging (LIDAR) Device
JP2022184109A (ja) * 2021-05-31 2022-12-13 キヤノン株式会社 撮像システム、移動装置、制御方法およびプログラム
US20230393280A1 (en) * 2022-06-02 2023-12-07 Gm Cruise Holdings Llc Retrofit light detection and ranging (lidar)-based vehicle system to operate with vision-based sensor data
US11628859B1 (en) * 2022-07-29 2023-04-18 Plusai, Inc. Vehicle placement on aerial views for vehicle control
US11634156B1 (en) 2022-07-29 2023-04-25 Plusai, Inc. Aerial view generation for vehicle control
CN115407364A (zh) * 2022-09-06 2022-11-29 安徽蔚来智驾科技有限公司 点云地图处理方法、车道标注数据获取方法、设备及介质
CN117689908A (zh) * 2023-12-11 2024-03-12 深圳技术大学 楼梯点云数据增强方法、装置、智能终端及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018508418A (ja) 2015-01-20 2018-03-29 ソルフィス リサーチ、インコーポレイテッド リモートセンシング及び車両制御のための実時間マシンビジョン並びに点群分析
JP2019168417A (ja) 2018-03-26 2019-10-03 株式会社デンソー 物体認識装置、及び物体認識方法
WO2020033001A2 (en) 2018-02-13 2020-02-13 Sense Photonics, Inc. Methods and systems for high-resolution long-range flash lidar
JP2020123114A (ja) 2019-01-30 2020-08-13 日本電信電話株式会社 深度超解像装置、深度超解像方法、及びプログラム
US20200284883A1 (en) 2019-03-08 2020-09-10 Osram Gmbh Component for a lidar sensor system, lidar sensor system, lidar sensor device, method for a lidar sensor system and method for a lidar sensor device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3631761B1 (en) * 2017-05-24 2020-07-08 HELLA GmbH & Co. KGaA Method and system for automatically colorizing night-vision images
US10474160B2 (en) * 2017-07-03 2019-11-12 Baidu Usa Llc High resolution 3D point clouds generation from downsampled low resolution LIDAR 3D point clouds and camera images
US10474161B2 (en) * 2017-07-03 2019-11-12 Baidu Usa Llc High resolution 3D point clouds generation from upsampled low resolution lidar 3D point clouds and camera images
US10176596B1 (en) * 2017-07-06 2019-01-08 GM Global Technology Operations LLC Calibration verification methods for autonomous vehicle operations
US10719742B2 (en) * 2018-02-15 2020-07-21 Adobe Inc. Image composites using a generative adversarial neural network
US11372090B2 (en) * 2018-12-10 2022-06-28 Baidu Usa Llc Light detection and range (LIDAR) device with SPAD and APD sensors for autonomous driving vehicles
WO2021133384A1 (en) * 2019-12-23 2021-07-01 A^3 By Airbus, Llc Systems and methods for efficently sensing collison threats
US11508042B1 (en) * 2020-01-29 2022-11-22 State Farm Mutual Automobile Insurance Company Imputation of 3D data using generative adversarial networks
US11447128B2 (en) * 2020-04-29 2022-09-20 GM Global Technology Operations LLC Method and system for operating an on-vehicle LiDAR sensor
US11315269B2 (en) * 2020-08-24 2022-04-26 Toyota Research Institute, Inc. System and method for generating a point cloud that includes surface normal information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018508418A (ja) 2015-01-20 2018-03-29 ソルフィス リサーチ、インコーポレイテッド リモートセンシング及び車両制御のための実時間マシンビジョン並びに点群分析
WO2020033001A2 (en) 2018-02-13 2020-02-13 Sense Photonics, Inc. Methods and systems for high-resolution long-range flash lidar
JP2019168417A (ja) 2018-03-26 2019-10-03 株式会社デンソー 物体認識装置、及び物体認識方法
JP2020123114A (ja) 2019-01-30 2020-08-13 日本電信電話株式会社 深度超解像装置、深度超解像方法、及びプログラム
US20200284883A1 (en) 2019-03-08 2020-09-10 Osram Gmbh Component for a lidar sensor system, lidar sensor system, lidar sensor device, method for a lidar sensor system and method for a lidar sensor device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Kyosuke Komoto, et al,A performance evaluation of defect detection by using Denoising AutoEncoder Generative Adversarial Networks,2018 International Workshop on Advanced Image Technology (IWAIT),IEEE,2018年,p.1-4

Also Published As

Publication number Publication date
JP2022051524A (ja) 2022-03-31
US20220091266A1 (en) 2022-03-24

Similar Documents

Publication Publication Date Title
JP7192935B2 (ja) Lidarの出力を強化するためのシステム及び方法
US11216000B2 (en) System and method for estimating lane prediction errors for lane segments
US11216987B2 (en) Systems and methods for associating LiDAR points with objects
US11663729B2 (en) Network architecture for the joint learning of monocular depth prediction and completion
US11662469B2 (en) System and method for merging clusters
US11144818B2 (en) Network architecture for ego-motion estimation
US11222215B1 (en) Identifying a specific object in a two-dimensional image of objects
US11328517B2 (en) System and method for generating feature space data
US12020489B2 (en) Network architecture for monocular depth estimation and object detection
US11200679B1 (en) System and method for generating a probability distribution of a location of an object
US10933880B2 (en) System and method for providing lane curvature estimates
US20210390714A1 (en) Producing a bird's eye view image from a two dimensional image
US20220058817A1 (en) System and method for generating a point cloud that includes surface normal information
JP2021077359A (ja) 単眼画像を用いた深度推定のためのシステムおよび方法
US12014507B2 (en) Systems and methods for training a prediction system
US11615268B2 (en) System and method for optimizing performance of a model performing a downstream task
US20220036126A1 (en) System and method for training of a detector model to output an instance identifier indicating object consistency along the temporal axis
US11810367B2 (en) System and method for determining if a vehicle is parked
US20230154038A1 (en) Producing a depth map from two-dimensional images
US11238292B2 (en) Systems and methods for determining the direction of an object in an image
US20200386894A1 (en) SYSTEMS AND METHODS FOR REDUCING LiDAR POINTS
US11935254B2 (en) Systems and methods for predicting depth using style transfer
US20240354974A1 (en) Systems and methods for augmenting images during training of a depth model
US20240331268A1 (en) Systems and methods for generating an image using interpolation of features
US11941081B2 (en) Systems and methods for training a style model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221121

R151 Written notification of patent or utility model registration

Ref document number: 7192935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151