JP2015212942A - レーザー点クラウドを用いる物体検出のための方法及びシステム - Google Patents

レーザー点クラウドを用いる物体検出のための方法及びシステム Download PDF

Info

Publication number
JP2015212942A
JP2015212942A JP2015089456A JP2015089456A JP2015212942A JP 2015212942 A JP2015212942 A JP 2015212942A JP 2015089456 A JP2015089456 A JP 2015089456A JP 2015089456 A JP2015089456 A JP 2015089456A JP 2015212942 A JP2015212942 A JP 2015212942A
Authority
JP
Japan
Prior art keywords
pixels
environment
vehicle
objects
distance image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015089456A
Other languages
English (en)
Other versions
JP6174073B2 (ja
Inventor
スタウト、ジェームズ
stout James
ヂュ、ジャジュン
Jiajun Zhu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2015212942A publication Critical patent/JP2015212942A/ja
Application granted granted Critical
Publication of JP6174073B2 publication Critical patent/JP6174073B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】レーザー点クラウドを用いる物体検出のための方法及びシステムを提供する。【解決手段】コンピュータ・デバイスはセンサーから車両の環境を示すレーザー・データを受信して、そのレーザー・データに基づいて環境における物体のそれぞれの位置を示すピクセルを含む二次元(2D)距離画像を生成する。コンピュータ・デバイスは、2D距離画像を修正して、レーザー・データが欠如している環境における物体の部分をマップする所定のピクセルへ値を与える。これは所定のピクセルの傍らに位置した近隣ピクセルの平均値に基づいて所定のピクセルへ値を与えることに関係する。更に、コンピュータ・デバイスは、修正された2D距離画像に基づいて環境の物体の表面に対応するピクセルのセットの法線ベクトルを決定し、この法線ベクトルを用いて、物体認識情報を車両のシステムへ与える。【選択図】図3

Description

発明の詳細な説明
関連出願への相互参照
この出願は2014年4月25日に出願の米国特許出願第14/262,651号の優先権を主張しており、その全体が参照によりここに組み込まれている。
背景
ここに別段の指示がない限り、この背景の節に説明された資料はこの出願における特許請求の範囲に対する先行技術ではなく、かつ、この節への包含によって先行技術になると認められるものではない。
車両は、センサーにより与えられた情報を用いて移動の経路をナビゲートされることがある。車両のコンピュータ・デバイスは、車両センサーから受信された情報を処理して障害物との衝突を回避して、適切なナビゲーションを確実にすることがある。そのような車両には、周囲環境における物体を検出するために、通常は様々な種類のセンサーが装備されている。例えば、自律型車両は、レーザー、ソナー、RADAR、カメラ、及び車両の周囲環境からデータを走査して記録する他のデバイスを含むことがある。これらのデバイスの一つ以上からのセンサー・データは、複数の物体を検出し、それらのそれぞれの特性(位置、形状、機首方位、速度など)を検出するのに用いられることがある。この検出及び識別は、自律型車両の安全な操作に役立つ。
概要
本出願は、レーザー点クラウドを用いる物体検出のための方法及びシステムに関する実施形態を開示する。
一例を挙げれば、本出願は方法を説明する。この方法は、コンピュータ・デバイスにおいて、車両の環境を示すレーザー・データを受信することを含み、そのレーザー・データは環境における一つ以上の物体に関連した複数のデータ点を含む。この方法は、複数のセンサー・データ点に基づいて、車両に関連する環境における一つ以上の物体のそれぞれの位置を示す複数のピクセルを含む二次元距離画像を生成することも含み得る。更に、この方法は、生成された二次元距離画像を修正し、レーザー・データが欠如している環境における一つ以上の物体の一つ以上の部分にマップされる複数のピクセルの一つ以上の所定のピクセルにそれぞれの値を与えることを含むことがある。或る場合には、生成された二次元距離画像を修正し、一つ以上の所定のピクセルにそれぞれの値を与えるように修正することは、二次元距離画像における複数のピクセルの一つ以上の所定のピクセルの近位に位置する複数のピクセルのそれぞれの近隣ピクセルに基づいている。この方法は、複数のピクセルにおけるピクセルの一つ以上のセットの複数の法線ベクトルを決定し、それは修正された二次元距離画像に基づいて得られる車両の環境における一つ以上の物体のそれぞれの表面に対応しており、及び、ピクセルの一つ以上のセットの複数の法線ベクトルに基づいて車両の環境における一つ以上の物体を示す物体認識情報を車両の一つ以上のシステムへ与えることを含むことがある。
他の例においては、本願は非一時的なコンピュータ可読媒体を説明し、これは、それに記憶された実行可能な指令を有し、この指令はコンピュータ・デバイスにより実行されるときに、コンピュータ・デバイスに機能を実行させる。その機能は、車両の環境を示すレーザー・データを受信することを含むことがあり、そのレーザー・データは環境における一つ以上の物体に関連した複数のデータ点を含む。この機能は、複数のセンサー・データ点に基づいて、二次元距離画像を生成することも含むことがあり、その二次元距離画像は、車両に関する環境における一つ以上の物体のそれぞれの位置を示す複数のピクセルを含む。更に、この機能は、生成された二次元距離画像を修正して、レーザー・データが欠如している環境における一つ以上の物体の一つ以上の部分にマップする複数のピクセルの一つ以上の所定のピクセルにそれぞれの値を与えることを含むことがある。或る場合には、生成された二次元距離画像を修正して、一つ以上の所定のピクセルにそれぞれの値を与えることは、二次元距離画像内の複数のピクセルの一つ以上の所定のピクセルに近接して位置した複数のピクセルのそれぞれの近隣ピクセルに基づいている。この機能は、修正された二次元距離画像に基づいて、車両の環境における一つ以上の物体のそれぞれの表面に対応する複数のピクセルにおけるピクセルの一つ以上のセットの複数の法線ベクトルを判定し、ピクセルの一つ以上のセットの法線ベクトルに基づく車両の一つ以上のシステムに対する車両の環境における一つ以上の物体を示す物体認識情報を与えることを含むことがある。
更に他の例においては、本願はシステムを説明する。このシステムは、少なくとも一つのプロセッサを含むことがある。このシステムは、記憶された実行可能な指令を有するメモリも含むことがあり、その指令は、少なくとも一つのプロセッサによる実行と同時に、システムに機能を実行させ、その機能は、車両の環境を示すレーザー・データを受信することを含み、そのレーザー・データは環境における一つ以上の物体に関連した複数のデータ点を含む。この機能は、複数のセンサー・データ点に基づいて、二次元距離画像を生成することも含み、その二次元距離画像は車両に対して環境における一つ以上の物体のそれぞれの位置を示す複数のピクセルを含む。更に、この機能は、生成された二次元距離画像を修正し、レーザー・データが欠如している環境における一つ以上の物体の一つ以上の部分にマップする複数のピクセルの一つ以上の所定のピクセルにそれぞれの値を与えることを含むことがある。或る場合には、生成された二次元距離画像を修正して一つ以上の所定のピクセルにそれぞれの値を与えることは、二次元距離画像内で複数のピクセルの一つ以上の所定のピクセルに近接して位置した複数のピクセルのそれぞれの近隣ピクセルに基づく。この機能は、修正された二次元距離画像に基づいて、車両の環境における一つ以上の対象のそれぞれの表面に対応する複数のピクセルにおけるピクセルの一つ以上のセットの複数の法線ベクトルを判定し、ピクセルの一つ以上のセットの複数の法線ベクトルに基づいて車両の一つ以上のシステムに対する車両の環境における一つ以上の物体を示す物体認識情報を与えることを含むことがある。
他の例においては、システムが与えられて、これは、非構造化及び構造化レーザー点クラウドのための実時間生成のための手段を含む。このシステムは、車両の環境を示すレーザー・データを受信するための手段も含むことがあり、そのレーザー・データは環境における一つ以上の物体に関連した複数のデータ点を含む。このシステムは、複数のセンサー・データ点に基づいて車両に対する環境における一つ以上の物体のそれぞれの位置を示す複数のピクセルを含む二次元画像を生成するための手段も含むことがある。更に、このシステムは、生成された二次元距離を修正して、レーザー・データが欠如している環境における一つ以上の物体の一つ以上の部分にマップする複数のピクセルの一つ以上の所定のピクセルにそれぞれの値を与えるための手段を含むことがある。或る場合には、このシステムは、生成された二次元距離画像を修正して、二次元距離画像内の複数のピクセルの一つ以上の所定のピクセルに近接して位置した複数のピクセルのそれぞれの近隣ピクセルに基づいて、一つ以上の所定のピクセルへそれぞれの値を与えるための手段を含むことがある。このシステムは、修正された二次元距離画像に基づいて車両の環境における一つ以上の物体のそれぞれの表面に対応する複数のピクセルにおける一つ以上のセットの複数の法線ベクトルを判定する手段と、ピクセルの一つ以上のセットの複数の法線ベクトルに基づいて車両の一つ以上のシステムに対する車両の環境における一つ以上の物体を示す物体識別情報を与えるための手段とを含むことがある。
上述の概要は単なる例示であって、如何なる方式であれ限定を意図したものではない。上述した例示的態様、実施形態、及び特徴に加えて、更なる態様、実施形態、及び特徴は、図面及び以下の詳細な説明を参照することによって明らかになる。
図1は例示的実施形態による例示的車両の単純化されたブロック図である。
図2は例示的実施形態による例示的車両を図解する。
図3はレーザー点クラウドを用いる物体検出のための例示的方法のフローチャートである。
図4は二次元距離画像の一部におけるピクセルを図解する例示的図である。
図5A前方視野から例示的車両を示すと共に、センサー・データを用いて例示的車両のコンピュータ・デバイスにより生成された仮想二次元距離画像の部分を図解する。
図5Bは側面視野から例示的車両を示すと共に、センサー・データを用いて例示的車両のコンピュータ・デバイスにより生成された二次元距離画像の更なる部分を図解する。
図5Cは後部視野から例示的車両を示すと共に、センサー・データを用いて例示的車両のコンピュータ・デバイスにより生成された二次元距離画像の部分を図解する。
図5Dは他の後部視野から例示的車両を示すと共に、センサー・データを用いて例示的車両のコンピュータ・デバイスにより生成された二次元距離画像の部分を図解する。
図6はピクセルのセットのベクトル法線計算を図解する例示的図である。
図7は、コンピュータ・デバイスでコンピュータ処理を実行するためにコンピュータ・プログラムを含む例示的コンピュータ・プログラム製品の概念的の部分図を図解する概略図である。詳細な説明
以下の詳細な説明は、添付図面を参照して開示されたシステム及び方法の様々な特徴及び機能を説明する。図においては、文脈が指示しない限り、類似した符号は類似した構成要素を特定する。ここに説明した例示的システム及び方法実施形態は、限定を意味するものではない。開示されたシステム及び方法の特定の態様は、多種多様な異なる構成に配置及び組み合わせることができ、その全てがここに予期されていることは容易に理解されるであろう。
車両、例えば自律型車両若しくは運転者が不要な車両は、誘導及び制御を与えることを運転者に要求することなく、移動の経路をナビゲートすることがある。安全な自律型ナビゲーションを可能にするために、車両は、車両に関連したセンサーから得られた車両を囲んでいる局所的環境についてのデータを利用することがある。自律型車両は一つ又は複数のコンピュータ・デバイスを含むことがあり、これは、車両が操作されるにつれて、センサーから受信された近傍の環境に関する情報を受信して処理するように構成されている。この情報を処理することは、コンピュータ・デバイスが車両のシステムへ情報及び/又は指令を与えることを可能にすることがあり、環境変化を通じて車両が移動するにつれて、安全なナビゲーション計画を実行する。
一つの例示的実施形態においては、車両の一つ又は複数のコンピュータ・デバイスにおける環境を示すレーザー・データを受信しながら、ナビゲートされることがある。例えば、車両は、センサー・データ(例えば環境における一つ以上の物体に関連したデータ点からなるレーザー・データ)を捕捉するように構成されたLIDARモジュールを含むことがある。同様に、車両は、物体検出のために用いられることがあるセンサー・データを与えるように構成された他の形式のセンサー、例えばデプス・カメラも含むことがある。コンピュータ・デバイスは、例えば構造化された3次元(3D)点クラウド及び/又は非構造化3D点クラウドにおける環境を示すデータ点を受信することがある。或る場合には、このコンピュータ・デバイスは、格子状点クラウド内のデータ点を受信することがある。レーザー・データは、車両に対する環境における物体の位置を示す情報を包含するデータ点を含むことがある。他の例においては、このレーザー・データは、車両の環境に関する他の情報を含むことがある。
操作の間、コンピュータ・デバイスは、レーザー・データ点を用いて環境における物体の位置を示すピクセルを含む二次元(2D)距離画像を生成することがある。一例として、コンピュータ・デバイスは、車両の周りに位置する又は仮想レンダリングにおける車両の周りに仮想的に位置する概念的2D円筒面にレーザー・データ点を投影し、ピクセルをレーザー・データ点内のデータに対応させるようにすることがある。結果的に生成された2D距離画像は、環境における情報を示す値を有するピクセルを含むことがあり、レーザー・データ点からの値を有さないことがある或るピクセルを含むこともある。値が欠落しているピクセルは、コンピュータ・デバイスが物体の部分を示すレーザー・データを受信しなかった物体の部分に対応することがある。或る例示的実施形態においては、コンピュータ・デバイスは、全ての点クラウドの受信を完了する前に2D距離画像の部分の生成を始めることがある。例えば、コンピュータ・デバイスは、点がLIDARモジュールから受信されるにつれて、2D距離画像の部分を発展させることがある。
更にまた、車両のコンピュータ・デバイスは、2D距離画像を修正して、値を伴わないピクセルから生じるギャップを満たすことがある。例えば、コンピュータ・デバイスは、2D距離画像における一つ以上のギャップに近接して位置したそれぞれの近隣ピクセルを用いて、当初は値を有さないことがあるギャップのピクセルへ割り当てる平均値を測定することがある。コンピュータ・デバイスは修正された2D距離画像を用いて、車両の環境における一つ以上の物体のそれぞれの表面に対応することがあるピクセルの複数のセットの一つ又は複数の法線ベクトルを決定することがある。
或る例においては、コンピュータ・デバイスは、表面法線及び面分割処理を用いて、獲得したセンサー・データ(例えば、環境における表面を有するピクセルの関連セット)における面を分類することがあり、これは車両を物体認識及び障害物回避のために支援することがある。コンピュータ・デバイスは、車両がナビゲートされるにつれて、環境内の物体の仮想マッピングを発展させることがある。更に、コンピュータ・デバイスはピクセルの複数のセットの法線ベクトル並びに面分割を用いて、車両のシステムに対する環境に関する物体認識情報を与えることがあり、これを車両システムが操作の間に用いて適切なナビゲーション計画を決定することがある。
本開示の目的内の例示的システムについて、ここで更に詳細に説明する。一般に、例示的システムは自動車内に実装されることがあるか又は自動車の形態を採ることがある。しかしながら、例示的システムは、他の車両、例えば乗用車、トラック、オートバイ、バス、ボート、航空機、ヘリコプター、芝刈り機、レクリエーション車両、遊園地車両、農機具、建設機器、路面電車、ゴルフ・カート、列車、及びトロリー内に実装されることもあれば、これらの形態を採ることもある。他の車両が同様に可能である。
ここで図面を参照すると、図1は例示的実施形態による例示的車両100の単純化されたブロック図である。この車両100に結合された又は含まれた構成要素は、推進システム102、センサー・システム104、制御システム106、周辺機器108、電源110、コンピュータ・デバイス111、及びユーザ・インタフェース112を含むことがある。コンピュータ・デバイス111は、プロセッサ113及びメモリ114を含むことがある。このコンピュータ・デバイス111はコントローラであるか、車両100のコントローラの一部であることがある。メモリ114はプロセッサ113により実行可能な指令115を含むことがあり、地図データ116を記憶することもある。車両100の構成要素は、相互に及び/又はそれぞれのシステムに結合した他の構成要素に相互接続した方式で作動するように構成されることがある。例えば、電源110は電力を車両100の全ての構成要素へ供給することがある。コンピュータ・デバイス111は、推進システム102、センサー・システム104、制御システム106、及び周辺機器108から情報を受信して、それらを制御するように構成されることがある。このコンピュータ・デバイス111は、ユーザ・インタフェース112に画像の表示を生成して、かつ、ユーザ・インタフェース112入力を受信するように構成されることがある。
他の例においては、車両100は、より多いか、より少ないか、又は異なるシステムを含むことがあり、各々のシステムは、より多いか、より少ないか、又は異なる構成要素を含むことがある。更に、図示されたシステム及び構成要素は、多くの方式で結合又は分割されることがある。
推進システム102は、車両100のための駆動された運動を与えるように構成されることがある。図示のように、推進システム102は、エンジン/モーター118、エネルギー源120、変速機122、及び車輪/タイヤ124を含む。
エンジン/モーター118は、内燃機関、電気モーター、蒸気機関、及びスターリング・エンジンなどの任意の組み合わせとされることもあれば、これらを含むこともある。他のモーター及びエンジンが同様に可能である。或る例においては、推進システム102は、エンジン及び/又はモーターの複数の種類を含むことができる。例えば、ガス電気ハイブリッドカーは、ガソリン・エンジン及び電気モーターを含むことができる。他の例が可能である。
エネルギー源120は、エンジン/モーター118に完全に又は部分的に動力を与えるエネルギー源で或る場合がある。即ち、エンジン/モーター118は、エネルギー源120を機械的エネルギーへ変換するように構成されることがある。エネルギー源120の例は、ガソリン、ディーゼル、他の石油系燃料、プロパン、他の圧縮ガス型燃料、エタノール、太陽電池パネル、バッテリー、及び他の電力源を含む。エネルギー源120は、燃料タンク、バッテリー、キャパシタ、及び/又はフライホイールの任意の組合せを追加的に又は代替的に含むことができる。或る例においては、エネルギー源120は同様にエネルギーを車両100の他のシステムのために与えることがある。
変速機122は、エンジン/モーター118から車輪/タイヤ124へ機械的動力を伝動するように構成されることがある。このためには、変速機122はギアボックス、クラッチ、差動装置、駆動シャフト及び/又は他の要素を含むことがある。変速機122が駆動シャフトを含む例においては、駆動シャフトは、車輪/タイヤ124に結合するように構成された一つ以上の車軸を含むことができる。
車両100の車輪/タイヤ124は、一輪車、自転車/オートバイ、三輪車又は乗用車/トラック四輪形態を含む様々な形態に構成することができる。他の車輪/タイヤ形態が同様に可能であり、例えば六輪以上の車輪を含むものである。車両100の車輪/タイヤ124は、他の車輪/タイヤ124に関して差動的に回転するように構成されることがある。或る例においては、車輪/タイヤ124は、変速機122に固定的に取り付けられた少なくとも一つの車輪と、走行面に接触することができる車輪の縁に結合された少なくとも一つのタイヤとを含むことがある。車輪/タイヤ124は、金属とゴムとの任意の組み合わせ、又は他の材料の組合せを含むことがある。
推進システム102は、図示されたもの以外の構成要素を追加的に又は代替的に含むことがある。
センサー・システム104は、車両100が位置する環境に関する情報を検知するように構成された多くのセンサーを含むことがある。図示のように、センサー・システムのセンサーは全地球位置測定システム(GPS)モジュール126、慣性測定ユニット(IMU)128、電波探知及び測距(RADAR)ユニット130、レーザー測距器及び/又は光検知及び測距(LIDAR)ユニット132、カメラ134、及びセンサーの位置及び/又は方位を修正するように構成されたアクチュエータ136を含む。センサー・システム104は、例えば、車両100の内部のシステムを監視するセンサー(例えば、O検出モニタ、燃料計、エンジン油温度など)を含めて、付加的なセンサーを同様に含むことがある。他のセンサーが同様に可能である。
GPSモジュール126は、車両100の地理的な位置を推定するように構成された任意のセンサーで或る場合がある。このためには、GPSモジュール126は、衛星型測位データに基づいて地球に関する車両100の位置を推定するように構成された送受信機を含むことがある。一例においては、コンピュータ・デバイス111は、GPSモジュール126を地図データ116との組み合わせで用いて、車両100が移動し得る道路における車線境界の位置を推定するように構成されることがある。GPSモジュール126は同様に他の形態を採ることがある。
IMU128は、慣性加速に基づいて車両100の位置及び方位変更を検知するように構成されたセンサーの任意の組合せで或る場合がある。或る例においては、センサーの組合せは、例えば、加速度計及びジャイロスコープを含むことがある。センサーの他の組合せが同様に可能である。
RADARユニット130は、物体の特性、例えば物体の範囲、高度、方向又は速度を判定するために電波を用いるように構成されることがある物体検出システムとして見做されることがある。このRADARユニット130は、波の経路における何らかの物体から反射し得る電波又はマイクロ波のパルスを送信するように構成されることがある。この物体は波のエネルギーの一部を受信機(例えば、皿又はアンテナ)へ返すことがあり、その受信機は同様にRADARユニット130の一部で或る場合がある。このRADARユニット130は、受信信号(物体から反射される)のデジタル信号処理を実行するように構成されることもあり、物体を識別するように構成されることがある。
RADARに類似した他のシステムが、電磁スペクトルの他の部分で用いられてきた。一つの例はLIDAR(光検出及び測距)であり、これは電波よりもむしろレーザーからの可視光を用いるように構成されることがある。
LIDARユニット132は、光を用いて車両100が位置する環境における物体を検知若しくは検出するように構成されたセンサーを含むことがある。通常、LIDARは、光学的遠隔探査技術であり、これは光で対象を照明することにより、対象までの距離又は対象の他の特性を測定することができる。一例として、LIDARユニット132は、レーザー・パルスを発するように構成されたレーザー源及び/又はレーザー・スキャナと、そのレーザー・パルスの反射を受信するように構成された検出器とを含むことがある。例えば、LIDARユニット132は、回転ミラーにより反射されたレーザー測距器を含むことがあり、そのレーザーは、デジタル化されている光景の周りを一次元又は二次元で、指定された角度間隔で距離寸法を集めて走査する。例においては、LIDARユニット132は、光(例えば、レーザー)源、スキャナ及び光学機器、光検出器及び受信器電子部品、並びに位置決め及びナビゲーション・システムのような構成要素を含むことがある。
一例において、LIDARユニット132は、物体を画像化するために紫外線(UV)、可視光、又は赤外線光を用いるように構成されることがあり、非金属物体を含む広範囲に亘る対象で用いることができる。一例を挙げれば、狭いレーザービームは、高解像度で物体の物理的特徴をマップするのに用いることができる。
幾つかの例においては、約10マイクロメートル(赤外線)から約250nm(UV))の範囲の波長を用いることができた。一般的に、光は後方散乱を介して反射される。異なる種類の散乱が異なるLIDARアプリケーションのために用いられ、これは例えばレイリー散乱、ミー散乱及びラマン散乱、並びに蛍光である。異なる種類の後方散乱に基づいて、それに応じて、LIDARは、例としてレイリーLIDAR、ミーLIDAR、ラマンLIDAR及びNa/Fe/K蛍光LIDARと称することができる。例えば、波長の適宜な組合せは、反射された信号の強度の波長依存的な変化を探すことによって、物体の遠隔マッピングを可能とすることができる。
3次元(3D)画像ングは、走査と非走査とのLIDARシステムの両方を用いて達成することができる。「3Dゲート型ビューイング・レーザー・レーダー」は非走査レーザー測距システムの一例であり、これはパルス状レーザー及び速いゲート型カメラを作動させる。画像ングLIDARは高速検出器の配列及び変調感知検出器配列を用いて実行することもでき、これはCMOS(相補型金属−酸化物-半導体)及びハイブリッドCMOS/CCD(電荷結合素子)製作技術を用いて単独のチップに典型的に構築される。これらのデバイスにおいては、各々のピクセルが高速で復調又はゲート制御によって局所的に処理されることがあり、配列はカメラからの画像を提示するように処理することができる。この技術を使用して、幾千ものピクセルを同時に獲得して、LIDARユニット132によって検出される物体又は光景を表す3D点クラウドを形成することがある。
点クラウドは、3D座標系における頂点のセットを含むことがある。これらの頂点は例えばX,Y,及びZ座標により規定されることがあり、物体の外面を表すことがある。LIDARユニット132は物体の表面における多数の点を測定することによって点クラウドを形成するように構成されることがあり、データ・ファイルとして点クラウドを出力することがある。LIDARユニット132による物体の3D走査処理の結果として、点クラウドは物体を特定して視覚化するために用いることができる。
一例を挙げれば、点クラウドは直接に描画して物体を視覚化することができる。他の例においては、点クラウドは、表面の再構築と称されることがある処理により、多角形又は三角形メッシュ・モデルへ変換されることがある。点クラウドを3D面へ変換することの例示的技術は、ドロネー三角測量、アルファ形、及びボール・ピボッティングを含むことがある。これらの技術は、点クラウドの既存の頂点上に三角形のネットワークを構築することを含む。他の例示的技術は、点クラウドを容積測定距離フィールドへ変換して、マーチング立方体アルゴリズムによって規定される潜在的な表面を再構築することを含むことがある。
カメラ134は、車両100が位置する環境の画像を撮るように構成された任意のカメラ(例えば、スチルカメラ、ビデオ・カメラなど)とされることがある。このためには、カメラは可視光を検出するように構成されることがあるか、又はスペクトル(例えば赤外線又は紫外線光)の他の部分から光を検出するように構成されることがある。他の種類のカメラが同様に可能である。このカメラ134は二次元検出器とされることがあるか、3次元空間レンジを有していることがある。或る例においては、カメラ134は、例えば、カメラ134から環境における幾つかの点までの距離を示す二次元距離画像を生成ように構成された距離検出器とされることがある。このためには、カメラ134は、一つ以上の距離検出技術を用いることがある。例えば、カメラ134は、車両100が予め定められた光パターン(例えば格子又はチェッカーボード・パターン)で環境の物体を照明し、カメラ134を用いて物体からの予め定められた光パターンの反射を検出する構造光技術を用いるように構成されることがある。反射光パターンにおける歪みに基づいて、車両100は物体における点までの距離を測定するように構成されることがある。予め定められた光パターンは、赤外線光、又は他の波長の光からなることがある。
アクチュエータ136は、例えば、センサーの位置及び/又は方位を修正するように構成されることがある。
センサー・システム104は、図示されたもの以外の構成要素を追加的に又は代替的に含むことがある。
制御システム106は、車両100及びその構成要素の操作を制御するように構成されることがある。このためには、制御システム106は、ステアリング・ユニット138、スロットル140、ブレーキ・ユニット142、センサー融合アルゴリズム144、コンピュータ視覚システム146、ナビゲーション又は経路付けシステム148、及び障害物回避システム150を含むことがある。
ステアリング・ユニット138は、車両100の機首又は方向を調節するように構成された機構の任意の組合せとされることがある。
スロットル140は、エンジン/モーター118の運行速度及び加速、ひいては、車両100の速度及び加速を制御するように構成された機構の任意の組合とされることがある。
ブレーキ・ユニット142は、車両100を減速するように構成された機構の任意の組合せとされることがある。例えば、ブレーキ・ユニット142は、車輪/タイヤ124を遅くするために摩擦を用いることがある。他の例として、ブレーキ・ユニット142は、再生式で、車輪/タイヤ124の運動エネルギーを電流へ変換するように構成されることがある。ブレーキ・ユニット142は、同様に他の形態を採ることがある。
センサー融合アルゴリズム144は、例えば、コンピュータ・デバイス111により実行可能アルゴリズム(又はアルゴリズムを記憶しているコンピュータ・プログラム製品)を含むことがある。このセンサー融合アルゴリズム144は、センサー・システム104からのデータを入力として受理するように構成されることがある。このデータは、例えば、センサー・システム104のセンサーにおいて感知された情報を表すデータを含むことがある。このセンサー融合アルゴリズム144は、例えば、カルマン・フィルター、ベイジアン・ネットワーク、又は他のアルゴリズムを含むことがある。このセンサー融合アルゴリズム144は更に、例えば、車両100が位置する環境における個々の物体及び/又は特徴の評価、特定の状況の評価、及び/又は特定の状況に基づく可能な衝撃の評価を含めて、センサー・システム104からのデータに基づいて様々な評価を与えるように構成されることがある。他の評価が同様に可能である。
コンピュータ視覚システム146は、例えば、車線情報、交通信号及び障害物を含めて、車両100が位置する環境における物体及び/又は特徴を特定するために、カメラ134により撮られた画像を処理して分析するように構成された任意のシステムとされることもある。このためには、このコンピュータ視覚システム146は、物体認識アルゴリズム、運動からの構造(Structure from Motion:SFM)アルゴリズム、ビデオ追跡、又は他のコンピュータ視覚技術を用いることがある。或る例においては、このコンピュータ視覚システム146は、環境、追跡物体、物体の推定速度などをマップするように更に構成されることがある。
ナビゲーション及び経路付けシステム148は、車両100についての走行経路を判定するように構成された任意のシステムとされることもある。このナビゲーション及び経路付けシステム148は、車両100が操作中に走行経路を動的に更新するように更に構成されることがある。或る例においては、このナビゲーション及び経路付けシステム148は、センサー融合アルゴリズム144、GPSモジュール126、及び一つ以上の予め定められた地図からのデータを取り込んで、車両100の走行経路を判定するように構成されることがある。
障害物回避システム150は、車両100が位置している環境における障害物を特定し、評価し、及び回避し、又はさもなければ通り抜けるように構成された任意のシステムとされることがある。
制御システム106は、追加的に又は代替的に、図示されたもの以外の構成要素を含むことがある。
周辺機器108は、車両100を外部センサー、他の車両、及び/又はユーザーと相互に作用させるように構成されることがある。このためには、周辺機器108は、例えば、無線通信システム152、タッチスクリーン154、マイクロフォン156、及び/又はスピーカー158を含むことがある。
その無線通信システム152は、一つ以上の他の車両、又は他の実体へ、直接に又は通信ネットワークを介しての何れかで無線で結合するように構成された任意のシステムとされることがある。このためには、この無線通信システム152は、他の車両、センサー、又は他の実体と直接に又はエア・インターフェース上の何れかで通信するためのアンテナ及びチップセットを含むことがある。このチップセット又は無線通信システム152は一般に無線通信の一つ以上の他の形式(例えばプロトコル)例えば、他の可能性の中でもとりわけブルートゥース、IEEE 802.11(任意のIEEE 802.11改訂版を含む)に説明された通信プロトコル、セルラー技術(例えばGSM、CDMA、UMTS、EV―DO、WiMAX、又はLTE)、Zigbee、専用短距離通信(DSRC)、及び無線周波数識別(RFID)通信により通信するように配置されることがある。この無線通信システム152は同様に他の形態を採ることがある。
タッチスクリーン154は、ユーザーによりコマンドを車両100へ入力するのに用いられることがある。このためには、他の可能性の中でもとりわけ、容量感知、抵抗感知、又は表面弾性波処理を介してユーザーの指の位置と動作との少なくとも一方を感知するように構成されることがある。このタッチスクリーン154は、タッチスクリーン表面に対して平行若しくは平坦な方向、タッチスクリーン表面に対して垂直な方向、又はそれらの両方において、指の動きを感知できることがあり、また、タッチスクリーン表面に加えられる圧力のレベルを感知できることもある。このタッチスクリーン154は、一つ以上の半透明又は透明な絶縁層と一つ以上の半透明又は透明な導電層から形成されることがある。このタッチスクリーン154は同様に他の形態を採ることがある。
マイクロフォン156は、車両100のユーザーからオーディオ(例えば、音声コマンド又はオーディオ入力)を受け取るように構成されることがある。同様に、スピーカー158は車両100のユーザーへオーディオを出力するように構成されることがある。
周辺機器108は図示されたもの以外の構成要素を追加的又は代替的に含むことがある。
電源110は、車両100の構成要素の一部若しくは全部へ動力を供給するように構成されることがある。このためには、電源110は、例えば、充電式のリチウムイオン又は鉛酸蓄電池を含むことがある。或る例においては、バッテリーの一つ以上の列は、電力を与えるように構成することができる。他の電源素材及び構成が同様に可能である。或る例においては、電源110とエネルギー源120とは、或る完全な電気自動車の場合のように、一緒に実装されることがある。
コンピュータ・デバイス111に含まれるプロセッサ113は、一つ以上の汎用プロセッサ及び/又は一つ以上の特殊用途プロセッサ(例えば、画像プロセッサ、デジタル信号プロセッサなど)からなることがある。プロセッサ113が複数のプロセッサを含む限りにおいては、そのようなプロセッサは個別に又は組合せで作動させることができる。コンピュータ・デバイス111は、例えば、ユーザ・インタフェース112を通じて受信された入力に基づいて車両100の機能を制御するように構成されることがある。
メモリ114は、次に、一つ以上の揮発性及び/又は一つ以上の不揮発性記憶構成要素、例えば光学的、磁気及び/又は有機記憶装置からなることがあり、このメモリ114は全部又は一部においてプロセッサ113に統合されることがある。ここに説明した機能又は方法の何れも含めて、様々な車両機能を実行するために、このメモリ114はプロセッサ113により実行可能な指令115(例えば、プログラム論理)を含むことがある。
車両100の構成要素は、それらの各々のシステムの範囲内で及び/又はそれらの外外側で他の構成要素に相互接続した方式で作動するように構成することができる。このためには、車両100の構成要素及びシステムは、システムバス、ネットワーク、及び/又は他の接続機構(図示せず)によって一緒に通信的にリンクされることがある。
更に、構成要素及びシステムの各々は車両100に統合されて図示されているが、或る例においては、一つ以上の構成要素又はシステムは、取り外し可能に車両100に搭載されることがあるか、さもなければ有線又は無線接続を用いて車両100に(機械的に又は電気的に)接続されることがある。
車両100は、図示されたものに加えて又はそれらに代えて、一つ以上の要素を含むことがある。例えば、この車両100は一つ以上の更なるインターフェース及び/又は電源を含むことがある。他の更なる構成要素が同様に可能である。これらの例においては、メモリ114は、プロセッサ113により実行可能な指令を更に含むことがあり、更なる構成要素を制御及び/又はそれらと通信することがある。
図2は実施形態により例示的車両200を図解する。特に、図2は車両200の右側面図、正面図、後面面、及び上面図を示す。車両200は図2においては乗用車として図示されているが、他の例が可能である。例えば、他の例の中ではとりわけ、車両200はトラック、バン、半トレーラー・トラック、オートバイ、ゴルフ・カート、オフロード車又は農耕用車両を表すことができる。図示のように、この車両200は、第1のセンサー・ユニット202、第2のセンサー・ユニット204、第3のセンサー・ユニット206、無線通信システム208、及びカメラ210を含む。
第1、第2、及び第3のセンサー・ユニット202−206の各々は、汎地球測位システム・センサー、慣性測定ユニット、RADARユニット、LIDARユニット、カメラ、車線検出センサー、及び音響センサーの任意の組合せを含むことがある。他の種類のセンサーが同様に可能である。
第1、第2、及び第3のセンサー・ユニット202は車両200における特定の場所に搭載されて図示されているが、或る例においてはおいて、このセンサー・ユニット202は、車両200の内側又は外側の何れかで、車両200の何処か他の場所に搭載されることがある。更に、三つのみのセンサー・ユニットが図示されているが、或る例においては、より多いか少ないセンサー・ユニットが車両200に含まれることがある。
或る例においては、第1、第2、及び第3のセンサー・ユニット202−206の一つ以上は、センサーを可動に装着し得る一つ以上の可動マウントを含むことがある。この可動マウントは、例えば、回転プラットホームを含むことがある。回転プラットホームに装着されたセンサーは回転することができるので、このセンサーは車両200の周りの各々の方向から情報を獲得し得る。代替的に又は追加的に、可動マウントは、傾斜プラットホームを含むことがある。この傾斜プラットホームに装着されたセンサーは角度及び/又は方位角の特定の範囲内で傾斜できるので、様々な角度からの情報を獲得し得る。可動マウントは同様に他の形態を採ることがある。
更に、或る例においてはおいて、第1、第2、及び第3センサー・ユニット202−206の一つ以上は、センサー及び/又は可動マウントを動かすことによってセンサー・ユニットにおけるセンサーの位置及び/又は方位を調節するように構成された一つ以上のアクチュエータを含むことがある。例示的アクチュエータは、モーター、空気圧アクチュエータ、油圧ピストン、リレー、ソレノイド、及び圧電アクチュエータを含む。他のアクチュエータが同様に可能である。
無線通信システム208は、直接に、又は、図1の中の無線通信システム152に関して上述した通信ネットワークを介して、一つ以上の他の車両、センサー、又は他の実体へ無線で接続するように構成された任意のシステムとされることがある。無線通信システム208は車両200の屋根に位置するように図示されているが、他の例においては、無線通信システム208は、完全に又は部分的に何処か他の場所に位置することができる。
カメラ210は、車両200が位置する環境の画像を撮るように構成された任意のカメラ(例えば、スチルカメラ、ビデオ・カメラなど)とされることがある。このためには、このカメラ210は図1におけるカメラ134に関して上述した形態の何れかを採ることがある。このカメラ210は車両200のフロントガラスの内側に装着して図示されているが、他の例においては、このカメラ210は、車両200の内側又は外側の何れかで、車両200の何処か他の場所に装着されることがある。
車両200は、図示されたものに加えて又はそれらに代えて、一つ以上の他の構成要素を含むことがある。更なる構成要素は、電気的又は機械的機能を含むことがある。
車両200の制御システムは、複数の可能な制御計画のうちからの一つの制御計画に従って車両200を制御するように構成されることがある。この制御システムは、車両200に(車両200上に又は車両200から離れて)結合したセンサーから情報を受信して、情報に基づいて制御計画(及び関連した駆動挙動)を修正して、この修正された制御計画に従って車両200を制御するように構成されることがある。この制御システムは、センサーから受信された情報を監視して、走行条件を連続的に評価するように更に構成されることがあり、走行条件の変化に基づいて制御計画及び駆動挙動を修正するように構成されることがある。
図3は、レーザー点クラウドを用いる物体検出のための例示手方法300のフローチャートである。この方法300は、一つ以上のブロック302−310により例示されるように、一つ以上の操作、機能、又は行為を含むことがある。複数のブロックは連続した順序で例示されているが、これらのブロックは或る例においては、並行に、及び/又はここに説明されたものとは異なる順序で実行されることがある。また、様々なブロックは、より少ないブロックへ組み合わされ、更なるブロックへ分割され、及び/又は望ましい実施に基づいて除去されることがある。
更に、ここに開示された方法300並びに他の処理及び方法については、フローチャートは本実施形態の一つの可能な実施の機能及び操作を示す。これに関連して、各々のブロックはプログラム・コードのモジュール、区画、又は一部を表すことがあり、これは処理における特定の論理的機能又はステップを実施するためにプロセッサにより実行可能な一つ以上の指令を含む。このプログラム・コードは、コンピュータ可読媒体又はメモリの任意の種類、例えば、ディスク又はハード・ドライブを含む記憶デバイスなどに記憶されることがある。このコンピュータ可読媒体は、非一時的なコンピュータ可読媒体を含むことがあり、これは例えば、レジスターメモリ、プロセッサ・キャッシュ及びランダム・アクセス・メモリ(RAM)のように短期間に亘ってデータを記憶するコンピュータ可読媒体である。このコンピュータ・デバイス可読媒体は、非一時的媒体又はメモリ、例えば二次的又は持続的長期間ストレージも含むことがあり、これは例えば、読み出し専用メモリ(ROM)、光学的又は磁気ディスク、コンパクト−ディスク読み出し専用メモリ(CD―ROM)などである。このコンピュータ可読媒体は、任意の他の揮発性又は不揮発性記憶システムであることもある。コンピュータ可読媒体は、例えば、コンピュータ可読記憶媒体、実体的な記憶デバイス、又は他の製造物と考えられることがある。
非一時的なコンピュータ可読媒体は複数のデータ記憶要素に分散させることもでき、それらは互いから離隔して位置することができる。記憶された指令の一部又は全てを実行するコンピュータ・デバイス又はシステムは、車両、例えば図2に図解された例示的車両200とすることができる。或いは、記憶された指令の一部又は全てを実行するコンピュータ・デバイス又はシステムは、他のコンピュータ・デバイス又はシステム、例えばサーバーとすることができる。
更に、ここに開示された方法300並びに他の処理及び方法のためには、図3における各々のブロックは、処理における特定の論理的機能を実行するために配線された回路を表すことがある。
例示方法、例えば図3の方法300は、車両とそのサブシステムによって全部又は一部を実行されることがある。従って、例示的方法は、ここでは車両により実施される例として説明することができる。この車両は、例えば、自律型か、部分的に自律型か、又はユーザーによって完全に制御されることがある。しかしながら、例示的方法は車両の他のコンピュータ・デバイスにより又は車両とは個別に全部又は一部を実施されることがあることを理解されたい。例えば、例示的方法は全部又は一部をサーバー・システムにより実施されることがあり、それは車両に関連したものなどのデバイスからデータを受信する。或る例示的実施例においては、この方法はロボット・デバイス又は他の種類のコンピュータ・デバイスにより同様に実行されることがある。例示的方法を実施できるコンピュータ・デバイスの他の例又は複数のコンピュータ・デバイスの組合せが可能である。
ブロック302において、この方法300は、コンピュータ・デバイスにおいて、車両の環境を示すレーザー・データを受信することを含むことがある。例示的車両又はロボット・デバイスは、周囲の環境についての測量を捉えるように構成された一つ又は複数のセンサーにより与えられた情報を用いて機能することがある。特に、操作車両又はロボット・デバイスのコンピュータ・デバイスは、様々なセンサーからのセンサー・データを受信して、制御計画の決定及び実行のためを含む操作の間に使用するためにデータを処理することがある。
図1-2に示すように、例示的車両は、車両の近傍の物体に対応するレーザー・データを捉えるように近傍の環境の掃引を実行するように構成されたLIDARモジュールを含む様々なセンサーを含むことがある。そのLIDARモジュールは、車両のコンピュータ・デバイスに環境に関する情報をレーザー・データ点の形態で捕捉して与えることがあり、それは点クラウドの形態でコンピュータ・デバイスに到達することがある。LIDARモジュールの種類に依存して、コンピュータ・デバイスは、例えば、構造化又は非構造化点クラウド内に構成された多くのレーザー・データ点を受信することがある。例えば、コンピュータ・デバイスは構造化点クラウドにおけるレーザー・データを受信することがあり、各々のデータ点又は複数のデータ点の複数のセットは局所的環境における物体に基づいて配置される。非構造化点クラウドは、データ点の如何なる特定の配列を伴うことなく無作為に受信されたデータ点を含むことがある。
更にまた、点クラウドの範囲内のレーザー・データ点は、格子状フォーマットを含む構造を有することがあるか、格子状のフォーマットが欠如している点クラウドでコンピュータ・デバイスに到達することがある。
他の例示的実施形態において、車両のコンピュータ・デバイスは、他のセンサーからデータ、例えばRGB−デプス・カメラからの画像を受信することがある。コンピュータ・デバイスは、LIDARを用いて与えられるデータ点に加えて、他のセンサーからデータを受信することがある。コンピュータ・デバイスは、複数のセンサー、例えばLIDAR及びカメラから受信された情報を結合させることがある。
ブロック304において、この方法300は、複数のレーザー・データ点に基づいて、車両に関する環境における一つ以上の物体のそれぞれの位置を示す複数のピクセルを含む二次元距離画像を生成することを含むことがある。車両のコンピュータ・デバイスがLIDAR及び/又は他のセンサーからデータを受信するにつれて、コンピュータ・デバイスは受信データに基づいて2D距離画像を生成することがある。このコンピュータ・デバイスは、2D距離画像を発現させる野に先立ってセンサーから全ての3D点クラウドを完全に受信することを待機することがあるか、3D点クラウドを完全に受信するのに先立って2D距離画像の決定を進めることがある。例えば、このコンピュータ・デバイスは、レーザー・データがセンサーから受信されるにつれて、2D距離画像の部分を発現させることがある。このコンピュータ・デバイスは、到来するレーザー・データ(これは例えば距離画像のピクセル内の物体と車両との間の距離を示すことがある)に基づいて二次元距離画像を生成することがある。
一つの例示的実施形態において、車両のコンピュータ・デバイスは、非構造化3D点クラウドでLIDARからレーザー・データを受信することがある。コンピュータ・デバイスは、データ点を車両を囲んでいる概念上の円筒形2D面へ投影することによって、データ点を構築することがある。特に、コンピュータ・デバイスは、環境並びに3Dレーザー・データ点における物体に対するセンサーの既知の位置を用いて、それらの点を車両の環境を反映する概念上の円筒形2D面に適宜な順序で投影することがある。その結果、コンピュータ・デバイスは、初期3Dレーザー・データ点の範囲内でデータを反映している距離画像を形成している各々のピクセルの値を有するレーザー・データ点を用いて360度のパノラマとして存在する画像を発現させることがある。或る場合には、2D距離画像は一つ又は複数のギャップを含むことがあり、それは、割り当てられた値を伴わないピクセルからなることがある。更にまた、コンピュータ・デバイスは、レーザー・データ、例えば180度画像又は他のフォーマットを用いて他の画像を発現させることがある。例示的実施例においては、コンピュータ・デバイスは複数の2D距離画像を発現させることがあるか、又は、センサーから受信されたデータを示す3Dフォーマット構造を決定することがある。
概念上の円筒形2D面へレーザー・データを構成することは、コンピュータ・デバイスにレーザー・データを2D距離画像(これは車両の環境を正確に反映し得る)の範囲内のピクセルへ位置させることを可能にすることがある。異なるピクセルは、車両に対する物体の位置に関する情報を含む環境に関する情報を与えることがある。パノラマにおける各々のピクセルの値は、センサー・データで受信された初期点に対応することがある。2D距離画像内の幾つかのピクセルには値が割り当てられないことがあり、それは2D距離画像全体にギャップを生じさせることがある。他の例示的実施例においては、コンピュータ・デバイスは分析のためにセンサー・データを他の構成にフォーマット化することがある。
他の例においては、コンピュータ・デバイスは、構造化フォーマット、例えば構造化3D点クラウドで、レーザー・データを受信することがある。コンピュータ・デバイスは、このレーザー・データを利用して、このデータを2D概念上画像へ投影することがあり、これは2Dフォーマットでレーザー・データ点に包含された情報を反映することがある。例えば、2D距離画像は、他の物体及び車両に対する環境における物体の位置を示す情報を含むことがある。
或る場合には、コンピュータ・デバイスは二次元画像における一つ又は複数の勾配を判定して、統合画像を用いて2D距離画像の一つ又は複数の勾配を平滑化することがある。例えば、コンピュータ・デバイスは事前計算の依存性のために縮小アルゴリズムを用いることがある。コンピュータ・デバイスは、格子の長方形のサブセット、例えば2D距離画像内の幾つかのピクセルで値の合計を迅速かつ効率的に生成することがある。
コンピュータ・デバイスは、複数のセンサーから得られた及び/又は連続的走査で受信されたセンサー・データを用いて、分析のために2D距離画像を生成することがある。例えば、車両のコンピュータ・デバイスは、LIDARユニットから局所的環境における同じ領域を示すレーザー・データの複数のセットを受信することがある。コンピュータ・デバイスは、レーザー・データの複数の走査及び複数のセットを用いて2D距離画像を発現させることがある。レーザー・データの複数のセットは、例えば、最初の走査において誤って受信された領域を確認又は修正することがある。
ブロック306において、この方法300は、生成された二次元距離画像を修正して、レーザー・データが欠如している環境における一つ以上の物体の一つ以上の部分をマップする複数のピクセルの一つ以上の所定のピクセルにそれぞれの値を与えることを含むことがある。既に示したように、コンピュータ・デバイスは、一つ又は複数のセンサーにより与えられたデータ点を用いて2D距離画像を生成することがある。2D距離画像の発現は、データ点のデータを含んでいる値によるピクセルと、値(例えば、画像におけるギャップ)を含まないことがある幾つかのピクセルとからなる2D距離画像をもたらすことがある。2D距離画像内の値を失っているそれぞれのピクセルについて、コンピュータ・デバイスは、近隣ピクセルを利用可能な状況にある空きピクセルに近接若しくは隣に位置した近傍の近隣ピクセルを用いて、それらの位置及び/又は値を近似させることがある。
2D画像内で値が欠如しているピクセルに値を割り当てるために、コンピュータ・デバイスは一つ又は複数の処理を実行することがある。例えば、コンピュータ・デバイスは2D距離画像を修正して、2D距離画像における空きピクセル値を包含するギャップに近位に位置するそれぞれの近隣ピクセルの平均値に基づいてギャップを充填することがある。或る例においては、コンピュータ・デバイスは、対をなす近隣ピクセルを用いて、値を伴わないギャップにおけるピクセルの値を決定することがある。例えば、コンピュータ・デバイスは、値を伴わない空きピクセルよりも上方のピクセルと下方のピクセルとの平均値を用いて、この空きピクセルについての値を決定することがある。同様に、コンピュータ・デバイスは、ギャップにおける空きピクセルの左右のピクセルを用いて、ギャップにおける空きピクセルへ割り当てる平均値を決定することがある。他の例においては、コンピュータ・デバイスは、他の組み合わせで更なるピクセルを用いて、2D距離画像におけるギャップ内の空きピクセルについての値を決定することがある。
ブロック308において、この方法300は、修正された二次元距離画像に基づいて、環境における一つ以上の物体のそれぞれの表面に対応する複数のピクセルにおけるピクセルの一つ以上のセットの複数の法線ベクトルを決定することを含むことがある。コンピュータ・デバイスは物体認識目的のために環境における同じ表面に対応するピクセルの法線ベクトルを計算することがあり、これは車両を自律型ナビゲーションで支援することがある。
物体認識を改善して安全なナビゲーションを確実にするために、コンピュータ・デバイスは、2D距離画像が発現されて処理されるにつれて、実時間で2D距離画像において描写されたものとしての表面の法線ベクトルを決定することがある。そのように、コンピュータ・デバイスは、比較的に少ないCPUサイクルで効率的に点クラウドに受信されたレーザー・データの範囲内で法線ベクトルを決定するように構成されることがあり、決定された法線を最小の待ち時間で車両の様々なシステムへ与えることがある。
一つの例示的実施形態においては、コンピュータ・デバイスは、画像を横切って下降する勾配を計算して、統合された画像を用いて勾配を平滑化することにより、ピクセルのセットの法線ベクトルを決定することがある。その結果、コンピュータ・デバイスは、勾配の規格化された外積を計算して、ピクセルのセットで示されるように、様々な表面の法線ベクトルを導くことがある。例えば、コンピュータ・デバイスは、ピクセルの一つのセットの中心において局所面に正接する二つのベクトルを計算することがある。この二つの接ベクトルから、コンピュータ・デバイスは外積を用いて法線ベクトルを計算することがある。例えば、コンピュータ・デバイスは、左と右との近隣ピクセルの間で、及び、上方と下方との近隣ピクセルの間で、面法線を計算することがある。
或る場合には、コンピュータ・デバイスは、ピクセルの特定の近隣内の平均ベクトルを計算することによって、接ベクトルを平滑化することがある。例えば、コンピュータ・デバイスは、統合された画像を用いてピクセルのセット内の勾配又は接ベクトルを平滑化することがあり、これは接ベクトルの二つのマップ(即ち、一方は水平方向であり、一方は垂直方向である)を形成することに関係することがある。次いで、コンピュータ・デバイスは、2D距離画像内の対応するピクセルの間の、又は、点クラウドの対応する3D点内のマップについてのベクトルを計算することがある。コンピュータ・デバイスは、統合画像を計算して平均接ベクトルを計算し、面法線を計算することがある。
或る例においては、コンピュータ・デバイスは、同じ点クラウドからのセンサー・データの受信を完了するに先立って、2D距離画像におけるピクセルにより描写されたものとして、異なる表面の法線ベクトルを決定することがある。コンピュータ・デバイスは、例えば、センサー・データをセンサーから受信されてそのままで直ちに処理を始めるように構成されることがある。他の例においては、コンピュータ・デバイスは、データを処理して表面の法線ベクトルを決定するのに先立って、センサーから環境の領域の全ての点クラウドを受信することを待つことがある。
例示的実施例として、車両のコンピュータ・デバイスは、局所的な幾何学的な特徴、例えば点形態の面法線又は曲率を用いて、車両の環境を示す情報を判定することがある。このコンピュータ・デバイスは、面を点の局所的近隣、例えば近隣の点へ適合させることによって、一つの点(例えば、ピクセル)又は複数の点のセット(例えば、ピクセルのセット)に対する法線ベクトルを決定することがある。或る場合には、コンピュータ・デバイスは、最も近い近隣処理を用いるか、又はピクセルから半径距離内のピクセルを選択することにより、ピクセルの面法線を計算するために用いる2D距離画像の近隣ピクセルを決定することがある。コンピュータ・デバイスが、面法線を決定するピクセルの特定のセットに着目したとき、コンピュータ・デバイスは、例えば、ピクセルのセットの共分散行列の固有ベクトルを解析することによって、局所的面法線を推定することがある。
面法線を決定するのに用いられるピクセルのセットの寸法は、例内で変動することがある。例えば、コンピュータ・デバイスは、大き過ぎるピクセルのセットを選択することを控えることがあり、これは、多数のピクセルは、環境構造を正確な面法線の決定のためにはあまりに平滑化しすぎて現わす場合があるためである。コンピュータ・デバイスが、面法線のために解析する一つのセット内のピクセルの少な過ぎるピクセルしか選択しない場合には、推定された法線は受信されたセンサー・データにおけるノイズにより影響を受けることがある。このコンピュータ・デバイスは、面法線を推定するために着目された特定のピクセルを通じて、局所面に対するピクセルのセット内のピクセルの距離を計算することによって、負の影響を補正することがある。コンピュータ・デバイスは、共分散計算においてピクセルのセットにおけるピクセルに重みを付ける繰り延べに、この距離を用いることがある。その結果、コンピュータ・デバイスは局所面構造をより良物体認識情報を近似させ、表面の隅及び縁をより正確に描くことがある。
他の例示的実施形態においては、車両のコンピュータ・デバイスは、固定ピクセル近傍を用いて面法線情報を抽出することがある。例えば、コンピュータ・デバイスは、固定ピクセル近傍を用いて、表面の或る最大範囲の外側の予め計算された近傍を更に引くことがある。このように、コンピュータ・デバイスは、計算的に費用がかかる近傍検索を伴うこと無くピクセルの面法線を決定することがある。
或る例示的実施例においては、このコンピュータ・デバイスは、局所的画像座標フレームにおける面法線を計算することがあるか、又は、両方のデカルト座標をピクセル情報並びに局所的法線に基づいて車両の基準座標フレームへ変換することがある。このコンピュータ・デバイスは、例えば、面法線を処理するために、局所的面法線の球面座標も用いることがある。コンピュータ・デバイスは面分割を更に実行することがあり、これは、車両の環境における表面を決定するために類似した面法線を有する面を集めることに関係することがある。
ブロック310において、この方法300は、ピクセルの一つ以上のセットの複数の法線ベクトルに基づいて、環境における一つ以上の物体を示す物体認識情報を車両の一つ以上のシステムへ与えることを含むことがある。例えば、車両のシステムは、物体認識及び/又は物体回避のために、法線ベクトルを含む情報を用いることがある。
一つの例示的実施例では、車両のコンピュータ・デバイスは、物体認識情報を車両の制御システムへ与えることがある。この制御システムは、受信した情報に基づいて、ステアリング、スロットル、ブレーキ、ナビゲーション/経路付けシステム、又は障害物体回避システムを調節することがある。例えば、この制御システムは、コンピュータ・デバイスにより与えられた情報に基づいて車両の経路を調節することがある。
他の例示的実施例においては、ロボット・デバイスのコンピュータ・デバイスは、物体認識情報を用いて、部屋内の又は障害物回避のために特定の物体を認識することがある。例えば、コンピュータ・デバイスは、ベクトル法線並びに面法線を用いる区画を用いて、環境における物体を認識及び衝突を回避することがある。
一つの例示的実施形態においては、車両のコンピュータ・デバイスは、LIDARから構造化点クラウドを受信することがある。このコンピュータ・デバイスは、同様に他のセンサーから更なるセンサー・データを受信することがある。センサー・データが到着すると、コンピュータ・デバイスはデータ点を徐々に投影して、2D距離画像を確立することがある。このコンピュータ・デバイスが2D距離画像内の長方形パッチを満たすためにLIDAR又は他のセンサーから充分なデータ点を蓄積するとき、このコンピュータ・デバイスはちょうどその長方形パッチのための法線を計算するように処理することがある。そのように、コンピュータ・デバイスは、到来するデータ点を処理して、一般に3D点クラウドの完全な受信のためのバッファリング又は待機を伴うことなく、環境における表面についての法線ベクトルを決定することがある。これは計算待ち時間を低減し、並びにコンピュータ・デバイスに到来センサー・データをより迅速に処理することを可能にさせる。
他の例示的実施形態においては、車両のコンピュータ・デバイスは、特定のフォーマット又は順序でLIDARからレーザー・データ点を受信することがある。例えば、コンピュータ・デバイスは環境に対する左右からレーザー・データ点を受信することがあり、レーザー・データ点を真直な垂直線の代わりにギザギザの線として受信することもある。このコンピュータ・デバイスはギザギザの線に基づいてフォーマットを予測するように構成されることがあり、線のギザギザの程度によって決定される一定の量だけて最新のデータより遅れることによって、決定された2D距離画像から上から下への垂直パッチを用いることがある。
或る例示的実施形態においては、車両のコンピュータ・デバイスは、LIDAR及び/又は他のセンサーからレーザー・データ点を受信することがあり、充分なデータ点が2D距離画像のより大きな長方形を発現すために受信されるまでデータの処理を待機することがある。そのように、コンピュータ・デバイスは、車両の環境内の表面に対応する2D距離画像における表面の法線ベクトル情報を抽出するためにアルゴリズムが実行されるとき、コンピュータ・デバイスは並列性の利点を採ることがある。他の例においては、コンピュータ・デバイスは、LIDARにより与えられた同じ3D点クラウド内の全てのレーザー・データ点の受信を完了するのに先立って、2D距離画像の長方形内のレーザー・データ点を処理することがある。
更に他の例示的実施形態においては、車両のコンピュータ・デバイスは、環境における障害を検出するために面区画及び球面座標のみならず、計算された面法線を用いことがある。このコンピュータ・デバイスは、点をこの点が属している決定された面へ投影することにより、レーザー・データにおけるノイズと、誤差とを補償することがある。更に、コンピュータ・デバイスは、他の処理を用いて、検出された面において、局所的表面を修正することがある。このコンピュータ・デバイスは、獲得したレーザー・データにおける面を分割して分類することがある。
更なる例示的実施形態において、車両のコンピュータ・デバイスは、センサー・データを受信して、点クラウド(構造化又は非構造化)を投影して、距離画像を形成することがある。このコンピュータ・デバイスは、完全な点クラウドを受信するに先立って、点クラウドの点を投影することがある。その結果、コンピュータ・デバイスは2D距離画像から秩序付けられた3D点画像を構築することがある。次いで、このコンピュータ・デバイスは、3D点画像を交差して下降する勾配を計算して、この勾配の統合画像を更に計算することがある。更に、このコンピュータ・デバイスは統合画像から平滑化された勾配を再構築することがあり、統合画像から平滑化された勾配をまた再構築することがある。或る場合には、コンピュータ・デバイスは、平滑化された勾配の外積を計算することがあり、この外積を規格化して反転して、面法線を導くことがある。
図4は、二次元距離画像の一部におけるピクセルを図解する例示的図である。この2D距離画像400の一部は、正方形に配列された九つのピクセル402-408を示すが、他の例ではより多いか少ないピクセルを含むことがある。車両のコンピュータ・デバイスは、ナビゲーションの間、ピクセル402−408を含む2D距離画像を発現させて、これを用いて車両の周囲の環境の物体認識情報を抽出することがあり、これはピクセルのセットに基づいて環境における特定の表面の法線ベクトルを決定することを含むことがある。
例示的図において、中心ピクセル402は、環境を示す受信したレーザー・データを用いて車両のコンピュータ・デバイスにより測定された2D距離画像内の可能なギャップを示す空きピクセルを表し得る。上述のように、車両のコンピュータ・デバイスは、レーザー・データを用いて、センサーにより捕捉されたような環境を示すデータ(例えば点クラウド・フォーマットで受信されたレーザー・データ)に基づくピクセルからなる2D距離画像を投影して決定することがある。コンピュータ・デバイスにより発現された2D距離画像は一つ又は複数のギャップを含むことがあり、これは点クラウドにおいて受信されたデータ点には対応せず、従って値を有さないことがあるピクセルを包囲することがある。
或る例示的実施形態においては、2D距離画像におけるギャップ(例えば図4に示される中心ピクセル402)を充填するために、コンピュータ・デバイスは、中心ピクセル402に近位に位置する近隣ピクセルの値を用いて、中心ピクセル402へ与える値を決定することがある。この操作により、コンピュータ・デバイスは2D距離画像内のギャップを充填することがあり、このように、車両の環境における表面に対応し得るピクセルのセットの法線ベクトルを決定することに用いられるより完全な2D距離画像を生成することがある。
一つの例として、車両のコンピュータ・デバイスは、中心ピクセル402の左右側に位置した近隣ピクセル404を用いて中心ピクセル402についての値を決定することがある。例えば、コンピュータ・デバイスは、中心ピクセル402の左右に位置した近隣ピクセル404の平均値を計算して、この平均値を中心ピクセル402に割り当てることがある。或る場合には、コンピュータ・デバイスは、中心ピクセル402の側方における更なるピクセルを用いて、同様に中心ピクセル402についての平均を計算することがある。
同様に、他の例においては、コンピュータ・デバイスは、中心ピクセル402の上方及び下方に位置した近隣ピクセル406を用いて、2D画像内のギャップを充填するために、中心ピクセル402へ割り当てるのが可能な値を決定することがある。コンピュータ・デバイスは、より多いか少ないピクセルを用いて、空きピクセル(例えば中心ピクセル402)についての値を同様に決定することがある。
他の例示的実施形態においては、コンピュータ・デバイスは全ての隅ピクセル(例えばピクセル408)を用いて値を決定することがある。同様に、コンピュータ・デバイスは、中心ピクセル402の近傍の全てのピクセル404-408を用いて、中心ピクセル402に割り当てる平均値を計算することがある。他の例においては、コンピュータ・デバイスはピクセルの他の組合せを用いて中心ピクセル402についての値を決定することがあり、これはより多いか少ないピクセルを含むことがある。
図5A−5Dは、生成された点クラウドを用いてナビゲートされる例示的車両の概念的説明の異なる図を示す。既に示したように、車両は、車両の周囲の環境について測量を抽出するセンサー(例えばLIDAR)を用いてナビゲートされることがある。図5A-5Dに示すように、車両のコンピュータ・デバイスは、到来する情報を処理して障害物を回避して安全なナビゲーションを確実にすることがある。或る例においては、車両のコンピュータ・デバイスは、データ点がセンサーから受信されるにつれて、2D距離画像の部分を発現させることがある。同様に、コンピュータ・デバイスは、データ点を投影して、図5A―5Dに図解された360度パノラマの部分のような車両の環境に対応する仮想2D画像の全360度のパノラマを発現させることがある。
図5Aは、前方視からの例示的車両を示すと共に、センサー・データを用いて例示的車両のコンピュータ・デバイスにより生成された仮想二次元距離画像の部分を図解する。例示的車両502がナビゲートされると、車両502のセンサーは環境を示すデータを捕捉して、車両のコンピュータ・デバイスへ与えることがある。既に述べたように、センサーからのデータ(例えばLIDARを用いるレーザー・データ)が受信されると、コンピュータ・デバイスはデータを投影して、局所的環境における物体及び他の表面に対応するデータに基づくピクセルを含む概念的2D距離画像504を決定することがある。このコンピュータ・デバイスは、例えば、点クラウドの一部を受信すると、2D距離画像504の部分の発現を始めることがある。
他の例においては、コンピュータ・デバイスは、2D距離画像504を決定するのに先立って、LIDARを用いて受信された全ての点クラウドを待つことがある。車両がナビゲートを続けるにつれて、コンピュータ・デバイスはセンサーから新たなデータ(例えばデータの新たな点クラウド)の受信を続けることがあり、これはコンピュータ・デバイスが用いて、その2D距離画像504を更新するか、又は処理及び物体検出のために変化する環境に対応する新たな2D画像を生成することがある。更にまた、コンピュータ・デバイスは、2D距離画像504又はこの2D距離画像の部分を用いて、環境における同じ表面に対応するピクセルのセットの面法線を計算することがあり、これはコンピュータ・デバイスに分割と共に用いて、障害物回避及びナビゲーションのために用いられ得る環境の仮想距離を再現することがある。2D距離画像は、例えば、2D仮想距離フォーマットにおける車両の環境を反映するピクセルを含むことがある。
図5Bは側面視からの例示的車両を示すと共に、センサー・データを用いて例示的車両のコンピュータ・デバイスにより生成された二次元距離画像の更なる部分を図解する。車両502のコンピュータ・デバイスは、車両が移動の経路をナビゲートされるにつれて、到来するセンサーに基づいて、その2D距離画像504を連続的に更新するか、新たな2D距離画像を発現させることがある。図5Bに図解される例示的説明は、図5Aに示される例示的説明の他の観点を表すか、又は、異なる時間(例えば図5Aに示される時間の前又は後)における例示的車両を図解し得る。
図5Cは後方視からの例示的車両を示すと共に、センサー・データを用いて例示的車両のコンピュータ・デバイスにより生成された二次元距離画像の部分を図解する。図5A−5Bと同様に、図5Cにおける例示的図解は2D距離画像の一部を示し、これは例示的車両502が、物体認識目的のためのみならず、周囲環境における一つ又は複数の表面の法線ベクトルを計算するために用いることがある。
図5Dは他の後方視からの例示的車両を示すと共に、センサー・データを用いて例示的車両のコンピュータ・デバイスにより生成された二次元距離画像の部分を図解する。図5Cに示された図解と同様に、図5Dは車両502の後方からの視点からの例示的車両502を示すと共に、車両の周りに位置した概念的2D距離画像504の部分も含む。この例示的説明は、図5Cに示される2D距離画像の部分に対する2D距離画像504の区画における変化を示す。
図6は、ピクセルのセットの法線ベクトル計算を図解する例図である。この例図は、ピクセルのセット602を示し、これは車両のコンピュータ・デバイスによるレーザー・データから決定された2D距離画像の一部を表し得る六つのピクセルからなる。この例図は6ピクセルを含むピクセルのセット602を示しているが、他の例はより多いか少ないピクセルを含むことがある。この例図においては、ピクセルのセット602は車両の局所的環境における表面を表すことがある。例えば、ピクセルのセット602は、物体、例えば車両、標識、境界線、又は表面の他の種類の表面を表すことがある。コンピュータ・デバイスは、様々な処理、例えばコンピュータ・デバイスが用いるように構成された予め規定された数に基づくピクセルの近傍を選択することを用いて、ピクセルのセット602を決定することがある。このコンピュータ・デバイスは、同様にピクセルのセットについて面法線を抽出するために何れのピクセルとどれくらいのピクセルを用いるかを決定する他の方法若しくは処理を用いることがある。
車両のコンピュータ・デバイスは、セットに関連した面法線608を計算するために接ベクトル604-606を決定することによって、ピクセルのセット602を処理することがある。例図に示すように、コンピュータ・デバイスは、直角を形成するように接続する水平ベクトル604と垂直ベクトル606とを決定することがある。このコンピュータ・デバイスは、他の例において面法線を計算するために他のベクトルを決定することがある。
接ベクトル604-606を決定すると、車両のコンピュータ・デバイスは表面法線ベクトル608を計算することがあり、これは接ベクトル604-606の外積を用いて計算し得る。ピクセルのセット602の面法線を決定する他の例も同様に存在し得る。そのように、コンピュータ・デバイスは物体検出のためにピクセルのセット602及び法線ベクトル608を用いることがある。コンピュータ・デバイスは、ピクセルのセット602に関連した法線ベクトル並びにピクセルの他のセットの表面法線及び/又は他のデータを車両のシステムへナビゲーションの間に用いるように与えることがある。更に、コンピュータ・デバイスは分割も用いてピクセルのセットを組み合わせて、面法線及び受信されたセンサー・データ内の他の情報に基づいて環境をマップすることがある。
図7は、ここに提示された少なくとも幾つかの実施形態のように配置されたコンピュータ・デバイスにおいてコンピュータ処理を実行するためのコンピュータ・プログラムを含む例示的コンピュータ・プログラム製品の概念的部分図を図解する概略図である。
一つの実施形態においては、この例示的コンピュータ・プログラム製品700は、信号伝搬媒体702を用いるように与えられている。この信号伝搬媒体702は一つ以上のプログラミング指令704を含むことがあり、これは、一つ以上のプロセッサにより実行されるときに、図1−3及び図4A−4Dに関して上述した機能又は部分的機能を与えることがある。或る例においては、信号伝搬媒体702は、コンピュータ可読媒体706を包含することがあり、これは例えばハード・ディスク・ドライブ、コンパクト・ディスク(CD)、ディジタル・ビデオ・ディスク(DVD)、デジタル・テープ、メモリなどであるが、これらに限定されるものではない。或る実施例においては、信号伝搬媒体702は、コンピュータ記録可能媒体708を包含することがあり、これは例えばメモリ、読込み/書込み(R/W)CD、R/W DVDなどであるが、これらに限定されるものではない。或る実施例においては、信号伝搬媒体702は、通信媒体710を包含することがあり、これは例えばデジタル及び/又はアナログ通信媒体(例えば、光ファイバー・ケーブル、導波管、有線通信リンク、無線通信リンクなど)であるが、これに限定されるものではない。このように、例えば、信号伝搬媒体702は、通信媒体710の無線形態によって伝達されることがある。
この一つ以上のプログラミング指令704は、例えば、コンピュータ実行可能及び/又は論理実装指令とされることがある。或る例においては、コンピュータ・デバイス(例えば図1のプロセッサ112)は、コンピュータ可読媒体706、コンピュータ記録可能媒体708、及び/又は通信媒体710のうちの一つ以上によりプロセッサへ伝達されるプログラミング指令704に応じて様々な操作、機能、又は行為を与えるように構成されることがある。
非一時的なコンピュータ可読媒体は複数のデータ記憶要素の間に分配することもでき、それは相互に離隔して位置することができる。記憶された指令の一部若しくは全部を実行するコンピュータ・デバイスは、図1に図解されたデバイス100のようなデバイスとすることができる。これに代えて、記憶された指令の一部若しくは全部を実行するコンピュータ・デバイスは、サーバーのような他のコンピュータ・デバイスとすることができる。
ここに説明された構成は例示目的のためだけであることを理解されたい。そのように、当業者は、他の構成及び他の要素(例えば機械、インターフェース、機能、順序、及び機能のグループ化)を代わりに使用することができると共に、或る要素は所望の結果によっては完全に省略されることがあることを理解するであろう。更に、説明された幾多の要素は、適宜な組み合わせにより及び場所において、個別に又は分散された構成要素として或いは他の構成要素に関連して実施されることがある機能的実体である。
様々な態様及び実施形態がここに開示されたが、他の態様及び実施形態は当業者にとっては明らかであろう。ここに開示された様々な態様及び実施形態は例示目的のためであって、限定を意図するものではなく、真の範囲は、以下の特許請求の範囲により、そのような特許請求の範囲に権利が与えられる均等物の全範囲と共に示される。ここに用いられた用語は特定の実施形態を説明する目的のためであって、限定を意図するものではないことも理解されたい。
幾多の修正例、変形例、変更例の詳細を説明された例になすことができるので、先の説明及び添付図面に示された全ての事項は例示として解釈すべきことが意図されており、限定的な趣旨ではない。

Claims (20)

  1. コンピュータ・デバイスにおいて、車両の環境を示すレーザー・データを受信し、そのレーザー・データは前記環境における一つ以上の物体に関連した複数のデータ点を含み、
    前記複数のデータ点に基づいて、前記車両に対する前記環境における前記一つ以上の物体のそれぞれの位置を示す複数のピクセルを含む二次元距離画像を生成し、
    前記生成された二次元距離画像を修正して、レーザー・データが欠如している前記環境における前記一つ以上の物体の一つ以上の部分をマップする前記複数のピクセルの一つ以上の所定のピクセルにそれぞれの値を与え、前記生成された二次元距離画像を修正して一つ以上の所定のピクセルにそれぞれの値を与えることは、前記二次元距離画像における前記複数のピクセルの前記一つ以上の所定のピクセルに対して近位に位置した前記複数のピクセルのそれぞれの近隣ピクセルに基づいており、
    前記修正された二次元距離画像に基づいて、前記環境における前記一つ以上の物体のそれぞれの表面に対応する前記複数のピクセルにおけるピクセルの一つ以上のセットの複数の法線ベクトルを決定し、及び、
    前記ピクセルの一つ以上のセットの前記複数の法線ベクトルに基づいて、前記環境における前記一つ以上の物体を示す物体認識情報を、前記車両の一つ以上のシステムへ与えることを含む方法。
  2. 請求項1の方法において、レーザー・データが欠如している前記環境における前記一つ以上の物体の前記一つ以上の部分をマップする前記複数のピクセルの前記一つ以上の所定のピクセルは、前記レーザー・データにおけるノイズを示す方法。
  3. 請求項1の方法において、前記コンピュータ・デバイスにおいて前記車両の前記環境を示すレーザー・データを受信することは、
    前記環境における前記一つ以上の物体に関連した前記複数のデータ点を構造化データ点クラウドで受信することからなる方法。
  4. 請求項1の方法において、前記コンピュータ・デバイスにおいて前記車両の前記環境を示すレーザー・データを受信することは、
    前記環境における前記一つ以上の物体に関連した前記複数のデータ点を非構造化データ点クラウドで受信することからなる方法。
  5. 請求項1の方法において、前記コンピュータ・デバイスにおいて前記車両の前記環境を示すレーザー・データを受信することは、
    前記環境における前記一つ以上の物体に関連した前記複数のデータ点を格子状点クラウド以外の点クラウド・フォーマットで受信することからなる方法。
  6. 請求項1の方法において、前記複数のデータ点に基づいて、前記車両に対する前記環境における前記一つ以上の物体のそれぞれの位置を示す前記複数のピクセルを含む前記二次元距離画像を生成することは、
    点クラウドの前記複数のデータ点の第1の部分を受信すると、前記二次元距離画像の少なくとも初期部分を生成することを含む方法。
  7. 請求項1の方法において、前記生成された二次元距離画像を修正して前記一つ以上の所定のピクセルにそれぞれの値を与えることは、前記二次元距離画像における前記複数のピクセルの前記一つ以上の所定のピクセルの近位に位置した前記複数のピクセルの前記それぞれの近隣ピクセルの平均値に更に基づく方法。
  8. 請求項7の方法において、前記生成された二次元距離画像を修正して前記一つ以上の所定のピクセルにそれぞれの値を与えることが前記二次元距離画像における前記複数のピクセルの前記一つ以上の所定のピクセルの近位に位置した前記複数のピクセルの前記それぞれの近隣ピクセルの前記平均値に更に基づくことは、
    前記それぞれのピクセルの上下に位置したそれぞれの近隣ピクセル又は前記それぞれのピクセルの左右に位置した前記それぞれの近隣ピクセルを用いて、前記平均値を推定することを更に含む方法。
  9. 請求項1の方法において、前記修正された二次元距離画像に基づいて、前記環境における前記一つ以上の物体のそれぞれの表面に対応する前記複数のピクセルにおけるピクセルの一つ以上のセットの前記複数の法線ベクトルを決定することは、
    前記修正された二次元距離画像における一つ以上の勾配を推定し、
    統合画像処理を用いて、前記修正された二次元距離画像における前記一つ以上の勾配を平滑化し、前記統合画像処理は、前記一つ以上の勾配におけるピクセルのそれぞれの合計に基づいて平均接ベクトルの一つ以上のセットを決定することからなり、
    前記平均接ベクトルの一つ以上のセットを用いて、前記一つ以上の平滑化された勾配の外積を決定し、
    前記一つ以上の平滑化された勾配の前記一つ以上の外積に基づいて、前記ピクセルの一つ以上のセットの前記複数の法線ベクトルを決定することを含む方法。
  10. 請求項1の方法において、前記車両に対する前記環境における前記一つ以上の物体のそれぞれの位置を示す前記複数のピクセルを含む前記二次元距離画像を生成することは、
    前記複数のデータ点を前記車両を包囲する概念的円筒形二次元表面へ投影して前記二次元距離画像を生成し、前記複数のデータ点を前記概念的円筒形二次元表面へ投影することは、前記二次元表面におけるピクセルを前記複数のデータ点に関連したデータに基づいて位置させることを含む方法。
  11. 請求項1の方法において、前記生成された二次元距離画像は、前記車両の前記環境を示す仮想360度パノラマである方法。
  12. 請求項1の方法において、前記二次元距離画像における前記一つ以上の空きピクセル以外の前記複数のピクセルは、前記環境における前記一つ以上の物体に関連した前記複数のデータ点に対応する方法。
  13. システムであって、
    少なくとも一つのプロセッサ、及び、
    記憶された指令を有するメモリとを備え、その指令は前記少なくとも一つのプロセッサにより実行されるときに、前記システムに機能を実行させ、その機能は、
    車両の環境を示すレーザー・データを受信し、そのレーザー・データは前記環境における一つ以上の物体に関連した複数のデータ点を含み、
    前記複数のデータ点に基づいて、前記車両に対する前記環境における前記一つ以上の物体のそれぞれの位置を示す複数のピクセルを含む二次元距離画像を生成し、
    前記生成された二次元距離画像を修正して、レーザー・データが欠如した前記環境における前記一つ以上の物体の一つ以上の部分をマップする前記複数のピクセルの一つ以上の所定のピクセルにそれぞれの値を与え、前記生成された二次元距離画像を修正して前記一つ以上の所定のピクセルにそれぞれの値を与えることは、前記二次元距離画像における前記複数のピクセルのそれぞれの近隣ピクセルに基づいており、
    前記修正された二次元距離画像に基づいて、前記環境における前記一つ以上の物体のそれぞれの表面に対応する前記複数のピクセルにおけるピクセルの一つ以上のセットの複数の法線ベクトルを決定し、及び、
    前記ピクセルの一つ以上のセットの前記複数の法線ベクトルに基づいて、前記環境における前記一つ以上の物体を示す物体認識情報を前記車両の一つ以上のシステムへ与えることを含むシステム。
  14. 請求項13のシステムにおいて、前記車両に対する前記環境における前記一つ以上の物体のそれぞれの位置を示す複数のピクセルを含む前記二次元距離画像を生成することは、前記車両のデプス・カメラ・システムにより与えられたデータに更に基づくシステム。
  15. 請求項13のシステムにおいて、前記環境における前記一つ以上の物体のそれぞれの表面に対応する前記複数のピクセルにおけるピクセルの一つ以上のセットの前記複数の法線ベクトルを決定する機能は、
    固定ピクセル近傍処理を用いて前記ピクセルの一つ以上のセットを決定することを含み、その固定ピクセル近傍処理は、
    前記環境における前記一つ以上の物体のそれぞれの表面に対応する中心ピクセルを決定し、及び、
    前記中心ピクセルに対する前記複数のピクセルにおける所定のピクセルのそれぞれの距離に基づいて、前記ピクセルの一つ以上のセットのピクセルのそれぞれのセットについての前記中心ピクセルを含む予め規定された数のピクセルを選択することを含むシステム。
  16. 請求項13のシステムにおいて、前記レーザー・データは前記車両のLIDARモジュールにより与えられるシステム。
  17. 請求項13のシステムにおいて、
    前記ピクセルの一つ以上のセットの前記複数の法線ベクトルに基づいて、面分割処理を実行して前記ピクセルの一つ以上のセットを接続し、及び、
    前記面分割処理の実行に基づいて、前記環境を示す仮想描写を前記車両の前記一つ以上のシステムへ与えることを更に含むシステム。
  18. 記憶された指令を有する非一時的コンピュータ可読媒体であり、その指令はコンピュータ・デバイスにより実行されるときに、前記コンピュータ・デバイスに機能を実行させ、その機能は、
    車両の環境を示すレーザー・データを受信し、そのレーザー・データは前記環境における一つ以上の物体に関連した複数のデータ点を含み、
    前記複数のデータ点に基づいて、前記車両に対する前記環境における前記一つ以上の物体のそれぞれの位置を示す複数のピクセルを含む二次元距離画像を生成し、
    前記生成された二次元距離画像を修正して、レーザー・データが欠如した前記環境における前記一つ以上の物体の一つ以上の部分をマップする前記複数のピクセルの一つ以上の所定のピクセルにそれぞれの値を与え、前記生成された二次元距離画像を修正して前記一つ以上の所定のピクセルにそれぞれの値を与えることは、前記二次元距離画像における前記複数のピクセルのそれぞれの近隣ピクセルに基づいており、
    前記修正された二次元距離画像に基づいて、前記環境における前記一つ以上の物体のそれぞれの表面に対応する前記複数のピクセルにおけるピクセルの一つ以上のセットの複数の法線ベクトルを決定し、及び、
    前記ピクセルの一つ以上のセットの前記複数の法線ベクトルに基づいて、前記環境における前記一つ以上の物体を示す物体認識情報を前記車両の一つ以上のシステムへ与えることを含む非一時的コンピュータ可読媒体。
  19. 請求項18の非一時的コンピュータ可読媒体において、前記車両に対する前記環境における前記一つ以上の物体のそれぞれの位置を示す前記複数のピクセルを含む二次元距離画像を生成する機能は、
    前記複数のデータ点の一つ以上のサブセットを受信すると、前記二次元距離画像のそれぞれの部分を生成し、前記複数のデータ点の前記一つ以上のサブセットは点クラウドに対応することを含む非一時的コンピュータ可読媒体。
  20. 請求項18の非一時的コンピュータ可読媒体において、
    前記ピクセルの一つ以上のセットの前記複数の法線ベクトルに基づいて、面分割処理を実行して前記環境の仮想マップにおける前記ピクセルの一つ以上のセットを接続し、及び、
    前記環境の前記仮想マップに基づいて、前記車両を制御する制御計画を決定することを更に含む非一時的コンピュータ可読媒体。
JP2015089456A 2014-04-25 2015-04-24 レーザー点クラウドを用いる物体検出のための方法及びシステム Expired - Fee Related JP6174073B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/262,651 2014-04-25
US14/262,651 US9098754B1 (en) 2014-04-25 2014-04-25 Methods and systems for object detection using laser point clouds

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017096720A Division JP6441993B2 (ja) 2014-04-25 2017-05-15 レーザー点クラウドを用いる物体検出のための方法及びシステム

Publications (2)

Publication Number Publication Date
JP2015212942A true JP2015212942A (ja) 2015-11-26
JP6174073B2 JP6174073B2 (ja) 2017-08-02

Family

ID=53039264

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2015089456A Expired - Fee Related JP6174073B2 (ja) 2014-04-25 2015-04-24 レーザー点クラウドを用いる物体検出のための方法及びシステム
JP2017096720A Active JP6441993B2 (ja) 2014-04-25 2017-05-15 レーザー点クラウドを用いる物体検出のための方法及びシステム
JP2018218790A Pending JP2019050035A (ja) 2014-04-25 2018-11-22 レーザー点クラウドを用いる物体検出のための方法及びシステム

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2017096720A Active JP6441993B2 (ja) 2014-04-25 2017-05-15 レーザー点クラウドを用いる物体検出のための方法及びシステム
JP2018218790A Pending JP2019050035A (ja) 2014-04-25 2018-11-22 レーザー点クラウドを用いる物体検出のための方法及びシステム

Country Status (4)

Country Link
US (2) US9098754B1 (ja)
EP (1) EP2937815B1 (ja)
JP (3) JP6174073B2 (ja)
CN (1) CN105182358B (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190067851A (ko) * 2016-11-14 2019-06-17 웨이모 엘엘씨 센서 데이터로부터 생성된 물체를 평활화하기 위한 맵 정보의 이용
JP2020020793A (ja) * 2018-07-31 2020-02-06 ウーバー テクノロジーズ,インコーポレイテッド ライダー強度に基づく物体検出
JP2021181998A (ja) * 2016-11-29 2021-11-25 ブラックモア センサーズ アンド アナリティクス エルエルシー 点群データセット内において物体を分類する方法およびシステム
JP2022506428A (ja) * 2018-11-02 2022-01-17 ウェイモ エルエルシー レーザービームの入射角の計算および反射率推定へのその応用
JP2022067324A (ja) * 2020-10-20 2022-05-06 株式会社Soken 物体検知装置、物体検知方法、および物体検知プログラム
US11500106B2 (en) 2018-04-23 2022-11-15 Blackmore Sensors & Analytics, Llc LIDAR system for autonomous vehicle
US11585925B2 (en) 2017-02-03 2023-02-21 Blackmore Sensors & Analytics, Llc LIDAR system to adjust doppler effects
US11624828B2 (en) 2016-11-30 2023-04-11 Blackmore Sensors & Analytics, Llc Method and system for adaptive scanning with optical ranging systems
US11802965B2 (en) 2016-11-30 2023-10-31 Blackmore Sensors & Analytics Llc Method and system for doppler detection and doppler correction of optical chirped range detection
US11822010B2 (en) 2019-01-04 2023-11-21 Blackmore Sensors & Analytics, Llc LIDAR system
US11874375B2 (en) 2016-11-30 2024-01-16 Blackmore Sensors & Analytics, LLC. Method and system for automatic real-time adaptive scanning with optical ranging systems

Families Citing this family (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9274673B2 (en) * 2013-12-31 2016-03-01 Google Inc. Methods, systems, and media for rewinding media content based on detected audio events
US9098754B1 (en) * 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using laser point clouds
US9536311B2 (en) * 2014-09-29 2017-01-03 General Electric Company System and method for component detection
US10515259B2 (en) * 2015-02-26 2019-12-24 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining 3D object poses and landmark points using surface patches
US10024965B2 (en) * 2015-04-01 2018-07-17 Vayavision, Ltd. Generating 3-dimensional maps of a scene using passive and active measurements
US10282623B1 (en) * 2015-09-25 2019-05-07 Apple Inc. Depth perception sensor data processing
US9970756B2 (en) * 2015-10-06 2018-05-15 Bridger Photonics, Inc. High-sensitivity gas-mapping 3D imager and method of operation
CN105371818A (zh) * 2015-11-30 2016-03-02 湖北易瓦特科技股份有限公司 测距避障仪和无人机测距避障的方法
JP6945785B2 (ja) * 2016-03-14 2021-10-06 イムラ ウーロプ ソシエテ・パ・アクシオンス・シンプリフィエ 3dポイントクラウドの処理方法
CN108779984A (zh) * 2016-03-16 2018-11-09 索尼公司 信号处理设备和信号处理方法
CN107341804B (zh) * 2016-04-29 2020-11-06 成都理想境界科技有限公司 点云数据中平面的确定方法及装置、图像叠加方法及设备
KR101866764B1 (ko) * 2016-05-13 2018-06-18 충남대학교산학협력단 통합픽셀로 구성된 거리영상센서
JP6821957B2 (ja) * 2016-06-08 2021-01-27 アイシン精機株式会社 測距装置
CN106080397B (zh) * 2016-08-25 2019-11-26 北京奇虎科技有限公司 自适应巡航系统及车载设备
US10066946B2 (en) 2016-08-26 2018-09-04 Here Global B.V. Automatic localization geometry detection
CN106401643B (zh) * 2016-08-31 2018-08-21 中国铁路设计集团有限公司 基于激光点云的隧道超欠挖检测方法
US11092690B1 (en) * 2016-09-22 2021-08-17 Apple Inc. Predicting lidar data using machine learning
CN106225678B (zh) * 2016-09-27 2018-10-19 北京正安维视科技股份有限公司 基于3d相机的动态物体定位与体积测量方法
KR101909953B1 (ko) * 2016-10-06 2018-12-19 충북대학교 산학협력단 라이다 센서를 이용한 차량의 자세 추정 방법
CN107993276B (zh) * 2016-10-25 2021-11-23 杭州海康威视数字技术股份有限公司 一种全景图像的生成方法及装置
EP3538874B1 (en) * 2016-11-14 2022-01-12 Opgal Optronic Industries Ltd. Systems and methods for quantifying a gas leak
CN106769080A (zh) * 2016-11-30 2017-05-31 百度在线网络技术(北京)有限公司 用于测量无人驾驶车辆的行驶精度的方法和装置
CN108268483A (zh) * 2016-12-30 2018-07-10 乐视汽车(北京)有限公司 生成用于无人车导航控制的网格地图的方法
US10078790B2 (en) 2017-02-16 2018-09-18 Honda Motor Co., Ltd. Systems for generating parking maps and methods thereof
CN108509820B (zh) * 2017-02-23 2021-12-24 百度在线网络技术(北京)有限公司 障碍物分割方法及装置、计算机设备及可读介质
US10438405B2 (en) * 2017-03-02 2019-10-08 Sony Corporation Detection of planar surfaces for use in scene modeling of a captured scene
US10552691B2 (en) * 2017-04-25 2020-02-04 TuSimple System and method for vehicle position and velocity estimation based on camera and lidar data
WO2018195996A1 (en) * 2017-04-28 2018-11-01 SZ DJI Technology Co., Ltd. Multi-object tracking based on lidar point cloud
CN110121716A (zh) * 2017-04-28 2019-08-13 深圳市大疆创新科技有限公司 用于网格分析的方法及相关系统
US10809380B2 (en) 2017-05-15 2020-10-20 Ouster, Inc. Augmenting panoramic LIDAR results with color
CN107274487A (zh) * 2017-05-23 2017-10-20 武汉华高信息技术有限公司 安全飞行包线的估算方法
DE102017208700A1 (de) * 2017-05-23 2018-11-29 Robert Bosch Gmbh Verfahren und Vorrichtung zur Objekterfassung und LIDAR-System
CN109145680B (zh) * 2017-06-16 2022-05-27 阿波罗智能技术(北京)有限公司 一种获取障碍物信息的方法、装置、设备和计算机存储介质
CN107215339B (zh) * 2017-06-26 2019-08-23 地壳机器人科技有限公司 自动驾驶车辆的换道控制方法和装置
WO2019026783A1 (ja) 2017-08-04 2019-02-07 住友電工焼結合金株式会社 焼結部品の製造方法、及び焼結部品
WO2019026714A1 (ja) * 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、および情報処理方法、プログラム、並びに移動体
CN109410735B (zh) * 2017-08-15 2021-06-29 百度在线网络技术(北京)有限公司 反射值地图构建方法和装置
CN109407073B (zh) * 2017-08-15 2020-03-10 百度在线网络技术(北京)有限公司 反射值地图构建方法和装置
WO2019037129A1 (en) * 2017-08-25 2019-02-28 Beijing Didi Infinity Technology And Development Co., Ltd. METHODS AND SYSTEMS FOR DETECTING ENVIRONMENTAL INFORMATION OF A VEHICLE
US10861196B2 (en) 2017-09-14 2020-12-08 Apple Inc. Point cloud compression
US11818401B2 (en) 2017-09-14 2023-11-14 Apple Inc. Point cloud geometry compression using octrees and binary arithmetic encoding with adaptive look-up tables
US10897269B2 (en) 2017-09-14 2021-01-19 Apple Inc. Hierarchical point cloud compression
US11113845B2 (en) 2017-09-18 2021-09-07 Apple Inc. Point cloud compression using non-cubic projections and masks
US10909725B2 (en) 2017-09-18 2021-02-02 Apple Inc. Point cloud compression
CN109521756B (zh) * 2017-09-18 2022-03-08 阿波罗智能技术(北京)有限公司 用于无人驾驶车辆的障碍物运动信息生成方法和装置
US10523880B2 (en) * 2017-09-28 2019-12-31 Waymo Llc Synchronized spinning LIDAR and rolling shutter camera system
US11604280B2 (en) 2017-10-02 2023-03-14 Bridger Photonics, Inc. Processing temporal segments of laser chirps and examples of use in FMCW LiDAR methods and apparatuses
US10788831B2 (en) * 2017-10-06 2020-09-29 Wipro Limited Method and device for identifying center of a path for navigation of autonomous vehicles
CA3078553A1 (en) 2017-10-17 2019-04-25 Bridger Photonics, Inc. Apparatuses and methods for a rotating optical reflector
US10962650B2 (en) 2017-10-31 2021-03-30 United States Of America As Represented By The Administrator Of Nasa Polyhedral geofences
US11112308B2 (en) 2017-11-14 2021-09-07 Bridger Photonics, Inc. Apparatuses and methods for anomalous gas concentration detection
US10699444B2 (en) 2017-11-22 2020-06-30 Apple Inc Point cloud occupancy map compression
US10607373B2 (en) 2017-11-22 2020-03-31 Apple Inc. Point cloud compression with closed-loop color conversion
JP7077013B2 (ja) * 2017-12-27 2022-05-30 株式会社トプコン 三次元情報処理部、三次元情報処理部を備える装置、無人航空機、報知装置、三次元情報処理部を用いた移動体制御方法および移動体制御処理用プログラム
WO2019162564A1 (en) * 2018-02-22 2019-08-29 Nokia Technologies Oy An apparatus, a method and a computer program for volumetric video
US11093759B2 (en) * 2018-03-06 2021-08-17 Here Global B.V. Automatic identification of roadside objects for localization
US11618438B2 (en) * 2018-03-26 2023-04-04 International Business Machines Corporation Three-dimensional object localization for obstacle avoidance using one-shot convolutional neural network
CN108917752B (zh) * 2018-03-30 2022-11-11 深圳一清创新科技有限公司 无人船导航方法、装置、计算机设备和存储介质
US10939129B2 (en) 2018-04-10 2021-03-02 Apple Inc. Point cloud compression
US10909727B2 (en) 2018-04-10 2021-02-02 Apple Inc. Hierarchical point cloud compression with smoothing
US10909726B2 (en) 2018-04-10 2021-02-02 Apple Inc. Point cloud compression
US11010928B2 (en) 2018-04-10 2021-05-18 Apple Inc. Adaptive distance based point cloud compression
US11017566B1 (en) 2018-07-02 2021-05-25 Apple Inc. Point cloud compression with adaptive filtering
US11202098B2 (en) 2018-07-05 2021-12-14 Apple Inc. Point cloud compression with multi-resolution video encoding
US11012713B2 (en) 2018-07-12 2021-05-18 Apple Inc. Bit stream structure for compressed point cloud data
WO2020112213A2 (en) * 2018-09-13 2020-06-04 Nvidia Corporation Deep neural network processing for sensor blindness detection in autonomous machine applications
CN110941973B (zh) * 2018-09-21 2023-09-15 驭势科技(北京)有限公司 一种障碍物检测方法、装置、车载设备及存储介质
US11386524B2 (en) 2018-09-28 2022-07-12 Apple Inc. Point cloud compression image padding
US11367224B2 (en) 2018-10-02 2022-06-21 Apple Inc. Occupancy map block-to-patch information compression
US11430155B2 (en) 2018-10-05 2022-08-30 Apple Inc. Quantized depths for projection point cloud compression
US10878282B2 (en) * 2018-10-15 2020-12-29 Tusimple, Inc. Segmentation processing of image data for LiDAR-based vehicle tracking system and method
DK180774B1 (en) 2018-10-29 2022-03-04 Motional Ad Llc Automatic annotation of environmental features in a map during navigation of a vehicle
US11520331B2 (en) * 2018-12-28 2022-12-06 Intel Corporation Methods and apparatus to update autonomous vehicle perspectives
US11665372B2 (en) * 2019-01-07 2023-05-30 Samsung Electronics Co., Ltd. Fast projection method in video-based point cloud compression codecs
US11391574B2 (en) 2019-01-18 2022-07-19 Ford Global Technologies, Llc Object detection
US11648945B2 (en) * 2019-03-11 2023-05-16 Nvidia Corporation Intersection detection and classification in autonomous machine applications
US11057564B2 (en) 2019-03-28 2021-07-06 Apple Inc. Multiple layer flexure for supporting a moving image sensor
CN109917419B (zh) * 2019-04-12 2021-04-13 中山大学 一种基于激光雷达与图像的深度填充密集系统及方法
CN110133593B (zh) * 2019-05-23 2021-07-27 浙江厚达智能科技股份有限公司 无人驾驶室内车辆
CN110308423B (zh) * 2019-05-23 2021-07-27 浙江厚达智能科技股份有限公司 基于反光板的室内车载激光定位方法及系统
CN110161526A (zh) * 2019-05-24 2019-08-23 河南辉煌科技股份有限公司 一种基于三维成像的线路障碍物识别方法
JP7197433B2 (ja) 2019-06-11 2022-12-27 株式会社小松製作所 作業車両の制御装置、作業車両、および作業車両の制御方法
WO2020248177A1 (zh) * 2019-06-12 2020-12-17 浙江大学 点云的编解码方法及装置
WO2020258073A1 (zh) 2019-06-26 2020-12-30 深圳市大疆创新科技有限公司 可移动平台的交互方法、系统、可移动平台及存储介质
DE102019117559A1 (de) * 2019-06-28 2020-12-31 Connaught Electronics Ltd. Verfahren und System zum Fusionieren von zweidimensionalen semantischen Informationen aus Bildern mit einer dreidimensionalen Punktwolke
US11630209B2 (en) * 2019-07-09 2023-04-18 Waymo Llc Laser waveform embedding
US11754715B2 (en) * 2019-07-11 2023-09-12 Baidu Usa Llc Point cloud format optimized for LiDAR data storage based on device property
US11762061B2 (en) * 2019-07-26 2023-09-19 Deka Products Limited Partnership System and method for free space estimation
EP4010782A4 (en) * 2019-08-05 2023-07-19 Tellus You Care, Inc. NON-CONTACT IDENTIFICATION OF THE PRESENCE OF MULTIPLE PERSONS FOR ELDERLY CARE
CN110456377B (zh) * 2019-08-15 2021-07-30 中国人民解放军63921部队 一种基于三维激光雷达的卫星来袭异物检测方法和系统
WO2021041854A1 (en) * 2019-08-30 2021-03-04 Nvidia Corporation Object detection and classification using lidar range images for autonomous machine applications
US11562507B2 (en) 2019-09-27 2023-01-24 Apple Inc. Point cloud compression using video encoding with time consistent patches
US11627314B2 (en) 2019-09-27 2023-04-11 Apple Inc. Video-based point cloud compression with non-normative smoothing
US11538196B2 (en) 2019-10-02 2022-12-27 Apple Inc. Predictive coding for point cloud compression
US11895307B2 (en) 2019-10-04 2024-02-06 Apple Inc. Block-based predictive coding for point cloud compression
JP7327077B2 (ja) * 2019-10-18 2023-08-16 トヨタ自動車株式会社 路上障害物検知装置、路上障害物検知方法、及び路上障害物検知プログラム
US11532168B2 (en) 2019-11-15 2022-12-20 Nvidia Corporation Multi-view deep neural network for LiDAR perception
US11531088B2 (en) * 2019-11-21 2022-12-20 Nvidia Corporation Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications
US11885907B2 (en) 2019-11-21 2024-01-30 Nvidia Corporation Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications
CN111027601B (zh) * 2019-11-25 2023-10-17 歌尔股份有限公司 一种基于激光传感器的平面检测方法、装置
US11765067B1 (en) * 2019-12-28 2023-09-19 Waymo Llc Methods and apparatus for monitoring a sensor validator
CN111142118B (zh) * 2020-01-07 2022-08-26 盟识(上海)科技有限公司 一种自卸车倒车检测方法
US11798196B2 (en) 2020-01-08 2023-10-24 Apple Inc. Video-based point cloud compression with predicted patches
US11475605B2 (en) 2020-01-09 2022-10-18 Apple Inc. Geometry encoding of duplicate points
CN113177427A (zh) * 2020-01-23 2021-07-27 宝马股份公司 道路预测的方法以及自主驾驶的方法、车辆及设备
EP3859390A1 (en) * 2020-01-29 2021-08-04 Visteon Global Technologies, Inc. Method and system for rendering a representation of an evinronment of a vehicle
CN111338336B (zh) * 2020-02-11 2021-07-13 腾讯科技(深圳)有限公司 一种自动驾驶方法及装置
KR102444879B1 (ko) * 2020-03-05 2022-09-19 고려대학교 산학협력단 라이다(Lidar)를 이용한 실내 공간의 3차원 모델링 방법
CN111340797B (zh) * 2020-03-10 2023-04-28 山东大学 一种激光雷达与双目相机数据融合检测方法及系统
US20210373173A1 (en) * 2020-06-02 2021-12-02 Motional Ad Llc Identifying background features using lidar
US11398095B2 (en) * 2020-06-23 2022-07-26 Toyota Research Institute, Inc. Monocular depth supervision from 3D bounding boxes
US11620768B2 (en) 2020-06-24 2023-04-04 Apple Inc. Point cloud geometry compression using octrees with multiple scan orders
US11615557B2 (en) 2020-06-24 2023-03-28 Apple Inc. Point cloud compression using octrees with slicing
US11605228B2 (en) 2020-06-26 2023-03-14 Nxp Usa, Inc. System and method for sensor fusion system having distributed convolutional neural network
US11508118B2 (en) * 2020-07-13 2022-11-22 Fujitsu Limited Provisioning real-time three-dimensional maps for autonomous vehicles
CA3125716C (en) 2020-07-21 2024-04-09 Leddartech Inc. Systems and methods for wide-angle lidar using non-uniform magnification optics
CA3125718C (en) 2020-07-21 2023-10-03 Leddartech Inc. Beam-steering devices and methods for lidar applications
KR20220011825A (ko) * 2020-07-21 2022-02-03 현대자동차주식회사 차량 및 그 제어방법
WO2022016276A1 (en) 2020-07-21 2022-01-27 Leddartech Inc. Beam-steering device particularly for lidar systems
CN112102375B (zh) * 2020-07-22 2024-04-12 广州视源电子科技股份有限公司 一种点云配准可靠性检测的方法、装置、移动智慧设备
WO2022049842A1 (ja) 2020-09-07 2022-03-10 パナソニックIpマネジメント株式会社 情報処理方法及び情報処理装置
US11860304B2 (en) 2020-10-01 2024-01-02 Huawei Technologies Co., Ltd. Method and system for real-time landmark extraction from a sparse three-dimensional point cloud
CN112417965B (zh) * 2020-10-21 2021-09-14 湖北亿咖通科技有限公司 激光点云处理方法、电子装置和存储介质
WO2022104254A1 (en) * 2020-11-16 2022-05-19 Waymo Llc Efficient three-dimensional object detection from point clouds
US20220155455A1 (en) * 2020-11-16 2022-05-19 GM Global Technology Operations LLC Method and system for ground surface projection for autonomous driving
CN112433529B (zh) * 2020-11-30 2024-02-27 东软睿驰汽车技术(沈阳)有限公司 运动物体确定方法、装置及设备
US20220179082A1 (en) * 2020-12-08 2022-06-09 Argo AI, LLC Methods and system for analyzing dynamic lidar point cloud data
CN112904315B (zh) * 2021-01-12 2024-04-26 广州广电研究院有限公司 一种激光雷达点云数据的校正方法、装置和介质
CN113050046A (zh) * 2021-03-23 2021-06-29 芜湖森思泰克智能科技有限公司 一种船舶靠岸安全监测方法及终端设备
US11948338B1 (en) 2021-03-29 2024-04-02 Apple Inc. 3D volumetric content encoding using 2D videos and simplified 3D meshes
CN113071498B (zh) * 2021-06-07 2021-09-21 新石器慧通(北京)科技有限公司 车辆控制方法、装置、系统、计算机设备及存储介质
CN114022607B (zh) * 2021-11-19 2023-05-26 腾讯科技(深圳)有限公司 一种数据处理方法、装置以及可读存储介质
JP2023080414A (ja) 2021-11-30 2023-06-09 スズキ株式会社 車両用センサー取付構造
DE102022206395A1 (de) 2022-06-24 2024-01-04 Siemens Aktiengesellschaft Verfahren zum Simulieren eines Raums als virtuelle Realität mittels einer Simulationsvorrichtung, Computerprogrammprodukt, computerlesbares Speichermedium sowie Simulationsvorrichtung
CN115953905B (zh) * 2023-03-15 2023-05-16 河北博士林科技开发有限公司 一种基于激光雷达的车路协同控制系统
CN117495891B (zh) * 2023-12-29 2024-04-30 法奥意威(苏州)机器人系统有限公司 点云边缘检测方法、装置和电子设备

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06180218A (ja) * 1992-12-15 1994-06-28 Matsushita Electric Works Ltd 立体形状検出方法
JPH0934932A (ja) * 1995-07-20 1997-02-07 Matsushita Electric Ind Co Ltd 3次元データの凹凸検出方法および凹凸検出装置
JPH09161072A (ja) * 1995-12-13 1997-06-20 Tsushin Hoso Kiko 映像信号の構造情報を抽出する映像処理装置
US5751290A (en) * 1996-09-20 1998-05-12 Industrial Technology Research Institute Three dimensional graphics system and method with correction to z buffer value errors
JPH10143659A (ja) * 1996-11-06 1998-05-29 Komatsu Ltd 物体検出装置
US6577307B1 (en) * 1999-09-20 2003-06-10 Silicon Integrated Systems Corp. Anti-aliasing for three-dimensional image without sorting polygons in depth order
JP2008243184A (ja) * 2007-02-26 2008-10-09 Fujifilm Corp 濃淡画像の輪郭補正処理方法及びその装置
JP2010071976A (ja) * 2008-08-19 2010-04-02 Panasonic Corp 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
JP2010510559A (ja) * 2006-10-30 2010-04-02 テレ アトラス ベスローテン フエンノートシャップ 地上モバイルマッピングデータからオブジェクトを検出する方法及び装置
EP2199828A2 (de) * 2008-11-26 2010-06-23 Riegl Lasermeasurement Systems GmbH Verfahren zum Bestimmen der Relativlage eines Laserscanners zu einem Referenzsystem
JP2010525432A (ja) * 2007-04-20 2010-07-22 ソフトキネティック エス.エイ. ボリューム認識方法およびシステム
JP2011027724A (ja) * 2009-06-24 2011-02-10 Canon Inc 3次元計測装置、その計測方法及びプログラム
JP2012057960A (ja) * 2010-09-06 2012-03-22 Topcon Corp 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
JP2012078942A (ja) * 2010-09-30 2012-04-19 Toshiba Corp デプス補正装置及び方法
WO2012175731A1 (en) * 2011-06-24 2012-12-27 Softkinetic Software Depth measurement quality enhancement
JPWO2011070927A1 (ja) * 2009-12-11 2013-04-22 株式会社トプコン 点群データ処理装置、点群データ処理方法、および点群データ処理プログラム
JP2013088999A (ja) * 2011-10-18 2013-05-13 Aero Asahi Corp 建物抽出装置、方法及びプログラム
JP2013120083A (ja) * 2011-12-06 2013-06-17 Honda Motor Co Ltd 環境認識装置
US20140028678A1 (en) * 2010-12-30 2014-01-30 Radoslaw Pawel Chmielewski System and method for generating textured map object images
JP2014508979A (ja) * 2011-08-04 2014-04-10 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 物体のモデルの表面の欠陥を判断するための方法およびシステム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69232403T2 (de) * 1991-08-06 2002-08-22 Canon Kk Dreidimensionales Modellverarbeitungsverfahren und -gerät
DE69328230T2 (de) * 1992-12-01 2000-08-10 Canon Kk Entfernungbildverarbeitungsvorrichtung und -verfahren
JP3139247B2 (ja) * 1993-11-09 2001-02-26 日産自動車株式会社 画像処理方法
US5988862A (en) 1996-04-24 1999-11-23 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three dimensional objects
US6751338B1 (en) * 2000-12-15 2004-06-15 Cognex Corporation System and method of using range image data with machine vision tools
US20060111841A1 (en) * 2004-11-19 2006-05-25 Jiun-Yuan Tseng Method and apparatus for obstacle avoidance with camera vision
JP2006308378A (ja) * 2005-04-27 2006-11-09 Yokohama Rubber Co Ltd:The 厚み測定方法及びその装置
JP2006322852A (ja) * 2005-05-19 2006-11-30 Olympus Corp 距離計測装置、距離計測方法および距離計測プログラム
KR20110044218A (ko) * 2008-07-31 2011-04-28 텔레 아틀라스 비. 브이. 3차원으로 내비게이션 데이터를 디스플레이하기 위한 방법 및 컴퓨터 장치
EP2416292A4 (en) * 2009-03-31 2014-09-03 Konica Minolta Holdings Inc IMAGE INTEGRATION UNIT AND IMAGE INTEGRATION PROCESS
CN102055956B (zh) * 2009-11-02 2017-05-10 通用汽车环球科技运作公司 车载三维视频系统及用其监测车辆周围环境的方法
JP5430456B2 (ja) * 2010-03-16 2014-02-26 キヤノン株式会社 幾何特徴抽出装置、幾何特徴抽出方法、及びプログラム、三次元計測装置、物体認識装置
CN101975951B (zh) * 2010-06-09 2013-03-20 北京理工大学 一种融合距离和图像信息的野外环境障碍检测方法
US8401242B2 (en) * 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
JP2013002909A (ja) * 2011-06-15 2013-01-07 Mitsubishi Electric Corp 物体識別装置及び物体識別プログラム
JP2013088188A (ja) * 2011-10-14 2013-05-13 Fuji Architect Co Ltd 三次元測定対象物の形態調査方法
JP6066562B2 (ja) * 2012-01-26 2017-01-25 キヤノン株式会社 計測装置、計測方法及びプログラム
CN102607457B (zh) * 2012-03-05 2014-12-10 西安交通大学 基于惯性导航技术的大尺寸三维形貌测量装置及方法
JP2015089456A (ja) * 2013-11-06 2015-05-11 梨加 竹内 リネン折り畳み方法と装置
US9098754B1 (en) * 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using laser point clouds

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06180218A (ja) * 1992-12-15 1994-06-28 Matsushita Electric Works Ltd 立体形状検出方法
JPH0934932A (ja) * 1995-07-20 1997-02-07 Matsushita Electric Ind Co Ltd 3次元データの凹凸検出方法および凹凸検出装置
JPH09161072A (ja) * 1995-12-13 1997-06-20 Tsushin Hoso Kiko 映像信号の構造情報を抽出する映像処理装置
US5751290A (en) * 1996-09-20 1998-05-12 Industrial Technology Research Institute Three dimensional graphics system and method with correction to z buffer value errors
JPH10143659A (ja) * 1996-11-06 1998-05-29 Komatsu Ltd 物体検出装置
US6577307B1 (en) * 1999-09-20 2003-06-10 Silicon Integrated Systems Corp. Anti-aliasing for three-dimensional image without sorting polygons in depth order
JP2010510559A (ja) * 2006-10-30 2010-04-02 テレ アトラス ベスローテン フエンノートシャップ 地上モバイルマッピングデータからオブジェクトを検出する方法及び装置
JP2008243184A (ja) * 2007-02-26 2008-10-09 Fujifilm Corp 濃淡画像の輪郭補正処理方法及びその装置
JP2010525432A (ja) * 2007-04-20 2010-07-22 ソフトキネティック エス.エイ. ボリューム認識方法およびシステム
JP2010071976A (ja) * 2008-08-19 2010-04-02 Panasonic Corp 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
EP2199828A2 (de) * 2008-11-26 2010-06-23 Riegl Lasermeasurement Systems GmbH Verfahren zum Bestimmen der Relativlage eines Laserscanners zu einem Referenzsystem
JP2011027724A (ja) * 2009-06-24 2011-02-10 Canon Inc 3次元計測装置、その計測方法及びプログラム
JPWO2011070927A1 (ja) * 2009-12-11 2013-04-22 株式会社トプコン 点群データ処理装置、点群データ処理方法、および点群データ処理プログラム
JP2012057960A (ja) * 2010-09-06 2012-03-22 Topcon Corp 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
JP2012078942A (ja) * 2010-09-30 2012-04-19 Toshiba Corp デプス補正装置及び方法
US20140028678A1 (en) * 2010-12-30 2014-01-30 Radoslaw Pawel Chmielewski System and method for generating textured map object images
WO2012175731A1 (en) * 2011-06-24 2012-12-27 Softkinetic Software Depth measurement quality enhancement
JP2014508979A (ja) * 2011-08-04 2014-04-10 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 物体のモデルの表面の欠陥を判断するための方法およびシステム
JP2013088999A (ja) * 2011-10-18 2013-05-13 Aero Asahi Corp 建物抽出装置、方法及びプログラム
JP2013120083A (ja) * 2011-12-06 2013-06-17 Honda Motor Co Ltd 環境認識装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHAO,Y. 外4名: ""Boundary Artifact Reduction in View Synthesis of 3D Video: From Perspective of Texture-Depth Align", IEEE TRANSACTIONS ON BROADCASTING, vol. Volume 57, Number 2, JPN6014046485, 25 May 2011 (2011-05-25), US, pages 510 - 522, ISSN: 0003584863 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190067851A (ko) * 2016-11-14 2019-06-17 웨이모 엘엘씨 센서 데이터로부터 생성된 물체를 평활화하기 위한 맵 정보의 이용
KR102210140B1 (ko) * 2016-11-14 2021-02-02 웨이모 엘엘씨 센서 데이터로부터 생성된 물체를 평활화하기 위한 맵 정보의 이용
US11112237B2 (en) 2016-11-14 2021-09-07 Waymo Llc Using map information to smooth objects generated from sensor data
US11537808B2 (en) 2016-11-29 2022-12-27 Blackmore Sensors & Analytics, Llc Method and system for classification of an object in a point cloud data set
US11921210B2 (en) 2016-11-29 2024-03-05 Aurora Operations, Inc. Method and system for classification of an object in a point cloud data set
JP2021181998A (ja) * 2016-11-29 2021-11-25 ブラックモア センサーズ アンド アナリティクス エルエルシー 点群データセット内において物体を分類する方法およびシステム
JP7252285B2 (ja) 2016-11-29 2023-04-04 ブラックモア センサーズ アンド アナリティクス エルエルシー 点群データセット内において物体を分類する方法およびシステム
US11624828B2 (en) 2016-11-30 2023-04-11 Blackmore Sensors & Analytics, Llc Method and system for adaptive scanning with optical ranging systems
US11802965B2 (en) 2016-11-30 2023-10-31 Blackmore Sensors & Analytics Llc Method and system for doppler detection and doppler correction of optical chirped range detection
US11874375B2 (en) 2016-11-30 2024-01-16 Blackmore Sensors & Analytics, LLC. Method and system for automatic real-time adaptive scanning with optical ranging systems
US11585925B2 (en) 2017-02-03 2023-02-21 Blackmore Sensors & Analytics, Llc LIDAR system to adjust doppler effects
US11500106B2 (en) 2018-04-23 2022-11-15 Blackmore Sensors & Analytics, Llc LIDAR system for autonomous vehicle
US11947017B2 (en) 2018-04-23 2024-04-02 Aurora Operations, Inc. Lidar system for autonomous vehicle
US10598791B2 (en) 2018-07-31 2020-03-24 Uatc, Llc Object detection based on Lidar intensity
JP2020020793A (ja) * 2018-07-31 2020-02-06 ウーバー テクノロジーズ,インコーポレイテッド ライダー強度に基づく物体検出
JP2022506428A (ja) * 2018-11-02 2022-01-17 ウェイモ エルエルシー レーザービームの入射角の計算および反射率推定へのその応用
US11822010B2 (en) 2019-01-04 2023-11-21 Blackmore Sensors & Analytics, Llc LIDAR system
JP2022067324A (ja) * 2020-10-20 2022-05-06 株式会社Soken 物体検知装置、物体検知方法、および物体検知プログラム
JP7452374B2 (ja) 2020-10-20 2024-03-19 株式会社Soken 物体検知装置および物体検知プログラム

Also Published As

Publication number Publication date
US20160035081A1 (en) 2016-02-04
JP2017152049A (ja) 2017-08-31
JP2019050035A (ja) 2019-03-28
US9697606B2 (en) 2017-07-04
EP2937815B1 (en) 2019-02-06
JP6174073B2 (ja) 2017-08-02
CN105182358B (zh) 2018-06-26
CN105182358A (zh) 2015-12-23
EP2937815A3 (en) 2016-01-06
US9098754B1 (en) 2015-08-04
JP6441993B2 (ja) 2018-12-19
EP2937815A2 (en) 2015-10-28

Similar Documents

Publication Publication Date Title
JP6441993B2 (ja) レーザー点クラウドを用いる物体検出のための方法及びシステム
US11181914B2 (en) Use of detected objects for image processing
US8989944B1 (en) Methods and devices for determining movements of an object in an environment
US9201424B1 (en) Camera calibration using structure from motion techniques
US9207680B1 (en) Estimating multi-vehicle motion characteristics by finding stable reference points
JP6622265B2 (ja) 交通信号とそれらに関連した状態を検出するためのロバスト法
US9315192B1 (en) Methods and systems for pedestrian avoidance using LIDAR
US9607226B2 (en) Methods and systems for object detection using multiple sensors
US9063548B1 (en) Use of previous detections for lane marker detection
US11592524B2 (en) Computation of the angle of incidence of laser beam and its application on reflectivity estimation
US9097804B1 (en) Object and ground segmentation from a sparse one-dimensional range data
US9052721B1 (en) Method for correcting alignment of vehicle mounted laser scans with an elevation map for obstacle detection
US9080866B1 (en) Methods and systems for detection of reflective markers at long range
US11079768B2 (en) Use of a reference image to detect a road obstacle
US10678258B2 (en) Vison-based object detection using a polar grid
US9014903B1 (en) Determination of object heading based on point cloud

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161004

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20161028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161130

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20161208

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161216

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170515

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170705

R150 Certificate of patent or registration of utility model

Ref document number: 6174073

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees