JP2017056935A - 3dセンサにより検出されたオブジェクトの分類 - Google Patents

3dセンサにより検出されたオブジェクトの分類 Download PDF

Info

Publication number
JP2017056935A
JP2017056935A JP2016177291A JP2016177291A JP2017056935A JP 2017056935 A JP2017056935 A JP 2017056935A JP 2016177291 A JP2016177291 A JP 2016177291A JP 2016177291 A JP2016177291 A JP 2016177291A JP 2017056935 A JP2017056935 A JP 2017056935A
Authority
JP
Japan
Prior art keywords
trajectory
cluster
vehicle
based classifier
identifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016177291A
Other languages
English (en)
Other versions
JP2017056935A5 (ja
JP6298128B2 (ja
Inventor
ジェイ.デルプ マイケル
J Delp Michael
ジェイ.デルプ マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Engineering and Manufacturing North America Inc
Original Assignee
Toyota Motor Engineering and Manufacturing North America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Engineering and Manufacturing North America Inc filed Critical Toyota Motor Engineering and Manufacturing North America Inc
Publication of JP2017056935A publication Critical patent/JP2017056935A/ja
Publication of JP2017056935A5 publication Critical patent/JP2017056935A5/ja
Application granted granted Critical
Publication of JP6298128B2 publication Critical patent/JP6298128B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Abstract

【課題】車両の周辺環境内の複数のオブジェクトを分類する。【解決手段】3Dセンサを用いて、車両の周辺環境内のオブジェクトを示す複数の3次元点を生成する。この方法は、コンピュータ装置を用いて、複数の3次元点から、車両の周辺環境内の同じオブジェクトを示す複数の3次元点群の時系列を1つの軌跡として特定し、軌跡内の複数のクラスタに対して特定された局所特徴に基づいて、オブジェクトのためのクラスタベース分類器を特定し、軌跡に対して特定された複数の大域特徴に基づいて、オブジェクトのための軌跡ベース分類器を特定し、クラスタベース分類器が特定されたクラスタ上の情報量に基づいてクラスタベース分類器を重み付けし、且つ、重みを情報量の増加に伴って増加させながら、オブジェクトを分類するためにクラスタベース分類器及び軌跡ベース分類器を統合し、及び、オブジェクトの分類に基づいて、経路に沿って車両を走行させる。【選択図】図3

Description

本明細書に開示する複数の実施形態は、概して、車両用自動運転システムに関し、特に、自動運転システム内の3Dセンサにより検出されたオブジェクトの分類に関する。
いくつかの車両は、人間の運転者による最低限の入力又は入力なしに走行経路に沿って車両を走行させる、操作モードを有する自動運転システムを含む。これらの車両における自動運転システムは、オブジェクトを回避しながら走行経路に沿って車両を走行させる方法を計画するために、複数のオブジェクトの存在を含めて車両の周辺環境に関する情報を検出し、検出した情報を処理するように構成される。
実際の交通事情では、この検出及び計画の一部として、複数のオブジェクトの中でも他の車両だけでなく歩行者及び二輪車を考慮するために、車両の周辺環境内の複数のオブジェクトを分類することがこの自動運転システムにとって理想である。車両の周辺環境内の複数のオブジェクトについて自動運転システムの分類を向上させることは、目下の研究課題である。
本明細書の開示は、自動運転のためのシステム及び方法である。一態様では、自動運転の方法は、3Dセンサを用いて、車両の周辺環境内のオブジェクトを示す複数の3次元点を生成することを含む。この方法は、コンピュータ装置を用いて、複数の3次元点から、車両の周辺環境内の同じオブジェクトを示す複数の3次元点クラスタ(3次元点群)の時系列を一つの軌跡として特定し、この軌跡における複数のクラスタに対して特定された局所特徴に基づいて、オブジェクトのためのクラスタベース分類器を特定し、この軌跡に対して特定された大域特徴に基づいて、オブジェクトのための軌跡ベース分類器を特定し、クラスタベース分類器が特定されたクラスタ上の情報量に基づいてクラスタベース分類器を重み付けし、且つ、この重みを情報量の増加に伴って増加させながら、オブジェクトを分類するためにクラスタベース分類器及び軌跡ベース分類器を統合し、及び、オブジェクトの分類に基づいて、経路に沿って車両を走行させることをさらに含む。
これら及び他の態様は、以下の追加的な詳細に説明される。
本実施形態の様々な特徴、利点及び他の使用は、以下の詳細な説明及び図面を参照することにより、より明確になる。
3Dセンサにより動作がサポートされる自動運転システムを含む車両の概略図。 検出モジュール及び計画モジュールを有する自動運転システム用検出モジュール50のシステム構成の概略図。 検出モジュールにおける分類スレッドの動作プロセスを示すフローチャート。 (A)及び(B)は、1つの車両を示す1つの3次元点群の主方向の予測の例を示す図。 異なるオブジェクトを示す3次元点群の回転画像の例を示す図。 (A)〜(C)は、1つの車両を示す1つの3次元点群の複数の仮想的な正投影画像の例を示す図。 1つの軌跡の複数の3次元点群のための局所特徴と、前記軌跡のための大域特徴との間の確率論的独立性を符号化するグラフィカルモデルの一例。 1つのクラスタベース分類器のための重み係数の例の複数の態様を示す図。 軌跡のための1つの分類器の信頼度の経時変化の複数の態様を示す図。
本開示は、自動運転システムを有する車両を説明する。自動運転システムは、動作中、複数の3次元点群の時系列により示される車両の周辺環境内のオブジェクトを分類し、オブジェクトの分類に基づいて車両を経路に沿って走行させる。自動運転システムは、軌跡に基づく分類器(軌跡ベース分類器)及びクラスタ(群)に基づく分類器(クラスタベース分類器)の両方に基づいてオブジェクトを分類するが、複数のクラスタから特定された複数のクラスタ上の情報量に基づいて複数のクラスタベース分類器に重みを付ける。
図1は、自動運転システム20を有する車両10を示す。自動運転システム20の動作は、LIDARセンサ22及び1又は複数の付加的な補助センサ24によりサポートされる。LIDARセンサ22及び補助センサ24は、車両10に取り付けられ、車両10の周辺環境に多視点を有するように配置される。車両10は、移動体プラットフォームの非限定的な例として提供されるが、自動運転システム20が他の移動体プラットフォームにも実装され得ると理解される。追加的に、LIDARセンサ22は、3Dセンサの非限定的な例として提供されるが、この記載が他の3Dセンサの原理にも適用可能であることが理解される。
LIDARセンサ22は、車両10の周辺環境を走査し、複数の信号を生成するように構成される。複数の信号は、車両10の周辺環境内の複数のオブジェクトを示す複数の3次元点を含むが、これらに限定されない。
一般に、LIDARセンサ22は、送信器及び受信器を有することができる。送信器は、レーザ信号(例、レーザ光エネルギー)を送信するために動作可能な1つの要素又は複数の要素のグループとなり得る。一例として、送信器は、レーザ、レーザ距離計、LIDAR及び/又はレーザスキャナであってもよい。レーザ信号は、任意の適切な特性を有してもよい。1又は複数の方式では、レーザ信号は、電磁スペクトルの任意の適切な領域から、例えば、電磁スペクトルの紫外領域、可視領域又は近赤外領域からくるものであってもよい。レーザ信号は、目に安全であってもよい。
レーザ信号は、車両10の周辺環境に送信されてもよく、レーザ信号の経路内に位置する環境内の複数のオブジェクトに作用する。レーザ信号は、例えば、車両10の垂直(Z)軸の周囲を360度連続回転するように送信される。一般に、複数のレーザ信号がオブジェクトに作用すると、複数のレーザ信号の一部は、LIDARセンサ22に(例、反射により)返送される。返送されたレーザ信号(返りのレーザ信号)の一部は、受信器によりLIDARセンサ22で取得されることができる。受信器は、1又は複数の光検出器、固体光検出器、フォトダイオード、光電子増倍管又はこれらの任意の組合せであるか、又は、これらを含んでもよい。
返りのレーザ信号を取得することに対応して、LIDARセンサ22は、車両10の周辺環境内の複数のオブジェクト又はこれらがないことを示す複数の信号を出力するように構成されてもよい。LIDARセンサ22は、その位置を特定するための全地球測位システム(GPS)又は他の測位システム、及び、その姿勢を特定するための慣性計測装置(IMU)を含めてもよい。この構成によれば、信号は、返りのレーザ信号が受信された点の空間位置、即ち、レーザ信号が作用したオブジェクトの点の空間位置を示す3次元点を含めてもよい。LIDARセンサ22は、返りのレーザ信号と関連するLIDARセンサ22の位置及び姿勢と同様に、LIDARセンサ22から点への距離に基づいてオブジェクトの点の空間位置を測定してもよい。点までの距離は、例えば、TOF(Time of Flight)方式を使用して、返りのレーザ信号により測定されてもよい。また、信号は、返りの信号が受信されない空間位置、即ち、さもなければレーザ信号が作用していただろうこれらの空間位置にオブジェクトの点がないことを示してもよい。
信号は、返りのレーザ信号の他の態様をさらに示してもよい。即ち、代わりに入射レーザ信号が作用したオブジェクトの点の他の特性を示してもよい。返りのレーザ信号のこれらの態様は、例えば、これらの強さ又は反射性、又は、これらの任意の組合せを含めることができる。
また、補助センサ24は、車両10の周辺環境を走査し、車両10の周辺環境内に複数のオブジェクト又はこれらがないことを示す複数の信号を生成するように構成されてもよい。
補助センサ24は、車両10の周辺環境内にLIDARセンサ22の視点と共通する多視点を個別に又は共同で有してもよい。一般に、補助センサ24は、車両10の周辺環境から光又は他の電磁エネルギーを得るように構成された1又は複数の画像センサであることができ、又は、を含むことができる。これらの画像センサは、光検出器、固体光検出器、フォトダイオード若しくは光電子増倍管又はこれらの任意の組合せであるか、又は、これらを含んでもよい。オプションとして、環境は、LIDARセンサ22の送信器により照らされてもよい。光又は他の電磁エネルギーを得ることに対応して、補助センサ24は、複数のオブジェクト又はこれらがないことを示す複数の信号を出力するように構成されてもよい。
車両10は、1又は複数の通信リンク32を介してLIDARセンサ22及び補助センサ24と通信可能に接続されたコンピュータ装置30を含む。コンピュータ装置30と、LIDARセンサ22及び補助センサ24の一方又は両方とがこの自動運転システム20専用であってもよいが、これらの一部又は全てが車両10の他の複数のシステムの動作をサポートし得ることが想定される。
コンピュータ装置30は、メモリ42と通信可能に接続されたプロセッサ40を含めてもよい。プロセッサ40は、機械可読命令を実行可能な任意のデバイスを含めてもよく、機械可読命令は、非一過性コンピュータ可読媒体、例えば、メモリ42に記憶されてもよい。プロセッサ40は、コントローラ、集積回路、マイクロチップ、コンピュータ、及び/又は他の任意のコンピュータ装置を含めてもよい。メモリ42は、データ及びアルゴリズムを記憶することに適した如何なる種類のコンピュータ可読媒体を含めてもよい。例えば、メモリ42は、RAM、ROM、フラッシュメモリ、ハードドライブ、及び/又は、機械可読命令を記憶可能な任意のデバイスを含めてもよい。
また、コンピュータ装置30は、プロセッサ40とLIDARセンサ22と補助センサ24との間の通信を容易にするための入出力インターフェース44を含めてもよい。コンピュータ装置30は、1つのプロセッサ40及び1つのメモリ42を含めるものとして概略的に図示されているが、実際のコンピュータ装置30は、複数の要素を含めてもよく、各要素は、1又は複数のメモリ42及び/又はプロセッサ40を有し、1又は複数の他の要素と互いに通信可能に接続されてもよい。コンピュータ装置30は、別個のスタンドアローン型ユニットであってもよく、又は、車両10用中央制御システムの一部として構成されてもよい。
車両10の自動運転システム20及び他のシステムのための様々なアルゴリズム及びデータは、コンピュータ装置30のメモリ42の全部又は一部として内在してもよい。自動運転システム20の動作中、LIDARセンサ22及び補助センサ24により出力された信号は、メモリ42に記憶される。以下に追加的な詳細が説明されるように、自動運転システム20のためのアルゴリズム及びデータは、検出モジュール50及び計画モジュール52を含む。
自動運転システム20のための様々なアルゴリズム及びデータは、車両10に搭載されたコンピュータ装置30を参照して単純に説明されたが、車両10から独立したコンピュータ装置のメモリの全部又は一部に内在してもよいと理解される。また、これらの場合、車両10は、コンピュータ装置30と移動体ネットワーク、例えば、セルラーネットワークとの間でデータを無線通信するために様々に構成された通信ハードウェアを有する統合型移動体通信システム60を含むことができる。移動体通信システム60及び移動体ネットワークは協働して、移動体ネットワークに接続された他の装置との無線通信をコンピュータ装置30に可能にさせる。移動体ネットワークに接続された他の装置は、例えば、1又は複数のプロセッサ及び1又は複数のメモリを含むコンピュータ装置等であるか又はこれを含み得るリモートサーバ、又は、1又は複数のプロセッサ及び1又は複数のメモリを含むコンピュータ装置を有するオブジェクト検出システムを同様に含み得る他の車両である。
車両10の移動体通信システム60は、移動体ネットワークを介してデータを送信及び受信するように構成された統合型移動体ネットワークトランシーバ62を含めてもよい。移動体ネットワークトランシーバ62は、プロセッサ40とメモリ42と移動体ネットワークトランシーバ62との間での通信を容易にする入出力インターフェース44を用いて、移動体ネットワークトランシーバ通信リンク64を介してコンピュータ装置30と通信可能に接続されてもよい。移動体ネットワークトランシーバ62は、コンピュータ装置30から移動体ネットワークにデータを無線送信するための送信器及び移動体ネットワークからコンピュータ装置30にデータを無線送信するための受信器を含む。
車両10の自動運転システム20の検出モジュール50でのオブジェクト検出を実行する全ての操作は、図2を参照して説明される。
図のように、自動運転システム20の検出モジュール50は、認知・軌跡スレッド及び分類スレッドを有する。認知・軌跡スレッドでは、LIDARセンサ22が車両10の周辺環境を走査することに伴い、車両10の周辺環境内の複数のオブジェクトを示し且つLIDARセンサ22により出力される3次元点及び他の信号が受信される。また、各車線及び関連する交通規則(例、速度制限、交差点及び環状交差点での各道路の優先度、停止線位置)の位置と共に、3D道路ネットワークを含むデジタル地図が受信されてもよい。
認知・軌跡スレッドにおいて、車両10の周辺環境内のオブジェクトを示す3次元点は、複数のタイムステップに亘って受信され、各タイムステップが、例えば、車両10の垂直(Z)軸の周囲の360度回転に対応する。障害物を示す3次元点と、他のオブジェクト、例えば、地面を示す3次元点との間を区別するため、複数の3次元点はタイムステップ毎に評価されてもよく、及び、車両10の周辺環境内の各オブジェクトを示す複数の3次元点群に集約されてもよい。クラスタリングは、例えば、マルコフ確率場に基づくクラスタリングを実行してもよい。
1つのタイムステップでの車両10の周辺環境内のオブジェクトを示す所定の3次元点群は、以前の複数のタイムステップでの車両10の周辺環境内の同じオブジェクトを示す3次元点群と関連する。複数のタイムステップに亘って、車両10の周辺環境内の同じオブジェクトを示す3次元点群の時系列、いわゆる軌跡が生成される。軌跡の生成は、例えば、パーティクル及びカルマンフィルタリングの両方により又はから実行されてもよい。一旦生成された複数の軌跡は、その後のイテレーションにより、車両10の周辺環境内の同じオブジェクトを示す新しい3次元点群に更新される。
認知・軌跡スレッド及び分類スレッドは、並列に実行し、及び、同時に発生する結果キュー及び要求キューを介して通信する。結果キューは、分類スレッドから認知・軌跡スレッドに分類結果を渡すために使用され、一方で要求キューには、認知・軌跡スレッドにより分類結果が必要である軌跡が入れられる。
この構成では、検出モジュール50は、エニタイム・システムを実行してもよい。エニタイム・システムにおいて、計画モジュール52へのリアルタイム判定の出力を確保するために、分類スレッドの分析コストにかかわらず、分類スレッドの結果は優先され及び認知・軌跡スレッドに統合される。
エニタイム・システムを実行するために、認知・軌跡スレッドにおいて、各軌跡は、要求キューに追加される前に優先順位用のスコアが付与される。例えば、車両10の正面且つ最近傍の3次元点群を有する軌跡は、最も高い優先度が与えられる。これらの場合、スコアが付与された各軌跡は、車両10から軌跡の3次元点群までの単純な距離に、3次元点群が車両10の後ろにある場合にペナルティ(例、50メートル)を加算したものであり、より低いスコアを有する軌跡がより高いスコアを有する軌跡よりも優先される。選択的又は追加的に、車両10の周辺環境の特定の対象領域内に3次元点群を有する軌跡又は未分類のオブジェクトを示す3次元点群の軌跡は、例えば、他の軌跡よりも優先され得る。
分類スレッドは、要求キューから最も優先度が高い軌跡を取り出し、軌跡の3次元点群の特徴数を割り出し、軌跡の3次元点群のための分類器を特定する。また、以下に追加的な詳細を説明するように、分類スレッドは、最も可能性が高いオブジェクトクラスに基づいて軌跡の3次元点群により示されるオブジェクトを分類し、分類器及びオブジェクトの分類結果を反映するオブジェクトクラスラベルを結果キューに入れる。
認知・軌跡スレッドが1つの軌跡を生成した後、結果キューから分類スレッドの結果を用いて3次元点群を更新する。次に、全ての未処理の軌跡は、要求キューから削除され、及び、次の軌跡の3次元点群は、要求キューに押し込まれる。次に、認知・軌跡スレッドは、複数の軌跡のそれぞれを計画モジュール52に送る。複数の軌跡のそれぞれは、関連のヒストリを有するので、分類スレッドの過去の結果は、所定のイテレーションで処理されなかった複数の軌跡に対して使用されてもよい。
一般に、特徴xを有する1つの軌跡tに対して、分類器は、1対全クラスの対数オッズとして表されてもよい。
Figure 2017056935
Yはオブジェクトクラスラベルであり、Cは離散オブジェクトクラスである。以下に追加的な詳細が説明されるように、これらの対数オッズは、オブジェクトクラス毎の確率を含むベクトルを用いて確率に変換可能であり、
Figure 2017056935
省略すると、
Figure 2017056935
であり、所定のオブジェクトクラスはそれぞれ、歩行者オブジェクトクラス(C)、二輪車オブジェクトクラス(C)、車両オブジェクトクラス(C)及び背景オブジェクトクラス(Cbg)である。このベクトルは、典型的な軌跡情報、例えば、オブジェクトの位置、速度及びサイズと同様、軌跡の3次元点群により示されるオブジェクトにとって最も可能性が高いオブジェクトクラスと共に、計画モジュール52に渡される。
自動運転システム20による車両10の自動運転において、分類スレッドからの分類結果は、実世界の様々な交通状況であって、一方で人間の運転者が直面する、例えば、歩行者、二輪車及び他の車両の間の介入を計画モジュール52に優先的に取組ませる。車両10と歩行者と二輪車との間の介入に取組むことは、以下の観点から特に重要である。即ち、自動車10の所有者と歩行者と二輪車の操作者の安全性を保障するための要件、車両10と歩行者と二輪車との間の大きな速度差及び急激な相対横運動の可能性、及び、歩行者及び二輪車の操作者の相対的脆弱性の観点から特に重要である。中でも、車両10の周辺環境内のこれらの及び他の複数のオブジェクトの適切な分類は、例えば、オブジェクトを通過する間にどの程度のゆとりをオブジェクトに与えるかの決定、又は、そもそもオブジェクトを通過するか否かの決定に際して、使用される計画モジュール52に情報を提供してもよい。
車両10の自動運転システム20の検出モジュール50における分類スレッドのためのプロセス100の動作は、図3に示される。
以下に説明されるように、プロセス100は、1つの軌跡の3次元点群の局所特徴又はクラスタ特徴に基づいて特定される複数のクラスタベース分類器と、その軌跡自体の大域特徴又は全体特徴に基づく1つの軌跡ベース分類器との組合せとなる。
一般に、クラスタ特徴は、中でもLIDARセンサ22の距離、視点及び方向を変化させながら、1つのタイムステップTから次に遷移する、軌跡の3次元点群に基づいている。クラスタ特徴は、例えば、軌跡の3次元点群のアピアランスに対する全部又は一部に対応してもよい。軌跡に対して、タイムステップ1からTに亘る、局所又はクラスタの特徴セットZ1:Tがある。
一般に、全体特徴は、軌跡の3次元点群により示されるオブジェクトのよりハイレベルな要約統計である。全体特徴は、例えば、軌跡の3次元点群により示されるオブジェクトの動作に対する全部又は一部に対応してもよい。軌跡に対して単一の大域又は全体の特徴セットωがある。クラスタ特徴セットZ1:T及び単一の全体特徴セットωの両方を用いると、T時点の軌跡の特徴セットは、X=Z1:T,ωである。
工程102では、1つの軌跡の3次元点群の局所特徴又はクラスタ特徴が特定され、及び、工程104では、その軌跡自体の大域特徴又は全体特徴が特定される。プロセス100では、その軌跡に対して、結果の特徴セット毎に1つの分類器が対応するので、T個のクラスタベース分類器及び1つの軌跡ベース分類器がオブジェクトの最終分類に組み込まれる。
1つの軌跡の3次元点群の局所特徴又はクラスタ特徴は、回転画像から特定されてもよく、例えば、軌跡の3次元点群の仮想的な正投影画像から算出される勾配方向ヒストグラム(HOG)特徴であってもよい。一般に、この特定では、軌跡の3次元点群を一貫して指向させる必要があり、一貫して指向させるには、軌跡の3次元点群のそれぞれの主方向(Principle Direction)を推定することにより達成可能である。
車両10が比較的平坦な地面の上を走行しながら、LIDARセンサ22が車両10の周辺環境を走査するにつれて、Zは上方向と想定されることができ、及び、主方向はXY平面で検索されることができる。所定の3次元点群の主方向を推定するために、3次元点はXY平面に投影されてもよく、及び、3次元点が最も整列する(例、10cm以内)方向を見つけるために、RANSAC(ランダム・サンプル・コンセンサス)アルゴリズムが全ての3次元点について実行されてもよい。例えば、複数の3次元点の中、閾値50%が使用されてもよい。図4(A)には、側方から見たときの車両を示す3次元点群の主方向の推定の一例であって、3次元点が最も整列する主方向PDが示されている。
3次元点群の主方向の推定は、歩行者を示す3次元点群と同様に、側方から見たときの車両及び二輪車を示す3次元点群には、一般に特に有効であることが分かる。図4(A)に示す側方から見たときの車両を示す3次元点群の主方向PDの推定と、図4(B)に示す後方から見たときの車両を示す3次元点群の主方向PDの推定との比較から分かるように、3次元点が最も整列する主方向は実際の車両の向きと直交することから、後方から見たときの車両を示す3次元点群に対する3次元点群の主方向の推定は、時々失敗する。しかしながら、3次元点群の主方向の同じ推定が学習及び分類の両方で使用される場合、学習器は、分類において両方の視点から軌跡の3次元点群の局所特徴を考慮することができる。
図5には、木、二輪車、セダン及びステーションワゴンの回転画像の例が示される。例示の及び別の回転画像を生成するために、仮想の画像平面は、オブジェクトを示す所定の軌跡の3次元点群の中央上面、正面中央及び側面に最も近い3次元点の周辺をZ軸を中心に回転してもよく、途中で当たる全ての3次元点をビンに累算する。
図6(A)〜(C)にはそれぞれ、3次元点群の正面、側面及び上面から見たときの車両を示す3次元点群の仮想的な正投影画像の例が示される。仮想的な正投影画像のそれぞれは、3次元点群の主方向に沿って指向され且つ境界ボックスの中心にある3次元点群の正投影である。
軌跡の3次元点群の他の局所特徴又はクラスタ特徴は、軌跡の3次元点群に対して特定されてもよい。例えば、3次元点群の推定された主方向は、3次元点群の境界ボックスを正しい方向に置くために使用されてもよく、及び、局所特徴は、3次元点群の境界ボックスの体積と共に、例えば、3次元点群の境界ボックスの高さ、幅及び長さを含めてもよい。追加的又は選択的に、3次元点群の境界ボックスの重心が特定されてもよく、局所特徴は、例えば、LIDARセンサ22から又は一方で車両10から、境界ボックスの重心までの距離を含めてもよい。
軌跡の大域特徴又は全体特徴は、軌跡の3次元点群により示されるオブジェクトの速度を示す軌跡の3次元点群の速度であってもよく、又は、を含めてもよい。結果として、軌跡の大域特徴は、例えば、軌跡の3次元点群の最高速度又は軌跡の3次元点群の最高速度、又は、両方を含めてもよい。選択的又は追加的に、軌跡の大域特徴は、軌跡の3次元点群により示されるオブジェクトの加速度を示す軌跡の3次元点群の加速度であってもよく、又は、を含めてもよい。結果として、軌跡の大域特徴は、例えば、軌跡の3次元点群の最大加速度又は軌跡の3次元点群の最高加速度、又は、両方を含めてもよい。軌跡のためのこれら及び他の大域特徴は、軌跡の3次元点群の重心について、例えば、カルマンフィルタを使用して特定されてもよい。
工程108では、どの局所特徴又はクラスタ特徴が、及び、どの大域特徴又は全体特徴が、複数のオブジェクトが属する歩行者オブジェクトクラス(c)、二輪車オブジェクトクラス(c)、車両オブジェクトクラス(c)及び背景オブジェクトクラス(cbg)の予測であるかが学習される。図7は、1つの軌跡の3次元点群の局所特徴又はクラスタ特徴及びその軌跡の大域特徴又は全体特徴の間の確率論的独立性を記号化したグラフィカルモデルの一例である。工程108での学習は、決定木に基づくGentle ADABoostを実行してもよい。
工程110で、クラスタベース分類器は1つの軌跡の3次元点群の局所特徴又はクラスタ特徴に基づいて特定され、及び、工程112で、軌跡ベース分類器はその軌跡自体の大域特徴又は全体特徴に基づいて特定される。
クラスタベース分類器及び軌跡ベース分類器は、一般に、軌跡の3次元点群により示されるオブジェクトが属する歩行者オブジェクトクラス(C)、二輪車オブジェクトクラス(C)、車両オブジェクトクラス(C)及び背景オブジェクトクラス(Cbg)の予測であってもよい。
一例では、クラスタベース分類器及び軌跡ベース分類器は、オブジェクトが歩行者オブジェクトクラス(C)、二輪車オブジェクトクラス(C)、車両オブジェクトクラス(C)及び背景オブジェクトクラス(Cbg)の中の1つに属する、1対多の対数オッズとして表されてもよい。この例によれば、一般に、強分類器Hは、K個の弱分類器hの合計値により与えられてもよい。
Figure 2017056935
弱分類器hは、分岐に局所特徴及び大域特徴を使用する深さ制限のある回帰木である。この出力実数値及び弱分類器hの合計値は、離散出力信号(H(x,c))とは対照的に直接使用されてもよい。極限において、弱分類器hの合計値は対数オッズL(x,c)に収束する。OpenCVに実装されるGentle AdaBoostを使用して、歩行者オブジェクトクラス(C)、二輪車オブジェクトクラス(C)及び車両オブジェクトクラス(C)のためのクラスタベース分類器及び軌跡ベース分類器の両方についてこれらの対数オッズが特定されてもよい。
工程112で、統合されたクラスタベース分類器及び軌跡ベース分類器から明らかである最も可能性が高いオブジェクトクラスに基づいて、軌跡の3次元点群により示されたオブジェクトを分類するために、クラスタベース分類器及び軌跡ベース分類器は統合される。
長さTの軌跡の対数オッズを特定するために、ある特定のオブジェクトクラスCについて、T個のクラスタベース分類器及び1個の軌跡ベース分類器から生じるT+1個の分類器がある。以下に説明されるように、例えば、3次元点群から特定された3次元点群の情報量に基づいてクラスタベース分類器に重み付ける正規化離散ベイズフィルタ(DBF)の変動量を使用して、これらは統合されてもよい。
表記を単純化するため、その組合せは、1つのオブジェクトクラスCに対して説明され、及び、オブジェクトクラスの表記は、以下省略される。結果として、対数オッズ比はL(x)である。以下に使用されるように、Lは、事前オッズの対数であり、
Figure 2017056935
と等しく、L は、クラスタベース分類器の事前オッズの対数の経験予測値であり、L は、軌跡ベース分類器の事前オッズの対数の経験予測値であり、Hは、軌跡の3次元点群の局所特徴又はクラスタ特徴に対して特定された対数オッズを返すクラスタベース分類器であり、及び、Hは、軌跡の大域特徴又は全体特徴に対して特定された対数オッズを返す軌跡ベース分類器である。
図7のグラフィカルモデルの例は、軌跡の3次元点群の局所特徴又はクラスタ特徴及び軌跡の大域特徴又は全体特徴の間での条件付き独立性を前提とするが、より複雑なモデルが以下に説明される。しかしながら、初めにこの条件付き独立性を前提として、軌跡の3次元点群の局所特徴及びその軌跡の全タイムステップ(1からTまで)に亘る軌跡の大域特徴の全てを考慮し、ベイズ定理を使用して対数オッズL(ω,Z1:T)を割り出す。
Figure 2017056935
これは、軌跡の長さに応じて軌跡ベース分類器の信頼度に非均一な重みを付ける効果がある。追加する正規化条件は、
Figure 2017056935
である。
これは、クラスタベース分類器毎に均一な重みを付ける効果がある。クラスタベース分類器が軌跡の3次元点群により示されるオブジェクトをどのオブジェクトクラスに属するかについて、全てのケースを正確に予測したならば正確であろうが、クラスタベース分類器の予測精度は、3次元点群から特定された3次元点群の情報量が増えるにつれて急激に向上することが分かっている。多くの例では、3次元点群から所定のクラスタベース分類器が特定された3次元点群の情報量は、クラスタ内の3次元点の量であるか又はと関連する。この例又は他の例では、これらの3次元点群の情報量が増加することは、車両10及び3次元点群により示されるオブジェクトの間でより近似する結果となるかもしれない。
結果として、重み係数αがクラスタベース分類器に適用されてもよい。即ち、特定された3次元点群の情報量が減少するにつれてクラスタベース分類器に低い重みを、又は、特定された3次元点群の情報量が増加するにつれてクラスタベース分類器に高い重みを、適用してもよい。この場合、
Figure 2017056935
である。図8を適宜参照して示すように、所定のクラスタベース分類器用の重み係数αは、
Figure 2017056935
により3次元点群から割り出され、3次元点群の情報量が増加するにつれて増加してもよい。nは時間tでのクラスタ内の3次元点の数であり、nαはαが3次元点の数に伴い増加する速さを制御するパラメータである。図8において、nα=250、0≦α≦1であり、n=nαのときα=0.5である。
追加的又は選択的に、閾値は、3次元点群から所定のクラスタベース分類器が特定された3次元点群の情報量に対して定義且つ実行可能である。これらの閾値は、例えば、クラスタ内の3次元点の量(例、25個の3次元点)、車両10及び3次元点群により示されるオブジェクトの間の近接度(例、30メートル)又はこれら両方について定義され且つ実行されてもよく、閾値に達しない場合、例えば、クラスタベース分類器と関連する対数オッズをゼロに設定することにより、クラスタベース分類器をゼロに重み付けできる。
歩行者オブジェクトクラス(C)、二輪車オブジェクトクラス(C)、車両オブジェクトクラス(C)及び背景オブジェクトクラス(Cbg)の説明に再び戻ると、特徴ω、Z1:Tを有する軌跡及びタイムステップのそれぞれについて、上記の分類フレームワークは、歩行者オブジェクトクラス(C)、二輪車オブジェクトクラス(C)及び車両オブジェクトクラス(C)に対して適用されてもよく、1対多の対数オッズは、
Figure 2017056935
で与えられ、歩行者オブジェクトクラス(C)、二輪車オブジェクトクラス(C)及び車両オブジェクトクラス(C)の中から、軌跡の3次元点群により示されるオブジェクトが属するオブジェクトクラスを予測する。対数オッズは、
Figure 2017056935
を解くことにより、歩行者オブジェクトクラス(C)、二輪車オブジェクトクラス(C)及び車両オブジェクトクラス(C)の中から、軌跡の3次元点群により示されるオブジェクトが属するオブジェクトクラスの確率に変換されてもよい。背景(Cbg)オブジェクトクラスは、
Figure 2017056935
である。
分類器によるこれらの結果を用いて、軌跡の3次元点群により示されるオブジェクトは、最も可能性のあるオブジェクトクラスに属するものとして分類されてもよい。工程114で、計画モジュール52は、オブジェクトを回避しながらオブジェクトの分類に基づいて走行経路に沿って車両10をどう走行させるかを計画してもよく、及び、車両10の自動運転システム20は、計画に従って経路に沿って車両10を走行させることができる。
図9は、分類信頼度の経時変化であって、軌跡の3次元点群により示されるオブジェクトが二輪車である場合の軌跡の例を示す。歩行者オブジェクトクラス(C)、二輪車オブジェクトクラス(C)、車両オブジェクトクラス(C)及び背景オブジェクトクラス(Cbg)の各々について、実線は分類器からの統合された結果の信頼度を示し、一方で破線はクラスタベース分類器の信頼度、及び、一点鎖線は軌跡ベース分類器の信頼度を示す。最初の120タイムステップではクラスタ内に3次元点がほぼ無いため(即ち、25個より少ない)、軌跡ベース分類器のみがオブジェクトの分類に寄与する。オブジェクトは、最初の40タイムステップで二輪車として当初分類されるが、次の80タイムステップで82メートル離れた車両として誤分類される。即ち、オブジェクトは、クラスタベース分類器を使用するための十分な3次元点が存在する40メートルの距離の地点まで誤分類される。その距離の地点では、後にいくつかのクラスタが誤分類されるにもかかわらず、分類器の統合された結果において、二輪車(C)オブジェクトクラスが優勢となり且つ表示され続ける。
明示された本発明の特徴及び条件は、特定の実施形態と関連して説明されてきたが、本発明は、開示した実施形態に限定されるものではなく、逆に、添付のクレームの精神及び範囲内に包含する様々な修正及び同様の変更を網羅することを意図すると理解される。その範囲は、法の下認められる全ての変更及び同様の構造を包含するように、広い解釈が許容される。

Claims (18)

  1. 自動運転の方法であって、
    3Dセンサを用いて、車両の周辺環境内の複数のオブジェクトを示す複数の3次元点を生成すること、及び、
    コンピュータ装置を用いて、
    前記複数の3次元点から、前記車両の周辺環境内の前記同じオブジェクトを示す複数の3次元点クラスタの時系列を一つの軌跡として特定し、
    前記軌跡内の前記複数のクラスタに対して特定された複数の局所特徴に基づいて、前記オブジェクトのためのクラスタベース分類器を特定し、
    前記軌跡に対して特定された複数の大域特徴に基づいて、前記オブジェクトのための軌跡ベース分類器を特定し、
    前記クラスタベース分類器が特定されたクラスタ上の情報量に基づいて前記クラスタベース分類器を重み付けし、且つ、前記重みを情報量の増加に伴って増加させながら、前記オブジェクトを分類するために前記クラスタベース分類器及び前記軌跡ベース分類器を統合し、及び
    前記オブジェクトの分類に基づいて、経路に沿って前記車両を走行させること、
    を含む方法。
  2. 前記いずれかの請求項に記載の自動運転の方法であって、前記クラスタ上の情報量は、前記クラスタから前記クラスタベース分類器が特定された前記クラスタ内の3次元点の量である、方法。
  3. 前記いずれかの請求項に記載の自動運転の方法であって、クラスタベース分類器が特定された前記クラスタからの情報量が閾値を下回る場合、前記クラスタベース分類器はゼロに重み付される、方法。
  4. 前記いずれかの請求項に記載の自動運転の方法であって、各クラスタベース分類器は、複数のオブジェクトクラスの中から前記オブジェクトが属するオブジェクトクラスの予測を含む、方法。
  5. 前記いずれかの請求項に記載の自動運転の方法であって、各クラスタベース分類器は、複数のクラスの中から前記オブジェクトが属する1つのクラスの1対多の対数オッズ又は複数のクラスの中から前記オブジェクトが1つに属する確率のうち、少なくとも1つを含む、方法。
  6. 前記いずれかの請求項に記載の自動運転の方法であって、各軌跡ベース分類器は、複数のオブジェクトクラスの中から前記オブジェクトが属するオブジェクトクラスの予測を含む、方法。
  7. 前記いずれかの請求項に記載の自動運転の方法であって、各軌跡ベース分類器は、複数のクラスの中から前記オブジェクトが属する1つのクラスの1対多の対数オッズ又は複数のクラスの中から前記オブジェクトが1つに属する確率のうち、少なくとも1つを含む、方法。
  8. 前記いずれかの請求項に記載の自動運転の方法であって、前記軌跡ベース分類器及び前記重み付き前記クラスタベース分類器の組合せは、複数のクラスの中から前記オブジェクトが属するオブジェクトクラスの確率を含む、方法。
  9. 前記いずれかの請求項に記載の自動運転の方法であって、前記軌跡ベース分類器及び前記重み付きクラスタベース分類器の組合せは、複数のクラスの中から前記オブジェクトが属する1つのクラスの1対多の対数オッズ又は複数のクラスの中から前記オブジェクトが1つに属する確率のうち、少なくとも1つを含む、方法。
  10. 前記いずれかの請求項に記載の自動運転の方法であって、前記コンピュータ装置を用いて、前記軌跡内の前記複数のクラスタに基づいて前記局所特徴を特定することをさらに含む、方法。
  11. 請求項10に記載の自動運転の方法であって、前記局所特徴は、前記軌跡内の前記複数のクラスタのアピアランスに基づく、方法。
  12. 前記いずれかの請求項に記載の自動運転の方法であって、前記コンピュータ装置を用いて、前記軌跡に基づいて前記大域特徴を特定することをさらに含む、方法。
  13. 請求項12に記載の自動運転の方法であって、前記大域特徴は、前記軌跡内の前記複数のクラスタの前記動作に基づく、方法。
  14. 前記いずれかの請求項に記載の自動運転の方法であって、
    前記コンピュータ装置を用いて、前記軌跡内の各クラスタに対して、
    前記クラスタの境界ボックスを特定し、及び、
    前記クラスタのための局所特徴として前記境界ボックスの高さ、幅及び長さを特定すること、
    をさらに含む、方法。
  15. 前記いずれかの請求項に記載の自動運転の方法であって、
    前記コンピュータ装置を用いて、前記軌跡内の各クラスタに対して、
    前記クラスタの境界ボックスを特定し、及び、
    前記クラスタのための局所特徴として前記境界ボックスの体積を特定すること、
    をさらに含む、方法。
  16. 前記いずれかの請求項に記載の自動運転の方法であって、
    前記コンピュータ装置を用いて、前記軌跡内の各クラスタに対して、
    前記クラスタの境界ボックスを特定し、
    境界ボックスの前記重心を特定し、及び、
    前記クラスタのための局所特徴として特定された前記境界ボックスの重心に対する距離を特定すること、
    をさらに含む、方法。
  17. 前記いずれかの請求項に記載の自動運転の方法であって、
    前記コンピュータ装置を用いて、前記軌跡に対して、
    前記軌跡内の前記複数のクラスタの速度を特定し、及び、
    前記軌跡のための大域特徴として前記速度を特定すること、
    をさらに含む、方法。
  18. 前記いずれかの請求項に記載の自動運転の方法であって、
    前記コンピュータ装置を用いて、前記軌跡に対して、
    前記軌跡内の前記複数のクラスタの加速度を特定し、及び、
    前記軌跡のための大域特徴として前記加速度を特定すること、
    をさらに含む、方法。
JP2016177291A 2015-09-14 2016-09-12 3dセンサにより検出されたオブジェクトの分類 Active JP6298128B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/852,806 US9576185B1 (en) 2015-09-14 2015-09-14 Classifying objects detected by 3D sensors for autonomous vehicle operation
US14/852,806 2015-09-14

Publications (3)

Publication Number Publication Date
JP2017056935A true JP2017056935A (ja) 2017-03-23
JP2017056935A5 JP2017056935A5 (ja) 2018-02-01
JP6298128B2 JP6298128B2 (ja) 2018-03-20

Family

ID=58017693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016177291A Active JP6298128B2 (ja) 2015-09-14 2016-09-12 3dセンサにより検出されたオブジェクトの分類

Country Status (3)

Country Link
US (1) US9576185B1 (ja)
JP (1) JP6298128B2 (ja)
DE (1) DE102016116029B4 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019035363A1 (ja) 2017-08-18 2019-02-21 株式会社小糸製作所 認識センサおよびその制御方法、自動車、車両用灯具、オブジェクト識別システム、オブジェクトの識別方法
KR20190082065A (ko) * 2017-12-29 2019-07-09 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 포인트 클라우드 데이터를 처리하기 위한 방법 및 장치
KR20190082068A (ko) * 2017-12-29 2019-07-09 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 포인트 클라우드 데이터를 융합하기 위한 방법 및 장치
WO2019176877A1 (ja) 2018-03-15 2019-09-19 株式会社小糸製作所 オブジェクト識別システム、自動車、車両用灯具、オブジェクトの種類の識別方法
WO2019194256A1 (ja) 2018-04-05 2019-10-10 株式会社小糸製作所 演算処理装置、オブジェクト識別システム、学習方法、自動車、車両用灯具
WO2019194255A1 (ja) 2018-04-05 2019-10-10 株式会社小糸製作所 演算処理装置、オブジェクト識別システム、オブジェクト識別方法、自動車、車両用灯具
JP2020515495A (ja) * 2017-03-30 2020-05-28 エージーシー グラス ユーロップAgc Glass Europe 自動運転車のためのガラス
WO2020110802A1 (ja) 2018-11-30 2020-06-04 株式会社小糸製作所 車載用物体識別システム、自動車、車両用灯具、分類器の学習方法、演算処理装置
WO2020110801A1 (ja) 2018-11-30 2020-06-04 株式会社小糸製作所 測距センサおよび車両用灯具、測距方法
JP2022078409A (ja) * 2020-11-13 2022-05-25 株式会社ネクスティエレクトロニクス シミュレーション用のデータ生成装置、方法及びコンピュータプログラム
JP2022543955A (ja) * 2020-06-30 2022-10-17 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド 目標車両の制御方法、装置、電子機器及び記憶媒体
US11597406B2 (en) * 2020-02-19 2023-03-07 Uatc, Llc Systems and methods for detecting actors with respect to an autonomous vehicle

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10121082B2 (en) * 2015-10-07 2018-11-06 Honda Motor Co., Ltd. System and method for providing laser camera fusion for identifying and tracking a traffic participant
WO2017088050A1 (en) * 2015-11-26 2017-06-01 Sportlogiq Inc. Systems and methods for object tracking and localization in videos with adaptive image representation
US9961261B2 (en) 2016-06-20 2018-05-01 Gopro, Inc. Image alignment using a virtual gyroscope model
US10740658B2 (en) * 2016-09-08 2020-08-11 Mentor Graphics Corporation Object recognition and classification using multiple sensor modalities
US10710579B2 (en) * 2017-06-01 2020-07-14 Waymo Llc Collision prediction system
US11392133B2 (en) 2017-06-06 2022-07-19 Plusai, Inc. Method and system for object centric stereo in autonomous driving vehicles
US11573573B2 (en) 2017-06-06 2023-02-07 Plusai, Inc. Method and system for distributed learning and adaptation in autonomous driving vehicles
US11042155B2 (en) * 2017-06-06 2021-06-22 Plusai Limited Method and system for closed loop perception in autonomous driving vehicles
US10713940B2 (en) 2017-10-31 2020-07-14 Waymo Llc Detecting and responding to traffic redirection for autonomous vehicles
US10401862B2 (en) 2017-10-31 2019-09-03 Waymo Llc Semantic object clustering for autonomous vehicle decision making
CN110555449B (zh) * 2018-05-30 2023-03-24 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
US10845818B2 (en) * 2018-07-30 2020-11-24 Toyota Research Institute, Inc. System and method for 3D scene reconstruction of agent operation sequences using low-level/high-level reasoning and parametric models
US10754338B2 (en) 2018-08-14 2020-08-25 GM Global Technology Operations LLC Controlling an autonomous vehicle based upon labels assigned to objects represented in sensor data
US10878282B2 (en) * 2018-10-15 2020-12-29 Tusimple, Inc. Segmentation processing of image data for LiDAR-based vehicle tracking system and method
US10878580B2 (en) 2018-10-15 2020-12-29 Tusimple, Inc. Point cluster refinement processing of image data for LiDAR-based vehicle tracking system and method
US10984540B2 (en) * 2018-10-15 2021-04-20 Tusimple, Inc. Tracking and modeling processing of image data for LiDAR-based vehicle tracking system and method
US10983530B2 (en) * 2018-10-31 2021-04-20 Wipro Limited Method and system for determining an accurate position of an autonomous vehicle
US10891518B1 (en) 2018-12-14 2021-01-12 Waymo Llc Auto labeler
CN109726692A (zh) * 2018-12-29 2019-05-07 重庆集诚汽车电子有限责任公司 基于深度学习的高清摄像头3d目标检测系统
CN111837136A (zh) * 2019-02-19 2020-10-27 深圳市大疆创新科技有限公司 基于本地感测的自主导航以及相关联的系统和方法
US11630209B2 (en) 2019-07-09 2023-04-18 Waymo Llc Laser waveform embedding
EP3795940A1 (de) * 2019-09-19 2021-03-24 sentronics metrology GmbH Vorrichtung und verfahren zur inspektion von flachen objekten und zum erfassen von grenzschichten dieser objekte

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012117528A1 (ja) * 2011-03-01 2012-09-07 トヨタ自動車株式会社 状態推定装置
JP2014089691A (ja) * 2012-10-30 2014-05-15 Google Inc 車両横方向レーン位置決め制御
WO2014201075A1 (en) * 2013-06-14 2014-12-18 Microsoft Corporation Lidar-based classification of object movement

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3516856B2 (ja) * 1998-01-30 2004-04-05 富士重工業株式会社 車外監視装置
JP4239689B2 (ja) 2003-05-30 2009-03-18 スズキ株式会社 車両用警報システム及び車両用警報発生方法
US7522066B2 (en) 2006-02-23 2009-04-21 Rockwell Automation Technologies, Inc. Systems and methods that evaluate distance to potential hazards utilizing overlapping sensing zones
US7720260B2 (en) * 2006-09-13 2010-05-18 Ford Motor Company Object detection system and method
EP2107503A1 (en) * 2008-03-31 2009-10-07 Harman Becker Automotive Systems GmbH Method and device for generating a real time environment model for vehicles
KR100946723B1 (ko) 2008-04-12 2010-03-12 재단법인서울대학교산학협력재단 차량의 조향 방법 및 그 장치
US8744122B2 (en) * 2008-10-22 2014-06-03 Sri International System and method for object detection from a moving platform
FR2953313B1 (fr) * 2009-11-27 2012-09-21 Thales Sa Systeme optronique et procede d'elaboration d'images en trois dimensions dedies a l'identification
CN102685382B (zh) * 2011-03-18 2016-01-20 安尼株式会社 图像处理装置和方法、及移动体防碰撞装置
US8605998B2 (en) * 2011-05-06 2013-12-10 Toyota Motor Engineering & Manufacturing North America, Inc. Real-time 3D point cloud obstacle discriminator apparatus and associated methodology for training a classifier via bootstrapping
DE102011101246A1 (de) 2011-05-11 2012-11-15 Conti Temic Microelectronic Gmbh Redudante objektdetektion für fahrerassistenzsysteme
FR2981772B1 (fr) * 2011-10-21 2017-12-22 Thales Sa Procede de reconstruction 3d d'un objet d'une scene
DE102012014300A1 (de) 2012-07-19 2013-01-17 Daimler Ag Verfahren zur Objekterkennung in einer Umgebung eines Kraftwagens sowie Fahrerassistenzsystem zur Objekterkennung in einer Umgebung eines Kraftwagens
US9383753B1 (en) * 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
US8989944B1 (en) * 2013-11-26 2015-03-24 Google Inc. Methods and devices for determining movements of an object in an environment
US9091558B2 (en) * 2013-12-23 2015-07-28 Automotive Research & Testing Center Autonomous driver assistance system and autonomous driving method thereof
US9664779B2 (en) * 2014-07-03 2017-05-30 GM Global Technology Operations LLC Object classification for vehicle radar systems

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012117528A1 (ja) * 2011-03-01 2012-09-07 トヨタ自動車株式会社 状態推定装置
JP2014089691A (ja) * 2012-10-30 2014-05-15 Google Inc 車両横方向レーン位置決め制御
WO2014201075A1 (en) * 2013-06-14 2014-12-18 Microsoft Corporation Lidar-based classification of object movement

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020515495A (ja) * 2017-03-30 2020-05-28 エージーシー グラス ユーロップAgc Glass Europe 自動運転車のためのガラス
US11754714B2 (en) 2017-08-18 2023-09-12 Koito Manufacturing Co., Ltd. Recognition sensor and control method thereof, automobile, automotive lamp, object recognition system, and object recognition method
WO2019035363A1 (ja) 2017-08-18 2019-02-21 株式会社小糸製作所 認識センサおよびその制御方法、自動車、車両用灯具、オブジェクト識別システム、オブジェクトの識別方法
KR102125958B1 (ko) 2017-12-29 2020-06-24 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 포인트 클라우드 데이터를 융합하기 위한 방법 및 장치
KR20190082068A (ko) * 2017-12-29 2019-07-09 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 포인트 클라우드 데이터를 융합하기 위한 방법 및 장치
KR102198724B1 (ko) * 2017-12-29 2021-01-05 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 포인트 클라우드 데이터를 처리하기 위한 방법 및 장치
KR20190082065A (ko) * 2017-12-29 2019-07-09 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 포인트 클라우드 데이터를 처리하기 위한 방법 및 장치
WO2019176877A1 (ja) 2018-03-15 2019-09-19 株式会社小糸製作所 オブジェクト識別システム、自動車、車両用灯具、オブジェクトの種類の識別方法
US11841435B2 (en) 2018-03-15 2023-12-12 Koito Manufacturing Co., Ltd. Object identification system
WO2019194256A1 (ja) 2018-04-05 2019-10-10 株式会社小糸製作所 演算処理装置、オブジェクト識別システム、学習方法、自動車、車両用灯具
WO2019194255A1 (ja) 2018-04-05 2019-10-10 株式会社小糸製作所 演算処理装置、オブジェクト識別システム、オブジェクト識別方法、自動車、車両用灯具
US11676394B2 (en) 2018-04-05 2023-06-13 Koito Manufacturing Co., Ltd. Processing device for conversion of images
US11341604B2 (en) 2018-04-05 2022-05-24 Koito Manufacturing Co., Ltd. Processing device for object identification
WO2020110801A1 (ja) 2018-11-30 2020-06-04 株式会社小糸製作所 測距センサおよび車両用灯具、測距方法
WO2020110802A1 (ja) 2018-11-30 2020-06-04 株式会社小糸製作所 車載用物体識別システム、自動車、車両用灯具、分類器の学習方法、演算処理装置
US11597406B2 (en) * 2020-02-19 2023-03-07 Uatc, Llc Systems and methods for detecting actors with respect to an autonomous vehicle
JP2022543955A (ja) * 2020-06-30 2022-10-17 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド 目標車両の制御方法、装置、電子機器及び記憶媒体
JP2022078409A (ja) * 2020-11-13 2022-05-25 株式会社ネクスティエレクトロニクス シミュレーション用のデータ生成装置、方法及びコンピュータプログラム

Also Published As

Publication number Publication date
US9576185B1 (en) 2017-02-21
US20170075356A1 (en) 2017-03-16
DE102016116029B4 (de) 2019-05-16
DE102016116029A1 (de) 2017-03-23
JP6298128B2 (ja) 2018-03-20

Similar Documents

Publication Publication Date Title
JP6298128B2 (ja) 3dセンサにより検出されたオブジェクトの分類
US11885910B2 (en) Hybrid-view LIDAR-based object detection
US10152059B2 (en) Systems and methods for landing a drone on a moving base
US20190310651A1 (en) Object Detection and Determination of Motion Information Using Curve-Fitting in Autonomous Vehicle Applications
US11769318B2 (en) Systems and methods for intelligent selection of data for building a machine learning model
CN111133485A (zh) 自主交通工具的对象预测优先级排序系统和方法
US20220188695A1 (en) Autonomous vehicle system for intelligent on-board selection of data for training a remote machine learning model
US11361201B2 (en) Systems and methods for determining an object type and an attribute for an observation based on fused sensor data
US11657591B2 (en) Autonomous vehicle system for intelligent on-board selection of data for building a remote machine learning model
CN112660128B (zh) 用于确定自动驾驶车辆的车道变更路径的设备及其方法
RU2744012C1 (ru) Способы и системы для автоматизированного определения присутствия объектов
WO2022120346A1 (en) Methods and systems for ground segmentation using graph-cuts
US11731662B2 (en) Autonomous vehicle system for detecting pedestrian presence
US11657268B1 (en) Training neural networks to assign scores
WO2023080111A1 (en) Method and Systems for Detection Accuracy Ranking and Vehicle Instruction
EP4145398A1 (en) Systems and methods for vehicle camera obstruction detection
US11904906B2 (en) Systems and methods for prediction of a jaywalker trajectory through an intersection
US20220212694A1 (en) Methods and systems for generating a longitudinal plan for an autonomous vehicle based on behavior of uncertain road users
US20240125940A1 (en) Systems and methods for variable-resolution refinement of geiger mode lidar
US20220315002A1 (en) Traveling lane planning device, medium storing computer program for traveling lane planning, and traveling lane planning method
US11764806B2 (en) Data compression system and method of using
US20240101155A1 (en) Route planner and method for route planning

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171215

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20171215

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180222

R150 Certificate of patent or registration of utility model

Ref document number: 6298128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350