JP2022535465A - 部分的ポイントクラウドベースの歩行者速度推定方法 - Google Patents

部分的ポイントクラウドベースの歩行者速度推定方法 Download PDF

Info

Publication number
JP2022535465A
JP2022535465A JP2020572410A JP2020572410A JP2022535465A JP 2022535465 A JP2022535465 A JP 2022535465A JP 2020572410 A JP2020572410 A JP 2020572410A JP 2020572410 A JP2020572410 A JP 2020572410A JP 2022535465 A JP2022535465 A JP 2022535465A
Authority
JP
Japan
Prior art keywords
points
pedestrian
points corresponding
bounding box
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020572410A
Other languages
English (en)
Other versions
JP7196205B2 (ja
Inventor
シャン リュウ,
ビン ガオ,
ファン ズー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu com Times Technology Beijing Co Ltd
Baidu USA LLC
Original Assignee
Baidu com Times Technology Beijing Co Ltd
Baidu USA LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu com Times Technology Beijing Co Ltd, Baidu USA LLC filed Critical Baidu com Times Technology Beijing Co Ltd
Publication of JP2022535465A publication Critical patent/JP2022535465A/ja
Application granted granted Critical
Publication of JP7196205B2 publication Critical patent/JP7196205B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0011Planning or execution of driving tasks involving control alternatives for a single driving scenario, e.g. planning several paths to avoid obstacles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

自律運転車両(ADV)において、検出された歩行者の移動速度を推定するための方法、装置およびシステムが開示される。自律運転車両(ADV)にインストールされたLIDARデバイスによって生成されたポイントクラウドの複数のフレームにおいて歩行者が検出される。ポイントクラウドの複数のフレームのうち少なくとも2つのフレームの各々において、歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスが生成される。歩行者の移動速度は、ポイントクラウドの複数のフレームのうち少なくとも2つにわたる最小境界ボックスに少なくとも部分的に基づいて推定される。ADVに関する軌跡は、少なくとも歩行者の移動速度に基づいて計画される。その後、計画された軌跡に基づいてADVを運転するために制御信号が生成される。

Description

本開示の実施形態は、一般に、自律運転車両を動作させることに関する。より詳細には、本開示の実施形態は、自律運転車両の動作における物体の速度推定に関する。
自律モード(例えば、無人)で動作している車両は、乗車者、特にドライバーを運転に関連した責任から解放することができる。自律モードで動作している場合、車両は、車載センサを用いて様々な場所へとナビゲートでき、最低限の人とのやりとりで、あるいは、場合によっては搭乗者なしに、車両が移動できるようになる。
LIDAR(光検出と測距、すなわちlightとradarの混成語)技術は、軍事、地理学、海洋学および最近十年間の自律運転車両において広く利用されている。LIDARデバイスは、物体までの距離を推定しながら、シーンの端から端まで走査して、物体の反射面を表すポイントクラウドを組み立てることができる。ポイントクラウドにおける個々のポイントは、レーザーパルスを送信し、物体から反射された戻りパルスを(存在する場合には)検出して、送信パルスと反射パルスの受信の間の遅延時間に応じて物体までの距離を判定することによって判定され得る。レーザー(複数可)はシーンにわたって迅速かつ反復的に走査され、シーンにおける反射性の物体までの距離に関する連続したリアルタイム情報を提供することができる。1つのレーザービームのそれぞれの全回転が、各ポイントの1つのリングを生成する。
LIDARポイントベースの歩行者速度推定は当技術において既知である。従来、歩行者に対応するLIDARポイントに関する最小境界ボックスが、ポイントクラウドの少なくとも2つのフレーム(例えば現在のフレームおよび直前のフレーム)にわたって構築される。歩行者の移動速度は、フレームにわたる最小境界ボックス間の差に基づいて推定され得る。しかしながら、歩行者の移動中の姿勢は常に変化するので、速度推定のための最小境界ボックスが理想的でない場合がある。そのため、最小境界ボックスベースの速度推定には誤差が生じる可能性もある。
本開示の実施形態は、同様の参照符号が同様の要素を示す、添付図面の図において例示のために図示されており、限定されるものではない。
一実施形態に係るネットワーク化システムを示すブロック図である。 一実施形態に係る自律運転車両の例を示すブロック図である。 一実施形態に係る、自律運転車両とともに使用される自律運転システムの例を示すブロック図である。 一実施形態に係る、自律運転車両とともに使用される自律運転システムの例を示すブロック図である。 一実施形態に係る、自律運転車両(ADV)において、検出された歩行者の移動速度の推定で利用される様々なモジュールを示すブロック図である。 一実施形態に係る、ポイントクラウドの1つのフレームの範囲内の、歩行者に対応するLIDARポイントを示す例示の図である。 一実施形態に係る、ある角度からの歩行者のビューおよびこの歩行者に対応するLIDARポイントを示す図である。 一実施形態に係る、別の角度からの歩行者のビューおよびこの歩行者に対応するLIDARポイントを示す図である。 一実施形態に係る、別の角度からの歩行者のビューおよびこの歩行者に対応するLIDARポイントを示す図である。 一実施形態に係る、自律運転車両(ADV)において、検出された歩行者の移動速度を推定するための例示の方法を示す流れ図である。 一実施形態に係る、歩行者に対応する、歩行者の手足に対応するポイントを除くポイントを囲む最小境界ボックスを生成するための例示の方法を示す流れ図である。
本開示の様々な実施形態および態様が、以下で論じられる詳細を参照しながら説明され、添付の図面は様々な実施形態を示す。以下の説明および図面は、本開示を例示するものであり、本開示を限定するものとして解釈されるべきではない。本開示の様々な実施形態の完全な理解を提供するために、多数の具体的な詳細について説明する。しかしながら、いくつかの事例では、本開示の実施形態の簡潔な議論を提供するために、周知のまたは従来の詳細については説明しない。
本明細書における「一実施形態」または「実施形態」に対する言及は、実施形態に関して説明される特定の特徴、構造または特性が本開示の少なくとも1つの実施形態に含まれ得ることを意味する。本明細書中の様々な個所における「一実施形態では」というフレーズの出現は、必ずしも全てが同じ実施形態を指すとは限らない。
自律運転車両(ADV)における、検出された歩行者の移動速度を推定するための方法、装置およびシステムが開示されている。いくつかの実施形態によれば、歩行者は、自律運転車両(ADV)にインストールされたLIDARデバイスによって生成されたポイントクラウドの複数のフレームにおいて検出される。ポイントクラウドの複数のフレームのうち少なくとも2つのフレームの各々において、歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスが生成される。歩行者の移動速度は、ポイントクラウドの複数のフレームのうち少なくとも2つにわたる最小境界ボックスに少なくとも部分的に基づいて推定される。ADVに関する軌跡は、少なくとも歩行者の移動速度に基づいて計画される。その後、計画された軌跡に基づいてADVを運転するために制御信号が生成される。
一実施形態では、ポイントクラウドの複数のフレームのうち少なくとも2つのフレームの各々において、歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスを生成するために、歩行者に対応するポイントは、下部のポイントを除去して上部のポイントのみを維持するようにフィルタリングされる。下部のポイントは歩行者の脚および足に対応することを理解すべきである。歩行者に対応するポイントのうち、残りの上部のポイントが水平面に投影される。
水平面に投影された上部のポイントに関連した主軸が判定される。水平面に投影された上部のポイントが、主軸にさらに投影される。2度投影された上部のポイントは、主軸の両方向における最も外れたポイントを除去するためにフィルタリングされる。最も外れたポイントは歩行者の腕および手に対応することを理解すべきである。歩行者に対応するポイントのうち、残りの2度投影された上部のポイントに対応するポイントのサブセットが判定される。その後、ポイントのサブセットを囲む最小境界ボックスが生成される。ポイントのサブセットを囲む最小境界ボックスは、歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスであることを理解すべきである。
一実施形態では、歩行者に対応するポイントをフィルタリングして、下部のポイントを除去し、上部のポイントのみを維持するステップは、歩行者に対応するポイントにおける最上部のポイントに対する高低差が第1の閾値を超えるポイントを除去するステップを含む。一実施形態では、第1の閾値は約0.6メートル(m)である。
一実施形態では、投影された上部のポイントに関連する主軸を判定するステップは、分散行列に対して特異値分解(SVD)または固有値分解を実行するステップを含む。
一実施形態では、主軸の両方向における最も外れたポイントを除去するために、2度投影された上部のポイントをフィルタリングするステップは、2度投影された上部のポイントのうち重心までの距離が第2の閾値を超えるポイントを除去するステップを含む。
図1は、本開示の一実施形態に係る自律運転ネットワーク構成を示すブロック図である。図1を参照すると、ネットワーク構成100は、ネットワーク102を介して1または複数のサーバ103~104に通信可能に接続され得る自律運転車両(ADV)101を備えている。示されている1つのADVが示されているが、複数のADVが、ネットワーク102を介して互いに、および/または、サーバ103~104に接続されていてもよい。ネットワーク102は、ローカルエリアネットワーク(LAN)、インターネットなどのワイドエリアネットワーク(WAN)、セルラーネットワーク、衛星ネットワーク、またはこれらの組合せなど、有線または無線の任意のタイプのネットワークであり得る。サーバ103~104は、ウェブまたはクラウドサーバ、アプリケーションサーバ、バックエンドサーバ、またはそれらの組合せなど、任意の種類のサーバまたはサーバのクラスタであり得る。サーバ103~104は、データ解析サーバ、コンテンツサーバ、交通情報サーバ、MPOI(map and point of interest)サーバまたはロケーションサーバなどであり得る。
ADVとは、ドライバーからの入力が殆どまたは全くない環境下で、車両がナビゲートする自律モードにあるように構成され得る車両をいう。そのようなADVは、車両が動作する環境についての情報を検出するように構成された1または複数のセンサを有するセンサシステムを備えることができる。車両およびこれに関連するコントローラは、検出された情報を使用して、この環境下でナビゲートする。ADV101は、手動モード、完全自律モードまたは部分自律モードで動作することができる。
一実施形態では、ADV101は、これに限定されないが、自律運転システム110(ADS)と、車両制御システム111と、ワイヤレス通信システム112と、ユーザインターフェースシステム113と、センサシステム115とを備えている。ADV101は、例えば、加速信号またはコマンド、減速信号またはコマンド、操舵信号またはコマンド、制動信号またはコマンドなど、様々な通信信号および/またはコマンドを使用して、車両制御システム111および/またはADS110によって制御され得る、エンジン、ホイール、ステアリングホイール、トランスミッションなど、通常の車両中に備えられるいくつかの一般的な構成要素をさらに備えていてもよい。
構成要素110~115は、相互接続、バス、ネットワークまたはこれらの組合せを介して互いに通信可能に接続され得る。例えば、構成要素110~115は、コントローラエリアネットワーク(CAN)バスを介して互いに通信可能に接続され得る。CANバスは、マイクロコントローラおよびデバイスが、ホストコンピュータなしにアプリケーション内で互いに通信することを可能にするように設計されたビークルバス規格である。CANバスは、元来は、自動車内の多重化電気配線のために設計されたメッセージベースのプロトコルであるが、多くの他の状況においても使用される。
次に図2を参照すると、一実施形態では、センサシステム115は、これに限定されないが、1または複数のカメラ211と、全地球測位システム(GPS)ユニット212と、慣性測定ユニット(IMU)213と、レーダーユニット214と、光検出および測距(LIDAR)ユニット215とを備えている。GPSシステム212は、ADVの位置に関する情報を与えるように動作可能なトランシーバを備えていてもよい。IMUユニット213は、慣性加速度に基づいてADVの位置姿勢の変化を感知し得る。レーダーユニット214は、無線信号を利用して、ADVの局所環境内の物体を感知するシステムであってもよい。いくつかの実施形態では、物体を感知することに加えて、レーダーユニット214は、さらに、物体の速度および/または進路を感知し得る。LIDARユニット215は、ADVがレーザーを使用して位置される環境中の物体を感知し得る。LIDARユニット215は、いくつかあるシステム構成要素の中でも特に、1または複数のレーザー源、レーザースキャナおよび1または複数の検出器を備えることができる。カメラ211は、ADVを囲む環境の画像を取得する1または複数のデバイスを備えていてもよい。カメラ211はスチールカメラおよび/またはビデオカメラであってもよい。カメラは、例えば、回転するおよび/または傾斜するプラットフォーム上にカメラを取り付けることによって、機械的に移動可能であってもよい。
センサシステム115は、ソナーセンサ、赤外線センサ、操舵センサ、スロットルセンサ、制動センサおよびオーディオセンサ(例えば、マイクロフォン)など、他のセンサをさらに備えてもよい。オーディオセンサは、ADVを囲む環境から音を取得するように構成されていてもよい。操舵センサは、車両のステアリングホイール、ホイールの操舵角またはこれらの組合せを感知するように構成されていてもよい。スロットルセンサおよび制動センサは、それぞれ、車両のスロットル位置および制動位置を感知する。いくつかの状況では、スロットルセンサおよび制動センサは一体型スロットル/制動センサとして一体化され得る。
一実施形態では、車両制御システム111は、これに限定されないが、ステアリングユニット201、(加速ユニットとも呼ばれる)スロットルユニット202および制動ユニット203を備えている。ステアリングユニット201は、車両の方向または進路を調整するためのものである。スロットルユニット202は、車両の速度および加速度を順に制御するモーターまたはエンジンの速度を制御するためのものである。制動ユニット203は、摩擦を与えることによって車両を減速させ、車両のホイールまたはタイヤを遅くするためのものである。なお、図2に示されている構成要素は、ハードウェア、ソフトウェアまたはこれらの組合せで実装されてもよい。
再び図1を参照すると、ワイヤレス通信システム112は、ADV101と、デバイス、センサ、他の車両など、外部システムとの間の通信を可能にするためのものである。例えば、ワイヤレス通信システム112は、1または複数のデバイスと直接、またはネットワーク102上のサーバ103~104など、通信ネットワークを介して、ワイヤレスで通信することができる。ワイヤレス通信システム112は、任意のセルラー通信ネットワーク、または、例えば、WiFiを使用するワイヤレスローカルエリアネットワーク(WLAN)を使用して、別の構成要素またはシステムと通信することができる。ワイヤレス通信システム112は、例えば、赤外リンク、Bluetoothなどを使用して、デバイス(例えば、車両101内の搭乗者のモバイルデバイス、ディスプレイデバイス、スピーカ)と直接通信することができる。ユーザインターフェースシステム113は、例えば、キーボード、タッチスクリーンディスプレイデバイス、マイクロフォンおよびスピーカなどを含む、車両101内に実装された周辺デバイスの一部であり得る。
ADV101の機能のいくつかまたは全ては、特に、自律運転モードで動作しているときに、ADS110によって制御または管理され得る。ADS110は、センサシステム115、制御システム111、ワイヤレス通信システム112および/またはユーザインターフェースシステム113から情報を受信し、受信された情報を処理し、出発地点から目的地点までのルートまたは経路を計画し、次いで、プランニングおよび制御情報に基づいて車両101を走らせるために必要なハードウェア(例えば、プロセッサ、メモリ、ストレージ)およびソフトウェア(例えば、オペレーティングシステム、プランニングおよびルーティングプログラム)を備えている。あるいは、ADS110が車両制御システム111と一体化されていてもよい。
例えば、搭乗者としてのユーザは、例えば、ユーザインターフェースを介して、旅程の出発地および目的地を指定し得る。ADS110は旅程関連データを取得する。例えば、ADS110は、サーバ103~104の一部であり得るMPOIサーバから、ロケーションおよびルートデータを取得し得る。ロケーションサーバはロケーションサービスを提供し、MPOIサーバはマップサービスおよびいくつかのロケーションのPOIを提供する。あるいは、そのようなロケーションおよびMPOI情報は、ADS110の永続性ストレージデバイス内にローカルでキャッシュされてもよい。
ADV101がルートに沿って移動している間、ADS110はまた、交通情報システムまたはサーバ(TIS)からリアルタイム交通情報を取得し得る。なお、サーバ103~104は第三者エンティティによって動作させられてもよい。あるいは、サーバ103~104の機能はADS110と一体化されていてもよい。リアルタイム交通情報、MPOI情報およびロケーション情報、ならびにセンサシステム115によって検出または感知されたリアルタイムの局所環境データ(例えば、障害物、物体、近くの車両)に基づいて、ADS110は、最適なルートを計画し、指定された目的地に安全にかつ効率的に到達するために計画されたルートに従って、例えば、制御システム111を介して車両101を走らせることができる。
サーバ103は、様々なクライアントのためにデータ解析サービスを実行するためのデータ解析システムであってもよい。一実施形態では、データ解析システム103はデータコレクタ121と機械学習エンジン122とを備えている。データコレクタ121はADVでも人間のドライバーによって運転される通常の車両でも、様々な車両から運転統計123を収集する。運転統計123は、異なる時点において車両のセンサによって取得された、発行された運転コマンド(例えば、スロットル、制動、ステアリングコマンド)および車両の応答(例えば、速度、加速、減速、方向)を示す情報を含む。運転統計123は、例えば、ルート(出発地および目的地を含む)、MPOI、道路条件、天候条件など、異なる時点における運転環境を記述する情報をさらに含んでいてもよい。
運転統計123に基づいて、機械学習エンジン122は、様々な目的で、ルール、アルゴリズムおよび/または予測モデルのセット124を生成するか、またはトレーニングする。アルゴリズム124は、LIDARポイントクラウドを使用して歩行者の速度を判定するためのアルゴリズムを含む。アルゴリズム124は、その後、自律運転中にリアルタイムで利用されるように、ADVにアップロードされ得る。
図3Aおよび図3Bは、一実施形態に係る、ADVとともに使用される自律運転システムの一例を示すブロック図である。システム300は、これに限定されないが、ADS110、制御システム111およびセンサシステム115を備える、図1のADV101の一部として実装され得る。図3A~図3Bを参照すると、ADS110は、これに限定されないが、ローカライゼーションモジュール301、知覚モジュール302、予測モジュール303、決定モジュール304、プランニングモジュール305、制御モジュール306、ルーティングモジュール307、最小境界ボックス生成モジュール308を備えている。
モジュール301~308のいくつかまたは全ては、ソフトウェア、ハードウェアまたはこれらの組合せにおいて実装され得る。例えば、これらのモジュールは、永続性ストレージデバイス352内にインストールされ、メモリ351にロードされ、1または複数のプロセッサ(図示せず)によって実行され得る。なお、これらのモジュールのいくつかまたは全ては、図2の車両制御システム111のいくつかまたは全てのモジュールに通信可能に接続され得るか、またはそれらのモジュールと一体化されてもよい。モジュール301~308のうちのいくつかは一体型モジュールとして一体化されてもよい。
ローカライゼーションモジュール301は、(例えば、GPSユニット212を活用して)ADV300の現在のロケーションを判定し、ユーザの旅程またはルートに関する任意のデータを管理する。(マップおよびルートモジュールとも呼ばれる)ローカライゼーションモジュール301は、ユーザの旅程またはルートに関する任意のデータを管理する。ユーザは、例えば、ユーザインターフェースを介して、ログインし、旅程の出発地および目的地を指定し得る。ローカライゼーションモジュール301は、旅程関連データを取得するために、マップおよびルートデータ311など、ADV300の他の構成要素と通信する。例えば、ローカライゼーションモジュール301は、ロケーションサーバおよびMPOI(マップおよびPOI)サーバからロケーションおよびルートデータを取得し得る。ロケーションサーバはロケーションサービスを与え、MPOIサーバは、マップおよびルートデータ311の一部としてキャッシュされ得る、マップサービスおよびいくつかのロケーションのPOIを提供する。ADV300がルートに沿って移動している間、ローカライゼーションモジュール301はまた、交通情報システムまたはサーバからリアルタイム交通情報を取得し得る。
センサシステム115によって提供されたセンサデータ、およびローカライゼーションモジュール301によって取得されたローカライゼーション情報に基づいて、周囲環境の知覚が知覚モジュール302によって判定される。知覚情報は、通常のドライバーが、そのドライバーが運転している車両の周囲で知覚するであろうことを表し得る。知覚は、例えば、物体の形態の、車線構成、信号機信号、別の車両の相対位置、歩行者、建築物、横断歩道、または他の交通関係標識(例えば、停止標識、前方優先道路標識)などを含んでいてもよい。車線構成は、例えば、車線の形状(例えば、直線または湾曲)、車線の幅、道路にいくつの車線があるか、一方向車線か両方向車線か、合流車線か分割車線か、出車車線など、車線または複数の車線を記述する情報を含む。
知覚モジュール302は、ADVの環境における物体および/または特徴を識別するために1または複数のカメラによって取得された画像を処理し、分析するためのコンピュータ視覚システムまたはコンピュータ視覚システムの機能を含み得る。物体は、交通信号、車道境界、他の車両、歩行者および/または障害物などを含むことができる。コンピュータ視覚システムは、物体認識アルゴリズム、ビデオ追跡および他のコンピュータ視覚技法を使用し得る。いくつかの実施形態では、コンピュータ視覚システムは、環境をマッピングすること、物体を追跡すること、物体の速度を推定することなどが可能である。知覚モジュール302はまた、レーダーおよび/またはLIDARなど、他のセンサによって提供された他のセンサデータに基づいて物体を検出することができる。
物体の各々について、予測モジュール303は、物体がそのような状況下でどのような挙動をするかを予測する。予測は、マップ/ルート情報311および交通ルール312のセットに鑑みて、その時点における運転環境を知覚する知覚データに基づいて実行される。例えば、物体が反対方向にある車両であり、現在の運転環境が交差点を含む場合、予測モジュール303は、車両が直進しそうなのか、または曲がりそうなのかを予測する。知覚データが、交差点に信号機がないことを示す場合、予測モジュール303は、車両が交差点に入る前に完全に停止しなければならないかもしれないことを予測し得る。知覚データが、車両が現在左折専用車線または右折専用車線にあることを示す場合、予測モジュール303は、それぞれ、車両が左折するまたは右折する可能性がより高いことを予測し得る。
各々の物体について、決定モジュール304は、どのように物体を処理するかに関する決定を行う。例えば、特定の物体(例えば、交差するルートにある別の車両)ならびに物体を記述するその物体のメタデータ(例えば、速度、方向、転向角)について、決定モジュール304は、どのように物体に遭遇するか(例えば、追い越し、道を譲る、停止、通過)を決定する。決定モジュール304は、永続性ストレージデバイス352中に記憶され得る交通ルールまたは運転ルール312など、ルールのセットに従ってそのような決定を行い得る。
ルーティングモジュール307は、出発地点から目的地点までの1または複数のルートまたは経路を提供するように構成される。例えば、ユーザから受信された出発地から目的地までの所与の旅程について、ルーティングモジュール307は、ルートおよびマップ情報311を取得し、目的地に到達するための出発地からの全ての可能なルートまたは経路を判定する。ルーティングモジュール307は、ルーティングモジュール307が判定した、目的地に到達するための出発地からのルートの各々について、地形図の形態の基準線を生成し得る。基準線とは、他の車両、障害物または交通条件など、他からの干渉がない理想的なルートまたは経路をいう。すなわち、道路上に他の車両、歩行者または障害物がない場合、ADVは基準線に正確にまたは厳密に従うべきである。地形図は、次いで、決定モジュール304および/またはプランニングモジュール305に与えられる。決定モジュール304および/またはプランニングモジュール305は、ローカライゼーションモジュール301からの交通条件、知覚モジュール302によって知覚された運転環境、および予測モジュール303によって予測された交通条件など、他のモジュールによって提供された他のデータに鑑みて、最適なルートのうちの1つを選択し、変更するために、全ての可能なルートを検査する。ADVを制御するための実際の経路またはルートは、その時点における特定の運転環境に依存してルーティングモジュール307によって提供された基準線に近くなり得るか、またはその基準線とは異なり得る。
知覚された物体の各々についての決定に基づいて、プランニングモジュール305は、基礎としてルーティングモジュール307によって与えられた基準線を使用して、ADVのための経路またはルートならびに運転パラメータ(例えば、距離、速度および/または転向角)を計画する。すなわち、所与の物体について、決定モジュール304は物体にどのように対処するかを決定し、一方、プランニングモジュール305はその対処をどのように行うかを判定する。例えば、所与の物体について、決定モジュール304は、物体を通過することを決定し得、一方、プランニングモジュール305は、物体の左側を通るのか、または右側を通るのかを判定し得る。車両300が次の移動サイクル(例えば、次のルート/経路セグメント)中にどのように移動するかを記述する情報を含む、プランニングおよび制御データがプランニングモジュール305によって生成される。例えば、プランニングおよび制御データは、時速30マイル(mph)の速度で10メートル移動し、次いで、25mphの速度で右側車線に変更するように車両300に命令し得る。
プランニングおよび制御データに基づいて、制御モジュール306は、プランニングおよび制御データによって定義されたルートまたは経路に従って、車両制御システム111に適切なコマンドまたは信号を送ることによって、ADVを制御し、運転する。プランニングおよび制御データは、経路またはルートに沿って異なる時点における適切な車両設定または運転パラメータ(例えば、スロットル、制動、ステアリングコマンド)を使用してルートまたは経路の第1のポイントから第2のポイントまで車両を運転するために十分な情報を含む。
一実施形態では、プランニング段階は、例えば、100ミリ秒(ms)の時間間隔ごとなど、運転サイクルとも呼ばれるいくつかのプランニングサイクル中に実行される。プランニングサイクルまたは運転サイクルの各々について、1または複数の制御コマンドがプランニングおよび制御データに基づいて発行される。すなわち、100msごとに、プランニングモジュール305は、例えば、ターゲット位置、およびADVがターゲット位置に到達するために必要とされる時間を含む、次のルートセグメントまたは経路セグメントを計画する。あるいは、プランニングモジュール305は、特定の速度、方向および/または操舵角などをさらに指定し得る。一実施形態では、プランニングモジュール305は、5秒など、次の事前決定された時間期間のためにルートセグメントまたは経路セグメントを計画する。各プランニングサイクルについて、プランニングモジュール305は、前のサイクル中に計画されたターゲット位置に基づいて現在のサイクル(例えば、次の5秒)のためのターゲット位置を計画する。制御モジュール306は、次いで、現在のサイクルのプランニングおよび制御データに基づいて1または複数の制御コマンド(例えば、スロットル、ブレーキ、ステアリング制御コマンド)を生成する。
なお、決定モジュール304およびプランニングモジュール305は一体型モジュールとして一体化されてもよい。決定モジュール304/プランニングモジュール305は、ADVのための運転経路を判定するためのナビゲーションシステムまたはナビゲーションシステムの機能を含んでいてもよい。例えば、ナビゲーションシステムは、概して、最終目的地に至る車道ベースの経路に沿ってADVを進めながら、知覚された障害物を実質的に回避する経路に沿ってADVの動きに影響を及ぼすために、一連の速度および方向進路を判定し得る。目的地は、ユーザインターフェースシステム113を介してユーザ入力に従って設定され得る。ナビゲーションシステムは、ADVが動作中である間、運転経路を動的に更新し得る。ナビゲーションシステムは、ADVのための運転経路を判定するように、GPSシステムからのデータおよび1または複数のマップを組み込むことができる。
図4を参照すると、一実施形態に係る、自律運転車両(ADV)において、検出された歩行者の移動速度の推定で利用される様々なモジュールを示すブロック図400が図示されている。歩行者検出モジュール402において、歩行者が、自律運転車両(ADV)101にインストールされているLIDARデバイス215によって生成されたポイントクラウドの複数のフレームの中で検出される。最小境界ボックス生成モジュール308において、ポイントクラウドの複数のフレームのうち少なくとも2つのフレームの各々の中に、歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスが生成される。歩行者速度推定モジュール418において、歩行者の移動速度が、ポイントクラウドの複数のフレームのうち少なくとも2つにわたって、最小境界ボックスに少なくとも部分的に基づいて推定される。
ポイントクラウドの2つ以上のフレームにわたって、最小境界ボックスに基づいて歩行者の移動速度を推定するための技術は、当技術分野において周知である。歩行者が(例えば歩くかまたは走って)移動しているとき、歩行者の胴に対応するポイントや頭に対応するポイントは、歩行者の全身に対応するポイントよりも安定しているため、歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスに基づいて歩行者の移動速度を推定することは、歩行者に対応する全てのポイントを囲む最小境界ボックスに基づいて速度を推定することよりも望ましく、より正確な速度推定をもたらし得る。ADV101に関する軌跡は、プランニングモジュール305において、少なくとも歩行者の移動速度に基づいて計画される。その後、制御モジュール306において、計画された軌跡に基づいてADV101を運転するために制御信号が生成される。
一実施形態では、ポイントクラウドの複数のフレームのうち少なくとも2つのフレームの各々において、歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスを生成するために、最小境界ボックス生成モジュール308の内部で、ポイントフィルタリングモジュール404において、歩行者に対応するポイントが、下部のポイントを除去して上部のポイントのみを維持するようにフィルタリングされる。下部のポイントは歩行者の脚および足に対応することを理解すべきである。一実施形態では、歩行者に対応するポイントをフィルタリングして、下部のポイントを除去し、上部のポイントのみを維持するステップは、歩行者に対応するポイントにおける最上部のポイントに対する高低差が第1の閾値を超えるポイントを除去するステップを含む。
一実施形態では、第1の閾値は約0.6メートル(m)である。ポイント投影モジュール406において、歩行者に対応するポイントにおける残りの上部のポイントが水平面に投影される。水平面に投影される、上部のポイントに関連した主軸は、主軸判定モジュール408において判定される。第1の主要な構成要素としても知られている主軸は、ポイントのセットからこの線までの距離の2乗の平均値が最小になる線であり得る。歩行者に関連する主軸は、投影された上部のポイントに関して判定されるとき、歩行者の左右方向に沿って延在する線に対して近似的に対応するべきであることを理解すべきである。主軸を判定するための技術は当技術分野において周知である。一実施形態では、投影された上部のポイントに関連する主軸を判定するステップは、分散行列に対して特異値分解(SVD)または固有値分解を実行するステップを含む。
水平面に投影された上部のポイントが、ポイント投影モジュール410において、主軸にさらに投影される。2度投影された上部のポイントが、ポイントフィルタリングモジュール412において、主軸の両方向における最も外れたポイントを除去するためにフィルタリングされる。最も外れたポイントは歩行者の腕および手に対応することを理解すべきである。一実施形態では、主軸の両方向における最も外れたポイントを除去するために、2度投影された上部のポイントをフィルタリングするステップは、2度投影された上部のポイントのうち重心までの距離が第2の閾値を超えるポイントを除去するステップを含む。残りの2度投影された上部のポイントに対応する、歩行者に対応するポイントにおけるポイントのサブセットが、対応ポイント判定モジュール414において判定される。その後、最小境界ボックス生成モジュール416において、ポイントのサブセットを囲む最小境界ボックスが生成される。ポイントのサブセットを囲む最小境界ボックスは、歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスであることを理解すべきである。
他の実施形態では、以下で説明される技術は、歩行者の頭に対応するポイントのみ、または代わりに歩行者の胴に対応するポイントのみを囲む最小境界ボックスに基づいて、歩行者の速度を推定するように適合されてもよいことを理解すべきである。なお、図4に図示されるような全てのモジュールのうちいくつかが、より少数のモジュールまたは単一のモジュールへと統合されてもよい。最小境界ボックス生成モジュール308は知覚モジュール302の一部として実施されてもよい。
図5を参照すると、一実施形態に係る、ポイントクラウドの1つのフレームの範囲内の、歩行者に対応するLIDARポイントを示す例示の図500が図示されている。図5に図示されるように、歩行者に対応するポイントは、歩行者の別々の部位に対応するポイントを含む。詳細には、ポイント508(すなわち下部のポイント)は、歩行者の脚および足に対応する。ポイント502、506は、歩行者の腕および手に対応する。実施形態に係る関心ポイント504は、歩行者の頭および胴に対応する。ポイント504は、歩行者の全体的な移動を、他のポイント(ポイント502、506、508を含む)よりも安定的に表すため、関心ポイント504のみを囲む最小境界ボックスに基づいて歩行者の移動速度を推定することが望ましい。
図6A~図6Cを参照すると、一実施形態に係る、異なる角度からの歩行者のビューを示す図形600A~図形600Cと、歩行者に対応するそれぞれのLIDARポイントとが図示されている。図6A~図6Cの各々が、特定の角度からの歩行者602のビューと、この角度から観察された歩行者602に対応するLIDARポイントのそれぞれのセットと、同じポイントのセットを水平面に投影し、主軸に基づいて座標系と重ね合わせたものとを含む。詳細には、図6Aは歩行者の正面図を示し、図6Bは歩行者の側面図を示し、図6Cは歩行者の斜視図を示す。図6A~図6Cから、視点がどこにあろうと、投影点に基づいて判定された主軸は、一貫して歩行者の左右方向に沿って延在することを理解すべきである。それゆえに、以下で説明されるような、歩行者の移動速度を推定するための方法は、LIDARが歩行者を知覚する角度に関係なく、同様にうまく機能するはずであることをさらに理解すべきである。
図7を参照すると、一実施形態に係る、自律運転車両(ADV)において、検出された歩行者の移動速度を推定するための例示の方法700を示す流れ図が図示されている。ブロック710では、自律運転車両(ADV)にインストールされたLIDARデバイスによって生成されたポイントクラウドの複数のフレームにおいて歩行者が検出される。ブロック720では、ポイントクラウドの複数のフレームのうち少なくとも2つのフレームの各々において、歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスが生成される。ブロック730では、ポイントクラウドの複数のフレームのうち少なくとも2つにわたる最小境界ボックスに少なくとも部分的に基づいて歩行者の移動速度が推定される。ブロック740では、少なくとも歩行者の移動速度に基づいてADVに関する軌跡が計画される。その後、ブロック750において、計画された軌跡に基づいてADVを運転するために制御信号が生成される。
図8を参照すると、一実施形態に係る、歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスを生成するための例示の方法800を示す流れ図が図示されている。ブロック810において、歩行者に対応するポイントは、下部のポイントを除去して上部のポイントのみを維持するためにフィルタリングされる。下部のポイントは歩行者の脚および足に対応することを理解すべきである。ブロック820において、歩行者に対応するポイントにおける残りの上部のポイントが水平面に投影される。ブロック830において、水平面に投影された上部のポイントに関連した主軸が判定される。ブロック840において、水平面に投影された上部のポイントが、主軸にさらに投影される。ブロック850において、2度投影された上部のポイントは、主軸の両方向における最も外れたポイントを除去するためにフィルタリングされる。最も外れたポイントは歩行者の腕および手に対応することを理解すべきである。ブロック860において、残りの2度投影された上部のポイントに対応する、歩行者に対応するポイントにおけるポイントのサブセットが判定される。その後、ブロック870において、ポイントのサブセットを囲む最小境界ボックスが生成される。ポイントのサブセットを囲む最小境界ボックスは、歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスであることを理解すべきである。
一実施形態では、歩行者に対応するポイントをフィルタリングして、下部のポイントを除去し、上部のポイントのみを維持するステップは、歩行者に対応するポイントにおける最上部のポイントに対する高低差が第1の閾値を超えるポイントを除去するステップを含む。一実施形態では、第1の閾値は約0.6メートル(m)である。
一実施形態では、投影された上部のポイントに関連する主軸を判定するステップは、分散行列に対して特異値分解(SVD)または固有値分解を実行するステップを含む。
一実施形態では、主軸の両方向における最も外れたポイントを除去するために、2度投影された上部のポイントをフィルタリングするステップは、2度投影された上部のポイントのうち重心までの距離が第2の閾値を超えるポイントを除去するステップを含む。
したがって、本開示の実施形態は、速度推定において、歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスが利用される、LIDARポイントベースの歩行者速度の推定に関するものである。歩行者が移動しているとき、歩行者の頭や胴は手足よりも安定しているため、本明細書で説明された実施形態を利用することによって、より正確な速度推定が取得され得る。
なお、上記で図示し、説明したような構成要素のいくつかのまたは全ては、ソフトウェア、ハードウェアまたはこれらの組合せにおいて実装されてもよい。例えば、そのような構成要素は、永続性ストレージデバイス中にインストールされ、記憶されるソフトウェアとして実装されてもよく、そのソフトウェアは、本出願全体にわたって説明されるプロセスまたは動作を実行するためのプロセッサ(図示せず)によってメモリにロードされ、実行されてもよい。あるいは、そのような構成要素は、アプリケーションから、対応するドライバおよび/またはオペレーティングシステムを介してアクセスされ得る集積回路(例えば、特定用途向けICまたはASIC)、デジタル信号プロセッサ(DSP)またはフィールドプログラマブルゲートアレイ(FPGA)など、専用のハードウェアにプログラムされるか、または埋め込まれる実行可能コードとして実装されてもよい。さらに、そのような構成要素は、1または複数の特定の命令を介してソフトウェア構成要素によってアクセス可能な命令セットの一部としてプロセッサまたはプロセッサコア中の特定のハードウェア論理として実装されてもよい。
コンピュータメモリ内のデータビットに対する動作のアルゴリズムおよび記号表現に関して、上記の詳細な説明のいくつかの部分を提示した。これらのアルゴリズムの説明および表現は、データ処理分野における当業者によって、それらの当業者の作業の要旨を最も効果的に他の当業者に伝達するために使用される方法である。アルゴリズムは、ここでは、一般に、所望の結果につながる動作の自己矛盾のないシーケンスとして想到される。動作は、物理量の物理的操作を必要とする動作である。
しかしながら、全てのこれらの用語および同様の用語は適切な物理量に関連するものであり、これらの量に付される便宜上のラベルに過ぎないことに留意されたい。上記の説明から明らかなように、別段に明記されていない限り、説明全体にわたって、以下の特許請求の範囲に記載された用語などの用語を利用する議論は、コンピュータシステムのレジスタおよびメモリ内で物理(電子)量として表されるデータを操作し、コンピュータシステムメモリまたはレジスタまたは他のそのような情報ストレージ、送信またはディスプレイデバイス内で物理量として同様に表される他のデータに変換する、コンピュータシステムまたは同様の電子計算デバイスのアクションおよびプロセスを指すことを理解すべきである。
本開示の実施形態は、本明細書における動作を実行するための装置にも関する。そのようなコンピュータプログラムは非一時的コンピュータ可読媒体に記憶されている。機械可読媒体は、機械(例えばコンピュータ)に可読の形態で情報を記憶するための任意の機構を含む。例えば、機械可読(例えばコンピュータ可読)媒体は、機械(例えばコンピュータ)可読記憶媒体(例えば読み取り専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、磁気ディスク記憶媒体、光記憶媒体、フラッシュメモリ素子)を含む。
上記の図に示されたプロセスまたは方法は、ハードウェア(例えば回路、専用論理など)、(例えば、非一時的コンピュータ可読媒体上で具現化される)ファームウェア、ソフトウェア、または両方の組合せを備える処理ロジックによって実行され得る。プロセスまたは方法について、いくつかの逐次動作に関して上記で説明したが、説明した動作のうちのいくつかは異なる順序で実行され得ることを理解すべきである。その上、いくつかの動作は連続的にではなく並行して実行され得る。
本開示の実施形態は、何らかの特定のプログラム言語を基準として説明されているわけではない。本明細書で説明されたような本開示の実施形態の教示を実装するために、種々のプログラム言語が使用され得ることが理解されよう。
上記の明細書では、本開示の実施形態について、本発明の特定の例示的な実施形態を参照しながら説明した。以下の特許請求の範囲に記載されているように、本開示のより広い趣旨および範囲から逸脱することなく本開示の実施形態に様々な変更が行われ得ることが明らかになろう。明細書および図面は、したがって、限定的な意味ではなく、例示的な意味であると見なされるべきである。

Claims (20)

  1. 自律運転車両を動作させるためのコンピュータ実装方法であって、
    自律運転車両(ADV)にインストールされたLIDARデバイスによって生成されたポイントクラウドの複数のフレームにおいて歩行者を検出するステップと、
    前記ポイントクラウドの複数のフレームのうち少なくとも2つのフレームの各々において、前記歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスを生成するステップと、
    前記ポイントクラウドの複数のフレームのうち少なくとも2つにわたる前記最小境界ボックスに少なくとも部分的に基づいて、前記歩行者の移動速度を推定するステップと、
    少なくとも前記歩行者の前記移動速度に基づいて、前記ADVに関する軌跡を計画するステップと、
    前記計画された軌跡に基づいて前記ADVを運転するために制御信号を生成するステップと、
    を含む、方法。
  2. 前記歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む前記最小境界ボックスを生成するステップが、
    前記歩行者に対応する前記ポイントをフィルタリングして、前記歩行者の脚および足に対応する下部のポイントを除去し、上部のポイントのみを保存するステップと、
    前記歩行者に対応する前記ポイントにおける残りの前記上部のポイントを水平面に投影するステップと、
    前記水平面に投影された前記上部のポイントに関連した主軸を判定するステップと、
    をさらに含む、請求項1に記載の方法。
  3. 前記水平面上の前記投影された上部のポイントを前記主軸に投影するステップと、
    2度投影された前記上部のポイントをフィルタリングして前記歩行者の腕および手に対応する、前記主軸の両方向における最も外れたポイントを除去するステップと、
    をさらに含む、請求項2に記載の方法。
  4. 残りの前記2度投影された上部のポイントに対応する、前記歩行者に対応する前記ポイントにおけるポイントのサブセットを判定するステップと、
    前記ポイントのサブセットを囲む最小境界ボックスを生成するステップであって、前記ポイントのサブセットを囲む前記最小境界ボックスが、前記歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスである、ステップと、
    をさらに含む、請求項3に記載の方法。
  5. 2度投影された前記上部のポイントをフィルタリングして前記主軸の両方向における最も外れたポイントを除去するステップが、前記2度投影された上部のポイントのうち重心までの距離が第2の閾値を超えるポイントを除去するステップを含む、請求項3に記載の方法。
  6. 前記歩行者に対応する前記ポイントをフィルタリングして、下部のポイントを除去し、上部のポイントのみを維持するステップが、前記歩行者に対応する前記ポイントにおける最上部のポイントに対する高低差が第1の閾値を超えるポイントを除去するステップを含む、請求項2に記載の方法。
  7. 前記第1の閾値が約0.6メートル(m)である、請求項6に記載の方法。
  8. 前記投影された上部のポイントに関連する主軸を判定するステップが、分散行列に対して特異値分解(SVD)または固有値分解を実行するステップを含む、請求項2に記載の方法。
  9. プロセッサによって実行されたとき、該プロセッサに動作を実行させる命令を記憶した非一時的機械可読媒体であって、前記動作が、
    自律運転車両(ADV)にインストールされたLIDARデバイスによって生成されたポイントクラウドの複数のフレームにおいて歩行者を検出するステップと、
    前記ポイントクラウドの複数のフレームのうち少なくとも2つのフレームの各々において、前記歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスを生成するステップと、
    前記ポイントクラウドの複数のフレームのうち少なくとも2つにわたる前記最小境界ボックスに少なくとも部分的に基づいて、前記歩行者の移動速度を推定するステップと、
    少なくとも前記歩行者の前記移動速度に基づいて、前記ADVに関する軌跡を計画するステップと、
    前記計画された軌跡に基づいて前記ADVを運転するために制御信号を生成するステップと、
    を含む、非一時的機械可読媒体。
  10. 前記歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む前記最小境界ボックスを生成するステップが、
    前記歩行者に対応する前記ポイントをフィルタリングして、前記歩行者の脚および足に対応する下部のポイントを除去し、上部のポイントのみを保存するステップと、
    前記歩行者に対応する前記ポイントにおける残りの前記上部のポイントを水平面に投影するステップと、
    前記水平面に投影された前記上部のポイントに関連した主軸を判定するステップと、
    をさらに含む、請求項9に記載の機械可読媒体。
  11. 前記動作が、
    前記水平面上の前記投影された上部のポイントを前記主軸に投影するステップと、
    2度投影された前記上部のポイントをフィルタリングして前記歩行者の腕および手に対応する、前記主軸の両方向における最も外れたポイントを除去するステップと、
    をさらに含む、請求項10に記載の機械可読媒体。
  12. 前記動作が、
    残りの前記2度投影された上部のポイントに対応する、前記歩行者に対応する前記ポイントにおけるポイントのサブセットを判定するステップと、
    前記ポイントのサブセットを囲む最小境界ボックスを生成するステップであって、前記ポイントのサブセットを囲む前記最小境界ボックスが、前記歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスである、ステップと、
    をさらに含む、請求項11に記載の機械可読媒体。
  13. 2度投影された前記上部のポイントをフィルタリングして前記主軸の両方向における最も外れたポイントを除去するステップが、前記2度投影された上部のポイントのうち重心までの距離が第2の閾値を超えるポイントを除去するステップを含む、請求項11に記載の機械可読媒体。
  14. 前記歩行者に対応する前記ポイントをフィルタリングして、下部のポイントを除去し、上部のポイントのみを維持するステップが、前記歩行者に対応する前記ポイントにおける最上部のポイントに対する高低差が第1の閾値を超えるポイントを除去するステップを含む、請求項10に記載の機械可読媒体。
  15. 前記第1の閾値が約0.6メートル(m)である、請求項14に記載の機械可読媒体。
  16. 前記投影された上部のポイントに関連する主軸を判定するステップが、分散行列に対して特異値分解(SVD)または固有値分解を実行するステップを含む、請求項10に記載の機械可読媒体。
  17. プロセッサと、
    該プロセッサによって実行されたとき該プロセッサに動作を実行させる命令を記憶するために該プロセッサに接続されたメモリと、を備えるデータ処理システムであって、前記動作が、
    自律運転車両(ADV)にインストールされたLIDARデバイスによって生成されたポイントクラウドの複数のフレームにおいて歩行者を検出するステップと、
    前記ポイントクラウドの複数のフレームのうち少なくとも2つのフレームの各々において、前記歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスを生成するステップと、
    前記ポイントクラウドの複数のフレームのうち少なくとも2つにわたる前記最小境界ボックスに少なくとも部分的に基づいて、前記歩行者の移動速度を推定するステップと、
    少なくとも前記歩行者の前記移動速度に基づいて、前記ADVに関する軌跡を計画するステップと、
    前記計画された軌跡に基づいて前記ADVを運転するために制御信号を生成するステップと、
    を含む、データ処理システム。
  18. 前記歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む前記最小境界ボックスを生成するステップが、
    前記歩行者に対応する前記ポイントをフィルタリングして、前記歩行者の脚および足に対応する下部のポイントを除去し、上部のポイントのみを保存するステップと、
    前記歩行者に対応する前記ポイントにおける残りの前記上部のポイントを水平面に投影するステップと、
    前記水平面に投影された前記上部のポイントに関連した主軸を判定するステップと、
    をさらに含む、請求項17に記載のシステム。
  19. 前記動作が、
    前記水平面上の前記投影された上部のポイントを前記主軸に投影するステップと、
    2度投影された前記上部のポイントをフィルタリングして前記歩行者の腕および手に対応する、前記主軸の両方向における最も外れたポイントを除去するステップと、
    をさらに含む、請求項18に記載のシステム。
  20. 前記動作が、
    残りの前記2度投影された上部のポイントに対応する、前記歩行者に対応する前記ポイントのサブセットを判定するステップと、
    前記ポイントのサブセットを囲む最小境界ボックスを生成するステップであって、前記ポイントのサブセットを囲む前記最小境界ボックスが、前記歩行者の手足に対応するポイントを除いた前記歩行者に対応するポイントを囲む最小境界ボックスである、ステップと、
    をさらに含む、請求項19に記載のシステム。
JP2020572410A 2020-05-15 2020-05-15 部分的ポイントクラウドベースの歩行者速度推定方法 Active JP7196205B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2020/090419 WO2021226980A1 (en) 2020-05-15 2020-05-15 Partial point cloud-based pedestrians' velocity estimation method

Publications (2)

Publication Number Publication Date
JP2022535465A true JP2022535465A (ja) 2022-08-09
JP7196205B2 JP7196205B2 (ja) 2022-12-26

Family

ID=78513246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020572410A Active JP7196205B2 (ja) 2020-05-15 2020-05-15 部分的ポイントクラウドベースの歩行者速度推定方法

Country Status (5)

Country Link
US (1) US11703599B2 (ja)
EP (1) EP3935413A4 (ja)
JP (1) JP7196205B2 (ja)
CN (1) CN114026463A (ja)
WO (1) WO2021226980A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11592570B2 (en) * 2020-02-25 2023-02-28 Baidu Usa Llc Automated labeling system for autonomous driving vehicle lidar data
US20230174110A1 (en) * 2021-12-03 2023-06-08 Zoox, Inc. Vehicle perception system with temporal tracker
CN115321322A (zh) * 2022-08-22 2022-11-11 日立楼宇技术(广州)有限公司 一种电梯轿厢门的控制方法、装置、设备及存储介质
CN116540252B (zh) * 2023-07-06 2023-09-26 上海云骥跃动智能科技发展有限公司 基于激光雷达的速度确定方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190310651A1 (en) * 2018-04-10 2019-10-10 Uber Technologies, Inc. Object Detection and Determination of Motion Information Using Curve-Fitting in Autonomous Vehicle Applications
US20190315351A1 (en) * 2018-04-11 2019-10-17 Aurora Innovation, Inc. Control Of Autonomous Vehicle Based On Determined Yaw Parameter(s) of Additional Vehicle
US20190377349A1 (en) * 2018-06-07 2019-12-12 Deka Products Limited Partnership System and Method for Distributed Utility Service Execution
JP2020061125A (ja) * 2018-10-11 2020-04-16 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC 自動運転のための交差検証に基づく自動lidarキャリブレーション

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8564534B2 (en) * 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US9904852B2 (en) * 2013-05-23 2018-02-27 Sri International Real-time object detection, tracking and occlusion reasoning
KR101543105B1 (ko) * 2013-12-09 2015-08-07 현대자동차주식회사 보행자 인식 장치 및 그의 처리 방법과 이를 지원하는 차량
US10262234B2 (en) * 2017-04-24 2019-04-16 Baidu Usa Llc Automatically collecting training data for object recognition with 3D lidar and localization
US11282389B2 (en) * 2018-02-20 2022-03-22 Nortek Security & Control Llc Pedestrian detection for vehicle driving assistance
US11550061B2 (en) * 2018-04-11 2023-01-10 Aurora Operations, Inc. Control of autonomous vehicle based on environmental object classification determined using phase coherent LIDAR data
JP7145867B2 (ja) * 2018-09-28 2022-10-03 バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッド 自動運転車両のための低速シーンにおける歩行者インタラクションシステム
CN109886113A (zh) * 2019-01-17 2019-06-14 桂林远望智能通信科技有限公司 一种基于区域候选网络的旷视行人再识别方法
KR102593948B1 (ko) * 2019-01-23 2023-10-25 모셔널 에이디 엘엘씨 주석 달기를 위한 데이터 샘플의 자동 선택
CN110554379A (zh) * 2019-09-18 2019-12-10 南京慧尔视智能科技有限公司 基于微多普勒的人员检测方法及系统
US11074438B2 (en) * 2019-10-01 2021-07-27 Toyota Research Institute, Inc. Disentangling human dynamics for pedestrian locomotion forecasting with noisy supervision
US11460857B1 (en) * 2020-02-21 2022-10-04 Zoox, Inc. Object or person attribute characterization
EP4149807A4 (en) * 2020-05-14 2024-05-15 Perceptive Automata Inc TURN-AWARE MACHINE LEARNING FOR TRAFFIC BEHAVIOR PREDICTION

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190310651A1 (en) * 2018-04-10 2019-10-10 Uber Technologies, Inc. Object Detection and Determination of Motion Information Using Curve-Fitting in Autonomous Vehicle Applications
US20190315351A1 (en) * 2018-04-11 2019-10-17 Aurora Innovation, Inc. Control Of Autonomous Vehicle Based On Determined Yaw Parameter(s) of Additional Vehicle
US20190377349A1 (en) * 2018-06-07 2019-12-12 Deka Products Limited Partnership System and Method for Distributed Utility Service Execution
JP2020061125A (ja) * 2018-10-11 2020-04-16 バイドゥ ユーエスエイ エルエルシーBaidu USA LLC 自動運転のための交差検証に基づく自動lidarキャリブレーション

Also Published As

Publication number Publication date
EP3935413A4 (en) 2022-03-30
CN114026463A (zh) 2022-02-08
US20210356599A1 (en) 2021-11-18
EP3935413A1 (en) 2022-01-12
JP7196205B2 (ja) 2022-12-26
US11703599B2 (en) 2023-07-18
WO2021226980A1 (en) 2021-11-18

Similar Documents

Publication Publication Date Title
US20210027629A1 (en) Blind area processing for autonomous driving vehicles
CN111775933B (zh) 用于基于车辆周围障碍物的移动轨迹自主驾驶车辆的方法
US10915766B2 (en) Method for detecting closest in-path object (CIPO) for autonomous driving
JP7196205B2 (ja) 部分的ポイントクラウドベースの歩行者速度推定方法
JP7192090B2 (ja) ポイントクラウド融合のための検出器
US11225228B2 (en) Method for enhancing in-path obstacle detection with safety redundancy autonomous system
US20210004010A1 (en) Hierarchical path decision system for planning a path for an autonomous driving vehicle
US11661085B2 (en) Locked pedestrian detection and prediction for autonomous vehicles
US11713057B2 (en) Feedback based real time steering calibration system
CN113442945A (zh) 用于自动驾驶车辆的使用反馈的增量式侧向控制系统
JP2023517105A (ja) 点群の特徴に基づく障害物濾過システム
EP3757711A1 (en) A vehicle-platoons implementation under autonomous driving system designed for single vehicle
CN112230645A (zh) 用于控制无人驾驶车辆的操纵杆控制的安全机制
CN113247017B (zh) 用于确保自动驾驶车辆的稳定绕行的双缓冲系统
US11608056B2 (en) Post collision damage reduction brake system incorporating front obstacle avoidance
CN112985435A (zh) 用于操作自主驾驶车辆的方法及系统
CN113428173A (zh) 用于自动驾驶车辆的静态曲率误差补偿控制逻辑
US11430466B2 (en) Sound source detection and localization for autonomous driving vehicle
CN212391730U (zh) 用于自动驾驶车辆的光探测和测距装置
US20210284195A1 (en) Obstacle prediction system for autonomous driving vehicles
WO2021189350A1 (en) A point cloud-based low-height obstacle detection system
CN113815526A (zh) 用于自动驾驶车辆的早期制动灯警告系统
CN212515471U (zh) 用于自动驾驶车辆的光探测和测距装置
US11529969B2 (en) Pull over method based on quadratic programming for path planning
WO2024036618A1 (en) Dynamic signal transfer configuration for driverless vehicle remote monitoring

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221214

R150 Certificate of patent or registration of utility model

Ref document number: 7196205

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150