JP2019530608A - Autonomous vehicle with object level fusion - Google Patents
Autonomous vehicle with object level fusion Download PDFInfo
- Publication number
- JP2019530608A JP2019530608A JP2019517953A JP2019517953A JP2019530608A JP 2019530608 A JP2019530608 A JP 2019530608A JP 2019517953 A JP2019517953 A JP 2019517953A JP 2019517953 A JP2019517953 A JP 2019517953A JP 2019530608 A JP2019530608 A JP 2019530608A
- Authority
- JP
- Japan
- Prior art keywords
- trajectory
- information
- vehicle
- detected
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title description 14
- 238000000034 method Methods 0.000 claims abstract description 75
- 238000005259 measurement Methods 0.000 claims abstract description 27
- 230000008569 process Effects 0.000 claims abstract description 9
- 230000001052 transient effect Effects 0.000 claims description 17
- 238000012217 deletion Methods 0.000 claims description 6
- 230000037430 deletion Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000007717 exclusion Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 23
- 230000008859 change Effects 0.000 description 13
- 230000006399 behavior Effects 0.000 description 10
- 230000003993 interaction Effects 0.000 description 10
- 238000004590 computer program Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 239000003795 chemical substances by application Substances 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000004441 surface measurement Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0088—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
- G01S13/723—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
Abstract
【課題】従来よりも向上した、自律走行車の方法を提供する。【解決手段】検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換する過程と、既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測する過程と、変換されたセンサデータに基づいて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付ける過程と、検出物体に関連付けられた物体軌跡について、運動情報、幾何情報及び物体種別情報を更新する過程と、融合された物体リストであって、更新された物体軌跡のセットを含む物体リストを報告する過程と、を備える。【選択図】図2The present invention provides an autonomous vehicle method improved over the prior art. Sensor data about a detected object, a process of converting sensor data from a plurality of different types of sensors into a common coordinate frame, and a position, speed, and direction at the current measurement time of an existing object trajectory And a process of predicting a bounding box and a process of associating a detected object with an existing object trajectory by obtaining at least two similarities among motion information, geometric information, and object type information based on the converted sensor data And, for the object trajectory associated with the detected object, update the motion information, geometric information, and object type information, and report a fused object list that includes the updated set of object trajectories. A process. [Selection] Figure 2
Description
本願は、2016年9月29日に同時に出願した、Paul DeBitetto、Matthew Graham、Troy Jones及びPeter Lommelによる「車両位置特定の自律走行車両:(Autonomous Vehicle: Vehicle Localization)」(代理人管理番号5000.1006-000 (CSDL-2489))、ならびに2016年9月29日に同時に出願した、Troy Jones、Scott Lennox、John Sgueglia及びJon Demerlyによる「モジュラー型アーキテクチャによる自律走行車両:(Autonomous Vehicle: Modular Architecture)」(代理人管理番号5000.1007-000 (CSDL-2490))に関連する。 The present application is “Autonomous Vehicle: Vehicle Localization” by Paul DeBitetto, Matthew Graham, Troy Jones and Peter Lommel, filed at the same time on September 29, 2016 (agent management number 5000.1006- 000 (CSDL-2489)), and “Autonomous Vehicle: Modular Architecture” by Troy Jones, Scott Lennox, John Sgueglia and Jon Demerly, filed simultaneously on September 29, 2016 ( Related to agent management number 5000.1007-000 (CSDL-2490)).
上記の出願の全教示内容は、参照をもって本明細書に取り入れたものとする。 The entire teachings of the above application are incorporated herein by reference.
今日の車両には、レーンアシスト、衝突前制動、リアクロストラック検出などの自動化システムを採用したものがある。これらのシステムは、車両の運転手が人為的過誤を犯さないように且つ他の車両、移動体又は歩行者との衝突を回避するように支援し得る。 Some vehicles today employ automated systems such as lane assist, pre-collision braking, and rear cross track detection. These systems may help the vehicle driver avoid human error and avoid collisions with other vehicles, moving objects or pedestrians.
しかし、これらのシステムは一部の車両機能を自動化するだけであって、他の動作については未だ車両の運転手に頼っている。 However, these systems only automate some vehicle functions and still rely on the vehicle driver for other operations.
一実施形態では、方法が、検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換する過程を備える。前記方法は、既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測する過程を備える。前記方法は、さらに、変換された前記センサデータに基づいて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付ける過程を備える。前記方法は、さらに、検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新する過程を備える。前記方法は、さらに、融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告する過程を備える。一実施形態では、前記方法、システムおよびコンピュータ読取り可能媒体は、自律走行車両に状況認識(situational awareness)を行う。 In one embodiment, the method comprises converting sensor data from a plurality of disparate sensors into a common coordinate frame for sensor objects. The method comprises the step of predicting the position, velocity, orientation and bounding box at the current measurement time of an existing object trajectory. The method further includes associating a detected object with an existing object trajectory by determining similarity between at least two of motion information, geometric information, and object type information based on the converted sensor data. . The method further includes the step of updating the motion information, the geometric information, and the object type information for the object trajectory associated with the detected object. The method further comprises reporting an object list that is a fused object list that includes the resulting set of updated object trajectories. In one embodiment, the method, system, and computer readable medium provide situational awareness to autonomous vehicles.
一実施形態において、前記方法は、既存の物体軌跡に関連付けられない検出物体について、新しい物体軌跡を開始する過程を備える。 In one embodiment, the method comprises initiating a new object trajectory for a detected object that is not associated with an existing object trajectory.
一実施形態において、前記方法は、自律走行車両の少なくとも1つの前記異種センサの視野外にある物体軌跡を削除する過程を備える。 In one embodiment, the method comprises deleting an object trajectory that is outside the field of view of at least one of the heterogeneous sensors of an autonomous vehicle.
一実施形態において、前記方法は前記物体軌跡を削除する過程を備え、当該過程が、さらに、物体軌跡が前記少なくとも1つの異種センサの死角内にある場合には、当該物体軌跡を削除対象から除外する副過程を含む。 In one embodiment, the method comprises a step of deleting the object trajectory, which further excludes the object trajectory from deletion if the object trajectory is within a blind spot of the at least one heterogeneous sensor. Including sub-processes.
一実施形態において、検出物体を既存の物体軌跡に関連付ける過程が、さらに、運動情報、幾何情報及び物体種別情報のうちの少なくとも3つの類似度を求める。 In one embodiment, the process of associating the detected object with an existing object trajectory further determines at least three similarities of motion information, geometric information, and object type information.
一実施形態において、前記方法は、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出された特徴物の軌跡を既存の物体軌跡に関連付ける過程を備える。 In one embodiment, the method comprises associating a detected feature trajectory with an existing object trajectory by determining similarity between at least two of motion information, geometric information, and object type information.
一実施形態では、運動情報が位置情報、速度情報及び向き情報を含み、幾何情報がバウンディングボックス及び物体輪郭を含み、物体種別情報が物体種類を含む。 In one embodiment, the motion information includes position information, velocity information, and orientation information, the geometric information includes a bounding box and an object outline, and the object type information includes an object type.
一実施形態では、自律走行車両の状況認識を提供するために検出物体を分析するシステムが、検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換するように構成された前処理手段を備える。前記システムは、さらに、既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測するように構成された軌跡予測手段を備える。前記システムは、さらに、変換された前記センサデータを用いて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付けるように構成されたデータ連関手段を備える。前記システムは、さらに、検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新するように構成された軌跡更新手段を備える。前記システムは、さらに、融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告するように構成された報告手段を備える。 In one embodiment, a system for analyzing a detected object to provide situational awareness of an autonomous vehicle is sensor data about the detected object, wherein the sensor data from multiple dissimilar sensors is converted into a common coordinate frame Pre-processing means configured to do. The system further comprises trajectory prediction means configured to predict position, velocity, orientation and bounding box at the current measurement time of an existing object trajectory. The system is further configured to associate a detected object with an existing object trajectory by determining at least two similarities among motion information, geometric information, and object type information using the converted sensor data. Provided with data association means. The system further includes trajectory updating means configured to update the motion information, the geometric information, and the object type information for the object trajectory associated with the detected object. The system further comprises reporting means configured to report an object list that is a fused object list and includes the obtained set of updated object trajectories.
一実施形態では、非過渡的なコンピュータ読取り可能媒体が、自律走行車両を動作させる命令を記憶するように構成されている。前記命令は、プロセッサによってロード及び実行されると、当該プロセッサに、検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換する手順、を実行させる。前記命令は、さらに、前記プロセッサに、既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測する手順、を実行させる。前記命令は、さらに、前記プロセッサに、変換された前記センサデータに基づいて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付ける手順、を実行させる。前記命令は、さらに、前記プロセッサに、検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新する手順、を実行させる。前記命令は、さらに、前記プロセッサに、融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告する手順、を実行させる。 In one embodiment, a non-transient computer readable medium is configured to store instructions for operating an autonomous vehicle. The instructions, when loaded and executed by a processor, cause the processor to execute a procedure for converting sensor data about a detection object, which is sensor data from a plurality of different types of sensors, into a common coordinate frame. The instructions further cause the processor to execute a procedure for predicting position, velocity, orientation and bounding box at the current measurement time of an existing object trajectory. The instruction further determines the detected object as an existing object trajectory by obtaining at least two similarities among motion information, geometric information, and object type information based on the converted sensor data. The procedure to associate is executed. The instructions further cause the processor to execute a procedure for updating the motion information, the geometric information, and the object type information for an object trajectory associated with a detected object. The instructions further cause the processor to execute a procedure for reporting a merged object list that includes an obtained set of updated object trajectories.
前述の内容は、添付の図面に示す本発明の例示的な実施形態についての以下のより詳細な説明から明らかになる。異なる図を通して、同じ参照符号は同じ構成/構成要素を指すものとする。図面は必ずしも縮尺どおりではなく、むしろ、本発明の実施形態を図示することに重点が置かれている。 The foregoing will become apparent from the following more detailed description of the exemplary embodiments of the invention illustrated in the accompanying drawings. Throughout the different figures, the same reference signs refer to the same elements / components. The drawings are not necessarily to scale, but rather emphasis is placed on illustrating embodiments of the invention.
以下では、本発明の例示的な実施形態について説明する。 In the following, exemplary embodiments of the invention will be described.
図1は、観察、状況判断、意思決定及び行動(OODA)のモデルの自動制御システムの一実施形態における各ステップを示す図である。高度に自動化された運転システムのような自動化システムや、自動運転車(すなわち、自律走行車両)は、OODAモデルを採用している。観察仮想レイヤ102は、実世界(地球)から、レーザ距離計、レーダ、赤外線、又はビジョンシステムなどのマシンセンサを用いて特徴物を検知することを伴う。状況判断仮想レイヤ104は、検知された情報に基づき状況認識、を行うことを伴う。状況判断仮想レイヤの活動例として、カルマンフィルタリング、モデルベーストマッチング、機械学習又は深層学習、およびベイジアン予測が挙げられる。意思決定仮想レイヤ106は、複数の対象から行動を選び出し、最終的な決断とする。行動仮想レイヤ108は、その決断を実行するための案内及び制御を提供する。図2は、自律走行車両の高次アーキテクチャ206の一実施形態のブロック図200である。アーキテクチャ206は、完全に自動化された運転を可能にするのに、トップダウン式のアプローチを用いて構築されている。アーキテクチャ206は、また、異なる車両メーカーのハードウェアにも適応することができるようにモジュラー型のアーキテクチャであるのが好ましい。したがって、アーキテクチャ206は、異なる車両メーカーのハードウェアの特性を最大限に高めるように機能的に分割された、複数のモジュラー要素を備えている。一実施形態において、本明細書に記載のモジュラー型アーキテクチャ206は、あらゆる車両204のセンサ系統202に対するインターフェースとなることができる。モジュラー型アーキテクチャ206は、さらに、あらゆる車両204から車両情報を受け取ることが可能であり且つあらゆる車両204と通信することが可能である。
FIG. 1 is a diagram illustrating each step in an embodiment of an automatic control system for observation, situation determination, decision making, and behavior (OODA) models. Automated systems such as highly automated driving systems and autonomous vehicles (ie autonomous vehicles) employ the OODA model. The observation
モジュラー型アーキテクチャ206の構成要素には、センサ202、センサインターフェース制御部(SIC)208、位置特定制御部(LC)210、認知制御部(PC)212、自動運転制御部214(ADC)、車両制御部216(VC)、システム制御部218(SC)、ヒューマンインタラクション制御部220(HC)、およびマシンインタラクション制御部222(MC)が含まれる。
The components of the modular architecture 206 include a
再び図1のOODAモデルを参照する。自律走行車両の観点から見ると、前記モデルの前記観察レイヤは、例えばビジョンセンサ、レーダ(Radar:「電波検出及び測距」)、ライダー(LIDAR:「光検出及び測距」)、全地球測位システム(GPS)等からセンサ読取値を収集することを含む。図2に示すセンサ202が、このような観察レイヤを表している。前記モデルの前記状況判断レイヤの例は、実世界において、走行中の道路に対して及びその道路上の車線区分線に対して車がどこにあるのかを判断することを含んでもよく、図2の認知制御部(PC)212及び位置特定制御部(LC)210により表される。前記モデルの前記意思決定レイヤの例は、車を自動運転するための経路(通過する部分(corridor))を決定することを含み、図2の自動運転制御部(ADC)214及び車両制御部(VC)216などの構成要素を有する。前記行動レイヤの例は、その経路を、図4の駆動部制御部410のような、前記車両の駆動系統(例えば、操舵副系統、加速副系統、制動副系統等)への、当該経路に沿って車を導く指令(コマンド)に変換することを含む。当業者であれば、システムのこれらのレイヤは必ずしもこの順序で進むとは限らず、観察が変わり次第、その他のレイヤの結果も変わるということを理解できるであろう。例えば、走行すべき経路をシステムが選んだ後も、他の物体の検出などといった道路上の状況の変化によって、車の経路を変更したり衝突を防ぐための緊急手順を実行したりしてもよい。また、前記車両制御部の前記指令は、ドリフトやスキッドなどの予想される車両挙動の変化を補償するように動的に調節される必要があり得る。
Referring once again to the OODA model of FIG. From the viewpoint of an autonomous vehicle, the observation layer of the model includes, for example, a vision sensor, a radar (Radar: “radio wave detection and ranging”), a rider (LIDAR: “light detection and ranging”), and global positioning. Collecting sensor readings from a system (GPS) or the like. The
高次のレベルにおいて、モジュール(手段)のアーキテクチャ206は、センサ202から測定値を受け取る。センサが異なれば出力する情報のセットも異なり且つフォーマットも異なり得るが、モジュラー型アーキテクチャ206は、センサデータを当該モジュラー型アーキテクチャ206が解釈できるベンダーニュートラルな(特定のベンダーに依存しない)フォーマットのデータに変換するように構成されたセンサインターフェース制御部(SIC)208(センサインターフェースサーバ(SIS)と称されることもある)を含んでいる。したがって、モジュラー型アーキテクチャ206は、車両の前記センサから、当該センサのベンダー、メーカー又は構成に関係なく、当該車両204周辺の環境について知ることができる。SIC208は、また、各センサのデータに対して、車における当該センサの位置及び向きを含むメタデータタグを付すことができる。当該メタデータタグは、前記認知制御部によって各センサの独自の角度、視野及び死角を決定するのに用いられることができる。
At a higher level, module architecture 206 receives measurements from
モジュラー型アーキテクチャ206は、さらに、車両制御部216(VC)を含む。VC216は、前記車両に指令を送るように且つ前記車両から状態メッセージを受け取るように構成されている。車両制御部216は、車両204から、当該車両の状態(例えば、当該車両の速度、姿勢、操舵位置、制動状態及び燃料レベルに関する情報のような、当該車両の自律走行に関係する副系統についての任意の情報等)を示す状態メッセージを受け取る。モジュラー型アーキテクチャ206は、車両204及びセンサ202からの情報に基づいて、自動運転を実現するのにVC216から車両204に送る指令を算出することができる。モジュラー型アーキテクチャ206内の各種モジュールの機能については後で詳細に説明することにする。ただし、モジュラー型アーキテクチャ206を高次のレベルで見ると、当該モジュラー型アーキテクチャ206は、(a)センサ202からセンサ情報、且つ(b)車両204から車両状態情報を受け取り、そして、車両命令を車両204に供給する。このようなアーキテクチャにより、任意のセンサ構成を有するあらゆる車両に対して前記モジュラー型アーキテクチャを採用することができる。したがって、センサ副系統(例えば、センサ202等)、さらには、車両状態を出力し且つ駆動指令を受け付けることが可能な駆動副系統(例えば、図4の駆動部制御部410等)を備えた車両プラットフォームであれば、どのような車両プラットフォームでもモジュラー型アーキテクチャ206と統合することができる。
The modular architecture 206 further includes a vehicle controller 216 (VC). The
モジュラー型アーキテクチャ206内では、様々なモジュールが協働することによって自動運転を前記OODAモデルに従って実現する。センサ202及びSIC208は、前記「観察」仮想レイヤ内に存在する。前述したように、SIC208は、様々なフォーマットの測定値(例えば、センサデータ等)を受け取る。SIC208は、前記センサ直接からのベンダー特有データを、ベンダーニュートラルなデータに変換するように構成されている。これにより、センサ202のセットが任意のブランドのレーダ、ライダー又はイメージセンサなどのセンサを含むことができ、モジュラー型アーキテクチャ206は、センサ202による環境の認知を効果的に活用することができる。
In the modular architecture 206, various modules cooperate to realize automatic driving according to the OODA model.
次に、前記センサインターフェースサーバからの測定値出力が、認知制御部(PC)212及び位置特定制御部(LC)210によって処理される。PC212及びLC210はいずれも、前記OODAモデルの前記「状況判断」仮想レイヤ内に存在する。LC210は、GPS信号よりも高精度であり得る前記車両のロバストな実世界位置を決定し、また、GPS信号が利用できないか又は正確でない場合にも、前記車両の実世界位置を決定する。LC210は当該位置を、GPSデータ及びセンサデータに基づいて決定する。一方で、PC212は、車周辺の物体や道路の状況を含む、車周辺の環境の状態を表す予測モデルを生成する。図3は、SIC208、LC210及びPC212をさらに詳細に示す。
Next, the measurement value output from the sensor interface server is processed by the recognition control unit (PC) 212 and the position specification control unit (LC) 210. Both the
自動運転制御部214(ADC)及び車両制御部216(VC)は、前記認知制御部及び位置特定制御部の出力を受け取る。ADC214及びVC216は、前記OODAモデルの前記「意思決定」仮想レイヤ内に存在する。ADC214は、目的地選択、ルート(道筋)及びレーンの案内ならびに高次交通監視を担う。ADC214は、さらに、ルート内でのレーン選択、および緊急時に前記車両の進路を変えさせるための安全な退避エリアの特定を担う。すなわち、ADC214は、目的地に到達するためのルート、および当該ルート内において前記車両を導くための経路を選択する。ADC214は、この経路をVC216に渡す。当該経路が与えられたVC216は、当該経路を安全に走行するように前記車両を導くための、低次の駆動機能を供給する。VC216は、まず、運転手に快適性を提供しながら前記経路に沿って操縦する最良の方法、安全な退避場所に到達する能力、緊急時の操縦性、および前記車両の軌道(trajectory)に追従する能力を決定する。緊急時にはVC216が、ADC214により供給された前記経路を無効にして即座に車を安全な退避経路に案内し、安全になればADC214により供給された前記経路に復帰する。VC216は、前記車両の操縦方法(安全操縦を含む)を決定した後、車両204に対して駆動指令を供給する。車両204は当該指令を、当該車両204の操舵副系統、スロットル副系統及び制動副系統において実行する。つまり、VC216のこの要素は前記OODAモデルの前記「行動」仮想レイヤ内に存在する。図4には、ADC214及びVC216についてのさらなる詳細が記載されている。
The automatic driving control unit 214 (ADC) and the vehicle control unit 216 (VC) receive the outputs of the recognition control unit and the position specifying control unit. The
モジュラー型アーキテクチャ206は、さらに、各種モジュールとの通信を、システム制御部218(SC)を通してコーディネートする。SC218は、ADC214及びVC216とメッセージをやり取りすることによってヒューマンインタラクション制御部220(HC)及びマシンインタラクション制御部222(MC)の動作を可能にする。HC220は、前記システム制御部によりコーディネートされた状態メッセージに基づいて、前記自律走行車両の動作についての情報を人間が読解可能なフォーマットで提供する。HC220は、さらに、人間による入力が車の意思決定において考慮されるのを可能にする。例えば、HC220は一例として、前記車両のオペレータが前記車両の目的地又はルートを入力又は変更するのを可能にする。SC218がオペレータの入力を解釈し、必要に応じてこの情報をVC216又はADC214に受け渡す。
The modular architecture 206 further coordinates communication with various modules through the system controller 218 (SC). The
また、MC222は、他のマシン又は車両とのメッセージをコーディネートすることができる。例えば、他の車両が進路変更信号を自律走行車両に対して電子的に且つ無線で送信することができ、MC222がそのような情報を受信して当該情報をVC216及びADC214にSC218を介して受け渡しできる。また、MC222は、情報を他の車両に対して無線で送信できる。進路変更信号の例として、MC222は、この車が進路変更しようとしているという通知を受け取ることできる。MC222はこの情報を、VC216がSC218に対して状態メッセージを送り且つSC218が当該状態をMC222に受け渡すことによって受け取る。ただし、その他の例のマシン通信も実現可能である。例えば、他の車両のセンサ情報又は固定式センサが前記自律走行車両に、当該車両に環境についてのより確かな視界を与えるデータを無線で送信することができる。例えば、他のマシンが、前記車両の死角における物体についての情報を送信することが可能であってもよい。さらなる例では、他の車両が当該他の車両の軌跡を送信できる。さらなる他の例では、交通信号灯が前記車両から見えない場合の支援用として、当該交通信号灯が当該交通信号灯の状態についてのデジタル信号を送信できる。当業者であれば、前記自律走行車両により利用されるどのような情報も、他の車両との間で送受信されることが可能であり、これによって自律走行に役立てられることを理解できるであろう。図6には、HC220、MC222及びSC218についてのさらなる詳細が記載されている。
In addition, the
図3は、センサインタラクション制御部304(SIC)、認知制御部(PC)306及び位置特定制御部(LC)308の一実施形態を示すブロック図300である。前記車両のセンサアレイ302は、カメラ302a、レーダ302b、ライダー302c、GPS302d、IMU302e、およびvehicle-to-everything(V2X)302fなどの様々な種類のセンサを含むことができる。各センサは、ベンダー規定の個々のデータタイプをSIC304に送る。例えば、カメラ302aは物体リスト及び画像を送り、レーダ302bは物体リスト及び同相/直交位相(IQ)データを送り、ライダー302cは物体リスト及び走査点を送り、GPS302dは位置及び速度を送り、IMU302eは加速度データを送り、V2X302f制御部は他の車両の軌跡及び進路変更信号などのセンサデータや交通信号灯データを送る。ただし、当業者であれば、センサアレイ302がこれら以外の種類のセンサも使用可能であることを理解できるであろう。SIC304は、各センサ302a〜302fの異常を監視及び診断する。SIC304は、さらに、各センサのデータを当該データのベンダー特有パッケージから分離し、ベンダーニュートラルなデータタイプを認知制御部(PC)306及び位置特定制御部308(LC)に送る。SIC304は、位置特定用特徴物測定値ならびに位置及び姿勢の測定値をLC308に転送し、かつ、追跡対象物体測定値、走行面測定値ならびに位置及び姿勢の測定値をPC306に転送する。また、SIC304は、フォーマットの異なる新しいセンサも同じモジュラー型アーキテクチャで使用できるように、ファームウェアで更新されることができる。
FIG. 3 is a block diagram 300 illustrating one embodiment of a sensor interaction control unit 304 (SIC), a recognition control unit (PC) 306, and a location specification control unit (LC) 308. The
LC308は、GPSデータ及びIMUデータをレーダデータ、ライダーデータ及びビジョンデータと融合させることにより、GPS位置内の位置を決定したりGPS位置の精度を高めたりする。そして、LC308は、決定された確かな、位置、速度及び姿勢をPC306に報告する。LC308は、さらに、精度を高めるために、位置データ、速度データ及び姿勢データを表す測定値同士を、あるセンサ測定値(例えば、市街でのGPS信号等)が使えなくなった又は悪化した場合に当該LC308がその測定値を補正することができるように、相対的に監視する。PC306は、検知された情報に基づいて前記車両周辺の物体を識別して位置を突き止める。PC306は、さらに、前記車両近辺の走行可能面領域を推定すると共に、路肩や緊急時の走行可能地形などの表面も評価する。PC306は、さらに、物体の未来位置の確率予測を提供する。PC306は、さらに、物体及び走行可能面の履歴を記憶する。
The
PC306は、戦略的予測と戦術的予測との2種類の予測を出力する。戦術的予測は、約2〜4秒後の未来の実世界を表すものであり、前記車両の最も近くにある交通及び道路のみを予測する。この予測は、路肩のような場所における空いた退避スペースを含む。
The
戦略的予測は、車の可視環境のうちの視認可能範囲を超える領域を予測する長期予測である。この予測は、4秒よりも先の未来についてのものであるが、戦術的予測よりも不確かさが大きくなる。というのも、物体(例えば、車、人間等)の挙動が、現在観察されている挙動から予測不能に変化するかもしれないからである。戦略的予測の不確かさが大きい理由は、現在観察されている挙動が予測期間全体にわたって続くという仮定を、当該予測が立てているためである。また、このような予測は、外部源(他の自律走行車両、センサシステム及びセンサ通信ネットワークを有する非自律走行車両や車道付近又は車道上に配置されたセンサを含む)からのセンサ測定値や、物体上のトランスポンダからネットワークを介して受信したセンサ測定値や、前記自律走行車両と無線で通信するように構成された交通信号灯や標識などの信号に基づくことができる。 Strategic prediction is long-term prediction that predicts an area beyond the visible range of the vehicle's visible environment. This prediction is for the future beyond 4 seconds, but has greater uncertainty than the tactical prediction. This is because the behavior of an object (eg, car, person, etc.) may change unpredictably from the currently observed behavior. The reason for the large uncertainty of strategic prediction is that the prediction makes the assumption that the currently observed behavior will continue throughout the prediction period. Also, such predictions may include sensor measurements from external sources (including other autonomous vehicles, non-autonomous vehicles with sensor systems and sensor communication networks and sensors located near or on the roadway) It can be based on sensor measurements received from a transponder on an object via a network, or signals such as traffic lights or signs configured to communicate wirelessly with the autonomous vehicle.
図4は、自動運転制御部(ADC)402、車両制御部(VC)404及び駆動部制御部410の例示的な一実施形態を示すブロック図400である。ADC402及びVC404は、前記OODAモデルの前記「意思決定」仮想レイヤを実行する。
FIG. 4 is a block diagram 400 illustrating an exemplary embodiment of an automatic operation controller (ADC) 402, a vehicle controller (VC) 404, and a drive controller 410. The
ADC402は、まず、オペレータによる目的地入力および現在位置に基づき、当該現在位置から目的地への全体ルート(当該目的地に到達するための道路及び道路間の分岐点のリストを含む)を生成する。この戦略的なルートプランは、交通状況に基づくものであってもよく、最新の交通状況に基づいて変化することができるが、このような変化は一般的に、到着予定時刻(ETA)が大きく変わる場合に実施される。ADC402は、次に、前記自律走行車両が走行するための安全で且つ衝突を起こさない経路を、前記PCから提供された、近辺の物体及び許容可能な走行可能面に基づいて計画する。この経路は、VC404に要求として常に送られると共に、交通状況のような状況が変化するたびに更新される。VC404は、前記経路の更新をリアルタイムで受け取る。ADC402は逆にVC404から、前記車両の最新の実際軌道を受け取る。当該最新の実際軌道は、運転経路の前記要求についての、次に計画されている更新を変更するのにも用いられる。
The
ADC402は、前記車両が進むための戦略的経路を生成する。ADC402は当該経路を、前記戦略的/戦術的予測における道路上の空いたスペースについての予測に基づいて生成する。ADC402は、さらに、図3の認知制御部から車両位置情報及び車両姿勢情報を受け取る。VC404が、さらに、前記車両の駆動部制御部410からの当該車両の実際軌道をADC402に出力する。ADC402は、この情報に基づき、道路を走行するうえでの適切な経路を算出する。道路が空いている例では、前記経路が車前方のレーンに追従してもよい。
The
車が別の車を追い越す必要がある他の例では、ADC402が、安全に追越しを行うための空いたスペースが追越しレーン内及びその別の車前方に存在しているか否かを判定することができる。ADC402は、前記車両が追越し運転を行うのに走行するための経路を、(a)追越し対象の車までの現在の距離、(b)追越しレーン内に存在する走行可能道路スペースの量、(c)追越し対象の車前方にある空いたスペースの量、(d)追越し対象の車両の速度、(e)前記自律走行車両の現在の速度、および(f)前記自律走行車両の既知の加速度に基づいて自動的に算出することができる。
In another example where a car needs to overtake another car, the
他の例では、ADC402が、ハイウェイ出口に向かう際にレーン変更するための経路を決定することができる。ADC402は、前述した全因子に加えて目的地までの計画ルートを監視し、分岐点に接近すると、当該計画ルートを安全且つ合法的に運転し続けるための最良の経路を算出する。
In another example, the
ADC402は、さらに、前記経路内における戦術的軌道を算出する。これにより、前記車両は物体間の安全な間隔を維持することができる。当該戦術的軌道は、ある車両が不意に減速又は停止したり別の車両が当該自律走行車前方に割り込んだりするなどといった緊急時の、安全なバックアップ退避軌道も含む。
The
ADC402は、要求軌道経路406をVC404に供給する。この供給は、前記車両が当該経路を進むことができるように当該ADC402と連携して行われる。要求軌道経路406は、数秒後の未来の軌道に対して幾何学的制約及び速度制約を課す。VC404は、経路406内で運転するためのルートを決定する。VC404は、当該VC404の操縦決断を、前記認知制御部から受け取った前記戦術的/操縦予測、前記車両の位置および前記車両の姿勢に基づいて行う。前述したように、前記戦術的/操縦予測は、短期間についてのものであるが不確かさが小さい。したがって、低次の操縦演算及び安全演算に関しては、VC404が前記戦術的/操縦予測を効果的に用いて要求経路406内の衝突を起こさない軌道を計画する。緊急時に必要とされる際には、VC404は、他の物体と衝突を起こさないように、経路406外の軌道を計画する。
The
次に、VC404は、要求経路406、車の現在の速度及び加速度、ならびに最も近くにある物体に基づいて、物体との衝突を回避し走行可能面上に留まりながら当該経路406をいかに走行するかを決定する。VC404は、衝突を回避する必要性に迫られると、ADC402の前記要求経路から急遽外れる操縦を指令しなければならないかもしれない。この緊急操縦は、ADC402ではなく、差し迫った衝突脅威に対して当該ADC402よりも応答時間が高速なVC404単独によって開始されることができる。この機能によって、安全重大衝突回避責任をVC404内だけのものとする。VC404は操縦指令を、車両プラットフォームの操舵動作、スロットル動作及び制動動作を制御する前記駆動部に送る。
Next, based on the requested
VC404は当該VC404の操縦戦略を、駆動指令(例えば、操舵、スロットル、制動等)を含む現在の車両軌道408を前記車両の駆動部制御部410に送ることによって実行する。前記車両の駆動部制御部410は、車の操舵系統、スロットル系統及び制動系統それぞれに、対応する指令を適用する。軌道408を前記駆動部制御部に送るVC404は、前記OODAモデルの前記「行動」仮想レイヤを代表する。前記自律走行車両のアーキテクチャをこのように概念化することにより、特定のモデル(例えば、各指令のフォーマット、加速性能、旋回性能及び制動性能等)の車を制御するための設定を必要とする構成要素は前記VCだけであり、前記ADCは特定の車両性能にほぼ無関係でいられる。一例において、VC404は、車両の特定の駆動部制御系統とインターフェースできるように構成されたファームウェアで又は全車両に対する車群規模のファームウェアアップデートで更新されることができる。
The
図5は、ADC402及びVC404の意思決定時間スケールを示す図500である。ADC402は、前記経路を生成することによって高次の戦略的決断502及び戦術的決断504を実現する。よって、ADC402は、長いレンジおよび/または時間スケールの決断を実現する。追越しやターンなどの挙動に関して戦略的ルートや戦術的走行経路を計画するためにADC402が用いる実世界状態の推定は、不確かさが大きいものの、長い時間の未来を予測している。これは、そのような自律動作を計画するのに必要なことである。前記戦略的予測は、車の視認可能範囲を超えて予測するところ、車から遠く離れた物体の予測についてはレーダなどの非ビジョン技術に頼るしかないので、不確かさが大きくなる。ハイウェイ並みの速度で車を追い越すなどといった戦術的決断の多くは自律走行車両の視認可能範囲を超える(BVR)(例えば、100m以上等の)認知を必要とするのに対し、操縦性506決断はどれも、衝突を回避するように局所的に認知された物体に基づいて行われる。
FIG. 5 is a diagram 500 illustrating a decision time scale for the
一方で、VC404は、物体挙動及び走行面についての短時間フレーム/レンジの予測である操縦性予測を用いて操縦性決断506を生成する。これらの操縦性予測は、短時間スケールの予測なので不確かさが小さくなる。ただし、操縦性予測は、前記自律走行車両における前記センサの視認可能範囲内で得られた測定値しか利用しない。つまり、VC404は、衝突を起こさない前記自律走行車両の軌道を高速応答で計画するために、車のすぐ近くの周辺環境の状態についてのこれらの操縦性予測(又は評価値)を用いる。VC404は、前記時間スケールの最下端において駆動指令を発行して計画済みの前記経路を実行に移し、当該経路で操縦する。
On the other hand, the
図6は、システム制御部602、ヒューマンインターフェース制御部604(HC)及びマシンインターフェース制御部606(MC)の例示的な一実施形態を示すブロック図600である。ヒューマンインタラクション制御部604(HC)は、オペレータからの入力指令要求を受け取り、当該オペレータ、前記車両の乗員や前記自律走行車両外部の人間に対して出力を提供する。HC604は、システム状態や前記自律走行車両の意思決定の根拠についての人間が理解することのできる表現を、(視覚インターフェース、聴覚インターフェース又は触覚インターフェースなどのインターフェースを介して)オペレータや乗員に提供する。例えば、HC604は、前記車両の長期ルート(又は計画された経路)や安全な退避エリアを表示することができる。HC604は、さらに、運転手の状態についてのセンサ測定値を読み取り、任意の瞬間における当該運転手の、その車の運転を支援する準備完了性について監視することができる。一例として、前記車両内のセンサ系統は、オペレータがハンドルに手を置いているか否かを検出することができる。手を置いている場合、オペレータの操舵への切替えが許可可能であることをHC604は通知することができ、手を置いていなければ、HC604はオペレータへの操舵制御の受渡しを阻止することができる。他の例では、HC604が、意思決定の根拠(例えば、特定のルートを選択した理由等)をオペレータに対して纏めて要約することができる。
FIG. 6 is a block diagram 600 illustrating an exemplary embodiment of a
マシンインタラクション制御部606(MC)は、フォーメンションドライブや交通管理などの活動をコーディネートするように他の自律走行車両や自動化システムとインタラクションする。MC606は、内的システム状態を読み取って、連携マシンシステムが理解することのできる出力データタイプ(例えば、V2Xデータタイプ等)を生成する。この状態は、協働のシステムによってネットワーク上に一斉送信されることができる。MC606は、外部のマシンシステムからの任意の指令要求(例えば、減速、ルート変更、合流要求、交通信号の状態等)を、HC604からの他の指令要求とのアービトレーションのために前記SCに転送される指令要求に変換できる。また、MC606は、他のシステムからのメッセージを(例えば、信頼できる他社メーカーからの署名されたメッセージ等を用いて)認証することにより、これらメッセージが有効であって車周辺の環境を表現したものであることを保証することができる。このような認証により、悪意のある人物による改ざん行為を防止することができる。 The machine interaction control unit 606 (MC) interacts with other autonomous vehicles and automation systems so as to coordinate activities such as formation drive and traffic management. The MC 606 reads the internal system state and generates an output data type (for example, a V2X data type) that can be understood by the cooperative machine system. This state can be broadcast over the network by a collaborative system. MC 606 forwards any command request from an external machine system (eg, deceleration, route change, merge request, traffic signal status, etc.) to the SC for arbitration with other command requests from HC 604. Can be converted into a command request. Also, the MC 606 authenticates messages from other systems (for example, using a signed message from a reliable third-party manufacturer) so that these messages are valid and represent the environment around the vehicle. Can be guaranteed. Such authentication can prevent tampering by a malicious person.
システム制御部602(SC)は、前記アーキテクチャ内の各構成要素の全体管理部として機能する。SC602は、全システム構成要素からの状態データを集約して総合動作状態を判定し、各構成要素に対してシステム機能を実行するように指令を送る。システムの構成要素が動作不良を報告すると、SC602が診断・回復挙動を開始することによって自律動作を確保し、前記車両を安全な状態に維持する。自動運転状態への/からの前記車両のあらゆる切替えは、自動運転への動作上の準備ができているか否かや人間の運転手の準備完了性についての内部診断の間に、SC602により許可又は拒否される。
The system control unit 602 (SC) functions as an overall management unit for each component in the architecture. The
本発明の一実施形態では、システムおよび方法が、認知レイヤ/モジュール内で物体同士を融合する。図7は、ビジョンセンサ702、ライダー706、レーダ704などの全センサからの情報を受け取る物体レベル融合サーバ702の例示的な一実施形態を示すブロック図700である。例示的な一実施形態では、前記センサが、2つのステレオビジョンセンサ、レーダおよびライダーを含む。ステレオビジョン702は、画像化技術を用いて、カメラの視野内に存在する物体(例えば、車、二輪車、人間、レーン、標識及び物体等)のバウンディングボックス(境界ボックス)を出力する。レーダシステム704は、レーダを反射するあらゆる物体の位置及び距離(レンジ)を追跡するが、これらの物体を分類又は識別することはできない。ライダーシステム706は、車や二輪車などの物体を識別することができ、これらの物体の種別を出力する。
In one embodiment of the present invention, the system and method fuse objects within a cognitive layer / module. FIG. 7 is a block diagram 700 illustrating an exemplary embodiment of an object
図8Aは、物体融合サーバ814の例示的な一実施形態を示すブロック図800である。各センサ802,804,806は、専用プロセッサを含むことができるサーバモジュールと通信する。当該専用プロセッサは、追跡ループを実行し、各センサの生データを別々に処理して、センサの生データの代わりに物体データを出力するように構成されている。一実施形態では、各センササーバ802,804,806による全ての物体出力は、X軸(車後方から車前方への軸心)、Y軸(車左側から車右側への軸心)及びZ軸(地面から上方に延びる軸心)を含む座標系である。しかしながら、当業者であれば、異なる軸構成の座標系(すなわち、球面座標系のような座標系)も想定できるであろう。言い換えれば、各センササーバは物体データを、前記センサ又はセンサのフォーマットに無関係なメッセージフォーマットに変換する。次に、認知物体融合サーバ814が、これらのメッセージを組み合わせて融合追跡対象物体リストメッセージとする。
FIG. 8A is a block diagram 800 illustrating an exemplary embodiment of an
そして、物体融合モジュール814は全データ(ビジョン、ライダー及びレーダ)を分析して、自動運転車近辺の物体の全体像を決定する。従来の物体レベル融合システムは、レーダシステムしか使用しないか、ビジョンシステムしか使用しないか、またはいずれも使用しないものであった。全システムからのデータを組み合わせる際に克服しなければならない特有の課題の一つは、ライダーやレーダが物体を座標系内の点及びその点までの距離として出力するのに対し、ビジョンシステムは物体が含まれていそうなバウンディングボックスを出力するが、バウンディングボックスは距離があまり正確でないという点である。つまり、異なるシステムのデータ同士が正確に関連付けられる必要がある。例えば、バウンディングボックス内部のレーダ物体同士は、同じ物体であると判断することができる。バウンディングボックス外部のレーダのピン(ping)は、別の物体である可能性がある。前記物体融合モジュールは、全センサからのデータを受け容れることで、自動運転車付近の全物体についての最有力シナリオを決定する。例示的な一実施形態では、前記物体融合モジュールがカルマンフィルタリング及び確率的データ結合を用いる。しかしながら、他の実施形態では複数仮説追跡、又は確率仮説密度フィルタリングなどの手法が用いられることも可能である。
The
図8Bは、前記物体融合モジュールのより詳細なブロック図850である。各センサの物体データ858,860,862は、少なくとも1つのプリプロセッサ864により前処理される。物体リスト866,868,870内の物体データのフォーマットを一致させて、データ連関ブロック(データ関連付けブロック)が、これら3つの異なるドメイン(例えば、ライダー、レーダ、ビジョンシステム等)からの物体同士を関連付けることによって物体軌跡を決定する。当業者であれば、レーダ物体リスト870が、レーダトラッカー874によって追加で処理されてからデータ連関モジュール(関連付けモジュール)872に転送されるということを理解できるであろう。
FIG. 8B is a more detailed block diagram 850 of the object fusion module. The
データ連関モジュール872は、グローバル最近傍法を用いて確率的データ連関を適用し、センサ物体軌跡を既存の融合された物体軌跡に関連付ける。グローバル最近傍法は、関連付ける各センサ物体軌跡と融合された物体軌跡との類似度の合計が最大になる関連付けを選択する。データ連関モジュール872は、物体軌跡の類似度を、変換されたセンサデータに基づき、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つを用いて測定する。一部の実施形態では、データ連関モジュール872が物体軌跡の類似度を、変換されたセンサデータに基づき、運動情報、幾何情報及び物体種別情報のうちの3つ全てを用いて測定する。データ連関モジュール872は、関連付けられなかった物体軌跡878を軌跡管理モジュール882に送り、軌跡管理モジュール882は新しい軌跡888を開始する。新しい軌跡888は、軌跡予測モジュール884に送られる。データ連関モジュール872はその一方で、残りの物体を既存の融合された物体軌跡876に関連付ける。これらは、軌跡更新モジュール880に渡される。軌跡更新モジュール880は、更新された軌跡892を軌跡予測モジュール884に送る。軌跡更新モジュール880はベイジアンフィルタを用いて、物体軌跡を更新すると共に次の時間ステップでの軌跡を予測する。例示的な一実施形態では、前記軌跡更新モジュールはカルマンフィルタを用いる。しかしながら、他の実施形態では拡張カルマンフィルタ、アンセンテッドカルマンフィルタ又は粒子フィルタが用いられることも可能である。
軌跡予測モジュール884は、既存の物体軌跡についての予測886であって、データ連関モジュール872に送られる予測886を発行する。この予測は、未来の時間ステップでのデータ連関に利用される。このループは、車が動いている限り続行する。
The
軌跡更新モジュール880は、さらに、物体がもはや視界にないことを前記センサが検出すると、古い軌跡を除去する。ただし、軌跡更新モジュール880は、前記センサの判明している死角内にある物体については例外とすることができる。
図9は、軌跡予測を示す図900である。軌跡予測の目標は、評価値の最新の進路が与えられるものとして、現測定時点での物体の位置及び速度を追跡することである。例えば、時刻t=kでの軌跡902が与えられるものとして、前記軌跡予測モジュールは、時刻t=k+1での物体の位置及び軌跡904を、その前の時刻(例えば、最近の時間ステップ等)で収集されたデータからのデータに基づいて推定することができる。ただし、推定不確かさは、予測時点以降、その予測から時間的に離れれば離れるほど大きくなる。現時点から時間的に離れた予測になるほど、物体に合致するバウンディングボックスは当然の如く増大し、その物体に対応する確かさの度合いが低下する。
FIG. 9 is a diagram 900 illustrating trajectory prediction. The goal of trajectory prediction is to track the position and velocity of the object at the time of the current measurement, given the latest course of evaluation values. For example, assuming that a
図10A〜図10Dは、データ連関を示す図1000,1020,1040,1060である。前記データ連関モジュールは、最新のセットの測定値を既存の軌跡に関連付ける(図10A)。まず、システムは、図10Bに示すように軌跡と測定値のペアそれぞれの関連性スコアを算出する。一実施形態では、当該スコアは、物体間の距離であってもよい。次に、システムは図10Cに示すように、妥当とは思われない関連付けを不許可とするか又は除外する。そして、前記データ連関モジュールは、前記関連性スコアの合計が最小となる測定値−軌跡の振当てを選択する。次に、関連付けられた測定値に基づいて、軌跡が更新される。軌跡の更新は、予測された軌跡と測定値とを考慮して、新たな軌跡となる。 10A to 10D are diagrams 1000, 1020, 1040, and 1060 showing data association. The data association module associates the latest set of measurements with an existing trajectory (FIG. 10A). First, as shown in FIG. 10B, the system calculates a relevance score for each pair of trajectory and measurement value. In one embodiment, the score may be a distance between objects. Next, the system disallows or excludes associations that do not seem valid, as shown in FIG. 10C. Then, the data association module selects the measurement value-trajectory allocation that minimizes the sum of the relevance scores. The trajectory is then updated based on the associated measurement value. The update of the trajectory becomes a new trajectory in consideration of the predicted trajectory and the measured value.
図11は、軌跡更新の例示的な一実施形態を示す図1100である。軌跡は、物体同士がどのように関連しているのかに基づいて更新されることができる。例えば、2つの物体同士が関連している場合には、当該物体同士が関連しており且つ当該物体同士の軌跡が同一又は類似している可能性が高いという知識に基づいて、システムがこれら2つの物体の軌跡を組み合わせるように当該軌跡を更新することができる。 FIG. 11 is a drawing 1100 illustrating an exemplary embodiment of trajectory update. The trajectory can be updated based on how the objects are related. For example, when two objects are related to each other, the system is based on the knowledge that the objects are related and the trajectories of the objects are likely to be the same or similar. The trajectory can be updated to combine the trajectories of two objects.
本発明を例的な実施形態を参照しながら具体的に図示および説明したが、当業者であれば、添付の特許請求の範囲に包含される本発明の範疇を逸脱しない範囲で形態や細部に様々な変更が施されてもよいことを理解するであろう。 While the invention has been particularly shown and described with reference to illustrative embodiments, those skilled in the art will recognize the invention in form and detail without departing from the scope of the invention as encompassed by the appended claims. It will be understood that various changes may be made.
図12に、本発明の実施形態が実現され得るコンピュータネットワーク又は同様のデジタル処理環境を示す。 FIG. 12 illustrates a computer network or similar digital processing environment in which embodiments of the present invention may be implemented.
少なくとも1つのクライアントコンピュータ/装置50および少なくとも1つのサーバコンピュータ60が、アプリケーションプログラムなどを実行する処理装置、記憶装置および入出力装置を提供する。少なくとも1つのクライアントコンピュータ/装置50は、さらに、他のコンピューティングデバイス(他のクライアント装置/プロセス50および1つ以上の他のサーバコンピュータ60を含む)に通信ネットワーク70を介して接続されることができる。通信ネットワーク70は、リモートアクセスネットワーク、グローバルネットワーク(例えば、インターネット等)、世界中のコンピュータの集まり、ローカルエリア又はワイドエリアネットワーク、および現在のところは対応のプロトコル(TCP/IP、Bluetooth(登録商標)など)を用いて互いに通信するゲートウェイの一部であってもよい。それ以外の電子デバイス/コンピュータネットワークアーキテクチャも好適である。
At least one client computer /
図13は、図12のコンピュータシステムにおけるコンピュータ(例えば、クライアントプロセッサ/装置50、サーバコンピュータ60等)の例示的な内部構造の図である。コンピュータ50,60は、コンピュータ又は処理システムの構成要素間でのデータ伝送に利用される一連のハードウェアラインであるシステムバス79を備える。システムバス79は、本質的に、コンピュータシステムの相異なる構成要素(例えば、プロセッサ、ディスクストレージ、メモリ、入出力ポート、ネットワークポート等)同士を接続して当該構成要素間での情報の伝送を可能にする共有の導管である。システムバス79には、様々な入出力装置(例えば、キーボード、マウス、ディスプレイ、プリンタ、スピーカ等)をコンピュータ50,60に接続するための入出力装置インターフェース82が取り付けられている。ネットワークインターフェース86は、コンピュータが、ネットワーク(例えば、図12のネットワーク70等)に取り付けられた様々な他の装置へと接続することを可能にする。メモリ90は、本発明の一実施形態(例えば、詳細に前述したセンサインターフェース制御部、認知制御部、位置特定制御部、自動運転制御部、車両制御部、システム制御部、ヒューマンインタラクション制御部、マシンインタラクション制御部、物体融合サーバ、プリプロセッサ、データ連関モジュール、軌跡更新モジュール、軌跡管理モジュール、軌跡予測モジュール、レーダトラッカー等)を実現するように用いられるコンピュータソフトウェア命令92およびデータ94を記憶する揮発性の記憶部である。ディスクストレージ95は、本発明の一実施形態を実現するように用いられるコンピュータソフトウェア命令92およびデータ94を記憶する不揮発性の記憶部である。システムバス79には、さらに、コンピュータ命令を実行する中央演算処理装置84が取り付けられている。
FIG. 13 is a diagram of an exemplary internal structure of a computer (eg, client processor /
一実施形態において、プロセッサルーチン92及びデータ94は、コンピュータプログラムプロダクト(概して符号92で表す)である。当該コンピュータプログラムプロダクトは、本発明のシステム用のソフトウェア命令の少なくとも一部を提供する非過渡的なコンピュータ読取り可能媒体(例えば、少なくとも1つのDVD−ROM、CD−ROM、ディスケット、テープなどの取外し可能な記憶媒体等)を含む。コンピュータプログラムプロダクト92は、当該技術分野において周知である任意の適切なソフトウェアインストール方法によってインストールされることが可能なものであってもよい。また、他の実施形態では、前記ソフトウェア命令の少なくとも一部が、ケーブル通信および/または無線接続を介してダウンロードされるものであってもよい。他の実施形態において、本発明のプログラムは、伝播媒体における伝播信号(例えば、電波、赤外線波、レーザ波、音波、インターネットなどのグローバルネットワーク又は他の少なくとも1つのネットワークによって伝播される電気波等)に組み込まれた、コンピュータプログラム伝播信号プロダクトである。このような搬送媒体又は信号が、本発明のルーチン/プログラム92用のソフトウェア命令の少なくとも一部を提供するように用いられてもよい。
In one embodiment, the processor routines 92 and
一実施形態において、プロセッサルーチン92及びデータ94は、コンピュータプログラムプロダクト(概して符号92で表す)である。当該コンピュータプログラムプロダクトは、本発明のシステム用のソフトウェア命令の少なくとも一部を提供する非過渡的なコンピュータ読取り可能媒体(例えば、少なくとも1つのDVD−ROM、CD−ROM、ディスケット、テープなどの取外し可能な記憶媒体等)を含む。コンピュータプログラムプロダクト92は、当該技術分野において周知である任意の適切なソフトウェアインストール方法によってインストールされることが可能なものであってもよい。また、他の実施形態では、前記ソフトウェア命令の少なくとも一部が、ケーブル通信および/または無線接続を介してダウンロードされるものであってもよい。他の実施形態において、本発明のプログラムは、伝播媒体における伝播信号(例えば、電波、赤外線波、レーザ波、音波、インターネットなどのグローバルネットワーク又は他の少なくとも1つのネットワークによって伝播される電気波等)に組み込まれた、コンピュータプログラム伝播信号プロダクトである。このような搬送媒体又は信号が、本発明のルーチン/プログラム92用のソフトウェア命令の少なくとも一部を提供するように用いられてもよい。
なお、本発明は、実施の態様として以下の内容を含む。
〔態様1〕
検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換する過程と、
既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測する過程と、
変換された前記センサデータに基づいて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付ける過程と、
検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新する過程と、
融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告する過程と、
を備える、方法。
〔態様2〕
態様1に記載の方法において、さらに、
既存の物体軌跡に関連付けられない検出物体について、新しい物体軌跡を開始する過程、
を備える、方法。
〔態様3〕
態様1に記載の方法において、さらに、
自律走行車両の前記少なくとも1つの異種センサの視野外にある物体軌跡を削除する過程、
を備える、方法。
〔態様4〕
態様3に記載の方法において、物体軌跡を削除する前記過程が、さらに、物体軌跡が前記少なくとも1つの異種センサの死角内にある場合には、当該物体軌跡を削除対象から除外する副過程を含む、方法。
〔態様5〕
態様1に記載の方法において、検出物体を既存の物体軌跡に関連付ける前記過程が、さらに、運動情報、幾何情報及び物体種別情報のうちの少なくとも3つの類似度を求める、方法。
〔態様6〕
態様1に記載の方法において、さらに、
運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出された特徴物の軌跡を既存の物体軌跡に関連付ける過程、
を備える、方法。
〔態様7〕
態様1に記載の方法において、運動情報が位置情報、速度情報及び向き情報を含み、幾何情報がバウンディングボックス及び物体輪郭を含み、物体種別情報が物体種類を含む、方法。
〔態様8〕
検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換するように構成された前処理手段と、
既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測するように構成された軌跡予測手段と、
変換された前記センサデータを用いて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付けるように構成されたデータ連関手段と、
検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新するように構成された軌跡更新手段と、
融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告するように構成された報告手段と、
を備える、システム。
〔態様9〕
態様8に記載のシステムにおいて、さらに、
既存の物体軌跡に関連付けられない検出物体について、新しい物体軌跡を開始するように構成された軌跡管理手段、
を備える、システム。
〔態様10〕
態様8に記載のシステムにおいて、前記軌跡更新手段が、さらに、自律走行車両の前記少なくとも1つの異種センサの視野外にある物体軌跡を削除するように構成されている、システム。
〔態様11〕
態様10に記載のシステムにおいて、前記軌跡更新手段が、さらに、物体軌跡が前記少なくとも1つの異種センサの死角内にある場合には、当該物体軌跡を削除対象から除外することにより、前記物体軌跡を削除するように構成されている、システム。
〔態様12〕
態様8に記載のシステムにおいて、前記データ連関手段が、さらに、運動情報、幾何情報及び物体種別情報のうちの少なくとも3つの類似度を求めるように構成されている、システム。
〔態様13〕
態様8に記載のシステムにおいて、前記データ連関手段が、さらに、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出された特徴物の軌跡を既存の物体軌跡に関連付けるように構成されている、システム。
〔態様14〕
態様8に記載のシステムにおいて、運動情報が位置情報、速度情報及び向き情報を含み、幾何情報がバウンディングボックス及び物体輪郭を含み、物体種別情報が物体種類を含む、システム。
〔態様15〕
自律走行車両を動作させる命令を記憶するように構成された非過渡的なコンピュータ読取り可能媒体であって、前記命令は、プロセッサによってロード及び実行されると、当該プロセッサに、
検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換する手順と、
既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測する手順と、
変換された前記センサデータに基づいて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付ける手順と、
検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新する手順と、
融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告する手順と、
を実行させる、非過渡的なコンピュータ読取り可能媒体。
〔態様16〕
態様15に記載の非過渡的なコンピュータ読取り可能媒体において、前記命令が、さらに、前記プロセッサに、
既存の物体軌跡に関連付けられられない検出物体について、新しい物体軌跡を開始する手順、
を実行させるように構成されている、非過渡的なコンピュータ読取り可能媒体。
〔態様17〕
態様15に記載の非過渡的なコンピュータ読取り可能媒体において、前記命令が、さらに、前記プロセッサに、
前記自律走行車両の前記少なくとも1つの前記異種センサの視野外にある物体軌跡を削除する手順、
を実行させるように構成されている、非過渡的なコンピュータ読取り可能媒体。
〔態様18〕
態様17に記載の非過渡的なコンピュータ読取り可能媒体において、物体軌跡を削除する前記手順が、さらに、物体軌跡が前記少なくとも1つの異種センサの死角内にある場合には、当該物体軌跡を削除対象から除外することを含む、非過渡的なコンピュータ読取り可能媒体。
〔態様19〕
態様15に記載の非過渡的なコンピュータ読取り可能媒体において、検出物体を既存の物体軌跡に関連付ける前記手順が、さらに、運動情報、幾何情報及び物体種別情報のうちの少なくとも3つの類似度を求める、非過渡的なコンピュータ読取り可能媒体。
〔態様20〕
態様15に記載の非過渡的なコンピュータ読取り可能媒体において、前記命令が、さらに、前記プロセッサに:
運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出された特徴物の軌跡を既存の物体軌跡に関連付ける手順、
を実行させるように構成されている、非過渡的なコンピュータ読取り可能媒体。
In one embodiment, the processor routines 92 and
In addition, this invention contains the following content as an aspect.
[Aspect 1]
A process of converting sensor data from a plurality of different sensors into a common coordinate frame, which is sensor data about a detected object;
Predicting the position, velocity, orientation and bounding box of an existing object trajectory at the current measurement time;
Associating a detected object with an existing object trajectory by determining at least two similarities among motion information, geometric information and object type information based on the converted sensor data;
Updating the motion information, the geometric information, and the object type information for the object trajectory associated with the detected object;
Reporting a merged object list, including an obtained set of updated object trajectories;
A method comprising:
[Aspect 2]
The method according to aspect 1, further comprising:
Starting a new object trajectory for a detected object not associated with an existing object trajectory;
A method comprising:
[Aspect 3]
The method according to aspect 1, further comprising:
Deleting an object trajectory outside the field of view of the at least one heterogeneous sensor of the autonomous vehicle;
A method comprising:
[Aspect 4]
In the method according to aspect 3, the step of deleting the object trajectory further includes a sub-process of excluding the object trajectory from the deletion target when the object trajectory is within the blind spot of the at least one different sensor. ,Method.
[Aspect 5]
The method of claim 1, wherein the step of associating a detected object with an existing object trajectory further determines at least three similarities of motion information, geometric information and object type information.
[Aspect 6]
The method according to aspect 1, further comprising:
Associating a trajectory of a detected feature with an existing object trajectory by obtaining at least two similarities among motion information, geometric information and object type information;
A method comprising:
[Aspect 7]
The method according to aspect 1, wherein the motion information includes position information, velocity information, and orientation information, the geometric information includes a bounding box and an object outline, and the object type information includes an object type.
[Aspect 8]
Pre-processing means configured to convert sensor data from a plurality of different types of sensors into a common coordinate frame, which is sensor data about a detected object;
Trajectory predicting means configured to predict position, velocity, orientation and bounding box at the current measurement time of an existing object trajectory;
Data association means configured to associate a detected object with an existing object trajectory by obtaining at least two similarities among motion information, geometric information and object type information using the converted sensor data; ,
Trajectory update means configured to update the motion information, the geometric information, and the object type information for the object trajectory associated with the detected object;
A reporting means configured to report a fused object list, the object list including the resulting set of updated object trajectories;
A system comprising:
[Aspect 9]
The system according to
Trajectory management means configured to start a new object trajectory for a detected object that is not associated with an existing object trajectory,
A system comprising:
[Aspect 10]
9. The system according to
[Aspect 11]
In the system according to
[Aspect 12]
9. The system according to
[Aspect 13]
In the system according to
[Aspect 14]
The system according to
[Aspect 15]
A non-transient computer readable medium configured to store instructions for operating an autonomous vehicle, wherein the instructions, when loaded and executed by a processor,
A procedure for converting sensor data from a plurality of different sensors into a common coordinate frame, which is sensor data about a detected object,
A procedure for predicting the position, velocity, orientation and bounding box at the current measurement time of an existing object trajectory;
A step of associating a detected object with an existing object trajectory by obtaining at least two similarities among motion information, geometric information and object type information based on the converted sensor data;
A procedure for updating the motion information, the geometric information, and the object type information for the object trajectory associated with the detected object;
A procedure for reporting a merged object list that includes an obtained set of updated object trajectories;
A non-transient computer readable medium that causes
[Aspect 16]
The non-transient computer readable medium of aspect 15, wherein the instructions are further to the processor,
Procedure for starting a new object trajectory for a detected object that is not associated with an existing object trajectory,
A non-transitory computer readable medium configured to cause execution.
[Aspect 17]
The non-transient computer readable medium of aspect 15, wherein the instructions are further to the processor,
A procedure for deleting an object locus outside the field of view of the at least one heterogeneous sensor of the autonomous vehicle;
A non-transitory computer readable medium configured to cause execution.
[Aspect 18]
The non-transient computer-readable medium according to aspect 17, wherein the step of deleting an object trajectory is further subject to deletion when the object trajectory is within a blind spot of the at least one heterogeneous sensor. A non-transient computer readable medium that includes excluding from.
[Aspect 19]
The non-transient computer readable medium according to aspect 15, wherein the procedure of associating a detected object with an existing object trajectory further determines the similarity of at least three of motion information, geometric information, and object type information. Non-transient computer readable medium.
[Aspect 20]
The non-transient computer readable medium of aspect 15, wherein the instructions are further directed to the processor:
A procedure for associating a trajectory of a detected feature with an existing object trajectory by obtaining at least two similarities among motion information, geometric information, and object type information;
A non-transitory computer readable medium configured to cause execution.
Claims (20)
既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測する過程と、
変換された前記センサデータに基づいて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付ける過程と、
検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新する過程と、
融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告する過程と、
を備える、方法。 A process of converting sensor data from a plurality of different sensors into a common coordinate frame, which is sensor data about a detected object;
Predicting the position, velocity, orientation and bounding box of an existing object trajectory at the current measurement time;
Associating a detected object with an existing object trajectory by determining at least two similarities among motion information, geometric information and object type information based on the converted sensor data;
Updating the motion information, the geometric information, and the object type information for the object trajectory associated with the detected object;
Reporting a merged object list, including an obtained set of updated object trajectories;
A method comprising:
既存の物体軌跡に関連付けられない検出物体について、新しい物体軌跡を開始する過程、
を備える、方法。 The method of claim 1, further comprising:
Starting a new object trajectory for a detected object not associated with an existing object trajectory;
A method comprising:
自律走行車両の前記少なくとも1つの異種センサの視野外にある物体軌跡を削除する過程、
を備える、方法。 The method of claim 1, further comprising:
Deleting an object trajectory outside the field of view of the at least one heterogeneous sensor of the autonomous vehicle;
A method comprising:
運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出された特徴物の軌跡を既存の物体軌跡に関連付ける過程、
を備える、方法。 The method of claim 1, further comprising:
Associating a trajectory of a detected feature with an existing object trajectory by obtaining at least two similarities among motion information, geometric information and object type information;
A method comprising:
既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測するように構成された軌跡予測手段と、
変換された前記センサデータを用いて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付けるように構成されたデータ連関手段と、
検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新するように構成された軌跡更新手段と、
融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告するように構成された報告手段と、
を備える、システム。 Pre-processing means configured to convert sensor data from a plurality of different types of sensors into a common coordinate frame, which is sensor data about a detected object;
Trajectory predicting means configured to predict position, velocity, orientation and bounding box at the current measurement time of an existing object trajectory;
Data association means configured to associate a detected object with an existing object trajectory by obtaining at least two similarities among motion information, geometric information and object type information using the converted sensor data; ,
Trajectory update means configured to update the motion information, the geometric information, and the object type information for the object trajectory associated with the detected object;
A reporting means configured to report a fused object list, the object list including the resulting set of updated object trajectories;
A system comprising:
既存の物体軌跡に関連付けられない検出物体について、新しい物体軌跡を開始するように構成された軌跡管理手段、
を備える、システム。 9. The system according to claim 8, further comprising:
Trajectory management means configured to start a new object trajectory for a detected object that is not associated with an existing object trajectory,
A system comprising:
検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換する手順と、
既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測する手順と、
変換された前記センサデータに基づいて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付ける手順と、
検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新する手順と、
融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告する手順と、
を実行させる、非過渡的なコンピュータ読取り可能媒体。 A non-transient computer readable medium configured to store instructions for operating an autonomous vehicle, wherein the instructions, when loaded and executed by a processor,
A procedure for converting sensor data from a plurality of different sensors into a common coordinate frame, which is sensor data about a detected object,
A procedure for predicting the position, velocity, orientation and bounding box at the current measurement time of an existing object trajectory;
A step of associating a detected object with an existing object trajectory by obtaining at least two similarities among motion information, geometric information and object type information based on the converted sensor data;
A procedure for updating the motion information, the geometric information, and the object type information for the object trajectory associated with the detected object;
A procedure for reporting a merged object list that includes an obtained set of updated object trajectories;
A non-transient computer readable medium that causes
既存の物体軌跡に関連付けられられない検出物体について、新しい物体軌跡を開始する手順、
を実行させるように構成されている、非過渡的なコンピュータ読取り可能媒体。 16. The non-transient computer readable medium of claim 15, wherein the instructions are further to the processor.
Procedure for starting a new object trajectory for a detected object that is not associated with an existing object trajectory,
A non-transitory computer readable medium configured to cause execution.
前記自律走行車両の前記少なくとも1つの前記異種センサの視野外にある物体軌跡を削除する手順、
を実行させるように構成されている、非過渡的なコンピュータ読取り可能媒体。 16. The non-transient computer readable medium of claim 15, wherein the instructions are further to the processor.
A procedure for deleting an object locus outside the field of view of the at least one heterogeneous sensor of the autonomous vehicle;
A non-transitory computer readable medium configured to cause execution.
運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出された特徴物の軌跡を既存の物体軌跡に関連付ける手順、
を実行させるように構成されている、非過渡的なコンピュータ読取り可能媒体。 16. The non-transient computer readable medium of claim 15, wherein the instructions are further to the processor:
A procedure for associating a trajectory of a detected feature with an existing object trajectory by obtaining at least two similarities among motion information, geometric information, and object type information;
A non-transitory computer readable medium configured to cause execution.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2016/054423 WO2018063241A1 (en) | 2016-09-29 | 2016-09-29 | Autonomous vehicle: object-level fusion |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019530608A true JP2019530608A (en) | 2019-10-24 |
Family
ID=57227078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019517953A Pending JP2019530608A (en) | 2016-09-29 | 2016-09-29 | Autonomous vehicle with object level fusion |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP3516467A1 (en) |
JP (1) | JP2019530608A (en) |
WO (1) | WO2018063241A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023139706A1 (en) * | 2022-01-19 | 2023-07-27 | 日本電気株式会社 | Processing device |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019102920A1 (en) * | 2019-02-06 | 2020-08-06 | Bayerische Motoren Werke Aktiengesellschaft | Method and device for sensor data fusion for a vehicle |
US10984543B1 (en) | 2019-05-09 | 2021-04-20 | Zoox, Inc. | Image-based depth data and relative depth data |
US10937178B1 (en) * | 2019-05-09 | 2021-03-02 | Zoox, Inc. | Image-based depth data and bounding boxes |
US11087494B1 (en) | 2019-05-09 | 2021-08-10 | Zoox, Inc. | Image-based depth data and localization |
CN113112643A (en) * | 2020-01-13 | 2021-07-13 | 北京地平线机器人技术研发有限公司 | Evaluation method and device for predicted trajectory, electronic device and storage medium |
CN111288984B (en) * | 2020-03-04 | 2021-12-14 | 武汉大学 | Multi-vehicle joint absolute positioning method based on Internet of vehicles |
CN112572471B (en) * | 2020-12-08 | 2022-11-04 | 西人马帝言(北京)科技有限公司 | Automatic driving method, device, electronic equipment and computer storage medium |
CN113342057B (en) * | 2021-08-05 | 2021-12-03 | 特金智能科技(上海)有限公司 | Track fusion method and device, unmanned aerial vehicle detection system, equipment and medium |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9472097B2 (en) * | 2010-11-15 | 2016-10-18 | Image Sensing Systems, Inc. | Roadway sensing systems |
US9381916B1 (en) * | 2012-02-06 | 2016-07-05 | Google Inc. | System and method for predicting behaviors of detected objects through environment representation |
US9547989B2 (en) * | 2014-03-04 | 2017-01-17 | Google Inc. | Reporting road event data and sharing with other vehicles |
-
2016
- 2016-09-29 WO PCT/US2016/054423 patent/WO2018063241A1/en unknown
- 2016-09-29 EP EP16790768.2A patent/EP3516467A1/en not_active Withdrawn
- 2016-09-29 JP JP2019517953A patent/JP2019530608A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023139706A1 (en) * | 2022-01-19 | 2023-07-27 | 日本電気株式会社 | Processing device |
Also Published As
Publication number | Publication date |
---|---|
WO2018063241A1 (en) | 2018-04-05 |
EP3516467A1 (en) | 2019-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10599150B2 (en) | Autonomous vehicle: object-level fusion | |
US10963462B2 (en) | Enhancing autonomous vehicle perception with off-vehicle collected data | |
US10377375B2 (en) | Autonomous vehicle: modular architecture | |
US10379533B2 (en) | System and method for autonomous vehicle fleet routing | |
JP2019530608A (en) | Autonomous vehicle with object level fusion | |
JP2019532292A (en) | Autonomous vehicle with vehicle location | |
CN108693878B (en) | Course setting device and course setting method | |
US9550496B2 (en) | Travel control apparatus | |
EP3644294B1 (en) | Vehicle information storage method, vehicle travel control method, and vehicle information storage device | |
US20180087907A1 (en) | Autonomous vehicle: vehicle localization | |
JP2019530609A (en) | Modular architecture autonomous vehicle | |
US20180056998A1 (en) | System and Method for Multi-Vehicle Path Planning Technical Field | |
JP2016095851A (en) | Computing device, computer-implemented method and system for autonomous passenger vehicle | |
US8452483B2 (en) | Cell-based vehicle driving control method and system | |
KR101439019B1 (en) | Car control apparatus and its car control apparatus and autonomic driving method | |
US20200249682A1 (en) | Traffic Lane Information Management Method, Running Control Method, and Traffic Lane Information Management Device | |
WO2022072412A1 (en) | Methods and systems for performing outlet inference by an autonomous vehicle to determine feasible paths through an intersection | |
JP2019185293A (en) | Vehicle remote control method and vehicle remote control device | |
US20220253065A1 (en) | Information processing apparatus, information processing method, and information processing program | |
WO2018199941A1 (en) | Enhancing autonomous vehicle perception with off-vehicle collected data | |
WO2021153176A1 (en) | Autonomous movement device, autonomous movement control method, and program | |
US20240067229A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US11919515B2 (en) | Vehicle control device and vehicle control method | |
US11958493B2 (en) | Vehicle control device and vehicle control method | |
US20220203989A1 (en) | Vehicle control device, vehicle control method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190730 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200714 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210601 |