JP2019530608A - Autonomous vehicle with object level fusion - Google Patents

Autonomous vehicle with object level fusion Download PDF

Info

Publication number
JP2019530608A
JP2019530608A JP2019517953A JP2019517953A JP2019530608A JP 2019530608 A JP2019530608 A JP 2019530608A JP 2019517953 A JP2019517953 A JP 2019517953A JP 2019517953 A JP2019517953 A JP 2019517953A JP 2019530608 A JP2019530608 A JP 2019530608A
Authority
JP
Japan
Prior art keywords
trajectory
information
vehicle
detected
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019517953A
Other languages
Japanese (ja)
Inventor
グラハム・マシュー
ジョーンズ・トロイ
ホーン・カイラ
レノックス・スコット
デミリー・ジョン・ディー
ストロング・スティーブン・シェルドン
ナイク・アフラー・ファイズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Veoneer US LLC
Original Assignee
Veoneer US LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Veoneer US LLC filed Critical Veoneer US LLC
Publication of JP2019530608A publication Critical patent/JP2019530608A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data

Abstract

【課題】従来よりも向上した、自律走行車の方法を提供する。【解決手段】検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換する過程と、既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測する過程と、変換されたセンサデータに基づいて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付ける過程と、検出物体に関連付けられた物体軌跡について、運動情報、幾何情報及び物体種別情報を更新する過程と、融合された物体リストであって、更新された物体軌跡のセットを含む物体リストを報告する過程と、を備える。【選択図】図2The present invention provides an autonomous vehicle method improved over the prior art. Sensor data about a detected object, a process of converting sensor data from a plurality of different types of sensors into a common coordinate frame, and a position, speed, and direction at the current measurement time of an existing object trajectory And a process of predicting a bounding box and a process of associating a detected object with an existing object trajectory by obtaining at least two similarities among motion information, geometric information, and object type information based on the converted sensor data And, for the object trajectory associated with the detected object, update the motion information, geometric information, and object type information, and report a fused object list that includes the updated set of object trajectories. A process. [Selection] Figure 2

Description

関連出願Related applications

本願は、2016年9月29日に同時に出願した、Paul DeBitetto、Matthew Graham、Troy Jones及びPeter Lommelによる「車両位置特定の自律走行車両:(Autonomous Vehicle: Vehicle Localization)」(代理人管理番号5000.1006-000 (CSDL-2489))、ならびに2016年9月29日に同時に出願した、Troy Jones、Scott Lennox、John Sgueglia及びJon Demerlyによる「モジュラー型アーキテクチャによる自律走行車両:(Autonomous Vehicle: Modular Architecture)」(代理人管理番号5000.1007-000 (CSDL-2490))に関連する。   The present application is “Autonomous Vehicle: Vehicle Localization” by Paul DeBitetto, Matthew Graham, Troy Jones and Peter Lommel, filed at the same time on September 29, 2016 (agent management number 5000.1006- 000 (CSDL-2489)), and “Autonomous Vehicle: Modular Architecture” by Troy Jones, Scott Lennox, John Sgueglia and Jon Demerly, filed simultaneously on September 29, 2016 ( Related to agent management number 5000.1007-000 (CSDL-2490)).

上記の出願の全教示内容は、参照をもって本明細書に取り入れたものとする。   The entire teachings of the above application are incorporated herein by reference.

今日の車両には、レーンアシスト、衝突前制動、リアクロストラック検出などの自動化システムを採用したものがある。これらのシステムは、車両の運転手が人為的過誤を犯さないように且つ他の車両、移動体又は歩行者との衝突を回避するように支援し得る。   Some vehicles today employ automated systems such as lane assist, pre-collision braking, and rear cross track detection. These systems may help the vehicle driver avoid human error and avoid collisions with other vehicles, moving objects or pedestrians.

しかし、これらのシステムは一部の車両機能を自動化するだけであって、他の動作については未だ車両の運転手に頼っている。   However, these systems only automate some vehicle functions and still rely on the vehicle driver for other operations.

一実施形態では、方法が、検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換する過程を備える。前記方法は、既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測する過程を備える。前記方法は、さらに、変換された前記センサデータに基づいて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付ける過程を備える。前記方法は、さらに、検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新する過程を備える。前記方法は、さらに、融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告する過程を備える。一実施形態では、前記方法、システムおよびコンピュータ読取り可能媒体は、自律走行車両に状況認識(situational awareness)を行う。   In one embodiment, the method comprises converting sensor data from a plurality of disparate sensors into a common coordinate frame for sensor objects. The method comprises the step of predicting the position, velocity, orientation and bounding box at the current measurement time of an existing object trajectory. The method further includes associating a detected object with an existing object trajectory by determining similarity between at least two of motion information, geometric information, and object type information based on the converted sensor data. . The method further includes the step of updating the motion information, the geometric information, and the object type information for the object trajectory associated with the detected object. The method further comprises reporting an object list that is a fused object list that includes the resulting set of updated object trajectories. In one embodiment, the method, system, and computer readable medium provide situational awareness to autonomous vehicles.

一実施形態において、前記方法は、既存の物体軌跡に関連付けられない検出物体について、新しい物体軌跡を開始する過程を備える。   In one embodiment, the method comprises initiating a new object trajectory for a detected object that is not associated with an existing object trajectory.

一実施形態において、前記方法は、自律走行車両の少なくとも1つの前記異種センサの視野外にある物体軌跡を削除する過程を備える。   In one embodiment, the method comprises deleting an object trajectory that is outside the field of view of at least one of the heterogeneous sensors of an autonomous vehicle.

一実施形態において、前記方法は前記物体軌跡を削除する過程を備え、当該過程が、さらに、物体軌跡が前記少なくとも1つの異種センサの死角内にある場合には、当該物体軌跡を削除対象から除外する副過程を含む。   In one embodiment, the method comprises a step of deleting the object trajectory, which further excludes the object trajectory from deletion if the object trajectory is within a blind spot of the at least one heterogeneous sensor. Including sub-processes.

一実施形態において、検出物体を既存の物体軌跡に関連付ける過程が、さらに、運動情報、幾何情報及び物体種別情報のうちの少なくとも3つの類似度を求める。   In one embodiment, the process of associating the detected object with an existing object trajectory further determines at least three similarities of motion information, geometric information, and object type information.

一実施形態において、前記方法は、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出された特徴物の軌跡を既存の物体軌跡に関連付ける過程を備える。   In one embodiment, the method comprises associating a detected feature trajectory with an existing object trajectory by determining similarity between at least two of motion information, geometric information, and object type information.

一実施形態では、運動情報が位置情報、速度情報及び向き情報を含み、幾何情報がバウンディングボックス及び物体輪郭を含み、物体種別情報が物体種類を含む。   In one embodiment, the motion information includes position information, velocity information, and orientation information, the geometric information includes a bounding box and an object outline, and the object type information includes an object type.

一実施形態では、自律走行車両の状況認識を提供するために検出物体を分析するシステムが、検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換するように構成された前処理手段を備える。前記システムは、さらに、既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測するように構成された軌跡予測手段を備える。前記システムは、さらに、変換された前記センサデータを用いて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付けるように構成されたデータ連関手段を備える。前記システムは、さらに、検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新するように構成された軌跡更新手段を備える。前記システムは、さらに、融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告するように構成された報告手段を備える。   In one embodiment, a system for analyzing a detected object to provide situational awareness of an autonomous vehicle is sensor data about the detected object, wherein the sensor data from multiple dissimilar sensors is converted into a common coordinate frame Pre-processing means configured to do. The system further comprises trajectory prediction means configured to predict position, velocity, orientation and bounding box at the current measurement time of an existing object trajectory. The system is further configured to associate a detected object with an existing object trajectory by determining at least two similarities among motion information, geometric information, and object type information using the converted sensor data. Provided with data association means. The system further includes trajectory updating means configured to update the motion information, the geometric information, and the object type information for the object trajectory associated with the detected object. The system further comprises reporting means configured to report an object list that is a fused object list and includes the obtained set of updated object trajectories.

一実施形態では、非過渡的なコンピュータ読取り可能媒体が、自律走行車両を動作させる命令を記憶するように構成されている。前記命令は、プロセッサによってロード及び実行されると、当該プロセッサに、検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換する手順、を実行させる。前記命令は、さらに、前記プロセッサに、既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測する手順、を実行させる。前記命令は、さらに、前記プロセッサに、変換された前記センサデータに基づいて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付ける手順、を実行させる。前記命令は、さらに、前記プロセッサに、検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新する手順、を実行させる。前記命令は、さらに、前記プロセッサに、融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告する手順、を実行させる。   In one embodiment, a non-transient computer readable medium is configured to store instructions for operating an autonomous vehicle. The instructions, when loaded and executed by a processor, cause the processor to execute a procedure for converting sensor data about a detection object, which is sensor data from a plurality of different types of sensors, into a common coordinate frame. The instructions further cause the processor to execute a procedure for predicting position, velocity, orientation and bounding box at the current measurement time of an existing object trajectory. The instruction further determines the detected object as an existing object trajectory by obtaining at least two similarities among motion information, geometric information, and object type information based on the converted sensor data. The procedure to associate is executed. The instructions further cause the processor to execute a procedure for updating the motion information, the geometric information, and the object type information for an object trajectory associated with a detected object. The instructions further cause the processor to execute a procedure for reporting a merged object list that includes an obtained set of updated object trajectories.

前述の内容は、添付の図面に示す本発明の例示的な実施形態についての以下のより詳細な説明から明らかになる。異なる図を通して、同じ参照符号は同じ構成/構成要素を指すものとする。図面は必ずしも縮尺どおりではなく、むしろ、本発明の実施形態を図示することに重点が置かれている。   The foregoing will become apparent from the following more detailed description of the exemplary embodiments of the invention illustrated in the accompanying drawings. Throughout the different figures, the same reference signs refer to the same elements / components. The drawings are not necessarily to scale, but rather emphasis is placed on illustrating embodiments of the invention.

観察、状況判断、意思決定及び行動(OODA)のモデルの自動制御システムの一実施形態における各ステップを示す図である。It is a figure which shows each step in one Embodiment of the automatic control system of a model of observation, situation judgment, decision making, and action (OODA). 自律走行車両の高次アーキテクチャの一実施形態のブロック図である。1 is a block diagram of one embodiment of a higher-order architecture for an autonomous vehicle. FIG. センサインタラクション制御部(SIC)、認知制御部(PC)及び位置特定制御部(LC)の一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of a sensor interaction control part (SIC), a recognition control part (PC), and a position specific control part (LC). 自動運転制御部(ADC)、車両制御部(VC)及び駆動部(アクチュエータ)制御部の例示的な一実施形態を示すブロック図である。It is a block diagram which shows one illustrative embodiment of an automatic driving | operation control part (ADC), a vehicle control part (VC), and a drive part (actuator) control part. ADC及びVCの意思決定時間スケールを示す図である。It is a figure which shows the decision time scale of ADC and VC. システム制御部、ヒューマンインターフェース制御部(HC)及びマシンインターフェース制御部(MC)の例示的な一実施形態を示すブロック図である。FIG. 3 is a block diagram illustrating an exemplary embodiment of a system controller, a human interface controller (HC), and a machine interface controller (MC). 物体融合フィルタの一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of an object fusion filter. 物体融合サーバ設計の一実施形態を示すブロック図である。FIG. 6 is a block diagram illustrating one embodiment of an object fusion server design. 物体融合モジュールの一実施形態を示すブロック図である。FIG. 6 is a block diagram illustrating one embodiment of an object fusion module. 軌跡(トラック)予測の一実施形態を示すブロック図である。It is a block diagram which shows one Embodiment of a locus | trajectory (track) prediction. 一実施形態におけるデータ連関(関連付け)の一要素を示す図である。It is a figure which shows one element of the data association (association) in one Embodiment. 一実施形態におけるデータ連関の他の要素を示す図である。It is a figure which shows the other element of the data relation in one Embodiment. 一実施形態におけるデータ連関のさらなる他の要素を示す図である。FIG. 6 is a diagram illustrating yet another element of data association in one embodiment. 一実施形態におけるデータ連関のさらなる他の要素を示す図である。FIG. 6 is a diagram illustrating yet another element of data association in one embodiment. 軌跡更新の例示的な一実施形態を示す図である。FIG. 6 illustrates an exemplary embodiment of trajectory update. 本発明の実施形態を実現可能なコンピュータネットワーク又は同様のデジタル処理環境を示す図である。FIG. 2 illustrates a computer network or similar digital processing environment in which embodiments of the invention can be implemented. 図12のコンピュータシステムにおけるコンピュータ(例えば、クライアントプロセッサ/装置、サーバコンピュータ等)の例示的な内部構造の図である。FIG. 13 is a diagram of an exemplary internal structure of a computer (eg, client processor / device, server computer, etc.) in the computer system of FIG.

以下では、本発明の例示的な実施形態について説明する。   In the following, exemplary embodiments of the invention will be described.

図1は、観察、状況判断、意思決定及び行動(OODA)のモデルの自動制御システムの一実施形態における各ステップを示す図である。高度に自動化された運転システムのような自動化システムや、自動運転車(すなわち、自律走行車両)は、OODAモデルを採用している。観察仮想レイヤ102は、実世界(地球)から、レーザ距離計、レーダ、赤外線、又はビジョンシステムなどのマシンセンサを用いて特徴物を検知することを伴う。状況判断仮想レイヤ104は、検知された情報に基づき状況認識、を行うことを伴う。状況判断仮想レイヤの活動例として、カルマンフィルタリング、モデルベーストマッチング、機械学習又は深層学習、およびベイジアン予測が挙げられる。意思決定仮想レイヤ106は、複数の対象から行動を選び出し、最終的な決断とする。行動仮想レイヤ108は、その決断を実行するための案内及び制御を提供する。図2は、自律走行車両の高次アーキテクチャ206の一実施形態のブロック図200である。アーキテクチャ206は、完全に自動化された運転を可能にするのに、トップダウン式のアプローチを用いて構築されている。アーキテクチャ206は、また、異なる車両メーカーのハードウェアにも適応することができるようにモジュラー型のアーキテクチャであるのが好ましい。したがって、アーキテクチャ206は、異なる車両メーカーのハードウェアの特性を最大限に高めるように機能的に分割された、複数のモジュラー要素を備えている。一実施形態において、本明細書に記載のモジュラー型アーキテクチャ206は、あらゆる車両204のセンサ系統202に対するインターフェースとなることができる。モジュラー型アーキテクチャ206は、さらに、あらゆる車両204から車両情報を受け取ることが可能であり且つあらゆる車両204と通信することが可能である。   FIG. 1 is a diagram illustrating each step in an embodiment of an automatic control system for observation, situation determination, decision making, and behavior (OODA) models. Automated systems such as highly automated driving systems and autonomous vehicles (ie autonomous vehicles) employ the OODA model. The observation virtual layer 102 involves detecting features from the real world (Earth) using machine sensors such as laser rangefinders, radar, infrared, or vision systems. The situation determination virtual layer 104 involves performing situation recognition based on detected information. Examples of activities of the situation determination virtual layer include Kalman filtering, model-based matching, machine learning or deep learning, and Bayesian prediction. The decision making virtual layer 106 selects an action from a plurality of objects and makes a final decision. The behavioral virtual layer 108 provides guidance and control to make that decision. FIG. 2 is a block diagram 200 of one embodiment of an autonomous vehicle higher-order architecture 206. Architecture 206 is built using a top-down approach to allow fully automated operation. The architecture 206 is also preferably a modular architecture so that it can be adapted to different vehicle manufacturer hardware. Accordingly, the architecture 206 comprises a plurality of modular elements that are functionally divided to maximize the hardware characteristics of different vehicle manufacturers. In one embodiment, the modular architecture 206 described herein can interface to the sensor system 202 of any vehicle 204. The modular architecture 206 can further receive vehicle information from any vehicle 204 and can communicate with any vehicle 204.

モジュラー型アーキテクチャ206の構成要素には、センサ202、センサインターフェース制御部(SIC)208、位置特定制御部(LC)210、認知制御部(PC)212、自動運転制御部214(ADC)、車両制御部216(VC)、システム制御部218(SC)、ヒューマンインタラクション制御部220(HC)、およびマシンインタラクション制御部222(MC)が含まれる。   The components of the modular architecture 206 include a sensor 202, a sensor interface control unit (SIC) 208, a position specifying control unit (LC) 210, a recognition control unit (PC) 212, an automatic driving control unit 214 (ADC), and vehicle control. A unit 216 (VC), a system control unit 218 (SC), a human interaction control unit 220 (HC), and a machine interaction control unit 222 (MC).

再び図1のOODAモデルを参照する。自律走行車両の観点から見ると、前記モデルの前記観察レイヤは、例えばビジョンセンサ、レーダ(Radar:「電波検出及び測距」)、ライダー(LIDAR:「光検出及び測距」)、全地球測位システム(GPS)等からセンサ読取値を収集することを含む。図2に示すセンサ202が、このような観察レイヤを表している。前記モデルの前記状況判断レイヤの例は、実世界において、走行中の道路に対して及びその道路上の車線区分線に対して車がどこにあるのかを判断することを含んでもよく、図2の認知制御部(PC)212及び位置特定制御部(LC)210により表される。前記モデルの前記意思決定レイヤの例は、車を自動運転するための経路(通過する部分(corridor))を決定することを含み、図2の自動運転制御部(ADC)214及び車両制御部(VC)216などの構成要素を有する。前記行動レイヤの例は、その経路を、図4の駆動部制御部410のような、前記車両の駆動系統(例えば、操舵副系統、加速副系統、制動副系統等)への、当該経路に沿って車を導く指令(コマンド)に変換することを含む。当業者であれば、システムのこれらのレイヤは必ずしもこの順序で進むとは限らず、観察が変わり次第、その他のレイヤの結果も変わるということを理解できるであろう。例えば、走行すべき経路をシステムが選んだ後も、他の物体の検出などといった道路上の状況の変化によって、車の経路を変更したり衝突を防ぐための緊急手順を実行したりしてもよい。また、前記車両制御部の前記指令は、ドリフトやスキッドなどの予想される車両挙動の変化を補償するように動的に調節される必要があり得る。   Referring once again to the OODA model of FIG. From the viewpoint of an autonomous vehicle, the observation layer of the model includes, for example, a vision sensor, a radar (Radar: “radio wave detection and ranging”), a rider (LIDAR: “light detection and ranging”), and global positioning. Collecting sensor readings from a system (GPS) or the like. The sensor 202 shown in FIG. 2 represents such an observation layer. An example of the situation determination layer of the model may include determining where in the real world a vehicle is relative to a running road and to a lane marking on the road, as shown in FIG. It is represented by a recognition control unit (PC) 212 and a position identification control unit (LC) 210. Examples of the decision-making layer of the model include determining a route (corridor) for automatically driving a vehicle, and includes an automatic driving control unit (ADC) 214 and a vehicle control unit ( VC) 216 and the like. In the example of the action layer, the route is connected to the drive system of the vehicle (for example, the steering sub system, the acceleration sub system, the brake sub system, etc.) such as the drive unit control unit 410 of FIG. Including conversion to commands that guide the car along. One skilled in the art will understand that these layers of the system do not necessarily proceed in this order, and that the results of other layers will change as observations change. For example, even after the system selects a route to travel, it may change the route of a car or execute an emergency procedure to prevent a collision due to changes in road conditions such as detection of other objects. Good. Also, the command of the vehicle control unit may need to be dynamically adjusted to compensate for anticipated changes in vehicle behavior such as drift and skid.

高次のレベルにおいて、モジュール(手段)のアーキテクチャ206は、センサ202から測定値を受け取る。センサが異なれば出力する情報のセットも異なり且つフォーマットも異なり得るが、モジュラー型アーキテクチャ206は、センサデータを当該モジュラー型アーキテクチャ206が解釈できるベンダーニュートラルな(特定のベンダーに依存しない)フォーマットのデータに変換するように構成されたセンサインターフェース制御部(SIC)208(センサインターフェースサーバ(SIS)と称されることもある)を含んでいる。したがって、モジュラー型アーキテクチャ206は、車両の前記センサから、当該センサのベンダー、メーカー又は構成に関係なく、当該車両204周辺の環境について知ることができる。SIC208は、また、各センサのデータに対して、車における当該センサの位置及び向きを含むメタデータタグを付すことができる。当該メタデータタグは、前記認知制御部によって各センサの独自の角度、視野及び死角を決定するのに用いられることができる。   At a higher level, module architecture 206 receives measurements from sensor 202. Different sensors may output different sets of information and different formats, but the modular architecture 206 is a vendor-neutral (independent vendor-specific) format of data that can be interpreted by the modular architecture 206. It includes a sensor interface controller (SIC) 208 (sometimes referred to as a sensor interface server (SIS)) configured to convert. Therefore, the modular architecture 206 can know the environment around the vehicle 204 from the sensor of the vehicle, regardless of the vendor, manufacturer or configuration of the sensor. The SIC 208 can also attach a metadata tag to each sensor data that includes the position and orientation of the sensor in the car. The metadata tag can be used by the recognition control unit to determine the unique angle, field of view, and blind spot of each sensor.

モジュラー型アーキテクチャ206は、さらに、車両制御部216(VC)を含む。VC216は、前記車両に指令を送るように且つ前記車両から状態メッセージを受け取るように構成されている。車両制御部216は、車両204から、当該車両の状態(例えば、当該車両の速度、姿勢、操舵位置、制動状態及び燃料レベルに関する情報のような、当該車両の自律走行に関係する副系統についての任意の情報等)を示す状態メッセージを受け取る。モジュラー型アーキテクチャ206は、車両204及びセンサ202からの情報に基づいて、自動運転を実現するのにVC216から車両204に送る指令を算出することができる。モジュラー型アーキテクチャ206内の各種モジュールの機能については後で詳細に説明することにする。ただし、モジュラー型アーキテクチャ206を高次のレベルで見ると、当該モジュラー型アーキテクチャ206は、(a)センサ202からセンサ情報、且つ(b)車両204から車両状態情報を受け取り、そして、車両命令を車両204に供給する。このようなアーキテクチャにより、任意のセンサ構成を有するあらゆる車両に対して前記モジュラー型アーキテクチャを採用することができる。したがって、センサ副系統(例えば、センサ202等)、さらには、車両状態を出力し且つ駆動指令を受け付けることが可能な駆動副系統(例えば、図4の駆動部制御部410等)を備えた車両プラットフォームであれば、どのような車両プラットフォームでもモジュラー型アーキテクチャ206と統合することができる。   The modular architecture 206 further includes a vehicle controller 216 (VC). The VC 216 is configured to send commands to the vehicle and receive status messages from the vehicle. The vehicle control unit 216 receives from the vehicle 204 information on sub-systems related to autonomous traveling of the vehicle, such as information on the vehicle state (for example, information on the vehicle speed, posture, steering position, braking state, and fuel level). A status message indicating any information). Based on information from the vehicle 204 and the sensor 202, the modular architecture 206 can calculate a command to be sent from the VC 216 to the vehicle 204 to achieve automatic driving. The functions of the various modules within the modular architecture 206 will be described in detail later. However, looking at the modular architecture 206 at a higher level, the modular architecture 206 receives (a) sensor information from the sensor 202 and (b) vehicle status information from the vehicle 204 and sends vehicle instructions to the vehicle. 204. With this architecture, the modular architecture can be adopted for any vehicle having an arbitrary sensor configuration. Therefore, a vehicle equipped with a sensor sub-system (for example, the sensor 202 etc.) and further a drive sub-system (for example, the drive unit control unit 410 in FIG. 4) capable of outputting a vehicle state and receiving a drive command. Any vehicle platform can be integrated with the modular architecture 206.

モジュラー型アーキテクチャ206内では、様々なモジュールが協働することによって自動運転を前記OODAモデルに従って実現する。センサ202及びSIC208は、前記「観察」仮想レイヤ内に存在する。前述したように、SIC208は、様々なフォーマットの測定値(例えば、センサデータ等)を受け取る。SIC208は、前記センサ直接からのベンダー特有データを、ベンダーニュートラルなデータに変換するように構成されている。これにより、センサ202のセットが任意のブランドのレーダ、ライダー又はイメージセンサなどのセンサを含むことができ、モジュラー型アーキテクチャ206は、センサ202による環境の認知を効果的に活用することができる。   In the modular architecture 206, various modules cooperate to realize automatic driving according to the OODA model. Sensor 202 and SIC 208 reside in the “observation” virtual layer. As described above, the SIC 208 receives measurements in various formats (eg, sensor data, etc.). The SIC 208 is configured to convert vendor specific data directly from the sensor into vendor neutral data. This allows the set of sensors 202 to include sensors such as any brand of radar, lidar or image sensor, and the modular architecture 206 can effectively exploit the environmental perception of the sensors 202.

次に、前記センサインターフェースサーバからの測定値出力が、認知制御部(PC)212及び位置特定制御部(LC)210によって処理される。PC212及びLC210はいずれも、前記OODAモデルの前記「状況判断」仮想レイヤ内に存在する。LC210は、GPS信号よりも高精度であり得る前記車両のロバストな実世界位置を決定し、また、GPS信号が利用できないか又は正確でない場合にも、前記車両の実世界位置を決定する。LC210は当該位置を、GPSデータ及びセンサデータに基づいて決定する。一方で、PC212は、車周辺の物体や道路の状況を含む、車周辺の環境の状態を表す予測モデルを生成する。図3は、SIC208、LC210及びPC212をさらに詳細に示す。   Next, the measurement value output from the sensor interface server is processed by the recognition control unit (PC) 212 and the position specification control unit (LC) 210. Both the PC 212 and the LC 210 exist in the “situation determination” virtual layer of the OODA model. The LC 210 determines a robust real world position of the vehicle that may be more accurate than the GPS signal, and also determines the real world position of the vehicle when the GPS signal is not available or not accurate. The LC 210 determines the position based on GPS data and sensor data. On the other hand, the PC 212 generates a prediction model that represents the state of the environment around the vehicle, including the conditions around the vehicle and the road. FIG. 3 shows the SIC 208, LC 210 and PC 212 in more detail.

自動運転制御部214(ADC)及び車両制御部216(VC)は、前記認知制御部及び位置特定制御部の出力を受け取る。ADC214及びVC216は、前記OODAモデルの前記「意思決定」仮想レイヤ内に存在する。ADC214は、目的地選択、ルート(道筋)及びレーンの案内ならびに高次交通監視を担う。ADC214は、さらに、ルート内でのレーン選択、および緊急時に前記車両の進路を変えさせるための安全な退避エリアの特定を担う。すなわち、ADC214は、目的地に到達するためのルート、および当該ルート内において前記車両を導くための経路を選択する。ADC214は、この経路をVC216に渡す。当該経路が与えられたVC216は、当該経路を安全に走行するように前記車両を導くための、低次の駆動機能を供給する。VC216は、まず、運転手に快適性を提供しながら前記経路に沿って操縦する最良の方法、安全な退避場所に到達する能力、緊急時の操縦性、および前記車両の軌道(trajectory)に追従する能力を決定する。緊急時にはVC216が、ADC214により供給された前記経路を無効にして即座に車を安全な退避経路に案内し、安全になればADC214により供給された前記経路に復帰する。VC216は、前記車両の操縦方法(安全操縦を含む)を決定した後、車両204に対して駆動指令を供給する。車両204は当該指令を、当該車両204の操舵副系統、スロットル副系統及び制動副系統において実行する。つまり、VC216のこの要素は前記OODAモデルの前記「行動」仮想レイヤ内に存在する。図4には、ADC214及びVC216についてのさらなる詳細が記載されている。   The automatic driving control unit 214 (ADC) and the vehicle control unit 216 (VC) receive the outputs of the recognition control unit and the position specifying control unit. The ADC 214 and VC 216 reside in the “decision” virtual layer of the OODA model. The ADC 214 is responsible for destination selection, route (lane) and lane guidance, and higher traffic monitoring. The ADC 214 is further responsible for selecting a lane within the route and specifying a safe evacuation area for changing the course of the vehicle in an emergency. That is, the ADC 214 selects a route for reaching the destination and a route for guiding the vehicle in the route. The ADC 214 passes this path to the VC 216. The VC 216 given the route provides a low-order drive function for guiding the vehicle to travel safely on the route. The VC 216 first follows the best way to maneuver along the route while providing comfort to the driver, the ability to reach a safe retreat, emergency maneuverability, and the vehicle's trajectory. Determine the ability to do. In an emergency, the VC 216 invalidates the route supplied by the ADC 214 and immediately guides the vehicle to a safe retreat route, and returns to the route supplied by the ADC 214 when safe. The VC 216 supplies a drive command to the vehicle 204 after determining the vehicle operation method (including safe operation). The vehicle 204 executes the command in the steering sub system, the throttle sub system, and the braking sub system of the vehicle 204. That is, this element of VC 216 exists in the “behavior” virtual layer of the OODA model. In FIG. 4, further details about ADC 214 and VC 216 are described.

モジュラー型アーキテクチャ206は、さらに、各種モジュールとの通信を、システム制御部218(SC)を通してコーディネートする。SC218は、ADC214及びVC216とメッセージをやり取りすることによってヒューマンインタラクション制御部220(HC)及びマシンインタラクション制御部222(MC)の動作を可能にする。HC220は、前記システム制御部によりコーディネートされた状態メッセージに基づいて、前記自律走行車両の動作についての情報を人間が読解可能なフォーマットで提供する。HC220は、さらに、人間による入力が車の意思決定において考慮されるのを可能にする。例えば、HC220は一例として、前記車両のオペレータが前記車両の目的地又はルートを入力又は変更するのを可能にする。SC218がオペレータの入力を解釈し、必要に応じてこの情報をVC216又はADC214に受け渡す。   The modular architecture 206 further coordinates communication with various modules through the system controller 218 (SC). The SC 218 enables the operations of the human interaction control unit 220 (HC) and the machine interaction control unit 222 (MC) by exchanging messages with the ADC 214 and the VC 216. Based on the status message coordinated by the system control unit, the HC 220 provides information about the operation of the autonomous vehicle in a human-readable format. The HC 220 further allows human input to be considered in vehicle decision making. For example, by way of example, the HC 220 allows the vehicle operator to enter or change the destination or route of the vehicle. The SC 218 interprets the operator input and passes this information to the VC 216 or ADC 214 as necessary.

また、MC222は、他のマシン又は車両とのメッセージをコーディネートすることができる。例えば、他の車両が進路変更信号を自律走行車両に対して電子的に且つ無線で送信することができ、MC222がそのような情報を受信して当該情報をVC216及びADC214にSC218を介して受け渡しできる。また、MC222は、情報を他の車両に対して無線で送信できる。進路変更信号の例として、MC222は、この車が進路変更しようとしているという通知を受け取ることできる。MC222はこの情報を、VC216がSC218に対して状態メッセージを送り且つSC218が当該状態をMC222に受け渡すことによって受け取る。ただし、その他の例のマシン通信も実現可能である。例えば、他の車両のセンサ情報又は固定式センサが前記自律走行車両に、当該車両に環境についてのより確かな視界を与えるデータを無線で送信することができる。例えば、他のマシンが、前記車両の死角における物体についての情報を送信することが可能であってもよい。さらなる例では、他の車両が当該他の車両の軌跡を送信できる。さらなる他の例では、交通信号灯が前記車両から見えない場合の支援用として、当該交通信号灯が当該交通信号灯の状態についてのデジタル信号を送信できる。当業者であれば、前記自律走行車両により利用されるどのような情報も、他の車両との間で送受信されることが可能であり、これによって自律走行に役立てられることを理解できるであろう。図6には、HC220、MC222及びSC218についてのさらなる詳細が記載されている。   In addition, the MC 222 can coordinate messages with other machines or vehicles. For example, another vehicle can electronically and wirelessly transmit a route change signal to an autonomous vehicle, and the MC 222 receives such information and delivers the information to the VC 216 and the ADC 214 via the SC 218. it can. In addition, the MC 222 can transmit information to other vehicles wirelessly. As an example of a course change signal, MC 222 may receive a notification that this car is about to change course. MC 222 receives this information by VC 216 sending a status message to SC 218 and SC 218 passing the status to MC 222. However, other examples of machine communication can also be realized. For example, sensor information of other vehicles or fixed sensors can wirelessly transmit to the autonomously traveling vehicle data that gives the vehicle a more reliable view of the environment. For example, it may be possible for another machine to transmit information about the object in the blind spot of the vehicle. In a further example, other vehicles can transmit the trajectory of the other vehicle. In yet another example, the traffic signal light can transmit a digital signal about the state of the traffic signal light for assistance when the traffic light is not visible from the vehicle. A person skilled in the art will understand that any information used by the autonomous vehicle can be transmitted to and received from other vehicles, which is useful for autonomous driving. . In FIG. 6, further details about HC 220, MC 222 and SC 218 are described.

図3は、センサインタラクション制御部304(SIC)、認知制御部(PC)306及び位置特定制御部(LC)308の一実施形態を示すブロック図300である。前記車両のセンサアレイ302は、カメラ302a、レーダ302b、ライダー302c、GPS302d、IMU302e、およびvehicle-to-everything(V2X)302fなどの様々な種類のセンサを含むことができる。各センサは、ベンダー規定の個々のデータタイプをSIC304に送る。例えば、カメラ302aは物体リスト及び画像を送り、レーダ302bは物体リスト及び同相/直交位相(IQ)データを送り、ライダー302cは物体リスト及び走査点を送り、GPS302dは位置及び速度を送り、IMU302eは加速度データを送り、V2X302f制御部は他の車両の軌跡及び進路変更信号などのセンサデータや交通信号灯データを送る。ただし、当業者であれば、センサアレイ302がこれら以外の種類のセンサも使用可能であることを理解できるであろう。SIC304は、各センサ302a〜302fの異常を監視及び診断する。SIC304は、さらに、各センサのデータを当該データのベンダー特有パッケージから分離し、ベンダーニュートラルなデータタイプを認知制御部(PC)306及び位置特定制御部308(LC)に送る。SIC304は、位置特定用特徴物測定値ならびに位置及び姿勢の測定値をLC308に転送し、かつ、追跡対象物体測定値、走行面測定値ならびに位置及び姿勢の測定値をPC306に転送する。また、SIC304は、フォーマットの異なる新しいセンサも同じモジュラー型アーキテクチャで使用できるように、ファームウェアで更新されることができる。   FIG. 3 is a block diagram 300 illustrating one embodiment of a sensor interaction control unit 304 (SIC), a recognition control unit (PC) 306, and a location specification control unit (LC) 308. The vehicle sensor array 302 may include various types of sensors such as a camera 302a, radar 302b, rider 302c, GPS 302d, IMU 302e, and vehicle-to-everything (V2X) 302f. Each sensor sends a vendor-defined individual data type to the SIC 304. For example, camera 302a sends object lists and images, radar 302b sends object lists and in-phase / quadrature (IQ) data, lidar 302c sends object lists and scan points, GPS 302d sends position and velocity, and IMU 302e The acceleration data is sent, and the V2X302f control unit sends sensor data such as a trajectory and a route change signal of other vehicles and traffic signal light data. However, those skilled in the art will appreciate that the sensor array 302 may use other types of sensors. The SIC 304 monitors and diagnoses abnormalities in the sensors 302a to 302f. The SIC 304 further separates the data for each sensor from the vendor specific package of the data and sends the vendor neutral data type to the recognition control unit (PC) 306 and the location control unit 308 (LC). The SIC 304 transfers the position-specific feature measurement value and the position and orientation measurement value to the LC 308, and transfers the tracking target object measurement value, the running surface measurement value, and the position and orientation measurement value to the PC 306. The SIC 304 can also be updated in firmware so that new sensors of different formats can be used with the same modular architecture.

LC308は、GPSデータ及びIMUデータをレーダデータ、ライダーデータ及びビジョンデータと融合させることにより、GPS位置内の位置を決定したりGPS位置の精度を高めたりする。そして、LC308は、決定された確かな、位置、速度及び姿勢をPC306に報告する。LC308は、さらに、精度を高めるために、位置データ、速度データ及び姿勢データを表す測定値同士を、あるセンサ測定値(例えば、市街でのGPS信号等)が使えなくなった又は悪化した場合に当該LC308がその測定値を補正することができるように、相対的に監視する。PC306は、検知された情報に基づいて前記車両周辺の物体を識別して位置を突き止める。PC306は、さらに、前記車両近辺の走行可能面領域を推定すると共に、路肩や緊急時の走行可能地形などの表面も評価する。PC306は、さらに、物体の未来位置の確率予測を提供する。PC306は、さらに、物体及び走行可能面の履歴を記憶する。   The LC 308 fuses GPS data and IMU data with radar data, rider data, and vision data, thereby determining the position within the GPS position and increasing the accuracy of the GPS position. The LC 308 then reports the determined position, velocity, and attitude to the PC 306. In order to further improve the accuracy, the LC 308 uses the measurement values representing the position data, the velocity data, and the posture data when a certain sensor measurement value (for example, a GPS signal in a city) becomes unavailable or deteriorates. The relative monitoring is performed so that the LC 308 can correct the measured value. The PC 306 identifies and locates objects around the vehicle based on the detected information. Further, the PC 306 estimates a travelable surface area in the vicinity of the vehicle, and also evaluates a surface such as a road shoulder or an emergency travelable terrain. The PC 306 further provides a probability prediction of the future position of the object. The PC 306 further stores the history of the object and the travelable surface.

PC306は、戦略的予測と戦術的予測との2種類の予測を出力する。戦術的予測は、約2〜4秒後の未来の実世界を表すものであり、前記車両の最も近くにある交通及び道路のみを予測する。この予測は、路肩のような場所における空いた退避スペースを含む。   The PC 306 outputs two types of predictions, strategic predictions and tactical predictions. Tactical prediction represents the real world of the future in about 2-4 seconds and only predicts traffic and roads that are closest to the vehicle. This prediction includes empty evacuation space in places such as shoulders.

戦略的予測は、車の可視環境のうちの視認可能範囲を超える領域を予測する長期予測である。この予測は、4秒よりも先の未来についてのものであるが、戦術的予測よりも不確かさが大きくなる。というのも、物体(例えば、車、人間等)の挙動が、現在観察されている挙動から予測不能に変化するかもしれないからである。戦略的予測の不確かさが大きい理由は、現在観察されている挙動が予測期間全体にわたって続くという仮定を、当該予測が立てているためである。また、このような予測は、外部源(他の自律走行車両、センサシステム及びセンサ通信ネットワークを有する非自律走行車両や車道付近又は車道上に配置されたセンサを含む)からのセンサ測定値や、物体上のトランスポンダからネットワークを介して受信したセンサ測定値や、前記自律走行車両と無線で通信するように構成された交通信号灯や標識などの信号に基づくことができる。   Strategic prediction is long-term prediction that predicts an area beyond the visible range of the vehicle's visible environment. This prediction is for the future beyond 4 seconds, but has greater uncertainty than the tactical prediction. This is because the behavior of an object (eg, car, person, etc.) may change unpredictably from the currently observed behavior. The reason for the large uncertainty of strategic prediction is that the prediction makes the assumption that the currently observed behavior will continue throughout the prediction period. Also, such predictions may include sensor measurements from external sources (including other autonomous vehicles, non-autonomous vehicles with sensor systems and sensor communication networks and sensors located near or on the roadway) It can be based on sensor measurements received from a transponder on an object via a network, or signals such as traffic lights or signs configured to communicate wirelessly with the autonomous vehicle.

図4は、自動運転制御部(ADC)402、車両制御部(VC)404及び駆動部制御部410の例示的な一実施形態を示すブロック図400である。ADC402及びVC404は、前記OODAモデルの前記「意思決定」仮想レイヤを実行する。   FIG. 4 is a block diagram 400 illustrating an exemplary embodiment of an automatic operation controller (ADC) 402, a vehicle controller (VC) 404, and a drive controller 410. The ADC 402 and VC 404 execute the “decision-making” virtual layer of the OODA model.

ADC402は、まず、オペレータによる目的地入力および現在位置に基づき、当該現在位置から目的地への全体ルート(当該目的地に到達するための道路及び道路間の分岐点のリストを含む)を生成する。この戦略的なルートプランは、交通状況に基づくものであってもよく、最新の交通状況に基づいて変化することができるが、このような変化は一般的に、到着予定時刻(ETA)が大きく変わる場合に実施される。ADC402は、次に、前記自律走行車両が走行するための安全で且つ衝突を起こさない経路を、前記PCから提供された、近辺の物体及び許容可能な走行可能面に基づいて計画する。この経路は、VC404に要求として常に送られると共に、交通状況のような状況が変化するたびに更新される。VC404は、前記経路の更新をリアルタイムで受け取る。ADC402は逆にVC404から、前記車両の最新の実際軌道を受け取る。当該最新の実際軌道は、運転経路の前記要求についての、次に計画されている更新を変更するのにも用いられる。   The ADC 402 first generates an entire route from the current position to the destination (including a list of roads and branch points between the roads to reach the destination) based on the destination input by the operator and the current position. . This strategic route plan may be based on traffic conditions and can change based on the latest traffic conditions, but such changes generally have a large estimated arrival time (ETA). Implemented when changing. The ADC 402 then plans a safe and collision-free route for the autonomous vehicle to travel based on the nearby objects and the allowable travelable surfaces provided by the PC. This route is always sent as a request to the VC 404 and is updated whenever a situation such as a traffic situation changes. The VC 404 receives the route update in real time. Conversely, the ADC 402 receives the latest actual track of the vehicle from the VC 404. The latest actual trajectory is also used to change the next planned update for the request for the driving route.

ADC402は、前記車両が進むための戦略的経路を生成する。ADC402は当該経路を、前記戦略的/戦術的予測における道路上の空いたスペースについての予測に基づいて生成する。ADC402は、さらに、図3の認知制御部から車両位置情報及び車両姿勢情報を受け取る。VC404が、さらに、前記車両の駆動部制御部410からの当該車両の実際軌道をADC402に出力する。ADC402は、この情報に基づき、道路を走行するうえでの適切な経路を算出する。道路が空いている例では、前記経路が車前方のレーンに追従してもよい。   The ADC 402 generates a strategic route for the vehicle to travel. The ADC 402 generates the route based on predictions about free space on the road in the strategic / tactical prediction. The ADC 402 further receives vehicle position information and vehicle attitude information from the recognition control unit in FIG. The VC 404 further outputs the actual track of the vehicle from the drive unit control unit 410 of the vehicle to the ADC 402. Based on this information, the ADC 402 calculates an appropriate route for traveling on the road. In an example where the road is free, the route may follow a lane ahead of the vehicle.

車が別の車を追い越す必要がある他の例では、ADC402が、安全に追越しを行うための空いたスペースが追越しレーン内及びその別の車前方に存在しているか否かを判定することができる。ADC402は、前記車両が追越し運転を行うのに走行するための経路を、(a)追越し対象の車までの現在の距離、(b)追越しレーン内に存在する走行可能道路スペースの量、(c)追越し対象の車前方にある空いたスペースの量、(d)追越し対象の車両の速度、(e)前記自律走行車両の現在の速度、および(f)前記自律走行車両の既知の加速度に基づいて自動的に算出することができる。   In another example where a car needs to overtake another car, the ADC 402 may determine whether there is a vacant space in the overtaking lane and ahead of the other car for safe overtaking. it can. The ADC 402 follows a route on which the vehicle travels to perform the overtaking operation: (a) the current distance to the vehicle to be overtaken, (b) the amount of road space available in the overtaking lane, (c ) Based on the amount of empty space ahead of the vehicle to be overtaken, (d) the speed of the vehicle to be overtaken, (e) the current speed of the autonomous vehicle, and (f) the known acceleration of the autonomous vehicle. Can be calculated automatically.

他の例では、ADC402が、ハイウェイ出口に向かう際にレーン変更するための経路を決定することができる。ADC402は、前述した全因子に加えて目的地までの計画ルートを監視し、分岐点に接近すると、当該計画ルートを安全且つ合法的に運転し続けるための最良の経路を算出する。   In another example, the ADC 402 can determine a route to change lanes when heading for a highway exit. In addition to all the factors described above, the ADC 402 monitors the planned route to the destination, and when approaching the branch point, the ADC 402 calculates the best route for continuing to operate the planned route safely and legally.

ADC402は、さらに、前記経路内における戦術的軌道を算出する。これにより、前記車両は物体間の安全な間隔を維持することができる。当該戦術的軌道は、ある車両が不意に減速又は停止したり別の車両が当該自律走行車前方に割り込んだりするなどといった緊急時の、安全なバックアップ退避軌道も含む。   The ADC 402 further calculates a tactical trajectory in the path. Thereby, the said vehicle can maintain the safe space | interval between objects. The tactical trajectory also includes a safe back-up retreat trajectory in an emergency such as when one vehicle unexpectedly decelerates or stops or another vehicle interrupts in front of the autonomous vehicle.

ADC402は、要求軌道経路406をVC404に供給する。この供給は、前記車両が当該経路を進むことができるように当該ADC402と連携して行われる。要求軌道経路406は、数秒後の未来の軌道に対して幾何学的制約及び速度制約を課す。VC404は、経路406内で運転するためのルートを決定する。VC404は、当該VC404の操縦決断を、前記認知制御部から受け取った前記戦術的/操縦予測、前記車両の位置および前記車両の姿勢に基づいて行う。前述したように、前記戦術的/操縦予測は、短期間についてのものであるが不確かさが小さい。したがって、低次の操縦演算及び安全演算に関しては、VC404が前記戦術的/操縦予測を効果的に用いて要求経路406内の衝突を起こさない軌道を計画する。緊急時に必要とされる際には、VC404は、他の物体と衝突を起こさないように、経路406外の軌道を計画する。   The ADC 402 supplies the required trajectory path 406 to the VC 404. This supply is performed in cooperation with the ADC 402 so that the vehicle can travel along the route. The requested trajectory path 406 imposes geometric and velocity constraints on future trajectories after a few seconds. The VC 404 determines a route for driving in the route 406. The VC 404 makes a steering decision of the VC 404 based on the tactical / steering prediction received from the recognition control unit, the position of the vehicle, and the attitude of the vehicle. As mentioned above, the tactical / maneuvering prediction is for a short period of time, but with less uncertainty. Thus, for low order maneuvering and safety operations, VC 404 effectively uses the tactical / maneuvering prediction to plan a trajectory that does not cause a collision in request path 406. When needed in an emergency, the VC 404 plans a trajectory outside the path 406 so as not to collide with other objects.

次に、VC404は、要求経路406、車の現在の速度及び加速度、ならびに最も近くにある物体に基づいて、物体との衝突を回避し走行可能面上に留まりながら当該経路406をいかに走行するかを決定する。VC404は、衝突を回避する必要性に迫られると、ADC402の前記要求経路から急遽外れる操縦を指令しなければならないかもしれない。この緊急操縦は、ADC402ではなく、差し迫った衝突脅威に対して当該ADC402よりも応答時間が高速なVC404単独によって開始されることができる。この機能によって、安全重大衝突回避責任をVC404内だけのものとする。VC404は操縦指令を、車両プラットフォームの操舵動作、スロットル動作及び制動動作を制御する前記駆動部に送る。   Next, based on the requested route 406, the current speed and acceleration of the car, and the nearest object, the VC 404 avoids collision with the object and stays on the travelable surface while traveling on the route 406. To decide. When the VC 404 is forced to avoid a collision, it may have to command a maneuver that suddenly departs from the requested path of the ADC 402. This emergency maneuver can be initiated not by the ADC 402 but by the VC 404 alone, which has a faster response time than the ADC 402 against the impending collision threat. With this function, the safety serious collision avoidance responsibility is only in the VC 404. The VC 404 sends a steering command to the drive unit that controls the steering operation, throttle operation, and braking operation of the vehicle platform.

VC404は当該VC404の操縦戦略を、駆動指令(例えば、操舵、スロットル、制動等)を含む現在の車両軌道408を前記車両の駆動部制御部410に送ることによって実行する。前記車両の駆動部制御部410は、車の操舵系統、スロットル系統及び制動系統それぞれに、対応する指令を適用する。軌道408を前記駆動部制御部に送るVC404は、前記OODAモデルの前記「行動」仮想レイヤを代表する。前記自律走行車両のアーキテクチャをこのように概念化することにより、特定のモデル(例えば、各指令のフォーマット、加速性能、旋回性能及び制動性能等)の車を制御するための設定を必要とする構成要素は前記VCだけであり、前記ADCは特定の車両性能にほぼ無関係でいられる。一例において、VC404は、車両の特定の駆動部制御系統とインターフェースできるように構成されたファームウェアで又は全車両に対する車群規模のファームウェアアップデートで更新されることができる。   The VC 404 executes the steering strategy of the VC 404 by sending a current vehicle trajectory 408 including a drive command (for example, steering, throttle, braking, etc.) to the drive controller 410 of the vehicle. The drive control unit 410 of the vehicle applies corresponding commands to the vehicle steering system, throttle system, and braking system. The VC 404 that sends the trajectory 408 to the drive controller represents the “behavior” virtual layer of the OODA model. By conceptualizing the architecture of the autonomous vehicle in this way, a component that requires settings for controlling a vehicle of a specific model (for example, the format of each command, acceleration performance, turning performance, braking performance, etc.) Is the VC only, and the ADC can be largely independent of specific vehicle performance. In one example, the VC 404 can be updated with firmware configured to interface with a particular drive control system of the vehicle or with a fleet-scale firmware update for the entire vehicle.

図5は、ADC402及びVC404の意思決定時間スケールを示す図500である。ADC402は、前記経路を生成することによって高次の戦略的決断502及び戦術的決断504を実現する。よって、ADC402は、長いレンジおよび/または時間スケールの決断を実現する。追越しやターンなどの挙動に関して戦略的ルートや戦術的走行経路を計画するためにADC402が用いる実世界状態の推定は、不確かさが大きいものの、長い時間の未来を予測している。これは、そのような自律動作を計画するのに必要なことである。前記戦略的予測は、車の視認可能範囲を超えて予測するところ、車から遠く離れた物体の予測についてはレーダなどの非ビジョン技術に頼るしかないので、不確かさが大きくなる。ハイウェイ並みの速度で車を追い越すなどといった戦術的決断の多くは自律走行車両の視認可能範囲を超える(BVR)(例えば、100m以上等の)認知を必要とするのに対し、操縦性506決断はどれも、衝突を回避するように局所的に認知された物体に基づいて行われる。   FIG. 5 is a diagram 500 illustrating a decision time scale for the ADC 402 and VC 404. The ADC 402 implements higher order strategic decisions 502 and tactical decisions 504 by generating the path. Thus, the ADC 402 achieves long range and / or time scale decisions. The estimation of the real world state that the ADC 402 uses to plan strategic routes and tactical driving paths for behavior such as overtaking and turns predicts a long-time future, albeit with high uncertainty. This is necessary to plan such autonomous operation. When the strategic prediction is predicted beyond the visible range of the vehicle, the uncertainty of the object that is far from the vehicle depends on a non-vision technique such as radar for prediction of an object far away from the vehicle. While many of the tactical decisions, such as overtaking a car at the speed of a highway, require recognition beyond the visible range of autonomous vehicles (eg, BVR) (eg, 100 meters or more), All are based on locally recognized objects to avoid collisions.

一方で、VC404は、物体挙動及び走行面についての短時間フレーム/レンジの予測である操縦性予測を用いて操縦性決断506を生成する。これらの操縦性予測は、短時間スケールの予測なので不確かさが小さくなる。ただし、操縦性予測は、前記自律走行車両における前記センサの視認可能範囲内で得られた測定値しか利用しない。つまり、VC404は、衝突を起こさない前記自律走行車両の軌道を高速応答で計画するために、車のすぐ近くの周辺環境の状態についてのこれらの操縦性予測(又は評価値)を用いる。VC404は、前記時間スケールの最下端において駆動指令を発行して計画済みの前記経路を実行に移し、当該経路で操縦する。   On the other hand, the VC 404 generates a maneuverability decision 506 using maneuverability prediction, which is a short-term frame / range prediction for object behavior and running surface. Since these maneuverability predictions are predictions on a short-time scale, uncertainty is reduced. However, the maneuverability prediction uses only measured values obtained within the visible range of the sensor in the autonomous vehicle. That is, the VC 404 uses these maneuverability predictions (or evaluation values) for the state of the surrounding environment in the immediate vicinity of the vehicle in order to plan the path of the autonomously traveling vehicle that does not cause a collision with a high-speed response. The VC 404 issues a drive command at the lowest end of the time scale, shifts the planned route to execution, and steers on the route.

図6は、システム制御部602、ヒューマンインターフェース制御部604(HC)及びマシンインターフェース制御部606(MC)の例示的な一実施形態を示すブロック図600である。ヒューマンインタラクション制御部604(HC)は、オペレータからの入力指令要求を受け取り、当該オペレータ、前記車両の乗員や前記自律走行車両外部の人間に対して出力を提供する。HC604は、システム状態や前記自律走行車両の意思決定の根拠についての人間が理解することのできる表現を、(視覚インターフェース、聴覚インターフェース又は触覚インターフェースなどのインターフェースを介して)オペレータや乗員に提供する。例えば、HC604は、前記車両の長期ルート(又は計画された経路)や安全な退避エリアを表示することができる。HC604は、さらに、運転手の状態についてのセンサ測定値を読み取り、任意の瞬間における当該運転手の、その車の運転を支援する準備完了性について監視することができる。一例として、前記車両内のセンサ系統は、オペレータがハンドルに手を置いているか否かを検出することができる。手を置いている場合、オペレータの操舵への切替えが許可可能であることをHC604は通知することができ、手を置いていなければ、HC604はオペレータへの操舵制御の受渡しを阻止することができる。他の例では、HC604が、意思決定の根拠(例えば、特定のルートを選択した理由等)をオペレータに対して纏めて要約することができる。   FIG. 6 is a block diagram 600 illustrating an exemplary embodiment of a system controller 602, human interface controller 604 (HC), and machine interface controller 606 (MC). The human interaction control unit 604 (HC) receives an input command request from an operator and provides an output to the operator, the vehicle occupant, and a person outside the autonomous vehicle. The HC 604 provides the operator and the occupant (via an interface such as a visual interface, an auditory interface, or a tactile interface) with a human understandable understanding of the system state and the basis for decision making of the autonomous vehicle. For example, the HC 604 can display a long-term route (or planned route) or a safe evacuation area of the vehicle. The HC 604 can also read sensor measurements about the driver's condition and monitor the driver's readiness to assist in driving the vehicle at any moment. As an example, the sensor system in the vehicle can detect whether the operator is placing his hand on the steering wheel. When the hand is placed, the HC 604 can notify that the switching to the steering of the operator can be permitted, and when the hand is not placed, the HC 604 can prevent the steering control from being delivered to the operator. . In another example, the HC 604 may summarize the decision base (eg, the reason for selecting a particular route, etc.) to the operator.

マシンインタラクション制御部606(MC)は、フォーメンションドライブや交通管理などの活動をコーディネートするように他の自律走行車両や自動化システムとインタラクションする。MC606は、内的システム状態を読み取って、連携マシンシステムが理解することのできる出力データタイプ(例えば、V2Xデータタイプ等)を生成する。この状態は、協働のシステムによってネットワーク上に一斉送信されることができる。MC606は、外部のマシンシステムからの任意の指令要求(例えば、減速、ルート変更、合流要求、交通信号の状態等)を、HC604からの他の指令要求とのアービトレーションのために前記SCに転送される指令要求に変換できる。また、MC606は、他のシステムからのメッセージを(例えば、信頼できる他社メーカーからの署名されたメッセージ等を用いて)認証することにより、これらメッセージが有効であって車周辺の環境を表現したものであることを保証することができる。このような認証により、悪意のある人物による改ざん行為を防止することができる。   The machine interaction control unit 606 (MC) interacts with other autonomous vehicles and automation systems so as to coordinate activities such as formation drive and traffic management. The MC 606 reads the internal system state and generates an output data type (for example, a V2X data type) that can be understood by the cooperative machine system. This state can be broadcast over the network by a collaborative system. MC 606 forwards any command request from an external machine system (eg, deceleration, route change, merge request, traffic signal status, etc.) to the SC for arbitration with other command requests from HC 604. Can be converted into a command request. Also, the MC 606 authenticates messages from other systems (for example, using a signed message from a reliable third-party manufacturer) so that these messages are valid and represent the environment around the vehicle. Can be guaranteed. Such authentication can prevent tampering by a malicious person.

システム制御部602(SC)は、前記アーキテクチャ内の各構成要素の全体管理部として機能する。SC602は、全システム構成要素からの状態データを集約して総合動作状態を判定し、各構成要素に対してシステム機能を実行するように指令を送る。システムの構成要素が動作不良を報告すると、SC602が診断・回復挙動を開始することによって自律動作を確保し、前記車両を安全な状態に維持する。自動運転状態への/からの前記車両のあらゆる切替えは、自動運転への動作上の準備ができているか否かや人間の運転手の準備完了性についての内部診断の間に、SC602により許可又は拒否される。   The system control unit 602 (SC) functions as an overall management unit for each component in the architecture. The SC 602 aggregates the state data from all system components to determine the overall operating state, and sends a command to execute the system function for each component. When a system component reports a malfunction, the SC 602 initiates diagnosis / recovery behavior to ensure autonomous operation and maintain the vehicle in a safe state. Any switching of the vehicle to / from the automatic driving state is permitted by the SC 602 during the internal diagnosis of whether or not the operation is ready for automatic driving and the readiness of the human driver. Rejected.

本発明の一実施形態では、システムおよび方法が、認知レイヤ/モジュール内で物体同士を融合する。図7は、ビジョンセンサ702、ライダー706、レーダ704などの全センサからの情報を受け取る物体レベル融合サーバ702の例示的な一実施形態を示すブロック図700である。例示的な一実施形態では、前記センサが、2つのステレオビジョンセンサ、レーダおよびライダーを含む。ステレオビジョン702は、画像化技術を用いて、カメラの視野内に存在する物体(例えば、車、二輪車、人間、レーン、標識及び物体等)のバウンディングボックス(境界ボックス)を出力する。レーダシステム704は、レーダを反射するあらゆる物体の位置及び距離(レンジ)を追跡するが、これらの物体を分類又は識別することはできない。ライダーシステム706は、車や二輪車などの物体を識別することができ、これらの物体の種別を出力する。   In one embodiment of the present invention, the system and method fuse objects within a cognitive layer / module. FIG. 7 is a block diagram 700 illustrating an exemplary embodiment of an object level fusion server 702 that receives information from all sensors such as vision sensor 702, rider 706, radar 704, and the like. In an exemplary embodiment, the sensor includes two stereo vision sensors, a radar and a lidar. The stereo vision 702 outputs a bounding box (boundary box) of an object (for example, a car, a two-wheeled vehicle, a person, a lane, a sign, and an object) existing in the field of view of the camera by using an imaging technique. The radar system 704 tracks the position and distance (range) of any object that reflects the radar, but cannot classify or identify these objects. The rider system 706 can identify objects such as cars and motorcycles, and outputs the types of these objects.

図8Aは、物体融合サーバ814の例示的な一実施形態を示すブロック図800である。各センサ802,804,806は、専用プロセッサを含むことができるサーバモジュールと通信する。当該専用プロセッサは、追跡ループを実行し、各センサの生データを別々に処理して、センサの生データの代わりに物体データを出力するように構成されている。一実施形態では、各センササーバ802,804,806による全ての物体出力は、X軸(車後方から車前方への軸心)、Y軸(車左側から車右側への軸心)及びZ軸(地面から上方に延びる軸心)を含む座標系である。しかしながら、当業者であれば、異なる軸構成の座標系(すなわち、球面座標系のような座標系)も想定できるであろう。言い換えれば、各センササーバは物体データを、前記センサ又はセンサのフォーマットに無関係なメッセージフォーマットに変換する。次に、認知物体融合サーバ814が、これらのメッセージを組み合わせて融合追跡対象物体リストメッセージとする。   FIG. 8A is a block diagram 800 illustrating an exemplary embodiment of an object fusion server 814. Each sensor 802, 804, 806 communicates with a server module that can include a dedicated processor. The dedicated processor is configured to execute a tracking loop, process raw data for each sensor separately, and output object data instead of raw sensor data. In one embodiment, all object outputs by the sensor servers 802, 804, 806 are the X axis (axial center from the rear of the vehicle to the front of the vehicle), the Y axis (axial center from the left side of the vehicle to the right side of the vehicle), and the Z axis. This is a coordinate system including (an axis extending upward from the ground). However, those skilled in the art will be able to envisage coordinate systems with different axis configurations (ie, coordinate systems such as spherical coordinate systems). In other words, each sensor server converts object data into a message format independent of the sensor or sensor format. Next, the cognitive object fusion server 814 combines these messages into a fusion tracking target object list message.

そして、物体融合モジュール814は全データ(ビジョン、ライダー及びレーダ)を分析して、自動運転車近辺の物体の全体像を決定する。従来の物体レベル融合システムは、レーダシステムしか使用しないか、ビジョンシステムしか使用しないか、またはいずれも使用しないものであった。全システムからのデータを組み合わせる際に克服しなければならない特有の課題の一つは、ライダーやレーダが物体を座標系内の点及びその点までの距離として出力するのに対し、ビジョンシステムは物体が含まれていそうなバウンディングボックスを出力するが、バウンディングボックスは距離があまり正確でないという点である。つまり、異なるシステムのデータ同士が正確に関連付けられる必要がある。例えば、バウンディングボックス内部のレーダ物体同士は、同じ物体であると判断することができる。バウンディングボックス外部のレーダのピン(ping)は、別の物体である可能性がある。前記物体融合モジュールは、全センサからのデータを受け容れることで、自動運転車付近の全物体についての最有力シナリオを決定する。例示的な一実施形態では、前記物体融合モジュールがカルマンフィルタリング及び確率的データ結合を用いる。しかしながら、他の実施形態では複数仮説追跡、又は確率仮説密度フィルタリングなどの手法が用いられることも可能である。   The object fusion module 814 then analyzes all data (vision, lidar and radar) to determine the overall image of the object near the autonomous vehicle. Conventional object level fusion systems have used only radar systems, only vision systems, or none. One of the unique challenges that must be overcome when combining data from the entire system is that the lidar or radar outputs the object as a point in the coordinate system and the distance to that point, whereas the vision system Will output a bounding box that is likely to contain, but the bounding box is less accurate. That is, data of different systems needs to be accurately associated with each other. For example, radar objects inside the bounding box can be determined to be the same object. The radar ping outside the bounding box may be another object. The object fusion module accepts data from all sensors to determine the most likely scenario for all objects near the autonomous vehicle. In an exemplary embodiment, the object fusion module uses Kalman filtering and stochastic data combining. However, in other embodiments, techniques such as multiple hypothesis tracking or probability hypothesis density filtering may be used.

図8Bは、前記物体融合モジュールのより詳細なブロック図850である。各センサの物体データ858,860,862は、少なくとも1つのプリプロセッサ864により前処理される。物体リスト866,868,870内の物体データのフォーマットを一致させて、データ連関ブロック(データ関連付けブロック)が、これら3つの異なるドメイン(例えば、ライダー、レーダ、ビジョンシステム等)からの物体同士を関連付けることによって物体軌跡を決定する。当業者であれば、レーダ物体リスト870が、レーダトラッカー874によって追加で処理されてからデータ連関モジュール(関連付けモジュール)872に転送されるということを理解できるであろう。   FIG. 8B is a more detailed block diagram 850 of the object fusion module. The object data 858, 860, 862 of each sensor is preprocessed by at least one preprocessor 864. Matching the object data formats in the object lists 866, 868, 870, the data association block (data association block) associates objects from these three different domains (eg, lidar, radar, vision system, etc.). Thus, the object trajectory is determined. One skilled in the art will recognize that the radar object list 870 is further processed by the radar tracker 874 and then forwarded to the data association module (association module) 872.

データ連関モジュール872は、グローバル最近傍法を用いて確率的データ連関を適用し、センサ物体軌跡を既存の融合された物体軌跡に関連付ける。グローバル最近傍法は、関連付ける各センサ物体軌跡と融合された物体軌跡との類似度の合計が最大になる関連付けを選択する。データ連関モジュール872は、物体軌跡の類似度を、変換されたセンサデータに基づき、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つを用いて測定する。一部の実施形態では、データ連関モジュール872が物体軌跡の類似度を、変換されたセンサデータに基づき、運動情報、幾何情報及び物体種別情報のうちの3つ全てを用いて測定する。データ連関モジュール872は、関連付けられなかった物体軌跡878を軌跡管理モジュール882に送り、軌跡管理モジュール882は新しい軌跡888を開始する。新しい軌跡888は、軌跡予測モジュール884に送られる。データ連関モジュール872はその一方で、残りの物体を既存の融合された物体軌跡876に関連付ける。これらは、軌跡更新モジュール880に渡される。軌跡更新モジュール880は、更新された軌跡892を軌跡予測モジュール884に送る。軌跡更新モジュール880はベイジアンフィルタを用いて、物体軌跡を更新すると共に次の時間ステップでの軌跡を予測する。例示的な一実施形態では、前記軌跡更新モジュールはカルマンフィルタを用いる。しかしながら、他の実施形態では拡張カルマンフィルタ、アンセンテッドカルマンフィルタ又は粒子フィルタが用いられることも可能である。   Data association module 872 applies probabilistic data association using a global nearest neighbor method to associate sensor object trajectories with existing fused object trajectories. The global nearest neighbor method selects an association that maximizes the similarity between each associated sensor object trajectory and the fused object trajectory. The data association module 872 measures the similarity of the object trajectory based on the converted sensor data using at least two of motion information, geometric information, and object type information. In some embodiments, the data association module 872 measures the similarity of the object trajectory using all three of motion information, geometric information, and object type information based on the converted sensor data. The data association module 872 sends the unrelated object trajectory 878 to the trajectory management module 882, and the trajectory management module 882 starts a new trajectory 888. The new trajectory 888 is sent to the trajectory prediction module 884. Data association module 872 on the other hand associates the remaining objects with the existing fused object trajectory 876. These are passed to the trajectory update module 880. The trajectory update module 880 sends the updated trajectory 892 to the trajectory prediction module 884. The trajectory update module 880 uses a Bayesian filter to update the object trajectory and predict the trajectory at the next time step. In an exemplary embodiment, the trajectory update module uses a Kalman filter. However, in other embodiments, an extended Kalman filter, an unscented Kalman filter, or a particle filter may be used.

軌跡予測モジュール884は、既存の物体軌跡についての予測886であって、データ連関モジュール872に送られる予測886を発行する。この予測は、未来の時間ステップでのデータ連関に利用される。このループは、車が動いている限り続行する。   The trajectory prediction module 884 issues a prediction 886 for an existing object trajectory that is sent to the data association module 872. This prediction is used for data association in future time steps. This loop continues as long as the car is moving.

軌跡更新モジュール880は、さらに、物体がもはや視界にないことを前記センサが検出すると、古い軌跡を除去する。ただし、軌跡更新モジュール880は、前記センサの判明している死角内にある物体については例外とすることができる。   Trajectory update module 880 further removes old trajectories when the sensor detects that the object is no longer in view. However, the trajectory update module 880 can make an exception for an object within the blind spot known to the sensor.

図9は、軌跡予測を示す図900である。軌跡予測の目標は、評価値の最新の進路が与えられるものとして、現測定時点での物体の位置及び速度を追跡することである。例えば、時刻t=kでの軌跡902が与えられるものとして、前記軌跡予測モジュールは、時刻t=k+1での物体の位置及び軌跡904を、その前の時刻(例えば、最近の時間ステップ等)で収集されたデータからのデータに基づいて推定することができる。ただし、推定不確かさは、予測時点以降、その予測から時間的に離れれば離れるほど大きくなる。現時点から時間的に離れた予測になるほど、物体に合致するバウンディングボックスは当然の如く増大し、その物体に対応する確かさの度合いが低下する。   FIG. 9 is a diagram 900 illustrating trajectory prediction. The goal of trajectory prediction is to track the position and velocity of the object at the time of the current measurement, given the latest course of evaluation values. For example, assuming that a trajectory 902 at time t = k is given, the trajectory prediction module calculates the position and trajectory 904 of the object at time t = k + 1 at the previous time (for example, the most recent time step). Estimation can be based on data from the collected data. However, the estimation uncertainty increases as the distance from the prediction increases in time after the prediction time. As the prediction becomes farther away from the present time, the bounding box that matches the object naturally increases, and the degree of certainty corresponding to the object decreases.

図10A〜図10Dは、データ連関を示す図1000,1020,1040,1060である。前記データ連関モジュールは、最新のセットの測定値を既存の軌跡に関連付ける(図10A)。まず、システムは、図10Bに示すように軌跡と測定値のペアそれぞれの関連性スコアを算出する。一実施形態では、当該スコアは、物体間の距離であってもよい。次に、システムは図10Cに示すように、妥当とは思われない関連付けを不許可とするか又は除外する。そして、前記データ連関モジュールは、前記関連性スコアの合計が最小となる測定値−軌跡の振当てを選択する。次に、関連付けられた測定値に基づいて、軌跡が更新される。軌跡の更新は、予測された軌跡と測定値とを考慮して、新たな軌跡となる。   10A to 10D are diagrams 1000, 1020, 1040, and 1060 showing data association. The data association module associates the latest set of measurements with an existing trajectory (FIG. 10A). First, as shown in FIG. 10B, the system calculates a relevance score for each pair of trajectory and measurement value. In one embodiment, the score may be a distance between objects. Next, the system disallows or excludes associations that do not seem valid, as shown in FIG. 10C. Then, the data association module selects the measurement value-trajectory allocation that minimizes the sum of the relevance scores. The trajectory is then updated based on the associated measurement value. The update of the trajectory becomes a new trajectory in consideration of the predicted trajectory and the measured value.

図11は、軌跡更新の例示的な一実施形態を示す図1100である。軌跡は、物体同士がどのように関連しているのかに基づいて更新されることができる。例えば、2つの物体同士が関連している場合には、当該物体同士が関連しており且つ当該物体同士の軌跡が同一又は類似している可能性が高いという知識に基づいて、システムがこれら2つの物体の軌跡を組み合わせるように当該軌跡を更新することができる。   FIG. 11 is a drawing 1100 illustrating an exemplary embodiment of trajectory update. The trajectory can be updated based on how the objects are related. For example, when two objects are related to each other, the system is based on the knowledge that the objects are related and the trajectories of the objects are likely to be the same or similar. The trajectory can be updated to combine the trajectories of two objects.

本発明を例的な実施形態を参照しながら具体的に図示および説明したが、当業者であれば、添付の特許請求の範囲に包含される本発明の範疇を逸脱しない範囲で形態や細部に様々な変更が施されてもよいことを理解するであろう。   While the invention has been particularly shown and described with reference to illustrative embodiments, those skilled in the art will recognize the invention in form and detail without departing from the scope of the invention as encompassed by the appended claims. It will be understood that various changes may be made.

図12に、本発明の実施形態が実現され得るコンピュータネットワーク又は同様のデジタル処理環境を示す。   FIG. 12 illustrates a computer network or similar digital processing environment in which embodiments of the present invention may be implemented.

少なくとも1つのクライアントコンピュータ/装置50および少なくとも1つのサーバコンピュータ60が、アプリケーションプログラムなどを実行する処理装置、記憶装置および入出力装置を提供する。少なくとも1つのクライアントコンピュータ/装置50は、さらに、他のコンピューティングデバイス(他のクライアント装置/プロセス50および1つ以上の他のサーバコンピュータ60を含む)に通信ネットワーク70を介して接続されることができる。通信ネットワーク70は、リモートアクセスネットワーク、グローバルネットワーク(例えば、インターネット等)、世界中のコンピュータの集まり、ローカルエリア又はワイドエリアネットワーク、および現在のところは対応のプロトコル(TCP/IP、Bluetooth(登録商標)など)を用いて互いに通信するゲートウェイの一部であってもよい。それ以外の電子デバイス/コンピュータネットワークアーキテクチャも好適である。   At least one client computer / device 50 and at least one server computer 60 provide processing devices, storage devices, and input / output devices for executing application programs and the like. The at least one client computer / device 50 may further be connected to other computing devices (including other client devices / processes 50 and one or more other server computers 60) via the communication network 70. it can. The communication network 70 may be a remote access network, a global network (eg, the Internet, etc.), a collection of computers around the world, a local or wide area network, and currently compatible protocols (TCP / IP, Bluetooth®). Etc.) may be part of a gateway that communicates with each other. Other electronic device / computer network architectures are also suitable.

図13は、図12のコンピュータシステムにおけるコンピュータ(例えば、クライアントプロセッサ/装置50、サーバコンピュータ60等)の例示的な内部構造の図である。コンピュータ50,60は、コンピュータ又は処理システムの構成要素間でのデータ伝送に利用される一連のハードウェアラインであるシステムバス79を備える。システムバス79は、本質的に、コンピュータシステムの相異なる構成要素(例えば、プロセッサ、ディスクストレージ、メモリ、入出力ポート、ネットワークポート等)同士を接続して当該構成要素間での情報の伝送を可能にする共有の導管である。システムバス79には、様々な入出力装置(例えば、キーボード、マウス、ディスプレイ、プリンタ、スピーカ等)をコンピュータ50,60に接続するための入出力装置インターフェース82が取り付けられている。ネットワークインターフェース86は、コンピュータが、ネットワーク(例えば、図12のネットワーク70等)に取り付けられた様々な他の装置へと接続することを可能にする。メモリ90は、本発明の一実施形態(例えば、詳細に前述したセンサインターフェース制御部、認知制御部、位置特定制御部、自動運転制御部、車両制御部、システム制御部、ヒューマンインタラクション制御部、マシンインタラクション制御部、物体融合サーバ、プリプロセッサ、データ連関モジュール、軌跡更新モジュール、軌跡管理モジュール、軌跡予測モジュール、レーダトラッカー等)を実現するように用いられるコンピュータソフトウェア命令92およびデータ94を記憶する揮発性の記憶部である。ディスクストレージ95は、本発明の一実施形態を実現するように用いられるコンピュータソフトウェア命令92およびデータ94を記憶する不揮発性の記憶部である。システムバス79には、さらに、コンピュータ命令を実行する中央演算処理装置84が取り付けられている。   FIG. 13 is a diagram of an exemplary internal structure of a computer (eg, client processor / device 50, server computer 60, etc.) in the computer system of FIG. Computers 50 and 60 include a system bus 79 which is a series of hardware lines used for data transmission between components of the computer or processing system. The system bus 79 essentially connects different components of a computer system (eg, processor, disk storage, memory, input / output port, network port, etc.) and allows information to be transmitted between the components. Is a shared conduit. An input / output device interface 82 for connecting various input / output devices (for example, a keyboard, a mouse, a display, a printer, a speaker, etc.) to the computers 50 and 60 is attached to the system bus 79. The network interface 86 allows the computer to connect to various other devices attached to the network (eg, the network 70 of FIG. 12). The memory 90 is an embodiment of the present invention (for example, the sensor interface control unit, the recognition control unit, the position specifying control unit, the automatic driving control unit, the vehicle control unit, the system control unit, the human interaction control unit, the machine described in detail above) Volatile storage of computer software instructions 92 and data 94 used to implement an interaction controller, object fusion server, preprocessor, data association module, trajectory update module, trajectory management module, trajectory prediction module, radar tracker, etc. It is a storage unit. The disk storage 95 is a non-volatile storage that stores computer software instructions 92 and data 94 used to implement one embodiment of the present invention. Further, a central processing unit 84 for executing computer instructions is attached to the system bus 79.

一実施形態において、プロセッサルーチン92及びデータ94は、コンピュータプログラムプロダクト(概して符号92で表す)である。当該コンピュータプログラムプロダクトは、本発明のシステム用のソフトウェア命令の少なくとも一部を提供する非過渡的なコンピュータ読取り可能媒体(例えば、少なくとも1つのDVD−ROM、CD−ROM、ディスケット、テープなどの取外し可能な記憶媒体等)を含む。コンピュータプログラムプロダクト92は、当該技術分野において周知である任意の適切なソフトウェアインストール方法によってインストールされることが可能なものであってもよい。また、他の実施形態では、前記ソフトウェア命令の少なくとも一部が、ケーブル通信および/または無線接続を介してダウンロードされるものであってもよい。他の実施形態において、本発明のプログラムは、伝播媒体における伝播信号(例えば、電波、赤外線波、レーザ波、音波、インターネットなどのグローバルネットワーク又は他の少なくとも1つのネットワークによって伝播される電気波等)に組み込まれた、コンピュータプログラム伝播信号プロダクトである。このような搬送媒体又は信号が、本発明のルーチン/プログラム92用のソフトウェア命令の少なくとも一部を提供するように用いられてもよい。   In one embodiment, the processor routines 92 and data 94 are computer program products (generally designated 92). The computer program product is a non-transitory computer readable medium (eg, removable at least one DVD-ROM, CD-ROM, diskette, tape, etc.) that provides at least some of the software instructions for the system of the present invention. Storage medium etc.). The computer program product 92 may be capable of being installed by any suitable software installation method well known in the art. In other embodiments, at least some of the software instructions may be downloaded via cable communication and / or wireless connection. In another embodiment, the program of the present invention is a propagation signal in a propagation medium (for example, a radio wave, an infrared wave, a laser wave, a sound wave, an electric wave propagated by a global network such as the Internet or at least one other network). Is a computer program propagation signal product incorporated in Such a carrier medium or signal may be used to provide at least a portion of the software instructions for the routine / program 92 of the present invention.

一実施形態において、プロセッサルーチン92及びデータ94は、コンピュータプログラムプロダクト(概して符号92で表す)である。当該コンピュータプログラムプロダクトは、本発明のシステム用のソフトウェア命令の少なくとも一部を提供する非過渡的なコンピュータ読取り可能媒体(例えば、少なくとも1つのDVD−ROM、CD−ROM、ディスケット、テープなどの取外し可能な記憶媒体等)を含む。コンピュータプログラムプロダクト92は、当該技術分野において周知である任意の適切なソフトウェアインストール方法によってインストールされることが可能なものであってもよい。また、他の実施形態では、前記ソフトウェア命令の少なくとも一部が、ケーブル通信および/または無線接続を介してダウンロードされるものであってもよい。他の実施形態において、本発明のプログラムは、伝播媒体における伝播信号(例えば、電波、赤外線波、レーザ波、音波、インターネットなどのグローバルネットワーク又は他の少なくとも1つのネットワークによって伝播される電気波等)に組み込まれた、コンピュータプログラム伝播信号プロダクトである。このような搬送媒体又は信号が、本発明のルーチン/プログラム92用のソフトウェア命令の少なくとも一部を提供するように用いられてもよい。
なお、本発明は、実施の態様として以下の内容を含む。
〔態様1〕
検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換する過程と、
既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測する過程と、
変換された前記センサデータに基づいて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付ける過程と、
検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新する過程と、
融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告する過程と、
を備える、方法。
〔態様2〕
態様1に記載の方法において、さらに、
既存の物体軌跡に関連付けられない検出物体について、新しい物体軌跡を開始する過程、
を備える、方法。
〔態様3〕
態様1に記載の方法において、さらに、
自律走行車両の前記少なくとも1つの異種センサの視野外にある物体軌跡を削除する過程、
を備える、方法。
〔態様4〕
態様3に記載の方法において、物体軌跡を削除する前記過程が、さらに、物体軌跡が前記少なくとも1つの異種センサの死角内にある場合には、当該物体軌跡を削除対象から除外する副過程を含む、方法。
〔態様5〕
態様1に記載の方法において、検出物体を既存の物体軌跡に関連付ける前記過程が、さらに、運動情報、幾何情報及び物体種別情報のうちの少なくとも3つの類似度を求める、方法。
〔態様6〕
態様1に記載の方法において、さらに、
運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出された特徴物の軌跡を既存の物体軌跡に関連付ける過程、
を備える、方法。
〔態様7〕
態様1に記載の方法において、運動情報が位置情報、速度情報及び向き情報を含み、幾何情報がバウンディングボックス及び物体輪郭を含み、物体種別情報が物体種類を含む、方法。
〔態様8〕
検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換するように構成された前処理手段と、
既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測するように構成された軌跡予測手段と、
変換された前記センサデータを用いて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付けるように構成されたデータ連関手段と、
検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新するように構成された軌跡更新手段と、
融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告するように構成された報告手段と、
を備える、システム。
〔態様9〕
態様8に記載のシステムにおいて、さらに、
既存の物体軌跡に関連付けられない検出物体について、新しい物体軌跡を開始するように構成された軌跡管理手段、
を備える、システム。
〔態様10〕
態様8に記載のシステムにおいて、前記軌跡更新手段が、さらに、自律走行車両の前記少なくとも1つの異種センサの視野外にある物体軌跡を削除するように構成されている、システム。
〔態様11〕
態様10に記載のシステムにおいて、前記軌跡更新手段が、さらに、物体軌跡が前記少なくとも1つの異種センサの死角内にある場合には、当該物体軌跡を削除対象から除外することにより、前記物体軌跡を削除するように構成されている、システム。
〔態様12〕
態様8に記載のシステムにおいて、前記データ連関手段が、さらに、運動情報、幾何情報及び物体種別情報のうちの少なくとも3つの類似度を求めるように構成されている、システム。
〔態様13〕
態様8に記載のシステムにおいて、前記データ連関手段が、さらに、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出された特徴物の軌跡を既存の物体軌跡に関連付けるように構成されている、システム。
〔態様14〕
態様8に記載のシステムにおいて、運動情報が位置情報、速度情報及び向き情報を含み、幾何情報がバウンディングボックス及び物体輪郭を含み、物体種別情報が物体種類を含む、システム。
〔態様15〕
自律走行車両を動作させる命令を記憶するように構成された非過渡的なコンピュータ読取り可能媒体であって、前記命令は、プロセッサによってロード及び実行されると、当該プロセッサに、
検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換する手順と、
既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測する手順と、
変換された前記センサデータに基づいて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付ける手順と、
検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新する手順と、
融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告する手順と、
を実行させる、非過渡的なコンピュータ読取り可能媒体。
〔態様16〕
態様15に記載の非過渡的なコンピュータ読取り可能媒体において、前記命令が、さらに、前記プロセッサに、
既存の物体軌跡に関連付けられられない検出物体について、新しい物体軌跡を開始する手順、
を実行させるように構成されている、非過渡的なコンピュータ読取り可能媒体。
〔態様17〕
態様15に記載の非過渡的なコンピュータ読取り可能媒体において、前記命令が、さらに、前記プロセッサに、
前記自律走行車両の前記少なくとも1つの前記異種センサの視野外にある物体軌跡を削除する手順、
を実行させるように構成されている、非過渡的なコンピュータ読取り可能媒体。
〔態様18〕
態様17に記載の非過渡的なコンピュータ読取り可能媒体において、物体軌跡を削除する前記手順が、さらに、物体軌跡が前記少なくとも1つの異種センサの死角内にある場合には、当該物体軌跡を削除対象から除外することを含む、非過渡的なコンピュータ読取り可能媒体。
〔態様19〕
態様15に記載の非過渡的なコンピュータ読取り可能媒体において、検出物体を既存の物体軌跡に関連付ける前記手順が、さらに、運動情報、幾何情報及び物体種別情報のうちの少なくとも3つの類似度を求める、非過渡的なコンピュータ読取り可能媒体。
〔態様20〕
態様15に記載の非過渡的なコンピュータ読取り可能媒体において、前記命令が、さらに、前記プロセッサに:
運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出された特徴物の軌跡を既存の物体軌跡に関連付ける手順、
を実行させるように構成されている、非過渡的なコンピュータ読取り可能媒体。
In one embodiment, the processor routines 92 and data 94 are computer program products (generally designated 92). The computer program product is a non-transitory computer readable medium (eg, removable at least one DVD-ROM, CD-ROM, diskette, tape, etc.) that provides at least some of the software instructions for the system of the present invention. Storage medium etc.). The computer program product 92 may be capable of being installed by any suitable software installation method well known in the art. In other embodiments, at least some of the software instructions may be downloaded via cable communication and / or wireless connection. In another embodiment, the program of the present invention is a propagation signal in a propagation medium (for example, a radio wave, an infrared wave, a laser wave, a sound wave, an electric wave propagated by a global network such as the Internet or at least one other network). Is a computer program propagation signal product incorporated in Such a carrier medium or signal may be used to provide at least a portion of the software instructions for the routine / program 92 of the present invention.
In addition, this invention contains the following content as an aspect.
[Aspect 1]
A process of converting sensor data from a plurality of different sensors into a common coordinate frame, which is sensor data about a detected object;
Predicting the position, velocity, orientation and bounding box of an existing object trajectory at the current measurement time;
Associating a detected object with an existing object trajectory by determining at least two similarities among motion information, geometric information and object type information based on the converted sensor data;
Updating the motion information, the geometric information, and the object type information for the object trajectory associated with the detected object;
Reporting a merged object list, including an obtained set of updated object trajectories;
A method comprising:
[Aspect 2]
The method according to aspect 1, further comprising:
Starting a new object trajectory for a detected object not associated with an existing object trajectory;
A method comprising:
[Aspect 3]
The method according to aspect 1, further comprising:
Deleting an object trajectory outside the field of view of the at least one heterogeneous sensor of the autonomous vehicle;
A method comprising:
[Aspect 4]
In the method according to aspect 3, the step of deleting the object trajectory further includes a sub-process of excluding the object trajectory from the deletion target when the object trajectory is within the blind spot of the at least one different sensor. ,Method.
[Aspect 5]
The method of claim 1, wherein the step of associating a detected object with an existing object trajectory further determines at least three similarities of motion information, geometric information and object type information.
[Aspect 6]
The method according to aspect 1, further comprising:
Associating a trajectory of a detected feature with an existing object trajectory by obtaining at least two similarities among motion information, geometric information and object type information;
A method comprising:
[Aspect 7]
The method according to aspect 1, wherein the motion information includes position information, velocity information, and orientation information, the geometric information includes a bounding box and an object outline, and the object type information includes an object type.
[Aspect 8]
Pre-processing means configured to convert sensor data from a plurality of different types of sensors into a common coordinate frame, which is sensor data about a detected object;
Trajectory predicting means configured to predict position, velocity, orientation and bounding box at the current measurement time of an existing object trajectory;
Data association means configured to associate a detected object with an existing object trajectory by obtaining at least two similarities among motion information, geometric information and object type information using the converted sensor data; ,
Trajectory update means configured to update the motion information, the geometric information, and the object type information for the object trajectory associated with the detected object;
A reporting means configured to report a fused object list, the object list including the resulting set of updated object trajectories;
A system comprising:
[Aspect 9]
The system according to aspect 8, further comprising:
Trajectory management means configured to start a new object trajectory for a detected object that is not associated with an existing object trajectory,
A system comprising:
[Aspect 10]
9. The system according to aspect 8, wherein the trajectory updating means is further configured to delete an object trajectory that is outside the field of view of the at least one heterogeneous sensor of the autonomous vehicle.
[Aspect 11]
In the system according to aspect 10, when the object trajectory is further within the blind spot of the at least one heterogeneous sensor, the trajectory updating unit further excludes the object trajectory from the deletion target, thereby removing the object trajectory. A system that is configured to be removed.
[Aspect 12]
9. The system according to aspect 8, wherein the data association means is further configured to obtain at least three similarities among motion information, geometric information, and object type information.
[Aspect 13]
In the system according to aspect 8, the data association means further obtains a trajectory of the detected feature object by obtaining at least two similarities among the motion information, the geometric information, and the object type information. A system that is configured to associate with.
[Aspect 14]
The system according to aspect 8, wherein the motion information includes position information, velocity information, and orientation information, the geometric information includes a bounding box and an object outline, and the object type information includes an object type.
[Aspect 15]
A non-transient computer readable medium configured to store instructions for operating an autonomous vehicle, wherein the instructions, when loaded and executed by a processor,
A procedure for converting sensor data from a plurality of different sensors into a common coordinate frame, which is sensor data about a detected object,
A procedure for predicting the position, velocity, orientation and bounding box at the current measurement time of an existing object trajectory;
A step of associating a detected object with an existing object trajectory by obtaining at least two similarities among motion information, geometric information and object type information based on the converted sensor data;
A procedure for updating the motion information, the geometric information, and the object type information for the object trajectory associated with the detected object;
A procedure for reporting a merged object list that includes an obtained set of updated object trajectories;
A non-transient computer readable medium that causes
[Aspect 16]
The non-transient computer readable medium of aspect 15, wherein the instructions are further to the processor,
Procedure for starting a new object trajectory for a detected object that is not associated with an existing object trajectory,
A non-transitory computer readable medium configured to cause execution.
[Aspect 17]
The non-transient computer readable medium of aspect 15, wherein the instructions are further to the processor,
A procedure for deleting an object locus outside the field of view of the at least one heterogeneous sensor of the autonomous vehicle;
A non-transitory computer readable medium configured to cause execution.
[Aspect 18]
The non-transient computer-readable medium according to aspect 17, wherein the step of deleting an object trajectory is further subject to deletion when the object trajectory is within a blind spot of the at least one heterogeneous sensor. A non-transient computer readable medium that includes excluding from.
[Aspect 19]
The non-transient computer readable medium according to aspect 15, wherein the procedure of associating a detected object with an existing object trajectory further determines the similarity of at least three of motion information, geometric information, and object type information. Non-transient computer readable medium.
[Aspect 20]
The non-transient computer readable medium of aspect 15, wherein the instructions are further directed to the processor:
A procedure for associating a trajectory of a detected feature with an existing object trajectory by obtaining at least two similarities among motion information, geometric information, and object type information;
A non-transitory computer readable medium configured to cause execution.

Claims (20)

検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換する過程と、
既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測する過程と、
変換された前記センサデータに基づいて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付ける過程と、
検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新する過程と、
融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告する過程と、
を備える、方法。
A process of converting sensor data from a plurality of different sensors into a common coordinate frame, which is sensor data about a detected object;
Predicting the position, velocity, orientation and bounding box of an existing object trajectory at the current measurement time;
Associating a detected object with an existing object trajectory by determining at least two similarities among motion information, geometric information and object type information based on the converted sensor data;
Updating the motion information, the geometric information, and the object type information for the object trajectory associated with the detected object;
Reporting a merged object list, including an obtained set of updated object trajectories;
A method comprising:
請求項1に記載の方法において、さらに、
既存の物体軌跡に関連付けられない検出物体について、新しい物体軌跡を開始する過程、
を備える、方法。
The method of claim 1, further comprising:
Starting a new object trajectory for a detected object not associated with an existing object trajectory;
A method comprising:
請求項1に記載の方法において、さらに、
自律走行車両の前記少なくとも1つの異種センサの視野外にある物体軌跡を削除する過程、
を備える、方法。
The method of claim 1, further comprising:
Deleting an object trajectory outside the field of view of the at least one heterogeneous sensor of the autonomous vehicle;
A method comprising:
請求項3に記載の方法において、物体軌跡を削除する前記過程が、さらに、物体軌跡が前記少なくとも1つの異種センサの死角内にある場合には、当該物体軌跡を削除対象から除外する副過程を含む、方法。   4. The method of claim 3, wherein the step of deleting an object trajectory further includes a sub-process of excluding the object trajectory from the deletion target when the object trajectory is within a blind spot of the at least one different sensor. Including. 請求項1に記載の方法において、検出物体を既存の物体軌跡に関連付ける前記過程が、さらに、運動情報、幾何情報及び物体種別情報のうちの少なくとも3つの類似度を求める、方法。   The method of claim 1, wherein the step of associating a detected object with an existing object trajectory further determines at least three similarities of motion information, geometric information, and object type information. 請求項1に記載の方法において、さらに、
運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出された特徴物の軌跡を既存の物体軌跡に関連付ける過程、
を備える、方法。
The method of claim 1, further comprising:
Associating a trajectory of a detected feature with an existing object trajectory by obtaining at least two similarities among motion information, geometric information and object type information;
A method comprising:
請求項1に記載の方法において、運動情報が位置情報、速度情報及び向き情報を含み、幾何情報がバウンディングボックス及び物体輪郭を含み、物体種別情報が物体種類を含む、方法。   The method according to claim 1, wherein the motion information includes position information, velocity information, and orientation information, the geometric information includes a bounding box and an object outline, and the object type information includes an object type. 検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換するように構成された前処理手段と、
既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測するように構成された軌跡予測手段と、
変換された前記センサデータを用いて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付けるように構成されたデータ連関手段と、
検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新するように構成された軌跡更新手段と、
融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告するように構成された報告手段と、
を備える、システム。
Pre-processing means configured to convert sensor data from a plurality of different types of sensors into a common coordinate frame, which is sensor data about a detected object;
Trajectory predicting means configured to predict position, velocity, orientation and bounding box at the current measurement time of an existing object trajectory;
Data association means configured to associate a detected object with an existing object trajectory by obtaining at least two similarities among motion information, geometric information and object type information using the converted sensor data; ,
Trajectory update means configured to update the motion information, the geometric information, and the object type information for the object trajectory associated with the detected object;
A reporting means configured to report a fused object list, the object list including the resulting set of updated object trajectories;
A system comprising:
請求項8に記載のシステムにおいて、さらに、
既存の物体軌跡に関連付けられない検出物体について、新しい物体軌跡を開始するように構成された軌跡管理手段、
を備える、システム。
9. The system according to claim 8, further comprising:
Trajectory management means configured to start a new object trajectory for a detected object that is not associated with an existing object trajectory,
A system comprising:
請求項8に記載のシステムにおいて、前記軌跡更新手段が、さらに、自律走行車両の前記少なくとも1つの異種センサの視野外にある物体軌跡を削除するように構成されている、システム。   9. The system according to claim 8, wherein the trajectory updating means is further configured to delete an object trajectory outside the field of view of the at least one heterogeneous sensor of the autonomous vehicle. 請求項10に記載のシステムにおいて、前記軌跡更新手段が、さらに、物体軌跡が前記少なくとも1つの異種センサの死角内にある場合には、当該物体軌跡を削除対象から除外することにより、前記物体軌跡を削除するように構成されている、システム。   The system according to claim 10, wherein the trajectory updating means further excludes the object trajectory from a deletion target when the object trajectory is within a blind spot of the at least one heterogeneous sensor. The system is configured to remove. 請求項8に記載のシステムにおいて、前記データ連関手段が、さらに、運動情報、幾何情報及び物体種別情報のうちの少なくとも3つの類似度を求めるように構成されている、システム。   9. The system according to claim 8, wherein the data association means is further configured to obtain similarity of at least three of motion information, geometric information, and object type information. 請求項8に記載のシステムにおいて、前記データ連関手段が、さらに、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出された特徴物の軌跡を既存の物体軌跡に関連付けるように構成されている、システム。   9. The system according to claim 8, wherein the data association means further obtains a trajectory of the detected feature object by obtaining at least two similarities among motion information, geometric information, and object type information. A system that is configured to be associated with a trajectory. 請求項8に記載のシステムにおいて、運動情報が位置情報、速度情報及び向き情報を含み、幾何情報がバウンディングボックス及び物体輪郭を含み、物体種別情報が物体種類を含む、システム。   9. The system according to claim 8, wherein the motion information includes position information, velocity information, and orientation information, the geometric information includes a bounding box and an object outline, and the object type information includes an object type. 自律走行車両を動作させる命令を記憶するように構成された非過渡的なコンピュータ読取り可能媒体であって、前記命令は、プロセッサによってロード及び実行されると、当該プロセッサに、
検出物体についてのセンサデータであって、複数の異種センサからのセンサデータを、共通の座標フレームに変換する手順と、
既存の物体軌跡の現在の測定時点における、位置、速度、向き及びバウンディングボックスを予測する手順と、
変換された前記センサデータに基づいて、運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出物体を既存の物体軌跡に関連付ける手順と、
検出物体に関連付けられた物体軌跡について、前記運動情報、前記幾何情報及び前記物体種別情報を更新する手順と、
融合された物体リストであって、更新された物体軌跡の得られたセットを含む物体リストを報告する手順と、
を実行させる、非過渡的なコンピュータ読取り可能媒体。
A non-transient computer readable medium configured to store instructions for operating an autonomous vehicle, wherein the instructions, when loaded and executed by a processor,
A procedure for converting sensor data from a plurality of different sensors into a common coordinate frame, which is sensor data about a detected object,
A procedure for predicting the position, velocity, orientation and bounding box at the current measurement time of an existing object trajectory;
A step of associating a detected object with an existing object trajectory by obtaining at least two similarities among motion information, geometric information and object type information based on the converted sensor data;
A procedure for updating the motion information, the geometric information, and the object type information for the object trajectory associated with the detected object;
A procedure for reporting a merged object list that includes an obtained set of updated object trajectories;
A non-transient computer readable medium that causes
請求項15に記載の非過渡的なコンピュータ読取り可能媒体において、前記命令が、さらに、前記プロセッサに、
既存の物体軌跡に関連付けられられない検出物体について、新しい物体軌跡を開始する手順、
を実行させるように構成されている、非過渡的なコンピュータ読取り可能媒体。
16. The non-transient computer readable medium of claim 15, wherein the instructions are further to the processor.
Procedure for starting a new object trajectory for a detected object that is not associated with an existing object trajectory,
A non-transitory computer readable medium configured to cause execution.
請求項15に記載の非過渡的なコンピュータ読取り可能媒体において、前記命令が、さらに、前記プロセッサに、
前記自律走行車両の前記少なくとも1つの前記異種センサの視野外にある物体軌跡を削除する手順、
を実行させるように構成されている、非過渡的なコンピュータ読取り可能媒体。
16. The non-transient computer readable medium of claim 15, wherein the instructions are further to the processor.
A procedure for deleting an object locus outside the field of view of the at least one heterogeneous sensor of the autonomous vehicle;
A non-transitory computer readable medium configured to cause execution.
請求項17に記載の非過渡的なコンピュータ読取り可能媒体において、物体軌跡を削除する前記手順が、さらに、物体軌跡が前記少なくとも1つの異種センサの死角内にある場合には、当該物体軌跡を削除対象から除外することを含む、非過渡的なコンピュータ読取り可能媒体。   18. The non-transient computer readable medium of claim 17, wherein the procedure of deleting an object trajectory further deletes the object trajectory if the object trajectory is within a blind spot of the at least one disparate sensor. A non-transient computer-readable medium that includes exclusion from the subject. 請求項15に記載の非過渡的なコンピュータ読取り可能媒体において、検出物体を既存の物体軌跡に関連付ける前記手順が、さらに、運動情報、幾何情報及び物体種別情報のうちの少なくとも3つの類似度を求める、非過渡的なコンピュータ読取り可能媒体。   16. The non-transient computer readable medium of claim 15, wherein the procedure of associating a detected object with an existing object trajectory further determines a similarity of at least three of motion information, geometric information and object type information. Non-transient computer readable medium. 請求項15に記載の非過渡的なコンピュータ読取り可能媒体において、前記命令が、さらに、前記プロセッサに:
運動情報、幾何情報及び物体種別情報のうちの少なくとも2つの類似度を求めることによって、検出された特徴物の軌跡を既存の物体軌跡に関連付ける手順、
を実行させるように構成されている、非過渡的なコンピュータ読取り可能媒体。
16. The non-transient computer readable medium of claim 15, wherein the instructions are further to the processor:
A procedure for associating a trajectory of a detected feature with an existing object trajectory by obtaining at least two similarities among motion information, geometric information, and object type information;
A non-transitory computer readable medium configured to cause execution.
JP2019517953A 2016-09-29 2016-09-29 Autonomous vehicle with object level fusion Pending JP2019530608A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2016/054423 WO2018063241A1 (en) 2016-09-29 2016-09-29 Autonomous vehicle: object-level fusion

Publications (1)

Publication Number Publication Date
JP2019530608A true JP2019530608A (en) 2019-10-24

Family

ID=57227078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019517953A Pending JP2019530608A (en) 2016-09-29 2016-09-29 Autonomous vehicle with object level fusion

Country Status (3)

Country Link
EP (1) EP3516467A1 (en)
JP (1) JP2019530608A (en)
WO (1) WO2018063241A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023139706A1 (en) * 2022-01-19 2023-07-27 日本電気株式会社 Processing device

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019102920A1 (en) * 2019-02-06 2020-08-06 Bayerische Motoren Werke Aktiengesellschaft Method and device for sensor data fusion for a vehicle
US10984543B1 (en) 2019-05-09 2021-04-20 Zoox, Inc. Image-based depth data and relative depth data
US10937178B1 (en) * 2019-05-09 2021-03-02 Zoox, Inc. Image-based depth data and bounding boxes
US11087494B1 (en) 2019-05-09 2021-08-10 Zoox, Inc. Image-based depth data and localization
CN113112643A (en) * 2020-01-13 2021-07-13 北京地平线机器人技术研发有限公司 Evaluation method and device for predicted trajectory, electronic device and storage medium
CN111288984B (en) * 2020-03-04 2021-12-14 武汉大学 Multi-vehicle joint absolute positioning method based on Internet of vehicles
CN112572471B (en) * 2020-12-08 2022-11-04 西人马帝言(北京)科技有限公司 Automatic driving method, device, electronic equipment and computer storage medium
CN113342057B (en) * 2021-08-05 2021-12-03 特金智能科技(上海)有限公司 Track fusion method and device, unmanned aerial vehicle detection system, equipment and medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9472097B2 (en) * 2010-11-15 2016-10-18 Image Sensing Systems, Inc. Roadway sensing systems
US9381916B1 (en) * 2012-02-06 2016-07-05 Google Inc. System and method for predicting behaviors of detected objects through environment representation
US9547989B2 (en) * 2014-03-04 2017-01-17 Google Inc. Reporting road event data and sharing with other vehicles

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023139706A1 (en) * 2022-01-19 2023-07-27 日本電気株式会社 Processing device

Also Published As

Publication number Publication date
WO2018063241A1 (en) 2018-04-05
EP3516467A1 (en) 2019-07-31

Similar Documents

Publication Publication Date Title
US10599150B2 (en) Autonomous vehicle: object-level fusion
US10963462B2 (en) Enhancing autonomous vehicle perception with off-vehicle collected data
US10377375B2 (en) Autonomous vehicle: modular architecture
US10379533B2 (en) System and method for autonomous vehicle fleet routing
JP2019530608A (en) Autonomous vehicle with object level fusion
JP2019532292A (en) Autonomous vehicle with vehicle location
CN108693878B (en) Course setting device and course setting method
US9550496B2 (en) Travel control apparatus
EP3644294B1 (en) Vehicle information storage method, vehicle travel control method, and vehicle information storage device
US20180087907A1 (en) Autonomous vehicle: vehicle localization
JP2019530609A (en) Modular architecture autonomous vehicle
US20180056998A1 (en) System and Method for Multi-Vehicle Path Planning Technical Field
JP2016095851A (en) Computing device, computer-implemented method and system for autonomous passenger vehicle
US8452483B2 (en) Cell-based vehicle driving control method and system
KR101439019B1 (en) Car control apparatus and its car control apparatus and autonomic driving method
US20200249682A1 (en) Traffic Lane Information Management Method, Running Control Method, and Traffic Lane Information Management Device
WO2022072412A1 (en) Methods and systems for performing outlet inference by an autonomous vehicle to determine feasible paths through an intersection
JP2019185293A (en) Vehicle remote control method and vehicle remote control device
US20220253065A1 (en) Information processing apparatus, information processing method, and information processing program
WO2018199941A1 (en) Enhancing autonomous vehicle perception with off-vehicle collected data
WO2021153176A1 (en) Autonomous movement device, autonomous movement control method, and program
US20240067229A1 (en) Vehicle control device, vehicle control method, and storage medium
US11919515B2 (en) Vehicle control device and vehicle control method
US11958493B2 (en) Vehicle control device and vehicle control method
US20220203989A1 (en) Vehicle control device, vehicle control method, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190730

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210601