JP2024009794A - Virtual fields driving related operations - Google Patents

Virtual fields driving related operations Download PDF

Info

Publication number
JP2024009794A
JP2024009794A JP2023113669A JP2023113669A JP2024009794A JP 2024009794 A JP2024009794 A JP 2024009794A JP 2023113669 A JP2023113669 A JP 2023113669A JP 2023113669 A JP2023113669 A JP 2023113669A JP 2024009794 A JP2024009794 A JP 2024009794A
Authority
JP
Japan
Prior art keywords
vehicle
virtual
driver
force
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023113669A
Other languages
Japanese (ja)
Inventor
ビエッス アーミン
Biess Armin
ミスリ アイザック
Misri Isaac
エンゲルソイ ユリウス
Engelsoy Julius
レイチェルガウツ イガール
Raichelgauz Igal
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Autobrains Technologies Ltd
Original Assignee
Autobrains Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US17/823,069 external-priority patent/US20230064387A1/en
Application filed by Autobrains Technologies Ltd filed Critical Autobrains Technologies Ltd
Publication of JP2024009794A publication Critical patent/JP2024009794A/en
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/087Interaction between the driver and the control system where the control system corrects or modifies a request from the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

PROBLEM TO BE SOLVED: To provide a method for bringing full autonomous driving.
SOLUTION: A method for communicating with a driver of a vehicle, includes: i. obtaining object information regarding one or more objects located within an environment of the vehicle; ii. analyzing the object information; iii. determining, by using one or more neural network NNs, and based on the object information, a virtual force associated with a physical model and representing an impact of the one or more objects on a behavior of the vehicle; and iv. determining, based on at least the virtual force, a force feedback for use in providing a physical restraining force to be applied in association with a driver action made by the driver using the vehicle.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2024,JPO&INPIT

Description

本出願は、参照により本明細書に組み込まれる米国仮特許出願63/260,839号からの優先権を主張する、出願日2022年8月29日の米国特許出願17/823,069号の一部継続出願である。本出願は、その全体が本明細書に組み込まれる、出願日2022年7月11日の米国仮特許第63/368,156号からの優先権を主張する。 This application is part of U.S. Patent Application No. 17/823,069, filed Aug. 29, 2022, which claims priority from U.S. Provisional Patent Application No. 63/260,839, which is incorporated herein by reference. This is a continuation application. This application claims priority from U.S. Provisional Patent No. 63/368,156, filed July 11, 2022, which is incorporated herein in its entirety.

自律走行車両(AV:autonomous vehicles)は、交通事故数及びCO排出量を大幅に低減させるとともにより効率的な輸送システムに寄与するのに役立ち得る。しかしながら、今日の候補であるAV技術は、以下の3つの点において拡張性がない。 Autonomous vehicles (AV) can help significantly reduce the number of traffic accidents and CO2 emissions and contribute to a more efficient transportation system. However, today's candidate AV technologies are not scalable in three respects:

限られた視野、照明及び天候の課題、及び遮蔽はすべて、検出エラーとノイズを伴うローカライゼーション/運動学とにつながる。そのような不十分な現実世界の知覚出力に対処するために、AV技術に対する1つのアプローチは、高価なセンサに投資すること、及び/又は特殊なインフラストラクチャを道路網に統合することである。しかしながら、そのような試みは、非常にコストがかかり、インフラストラクチャの場合では、地理的に限定され、したがって、一般的にアクセス可能なAV技術に至り得ない。 Limited field of view, lighting and weather challenges, and occlusion all lead to detection errors and noisy localization/kinematics. To address such insufficient real-world perceptual output, one approach to AV technology is to invest in expensive sensors and/or integrate specialized infrastructure into the road network. However, such efforts are very costly and, in the case of infrastructure, geographically limited and therefore cannot lead to a generally accessible AV technology.

高価なハードウェア及びインフラストラクチャに基づかないAV技術は、機械学習、ひいては、現実世界の状況を処理するためのデータに、完全に依存している。検出エラーに対処するとともに複雑な運転タスクに十分な運転ポリシーを学習するためには、膨大な量のデータ及び計算リソースが必要とされ、依然として、適正に処理されないエッジ・ケースがある。これらのエッジ・ケースにおける共通の特徴は、機械学習モデルが目に見えない又は混乱させる状況に十分に一般化されず、ディープ・ニューラル・ネットワークのブラックボックス性に起因して、誤った挙動を分析することが困難であることである。 AV technology, which is not based on expensive hardware and infrastructure, relies entirely on machine learning and thus data to process real-world situations. Dealing with detection errors and learning driving policies sufficient for complex driving tasks requires vast amounts of data and computational resources, and there are still edge cases that are not properly handled. A common feature in these edge cases is that machine learning models do not generalize well to unseen or confusing situations, and due to the black-box nature of deep neural networks, it is difficult to analyze incorrect behavior. It is difficult to do so.

現在の道路対応の自動運転は、ACC、AEB、及びLCAなどの別個のADAS機能の形態で実施される。完全な自動運転に達するには、既存のADAS機能をともにシームレスに結合するとともに、より多くのそのような機能(例えば、車線変更、交差点処理など)を追加することによって現在自動化されていないいかなるギャップもカバーすることを必要とする。要するに、現在の自動運転は、完全な自動運転をもたらすために容易に拡張することができる全体論的アプローチに基づいてない。 Current road-enabled autonomous driving is implemented in the form of separate ADAS functions such as ACC, AEB, and LCA. To reach full autonomy, we need to seamlessly combine existing ADAS functions together and bridge any gaps that are not currently automated by adding more such functions (e.g. lane changes, intersection handling, etc.). also needs to be covered. In short, current autonomous driving is not based on a holistic approach that can be easily expanded to bring about full autonomy.

本開示の実施例は、図面と併せて、以下の詳細な説明から、より完全に理解及び認識されるであろう。 Embodiments of the present disclosure will be more fully understood and appreciated from the following detailed description, taken in conjunction with the drawings.

方法の一実例を示す図である。FIG. 2 is a diagram illustrating an example of the method. 方法の一実例を示す図である。FIG. 2 is a diagram illustrating an example of the method. 方法の一実例を示す図である。FIG. 2 is a diagram illustrating an example of the method. 方法の一実例を示す図である。FIG. 2 is a diagram illustrating an example of the method. 車両の一実例である図である。It is a figure which is an example of a vehicle. 状況及び知覚フィールドの実例を示す図である。FIG. 3 is a diagram showing an example of a situation and a perceptual field. 状況及び知覚フィールドの実例を示す図である。FIG. 3 is a diagram showing an example of a situation and a perceptual field. 状況及び知覚フィールドの実例を示す図である。FIG. 3 is a diagram showing an example of a situation and a perceptual field. 状況及び知覚フィールドの実例を示す図である。FIG. 3 is a diagram showing an example of a situation and a perceptual field. 方法の一実例を示す図である。FIG. 2 is a diagram illustrating an example of the method. シーンの一実例を示す図である。FIG. 3 is a diagram showing an example of a scene.

以下の詳細な説明において、本発明の完全な理解を提供するために多くの特定の詳細が記載される。しかしながら、本発明はこれらの特定の詳細なしに実施され得ることが当業者によって理解されるであろう。他の場合では、周知の方法、手順、及び構成要素は、本発明を不明瞭にしないように詳細には説明されていない。 In the detailed description that follows, numerous specific details are set forth in order to provide a thorough understanding of the invention. However, it will be understood by those skilled in the art that the present invention may be practiced without these specific details. In other instances, well-known methods, procedures, and components have not been described in detail so as not to obscure the present invention.

本発明とみなされる主題は特に、本明細書の結論部分において特に指摘され、明確に特許請求される。しかしながら、本発明は、その目的、特徴、及び利点とともに、動作構成及び方法の両方に関して、添付の図面とともに読まれると、以下の詳細な説明を参照することによって最良に理解され得る。 The subject matter regarded as the invention is particularly pointed out and distinctly claimed in the concluding portion of the specification. The invention, however, both as to objects, features, and advantages, as well as arrangements and methods of operation, may best be understood by reference to the following detailed description when read in conjunction with the accompanying drawings.

例示を簡単及び明確にするため、図に示される要素は必ずしも縮尺通りに描かれていないことが理解されるであろう。例えば、要素のいくつかの寸法は、明確にするため、他の要素に対して誇張されていることがある。さらに、適切と考えられる場合、参照符号は、対応する又は類似の要素を示すために図間で繰り返され得る。 It will be appreciated that for simplicity and clarity of illustration, the elements shown in the figures are not necessarily drawn to scale. For example, the dimensions of some of the elements may be exaggerated relative to other elements for clarity. Furthermore, where considered appropriate, reference signs may be repeated between the figures to indicate corresponding or similar elements.

本発明の例示の実施例は大部分、当業者に知られた電子構成要素及び回路を用いて実施され得るので、詳細は、本発明の基本的概念の理解及び認識のため、また、本発明の教示を分かりにくくしない又は本発明の教示から逸脱しないようにするために、上記で示されたような必要とみなされる範囲よりも多くの範囲で説明されない。 Since the illustrative embodiments of the invention may be implemented to a large extent using electronic components and circuits known to those skilled in the art, the details are provided for the purpose of understanding and appreciating the basic concepts of the invention and In order not to obscure or depart from the teachings of the present invention, they have not been described to more extent than is deemed necessary as set forth above.

本明細書における、方法へのいかなる言及も、方法を実行することが可能なデバイス若しくはシステム、及び/又は方法を実行する命令を記憶する非一時的コンピュータ可読媒体に、必要な変更を加えて適用されるものとする。 Any reference herein to a method applies mutatis mutandis to a device or system capable of performing the method and/or a non-transitory computer-readable medium storing instructions for performing the method. shall be carried out.

本明細書における、システム又はデバイスへのいかなる言及も、システムによって実行され得る方法に、必要な変更を加えて適用されるものとし、及び/又は、システムによって実行可能な命令を記憶する非一時的コンピュータ可読媒体に、必要な変更を加えて適用され得る。 Any reference herein to a system or device shall apply mutatis mutandis to the manner in which it may be performed by the system and/or to a non-transitory device storing instructions executable by the system. It may be applied mutatis mutandis to any computer-readable medium.

本明細書における、非一時的コンピュータ可読媒体へのいかなる言及も、非一時的コンピュータ可読媒体に記憶される命令を実行することが可能なデバイス又はシステムに、必要な変更を加えて適用されるものとし、及び/又は、命令を実行する方法に、必要な変更を加えて適用され得る。 Any reference herein to a non-transitory computer-readable medium applies mutatis mutandis to a device or system capable of executing instructions stored on the non-transitory computer-readable medium. and/or the method of executing the instructions may be applied mutatis mutandis.

図のいずれか、明細書の任意の部分及び/又はいずれもの特許請求の範囲において列挙される任意のモジュール又はユニットの任意の組み合わせが提供され得る。 Any combination of any modules or units recited in any of the figures, any part of the specification, and/or any claims may be provided.

本出願において示されるユニット及び/又はモジュールのうちの任意の1つが、非一時的コンピュータ可読媒体に記憶された、ハードウェア及び/又はコード、命令及び/又はコマンドで実装され得、車両内、車両外、モバイル機器内、サーバ内などに含まれ得る。 Any one of the units and/or modules illustrated in this application may be implemented in hardware and/or code, instructions and/or commands stored on a non-transitory computer-readable medium, in a vehicle, in a vehicle, etc. It may be included externally, within a mobile device, within a server, etc.

車両は、陸上輸送車両、空輸車両、及び水上船といった、任意の種類の車両であってもよい。 The vehicle may be any type of vehicle, such as land transport vehicles, air transport vehicles, and water vessels.

本明細書及び/又は図面は、画像に言及することがある。画像はメディア・ユニットの一実例である。画像へのいかなる言及も、メディア・ユニットに、必要な変更を加えて適用され得る。メディア・ユニットは、感知される情報ユニット(SIU:sensed information unit)の一実例であり得る。メディア・ユニットへのいかなる言及も、自然が発生させる信号、人間の行動を表す信号、株式市場に関連する操作を表す信号、医療信号、金融系列、測地信号、地球物理学的、化学的、分子的、テキスト及び数値信号、時系列などに限定されないが、そのような任意の種類の自然信号に、必要な変更を加えて適用され得る。メディア・ユニットへのいかなる言及も、感知される情報ユニット(SIU)に、必要な変更を加えて適用され得る。SIUは、いかなる種類のものであってもよく、可視光カメラ、音声センサ、赤外線、レーダ画像、超音波、電気光学、放射線写真、LIDAR(light detection and ranging:光検出及び測距)を感知し得るセンサ、熱センサ、パッシブ・センサ、及びアクティブ・センサなどのような、任意の種類のセンサによって感知され得る。感知は、送信された信号を表すサンプル(例えば、ピクセル、音声信号)を生成することを含み得るか、又は他の場合ではセンサに到達し得る。SIUは、1つ又は複数の画像、1つ又は複数のビデオ・クリップ、1つ又は複数の画像に関するテキスト情報、オブジェクトに関する運動学的情報を記述するテキストなどであり得る。 The specification and/or drawings may refer to images. An image is an example of a media unit. Any reference to an image may apply mutatis mutandis to the media unit. A media unit may be an example of a sensed information unit (SIU). Any reference to the media unit shall not include signals generated by nature, signals representing human behavior, signals representing operations related to the stock market, medical signals, financial series, geodetic signals, geophysical, chemical, molecular It may be applied mutatis mutandis to any kind of natural signals such as, but not limited to, targets, text and numerical signals, time series, etc. Any reference to a media unit may apply mutatis mutandis to a sensed information unit (SIU). The SIU can be of any type, including visible light cameras, audio sensors, infrared, radar imaging, ultrasound, electro-optical, radiographic, and LIDAR (light detection and ranging) sensing. The sensor may be sensed by any type of sensor, such as a magnetic sensor, a thermal sensor, a passive sensor, an active sensor, and the like. Sensing may include generating samples (eg, pixels, audio signals) representative of the transmitted signal or may otherwise reach the sensor. The SIU can be one or more images, one or more video clips, textual information about one or more images, text describing kinematic information about an object, etc.

オブジェクト情報は、オブジェクトの位置、オブジェクトの挙動、オブジェクトの速度、オブジェクトの加速度、オブジェクトの伝播方向、オブジェクトの種類、オブジェクトの1つ又は複数の寸法などに限定されないが、そのような、任意の種類のオブジェクトに関連する情報を含み得る。オブジェクト情報は、生のSIU、処理されたSIU、テキスト情報、SIUから得られた情報などであり得る。 Object information may include, but is not limited to, object position, object behavior, object velocity, object acceleration, object propagation direction, object type, object dimension or dimensions, etc. may contain information related to the object. Object information can be raw SIU, processed SIU, textual information, information obtained from SIU, etc.

オブジェクト情報の取得は、オブジェクト情報を受信すること、オブジェクト情報を生成すること、オブジェクト情報の処理に関与すること、オブジェクト情報の一部分のみを処理すること、及び/又はオブジェクト情報の別の部分のみを受信することを含み得る。 Obtaining object information may include receiving object information, generating object information, participating in processing object information, processing only a portion of object information, and/or processing only another portion of object information. may include receiving.

オブジェクト情報の取得は、オブジェクト検出を含んでもよく、又はオブジェクト検出を行わずに実行されてもよい。 Obtaining object information may include object detection or may be performed without object detection.

オブジェクト情報の処理は、オブジェクト検出、ノイズ低減、信号対ノイズ比の改善、バウンディング・ボックスの画定などのうちから少なくとも1つを含み得る。 Processing the object information may include at least one of object detection, noise reduction, signal-to-noise ratio improvement, bounding box definition, and the like.

オブジェクト情報は、1つ又は複数のセンサ、1つ又は複数の通信ユニット、1つ又は複数のメモリ・ユニット、1つ又は複数の画像プロセッサなどの、1つ又は複数のソースから受信され得る。 Object information may be received from one or more sources, such as one or more sensors, one or more communication units, one or more memory units, one or more image processors.

オブジェクト情報は、1つ又は複数のやり方、例えば、絶対的なやり方(例えば、オブジェクトの位置の座標を提供すること)、或いは、例えば車両に対する、相対的なやり方(例えば、オブジェクトが車両に対して或る特定の距離及び或る特定の角度に位置する)で提供され得る。 Object information may be provided in one or more ways, e.g., in an absolute manner (e.g., providing the coordinates of the object's location) or in a relative manner, e.g., with respect to the vehicle (e.g., if the object is relative to the vehicle). located at a certain distance and at a certain angle).

車両は、自車両とも呼ばれる。 The vehicle is also called the own vehicle.

本明細書及び/又は図面は、プロセッサ又は処理回路に言及することがある。プロセッサは、処理回路であってもよい。処理回路は、中央処理装置(CPU:central processing unit)として、及び/又は、特定用途向け集積回路(ASIC:application-specific integrated circuits)、フィールド・プログラマブル・ゲート・アレイ(FPGA:field programmable gate arrays)、フルカスタム集積回路など、若しくはそのような集積回路の組み合わせのような、1つ又は複数の他の集積回路として実装され得る。 The specification and/or drawings may refer to processors or processing circuits. A processor may be a processing circuit. The processing circuit may be used as a central processing unit (CPU) and/or as an application-specific integrated circuit (ASIC) or a field programmable gate array (FPGA). (mable gate arrays) , a full custom integrated circuit, or a combination of such integrated circuits.

本明細書及び/又は図面において示される方法の任意のステップの任意の組み合わせが提供され得る。 Any combination of any of the method steps shown herein and/or in the drawings may be provided.

請求項のいずれかの主題の任意の組み合わせが提供され得る。 Any combination of the subject matter of any of the claims may be provided.

本明細書及び/又は図面において示される、システム、ユニット、構成要素、プロセッサ、センサの任意の組み合わせが提供され得る。 Any combination of systems, units, components, processors, sensors shown herein and/or in the figures may be provided.

オブジェクトへのいかなる言及も、パターンに適用可能であり得る。したがって、オブジェクト検出へのいかなる言及も、パターン検出に、必要な変更を加えて適用可能である。 Any reference to an object may be applicable to a pattern. Therefore, any reference to object detection is applicable mutatis mutandis to pattern detection.

支障のない運転は、周囲の道路オブジェクトの位置及び動きに基づいてそれら道路オブジェクトを迂回することに依存するが、人間は周知のように、運動学を評価することが不得手である。人間は、周囲のオブジェクトの内部表現を、アクションをすぐに示唆する仮想力場の形態で用い、したがって、運動学的評価の必要性を妨げていると思われる。自車両が一方の車線を走行し、隣の車線の斜め前方の車両が逸れて自車線に入り始めるシナリオを考えられたい。ブレーキ又は脱線に対する人間の反応は、即時的及び本能的であり、逸れる車両から自車を退ける仮想力として経験することができる。この仮想力表現は学習され、特定の道路オブジェクトに関連付けられる。 Unimpeded driving relies on circumventing surrounding road objects based on their position and movement, but humans are well known to be poor at evaluating kinematics. Humans appear to use internal representations of surrounding objects in the form of virtual force fields that immediately suggest actions, thus precluding the need for kinematic evaluation. Consider a scenario in which your vehicle is driving in one lane, and a vehicle diagonally ahead of you in the next lane begins to swerve into your lane. The human reaction to braking or derailing is immediate and instinctive, and can be experienced as a virtual force pushing the vehicle away from the veering vehicle. This virtual force representation is learned and associated with specific road objects.

上記の考慮事項により触発され、知覚フィールドの新しい概念を提案する。知覚フィールドは、ADAS及び/又はAVソフトウェアの形態で自車両の制御システムを通じて「感知される」仮想力場の形態の学習された道路オブジェクト表現である。フィールドはここでは、空間位置(又は類似の量)に依存する数学関数として定義される。 Inspired by the above considerations, we propose a new concept of perceptual fields. The perceptual field is a learned road object representation in the form of a virtual force field that is "sensed" through the own vehicle's control system in the form of ADAS and/or AV software. A field is defined here as a mathematical function that depends on spatial location (or similar quantity).

推論方法100の一実例が図1に示されており、以下を含む。 An example of an inference method 100 is shown in FIG. 1 and includes the following.

方法100は、車両の環境の1つ又は複数のフレームごとに実行され得る。 Method 100 may be performed for each frame or frames of the vehicle's environment.

方法100のステップ110は、1つ又は複数のオブジェクト(例えば、1つ又は複数の道路ユーザを含む)を検出及び/又は追跡することを含み得る。検出及び/又は追跡は、任意のやり方で行われ得る。1つ又は複数のオブジェクトは、車両の挙動に影響を及ぼしかねない任意のオブジェクトであり得る。例えば、道路ユーザ(歩行者、別の車両)、車両が進行中の道路及び/又は経路(例えば、道路又は経路の状態、道路の形状、例えば、カーブ、直線道路セグメント)、交通標識、交通信号、道路交差点、学校、幼稚園などである。ステップ110は、1つ又は複数のオブジェクトに関連する運動学的変数及びコンテキスト変数などのさらなる情報を取得することを含み得る。取得することは、受信又は生成することを含み得る。取得することは、1つ又は複数のフレームを処理して運動学的変数及びコンテキスト変数を生成することを含み得る。 Step 110 of method 100 may include detecting and/or tracking one or more objects (eg, including one or more road users). Detection and/or tracking may be performed in any manner. The object or objects may be any object that can affect the behavior of the vehicle. For example, road users (pedestrians, other vehicles), the road and/or route the vehicle is traveling on (e.g. road or route conditions, road geometry, e.g. curves, straight road segments), traffic signs, traffic signals. , road intersections, schools, kindergartens, etc. Step 110 may include obtaining additional information such as kinematic and contextual variables associated with the one or more objects. Obtaining may include receiving or generating. Obtaining may include processing one or more frames to generate kinematic variables and contextual variables.

ステップ110は(1つ又は複数のフレームを取得せずとも)運動学的変数を取得することを含み得ることに留意されたい。 Note that step 110 may include acquiring kinematic variables (without acquiring one or more frames).

方法100はまた、1つ又は複数のオブジェクトに関連するそれぞれの知覚フィールドを取得するステップ120を含み得る。ステップ120は、オブジェクト間のどのマッピングを検索する及び/又は求めるべきかを決定することなどを含み得る。 Method 100 may also include obtaining 120 respective perceptual fields associated with one or more objects. Step 120 may include determining which mappings between objects to search and/or seek, and the like.

ステップ110(及びステップ120さえも)の後に、知覚フィールド(及び1つ又は複数の仮想物理モデル関数)に運動学的変数及びコンテキスト変数などの関連する入力変数を渡すことによって1つ又は複数のオブジェクトに関連付けられた1つ又は複数の仮想力を決定するステップ130が続き得る。 After step 110 (and even step 120), one or more objects can be modified by passing relevant input variables, such as kinematic and context variables, to the perceptual field (and one or more virtual physics model functions). A step 130 may follow of determining one or more virtual forces associated with the .

ステップ130の後に、1つ又は複数のオブジェクトに関連付けられた1つ又は複数の仮想力に基づいて、車両に加えられる総仮想力を決定するステップ140が続き得る。例えば、ステップ140は、1つ又は複数のオブジェクトに関連付けられた1つ又は複数の仮想力にベクトル加重和(又は他の関数)を行うことを含み得る。 Step 130 may be followed by step 140 of determining a total virtual force applied to the vehicle based on one or more virtual forces associated with the one or more objects. For example, step 140 may include performing a vector weighted sum (or other function) on one or more virtual forces associated with one or more objects.

ステップ140の後に、総仮想力に基づいて、例えば、ニュートンの第2法則に相当するものに基づいて、所望の(又は目標の)仮想加速度を決定するステップ150が続き得る。所望の加速度は、ベクトルであってもよく、又は他の場合では方向を有してもよい。 Step 140 may be followed by step 150 of determining a desired (or target) virtual acceleration based on the total virtual force, eg, based on the equivalent of Newton's second law. The desired acceleration may be vector, or in other cases may have a direction.

ステップ150の後に、所望の仮想加速度を、所望の仮想加速度に応じて車両を伝播させる1つ又は複数の車両運転操作に変換するステップ160が続き得る。 Step 150 may be followed by step 160 of converting the desired virtual acceleration into one or more vehicle maneuvers that propagate the vehicle in response to the desired virtual acceleration.

例えば、ステップ160は、ガス・ペダルの動き、ブレーキ・ペダルの動き及び/又はハンドル角度を用いて、所望の加速を加速若しくは減速に変換すること又は車両の進行方向を変更することを含み得る。変換は、特定の制御スキームを有する車両の動力学モデルに基づき得る。 For example, step 160 may include converting the desired acceleration into acceleration or deceleration or changing the direction of travel of the vehicle using gas pedal movement, brake pedal movement, and/or steering wheel angle. The transformation may be based on a dynamic model of the vehicle with a particular control scheme.

知覚フィールドの利点として例えば、説明可能性、一般化可能性、及びノイズを伴う入力に対するロバスト性が挙げられる。 Advantages of perceptual fields include, for example, explainability, generalizability, and robustness to noisy inputs.

説明可能性。自車の動きを個々の知覚フィールドの構成として表現することは、アクションをより基本的な構成要素に分解することを示唆し、それ自体、説明可能性へ向けた重要なステップである。これらのフィールドを視覚化し、自車の動きを予測するために物理学からの直観を適用する可能性は、一般的なエンド・ツー・エンドのブラックボックス深層学習アプローチに比してさらなる説明可能性を表す。この透明性向上により、乗客及び運転者がAV又はADAS技術をより信頼することができることにもなる。 Explainability. Representing the vehicle's movements as a configuration of individual perceptual fields suggests a decomposition of actions into more fundamental components, and as such is an important step toward explainability. The possibility of visualizing these fields and applying intuition from physics to predict the movement of your vehicle offers additional explainability compared to typical end-to-end black-box deep learning approaches. represents. This increased transparency also allows passengers and drivers to have more trust in the AV or ADAS technology.

一般化可能性。未知の道路オブジェクトに対する自車の反応を、退ける仮想力場として表すことは、目に見えない状況において誘導バイアスを構成する。この表現には、表現が訓練の少ない安全なやり方でエッジ・ケースを処理することができるという点で潜在的な利点がある。さらに、知覚フィールド・モデルは、同じアプローチを運転ポリシーのすべての側面について使用することができるという意味で全体論的である。知覚フィールド・モデルはまた、ACC、AEB、LCAなどのようなADASで使用される狭い運転機能に分けることができる。最後に、知覚フィールドの複合性により、モデルが原子的なシナリオで訓練されるとともに依然としてより複雑なシナリオを適切に処理することができることが可能となる。 Generalizability. Representing the vehicle's reaction to unknown road objects as a repelling virtual force field constitutes a guided bias in invisible situations. This representation has a potential advantage in that the representation can handle edge cases in a safe manner with less training. Furthermore, the perceptual field model is holistic in the sense that the same approach can be used for all aspects of driving policy. Perceptual field models can also be divided into narrow driving functions used in ADAS such as ACC, AEB, LCA, etc. Finally, the complexity of the perceptual field allows the model to be trained on atomic scenarios and still be able to adequately handle more complex scenarios.

ノイズを伴う入力に対するロバスト性。入力の潜在的なフィルタリングと組み合わせた知覚フィールドの時間発展に対する物理的制約は、ローカライゼーション及び運動学的データの純粋なフィルタリングに比して入力データにおけるノイズのより良い処理に至り得る。 Robustness to noisy inputs. Physical constraints on the temporal evolution of the perceptual field combined with potential filtering of the input may lead to better treatment of noise in the input data compared to pure filtering of localization and kinematic data.

物理的な力又は仮想力は、例えば、いわゆる動的システムを含む二次常微分方程式での、数学的定式化を可能にする。制御ポリシーをそのものとして表すことの利点は、動的システムの理論からの直観の影響を受けやすく、入力/出力の予測、ナビゲーション、及びフィルタリングなどの外部モジュールを組み込むことが簡単であることである。 Physical or virtual forces allow a mathematical formulation, for example in second-order ordinary differential equations involving so-called dynamical systems. The advantage of representing the control policy as such is that it is amenable to intuition from dynamic systems theory and easy to incorporate external modules such as input/output prediction, navigation, and filtering.

知覚フィールド・アプローチのさらなる利点は、いかなる特定のハードウェアにも依存せず、計算コストが既存の方法よりも高くないことである。 A further advantage of the perceptual field approach is that it does not depend on any specific hardware and the computational cost is no higher than existing methods.

訓練プロセス training process

知覚フィールドを学習するプロセスは、2つのタイプ、すなわち、行動クローニング(BC:behavioral cloning)及び強化学習(RL:reinforcement learning)のうちの一方、又はそれらの組み合わせとすることができる。BCは、観察された人間の状態-アクションのペアにニューラル・ネットワークを適合させることによって制御ポリシーを近似するのに対し、RLは、専門家によるデモンストレーションを参照することなくシミュレーション環境における試行錯誤による学習を課す。 The process of learning perceptual fields can be one of two types, behavioral cloning (BC) and reinforcement learning (RL), or a combination thereof. BC approximates a control policy by adapting a neural network to observed human state-action pairs, whereas RL learns by trial and error in a simulated environment without reference to expert demonstrations. impose.

これらの2つのクラスの学習アルゴリズムを、先にBCによりポリシーを学習してそれを初期ポリシーとして用いてRLを使用して微調整されることによって組み合わせることができる。2つのアプローチを組み合わせる別のやり方は、先に行動クローニングによりいわゆる報酬関数(RLで使用される)を学習して、人間にとって望ましい行動を構成するものを推論し、その後、通常のRLを使用して試行錯誤により訓練することである。この後者のアプローチは、逆RL(IRL:inverse RL)の名である。 These two classes of learning algorithms can be combined by first learning a policy with BC and using it as an initial policy that is fine-tuned using RL. Another way to combine the two approaches is to first learn the so-called reward function (used in RL) by behavioral cloning to infer what constitutes desirable behavior for humans, and then use regular RL. training through trial and error. This latter approach is known as inverse RL (IRL).

図2は、BCによる学習のために用いられる訓練方法200の一実例である。 FIG. 2 is an illustration of a training method 200 used for learning with BC.

方法200は、どのようにシナリオを処理するかについて専門家によるデモンストレーションであると考えられる人間データを収集するステップ210によって開始し得る。 Method 200 may begin by collecting 210 human data that is considered a demonstration by an expert on how to process a scenario.

ステップ210の後に、知覚フィールド・モデルから生じる運動学的変数と人間によるデモンストレーションの対応する運動学的変数との差を処する損失関数を構築するステップ220が続き得る。 Step 210 may be followed by step 220 of constructing a loss function that accounts for the difference between the kinematic variables resulting from the perceptual field model and the corresponding kinematic variables of the human demonstration.

ステップ220の後に、勾配降下などの何らかの最適化アルゴリズムによって損失関数を最小化するために知覚フィールド及び補助関数(知覚フィールドとは異なる仮想物理モデル関数であり得る)のパラメータを更新するステップ230が続き得る。 Step 220 is followed by step 230 of updating the parameters of the perceptual field and the auxiliary function (which may be a virtual physical model function different from the perceptual field) to minimize the loss function by some optimization algorithm such as gradient descent. obtain.

図3は、強化学習に用いられる訓練方法250の一実例である。 FIG. 3 is an example of a training method 250 used for reinforcement learning.

方法250は、現実的なシミュレーション環境を構築するステップ260によって開始し得る。 Method 250 may begin by building 260 a realistic simulation environment.

ステップ260の後に、専門家によるデモンストレーションから報酬関数を学習すること又は手動による設計のどちらかによって、報酬関数を構築するステップ270が続き得る。 Step 260 may be followed by step 270 of constructing a reward function, either by learning the reward function from expert demonstration or by manual design.

ステップ270の後に、シミュレーション環境においてエピソードを実行するとともに近位ポリシー最適化などの何らかのアルゴリズムによって知覚フィールド及び補助関数のパラメータを連続的に更新して予期される累積報酬を最大化するステップ280が続き得る。 Step 270 is followed by step 280 of running the episode in the simulation environment and continuously updating the parameters of the perceptual field and auxiliary function by some algorithm, such as proximal policy optimization, to maximize the expected cumulative reward. obtain.

図4は、方法400の一実例を示す。 FIG. 4 shows an example of a method 400.

方法400は、知覚フィールド運転関連操作のためのものであり得る。 Method 400 may be for sensory field driving related operations.

方法400は、初期化ステップ410によって開始し得る。 Method 400 may begin with an initialization step 410.

初期化ステップ410は、方法400のステップ440を実行するように訓練されるNN群を受信することを含み得る。 Initialization step 410 may include receiving a group of NNs that are trained to perform step 440 of method 400.

代替的に、ステップ410は、方法400のステップ440を実行するNN群を訓練することを含み得る。 Alternatively, step 410 may include training a group of NNs to perform step 440 of method 400.

NN群を訓練する様々な実例を以下に提示する。
・NN群は、行動クローニングを使用してオブジェクト情報を1つ又は複数の仮想力にマッピングするように訓練され得る。
・NN群は、強化学習を使用してオブジェクト情報を1つ又は複数の仮想力にマッピングするように訓練され得る。
・NN群は、強化学習と行動クローニングとの組み合わせを使用してオブジェクト情報を1つ又は複数の仮想力にマッピングするように訓練され得る。
・NN群は、行動クローニングを使用して定義される報酬関数を有する強化学習を使用してオブジェクト情報を1つ又は複数の仮想力にマッピングするように訓練され得る。
・NN群は、行動クローニングを使用して定義される初期ポリシーを有する強化学習を使用してオブジェクト情報を1つ又は複数の仮想力にマッピングするように訓練され得る。
・NN群は、オブジェクト情報を1つ又は複数の仮想力及び知覚フィールドとは異なる1つ又は複数の仮想物理モデル関数にマッピングするように訓練され得る。
・NN群は、第1のNN及び第2のNNを含み得、第1のNNは、オブジェクト情報を1つ又は複数の知覚フィールドにマッピングするように訓練され、第2のNNは、オブジェクト情報を1つ又は複数の仮想物理モデル関数にマッピングするように訓練された。
Various examples of training NN groups are presented below.
- A group of NNs can be trained to map object information to one or more virtual forces using behavioral cloning.
- A group of NNs can be trained to map object information to one or more virtual forces using reinforcement learning.
- A group of NNs can be trained to map object information to one or more virtual forces using a combination of reinforcement learning and behavioral cloning.
- A group of NNs can be trained to map object information to one or more virtual forces using reinforcement learning with a reward function defined using behavioral cloning.
- A group of NNs can be trained to map object information to one or more virtual forces using reinforcement learning with an initial policy defined using behavioral cloning.
- The NNs may be trained to map object information to one or more virtual physical model functions that are different from one or more virtual forces and perceptual fields.
- The group of NNs may include a first NN and a second NN, where the first NN is trained to map object information to one or more perceptual fields, and the second NN is trained to map object information to one or more perceptual fields. to one or more virtual physical model functions.

初期化ステップ410の後に、車両の環境内に位置する1つ又は複数のオブジェクトに関するオブジェクト情報を取得するステップ420が続き得る。ステップ410は、複数回繰り返され得、以下のステップも複数回繰り返され得る。オブジェクト情報は、ビデオ、画像、音声、又は任意の他の感知される情報を含み得る。 The initialization step 410 may be followed by a step 420 of obtaining object information regarding one or more objects located within the environment of the vehicle. Step 410 may be repeated multiple times, and the following steps may also be repeated multiple times. Object information may include video, images, audio, or any other sensed information.

ステップ420の後に、1つ又は複数のニューラル・ネットワーク(NN)を使用して、車両に加えられる1つ又は複数の仮想力を決定するステップ440が続き得る。 Step 420 may be followed by step 440 of determining one or more virtual forces applied to the vehicle using one or more neural networks (NN).

1つ又は複数のNNは、(初期化ステップ410からの)NN群全体であってもよく、又は、群の1つ又は複数の選択されていないNNを残した、NN群の一部のみであってもよい。 The one or more NNs may be the entire group of NNs (from initialization step 410), or only a portion of the group of NNs, leaving one or more unselected NNs of the group. There may be.

1つ又は複数の仮想力は、車両の挙動に対する1つ又は複数のオブジェクトの1つ又は複数の影響を表す。影響は、今後の影響又は現在の影響であり得る。影響により、車両はその進行が変わることがある。 The one or more virtual forces represent one or more influences of one or more objects on the behavior of the vehicle. An impact can be a future impact or a current impact. The impact may cause the vehicle to change its course.

1つ又は複数の仮想力は、仮想物理モデルに属する。仮想物理モデルは、車両及び/又はオブジェクトに物理法則(例えば、機械法則、電磁法則、光学法則)を実質的に適用し得る仮想モデルである。 One or more virtual forces belong to a virtual physical model. A virtual physical model is a virtual model that can substantially apply physical laws (eg, mechanical, electromagnetic, optical) to vehicles and/or objects.

ステップ440は、以下のステップ、すなわち、
・車両に加えられる1つ又は複数の仮想力に基づいて、車両に加えられる総仮想力を算出するステップと、
・総仮想力によって車両に加えられる総仮想加速度に基づいて、車両の所望の仮想加速度を決定するステップと、のうちのうちの少なくとも一方を含み得る。所望の仮想加速度は、総仮想加速度と等しくてもよく、又は総仮想加速度と異なっていてもよい。
Step 440 includes the following steps:
- calculating a total virtual force applied to the vehicle based on the one or more virtual forces applied to the vehicle;
- determining a desired virtual acceleration of the vehicle based on the total virtual acceleration applied to the vehicle by the total virtual force. The desired virtual acceleration may be equal to the total virtual acceleration or may be different from the total virtual acceleration.

方法400はまた、ステップ431、432、433、434、435及び436のうちの少なくとも1つを含み得る。 Method 400 may also include at least one of steps 431, 432, 433, 434, 435, and 436.

ステップ431は、オブジェクト情報に基づいて、車両の状況を判定することを含み得る。 Step 431 may include determining the condition of the vehicle based on the object information.

ステップ431の後に、状況に基づいて1つ又は複数のNNを選択するステップ432が続き得る。 Step 431 may be followed by step 432 of selecting one or more NNs based on the situation.

付加的に又は代替的に、ステップ431の後に、状況メタデータを1つ又は複数のNNに供給するステップ433が続き得る。 Additionally or alternatively, step 431 may be followed by step 433 of providing context metadata to one or more NNs.

ステップ434は、オブジェクト情報に基づいて、1つ又は複数のオブジェクトのうちのそれぞれのオブジェクトのクラスを検出することを含み得る。 Step 434 may include detecting a class of each of the one or more objects based on the object information.

ステップ434の後に、1つ又は複数のオブジェクトのうちの少なくとも1つのオブジェクトのクラスに基づいて、1つ又は複数のNNを選択するステップ435が続き得る。 Step 434 may be followed by step 435 of selecting one or more NNs based on the class of at least one of the one or more objects.

付加的に又は代替的に、ステップ434の後に、1つ又は複数のオブジェクトのうちの少なくとも1つのオブジェクトのクラスを示すクラス・メタデータを1つ又は複数のNNに供給するステップ436が続き得る。 Additionally or alternatively, step 434 may be followed by step 436 of providing class metadata to one or more NNs indicating the class of at least one of the one or more objects.

ステップ440の後に、1つ又は複数の仮想力に基づいて車両の1つ又は複数の運転関連操作を行うステップ450が続き得る。 Step 440 may be followed by step 450 of performing one or more driving-related maneuvers of the vehicle based on the one or more virtual forces.

ステップ450は、人間の運転者の介入なく実行され得、車両の速度及び/又は加速度及び/又は進行方向を変えることを含み得る。これは、自動運転を行うこと、或いは、車両及び/又は車両の1つ又は複数の運転関連ユニットの制御を一時的に行うことを含み得る先進運転支援システム(ADAS)運転操作を行うことを含み得る。これは、人間の運転者の関与の有無を問わず、車両の加速度を所望の仮想加速度に設定することを含み得る。 Step 450 may be performed without human driver intervention and may include changing the speed and/or acceleration and/or heading of the vehicle. This includes performing autonomous driving or performing advanced driver assistance system (ADAS) driving maneuvers, which may include temporarily taking control of the vehicle and/or one or more driving-related units of the vehicle. obtain. This may include setting the vehicle acceleration to a desired virtual acceleration with or without human driver involvement.

ステップ440は、運転者に車両の加速度を所望の仮想加速度に設定するように提案することを含み得る。 Step 440 may include suggesting to the driver to set the vehicle's acceleration to the desired virtual acceleration.

図5は、車両の一実例である。車両は、1つ又は複数の感知ユニット501と、(自動運転ユニット、ADASユニットなどのような)1つ又は複数の運転関連ユニット510と、方法のいずれかを実行するように構成されたプロセッサ506と、命令及び/又は方法の結果、関数など記憶するメモリ・ユニット508と、通信ユニット504とを含み得る。 FIG. 5 is an example of a vehicle. The vehicle includes one or more sensing units 501, one or more driving-related units 510 (such as an autonomous driving unit, an ADAS unit, etc.), and a processor 506 configured to perform any of the methods. a memory unit 508 for storing instructions and/or method results, functions, etc., and a communication unit 504.

図6は、入力として車線サンプル点(lane sample points)を用いた車線センタリングRLのための方法600の実例を示す。車線サンプル点は、車両の環境内に位置する。 FIG. 6 shows an example of a method 600 for lane centering RL using lane sample points as input. Lane sample points are located within the vehicle's environment.

RLは、エージェント(自車両)がその学習したポリシー(知覚フィールド)を実施することができる入力データを生成したシミュレーション環境を想定している。 RL assumes a simulation environment in which an agent (self-vehicle) has generated input data that allows it to implement its learned policies (perceptual fields).

方法600は、Lが左、Rが右、且つインデックスiがサンプル点を指す道路サンプル点(XL,i,YL,i)及び(XR,i,YR,i)の最も近い車線又はサイドを検出するステップ610によって開始し得る。(これまで車両と称された)自車両の速度は、Vegoで示される。 The method 600 uses the nearest lane of road sample points (X L,i , Y L,i ) and (X R,i , Y R, i ) where L is left, R is right, and index i points to the sample point. Alternatively, it may begin with step 610 of detecting the side. The speed of the own vehicle (heretofore referred to as vehicle) is indicated by Vego .

ステップ610の後に、左車線入力ベクトル(XL,i,YL,i)及びVegoをXに連結するとともに右車線入力ベクトル(XR,i,YR,i)及びVegoをXに連結するステップ620が続き得る。 After step 610, the left lane input vector (X L,i , Y L,i ) and Vego are concatenated to X L and the right lane input vector (X R,i , Y R,i ) and Vego are connected to X A step 620 of connecting to R may follow.

ステップ620の後に、車線知覚フィールドfθ(X)及びfθ(X)を算出するステップ630が続き得る。これは1つ又は複数のNNによって行われる。 Step 620 may be followed by step 630 of calculating lane perception fields f θ (X L ) and f θ (X R ). This is done by one or more NNs.

ステップ630の後に、自車両に加えられる自車加速度を記述する微分方程式、すなわちa=fθ(X)+fθ(X)を構築するステップ640が続き得る。 Step 630 may be followed by step 640 of constructing a differential equation describing the own vehicle acceleration applied to the own vehicle, ie, a=f θ (X L )+f θ (X R ).

これは推論プロセスの出力であり得る。ステップ640の後に、ステップ450(図示せず)が続き得る。 This can be the output of an inference process. Step 640 may be followed by step 450 (not shown).

方法は、1つ又は複数のNNを更新することを含み得る。この場合、RLは、専門家によるデモンストレーションに基づいて学習されるか又はハンドクラフトされるかのどちらかである報酬関数を想定し得、図6の実例では、報酬関数は、自車両がその車線を維持するすべてのタイムスタンプについて増加し得る。 The method may include updating one or more NNs. In this case, the RL may assume a reward function that is either learned based on expert demonstrations or handcrafted, and in the example of FIG. may be incremented for every timestamp that maintains.

更新することは、シミュレーション環境において実施するステップ670を含み得、RL学習アルゴリズムが、報酬を取得することを含む次のステップにおいて起こることを記録する。 Updating may include performing 670 in a simulated environment, where the RL learning algorithm records what happens in the next step, including obtaining a reward.

ステップ670は、平均報酬を最大化するために、ネットワーク・パラメータθを逐次的に更新するように特定のRLアルゴリズム(例えば、PPO、SAC、TTD3)を使用することを含み得る。 Step 670 may include using a particular RL algorithm (eg, PPO, SAC, TTD3) to sequentially update network parameters θ to maximize average reward.

図7は、視覚入力を用いるマルチオブジェクトRLのための方法700を示す。 FIG. 7 shows a method 700 for multi-object RL using visual input.

方法700のステップ710は、自車視点から短い時間窓にわたる一連のパノラマ的にセグメント化された画像(自車両が取得した画像)、個々のオブジェクトまでの相対距離Xrel,iを受信することを含み得る。 Step 710 of the method 700 includes receiving a series of panoramic segmented images (images acquired by the own vehicle) over a short time window from the own vehicle perspective, relative distances to individual objects X rel,i . may be included.

ステップ710の後に、高レベルの時空間特徴Xを捕捉するために時空間CNNを個々のインスタンス(オブジェクト)に適用するステップ720が続き得る。 Step 710 may be followed by step 720 of applying a spatio-temporal CNN to individual instances (objects) to capture high-level spatio-temporal features X i .

ステップ720の後に、個々の知覚フィールドfθ(X,i)及び総和Σfθ(Xrel,I,X,i)を計算するステップ730が続き得る。 Step 720 may be followed by step 730 of calculating the individual perceptual fields f θ (X i ,i) and the sum Σf θ (X rel,I ,X i ,i).

ステップ730の後に、自車両に加えられる自車加速度を記述する微分方程式、すなわちa=Σfθ(Xrel,I,X,i)を構築するステップ740が続き得る。 Step 730 may be followed by step 740 of constructing a differential equation describing the own vehicle acceleration applied to the own vehicle, ie, a=Σf θ (X rel,I , X i ,i).

これは推論プロセスの出力であり得る。ステップ740の後に、ステップ450(図示せず)が続き得る。 This can be the output of an inference process. Step 740 may be followed by step 450 (not shown).

方法は、何らかのRLプロセスを用いて1つ又は複数のネットワーク・パラメータθを更新することを含み得る。 The method may include updating one or more network parameters θ using some RL process.

方法は、シミュレーション環境において実施するステップ760を含み得、RL学習アルゴリズムが、取得された報酬を含む次のステップにおいて起こることを記録する。 The method may include performing 760 in a simulated environment, where the RL learning algorithm records what happens in the next step, including the reward obtained.

RLは、専門家によるデモンストレーションに基づいて学習されるか又はハンドクラフトされるかのどちらかである報酬関数を想定し得る。 The RL may assume a reward function that is either learned or handcrafted based on demonstrations by experts.

ステップ760の後に、平均報酬を最大化するために、ネットワーク・パラメータθを逐次的に更新するようにPPO、SAC、TTD3などの特定のRLアルゴリズムを使用するステップ770が続き得る。 Step 760 may be followed by step 770 of using a particular RL algorithm, such as PPO, SAC, TTD3, to sequentially update network parameters θ to maximize the average reward.

図8は、運動学的入力を用いるマルチオブジェクトBCのための方法800を示す。 FIG. 8 shows a method 800 for multi-object BC using kinematic input.

方法800のステップ810は、検出されたオブジェクト相対運動学(Xrel,i,Vrel,i)のリストを受信することを含み得、Xrel,iは、自車両に対する検出されたオブジェクトiの相対位置であり、Vrel,iは、自車両に対する検出されたオブジェクトiの相対速度である。また、自車両速度Vegoを受信する。 Step 810 of method 800 may include receiving a list of detected object relative kinematics (X rel,i , V rel,i ), where X rel,i is the relative kinematics of detected object i relative to the host vehicle. is the relative position, and V rel,i is the relative velocity of the detected object i with respect to the own vehicle. The host vehicle speed V ego is also received.

ステップ810の後に、各オブジェクトについて知覚フィールドfθ(Xrel,i,Vrel,i,Vego,i)を算出するステップ820が続き得る。 Step 810 may be followed by step 820 of calculating a perceptual field f θ (X rel,i , V rel,i , V ego, i) for each object.

ステップ820の後に、個々の知覚フィールドからの寄与を総計するステップ830が続き得る。ステップ830はまた、結果としてもたらされる2dベクトルの大きさが個々の項の最大の大きさに等しいように正規化することを含み得、すなわち、NΣfθ(Xrel,i,Vrel,i,Vego,i)である。 Step 820 may be followed by step 830 of summing the contributions from the individual perceptual fields. Step 830 may also include normalizing so that the magnitude of the resulting 2d vector is equal to the maximum magnitude of the individual terms, i.e., N * Σf θ (X rel,i , V rel, i , V ego, i).

ステップ830の後に、自車両に加えられる自車加速度を記述する微分方程式、すなわちa=NΣfθ(Xrel,i,Vrel,i,Vego,i)を構築するステップ840が続き得る。 Step 830 may be followed by step 840 of constructing a differential equation describing the own vehicle acceleration applied to the own vehicle, i.e., a=N * Σfθ (X rel,i , V rel,i , Vego , i). .

これは推論プロセスの出力であり得る。ステップ840の後に、ステップ450(図示せず)が続き得る。 This can be the output of an inference process. Step 840 may be followed by step 450 (not shown).

方法は、1つ又は複数のネットワーク・パラメータを更新することを含み得る。 The method may include updating one or more network parameters.

方法は、初期条件

が与えられると自車軌跡を計算するステップ860を含み得る。
The method is initial conditions

may include step 860 of calculating the own vehicle trajectory given .

ステップ860の後に、損失関数

を計算するステップ870が続き得る。また、状況に応じて損失を伝播させる。
After step 860, the loss function

A step 870 of calculating . Also, losses are propagated depending on the situation.

図9は、入力として運動学的変数を用いて実施されたアダプティブ・クルーズ・コントロール・モデルの損失関数を加えた、方法900の推論を示す。 FIG. 9 shows the inference of a method 900 with the addition of a loss function of an adaptive cruise control model implemented using kinematic variables as inputs.

方法900のステップ910は、自車両の位置Xego、自車両の速度Vego、自車両の前にある最も近い車両の位置XCIPV、及び、自車両の前にある最も近い車両の速度VCIPVを受信することを含み得る。 Step 910 of the method 900 comprises determining the position of the host vehicle X ego , the speed of the host vehicle V ego , the position of the nearest vehicle in front of the host vehicle X CIPV , and the speed of the nearest vehicle in front of the host vehicle V CIPV may include receiving.

ステップ910の後に、相対位置Xrel=Xego-XCIPV、及び相対速度Vrel=Vego-VCIPVを算出するステップ920が続き得る。 Step 910 may be followed by step 920 of calculating relative position X rel =X ego -X CIPV and relative velocity V rel =V ego -V CIPV .

ステップ920の後に、以下のステップ930が続き得る。
・第1のNNによって、知覚フィールド関数gθ(Xrel,VCIPV)を算出する。
・第2のNNによって、補助関数hΨ(Vrel)を算出する。
・目標加速度(目標力に等しい)を提供するようにgθ(Xrel,VCIPV)をhΨ(Vrel)で乗算する。
Step 920 may be followed by step 930 below.
- Calculate the perceptual field function g θ (X rel , V CIPV ) by the first NN.
- Calculate the auxiliary function h Ψ (V rel ) by the second NN.
- Multiply g θ (X rel , V CIPV ) by h Ψ (V rel ) to provide the target acceleration (equal to the target force).

これは推論プロセスの出力であり得る。ステップ930の後に、ステップ450(図示せず)が続き得る。 This can be the output of an inference process. Step 930 may be followed by step 450 (not shown).

方法は、1つ又は複数のNNパラメータを更新することを含み得る。 The method may include updating one or more NN parameters.

方法は、初期条件

が与えられると自車軌跡を計算するステップ960を含み得る。
The method is initial conditions

may include step 960 of calculating the own vehicle trajectory given .

ステップ960の後に、損失関数

を計算するステップ970が続き得る。また、状況に応じて損失を伝播させる。
After step 960, the loss function

A step 970 of calculating . Also, losses are propagated depending on the situation.

力フィードバック force feedback

人間の運転者(以下、運転者)は、問題のあるやり方で車両を操縦することがある。運転者は、1つ又は複数の交通規則に違反して車両を運転し、及び/又は無茶なやり方で車両を運転し、及び/又は危険なやり方で車両を運転し、及び/又は任意の他の違法なやり方で車両を運転することがある。 Human drivers (hereinafter referred to as drivers) may operate vehicles in problematic ways. The driver may drive the vehicle in violation of one or more traffic rules and/or drive the vehicle in an reckless manner and/or drive the vehicle in a dangerous manner and/or drive the vehicle in any other manner. may operate a vehicle in an illegal manner.

問題のある運転の例として、他の道路ユーザからの安全な距離を維持しないこと、1つ又は複数の道路ユーザを無視すること、強引なやり方で運転すること、迂回が禁止されている場合に別の道路ユーザを迂回すること、車両の伝播の方向及び/又は速度の不必要な変更をもたらすことなどが挙げられ得る。 Examples of problematic driving include not maintaining a safe distance from other road users, ignoring one or more road users, driving in an aggressive manner, and where detours are prohibited. This may include bypassing other road users, causing unnecessary changes in the direction and/or speed of the vehicle's propagation, etc.

車両の運転者と通信する、特に、運転者に適切なやり方で運転させる拘束力を提供する方法が提供される。 A method is provided for communicating with a driver of a vehicle, and in particular for providing restraint to the driver to drive in an appropriate manner.

図10は、運転者と通信する方法3000の一実例を示す。 FIG. 10 shows an example of a method 3000 for communicating with a driver.

一実施例によれば、方法3000は、車両の環境内に位置する1つ又は複数のオブジェクトに関するオブジェクト情報を取得するステップ3010によって開始する。 According to one embodiment, method 3000 begins with step 3010 of obtaining object information about one or more objects located within a vehicle's environment.

一実施例によれば、ステップ3010はまた、オブジェクト情報を分析することを含む。分析は、1つ又は複数のオブジェクトの位置情報及び/又は動き情報を決定することを含み得る。位置情報及び動き情報は、(車両に対する)1つ又は複数のオブジェクトの相対位置及び/又は(車両に対する)1つ又は複数のオブジェクトの相対移動を含み得る。 According to one embodiment, step 3010 also includes analyzing object information. The analysis may include determining location and/or motion information of one or more objects. The position and motion information may include the relative position of the one or more objects (with respect to the vehicle) and/or the relative movement of the one or more objects (with respect to the vehicle).

一実施例によれば、ステップ3010の後に、1つ又は複数のニューラル・ネットワーク(NN)を用いることによって、また、オブジェクト情報に基づいて、物理モデルに関連付けられているとともに車両の挙動に対する1つ又は複数のオブジェクトの影響を表す仮想力を決定するステップ3020が続く。仮想力は実質的に、車両に加えられる。 According to one embodiment, after step 3010, by using one or more neural networks (NNs) and based on the object information, one associated with the physical model and one for the vehicle behavior. Alternatively, a step 3020 of determining virtual forces representing the influence of a plurality of objects follows. Virtual forces are essentially applied to the vehicle.

一実施例によれば、ステップ3020は、オブジェクト情報に基づいて、1つ又は複数の仮想フィールドを決定するステップ3020-1と、1つ又は複数の仮想フィールドに基づいて仮想力を決定するステップ3020-2とを含む。 According to one embodiment, step 3020 includes determining 3020-1 one or more virtual fields based on the object information and determining 3020 a virtual force based on the one or more virtual fields. -2.

ステップ3020は、仮想物理モデルから駆動され得る。例えば、仮想物理モデルがオブジェクトを電磁電荷として表すものとすると、1つ又は複数の仮想フィールドは、仮想電磁フィールドであり、仮想力は、仮想電荷に起因して発生する電磁力を表す。例えば、仮想物理モデルが機械モデルであるものとすると、その場合、仮想力フィールドは、オブジェクトの加速度から駆動される。 Step 3020 may be driven from a virtual physical model. For example, if the virtual physical model represents the object as an electromagnetic charge, the one or more virtual fields are virtual electromagnetic fields and the virtual force represents the electromagnetic force generated due to the virtual charges. For example, suppose the virtual physical model is a mechanical model, in which case the virtual force field is driven from the acceleration of the object.

一実施例によれば、ステップ3020の後に、少なくとも仮想力に基づいて、車両を使用する運転者が行う運転者アクションに関連して加えられる物理的拘束力を提供することに用いる力フィードバックを決定するステップ3030が続く。 According to one embodiment, after step 3020, force feedback for use in providing an applied physical restraint force in connection with a driver action performed by a driver using the vehicle is determined based at least on the virtual force. A step 3030 follows.

ステップ3030は、仮想力と車両の所望の仮想加速度との関係に関する仮定に基づいて実行され得る。例えば、仮想力は、仮想加速度(車両に実質的に加えられる)を有し得、車両の所望の仮想加速度は、車両に実質的に加えられる仮想加速度を相殺し得る。 Step 3030 may be performed based on assumptions regarding the relationship between the virtual force and the desired virtual acceleration of the vehicle. For example, the virtual force may have a virtual acceleration (substantially applied to the vehicle), and a desired virtual acceleration of the vehicle may offset the virtual acceleration substantially applied to the vehicle.

一実施例によれば、ステップ3020の後に、仮想加速度に基づいて車両の所望の仮想加速度を決定するステップ3025が続く。ステップ3025の後に、ステップ3030が続く。 According to one embodiment, step 3020 is followed by step 3025 of determining a desired virtual acceleration of the vehicle based on the virtual acceleration. Step 3025 is followed by step 3030.

一実施例によれば、所望の仮想加速度は、実質的に加えられる加速度と同じ大きさを有するが、反対方向に方向付けられ得る。 According to one embodiment, the desired virtual acceleration may have substantially the same magnitude as the applied acceleration, but be directed in the opposite direction.

一実施例によれば、所望の仮想加速度は、実質的に加えられる加速度の大きさとは異なる大きさを有する。 According to one embodiment, the desired virtual acceleration has a magnitude that is different from the magnitude of the substantially applied acceleration.

一実施例によれば、所望の仮想加速度は、実質的に加えられる加速度の方向と反対でない方向を有する。 According to one embodiment, the desired virtual acceleration has a direction that is not substantially opposite to the direction of the applied acceleration.

一実施例によれば、ステップ3030は、以下のうちの少なくとも1つを含む。
・所望の仮想加速度と、運転者の運転操作の制御下で設定される車両の加速度との差を算出する。
・差を低減させるように物理的拘束力を設定することによって力フィードバックを決定する。
・力フィードバックの1つ又は複数のパラメータを決定する。1つ又は複数のパラメータは、力フィードバックを提供する大きさ及び/又は持続時間及び/又はやり方を含み得る。例えば、拘束力は、連続的若しくは非連続的であってもよく、一定の大きさであってもよく、又は経時的に変化する大きさを有してもよい。
・車両の運転を制御するために運転者が必要とする労力に対する力フィードバックの影響を決定する。拘束力がより強いほど、運転者は拘束力に打ち勝つのに自身の労力を増大させる必要があり得る。
・車両のハンドルを回転させるために運転者が必要とする労力に対する力フィードバックの影響を決定する。
・車両の速度又は加速度を変更するために運転者が必要とする労力に対する力フィードバックの影響を決定する。
・拘束力が加えられると拘束力が車両に対する運転者アクションの影響を制限するように拘束力を決定する。例えば、運転者は、車両に同じ方向変更を行わせるのにハンドルのより大きな回転を行う必要がある。
・拘束力が加えられると拘束力が車両に対する運転者アクションの影響を防ぐように拘束力を決定する。
According to one embodiment, step 3030 includes at least one of the following.
- Calculate the difference between the desired virtual acceleration and the vehicle acceleration set under the control of the driver's driving operation.
- Determine the force feedback by setting the physical restraint to reduce the difference.
- Determine one or more parameters of force feedback. The one or more parameters may include the magnitude and/or duration and/or manner in which force feedback is provided. For example, the restraining force may be continuous or discontinuous, have a constant magnitude, or have a magnitude that changes over time.
- Determine the impact of force feedback on the effort required by the driver to control vehicle operation. The stronger the restraint force, the more the driver may need to increase his effort to overcome the restraint force.
- Determine the effect of force feedback on the effort required by the driver to turn the vehicle steering wheel.
- Determine the effect of force feedback on the effort required by the driver to change the speed or acceleration of the vehicle.
Determine the restraint force such that when the restraint force is applied, the restraint force limits the effect of driver actions on the vehicle. For example, the driver may need to make larger turns of the steering wheel to cause the vehicle to make the same change of direction.
- Determine the restraint force so that when the restraint force is applied, the restraint force prevents the influence of driver actions on the vehicle.

差を低減させるように物理的拘束力を設定することによって力フィードバックを決定することは、差の値と、拘束力の1つ又は複数のパラメータとの間で任意のマッピングを適用することを含み得る。
・例えば、より大きな差は、より強い拘束力を加えることをトリガし得る。
・差の大きさと拘束力の大きさとの関係は、線形関係、非線形関係などであり得る。
・さらに別の実例について、拘束力を加えることに関連付けられた持続時間及び/又はデューティ・サイクルは、差の関数として変化し得る。
Determining the force feedback by setting the physical restraint force to reduce the difference includes applying an arbitrary mapping between the value of the difference and one or more parameters of the restraint force. obtain.
- For example, a larger difference may trigger the application of a stronger restraining force.
- The relationship between the magnitude of the difference and the magnitude of the restraining force can be a linear relationship, a non-linear relationship, etc.
- For yet another example, the duration and/or duty cycle associated with applying a restraining force may vary as a function of the difference.

一実施例によれば、ステップ3030の後に、力フィードバックの決定に応答するステップ3040が続く。 According to one embodiment, step 3030 is followed by step 3040 of responding to the force feedback determination.

一実施例によれば、ステップ3040は、以下のうちの少なくとも1つを含む。
・車両を使用する運転者が行う運転者アクションに対応して力フィードバックを提供する。提供することは、拘束力を加えることを含み得る。拘束力を加えることは、機械的な動きを行うこと、機械要素の摩擦を変更すること、機械的伝達比を変更することなどを含み得る。
・車両を使用する運転者が行う運転者アクションに対応して力フィードバックを提供するように車両の制御ユニットに命令する。制御ユニットは、ハンドル、ガス・ペダル、ブレーキ・ペダル、スロットル・リンケージなどのような、車両の1つ又は複数のユニットを制御し得る。
・車両を使用する運転者が行う運転者アクションに対応して力フィードバックを提供するように車両の制御ユニットに命令する。
・運転者アクションを確認すると、力フィードバックの提供をトリガする。
・車両に対する制御を行う-運転者から自動運転ユニットに制御を伝達する。
According to one embodiment, step 3040 includes at least one of the following.
・Provide force feedback in response to driver actions performed by the driver using the vehicle. Providing may include applying a binding force. Applying a restraining force may include making a mechanical movement, changing the friction of a mechanical element, changing a mechanical transmission ratio, etc.
- instructing a control unit of the vehicle to provide force feedback in response to driver actions performed by a driver using the vehicle; The control unit may control one or more units of the vehicle, such as the steering wheel, gas pedal, brake pedal, throttle linkage, etc.
- instructing a control unit of the vehicle to provide force feedback in response to driver actions performed by a driver using the vehicle;
- Triggers the provision of force feedback when a driver action is confirmed.
・Perform control over the vehicle - Transfer control from the driver to the automatic driving unit.

図11は、シーンの一実例を示す。 FIG. 11 shows an example of a scene.

図11は、第1の道路のセグメント1011-1内に位置する車両1031の一実例を示す。 FIG. 11 shows an example of a vehicle 1031 located within a first road segment 1011-1.

歩行者1022が、車両1301の前で、セグメントを横断し始める。歩行者は、車両1031を退ける歩行者仮想フィールド(仮想等電位フィールド線1022’によって示されている)によって表されている。 Pedestrian 1022 begins to cross the segment in front of vehicle 1301. Pedestrians are represented by a pedestrian virtual field (indicated by virtual equipotential field lines 1022') that displaces vehicles 1031.

図11はまた、車両の所望の加速度1042を示す。 FIG. 11 also shows the desired acceleration 1042 of the vehicle.

仮想力を受ける前であれば、車両は、道路の境界に対して平行に移動する。 Before receiving the virtual force, the vehicle moves parallel to the road boundary.

この仮定の下では、現在のステアリング位置1050は変えられる必要があり、ハンドルは、所望の加速度の方向に対して平行である所望の方向1043に車両を運転するために(ハンドルの所要回転1051だけ)回転される必要がある。 Under this assumption, the current steering position 1050 needs to be changed and the steering wheel is rotated (by the required rotation 1051 of the steering wheel) to drive the vehicle in the desired direction 1043 that is parallel to the direction of the desired acceleration. ) needs to be rotated.

図11はまた、所望の方向(1043)と、運転者が設定した、車両の伝播の望ましくない方向との、望ましくない差の3つの実例を示す。望ましくない方向は、「運転者設定方向」1045を示す破線によって表されている。 FIG. 11 also shows three examples of undesirable differences between the desired direction (1043) and the undesired direction of vehicle propagation set by the driver. Undesirable directions are represented by dashed lines indicating "driver set directions" 1045.

これら3つの実例では、拘束力1044は、差を低減させるために、また、車両を所望の方向1043に従って伝播するように設定するために提供される。 In these three examples, a restraining force 1044 is provided to reduce the difference and to set the vehicle to propagate according to a desired direction 1043.

前述の明細書において、本発明を、本発明の実施例の特定の実例を参照しながら説明してきた。しかしながら、添付の特許請求の範囲に記載された本発明のより広い趣旨及び範囲から逸脱することなく、本明細書において様々な修正及び変更を行ってもよいことが明らかであろう。さらに、説明及び特許請求の範囲における「前(front)」、「後(back)」、「上部(top)」、「下部(bottom)」、「上(over)」、「下(under)」などの用語は、記載がある場合、説明目的のために使用されており、必ずしも恒久的な相対位置を記載するために使用されているわけではない。そのように使用される用語は、本明細書において説明される本発明の実施例が例えば、本明細書において例示又は他の場合では説明される以外の配向で動作が可能であるように、適切な状況下で置き換え可能であることが理解される。さらに、「アサート(assert)」又は「セット(set)」及び「ネゲート(negate)」(又は「デアサート(deassert)」若しくは「クリア(clear)」)という用語は、信号、ステータス・ビット、又は同様の装置をそれぞれその論理的に真又は論理的に偽の状態にすることを指す場合に、本明細書において使用される。論理的に真の状態が論理レベル1である場合、論理的に偽の状態は論理レベル0である。また、論理的に真の状態が論理レベル0である場合、論理的に偽の状態は論理レベル1である。当業者は、論理ブロック間の境界が単に例示にすぎないこと、及び、代替的な実施例は、論理ブロック若しくは回路要素を併合してもよく、又は様々な論理ブロック若しくは回路要素に機能の代替的な分解を課してもよいことを認識するであろう。したがって、本明細書において示されるアーキテクチャは単に例示にすぎないこと、及び、実際、同じ機能を達成する多くの他のアーキテクチャが実装され得ることを理解されたい。同じ機能を達成するための構成要素のいかなる配置も、所望の機能が達成されるように効果的に「関連付けられる」。したがって、特定の機能を達成するように組み合わされる、本明細書における任意の2つの構成要素は、アーキテクチャ又は中間構成要素に関係なく、所望の機能が達成されるように、互いに「関連付けられている」ものとみなされ得る。同様に、そのように関連付けられた任意の2つの構成要素はまた、所望の機能を達成するように互いに「動作可能に接続されている」又は「動作可能に結合されている」ものとみなすことができる。さらに、当業者は、上述の動作間の境界が単に例示にすぎないことを認識するであろう。複数の動作を組み合わせて単一の動作にしてもよく、単一の動作を追加の動作に分散させてもよく、また、動作を少なくとも部分的に時間的に重複させて実行してもよい。さらに、代替的な実施例は、特定の動作の複数のインスタンスを含んでもよく、動作の順序は、様々な他の実施例において変更されてもよい。また、例えば、一実施例では、示される実例は、単一の集積回路に又は同じデバイス内に位置する回路として実装され得る。代替的に、実例は、適切なやり方で互いに相互接続される任意の数の別個の集積回路又は別個のデバイスとして実装され得る。しかしながら、他の修正、変形及び代替も可能である。したがって、本明細書及び図面は、限定的な意味ではなく例示的な意味で考えられるべきである。特許請求の範囲において、括弧に入れられた参照符号はいずれも、特許請求の範囲を限定するものと解釈されるべきではない。「含む、備える(comprising)」という語は、請求項に列挙されたもの以外の要素又はステップの存在を排除しない。さらに、「1つの(a)」又は「1つの(an)」という語は、本明細書において使用される場合、1つ又は2つ以上として定義される。また、請求項における「少なくとも1つの」及び「1つ又は複数の」などの前置きの句の使用は、同じ請求項が「1つ又は複数の」又は「少なくとも1つの」という前置きの句及び「1つの(a)」又は「1つの(an)」などの不定冠詞を含む場合であっても、不定冠詞「1つの(a)」又は「1つの(an)」による別の請求項要素の前置きが、そのような前置きされた請求項要素を含む任意の特定の請求項をそのような要素を1つだけ含む発明に限定することを示唆すると解釈されるべきではない。同じことが定冠詞の使用について当てはまる。別段に述べられていない限り、「第1の」及び「第2の」などの用語は、そのような用語が説明する要素間を任意に区別するために使用される。したがって、これらの用語は、必ずしもそのような要素の時間的な又は他の優先順位付けを示すことを意図していない。特定の手段が互いに異なる請求項に記載されているという単なる事実は、これらの手段の組み合わせを有利に使用することができないことを示していない。本発明の特定の特徴を本明細書において示し説明してきたが、多くの修正、置換、変更及び均等物が直ちに当業者に想起されるであろう。したがって、添付の特許請求の範囲は、本発明の真の趣旨内にあるようなすべての修正及び変更をカバーすることを意図していることを理解されたい。明確にするため、別個の実施例の文脈において説明される、本開示の実施例の様々な特徴は、単一の実施例において組み合わせで提供される場合もあることが理解される。逆に、簡潔にするため、単一の実施例の文脈において説明される、本開示の実施例の様々な特徴は、別個に又は任意の適切な部分的な組み合わせで提供される場合もある。本開示の実施例は上記で特に示し説明してきたものによって限定されないことが、当業者によって理解されるであろう。そうではなく、本開示の実施例の範囲は、添付の特許請求の範囲及びその均等物によって定義される。 In the foregoing specification, the invention has been described with reference to specific illustrations of embodiments of the invention. It will be apparent, however, that various modifications and changes may be made herein without departing from the broader spirit and scope of the invention as set forth in the appended claims. Furthermore, in the description and claims, "front", "back", "top", "bottom", "over", and "under" are used. Terms such as, where indicated, are used for descriptive purposes and not necessarily to describe permanent relative positions. The terms so used are appropriate, such that the embodiments of the invention described herein are capable of operation in, for example, orientations other than those illustrated or otherwise described herein. It is understood that they can be replaced under certain circumstances. Additionally, the terms "assert" or "set" and "negate" (or "deassert" or "clear") refer to signals, status bits, or similar is used herein to refer to placing a device in its logically true or logically false state, respectively. If a logically true state is a logic level 1, a logically false state is a logic level 0. Also, if a logically true state is a logic level 0, a logically false state is a logic level 1. Those skilled in the art will appreciate that boundaries between logic blocks are merely exemplary and that alternative embodiments may merge logic blocks or circuit elements or provide alternative functionality to various logic blocks or circuit elements. will recognize that it is possible to impose a decomposition. Accordingly, it should be understood that the architecture shown herein is merely exemplary, and that, in fact, many other architectures may be implemented that accomplish the same functionality. Any arrangement of components to accomplish the same function is effectively "associated" so that the desired function is achieved. Thus, any two components herein that are combined to achieve a particular function, regardless of architecture or intermediate components, are "associated" with each other such that the desired function is achieved. ” can be considered as a thing. Similarly, any two components so associated are also considered to be "operably connected" or "operably coupled" to each other so as to accomplish a desired function. I can do it. Additionally, those skilled in the art will recognize that the boundaries between the operations described above are merely exemplary. Multiple operations may be combined into a single operation, a single operation may be distributed among additional operations, and operations may be performed at least partially overlapping in time. Furthermore, alternative embodiments may include multiple instances of particular operations, and the order of the operations may be changed in various other embodiments. Also, for example, in one embodiment, the illustrated examples may be implemented on a single integrated circuit or as circuits located within the same device. Alternatively, the instances may be implemented as any number of separate integrated circuits or separate devices interconnected with each other in any suitable manner. However, other modifications, variations and substitutions are also possible. Accordingly, the specification and drawings are to be regarded in an illustrative rather than a restrictive sense. In the claims, any reference signs placed between parentheses shall not be construed as limiting the claim. The word ``comprising'' does not exclude the presence of elements or steps other than those listed in a claim. Additionally, the terms "a" or "an" as used herein are defined as one or more than one. Additionally, the use of prefix phrases such as "at least one" and "one or more" in a claim may also mean that the same claim includes the prefix phrases "one or more" or "at least one" and " The definition of another claim element by the indefinite article “a” or “an” even if it includes an indefinite article such as “a” or “an” The preamble should not be construed as suggesting that any particular claim containing such preambled claim element is limited to the invention containing only one such element. The same applies to the use of definite articles. Unless otherwise stated, terms such as "first" and "second" are used to arbitrarily distinguish between the elements such terms describe. Accordingly, these terms are not necessarily intended to indicate temporal or other prioritization of such elements. The mere fact that certain measures are recited in mutually different claims does not indicate that a combination of these measures cannot be used to advantage. While certain features of the invention have been shown and described herein, many modifications, substitutions, changes and equivalents will immediately occur to those skilled in the art. It is, therefore, to be understood that the appended claims are intended to cover all such modifications and changes as fall within the true spirit of the invention. It will be understood that various features of embodiments of the disclosure that are, for clarity, described in the context of separate embodiments, may also be provided in combination in a single embodiment. Conversely, various features of embodiments of the disclosure that are, for brevity, described in the context of a single embodiment, may also be provided separately or in any suitable subcombination. It will be understood by those skilled in the art that the embodiments of this disclosure are not limited to what has been particularly shown and described above. Rather, the scope of the embodiments of this disclosure is defined by the following claims and their equivalents.

Claims (19)

車両の運転者と通信する方法であって、
前記車両の環境内に位置する1つ又は複数のオブジェクトに関するオブジェクト情報を取得することと、
前記オブジェクト情報を分析することと、
1つ又は複数のニューラル・ネットワーク(NN)を用いることによって、また、前記オブジェクト情報に基づいて、物理モデルに関連付けられているとともに前記車両の挙動に対する前記1つ又は複数のオブジェクトの影響を表す仮想力を決定することと、
少なくとも前記仮想力に基づいて、前記車両を使用する前記運転者が行う運転者アクションに関連して加えられる物理的拘束力を提供することに用いる力フィードバックを決定することと、を含む方法。
A method of communicating with a driver of a vehicle, the method comprising:
obtaining object information regarding one or more objects located within the environment of the vehicle;
analyzing the object information;
By using one or more neural networks (NN) and based on said object information, a virtual model is created that is associated with a physical model and represents the influence of said one or more objects on the behavior of said vehicle. determining power and
determining, based at least on the virtual force, force feedback for use in providing an applied physical restraint force in connection with a driver action performed by the driver using the vehicle.
前記方法は、前記オブジェクト情報の前記分析に基づいて、1つ又は複数の仮想フィールドを決定することを含み、前記仮想力の前記決定は、前記1つ又は複数の仮想フィールドに基づく、請求項1に記載の方法。 2. The method includes determining one or more virtual fields based on the analysis of the object information, and the determination of the virtual force is based on the one or more virtual fields. The method described in. 前記車両を使用する前記運転者が行う前記運転者アクションに対応して前記力フィードバックを提供することを含む、請求項1に記載の方法。 2. The method of claim 1, comprising providing the force feedback in response to the driver actions performed by the driver using the vehicle. 前記車両を使用する前記運転者が行う前記運転者アクションに対応して前記力フィードバックを提供するように前記車両の制御ユニットに命令することを含む、請求項1に記載の方法。 2. The method of claim 1, comprising instructing a control unit of the vehicle to provide the force feedback in response to the driver actions performed by the driver using the vehicle. 前記運転者アクションを確認すると、前記力フィードバックの提供をトリガすることを含む、請求項1に記載の方法。 2. The method of claim 1, comprising triggering the provision of the force feedback upon confirming the driver action. 前記力フィードバックの前記決定は、前記車両の運転を制御するために前記運転者が必要とする労力に対する前記力フィードバックの影響を決定することを含む、請求項1に記載の方法。 2. The method of claim 1, wherein the determining the force feedback includes determining the effect of the force feedback on effort required by the driver to control operation of the vehicle. 前記力フィードバックの前記決定は、前記車両のハンドルを回転させるために前記運転者が必要とする労力に対する前記力フィードバックの影響を決定することを含む、請求項1に記載の方法。 2. The method of claim 1, wherein the determining the force feedback includes determining the effect of the force feedback on effort required by the driver to rotate a steering wheel of the vehicle. 前記力フィードバックの前記決定は、前記車両の速度又は加速度を変更するために前記運転者が必要とする労力に対する前記力フィードバックの影響を決定することを含む、請求項1に記載の方法。 2. The method of claim 1, wherein the determining the force feedback includes determining the effect of the force feedback on effort required by the driver to change speed or acceleration of the vehicle. 前記仮想力に基づいて、前記車両の所望の仮想加速度を算出することを含む、請求項1に記載の方法。 2. The method of claim 1, comprising calculating a desired virtual acceleration of the vehicle based on the virtual force. 前記所望の仮想加速度と、前記運転者の運転操作の制御下で設定される前記車両の加速度との差を算出することを含む、請求項9に記載の方法。 10. The method of claim 9, comprising calculating a difference between the desired virtual acceleration and an acceleration of the vehicle that is set under control of the driver's driving maneuvers. 前記力フィードバックの前記決定は、前記差を低減させるように前記物理的拘束力を設定することを含む、請求項10に記載の方法。 11. The method of claim 10, wherein the determining the force feedback includes setting the physical restraint to reduce the difference. 前記仮想力の決定の1回又は複数回の繰り返しに基づいて、前記車両の所望の経路を決定することを含む、請求項1に記載の方法。 2. The method of claim 1, comprising determining a desired path for the vehicle based on one or more iterations of the virtual force determination. 前記力フィードバックの前記決定は、前記運転者が指示した経路と前記所望の経路との差を低減させるように前記物理的拘束力を設定することを含む、請求項12に記載の方法。 13. The method of claim 12, wherein the determining the force feedback includes setting the physical restraint force to reduce a difference between the driver-indicated route and the desired route. 前記拘束力は、加えられると、前記車両に対する前記運転者アクションの影響を制限する、請求項1に記載の方法。 2. The method of claim 1, wherein the restraining force, when applied, limits the effect of the driver action on the vehicle. 前記拘束力は、加えられると、前記車両に対する前記運転者アクションの影響を防ぐ、請求項1に記載の方法。 2. The method of claim 1, wherein the restraining force, when applied, prevents the effect of the driver action on the vehicle. 運転関連操作を行うことを含む、請求項1に記載の方法。 2. The method of claim 1, comprising performing a driving-related operation. 車両の運転者と通信する非一時的コンピュータ可読媒体であって、
前記車両の環境内に位置する1つ又は複数のオブジェクトに関するオブジェクト情報を取得する命令と、
前記オブジェクト情報を分析する命令と、
1つ又は複数のニューラル・ネットワーク(NN)を用いることによって、また、前記オブジェクト情報に基づいて、物理モデルに関連付けられているとともに前記車両の挙動に対する前記1つ又は複数のオブジェクトの影響を表す仮想力を決定する命令と、
少なくとも前記仮想力に基づいて、前記車両を使用する前記運転者が行う運転者アクションに関連して加えられる物理的拘束力を提供することに用いる力フィードバックを決定する命令と、
を記憶する、非一時的コンピュータ可読媒体。
A non-transitory computer-readable medium for communicating with a driver of a vehicle, the medium comprising:
instructions for obtaining object information regarding one or more objects located within the environment of the vehicle;
instructions for analyzing the object information;
By using one or more neural networks (NN) and based on said object information, a virtual model is created that is associated with a physical model and represents the influence of said one or more objects on the behavior of said vehicle. commands that determine power,
instructions for determining, based at least on the virtual force, force feedback for use in providing an applied physical restraint force in connection with a driver action performed by the driver using the vehicle;
A non-transitory computer-readable medium that stores information.
前記非一時的コンピュータ可読媒体は、前記オブジェクト情報の前記分析に基づいて、1つ又は複数の仮想フィールドを決定することを含む命令を記憶し、前記仮想力の前記決定は、前記1つ又は複数の仮想フィールドに基づく、請求項17に記載の非一時的コンピュータ可読媒体。 The non-transitory computer-readable medium stores instructions that include determining one or more virtual fields based on the analysis of the object information, and the determination of the virtual force comprises determining one or more virtual fields based on the analysis of the object information; 18. The non-transitory computer-readable medium of claim 17, wherein the non-transitory computer-readable medium is based on a virtual field of . 前記非一時的コンピュータ可読媒体は、前記仮想力に基づいて、前記車両の所望の仮想加速度を算出する命令、前記所望の仮想加速度と、前記運転者の運転操作の制御下で設定される前記車両の加速度との差を算出する命令を記憶し、前記力フィードバックの前記決定は、前記差を低減させるように前記物理的拘束力を設定することを含む、請求項18に記載の非一時的コンピュータ可読媒体。 The non-transitory computer readable medium includes instructions for calculating a desired virtual acceleration of the vehicle based on the virtual force, the desired virtual acceleration, and the vehicle being set under the control of the driver's driving operations. 19. The non-transitory computer of claim 18, wherein the non-transitory computer stores instructions for calculating a difference between an acceleration of readable medium.
JP2023113669A 2022-07-11 2023-07-11 Virtual fields driving related operations Pending JP2024009794A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US202263368155P 2022-07-11 2022-07-11
US63/368,155 2022-07-11
US17/823,069 US20230064387A1 (en) 2021-09-01 2022-08-29 Perceptual fields for autonomous driving
US17/823,069 2022-08-29

Publications (1)

Publication Number Publication Date
JP2024009794A true JP2024009794A (en) 2024-01-23

Family

ID=89723882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023113669A Pending JP2024009794A (en) 2022-07-11 2023-07-11 Virtual fields driving related operations

Country Status (3)

Country Link
JP (1) JP2024009794A (en)
KR (1) KR20240021695A (en)
DE (1) DE102023206536A1 (en)

Also Published As

Publication number Publication date
DE102023206536A1 (en) 2024-04-11
KR20240021695A (en) 2024-02-19

Similar Documents

Publication Publication Date Title
JP7367183B2 (en) Occupancy prediction neural network
JP7239703B2 (en) Object classification using extraterritorial context
CN108537326A (en) For the method for automatic driving vehicle, medium and system
Niranjan et al. Deep learning based object detection model for autonomous driving research using carla simulator
Zaghari et al. Improving the learning of self-driving vehicles based on real driving behavior using deep neural network techniques
US20230311932A1 (en) Merging object and background radar data for autonomous driving simulations
EP3674972A1 (en) Methods and systems for generating training data for neural network
Viswanath et al. Virtual simulation platforms for automated driving: Key care-about and usage model
JP2024009794A (en) Virtual fields driving related operations
Krishnarao et al. Enhancement of advanced driver assistance system (ADAS) using machine learning
US20210383213A1 (en) Prediction device, prediction method, computer program product, and vehicle control system
US20230347918A1 (en) Virtual fields driving related operations
US20230064387A1 (en) Perceptual fields for autonomous driving
JP2024009792A (en) Virtual fields driving related operations
Bhaggiaraj et al. Deep Learning Based Self Driving Cars Using Computer Vision
US20230365155A1 (en) Virtual fields driving related operations
US20240005794A1 (en) Adaptive perception affected by V2X signal
US20230365156A1 (en) Virtual fields driving related operations
Yuan et al. A new active safety distance model of autonomous vehicle based on sensor occluded scenes
Perla et al. Implementation of Autonomous Cars using Machine Learning
Schiekofer et al. Machine Learning for Automated Driving
Meftah et al. Deep residual network for autonomous vehicles obstacle avoidance
US20230365157A1 (en) Driving related augmented virtual fields
US20230356747A1 (en) Driving related augmented virtual fields
JP2024013226A (en) Driving related augmented virtual field