JP7438222B2 - 交通参加者の運転マヌーバ予測のための方法 - Google Patents
交通参加者の運転マヌーバ予測のための方法 Download PDFInfo
- Publication number
- JP7438222B2 JP7438222B2 JP2021537907A JP2021537907A JP7438222B2 JP 7438222 B2 JP7438222 B2 JP 7438222B2 JP 2021537907 A JP2021537907 A JP 2021537907A JP 2021537907 A JP2021537907 A JP 2021537907A JP 7438222 B2 JP7438222 B2 JP 7438222B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- traffic
- information
- target
- controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 30
- 238000001514 detection method Methods 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 230000000306 recurrent effect Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 4
- 230000004927 fusion Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
- B60W60/00272—Planning or execution of driving tasks using trajectory prediction for other traffic participants relying on extrapolation of current movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
- B60W60/00274—Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0088—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4045—Intention, e.g. lane change or imminent movement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
Description
自律的に操作できる車両には、データを提供し、周囲の車両および他の交通参加者による運転マヌーバへの反応を可能にするセンサが含まれている。周囲の車両の現在のアクションに反応することにより、運転マヌーバ操作が制限される可能性があり、他の車両の意図に関する不確実性のための幾らかの不正確さが含まれる場合がある。さらに、他の車両の運転マヌーバが発生した後にこれに反応することにより、オプションが制限され、非効率となる可能性もある。
本開示の例示的な実施形態による、自律制御可能な車両の交通をナビゲートする方法は、とりわけ、第1の車両に配置された少なくとも1つのセンサを用いて交通環境内の少なくとも1つのターゲット車両を検出することと、交通環境の第1の車両および少なくともターゲット車両に配置された複数のセンサを用いて情報を取得することと、交通環境および少なくとも1つのターゲット車両に関連して取得された情報に基づいて、未来時間(future time)に対して、第1の車両に配置されたコントローラを用いて少なくとも1つのターゲット車両の運転マヌーバ(maneuver)を予測することと、少なくとも1つのターゲット車両の予測された運転マヌーバに基づいて、コントローラを用いて、少なくとも1つのターゲット車両の未来位置(future position)との衝突を回避する、第1の車両用の推奨経路を生成することと、を含む。
自律制御可能な車両の交通をナビゲートする前述の方法のうちのいずれかのさらなる実施形態では、リカレントニューラルネットワークは、複数の未来時間に対して、少なくとも1つのターゲット車両の可能な位置および運転マヌーバを予測する。
図1を参照すると、第1の車両10は、車両12,14などの周囲の交通参加者の操作を評価し、かつ他の車両12,14によって実行される潜在的な運転マヌーバを予測するシステム15を含む。第1の車両10は、少なくとも1つの周囲の車両および/または交通参加者を示す情報を取得するためのカメラ16およびレーダデバイス24を含む。周囲の交通参加者に関する情報を提供する他の感知装置を利用することができ、それらが本開示の文脈内にあることを理解されたい。
Claims (13)
- 自律制御可能な車両の交通をナビゲートする方法であって、前記方法が、
第1の車両に配置されたシステムが、前記第1の車両に配置された少なくとも1つの画像センサを用いて交通環境内の少なくとも1つのターゲット車両を検出するステップと、
前記システムが、前記第1の車両に配置された複数のセンサを用いて、前記交通環境の情報および少なくとも1つの前記ターゲット車両の情報を取得するステップであって、前記交通環境の情報は、前記少なくとも1つのターゲット車両と、静止および/または非静止の他の交通参加者、ならびに車道との間の関係の交通状況を含み、前記少なくとも1つの前記ターゲット車両の情報は、前記第1の車両に配置された前記少なくとも1つの画像センサによりキャプチャされた画像からの、前記少なくとも1つの前記ターゲット車両に対応する画像領域の局所領域特徴マップを含む、ステップと、
前記システムが、前記交通状況および前記局所領域特徴マップに基づいて、未来時間に対して、前記第1の車両に配置されたコントローラを用いて少なくとも1つの前記ターゲット車両の運転マヌーバを予測するステップと、
前記システムが、少なくとも1つの前記ターゲット車両の予測された運転マヌーバに基づいて、前記コントローラを用いて、少なくとも1つの前記ターゲット車両の未来位置との衝突を回避する、前記第1の車両用の推奨経路を生成するステップと、
を含み、
前記少なくとも1つの前記ターゲット車両の運転マヌーバを予測する前記ステップが、前記交通状況および前記局所領域特徴マップを受けとって少なくとも1つの前記ターゲット車両の可能な位置および運転マヌーバを予測するリカレントニューラルネットワークを利用することを含む、
方法。 - 前記リカレントニューラルネットワークが、複数の未来時間に対して、少なくとも1つの前記ターゲット車両の可能な位置および運転マヌーバを予測する、請求項1記載の方法。
- 前記交通環境に関連する情報が、前記第1の車両と少なくとも1つの前記ターゲット車両との間の空間的関係に関連する情報を含む、請求項1または2記載の方法。
- 前記交通環境に関連する情報が、少なくとも1つの前記ターゲット車両と他の交通参加者との間の空間的関係に関連する情報を含む、請求項1から3までのいずれか1項記載の方法。
- 前記交通環境に関連する情報が、少なくとも1つの前記ターゲット車両と車道の境界との間の空間的関係に関連する情報を含む、請求項1から4までのいずれか1項記載の方法。
- 前記交通環境に関連する情報が、少なくとも1つの前記ターゲット車両から直に取得された情報を含む、請求項1から5までのいずれか1項記載の方法。
- 前記第1の車両が、運転者の操作を支援するために第1の車両機能の操作を生成する部分的自律車両を含むか、または前記第1の車両が、独立して操作を行う完全自律車両を含む、請求項1から6までのいずれか1項記載の方法。
- 交通環境内で自律制御可能な車両をナビゲートするための車両システムナビゲーションシステムであって、
近接する少なくとも1つの交通参加者に関する情報を取得するための検出モジュールであって、前記検出モジュールが、前記少なくとも1つの交通参加者の画像をキャプチャするカメラと、前記自律制御可能な車両内に配置され、前記少なくとも1つの交通参加者の情報を取得するセンサとを備える検出モジュールと、
車両コントローラと、
を備え、
前記車両コントローラは、前記検出モジュールを用いて、前記交通環境の情報および前記少なくとも1つの交通参加者の情報を取得し、前記交通環境の情報は、前記検出モジュールにより検出された、前記少なくとも1つの交通参加者および他の静止および非静止オブジェクト、ならびに車道との間の関係の交通状況を含み、前記少なくとも1つの交通参加者の情報は、前記カメラによりキャプチャされた画像からの、前記少なくとも1つの交通参加者に対応する画像領域の局所領域特徴マップを含み、
前記車両コントローラは、前記交通状況および前記局所領域特徴マップを受けとり、未来の運転マヌーバを示す複数の予測される可能なアクションと、前記未来の運転マヌーバに基づく複数の未来時間ステップにおける前記少なくとも1つの交通参加者の複数の予測される位置とを生成するリカレントニューラルネットワークを実行し、
前記車両コントローラは、前記少なくとも1つの交通参加者の前記複数の予測される未来位置に基づいて前記車両の経路を変更するコマンドを生成する、
車両システムナビゲーションシステム。 - 前記車両システムが、前記交通環境内での車両の操作を示す情報を提供する少なくとも1つのセンサを含む、請求項8記載のシステム。
- 前記車両コントローラが、前記少なくとも1つの交通参加者と他の交通参加者との間の関係を検出するように構成されている、請求項8または9記載のシステム。
- 前記少なくとも1つの交通参加者が、第1の車両を含み、前記車両コントローラが、車道の境界内の前記第1の車両の位置を検出するように構成されている、請求項10記載のシステム。
- 前記車両コントローラが、前記第1の車両から直に、未来の運転マヌーバを示すアクションを検出する、請求項11記載のシステム。
- 前記車両コントローラが、部分的自律車両の一部であり、かつ運転者の操作を支援するために車両機能の操作を生成するか、または前記車両コントローラが、独立して操作を行う完全自律車両を含む第1の車両用のコマンドを生成する、請求項8から12までのいずれか1項記載のシステム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862785339P | 2018-12-27 | 2018-12-27 | |
US62/785,339 | 2018-12-27 | ||
US16/688,603 US11409285B2 (en) | 2018-12-27 | 2019-11-19 | Method for maneuver prediction of traffic participant |
US16/688,603 | 2019-11-19 | ||
PCT/US2019/066289 WO2020139587A1 (en) | 2018-12-27 | 2019-12-13 | Method for maneuver prediction of traffic participant |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022516857A JP2022516857A (ja) | 2022-03-03 |
JP7438222B2 true JP7438222B2 (ja) | 2024-02-26 |
Family
ID=71122300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021537907A Active JP7438222B2 (ja) | 2018-12-27 | 2019-12-13 | 交通参加者の運転マヌーバ予測のための方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11409285B2 (ja) |
EP (1) | EP3903296A1 (ja) |
JP (1) | JP7438222B2 (ja) |
CN (1) | CN113557559A (ja) |
WO (1) | WO2020139587A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BR112019024097A2 (pt) * | 2017-05-16 | 2020-06-02 | Nissan Motor Co., Ltd. | Método de predição de ação e dispositivo de predição de ação de dispositivo de ajuda para deslocamento |
US20200249674A1 (en) * | 2019-02-05 | 2020-08-06 | Nvidia Corporation | Combined prediction and path planning for autonomous objects using neural networks |
US11325594B2 (en) * | 2020-02-10 | 2022-05-10 | GM Global Technology Operations LLC | Sensor fusion based on intersection scene to determine vehicle collision potential |
US20210295171A1 (en) * | 2020-03-19 | 2021-09-23 | Nvidia Corporation | Future trajectory predictions in multi-actor environments for autonomous machine applications |
US11584371B2 (en) * | 2020-07-15 | 2023-02-21 | Toyota Research Institute, Inc. | Systems and methods for using R-functions and semi-analytic geometry for lane keeping in trajectory planning |
CA3126236A1 (en) * | 2020-07-29 | 2022-01-29 | Uatc, Llc | Systems and methods for sensor data packet processing and spatial memoryupdating for robotic platforms |
JP7396308B2 (ja) * | 2021-01-28 | 2023-12-12 | トヨタ自動車株式会社 | 走行軌跡推定システム、走行軌跡推定プログラム、及び走行軌跡推定方法 |
CN114084155B (zh) * | 2021-11-15 | 2023-10-20 | 清华大学 | 预测型智能汽车决策控制方法、装置、车辆及存储介质 |
US11801871B1 (en) * | 2022-12-28 | 2023-10-31 | Aurora Operations, Inc. | Goal-based motion forecasting |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010086269A (ja) | 2008-09-30 | 2010-04-15 | Mazda Motor Corp | 車両同定装置及びそれを用いた運転支援装置 |
JP2016051465A (ja) | 2014-09-01 | 2016-04-11 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | 衝突後操縦計画を行う方法及びシステム、並びに当該システムを備える車両 |
JP2018055141A (ja) | 2016-09-26 | 2018-04-05 | 日立オートモティブシステムズ株式会社 | 移動体軌道予測システム |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7680596B2 (en) * | 2004-04-06 | 2010-03-16 | Honda Motor Co., Ltd. | Route calculation method for a vehicle navigation system |
US8655579B2 (en) | 2010-03-16 | 2014-02-18 | Toyota Jidosha Kabushiki Kaisha | Driving assistance device |
EP2562060B1 (en) | 2011-08-22 | 2014-10-01 | Honda Research Institute Europe GmbH | A method and system for predicting movement behavior of a target traffic object |
US9286793B2 (en) * | 2012-10-23 | 2016-03-15 | University Of Southern California | Traffic prediction using real-world transportation data |
WO2016156236A1 (en) | 2015-03-31 | 2016-10-06 | Sony Corporation | Method and electronic device |
US20180260635A1 (en) | 2015-09-08 | 2018-09-13 | Apple Inc. | Intention recognition |
US10082797B2 (en) * | 2015-09-16 | 2018-09-25 | Ford Global Technologies, Llc | Vehicle radar perception and localization |
US9792821B1 (en) * | 2016-03-25 | 2017-10-17 | Toyota Jidosha Kabushiki Kaisha | Understanding road scene situation and semantic representation of road scene situation for reliable sharing |
US10303166B2 (en) * | 2016-05-23 | 2019-05-28 | nuTonomy Inc. | Supervisory control of vehicles |
CN110291477B (zh) | 2016-12-02 | 2022-08-16 | 嘉蒂克人工智能公司 | 车辆控制系统及使用方法 |
US11620528B2 (en) * | 2018-06-12 | 2023-04-04 | Ciena Corporation | Pattern detection in time-series data |
-
2019
- 2019-11-19 US US16/688,603 patent/US11409285B2/en active Active
- 2019-12-13 WO PCT/US2019/066289 patent/WO2020139587A1/en unknown
- 2019-12-13 JP JP2021537907A patent/JP7438222B2/ja active Active
- 2019-12-13 CN CN201980086165.6A patent/CN113557559A/zh active Pending
- 2019-12-13 EP EP19836881.3A patent/EP3903296A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010086269A (ja) | 2008-09-30 | 2010-04-15 | Mazda Motor Corp | 車両同定装置及びそれを用いた運転支援装置 |
JP2016051465A (ja) | 2014-09-01 | 2016-04-11 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | 衝突後操縦計画を行う方法及びシステム、並びに当該システムを備える車両 |
JP2018055141A (ja) | 2016-09-26 | 2018-04-05 | 日立オートモティブシステムズ株式会社 | 移動体軌道予測システム |
Also Published As
Publication number | Publication date |
---|---|
EP3903296A1 (en) | 2021-11-03 |
WO2020139587A1 (en) | 2020-07-02 |
US20200209860A1 (en) | 2020-07-02 |
US11409285B2 (en) | 2022-08-09 |
JP2022516857A (ja) | 2022-03-03 |
CN113557559A (zh) | 2021-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7438222B2 (ja) | 交通参加者の運転マヌーバ予測のための方法 | |
US11703876B2 (en) | Autonomous driving system | |
CN108885836B (zh) | 驾驶辅助装置、系统、方法、控制装置、车辆及介质 | |
JP4420011B2 (ja) | 物体検知装置 | |
US8615109B2 (en) | Moving object trajectory estimating device | |
JP6468261B2 (ja) | 自動運転システム | |
CN109841088B (zh) | 车辆驾驶辅助系统及方法 | |
JP2018106676A (ja) | 情報処理装置、被操作車両、情報処理方法及びプログラム | |
CN108447302A (zh) | 信息处理装置以及程序 | |
CN104925055A (zh) | 用于检测车辆周围区域中的移动物体的方法和装置 | |
EP3882100B1 (en) | Method for operating an autonomous driving vehicle | |
JP2009009209A (ja) | 画像認識装置および画像認識処理方法 | |
JP2018133072A (ja) | 情報処理装置およびプログラム | |
JP2018063476A (ja) | 運転支援装置、運転支援方法及び運転支援用コンピュータプログラム | |
CN112046481B (zh) | 自动驾驶装置和方法 | |
JP2018173816A (ja) | 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム、運転支援システム | |
JP7035204B2 (ja) | 車両制御装置、自動運転車開発システム、車両制御方法、およびプログラム | |
JP6910254B2 (ja) | 運転支援表示方法及び運転支援表示装置 | |
WO2020255751A1 (ja) | 自動運転システム | |
JP6804268B2 (ja) | 駐車制御装置の姿勢推定方法、及び姿勢推定装置 | |
US11851088B2 (en) | Method for determining capability boundary and associated risk of a safety redundancy autonomous system in real-time | |
US20210255330A1 (en) | Method for selecting an image detail of a sensor | |
CN114930423A (zh) | 感测系统 | |
JP6330868B2 (ja) | 車両制御装置 | |
WO2023149003A1 (ja) | 車両制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210806 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230228 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7438222 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |