JP2022500762A - 動的空間シナリオの分析 - Google Patents
動的空間シナリオの分析 Download PDFInfo
- Publication number
- JP2022500762A JP2022500762A JP2021514045A JP2021514045A JP2022500762A JP 2022500762 A JP2022500762 A JP 2022500762A JP 2021514045 A JP2021514045 A JP 2021514045A JP 2021514045 A JP2021514045 A JP 2021514045A JP 2022500762 A JP2022500762 A JP 2022500762A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- sensor data
- self
- depiction
- scenario
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004458 analytical method Methods 0.000 title abstract description 11
- 238000013528 artificial neural network Methods 0.000 claims abstract description 50
- 238000000034 method Methods 0.000 claims abstract description 44
- 238000012545 processing Methods 0.000 claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 17
- 230000002123 temporal effect Effects 0.000 abstract description 4
- 230000000875 corresponding effect Effects 0.000 description 19
- 230000033001 locomotion Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000013459 approach Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 4
- 230000001276 controlling effect Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000011157 data evaluation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/20—Conjoint control of vehicle sub-units of different type or different function including control of steering systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
- G06V10/426—Graphical representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Combustion & Propulsion (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Chemical & Material Sciences (AREA)
- Biomedical Technology (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
2 特定モジュール
3 作成モジュール
4 インターフェース
5 データバンク
6 比較モジュール
10 動的空間シナリオ
11 自己オブジェクト
11a 自車
12 他車
12a 第1の車両
12b 第2の車両
12c 第3の車両
13 輪郭
20 描写
100 データ処理のためのシステム
200 人工ニューラルネットワークの訓練のためのシステム
300 センサデータの分析のためのシステム
Φ 角度セクタ
φ 角度セクタの位置
S センサデータ
y 移動方向
d 間隔
a 出力信号
V1 データ処理のための方法
V2 人工ニューラルネットワークの訓練のための方法
V3 センサデータの分析のための方法
S1−S6 方法ステップ
Claims (11)
- 人工ニューラルネットワーク(1)による処理のための動的空間シナリオ(10)である交通シナリオのデータ処理のための方法(V1)であって、自己オブジェクト(11)、特に自車(11a)の視点から、他のオブジェクト(12)、特に他車(12a、12b、12c)によって覆われる角度セクタ(Φ)の経時的変化の描写(20)を作成するステップ(S3)を具備し、前記経時的変化は、センサデータ(S)から特定されており(S2)、前記センサデータ(S)は、前記動的空間シナリオ(10)を、前記自己オブジェクト(11)及び少なくとも1つの前記他のオブジェクト(12)に関して特徴付けることを特徴とする方法(V1)。
- 前記描写が、前記人工ニューラルネットワーク(1)に出力されるか、又は、前記人工ニューラルネットワーク(1)による処理のために供給される、請求項1に記載の方法(V1)。
- センサデータ(S)に基づいて人工ニューラルネットワーク(1)を訓練するためのコンピュータ支援による方法(V2)であって、前記センサデータは、既知の動的空間シナリオ(10)を、自己オブジェクト(11)と少なくとも1つの他のオブジェクト(12)とに関して特徴付けるために適しており、前記自己オブジェクト(11)、特に自車(11a)の視点から、前記他のオブジェクト(12)、特に他車(12a、12b、12c)によって覆われている角度セクタ(Φ)の経時的変化の描写(20)は、前記センサデータ(S)に基づいて作成され(S3)、作成された前記描写(20)は、空間シナリオ(10)に関する情報と共に、前記人工ニューラルネットワーク(1)に供給される(S4)、コンピュータ支援による方法(V2)。
- センサデータ(S)を分析するためのコンピュータ支援による方法(V3)であって、前記センサデータは、動的空間シナリオ(10)を、自己オブジェクト(11)と少なくとも1つの他のオブジェクト(12)とに関して特徴付けるために適しており、前記自己オブジェクト(11)、特に自車(11a)の視点から、前記他のオブジェクト(12)、特に他車(12a、12b、12c)によって覆われている角度セクタ(Φ)の経時的変化の描写(20)は、前記センサデータ(S)に基づいて作成され(S3)、作成された前記描写(20)は、既知の動的空間シナリオ(10)の少なくとも1つの所定のパターンと比較される(S5)、コンピュータ支援による方法(V3)。
- 前記動的空間シナリオ(10)が、比較に基づいて分類される、請求項4に記載の方法(V3)。
- 作成された前記描写(20)を、既知の動的空間シナリオ(10)の少なくとも1つの所定のパターンに割り当てることができない場合、新しい動的空間シナリオ(10)に関してパターンが決定される(S6)、請求項4に記載の方法(V3)。
- 作成された前記描写(20)がさらに、前記自己オブジェクト(11)と前記他のオブジェクト(12)との間隔(d)、及び/又は、前記自己オブジェクト(11)の速度を表現しており、前記間隔(d)及び/又は前記速度は、同様に前記センサデータ(S)から特定されている、請求項1から6のいずれか一項に記載の方法(V3)。
- 前記角度セクタ(Φ)の経時的変化が、幅がそれぞれ存在する前記角度セクタ(Φ)の値を表している線によって示され、並びに/又は、前記自己オブジェクト(11)と前記他のオブジェクト(12)との間隔(d)、及び/若しくは、前記自己オブジェクト(11)の速度が、格納された値、若しくは、前記間隔(d)及び/若しくは前記速度の存在する時点に対応する線上のその時々の位置の着色によって表される、請求項1から7のいずれか一項に記載の方法(V3)。
- 人工ニューラルネットワーク(1)による処理のための動的空間シナリオ(10)、特に交通シナリオのデータ処理のためのシステム(100)であって、
−自己オブジェクト(11)、特に自車(11a)の視点から、他のオブジェクト(12)、特に他車(12a、12b、12c)によって覆われる角度セクタ(Φ)の経時的変化を、センサデータ(S)から特定するように設定されており、前記センサデータ(S)は、動的空間シナリオ(10)を、前記自己オブジェクト(11)及び少なくとも1つの前記他のオブジェクト(12)に関して特徴付けるために適している特定モジュール(2)、及び、
−特定された前記経時的変化の描写(20)を作成するように設定された作成モジュール(3)、
を有するシステム(100)。 - センサデータ(S)に基づいて人工ニューラルネットワーク(1)を訓練するためのシステム(200)であって、前記センサデータは、既知の動的空間シナリオ(10)を、自己オブジェクト(11)と少なくとも1つの他のオブジェクト(12)とに関して特徴付けるために適しており、
−自己オブジェクト(11)、特に自車(11a)の視点から、他のオブジェクト(12)、特に他車(12a、12b、12c)によって覆われている角度セクタ(Φ)の経時的変化の描写(20)を、センサデータ(S)に基づいて作成するように設定されている作成モジュール(3)、及び、
−作成された前記描写(20)を、空間シナリオ(10)に関する情報と共に、前記人工ニューラルネットワーク(1)に供給するように設定されたインターフェース(4)、
を有するシステム(200)。 - センサデータ(S)を分析するためのシステム(300)であって、前記センサデータは、動的空間シナリオ(10)を、自己オブジェクト(11)と少なくとも1つの他のオブジェクト(12)とに関して特徴付けるために適しており、
−自己オブジェクト(11)、特に自車(11a)の視点から、他のオブジェクト(12)、特に他車(12a、12b、12c)によって覆われている角度セクタ(Φ)の経時的変化の描写(20)を、センサデータ(S)に基づいて作成するように設定されている作成モジュール(3)、及び、
−作成された前記描写(20)を、既知の動的空間シナリオ(10)の少なくとも1つの所定のパターンと比較するように設定された比較モジュール(6)、
を有するシステム(300)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ATA50788/2018 | 2018-09-14 | ||
ATA50788/2018A AT521647B1 (de) | 2018-09-14 | 2018-09-14 | Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten |
PCT/AT2019/060301 WO2020051618A1 (de) | 2018-09-14 | 2019-09-13 | Analyse dynamisscher räumlicher szenarien |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022500762A true JP2022500762A (ja) | 2022-01-04 |
Family
ID=68062777
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021514045A Pending JP2022500762A (ja) | 2018-09-14 | 2019-09-13 | 動的空間シナリオの分析 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20220237889A1 (ja) |
EP (1) | EP3850536A1 (ja) |
JP (1) | JP2022500762A (ja) |
KR (1) | KR20210060535A (ja) |
CN (1) | CN112673379A (ja) |
AT (1) | AT521647B1 (ja) |
WO (1) | WO2020051618A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102592826B1 (ko) * | 2018-10-10 | 2023-10-23 | 현대자동차주식회사 | 근거리 끼어들기 차량 판단 장치 및 그의 판단 방법과 그를 이용하는 차량 |
DE102021100395A1 (de) * | 2021-01-12 | 2022-07-14 | Dspace Gmbh | Computerimplementiertes Verfahren zur Bestimmung von Ähnlichkeitswerten von Verkehrsszenarien |
WO2023087248A1 (zh) * | 2021-11-19 | 2023-05-25 | 华为技术有限公司 | 一种信息处理方法及装置 |
DE102022126747A1 (de) | 2022-10-13 | 2024-04-18 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren zu einer Generierung von Szenariomodellen bei autonomen Fahrvorgängen |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0765294A (ja) * | 1993-08-23 | 1995-03-10 | Mitsubishi Electric Corp | 車両用予防安全装置 |
JPH09145833A (ja) * | 1995-11-24 | 1997-06-06 | Toyota Motor Corp | 車載用走査レーダ装置 |
JPH10338057A (ja) * | 1997-06-10 | 1998-12-22 | Hitachi Ltd | 自動車の自動走行制御装置および車間距離警報装置 |
WO2003019233A1 (de) * | 2001-08-20 | 2003-03-06 | Siemens Aktiengesellschaft | Vorrichtung zur erkennung eines hindernisses |
JP2011221005A (ja) * | 2010-03-26 | 2011-11-04 | Denso Corp | 区画線検出装置および区画線検出方法 |
JP2018092505A (ja) * | 2016-12-07 | 2018-06-14 | スズキ株式会社 | 運転支援装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102307774A (zh) * | 2009-02-03 | 2012-01-04 | 大陆-特韦斯贸易合伙股份公司及两合公司 | 用于实施避让行动的方法和装置 |
CN103530605B (zh) * | 2013-09-29 | 2017-01-25 | 数基科技(北京)有限公司 | 一种鲁棒的异常行为检测方法 |
DE102014213359A1 (de) * | 2014-07-09 | 2016-01-14 | Robert Bosch Gmbh | Vorrichtung und Verfahren zur akustischen Untersuchung von Umgebungsobjekten eines Fortbewegungsmittels |
SE1551370A1 (sv) * | 2015-10-22 | 2017-02-07 | Uniquesec Ab | Testing method with virtual radar signatures for an automotive safety radar system |
US11144761B2 (en) * | 2016-04-04 | 2021-10-12 | Xerox Corporation | Deep data association for online multi-class multi-object tracking |
US10664750B2 (en) * | 2016-08-10 | 2020-05-26 | Google Llc | Deep machine learning to predict and prevent adverse conditions at structural assets |
US10497143B2 (en) * | 2016-11-14 | 2019-12-03 | Nec Corporation | Advanced driver-assistance system using accurate object proposals by tracking detections |
KR20180068511A (ko) * | 2016-12-14 | 2018-06-22 | 삼성전자주식회사 | 영상에 포함된 도로와 관련된 정보를 결정하는 뉴럴 네트워크를 학습시키는 학습 데이터를 생성하는 장치 및 방법 |
US10228693B2 (en) * | 2017-01-13 | 2019-03-12 | Ford Global Technologies, Llc | Generating simulated sensor data for training and validation of detection models |
US10402163B2 (en) * | 2017-02-14 | 2019-09-03 | Accenture Global Solutions Limited | Intelligent data extraction |
WO2019241022A1 (en) * | 2018-06-13 | 2019-12-19 | Nvidia Corporation | Path detection for autonomous machines using deep neural networks |
-
2018
- 2018-09-14 AT ATA50788/2018A patent/AT521647B1/de active
-
2019
- 2019-09-13 KR KR1020217010955A patent/KR20210060535A/ko unknown
- 2019-09-13 US US17/275,810 patent/US20220237889A1/en active Pending
- 2019-09-13 JP JP2021514045A patent/JP2022500762A/ja active Pending
- 2019-09-13 CN CN201980060057.1A patent/CN112673379A/zh active Pending
- 2019-09-13 EP EP19773727.3A patent/EP3850536A1/de active Pending
- 2019-09-13 WO PCT/AT2019/060301 patent/WO2020051618A1/de unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0765294A (ja) * | 1993-08-23 | 1995-03-10 | Mitsubishi Electric Corp | 車両用予防安全装置 |
JPH09145833A (ja) * | 1995-11-24 | 1997-06-06 | Toyota Motor Corp | 車載用走査レーダ装置 |
JPH10338057A (ja) * | 1997-06-10 | 1998-12-22 | Hitachi Ltd | 自動車の自動走行制御装置および車間距離警報装置 |
WO2003019233A1 (de) * | 2001-08-20 | 2003-03-06 | Siemens Aktiengesellschaft | Vorrichtung zur erkennung eines hindernisses |
JP2011221005A (ja) * | 2010-03-26 | 2011-11-04 | Denso Corp | 区画線検出装置および区画線検出方法 |
JP2018092505A (ja) * | 2016-12-07 | 2018-06-14 | スズキ株式会社 | 運転支援装置 |
Non-Patent Citations (1)
Title |
---|
JOSEPH E. BARTON ET AL.: ""Towards a Complete Human Driver Model: The Effect of Vision on Driving Performance"", PROCEEDINGS OF THE 2006 AMERICAN CONTROL CONFERENCE, JPN6023022641, 14 June 2006 (2006-06-14), US, pages 2591 - 2598, XP010929249, ISSN: 0005075160, DOI: 10.1109/ACC.2006.1656613 * |
Also Published As
Publication number | Publication date |
---|---|
AT521647A1 (de) | 2020-03-15 |
KR20210060535A (ko) | 2021-05-26 |
AT521647B1 (de) | 2020-09-15 |
WO2020051618A1 (de) | 2020-03-19 |
CN112673379A (zh) | 2021-04-16 |
US20220237889A1 (en) | 2022-07-28 |
EP3850536A1 (de) | 2021-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bachute et al. | Autonomous driving architectures: insights of machine learning and deep learning algorithms | |
JP2022500762A (ja) | 動的空間シナリオの分析 | |
Chen et al. | Deepdriving: Learning affordance for direct perception in autonomous driving | |
JP6591842B2 (ja) | 意味付け交通空間についての適合型射線ベースのシーン分析を行うための方法及びシステム、並びにそのようなシステムを備える車両 | |
JP6800575B2 (ja) | 自己の乗り物のドライバを支援する方法およびシステム | |
Belbachir et al. | Simulation-driven validation of advanced driving-assistance systems | |
Cheung et al. | Identifying driver behaviors using trajectory features for vehicle navigation | |
US11501449B2 (en) | Method for the assessment of possible trajectories | |
WO2018162933A1 (en) | Improved object recognition system | |
JPWO2021007106A5 (ja) | ||
KR20180048407A (ko) | 차선 검출 장치 및 방법 | |
CN111178286B (zh) | 姿态轨迹预测方法、装置及电子设备 | |
US11645360B2 (en) | Neural network image processing | |
CN111971725B (zh) | 用于确定车辆的变道说明的方法、可读存储介质以及车辆 | |
JP2021082286A (ja) | 車線変更の検出を改良するためのシステム、非一時的コンピュータ可読媒体および方法 | |
CN116142233A (zh) | 载具灯分类系统 | |
Herman et al. | Pedestrian behavior prediction for automated driving: Requirements, metrics, and relevant features | |
Greer et al. | On salience-sensitive sign classification in autonomous vehicle path planning: Experimental explorations with a novel dataset | |
JP2023540613A (ja) | 運転者支援システムを試験するための方法およびシステム | |
US20220266854A1 (en) | Method for Operating a Driver Assistance System of a Vehicle and Driver Assistance System for a Vehicle | |
EP4224434A1 (en) | Apparatus and method for evaluating a machine learning model used for assisted or autonomous driving of a vehicle | |
Zyner | Naturalistic driver intention and path prediction using machine learning | |
Thal et al. | Clustering-Based Trajectory Prediction of Vehicles Interacting with Vulnerable Road Users | |
US11648962B1 (en) | Safety metric prediction | |
US11651583B2 (en) | Multi-channel object matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220715 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230605 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231106 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231120 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240321 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20240325 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240507 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240527 |