JP7340046B2 - 緊急車両の音声および視覚の検出を融合した機械学習モデル - Google Patents
緊急車両の音声および視覚の検出を融合した機械学習モデル Download PDFInfo
- Publication number
- JP7340046B2 JP7340046B2 JP2022004009A JP2022004009A JP7340046B2 JP 7340046 B2 JP7340046 B2 JP 7340046B2 JP 2022004009 A JP2022004009 A JP 2022004009A JP 2022004009 A JP2022004009 A JP 2022004009A JP 7340046 B2 JP7340046 B2 JP 7340046B2
- Authority
- JP
- Japan
- Prior art keywords
- feature vector
- autonomous vehicle
- vehicle
- neural network
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title description 22
- 238000001514 detection method Methods 0.000 title description 15
- 238000010801 machine learning Methods 0.000 title description 5
- 239000013598 vector Substances 0.000 claims description 173
- 230000005236 sound signal Effects 0.000 claims description 49
- 238000003062 neural network model Methods 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 34
- 238000012545 processing Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 230000001052 transient effect Effects 0.000 claims 1
- 230000008569 process Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000002085 persistent effect Effects 0.000 description 5
- 238000002379 ultrasonic velocimetry Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000003491 array Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000007405 data analysis Methods 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000005267 amalgamation Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000009429 electrical wiring Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096708—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
- G08G1/096725—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
- B60W60/0016—Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W10/00—Conjoint control of vehicle sub-units of different type or different function
- B60W10/18—Conjoint control of vehicle sub-units of different type or different function including control of braking systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0025—Planning or execution of driving tasks specially adapted for specific operations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/0104—Measuring and analyzing of parameters relative to traffic conditions
- G08G1/0125—Traffic data processing
- G08G1/0133—Traffic data processing for classifying traffic situation
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/04—Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0965—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages responding to signals from another vehicle, e.g. emergency vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096766—Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/123—Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
- G08G1/133—Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams within the vehicle ; Indicators inside the vehicles or at stops
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/326—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for microphones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0028—Mathematical models, e.g. for simulation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4044—Direction of movement, e.g. backwards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Automation & Control Theory (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Atmospheric Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Analytical Chemistry (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Combustion & Propulsion (AREA)
- Otolaryngology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Traffic Control Systems (AREA)
Description
より具体的に、本開示の実施形態は、緊急車両の検出のための複数のソースからのセンサーデータの融合に関する。
従って、ADVが走行する際には、ADV周囲環境で緊急車両を正確に検出することが不可欠であり、ADVを不必要に停止する必要はない。
このような方法は、複数のソースからの情報を融合させる必要がある。
前記方法は、前記自律走行車の自律走行システムで音声信号ストリームおよび画像フレームシーケンスを受信し、
前記音声信号ストリームは、前記自律走行車の周囲環境から前記自律走行車に取り付けられた一つまたは複数の音声キャプチャデバイスによってキャプチャされ、
前記画像フレームシーケンスは、前記自律走行車に取り付けられた一つまたは複数の画像キャプチャデバイスを使用して、
前記自律走行車の周囲環境からキャプチャされるステップと、
前記自律走行システムによって、キャプチャされた音声信号ストリームから第1の特徴ベクトルを抽出し、キャプチャされた画像フレームシーケンスから第2の特徴ベクトルを抽出するステップと、
前記自律走行システムによって、
前記第1の特徴ベクトルと前記第2の特徴ベクトルとを連結して、連結特徴ベクトルを構築するステップと、及び前記連結特徴ベクトルに基づいて、第1のニューラルネットワークモデルを使用する前記自律走行システムによって、
前記自律走行車の周囲環境に緊急車両が存在することを決定するステップ、とを含み、
前記第1の特徴ベクトルを抽出するステップは、
第2のニューラルネットワークモデルを使用して、キャプチャされた音声信号ストリームから第3の特徴ベクトルを抽出する、ステップであって、前記第3の特徴ベクトルは、基本的な音声特徴ベクトルである、ステップと、
第3のニューラルネットワークモデルを使用して、キャプチャされた音声信号ストリームから第4の特徴ベクトルを抽出する、ステップであって、前記第4の特徴ベクトルは、Mel周波数ケプストラム係数(MFCC)の特徴ベクトルである、ステップと、及び
前記第3の特徴ベクトルと前記第4の特徴ベクトルとを連結して単一の特徴ベクトルを形成するステップを含む。
前記命令がプロセッサによって実行される場合、
前記プロセッサが自律走行車(ADV)を操作させる操作を実行し、
前記操作は、前記自律走行車の自律走行システムで音声信号ストリームおよび画像フレームシーケンスを受信する、ことであって、
前記音声信号ストリームは、前記自律走行車の周囲環境から前記自律走行車に取り付けられた一つまたは複数の音声キャプチャデバイスによってキャプチャされたものであり、
前記画像フレームシーケンスは、前記自律走行車に取り付けられた一つまたは複数の画像キャプチャデバイスを使用して、前記自律走行車の周囲環境からキャプチャされるものである、ことと、
前記自律走行システムがキャプチャされた音声信号ストリームから第1の特徴ベクトルを抽出し、キャプチャされた画像フレームシーケンスから第2の特徴ベクトルを抽出する、ことと、
前記自律走行システムが前記第1の特徴ベクトルと前記第2の特徴ベクトルとを連結して、連結特徴ベクトルを構築することと、
前記連結特徴ベクトルに基づいて、前記自律走行システムによって第1のニューラルネットワークモデルを使用して、前記自律走行車の周囲環境に緊急車両が存在することを決定することを含み、
前記第1の特徴ベクトルを抽出することは、
第2のニューラルネットワークモデルを使用して、キャプチャされた音声信号ストリームから第3の特徴ベクトルを抽出する、ことであって、前記第3の特徴ベクトルは、基本的な音声特徴ベクトルである、ことと、
第3のニューラルネットワークモデルを使用して、キャプチャされた音声信号ストリームから第4の特徴ベクトルを抽出する、ことであって、前記第4の特徴ベクトルは、Mel周波数ケプストラム係数(MFCC)の特徴ベクトルである、ことと、及び
前記第3の特徴ベクトルと前記第4の特徴ベクトルとを連結して単一の特徴ベクトルを形成することを含む、非一時的な機械可読媒体を提供する。
前記命令が前記プロセッサによって実行される場合、
前記プロセッサが自律走行車(ADV)を操作させる操作を実行するメモリと、を備えるデータ処理システムであって、
前記操作は、前記自律走行車の自律走行システムで音声信号ストリームおよび画像フレームシーケンスを受信する、ことであって、
前記音声信号ストリームは、前記自律走行車の周囲環境から前記自律走行車に取り付けられた一つまたは複数の音声キャプチャデバイスによってキャプチャされたものであり、
前記画像フレームシーケンスは、前記自律走行車に取り付けられた一つまたは複数の画像キャプチャデバイスを使用して、前記自律走行車の周囲環境からキャプチャされるものである、ことと、
前記自律走行システムがキャプチャされた音声信号ストリームから第1の特徴ベクトルを抽出し、キャプチャされた画像フレームシーケンスから第2の特徴ベクトルを抽出することと、
前記自律走行システムが前記第1の特徴ベクトルと前記第2の特徴ベクトルとを連結して、連結特徴ベクトルを構築することと、及び前記連結特徴ベクトルに基づいて、
前記自律走行システムによって第1のニューラルネットワークモデルを使用して、
前記自律走行車の周囲環境に緊急車両が存在することを決定することを含み、
前記第1の特徴ベクトルを抽出することは、
第2のニューラルネットワークモデルを使用して、キャプチャされた音声信号ストリームから第3の特徴ベクトルを抽出する、ことであって、前記第3の特徴ベクトルは、基本的な音声特徴ベクトルである、ことと、
第3のニューラルネットワークモデルを使用して、キャプチャされた音声信号ストリームから第4の特徴ベクトルを抽出する、ことであって、前記第4の特徴ベクトルは、Mel周波数ケプストラム係数(MFCC)の特徴ベクトルである、ことと、及び
前記第3の特徴ベクトルと前記第4の特徴ベクトルとを連結して単一の特徴ベクトルを形成することを含む、データ処理システムを提供する。
以下の説明および図面は、本開示の説明であり、本開示を限定するものとして解釈されるべきでない。
しかしながら、場合によっては、本開示の実施形態の簡潔な議論を提供するために、周知のまたは従来の詳細を説明していない。
様々な実施形態によれば、自律走行車(ADV)を操作するシステム、方法および媒体を説明する。
これらの実施形態は、システムの請求項として実行されることもできる。
図1は、本開示の一実施形態による自律走行ネットワーク構成を示すブロック図である。
このようなADVは、センサーシステムを含むことができ、当該センサーシステムは、車両の動作環境に関連する情報を検出するように構成された一つまたは複数のセンサーを含むことができる。
これは、元々自動車の電気配線を多重化するために設計されたメッセージベースのプロトコルであるが、他の多くの環境でも使用される。
他のシステムコンポーネントに加えて、LIDARユニット215は、一つまたは複数のレーザーソース、レーザースキャナーおよび一つまたは複数の検出器を含むことができる。
場合によっては、スロットルセンサーおよびブレーキセンサーは、統合されたスロットル/ブレーキセンサーとして統合されることができる。
感知は、車線構成、信号機、別の車両の相対位置、歩行者、建物、横断歩道またはその他の交通関連標識(例えば、一時停止標識、降伏標識)等を、例えばオブジェクトの形態で含むことができる。
永続記憶装置352は、プロファイルテーブル313を含んでもよい。
代わりに、計画モジュール305は、具体的な速度、方向および/またはステアリング角等を指定することができる。
各計画期間について、計画モジュール305は、前のサイクルに計画されたターゲット位置に基づいて、現在の期間(例えば、次の5秒)のターゲット位置を計画する。
決定モジュール304/計画モジュール305は、ナビゲーションシステムまたはナビゲーションシステムの機能を含んで、ADVの運転パス(path)を確定することができる。
図4は、一実施形態による緊急車両検出システム400の例を示す。
マイクロフォンは、ADV上の固定された既知の位置でマイクロフォンアレイを形成することができ、マイクロフォンアレイは、ADV101の周囲の様々な方向の音を感知するように配置される。
異なる中小レベルの特徴を数値アレイのブロックから抽出して、音声特徴ベクトル411を形成することができる。
しかしながら、画像フレームをCNNの各層を介して順方向に伝播して出力層に到達させる代わりに、CNNは、事前に指定された層(例えば、活性化またはプーリング層)で伝播を停止し、視覚特徴ベクトル417として事前に指定された層で値を抽出することができる。
ADV101を表す線は、ADV101の走行方向に沿ってADV101を通過する線であり得る。
より具体的には、図5は、音声サブモジュール407を詳細に示す。
スペクトログラムは、時間の経過に伴う信号周波数の周波数スペクトルを直感的に表したものである。
上記に示され、説明されたコンポーネントの一部または全部は、ソフトウェア、ハードウェアまたはその組み合わせで実装されることができることに留意したい。
前述の詳細な説明の一部は、コンピューターメモリ内のデータビットに対する操作のアルゴリズムおよび記号表現に基づいて提示される。
しかしながら、これらおよび類似の用語のすべては、適切な物理量に関連付けられるべきであり、これらの量に適用される単なる便利なラベルであることに留意したい。
従って、本明細書および図面は、限定的な意味ではなく例示的な意味で見なされるべきである。
Claims (20)
- 自律走行車を操作するためのコンピューター実装方法であって、
前記自律走行車の自律走行システムで音声信号ストリームおよび画像フレームシーケンスを受信する、ステップであって、前記音声信号ストリームは、前記自律走行車の周囲環境から前記自律走行車に取り付けられた一つまたは複数の音声キャプチャデバイスによってキャプチャされたものであり、前記画像フレームシーケンスは、前記自律走行車に取り付けられた一つまたは複数の画像キャプチャデバイスを使用して、前記自律走行車の周囲環境からキャプチャされるものである、ステップと、
前記自律走行システムがキャプチャされた音声信号ストリームから第1の特徴ベクトルを抽出し、キャプチャされた画像フレームシーケンスから第2の特徴ベクトルを抽出するステップと、
前記自律走行システムが前記第1の特徴ベクトルと前記第2の特徴ベクトルとを連結して、連結特徴ベクトルを構築するステップと、及び
前記連結特徴ベクトルに基づいて、前記自律走行システムによって第1のニューラルネットワークモデルを使用して、前記自律走行車の周囲環境に緊急車両が存在することを決定するステップ、とを含み、
前記第1の特徴ベクトルを抽出するステップは、
第2のニューラルネットワークモデルを使用して、キャプチャされた音声信号ストリームから第3の特徴ベクトルを抽出する、ステップであって、前記第3の特徴ベクトルは、基本的な音声特徴ベクトルである、ステップと、
第3のニューラルネットワークモデルを使用して、キャプチャされた音声信号ストリームから第4の特徴ベクトルを抽出する、ステップであって、前記第4の特徴ベクトルは、Mel周波数ケプストラム係数(MFCC)の特徴ベクトルである、ステップと、及び
前記第3の特徴ベクトルと前記第4の特徴ベクトルとを連結して単一の特徴ベクトルを形成するステップを含む、コンピューター実装方法。 - 前記第1のニューラルネットワークモデルは、多層パーセプトロン(MLP)ネットワークである
請求項1に記載のコンピューター実装方法。 - 前記第1のニューラルネットワークモデルを使用して、前記緊急車両の位置および前記緊急車両の移動方向を決定するステップをさらに含む
請求項1に記載のコンピューター実装方法。 - 前記自律走行車の周囲環境に緊急車両が存在するとの前記決定に応答して、前記緊急車両の前記位置および前記移動方向に基づいて、現在の走行車線から前記自律走行車を操舵するか、または前記自律走行車をブレーキして減速させることの少なくとも一つを含むように前記自律走行車を制御するステップをさらに含む
請求項3に記載のコンピューター実装方法。 - 第4のニューラルネットワークモデルを使用して、キャプチャされた音声信号ストリームから第5の特徴ベクトルを抽出する、ステップであって、前記第5の特徴ベクトルは、Melヒストグラムの特徴ベクトルである、ステップと、及び
前記第3の特徴ベクトル、前記第4の特徴ベクトルおよび前記第5の特徴ベクトルを連結して前記単一の特徴ベクトルを形成するステップをさらに含む
請求項1に記載のコンピューター実装方法。 - 前記自律走行システムは、畳み込みニューラルネットワークを使用して前記第2の特徴ベクトルを抽出する
請求項1に記載のコンピューター実装方法。 - 前記一つまたは複数の音声キャプチャデバイスは、一つまたは複数のマイクロフォンを含み、前記一つまたは複数の画像キャプチャデバイスは、一つまたは複数のカメラを含む
請求項1に記載のコンピューター実装方法。 - 命令が格納された非一時的な機械可読媒体であって、
前記命令がプロセッサによって実行される場合、前記プロセッサが自律走行車(ADV)を操作させる操作を実行し、
前記操作は、
前記自律走行車の自律走行システムで音声信号ストリームおよび画像フレームシーケンスを受信する、ことであって、前記音声信号ストリームは、前記自律走行車の周囲環境から前記自律走行車に取り付けられた一つまたは複数の音声キャプチャデバイスによってキャプチャされたものであり、前記画像フレームシーケンスは、前記自律走行車に取り付けられた一つまたは複数の画像キャプチャデバイスを使用して、前記自律走行車の周囲環境からキャプチャされるものである、ことと、
前記自律走行システムがキャプチャされた音声信号ストリームから第1の特徴ベクトルを抽出し、キャプチャされた画像フレームシーケンスから第2の特徴ベクトルを抽出することと、
前記自律走行システムが前記第1の特徴ベクトルと前記第2の特徴ベクトルとを連結して、連結特徴ベクトルを構築することと、及び
前記連結特徴ベクトルに基づいて、前記自律走行システムによって第1のニューラルネットワークモデルを使用して、前記自律走行車の周囲環境に緊急車両が存在することを決定することを含み、
前記第1の特徴ベクトルを抽出することは、
第2のニューラルネットワークモデルを使用して、キャプチャされた音声信号ストリームから第3の特徴ベクトルを抽出する、ことであって、前記第3の特徴ベクトルは、基本的な音声特徴ベクトルである、ことと、
第3のニューラルネットワークモデルを使用して、キャプチャされた音声信号ストリームから第4の特徴ベクトルを抽出する、ことであって、前記第4の特徴ベクトルは、Mel周波数ケプストラム係数(MFCC)の特徴ベクトルである、ことと、及び
前記第3の特徴ベクトルと前記第4の特徴ベクトルとを連結して単一の特徴ベクトルを形成することを含む、非一時的な機械可読媒体。 - 前記第1のニューラルネットワークモデルは、多層パーセプトロン(MLP)ネットワークである
請求項8に記載の非一時的な機械可読媒体。 - 前記操作は、
前記第1のニューラルネットワークモデルを使用して、前記緊急車両の位置および前記緊急車両の移動方向を決定することをさらに含む
請求項8に記載の非一時的な機械可読媒体。 - 前記操作は、
前記自律走行車の周囲環境に緊急車両が存在するとの前記決定に応答して、前記緊急車両の前記位置および前記移動方向に基づいて、現在の走行車線から前記自律走行車を操舵するか、または前記自律走行車をブレーキして減速させることの少なくとも一つを含むように前記自律走行車を制御することをさらに含む
請求項10に記載の非一時的な機械可読媒体。 - 前記操作は、
第4のニューラルネットワークモデルを使用して、キャプチャされた音声信号ストリームから第5の特徴ベクトルを抽出する、ことであって、前記第5の特徴ベクトルは、Melヒストグラムの特徴ベクトルである、ことと、及び
前記第3の特徴ベクトル、前記第4の特徴ベクトルおよび前記第5の特徴ベクトルを連結して前記単一の特徴ベクトルを形成することをさらに含む
請求項8に記載の非一時的な機械可読媒体。 - 前記自律走行システムは、畳み込みニューラルネットワークを使用して前記第2の特徴ベクトルを抽出する
請求項8に記載の非一時的な機械可読媒体。 - 前記一つまたは複数の音声キャプチャデバイスは、一つまたは複数のマイクロフォンを含み、前記一つまたは複数の画像キャプチャデバイスは、一つまたは複数のカメラを含む
請求項8に記載の非一時的な機械可読媒体。 - プロセッサと、
命令を格納するために前記プロセッサに接続され、前記命令が前記プロセッサによって実行される場合、前記プロセッサが自律走行車(ADV)を操作させる操作を実行するメモリと、を備えるデータ処理システムであって、
前記操作は、
前記自律走行車の自律走行システムで音声信号ストリームおよび画像フレームシーケンスを受信する、ことであって、前記音声信号ストリームは、前記自律走行車の周囲環境から前記自律走行車に取り付けられた一つまたは複数の音声キャプチャデバイスによってキャプチャされたものであり、前記画像フレームシーケンスは、前記自律走行車に取り付けられた一つまたは複数の画像キャプチャデバイスを使用して、前記自律走行車の周囲環境からキャプチャされるものである、ことと、
前記自律走行システムがキャプチャされた音声信号ストリームから第1の特徴ベクトルを抽出し、キャプチャされた画像フレームシーケンスから第2の特徴ベクトルを抽出することと、
前記自律走行システムが前記第1の特徴ベクトルと前記第2の特徴ベクトルとを連結して、連結特徴ベクトルを構築することと、及び
前記連結特徴ベクトルに基づいて、前記自律走行システムによって第1のニューラルネットワークモデルを使用して、前記自律走行車の周囲環境に緊急車両が存在することを決定することを含み、
前記第1の特徴ベクトルを抽出することは、
第2のニューラルネットワークモデルを使用して、キャプチャされた音声信号ストリームから第3の特徴ベクトルを抽出する、ことであって、前記第3の特徴ベクトルは、基本的な音声特徴ベクトルである、ことと、
第3のニューラルネットワークモデルを使用して、キャプチャされた音声信号ストリームから第4の特徴ベクトルを抽出する、ことであって、前記第4の特徴ベクトルは、Mel周波数ケプストラム係数(MFCC)の特徴ベクトルである、ことと、及び
前記第3の特徴ベクトルと前記第4の特徴ベクトルとを連結して単一の特徴ベクトルを形成することを含む、データ処理システム。 - 前記第1のニューラルネットワークモデルは、多層パーセプトロン(MLP)ネットワークである
請求項15に記載のデータ処理システム。 - 前記操作は、
前記第1のニューラルネットワークモデルを使用して、前記緊急車両の位置および前記緊急車両の移動方向を決定することをさらに含む
請求項15に記載のデータ処理システム。 - 前記操作は、
前記自律走行車の周囲環境に緊急車両が存在するとの前記決定に応答して、前記緊急車両の前記位置および前記移動方向に基づいて、現在の走行車線から前記自律走行車を操舵するか、または前記自律走行車をブレーキして減速させることの少なくとも一つを含むように前記自律走行車を制御することをさらに含む
請求項17に記載のデータ処理システム。 - 前記操作は、
第4のニューラルネットワークモデルを使用して、キャプチャされた音声信号ストリームから第5の特徴ベクトルを抽出する、ことであって、前記第5の特徴ベクトルは、Melヒストグラムの特徴ベクトルである、ことと、及び
前前記第3の特徴ベクトル、前記第4の特徴ベクトルおよび前記第5の特徴ベクトルを連結して前記単一の特徴ベクトルを形成することをさらに含む
請求項15に記載のデータ処理システム。 - コンピュータープログラムであって、
前記コンピュータープログラムがプロセッサにより実行されると、請求項1ないし請求項7のいずれか一項に記載のコンピューター実装方法を実現させるコンピュータープログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/149,659 | 2021-01-14 | ||
US17/149,659 US11620903B2 (en) | 2021-01-14 | 2021-01-14 | Machine learning model to fuse emergency vehicle audio and visual detection |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022048199A JP2022048199A (ja) | 2022-03-25 |
JP7340046B2 true JP7340046B2 (ja) | 2023-09-06 |
Family
ID=78938063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022004009A Active JP7340046B2 (ja) | 2021-01-14 | 2022-01-13 | 緊急車両の音声および視覚の検出を融合した機械学習モデル |
Country Status (5)
Country | Link |
---|---|
US (1) | US11620903B2 (ja) |
EP (1) | EP3965066B1 (ja) |
JP (1) | JP7340046B2 (ja) |
KR (1) | KR20220058492A (ja) |
CN (1) | CN113799789A (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3988417A1 (en) * | 2020-10-23 | 2022-04-27 | Tusimple, Inc. | Safe driving operations of autonomous vehicles |
US11620903B2 (en) * | 2021-01-14 | 2023-04-04 | Baidu Usa Llc | Machine learning model to fuse emergency vehicle audio and visual detection |
EP4298547A1 (en) * | 2021-05-21 | 2024-01-03 | Google LLC | Machine-learned language models which generate intermediate textual analysis in service of contextual text generation |
US20230339394A1 (en) * | 2022-04-22 | 2023-10-26 | Velo.Ai, Inc | Artificially intelligent mobility safety system |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180137756A1 (en) | 2016-11-17 | 2018-05-17 | Ford Global Technologies, Llc | Detecting and responding to emergency vehicles in a roadway |
JP2022096601A (ja) | 2020-12-17 | 2022-06-29 | インテル・コーポレーション | 車両のオーディオ‐ビジュアルおよび協調的認識 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7245767B2 (en) * | 2003-08-21 | 2007-07-17 | Hewlett-Packard Development Company, L.P. | Method and apparatus for object identification, classification or verification |
US10417498B2 (en) * | 2016-12-30 | 2019-09-17 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for multi-modal fusion model |
US10394239B2 (en) * | 2017-04-04 | 2019-08-27 | At&T Intellectual Property I, L.P. | Acoustic monitoring system |
US10431082B2 (en) | 2017-06-19 | 2019-10-01 | GM Global Technology Operations LLC | Systems and methods for emergency vehicle response in an autonomous vehicle |
US10319228B2 (en) | 2017-06-27 | 2019-06-11 | Waymo Llc | Detecting and responding to sirens |
US10452923B2 (en) * | 2017-11-28 | 2019-10-22 | Visual Semantics, Inc. | Method and apparatus for integration of detected object identifiers and semantic scene graph networks for captured visual scene behavior estimation |
US20220150068A1 (en) * | 2018-03-07 | 2022-05-12 | Private Identity Llc | System and methods for implementing private identity |
US20220147602A1 (en) * | 2018-03-07 | 2022-05-12 | Private Identity Llc | System and methods for implementing private identity |
US20220147607A1 (en) * | 2018-03-07 | 2022-05-12 | Private Identity Llc | System and methods for implementing private identity |
US11282385B2 (en) * | 2018-04-24 | 2022-03-22 | Qualcomm Incorproated | System and method of object-based navigation |
WO2020073147A1 (en) * | 2018-10-08 | 2020-04-16 | Qualcomm Incorporated | Vehicle entry detection |
US20210358513A1 (en) * | 2018-10-26 | 2021-11-18 | Nec Corporation | A source separation device, a method for a source separation device, and a non-transitory computer readable medium |
US11379519B2 (en) * | 2018-12-07 | 2022-07-05 | Seoul National University R&Db Foundation | Query response device and method |
CN111401100B (zh) * | 2018-12-28 | 2021-02-09 | 广州市百果园信息技术有限公司 | 视频质量评估方法、装置、设备及存储介质 |
WO2020163970A1 (en) * | 2019-02-15 | 2020-08-20 | Surgical Safety Technologies Inc. | System and method for adverse event detection or severity estimation from surgical data |
CN111836111A (zh) * | 2019-04-17 | 2020-10-27 | 微软技术许可有限责任公司 | 生成弹幕的技术 |
US11501532B2 (en) * | 2019-04-25 | 2022-11-15 | International Business Machines Corporation | Audiovisual source separation and localization using generative adversarial networks |
WO2020256471A1 (ko) * | 2019-06-21 | 2020-12-24 | 주식회사 머니브레인 | 머신 러닝 기반의 발화 동영상 생성 방법 및 장치 |
WO2020256475A1 (ko) * | 2019-06-21 | 2020-12-24 | 주식회사 머니브레인 | 텍스트를 이용한 발화 동영상 생성 방법 및 장치 |
US11120566B2 (en) * | 2019-06-28 | 2021-09-14 | Baidu Usa Llc | Determining vanishing points based on feature maps |
US11635299B2 (en) * | 2020-02-06 | 2023-04-25 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for scene-aware interaction |
US20220292809A1 (en) * | 2020-03-17 | 2022-09-15 | Samsung Electronics Co., Ltd. | Methods and systems for grouping of media based on similarities between features of the media |
KR102437039B1 (ko) * | 2020-07-02 | 2022-08-26 | 주식회사 딥브레인에이아이 | 영상 생성을 위한 학습 장치 및 방법 |
US20220093094A1 (en) * | 2020-09-21 | 2022-03-24 | Amazon Technologies, Inc. | Dialog management for multiple users |
US20220121868A1 (en) * | 2020-10-16 | 2022-04-21 | Pindrop Security, Inc. | Audiovisual deepfake detection |
US11620903B2 (en) * | 2021-01-14 | 2023-04-04 | Baidu Usa Llc | Machine learning model to fuse emergency vehicle audio and visual detection |
-
2021
- 2021-01-14 US US17/149,659 patent/US11620903B2/en active Active
- 2021-11-02 CN CN202111286978.5A patent/CN113799789A/zh active Pending
-
2022
- 2022-01-10 EP EP22150787.4A patent/EP3965066B1/en active Active
- 2022-01-13 KR KR1020220005406A patent/KR20220058492A/ko not_active Application Discontinuation
- 2022-01-13 JP JP2022004009A patent/JP7340046B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180137756A1 (en) | 2016-11-17 | 2018-05-17 | Ford Global Technologies, Llc | Detecting and responding to emergency vehicles in a roadway |
JP2022096601A (ja) | 2020-12-17 | 2022-06-29 | インテル・コーポレーション | 車両のオーディオ‐ビジュアルおよび協調的認識 |
Also Published As
Publication number | Publication date |
---|---|
EP3965066A2 (en) | 2022-03-09 |
EP3965066A3 (en) | 2022-06-22 |
CN113799789A (zh) | 2021-12-17 |
US11620903B2 (en) | 2023-04-04 |
KR20220058492A (ko) | 2022-05-09 |
US20220223037A1 (en) | 2022-07-14 |
JP2022048199A (ja) | 2022-03-25 |
EP3965066B1 (en) | 2024-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7340046B2 (ja) | 緊急車両の音声および視覚の検出を融合した機械学習モデル | |
KR102607029B1 (ko) | 긴급 차량의 오디오 및 시각적 검출의 사후 융합 | |
US11372417B2 (en) | Method for predicting exiting intersection of moving obstacles for autonomous driving vehicles | |
CN112793584B (zh) | 紧急车辆音频检测 | |
KR102599790B1 (ko) | 자율 주행 차량을 이용하는 모델 트레이닝 및 온보드 검증을 위한 오디오 로깅 | |
KR102359497B1 (ko) | 단일 차량 동작용으로 설계된 자율 주행 시스템에 따른 차량 플래툰 구현 | |
WO2021147070A1 (en) | A feedback based real time steering calibration system | |
EP3998609A2 (en) | Automatic audio data labelling utilizing autonomous driving vehicle | |
CN113442945A (zh) | 用于自动驾驶车辆的使用反馈的增量式侧向控制系统 | |
US11535277B2 (en) | Dual buffer system to ensure a stable nudge for autonomous driving vehicles | |
KR102597917B1 (ko) | 자율 주행 차량을 위한 음원 검출 및 위치 측정 | |
CN113753071A (zh) | 预防减速规划 | |
US11453404B2 (en) | Gear based vehicle load inference system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230221 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230523 |
|
A603 | Late request for extension of time limit during examination |
Free format text: JAPANESE INTERMEDIATE CODE: A603 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230627 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230825 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7340046 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |