JP2023082647A - Deep learning based operational domain verification using camera-based inputs for autonomous systems and applications - Google Patents
Deep learning based operational domain verification using camera-based inputs for autonomous systems and applications Download PDFInfo
- Publication number
- JP2023082647A JP2023082647A JP2022089329A JP2022089329A JP2023082647A JP 2023082647 A JP2023082647 A JP 2023082647A JP 2022089329 A JP2022089329 A JP 2022089329A JP 2022089329 A JP2022089329 A JP 2022089329A JP 2023082647 A JP2023082647 A JP 2023082647A
- Authority
- JP
- Japan
- Prior art keywords
- level
- data
- camera
- vehicle
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 19
- 238000012795 verification Methods 0.000 title abstract description 4
- 230000006870 function Effects 0.000 claims description 71
- 238000013528 artificial neural network Methods 0.000 claims description 59
- 238000012545 processing Methods 0.000 claims description 57
- 230000033001 locomotion Effects 0.000 claims description 19
- 230000000007 visual effect Effects 0.000 claims description 12
- 238000004088 simulation Methods 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 6
- 230000001149 cognitive effect Effects 0.000 claims description 4
- 238000010801 machine learning Methods 0.000 abstract description 66
- 238000000034 method Methods 0.000 abstract description 62
- 238000013461 design Methods 0.000 abstract description 6
- 201000004569 Blindness Diseases 0.000 abstract description 3
- 238000005286 illumination Methods 0.000 abstract description 3
- 230000015654 memory Effects 0.000 description 57
- 238000013527 convolutional neural network Methods 0.000 description 36
- 238000001514 detection method Methods 0.000 description 34
- 230000004438 eyesight Effects 0.000 description 25
- 230000008569 process Effects 0.000 description 24
- 238000012549 training Methods 0.000 description 24
- 238000004891 communication Methods 0.000 description 23
- 238000003860 storage Methods 0.000 description 22
- 238000004422 calculation algorithm Methods 0.000 description 17
- 238000007726 management method Methods 0.000 description 16
- 230000000670 limiting effect Effects 0.000 description 15
- 230000009471 action Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 238000012800 visualization Methods 0.000 description 12
- 230000001133 acceleration Effects 0.000 description 11
- 230000002093 peripheral effect Effects 0.000 description 11
- 238000011176 pooling Methods 0.000 description 11
- 230000009467 reduction Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 230000008447 perception Effects 0.000 description 8
- 230000003044 adaptive effect Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 7
- 238000013439 planning Methods 0.000 description 7
- 238000007781 pre-processing Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 210000002569 neuron Anatomy 0.000 description 6
- 230000002829 reductive effect Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 5
- 235000019800 disodium phosphate Nutrition 0.000 description 5
- 238000007667 floating Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 241000269400 Sirenidae Species 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000004313 glare Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 125000000914 phenoxymethylpenicillanyl group Chemical group CC1(S[C@H]2N([C@H]1C(=O)*)C([C@H]2NC(COC2=CC=CC=C2)=O)=O)C 0.000 description 4
- 229920002451 polyvinyl alcohol Polymers 0.000 description 4
- 235000019422 polyvinyl alcohol Nutrition 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000013480 data collection Methods 0.000 description 3
- 239000000446 fuel Substances 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 230000014616 translation Effects 0.000 description 3
- 101100175317 Danio rerio gdf6a gene Proteins 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000001816 cooling Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000004043 responsiveness Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 101100248200 Arabidopsis thaliana RGGB gene Proteins 0.000 description 1
- 238000006424 Flood reaction Methods 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 102100030148 Integrator complex subunit 8 Human genes 0.000 description 1
- 101710092891 Integrator complex subunit 8 Proteins 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 206010034960 Photophobia Diseases 0.000 description 1
- 241000700605 Viruses Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001627 detrimental effect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000009365 direct transmission Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005669 field effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000005357 flat glass Substances 0.000 description 1
- 239000003897 fog Substances 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 208000013469 light sensitivity Diseases 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000001693 membrane extraction with a sorbent interface Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
- 238000012384 transportation and delivery Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/023—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
- B60R16/0231—Circuits relating to the driving or the functioning of the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/84—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Signal Processing (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
本出願は、2019年9月13日出願の米国非仮出願第16/570,187号、及び2021年9月29日出願の米国非仮出願第17/449,306号に関するものであり、その各々の全体が参照によって本明細書に組み込まれる。 This application is related to U.S. Nonprovisional Application No. 16/570,187 filed September 13, 2019 and U.S. Nonprovisional Application No. 17/449,306 filed September 29, 2021, which the entirety of each is incorporated herein by reference.
自律運転システム及び半自律運転システム(たとえば先進運転者支援システム(ADAS:advanced driver assistance system))は、ある一定のスピードの上昇、低下、又は維持、死角の監視、自動緊急ブレーキング、車線維持、物体検出、障害物回避、車線変更、車線割り当て、カメラ較正、及びローカリゼーションなどの様々なタスクのパフォーマンスに関して判断するために、センサ(たとえばカメラ、LiDARセンサ、RADARセンサなど)を使用し得る。これらの自律及び半自律システムが自律的に動作するべきか否か、動作するとしたらどの程度かを判定するために、これらのシステムに対する周囲環境の影響を正確に理解することが有益であろう。しかしながら、センサは、天候(たとえば、雨、霧、雪、あられ、煙など)、交通条件、(たとえば異物や雨水などによる)遮断、又は不鮮明などの種々の原因によって周囲環境を把握する能力が損なわれる可能性があり、これは、センサ視界遮蔽及び/又は視認距離の損失につながることがある。センサ視界遮蔽及び/又は視認距離の損失の潜在的な原因には、雪、雨、グレア、太陽フレア、泥、水、信号故障等が含まれ得る。 Autonomous and semi-autonomous driving systems (e.g. advanced driver assistance systems (ADAS)) can increase, decrease or maintain a certain speed, blind spot monitoring, automatic emergency braking, lane keeping, Sensors (eg, cameras, LiDAR sensors, RADAR sensors, etc.) may be used to make decisions regarding performance of various tasks such as object detection, obstacle avoidance, lane change, lane assignment, camera calibration, and localization. In order to determine whether, and to what extent, these autonomous and semi-autonomous systems should operate autonomously, it would be beneficial to accurately understand the impact of the surrounding environment on these systems. However, sensors are compromised in their ability to perceive their surroundings for a variety of reasons, such as weather (e.g., rain, fog, snow, hail, smoke, etc.), traffic conditions, blockage (e.g., due to foreign objects, rainwater, etc.), or blurring. This can lead to sensor occlusion and/or loss of viewing distance. Potential sources of sensor obscuration and/or loss of viewing range may include snow, rain, glare, solar flares, mud, water, signal failure, and the like.
従来のシステムでは、センサ視界遮蔽や視認距離の損失に対処するために特徴レベルの手法が利用されており、これは、センサ視界遮蔽や視認性低下の物的証拠の個片を検出し、続いてこれらの特徴をつなぎ合わせてセンサ視界遮蔽及び/又は視認性低下といった事象の存在を判定するものである。これら従来の方法は、主として、画像の領域におけるシャープ・エッジ特徴(たとえば階調度、色、輝度における急激な変化)の欠落の分析、色ベースの画素分析又は他の低レベルの特徴分析を使用して視認性やセンサ遮断の問題を検出すること、及び/又は視界遮蔽の有/無の出力を用いるバイナリ・サポート・ベクトル・マシン分類などの、コンピュータ・ビジョン技術に依拠するものである。しかしながら、そのような特徴ベースのコンピュータ・ビジョン技術では、たとえばそれぞれの特徴が視認性やセンサ視界遮蔽に関係しているか否かといった、それぞれの特徴の個別の分析、並びに、種々の特徴を特定のセンサの視認性の低下又は視界遮蔽状態に結合するやり方の分析が必要とされ、それによって、そのような手法の拡張性は、条件や出現の多種多様性に付きまとう複雑さによって制限され、現実世界においてセンサを使用して観察されたデータが損なわれてしまう。たとえば、これら従来の手法は、実行上の計算コストにより、リアルタイム又は準リアルタイムの配備には効果的ではない。 Conventional systems utilize feature-level approaches to address sensor visibility occlusion and loss of visibility distance, which detect pieces of physical evidence of sensor visibility occlusion or visibility loss and subsequently These features are then stitched together to determine the presence of events such as sensor obscuration and/or reduced visibility. These conventional methods primarily use analysis of missing sharp edge features (e.g. abrupt changes in gradient, color, brightness), color-based pixel analysis, or other low-level feature analysis in regions of the image. It relies on computer vision techniques, such as binary support vector machine classification, to detect visibility and sensor occlusion problems with visual field occlusion, and/or binary support vector machine classification with visual occlusion presence/absence outputs. However, such feature-based computer vision techniques require separate analysis of each feature, e.g. An analysis of how sensors are coupled to reduced visibility or visibility occlusion conditions is required, whereby the scalability of such approaches is limited by the complexity inherent in a wide variety of conditions and occurrences, and the real world will corrupt the data observed using the sensor in . For example, these conventional approaches are not effective for real-time or near real-time deployments due to the computational cost of running them.
さらに、従来のシステムは、センサ視認距離の短縮をもたらす雨、雪、霧、グレアなどの原因の分類に依拠することがあるが、センサ・データの有用性の正確な指標は提供しない場合がある。たとえば、従来のシステムは、画像の中の雨の識別を、対応する画像又はその一部が様々な自律タスク又は半自律タスクに使用可能かどうかを判定するために利用できない可能性がある。そのような実例において、従来のシステムは、雨が降っていると、車両の100メートル以内の環境を明瞭に表す画像でも、使用不可能と見なしてしまう可能性がある。そのため、視認領域の範囲内の1つ又は複数のタスクのために画像に依拠することなく、画像が誤って棄却されて、1つ又は複数のタスクが不能になることがある。従来のシステムは、画像が不鮮明なのかそれとも遮られたものなのかといった、異なるタイプのセンサ視界遮蔽を区別することもできない場合がある。それぞれのタイプのセンサ視認距離の損失及びセンサ視界遮蔽を、等しい重み又は全体的に同等な重みを用いて処理すると、それほど顕著又は有害ではないタイプのセンサ視認距離の損失やセンサ視界遮蔽によって、センサ・データのインスタンスが使用不可能であると、完全には正確でない判定が下されてしまう場合さえある(たとえば、軽い霧雨が降っている環境の画像は1つ又は複数の動作に使用可能であるが、濃霧を伴う環境の画像は使用できず、不鮮明な画像はいくつかの動作に使用可能であるが、遮られた画像は使用できない)。 Additionally, conventional systems may rely on classifying sources such as rain, snow, fog, and glare that result in reduced sensor viewing distance, but may not provide an accurate indication of sensor data usefulness. . For example, conventional systems may not utilize the identification of rain in an image to determine whether the corresponding image, or portions thereof, can be used for various autonomous or semi-autonomous tasks. In such instances, conventional systems may render images that clearly represent the environment within 100 meters of the vehicle unusable if it is raining. As such, without relying on the image for one or more tasks within the viewing area, the image may be erroneously rejected, disabling one or more tasks. Conventional systems may also be unable to distinguish between different types of sensor view occlusion, such as whether the image is blurred or obscured. Treating each type of sensor view range loss and sensor view occlusion with equal weights or with overall equal weighting results in less significant or detrimental types of sensor view range loss and sensor view occlusion resulting in more The unavailability of an instance of the data may even lead to decisions that are not entirely accurate (e.g. an image of an environment with a light drizzle may be available for one or more actions). However, images of environments with heavy fog cannot be used, and blurred images can be used for some operations, but obscured images cannot.)
さらに、従来のシステムは、ハードコード化されたコンピュータ・ビジョン技術に依拠することにより、履歴データから学習することや、配備において経時的に学習することができなくなり、それによって、新規のタイプ又はセンサ視界遮蔽状態の出現に適合する能力が制限されてしまう。加えて、周囲環境の照明レベル及び進路表面の状態を検出するための従来のシステムは、光強度を測定するために、たとえばLUXセンサといった専用センサに依拠することがあり、及び/又はタイヤの隣に配置された路面湿り度センサに依拠することもある。これらの専用センサは、豊富なデータ入力の利用が不可能なために、周囲環境のデータ出力は低精度であり、豊富でもない。結果として、これらの専用センサは、照明インスタンスを区別すること(たとえば、街灯の照明と屋内の駐車場の照明とを区別すること)や、異なる進路表面の状態を(たとえば、道路に積雪があるときと、道路に雪はないがマシンのセンサに雪が積もったときとを)区別することは、できない場合がある。 Furthermore, by relying on hard-coded computer vision techniques, conventional systems are unable to learn from historical data or learn over time in deployment, thereby allowing new types or sensors to be developed. It limits your ability to adapt to the appearance of blindness. In addition, conventional systems for detecting ambient lighting levels and track surface conditions may rely on dedicated sensors, such as LUX sensors, and/or sensors next to tires to measure light intensity. It may also rely on a road wetness sensor located in the These dedicated sensors do not have a rich data input available, so the data output of the ambient environment is neither precise nor rich. As a result, these dedicated sensors are able to distinguish between lighting instances (e.g. street light lighting versus indoor parking lot lighting) and different track surface conditions (e.g. road with snow cover). It may not be possible to distinguish between when there is no snow on the road but snow on the machine's sensors).
本開示の実施例は、自律システム及びアプリケーションのためのカメラベースの入力を使用した動作領域検証に基づく深層学習に関するものである。深層ニューラル・ネットワーク(DNN:deep neural network)などの1つ又は複数の機械学習モデルを使用して、自律及び/又は半自律マシンに関する以下の動作設計領域の状態のうちの1つ又は複数を表す出力を計算するシステム及び方法が開示される:カメラの視界遮蔽の量、カメラの視界遮蔽に対応する視界遮蔽の分類、照明レベル、進路表面の状態、視認距離、シーン・タイプ分類、及びシーン・タイプ分類に対応するシーンまでの距離。これらの出力は、次いで、自律及び/又は半自律マシンの、たとえば動作レベルといった自律性のレベルを判定するように使用され得、次いで、マシンは、判定された自律性のレベルを使用する環境によって制御され得る。 Embodiments of the present disclosure relate to deep learning based on motion domain verification using camera-based input for autonomous systems and applications. One or more machine learning models, such as deep neural networks (DNNs), are used to represent one or more of the following behavioral design domain states for autonomous and/or semi-autonomous machines: Systems and methods are disclosed for calculating outputs: amount of camera view occlusion, class of view occlusion corresponding to camera view occlusion, lighting level, path surface condition, view distance, scene type classification, and scene type Distance to scene corresponding to type classification. These outputs can then be used to determine the level of autonomy, e.g., the level of activity, of the autonomous and/or semi-autonomous machine, which can then be controlled by the environment using the determined level of autonomy. can be controlled.
本開示のシステム及び方法は、上記で説明されたものなどの従来のシステムとは対照的に、センサ・データによって動作設計領域の状態を取得し得、それによって、これらの状態に関して、人の知覚に類似する正確で豊富な情報を提供するものである。さらに、本開示のシステム及び方法は、マルチタスク深層学習を適用するので、必要とする計算資源が従来の手法よりも少なくなり得る。 The system and method of the present disclosure, in contrast to conventional systems such as those described above, may obtain the states of the behavioral design domain through sensor data, thereby increasing the human perception of these states. It provides accurate and rich information similar to Moreover, because the systems and methods of the present disclosure apply multitasking deep learning, they may require less computational resources than conventional approaches.
自律マシン・アプリケーションのためのカメラベースの入力を使用した深層学習ベースの動作設計領域を検証するための本システム及び方法について、添付の図面を参照して、以下に詳しく説明する。 The present system and method for validating a deep learning-based motion design domain using camera-based input for autonomous machine applications is described in detail below with reference to the accompanying drawings.
自律システム及びアプリケーションのためのカメラベースの入力を使用した動作領域検証に基づく深層学習に関するシステム及び方法が開示される。本明細書で説明されるシステム及び方法は、拡張現実、仮想現実、複合現実、ロボット工学、セキュリティ及び監視、医用撮像、自律又は半自律マシンのアプリケーション、並びに/或いは照明レベル、進路表面の状態、視認距離、シーン分類、シーンまでの距離、及びセンサ視界遮蔽とその原因の判定が実施され得る他の技術空間において使用され得る。本開示は、例示的自律型車両600(或いは本明細書で「車両600」又は「エゴマシン600」とも称され、その実例が図6A~6Dに関して説明される)に関して説明されることがあるが、これは限定を意図していない。たとえば、本明細書に記載のシステム及び方法は、非自律型車両、半自律型車両(たとえば、1つ又は複数の先進運転者支援システム(ADAS)における)、有人及び無人ロボット若しくはロボティクス・プラットフォーム、倉庫車両、オフロード車両、1つ又は複数のトレーラに連結された車両、飛行船舶、ボート、シャトル、緊急対応車両、オートバイ、電気若しくは原動機付自転車、航空機、建設車両、潜水艦、ドローン、及び/又は、他の車両タイプによって使用されてもよいが、これに限定されない。
Systems and methods are disclosed for deep learning based on motion domain verification using camera-based input for autonomous systems and applications. The systems and methods described herein can be used for applications in augmented reality, virtual reality, mixed reality, robotics, security and surveillance, medical imaging, autonomous or semi-autonomous machines, and/or lighting levels, track surface conditions, It can be used in other technical spaces where determination of viewing distance, scene classification, distance to scene, and sensor visibility occlusion and its causes can be performed. Although the present disclosure may be described with respect to an exemplary autonomous vehicle 600 (alternatively referred to herein as "
開示される手法では、1つ又は複数の回路を含むプロセッサが、ニューラル・ネットワークを使用し、1つ又は複数の画像センサを使用して生成された画像データに少なくとも部分的に基づき、動作領域の状態を表すデータを計算し得る。ある特定の実施例において、動作領域の状態は、カメラの視界遮蔽の量、カメラの視界遮蔽の量に対応する視界遮蔽の分類、照明レベル、進路表面の状態、視認距離、シーン・タイプ分類、及びシーン・タイプ分類に対応するシーンまでの距離のうちの1つ又は複数を含み得る。 In the disclosed approach, a processor, including one or more circuits, uses a neural network to generate an image of an active region based, at least in part, on image data generated using one or more image sensors. Data representing the state may be calculated. In a particular embodiment, the state of the active area includes the amount of view occlusion of the camera, the classification of the view occlusion corresponding to the amount of view occlusion of the camera, the lighting level, the condition of the track surface, the viewing distance, the scene type classification, and distance to scene corresponding to the scene type classification.
カメラの視界遮蔽の量、カメラの視界遮蔽の量に対応する視界遮蔽の分類、照明レベル、進路表面の状態、視認距離、シーン・タイプ分類、及びシーン・タイプ分類に対応するシーンまでの距離を判定するために、深層ニューラル・ネットワーク(DNN)処理が使用され得る。車両に配設された、又は関連付けられた、1つ又は複数のセンサ(たとえばカメラ)から、(たとえば画像を表す)センサ・データが受信され得る。センサ・データは、カメラの視界遮蔽の量、照明レベル、進路表面の状態、視認距離、シーン・タイプ分類、及びセンサ・データに関連付けられたシーン・タイプ分類に対応するシーンまでの距離を判定するようにトレーニングされ得るニューラル・ネットワーク(たとえば畳み込みニューラル・ネットワーク(CNN:convolutional neural network)などのDNN)に適用されてよい。カメラの視界遮蔽の量、カメラの視界遮蔽の量に対応する視界遮蔽の分類、及び視認距離を判定するための方法及びシステムは、全体が参照によって本明細書に組み込まれている2019年9月13日出願の米国非仮出願第16/570,187号、及び2021年9月29日出願の米国非仮出願第17/449,306号に説明されている方法及びシステムと同一又は類似のものでもよい。 The amount of camera view occlusion, the view occlusion classification corresponding to the camera view occlusion amount, the lighting level, the path surface condition, the viewing distance, the scene type classification, and the distance to the scene corresponding to the scene type classification. Deep neural network (DNN) processing may be used to determine. Sensor data (eg, representing images) may be received from one or more sensors (eg, cameras) disposed on or associated with the vehicle. The sensor data determines the amount of camera obscuration, lighting levels, path surface conditions, viewing distance, scene type classification, and distance to a scene corresponding to the scene type classification associated with the sensor data. It may be applied to neural networks (eg, DNNs such as convolutional neural networks (CNNs)) that can be trained in such a way. The amount of camera view occlusion, the classification of view occlusion corresponding to the amount of camera view occlusion, and methods and systems for determining viewing distance are hereby incorporated by reference in their entirety, September 2019. the same or similar to the methods and systems described in U.S. Nonprovisional Application No. 16/570,187, filed September 13, and U.S. Nonprovisional Application No. 17/449,306, filed September 29, 2021; It's okay.
現在の領域又は環境に適切なエゴマシンの動作レベルは、このセンサ・データに少なくとも部分的に基づいて判定され得る。実施例では、適切な動作レベルは、レベル0(自動化なし)、レベル1(運転者支援)、レベル2(部分的自動化)、レベル3(条件的自動化)、レベル4(高い自動化)、及びレベル5(完全な自動化)など、自動車技術協会(SAE:Society of Automotive Engineers)によって定義された自動化レベルのうちの1つ又は複数に対応し得る。 An appropriate level of egomachine operation for the current area or environment may be determined based at least in part on this sensor data. In an embodiment, suitable operating levels are level 0 (no automation), level 1 (driver assistance), level 2 (partial automation), level 3 (conditional automation), level 4 (high automation), and level It may correspond to one or more of the automation levels defined by the Society of Automotive Engineers (SAE), such as 5 (full automation).
開示される実施例は、自動車システム(たとえば、自律又は半自律マシンの制御システム、自律又は半自律マシンの認知システム)、ロボットを使用して実装されるシステム、航空システム、医療システム、船舶システム、スマートエリア・モニタリング・システム、深層学習動作をするためのシステム、シミュレーション動作を実行するためのシステム、エッジ・デバイスを使用して実装されるシステム、1つ又は複数の仮想マシン(VM:virtual machine)を組み込むシステム、データ・センタにおいて少なくとも部分的に実装されるシステム、クラウド計算資源を少なくとも部分的に使用して実装されるシステム、及び/又は他のタイプのシステムなどの様々な異なるシステムに含まれ得る。特定の実例が提供されているが、これらの実例は、実施の詳細以上に一般化される場合がある。 Examples disclosed include automotive systems (e.g., control systems for autonomous or semi-autonomous machines, perception systems for autonomous or semi-autonomous machines), systems implemented using robots, aviation systems, medical systems, marine systems, Smart area monitoring systems, systems for deep learning operations, systems for performing simulation operations, systems implemented using edge devices, one or more virtual machines (VMs) , implemented at least partially in a data center, implemented at least partially using cloud computing resources, and/or other types of systems. obtain. Although specific examples are provided, these examples may be generalized beyond implementation details.
ここで図1Aを参照すると、図1Aは、本開示のいくつかの実施例による、照明レベル、進路表面の状態、視認距離、シーン分類、シーンまでの距離、並びにセンサ視界遮蔽及びその原因を判定するための例示的プロセス100を示す例示的データフロー図である。本明細書に記載のこの構成及び他の構成は単に実例として記載されていることを理解されたい。他の構成及び要素(たとえば、マシン、インターフェース、機能、順番、機能のグループ化など)が、図示されたものに加えて又はそれらの代わりに使用されてもよく、いくつかの要素は、完全に省略されてもよい。さらに、本明細書に記載の要素の多数は、離散された若しくは分散された構成要素として又は他の構成要素と併せて、並びに任意の適切な組合せ及び場所において実装され得る機能エンティティである。エンティティによって実行されるものとして本明細書に記載された様々な機能は、ハードウェア、ファームウェア、及び/又はソフトウェアによって実施され得る。たとえば、様々な機能が、メモリに記憶された命令を実行するプロセッサによって実施され得る。いくつかの実施例において、本明細書に記載のシステム、方法、及びプロセスは、図6A~6Dの例示的自律型車両600、図7の例示的計算デバイス700、及び/又は図8の例示的データ・センタ800のそれらに類似の構成要素、特徴、及び/又は機能性を使用して実行され得る。
Referring now to FIG. 1A, FIG. 1A illustrates lighting levels, path surface conditions, viewing distance, scene classification, distance to scene, and sensor visibility occlusion and its causes, according to some embodiments of the present disclosure. 1 is an exemplary dataflow diagram showing an
プロセス100は、エゴマシン600の1つ又は複数のセンサからセンサ・データ102を生成すること及び/又は受信することを含み得る。センサ・データ102は、エゴマシン600によって、プロセス100の中で、カメラの視界遮蔽の量、カメラの視界遮蔽の量に対応する視界遮蔽の分類、照明レベル、進路表面の状態、視認距離、シーン・タイプ分類、及びシーン・タイプ分類に対応するシーンまでの距離のうちの1つ又は複数をリアルタイム又は準リアルタイムで判定するように使用され得る。センサ・データ102は、限定ではなく、エゴマシン600(及び/又は、いくつかの実例では、ロボティクス・デバイス、VRシステム、ARシステムなど他の車両又は物体)のセンサのうちの任意のものからのセンサ・データ102を含み得る。たとえば、図6A~6Cを参照すると、センサ・データ102は、グローバル・ナビゲーション衛星システム(GNSS:global navigation satellite system)センサ658(たとえば、グローバル・ポジショニング・システム・センサ)、RADARセンサ660、超音波センサ662、LIDARセンサ664、慣性計測装置(IMU:inertial measurement unit)センサ666(たとえば、加速度計、ジャイロスコープ、磁気コンパス、磁力計など)、マイクロフォン676、ステレオ・カメラ668、ワイド・ビュー・カメラ670(たとえば魚眼カメラ)、赤外線カメラ672、サラウンド・カメラ674(たとえば360度カメラ)、長距離及び/又は中距離カメラ678、(たとえば車両600のスピードを測定するための)スピード・センサ644、及び/又は他のセンサ・タイプを含み得るが、これに限定されない。別の実例として、センサ・データ102は、仮想車両又は他の仮想物体の任意の数のセンサから生成された仮想センサ・データを含み得る。そのような実例において、仮想センサは、(たとえば、ニューラル・ネットワーク・パフォーマンスを試験、トレーニング、及び/又は検証するために使用される)シミュレーションされた環境内の仮想車両又は他の仮想物体に対応することができ、仮想センサ・データは、シミュレーションされた又は仮想環境内で仮想センサによってキャプチャされたセンサ・データを表すことができる。そのようなものとして、仮想センサ・データを使用することによって、本明細書に記載の機械学習モデル104は、シミュレーションされた環境内のシミュレーション・データを使用して、試験、トレーニング、及び/又は検証され得、そのような試験の安全性が低くなり得る現実世界環境の外でより極端なシナリオを試験することを可能にし得る。
センサ・データ102は、画像を表す画像データ、ビデオ(たとえば、ビデオのスナップショット)を表す画像データ、及び/又はセンサの認知フィールドの表現を表すセンサ・データ(たとえば、LiDARセンサの深度図、超音波センサの値のグラフなど)を含み得る。センサ・データ102が、画像データを含む場合、たとえば、限定ではなく、JPEG(Joint Photographic Experts Group)又はルミナンス/クロミナンス(YUV)フォーマットなどの圧縮画像、H.264/AVC(Advanced Video Coding)若しくはH.265/HEVC(High Efficiency Video Coding)などの圧縮ビデオ・フォーマットに由来するフレームとしての圧縮画像、レッド・クリア・ブルー(RCCB:Red Clear Clear Blue)、レッド・クリア(RCCC:Red Clear Clear Clear)若しくは他のタイプの画像センサに由来するものなどの未加工の画像、及び/又は他のフォーマットなど、任意のタイプの画像データ・フォーマットが、使用され得る。加えて、いくつかの実例において、センサ・データ102は、(たとえば、未加工の又はキャプチャされたフォーマットにおいて)前処理なしにプロセス100内で使用することができ、一方、他の実例において、センサ・データ102は、前処理(たとえば、ノイズ・バランシング、デモザイク処理、スケーリング、クロッピング、拡張、ホワイト・バランシング、トーン・カーブ調節、など、たとえば、センサ・データ・プリプロセッサ(図示せず)を使用)を受けることができる。本明細書では、センサ・データ102は、未処理のセンサ・データ、前処理されたセンサ・データ、又はその組合せを指し得る。
The
センサ・データ・プリプロセッサは、1つ又は複数の画像(又は他のデータ表現)を表す画像データを使用し、多次元アレイ/マトリクス(或いは、いくつかの実例ではテンソル、或いは、より具体的には入力テンソルと称される)の形式のメモリにセンサ・データをロードし得る。アレイ・サイズは、W×H×Cとして計算され、及び/又は表現され得、ここで、Wは画像幅を画素の単位で表し、Hは高さを画素の単位で表し、Cは色チャネルの数を表す。一般性を損なうことなく、他のタイプ及び入力画像の構成要素の順序付けも可能である。加えて、バッチングが使用されるとき、バッチサイズBは次元(たとえばさらなる第4の次元)として使用され得る。バッチングは、トレーニング及び/又は推論のために使用され得る。したがって、入力テンソルは次元W×H×C×Bのアレイを表現し得る。センサ・データ・プリプロセッサを実施するように使用される特定のハードウェア及びソフトウェアに依拠して、次元の任意の順序付けが可能であり得る。この順序付けは、機械学習モデル104のトレーニング及び/又は推論のパフォーマンスを最大化するために選択されてよい。
The sensor data pre-processor uses image data representing one or more images (or other data representations) to form a multi-dimensional array/matrix (or tensor in some instances, or more specifically The sensor data can be loaded into memory in the form of input tensors). The array size may be calculated and/or expressed as W×H×C, where W represents the image width in pixels, H represents the height in pixels, and C is the color channel. represents the number of Other types and orderings of input image components are possible without loss of generality. Additionally, when batching is used, batch size B can be used as a dimension (eg, an additional fourth dimension). Batching may be used for training and/or inference. An input tensor may therefore represent an array of dimensions W×H×C×B. Any ordering of the dimensions may be possible, depending on the particular hardware and software used to implement the sensor data preprocessor. This ordering may be chosen to maximize training and/or inference performance of the
いくつかの実施例では、センサ・データ・プリプロセッサによって、センサ(たとえばカメラ)によって取得されて画像データ102に含まれている未加工の画像を処理して、機械学習モデル104の入力層に対する入力画像を表現する前処理された画像データ生成するために、前処理画像パイプラインが採用され得る。適切な前処理画像パイプラインの実例は、センサからの未加工のRCCBバイヤー(たとえば1チャネル)タイプの画像を使用し、これを変換して、RCB(たとえば3チャネル)の固定適合率(Fixed Precision)の(たとえば1チャネルにつき16ビットの)フォーマットで記憶される平面画像に画像化する。前処理画像パイプラインは、デコンパンディング、ノイズ低減、デモザイキング、ホワイト・バランシング、ヒストグラム計算、及び/又は(たとえばその順序又は代替順序での)適応グローバル・トーン・マッピングを含み得る。
In some embodiments, the sensor data preprocessor processes raw images captured by sensors (e.g., cameras) and included in the
センサ・データ・プリプロセッサによってノイズ低減が採用される場合、この処理はバイヤー領域(Bayer domain)における双方向ノイズ除去を含み得る。センサ・データ・プリプロセッサによってデモザイキングが採用される場合、この処理は双線形補間を含み得る。センサ・データ・プリプロセッサによってヒストグラム計算が採用される場合、この処理はCチャネルのヒストグラムを計算することを包含してもよく、いくつかの実例ではデコンパンディング又はノイズ低減と組み合わされてもよい。センサ・データ・プリプロセッサによって適応グローバル・トーン・マッピングが採用される場合、この処理は適応ガンマ-log変換を実行することを含み得る。これは、ヒストグラムを計算すること、中央トーン・レベルを得ること、及び/又は中央トーン・レベルを用いて最高輝度を推定することを含み得る。 If noise reduction is employed by the sensor data preprocessor, this processing may include bi-directional denoising in the Bayer domain. If demosaicing is employed by the sensor data preprocessor, this processing may include bilinear interpolation. If histogram computation is employed by the sensor data preprocessor, this processing may include computing the histogram of the C channel, and in some instances may be combined with decompanding or noise reduction. If adaptive global tone mapping is employed by the sensor data preprocessor, this processing may include performing an adaptive gamma-log transform. This may involve computing a histogram, obtaining a center tone level, and/or using the center tone level to estimate the maximum luminance.
機械学習モデル104は、出力106を生成するために、入力として、1つ又は複数の画像又はセンサ・データ102によって表現されるような他のデータ表現(たとえばLIDAR点群、RADAR表現など)を使用し得る。非限定的実例において、機械学習モデル104は、たとえばカメラの視界遮蔽108、視界遮蔽分類110、照明レベル112、進路表面の状態114、視認距離、シーン・タイプ分類118、及び/又はシーンまでの距離120といった出力106を生成するために、入力として、(たとえば前処理後の)センサ・データ102によって表現される画像を採用し得る。本明細書では、実例は、機械学習モデル104として、ニューラル・ネットワーク、具体的にはDNNを使用することに関して説明されているが、これには限定する意図はない。たとえば、限定ではなく、本明細書で説明される機械学習モデル104は、任意のタイプの機械学習モデル、たとえば、線形回帰、ロジスティック回帰、決定木、サポート・ベクトル・マシン(SVM:support vector machine)、ナイーブ・ベイズ、k近傍法(Knn:k-nearest neighbor)、K平均クラスタリング、ランダム・フォレスト、次元縮小アルゴリズム、勾配ブースティング・アルゴリズム、ニューラル・ネットワーク(たとえば、オートエンコーダ、畳み込み、再発、パーセプトロン、長/短期メモリ(LSTM:Long/Short Term Memory)、ホップフィールド、ボルツマン、ディープ・ビリーフ、逆畳み込み、敵対的生成、液体状態マシンなど)をする機械学習モデル、及び/又は他のタイプの機械学習モデルを含み得る。
カメラの視界遮蔽108及び視界遮蔽分類110を計算することに関して、機械学習モデル104は、センサ視界遮蔽並びにその原因(たとえば不鮮明、遮断など)に関するセンサ・データ102の中の関心領域を識別し得る。より具体的には、機械学習モデル104は、視界遮蔽マーカを推測して、センサ・データにおける可能性のあるセンサ視界遮蔽の位置やセンサ視界遮蔽の原因、並びにセンサ・データ又はその一部がシステムによって使用可能であるかどうかを識別する分類を出力するように設計され得る。いくつかの実例では、ニューラル・ネットワークは、センサ・データが少なくとも部分的に使用可能であること(たとえば真(True)、yes、0)や、センサ・データが使用不可能であること(たとえば偽(False)、no、1)を指示する2値判定(たとえば真(True)/偽(False)、Yes/No、0/1)を出力してよい。データが使用不可能であると指示された場合には、センサ・データは、スキップされ、無視され、及び/又は自律又は半自律アプリケーションの動作レベルをレベル0まで下げて、たとえば制御を運転者に返す、との判定を下すように使用され得る。
With respect to calculating camera view occlusions 108 and
視界遮蔽分類110は、検出された視界遮蔽を用いて、センサ・データ101の1つ又は複数の画素に関連する視界遮蔽の原因を表現し得る。センサ・データ102は任意の数の異なる視界遮蔽分類を含み得る。たとえば、1つの視界遮蔽領域又は画素が、本開示の範囲から逸脱することなく、1つ、2つ、又はより多くの関連する視界遮蔽分類を有し得る。いくつかの実例では、機械学習モデル104は、複数の分類を予測するようにトレーニングされ、これらの分類に対応する複数のチャネルを出力し得る(たとえば、各チャネルが1つの視界遮蔽分類に対応し得る)。たとえば、視界遮蔽分類110は、遮断、不鮮明、反射、開放、エゴ車両、空、フレーム・ラベルなどのうちの1つ又は複数を含み得、出力チャネルの数は所望の分類の数に対応し得る。視界遮蔽分類110は、雨、グレア、レンズ割れ、光、泥、紙、人などを含むサブ分類を含み得るが、これらに限定されない。
実例では、視界遮蔽分類の「遮断」は、太陽、霧、水、ミスト、雪、凍った窓ガラス、日中、夜間、レンズ割れ、セルフ・グレア、泥、紙、木の葉などの1つ又は複数の視界遮蔽サブ分類に関連付けられ得る。このようにして、視界遮蔽サブ分類は、センサ・データ102における視界遮蔽の原因をさらに線引きし得る。いくつかの実例では、視界遮蔽サブ分類は、視認性低下のレベル(たとえば重度、中程度、軽度など)を指示するものなど、さらなるサブ分類の視界遮蔽の原因を含み得る。機械学習モデル104は、視界遮蔽分類及び/又は対応する視界遮蔽サブ分類を予測するようにトレーニングされ、これらの数と同程度の出力チャネル数を有し得る。
Illustratively, the visibility occlusion category "obstruction" is one or more of the following: sun, fog, water, mist, snow, frozen window glass, day, night, cracked lens, self-glare, mud, paper, foliage, etc. can be associated with the visibility occlusion subclass of In this way, the visibility occlusion sub-category may further delineate the cause of visibility occlusion in
機械学習モデル104は、たとえば物体又は要素を識別可能なセンサからの最大距離といった、センサ・データ102の視認距離116を予測するようにトレーニングされ得る。予測された視認距離に基づいて、マシンの動作レベルが調整され得る。たとえば、機械学習モデル104が、視認距離が短い-たとえば20メートル以下-と判定すると、対応するセンサ・データは、レベル0(自動化なし)又はレベル1(運転者支援)のタスク向けにしか当てにされず、又はマシンから20メートル以内の予測のためにのみ当てにされ得る(たとえば、20メートルを超える予測は、無視されるか、又はより低い信頼度を関連付けられてよい)。同様に、別の実例として、推定された視認距離がたとえば1000メートル以上と長い場合には、対応するセンサ・データは、レベル3(条件的運転自動化)及びレベル4(高い運転自動化)のタスクの全パフォーマンスに対して当てにされてよく、又はマシンの1000メートル以内の位置に対応する予測のために当てにされてよい。
The
実施例では、計算された視認距離は、非常に短い視認性(たとえば10メートル~100メートル)、短い視認性(たとえば10メートル~100メートル)、中程度の視認性(たとえば100メートル~1000メートル)、長い視認性(たとえば1000メートル~4000メートル)、又は明瞭な視認性(たとえば4000メートル超)と分類され得る。他の実施例において、非常に短い視認距離は、極端な霧若しくは吹雪、又は豪雨又は豪雪に関連付けられてよく、短い視認距離は濃霧に関連付けられてよく、中程度の視認距離は、中程度の霧、雨、又は霧雨に関連付けられてよく、長い視認距離は、もやのかかった気象条件、又は軽い雨若しくは霧雨に関連付けられてよく、明瞭な視認距離は、センサ・データを生成する特定のセンサの最大の視距離に関連付けられてよい。 In an example, the calculated visibility distances are very short visibility (eg, 10 meters to 100 meters), short visibility (eg, 10 meters to 100 meters), medium visibility (eg, 100 meters to 1000 meters). , long visibility (eg 1000 meters to 4000 meters), or clear visibility (eg over 4000 meters). In other examples, very short visibility distances may be associated with extreme fog or snowstorms, or heavy rain or snow, short visibility distances may be associated with heavy fog, and medium visibility distances may be associated with moderate visibility. It may be associated with fog, rain, or drizzle, long visibility distances may be associated with hazy weather conditions, or light rain or drizzle, and clear visibility distances may be associated with specific weather conditions that generate sensor data. It may be related to the maximum viewing distance of the sensor.
予測された視認距離は、エゴマシンが実行する可能性がある様々なタスクに対応し得る。たとえば、非常に短い視認距離に関して、エゴマシンが閾値速度未満(たとえば25km/h未満)で走行している限り、レベル0、レベル1、及びレベル2の低速アクティブ・セーフティ機能(たとえば、レーン・アシスト、自動的車線維持、自動クルーズ制御、自動緊急ブレーキングなど)の全パフォーマンスが利用可能でよい。しかしながら、車両が閾値速度を超えて走行している場合には、これらの機能性は、少なくともセンサ・データのインスタンスに関して、非常に短い障害距離を用いて不能にされてよい。短い視認距離に関して、エゴマシンが閾値速度未満で走行している限り、レベル0、レベル1、及びレベル2の駐車機能(たとえば近接検出、自動並列駐車配向など)の全パフォーマンス及び低速アクティブ・セーフティ機能が利用可能でよい。中程度の視認性距離に関して、レベル0、レベル1、レベル2、及びレベル2+の運転機能の全パフォーマンスが利用可能でよい。長い視認距離に関して、第1、第2、及び第3のビンのレベル0、レベル1、レベル2、及びレベル2+の機能に加えて、レベル3及びレベル4の駐車機能(たとえば自動並列駐車(APP:automatic parallel parking)、MPP、VVP)の全パフォーマンスが利用可能でよい。明瞭な視認性に関して、レベル0、レベル1、レベル2、及びレベル2+の機能に加えて、レベル3の幹線道路自動運転機能の全パフォーマンスが利用可能でよい。
The predicted viewing distance may correspond to various tasks that the egomachine may perform. For example, for very short viewing distances, as long as the egomachine is traveling below a threshold speed (e.g. below 25 km/h), level 0,
機械学習モデル104はまた、センサ・データ102に関するシーン・タイプ分類118、及びシーン・タイプ分類に対応するシーンまでの距離120を予測するようにトレーニングされ得る。たとえば、機械学習モデル104は、センサ・データが、トンネル、工事区間、閉鎖車線、又は料金所、並びに、たとえば影響を受ける道路領域といったシーン・タイプまでの距離のうちの1つ又は複数を表現すると予測するようにトレーニングされ得る。機械学習モデル104は、センサ・データ102から、ドライ、ウエット、積雪、凍結など、並びに、たとえば道路使用者が感知する光の量といった照明レベル112などの、進路表面の状態114を予測するようにさらにトレーニングされ得る。
機械学習モデル104がDNNを含む実施例では、機械学習モデル104は、任意の数の層を含み得る。層のうちの1つ又は複数は、入力層を含み得る。入力層は、様々なセンサ・データ402に関連する値を保持し得る。1つ又は複数の層は、畳み込み層を含み得る。畳み込み層は、入力層においてローカル領域に接続されたニューロンの出力を計算することができ、各ニューロンは、それらの重みと入力ボリュームにおいてそれらが接続された小さい領域とのドット積を計算する。畳み込み層の結果は、適用されるフィルタの数に基づく次元のうちの1つを有して、別のボリュームでもよい(たとえば、フィルタの幅、高さ、及び数、たとえば、12がフィルタの数だった場合、32x32x12)。
In embodiments where
1つ又は複数の層が、逆畳み込み層(又はトランスポーズされた畳み込み層)を含み得る。たとえば、逆畳み込み層の結果は、逆畳み込み層が受信したデータの入力次元数よりも高い次元数を有する別のボリュームになり得る。 One or more layers may include deconvolutional layers (or transposed convolutional layers). For example, the result of the deconvolution layer can be another volume with a higher dimensionality than the input dimensionality of the data the deconvolution layer received.
層のうちの1つ又は複数は、ReLU(rectified linear unit)層を含み得る。ReLU層は、たとえば、ゼロで閾値化する要素ごとの活性化関数、たとえば、max(0,x)、を適用し得る。ReLU層の結果的ボリュームは、ReLU層の入力のボリュームと同じでもよい。 One or more of the layers may include a rectified linear unit (ReLU) layer. The ReLU layer may, for example, apply an element-wise activation function that thresholds at zero, eg, max(0,x). The ReLU layer's resulting volume may be the same as the ReLU layer's input volume.
層のうちの1つ又は複数は、プーリング層を含み得る。プーリング層は、プーリング層の入力より小さいボリュームをもたらし得る(たとえば、32x32x12入力ボリュームから16x16x12)、空間次元(たとえば、高さ及び幅)に沿ったダウンサンプリング動作を実行し得る。 One or more of the layers may include pooling layers. A pooling layer may result in a smaller volume than the pooling layer's input (eg, 16x16x12 from a 32x32x12 input volume) and may perform a downsampling operation along a spatial dimension (eg, height and width).
層のうちの1つ又は複数は、1つ又は複数の完全に接続された層を含み得る。完全に接続された層内の各ニューロンは、前のボリュームにおいてニューロンのそれぞれに接続され得る。完全接続層は、クラス・スコアを計算することができ、結果として生じるボリュームは1x1xnであり得、nはクラスの数である。いくつかの実例では、CNNの層のうちの1つ又は複数の層の出力が、CNNの完全に接続された層への入力として提供され得るように、CNNは、完全に接続された層を含み得る。いくつかの実例では、機械学習モデル104によって1つ又は複数の畳み込みストリームが実装され得、畳み込みストリームのうちのいくつか又はすべてが、それぞれの完全接続層を含み得る。
One or more of the layers may include one or more fully connected layers. Each neuron in a fully connected layer can be connected to each neuron in the previous volume. A fully connected layer can compute class scores and the resulting volume can be 1×1×n, where n is the number of classes. In some instances, a CNN may include fully connected layers such that the outputs of one or more of the layers of the CNN may be provided as inputs to the fully connected layers of the CNN. can contain. In some instances, one or more convolutional streams may be implemented by
いくつかの非限定的実施例において、機械学習モデル104は、画像特徴抽出を円滑に進めるための畳み込み層及びマックス・プーリング層に、グローバル・コンテキスト特徴抽出を円滑に進めるためのマルチスケール拡張型畳み込み層及びアップサンプリング層が続く、一連の層を含み得る。
In some non-limiting examples, the
本明細書では、機械学習モデル104に関して、入力層、畳み込み層、プーリング層、ReLU層、及び完全接続層が論じられているが、これは限定を意図するものではない。たとえば、正規化層、SoftMax層、及び/又は他の層タイプなどの追加の層又は代替の層が、機械学習モデル104において使用されてもよい。
Although input layers, convolutional layers, pooling layers, ReLU layers, and fully connected layers are discussed herein with respect to the
加えて、畳み込み層及び完全接続層など、層のうちのいくつかはパラメータ(たとえば重み及び/又はバイアス)を含んでよく、ReLU層及びプーリング層などの他の層は含まなくてもよい。いくつかの実例において、機械学習モデル104はトレーニング中にパラメータを学習してよい。さらに、畳み込み層、完全接続層、及びプーリング層など、層のうちのいくつかは付加的なハイパー・パラメータ(たとえば学習率、ストライド、エポックなど)を含んでもよく、ReLU層などの他の層は含まなくてもよい。機械学習モデル104が視認距離上で後戻りする実施例では、CNNの最後の層の活性化機能はReLU活性化機能を含み得る。機械学習モデル104がセンサ・データのインスタンスを距離ビンに分類する実施例では、CNNの最後の層の活性化機能はSoftMax活性化機能を含み得る。パラメータ及びハイパー・パラメータは、限定されることなく、実施例に応じて異なり得る。
Additionally, some of the layers, such as convolutional layers and fully connected layers, may contain parameters (eg, weights and/or biases), while other layers, such as ReLU layers and pooling layers, may not. In some instances,
機械学習モデル104がCNNを含む実施例では、CNN層の順序及び数は実施例に応じて異なり得る。言い換えれば、CNN層の順序及び数は、いかなる1つのアーキテクチャにも限定されない。
In embodiments where
実施例では、エゴマシンの、たとえば動作124といった動作のレベル判定は、カメラの視界遮蔽、視界遮蔽分類、照明レベル、進路表面の状態、視認距離、シーン・タイプ分類、及びシーンまでの距離の、既定の重みによる重み付けを含み得る。他の実施例では、カメラの視界遮蔽が既定の重みのうちの最も高い重みに関連付けられ得る。
In an embodiment, the EgoMachine's level of action, e.g.,
ここで図1Aとともに図1Bを参照すると、図1Bは、本開示のいくつかの実施例による、照明レベル、進路表面の状態、視認距離、シーン分類、シーンまでの距離、並びに/或いはセンサ視界遮蔽及び/又はその原因を判定するための例示的プロセスを実施するための例示的機械学習モデル104Aである。たとえば、1つ又は複数の実施例において、機械学習モデル104Aが含み得るCNNは、1つ又は複数のトランク、エンコーダ-デコーダ・アーキテクチャ、並びに/或いは1つ又は複数の出力ヘッド(たとえば、視界遮蔽マスク・ヘッド142、照明ヘッド144、進路表面ヘッド146、視界遮蔽原因ヘッド148、及びシーン分類ヘッド150)を含み得る。実例では、CNNは、特徴検出トランクに対応する1つ又は複数の畳み込み層を含み得、特徴検出トランクは、(たとえば特徴マップを表す)中間データを出力してよく、これは1つ又は複数の出力ヘッドを使用して処理され得る。たとえば、中間データを使用して、たとえば視界遮蔽マスク・ヘッド142といった第1の出力ヘッドが、カメラの視界遮蔽の量を計算するために使用され得、たとえば視界遮蔽原因ヘッド148といった第2の出力ヘッドが、カメラの視界遮蔽分類を計算するために使用され得、たとえば照明ヘッド144といった第3の出力ヘッドが、照明レベルを計算するために使用され得、たとえば進路表面ヘッド146といった第4の出力ヘッドが、進路表面の状態を計算するために使用され得、及び/又は、たとえばシーン・ヘッド150といった第5の出力ヘッドが、シーン・タイプ分類(たとえばシーンのタイプの確率152)及び/又はシーン・タイプ分類に対応するシーンまでの距離(たとえばシーンまでの距離154)を計算するために使用され得る。他の実施例において、第5の出力ヘッドはシーン・タイプ分類を計算するように使用され得、第6の出力ヘッドはシーンまでの距離を計算するように使用され得る。2つ以上のヘッドが使用される場合、2つ以上のヘッドは、トランクからのデータを並行して処理し得、それぞれのヘッドは、その出力ヘッドの対応する出力を正確に予測するようにトレーニングされ得る。しかしながら、他の実施例では、1つのトランクが個別のヘッドなしで使用され得る。
Referring now to FIG. 1B in conjunction with FIG. 1A, FIG. 1B illustrates lighting levels, track surface conditions, viewing distance, scene classification, distance to scene, and/or sensor visibility occlusion, according to some embodiments of the present disclosure. and/or an example
実例では、機械学習モデル104のCNNの第1、第2、第3、第4、第5、及び/又は第6のヘッドのうちの1つ又は複数が、少なくとも1つの完全接続層を含み得る。たとえば、照明ヘッド144、進路表面ヘッド146、視界遮蔽原因ヘッド148、シーン・ヘッド150のそれぞれが、少なくとも1つの完全接続層を含み得る。完全接続層内の各ニューロンは、前のボリュームにおいてニューロンのそれぞれに接続され得る。完全接続層は、クラス・スコアを計算することができ、結果として生じるボリュームは、1x1xnであり得、nはクラスの数である。いくつかの非限定的実施例では、機械学習モデル104のCNNのヘッドのうちの1つ又は複数が、1つ又は複数のダウンサンプリング層並びに1つ又は複数のアップサンプリング層を含み得る。たとえば、機械学習モデル104のCNNの視界遮蔽マスク・ヘッド142は、画像特徴抽出を円滑に進めるためのダウンサンプリング層(たとえばプーリング層)に、グローバル・コンテキスト特徴抽出を円滑に進めるためのアップサンプリング層が続く、一連の層を含み得る。実施例では、1つ又は複数のプーリング層が、空間次元(たとえば、高さ及び幅)に沿ったダウンサンプリング動作を実行してよく、プーリング層の入力よりも小さいボリュームを(たとえば、32x32x12の入力ボリュームから16x16x12のボリュームを)もたらし得る。実例では、照明ヘッド144、進路表面ヘッド146、視界遮蔽原因ヘッド148、及びシーン・ヘッド150の各々が、プーリング層を含み得る。さらなる実例では、シーン・ヘッド150は、シグモイド関数を使用して、トンネル、工事区間、閉鎖車線、又は料金所など、シーンのタイプの確率152を出力し得る。他の実例では、シーン・ヘッド150はまた、ReLU層を使用して、シーンまでの距離154を出力し得る。
In an illustrative example, one or more of the first, second, third, fourth, fifth, and/or sixth heads of the CNN of
図1Aに戻って参照すると、一部の実施例では、出力106は、機械学習モデル104によって計算された後にポスト・プロセッサ122によって後処理されてよい。ポスト・プロセッサ122は、センサ・データ102に対応する運転性を判定し得る。たとえば、ポスト・プロセッサ122は、機械学習モデル104の出力106の時間的平滑化を実行し得る。時間的平滑化は、一部の実施例では、機械学習モデル104の出力におけるノイズを平滑化して低減するために、時間的に隣接するフレームに対応する機械学習モデル104の事前の予測を組み込むことにより、単一フレームに基づいて偽陽性を低減することにより、システムの安定性を改善するように使用され得る。いくつかの実例では、センサ・データ102の現在のインスタンスについて機械学習モデル104によって計算された値は、センサ・データ102の1つ又は複数の事前のインスタンスについて機械学習モデル104によって計算された値に対して比較検討され得る。センサ・データ102が画像を表す画像データである場合には、たとえば、現在の画像又は最新の画像について機械学習モデル104によって計算された出力106が、1つ又は複数の時間的に隣接した画像(たとえば前の画像及び/又は続く画像)について機械学習モデル104によって計算された出力106と比較検討されてよい。そのため、センサ・データ102のインスタンスに対応する終値(たとえば、カメラの視界遮蔽108については、視界遮蔽分類110、照明レベル112、進路表面の状態114、視認距離116、シーン・タイプ分類118、及びシーンまでの距離120)は、センサ・データ102のインスタンスに関連する現在値に対して、センサ・データ102の1つ又は複数の他のインスタンスに関連する従前の値に重み付けすることによって判定され得る。時間的平滑化の結果は、運転性を判定するために、センサ・データ102に関して分析され得る。
Referring back to FIG. 1A, in some embodiments, output 106 may be post-processed by post-processor 122 after being computed by
動作124は、システムによって、出力106に基づいて、センサ・データ102を使用してリアルタイム又は準リアルタイムで下される決定でよい。たとえば、十分に明瞭でないか又は有効でない場合には、制御決定124の1つ又は複数に関して、センサ・データ102のいくつか又はすべてがスキップされるか又は無視されてよい。車両600の安全な動作のためにセンサ・データ102を使用することができない場合などのいくつかの実例では、動作124は、運転者に制御を返す(たとえば自律動作又は半自律動作を終了する)か、又は緊急操作若しくは安全操作(たとえば停止する、道路脇に寄せる、又はそれらの組合せ)を実行することを含み得る。そのため、動作124は、効果的で安全な運転のために、センサ・データのある一定のインスタンスを無視することなど、1つ又は複数の是正措置を示唆することを含み得る。
あらゆる実例における自律又は半自律運転に関して、動作124は、運転スタック126(たとえば自律運転ソフトウェア・スタックのセンサ・データ・マネージャ層)、運転スタック126の知覚層、運転スタック126の世界モデル管理層、運転スタック126のプランニング層、運転スタック126の制御層、運転スタック126の障害物回避層、及び/又は運転スタック126の作動層に対応するあらゆる決定を含み得る。そのため、本明細書に記載のように、センサ・データ102の運転性は、運転スタック126の1つ又は複数の層に対応する任意の数の異なる動作に関して別個に判定されてよい。
For autonomous or semi-autonomous driving in any instance, the
一実例として、第1の運転性は、運転スタック126の知覚層に関して物体検出動作について判定され得、第2の運転性は、運転スタック126のプランニング層に関して進路計画立案について判定され得る。センサ・データ102を表す情報は、運転スタックの1つ又は複数の特徴、機能性、並びに/或いは構成要素が無効、有効、又は不変であるという指示とともに、運転スタック126に送信され得る。運転スタック126は、1つ又は複数のマップ(たとえば3Dマップ)、ローカリゼーション構成要素、知覚構成要素、及び/又は同類のものを使用して世界状況を管理する世界状況マネージャ層などの1つ又は複数の層を含み得る。加えて、自律運転ソフトウェア・スタックは、(たとえばプランニング層の一部としての)プランニング構成要素、(たとえば制御層の一部としての)制御要素、(たとえば作動層の一部としての)作動構成要素、(たとえば障害物回避層の一部としての)障害物回避構成要素、並びに/或いは(たとえば1つ又は複数の追加又は代替の層の一部としての)他の構成要素を含み得る。そのため、動作124は、センサ・データ102の適切な使用が管理されるように、センサ・データ102に依拠する運転スタック126のあらゆる下流タスクに指示を与えてよい。
As an example, a first drivability may be determined for object detection operations with respect to the perception layer of the driving
図1Aに戻って参照すると、実施例では、機械学習モデル104は、センサ・データ102によって与えられた情報と、トレーニング・エンジン128によって与えられた情報との両方を用いてトレーニングされ得る。実例では、トレーニング・エンジン128はグラウンド・トゥルース・データ130を含み得る。いくつかの実施例において、グラウンド・トゥルース・データ130はセンサ・データ102に対応するラベル又は注釈を含み得る。たとえば、センサ・データ102Aのそれぞれのインスタンスに関して、ラベル又は注釈は、カメラの視界遮蔽の量、カメラの視界遮蔽に対応する視界遮蔽分類、照明レベル、進路表面の状態、視認距離、シーン・タイプ分類、及びシーン・タイプ分類に対応するシーンまでの距離のうちの1つ又は複数に対応し得る。ラベル及び注釈は、描画プログラム(たとえば注釈プログラム)、コンピュータ支援設計(CAD:computer aided design)プログラム、ラベリング・プログラム、注釈を生成するのに適した別のタイプのプログラム内で生成され得、及び/又はいくつかの実例では手描きされ得る。任意の実例において、グラウンド・トゥルース・データ130は、合成的に作成される(たとえば、コンピュータ・モデル又はレンダリングから生成される)こと、実際に作成される(たとえば、現実世界データから設計して作成される)こと、マシン自動化される(たとえば特徴分析及び学習を使用してデータから特徴を抽出し、次いでラベルを生成される)こと、人によって注釈される(たとえば、ラベラ若しくは注釈エキスパートがラベルの位置を定義する)こと、及び/又はそれらの組合せ(たとえば、見える物体を人が識別して、コンピュータが物体までの距離及び対応する視認距離を判定すること)が可能である。
Referring back to FIG. 1A, in an embodiment,
いくつかの実施例において、シーンまでの距離に関するグラウンド・トゥルース・ラベルの判定は手動で実行され得る。実例では、車両がトンネル内にあるフレームなど、車両がそのシーンにあるフレームが選択され得る。この後に繰り返すフレームは、同じシーンが見られなくなるまで、距離0を用いてマークを付けられてよい。このシーンの前に繰り返すフレームは、同じシーンの入口が見つかるか、又は同じシーンが見られなくなるまで、距離0を用いてマークを付けられてよい。次いで、前フレームと現行フレームとの間の距離を計算するためにIMUデータ及び/又はGPSデータが使用され得る。その距離は、このシーンまでの全長が判定され得るように、現行フレームの距離を設定するために前フレームの距離に対して加算され得る。 In some embodiments, the determination of ground truth labels for distances to scenes may be performed manually. In an example, frames with the vehicle in the scene may be selected, such as frames in which the vehicle is in a tunnel. Frames that repeat after this may be marked with a distance of 0 until the same scene is no longer seen. Frames that repeat before this scene may be marked with a distance of 0 until the same scene entrance is found or the same scene is no longer seen. IMU and/or GPS data can then be used to calculate the distance between the previous frame and the current frame. That distance can be added to the distance of the previous frame to set the distance of the current frame so that the total length to this scene can be determined.
実施例では、トレーニング・エンジン128は、出力106をグラウンド・トゥルース・データ130(たとえば、カメラの視界遮蔽の量、カメラの視界遮蔽に対応する視界遮蔽分類、照明レベル、進路表面の状態、視認距離、シーン・タイプ分類、及びシーン・タイプ分類に対応するシーンまでの距離のうちの1つ又は複数に対応する)に対して比較するための損失関数132を含み得る。実施例では、機械学習モデル104は、センサ・データ102を用いて、損失関数132の値が所定の閾値未満になるまで複数の反復を使用してトレーニングされ得る。交差エントロピー損失、平均二乗誤差、平均絶対誤差、平均偏り誤差、及び/又は他の損失関数タイプなど、任意のタイプの損失関数が使用され得る。いくつかの実例では、損失関数132の勾配は、パラメータのトレーニングに関して繰り返し計算され得る。機械学習モデル104のトレーニング中に損失関数132を最適化するために、Adamオプティマイザ、確率的勾配降下法、又は他のタイプの最適化アルゴリズムなどのオプティマイザが使用されてよい。機械学習モデル104は、トレーニング・パラメータが最適値、目標値、又は許容値に収斂するまで、繰り返しトレーニングされ得る。
In an embodiment,
ここで図2A~2Bを参照すると、図2A~2Bは、本開示のいくつかの実施例による、様々な視認距離のセンサ・データ表現の例示的視覚化である。図2Aに関して、(豪雨を含む)視覚化200Aが、(たとえばデータ収集車両のカメラからの画像といった)センサ・データ102Aのインスタンスに対応すると想定すると、車両202Aに関して、深度値は、(たとえばLiDAR、RADARなどの)深度センサからの出力、機械学習モデル又はニューラル・ネットワークからの出力、コンピュータ・ビジョン・アルゴリズムからの出力、並びに/或いは別の出力タイプに基づいて明らかにされ得る。そのような実例では、データ収集車両は、車両202Aを含むセンサ・データ102Aのインスタンスを生成していたので、環境における物体までの深度又は距離の情報を判定するための基礎をなす1つ又は複数のプロセスを実行していた可能性がある。そのため、車両202Aがデータ収集車両から最も遠い視認物体であって、車両202Aまでの深度が既知であれば、センサ・データ102Aのインスタンスに関する視認距離は、車両202Aまでの深度又は距離に対応し得る(実施例では、たとえば環境の視認距離が車両202Aを超える場合には追加距離を加え、車両202Aが弱く見えたり不鮮明であったりすれば距離をいくらかより小さくする)。同様に、(小雨状態を含む)視覚化200Bに関して、車両202Bが視認でき、したがって、視認距離は、車両202Bに対応する深度又は距離の値を使用して判定され得る。図2A~2Bに関して雨が示され、説明されているが、これは限定を意図するものではなく、霧、雪、みぞれ、あられ、照明、閉鎖、それらの組合せなど他の状況における視認距離は、本開示の実施例によって判定され得る。
2A-2B, FIGS. 2A-2B are exemplary visualizations of sensor data representations of various viewing distances, according to some embodiments of the present disclosure. With respect to FIG. 2A, assuming that
ここで図3を参照すると、図3は、本開示のいくつかの実施例による、様々なレベルのセンサ視界遮蔽を伴うセンサ・データの例示的視覚化を含む。たとえば、機械学習モデル104は、入力画像310Aを表す画像データを入力として使用して、画像の視界遮蔽領域312及び314を含む画像マスク310Bを出力し得る。1つ又は複数の実施例では、画像310Aの上部は、(図3に描写されたような)雨水、異物、又は日光からのグレア若しくは反射によって、不明瞭になり得、又は不鮮明になり得る。異なるRGB色又は指標によって異なる分類が表現され得る。視界遮蔽領域312は遮断された領域又は不鮮明な領域として分類されてよく、視界遮蔽領域314も遮断された領域又は不鮮明な領域として分類されてよい。視界遮蔽領域312及び314の画素は、同様に、遮断された画素又は不鮮明な画素として分類されてよい。視覚化310Cは、画像マスク310Bを重ね合わせた画像310Aを示す。このようにして、センサ視界遮蔽は、領域特定のやり方で正確に判定されて視認され得る。たとえば、画像310Aに関して、運転性の判定は、画像310Aが自律又は半自律の運転動作に関して有効であるような、高度なものになり得る。これは、画像310Aが不鮮明なのは一部のみであり、この部分は環境の空であって、動作124に影響がないはずだからである。
Referring now to FIG. 3, FIG. 3 includes exemplary visualizations of sensor data with varying levels of sensor visibility occlusion, according to some embodiments of the present disclosure. For example,
ここで図4A~4Bを参照すると、図4A~4Bは、本開示のいくつかの実施例による、様々なシーン・タイプに対応するセンサ・データの図示の例示的視覚化を含む。図4Aに示されるように、機械学習モデル104は、センサ・データ102などの画像データ及び/又はトレーニング・エンジン128によって供給されたデータを使用して、トンネルなどのシーンを表すデータを出力することができる。図4Bに示されるように、機械学習モデル104は、センサ・データ102などの画像データ及び/又はトレーニング・エンジン128によって供給されたデータを使用して、料金所などのシーンを表すデータを出力することができる。
4A-4B, FIGS. 4A-4B include illustrative example visualizations of sensor data corresponding to various scene types, according to some embodiments of the present disclosure. As shown in FIG. 4A,
ここで図5を参照すると、本明細書に記載される方法500の各ブロックは、ハードウェア、ファームウェア、及び/又はソフトウェアの任意の組合せを使用して実行され得る計算プロセスを含む。たとえば、様々な機能は、メモリに記憶された命令を実行するプロセッサによって、実施され得る。方法500はまた、コンピュータ記憶媒体に記憶されたコンピュータ使用可能命令として実施され得る。方法500は、いくつか例を挙げると、独立型アプリケーション、サービス若しくはホスト型サービス(独立型の若しくは別のホスト型サービスと組み合わせた)、又は別の製品へのプラグインによって、提供され得る。加えて、方法500は、実例として、図6A~6Dのエゴマシン600に関して、説明されている。しかしながら、この方法500は、本明細書に記載のものを含むが、これらに限定されない、任意の1つのプロセス内で、及び/又は、任意の1つのシステム、若しくはプロセスとシステムとの任意の組合せによって、追加で又は別法として実行され得る。
Referring now to FIG. 5, each block of
図5は、本開示のいくつかの実施例による、ニューラル・ネットワークを使用して、照明レベル、進路表面の状態、視認距離、シーン分類、シーンまでの距離、並びにセンサ視界遮蔽及びその原因を判定するための方法500を示すフロー図である。
FIG. 5 illustrates using a neural network to determine lighting levels, path surface conditions, viewing distance, scene classification, distance to scene, and sensor visibility occlusions and their causes, according to some embodiments of the present disclosure. 5 is a flow diagram illustrating a
方法500は、ブロックB502において、ニューラル・ネットワークを使用して、少なくとも、1つ又は複数のセンサを使用して生成された環境の画像データに基づいて、環境に対応する動作領域の1つ又は複数のパラメータを表すデータを計算することを含む。実例において、1つ又は複数のパラメータは、カメラの視界遮蔽のレベル、カメラの視界遮蔽に対応する視界遮蔽の分類、照明レベル、進路表面の状態、視認距離、シーン・タイプ分類、又はシーン・タイプ分類に対応するシーンまでの距離のうちの少なくとも1つを含む。さらなる実例では、ニューラル・ネットワークは、センサ・データ102及び/又はグラウンド・トゥルース・データ130及び/又は損失関数132を使用して、カメラの視界遮蔽、カメラの視界遮蔽に対応する視界遮蔽分類、照明レベル、進路表面の状態、視認距離、シーン・タイプ分類、及びシーン・タイプ分類に対応するシーンまでの距離を表すデータを計算し得る。
At block B502, the
方法500は、ブロックB504において、データに少なくとも部分的に基づいて、環境に対応するエゴマシンの動作レベルを判定することを含む。たとえば、エゴマシンの動作レベルは、カメラの視界遮蔽、カメラの視界遮蔽に対応する視界遮蔽の分類、照明レベル、進路表面の状態、視認距離、シーン・タイプ分類、及び/又はシーン・タイプ分類に対応するシーンまでの距離のうちの1つ又は複数に基づいて判定され得る。
The
方法500は、ブロックB506において、動作レベルに応じてエゴマシンの動作を制御することを含む。たとえば、シーン・タイプ分類が料金所と判定され、及び/又はシーンまでの距離が91.44メートル(100ヤード)と判定された場合には、エゴマシンは本開示の実施例に従って減速してよい。他の実例では、視認距離が短いと判定された場合には、エゴマシンは、減速するか又は他の安全操作(停止する、安全な場所又は指定された場所まで移動する、など)を実行してもよい。
The
(例示的自律型車両)
図6Aは、本開示のいくつかの実施例による、例示的自律型車両600の図である。自律型車両600(或いは、本明細書で「車両600」と称される)は、旅客車両、たとえば、乗用車、トラック、バス、ファースト・レスポンダ車両、シャトル、電気又は原動機付自転車、オートバイ、消防車、警察車両、救急車、ボート、建設車両、潜水艦、ドローン、トレーラに連結された車両、及び/又は別のタイプの車両(たとえば、無人の及び/又は1人若しくは複数の乗客を乗せた)を含み得るが、これらに限定されない。自律型車両は、一般に、米国運輸省道路交通安全局(NHTSA:National Highway Traffic Safety Administration)、米国運輸省の部署、及び自動車技術者協会(SAE:Society of Automotive Engineers)「Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicle」(2018年6月15日に公開された規格番号J3016-201806、2016年9月30日に公開された規格番号J3016-201609、及びこの規格の前の及び未来のバージョン)によって定義される、自動化レベルに関して記述される。車両600は、自律運転レベルのレベル3~レベル5のうちの1つ又は複数による機能の能力を有し得る。車両600は、自律運転レベルのレベル1~レベル5のうちの1つ又は複数による機能性の能力を有し得る。たとえば、車両600は、実施例に応じて、運転者支援(レベル1)、部分的自動化(レベル2)、条件的自動化(レベル3)、高い自動化(レベル4)、及び/又は完全な自動化(レベル5)の能力を有し得る。本明細書では「自律」という用語は、車両600又は他のマシンの任意の及び/又はすべてのタイプの自律性、たとえば、完全に自律していること、高度に自律していること、条件的に自律していること、部分的に自律していること、補助的自律を提供すること、半自律していること、主として自律していること、又は他の指定、を含み得る。
(exemplary autonomous vehicle)
FIG. 6A is a diagram of an exemplary
車両600は、車両のシャシ、車体、車輪(たとえば、2、4、6、8、18など)、タイヤ、車軸、及び他の構成要素などの構成要素を含み得る。車両600は、内部燃焼エンジン、ハイブリッド動力装置、完全な電気式エンジン、及び/又は別の推進システム・タイプなど、推進システム650を含み得る。推進システム650は、車両600の推進力を有効にするために、トランスミッションを含み得る、車両600のドライブ・トレインに接続され得る。推進システム650は、スロットル/加速装置652からの信号の受信に応答して制御され得る。
ハンドルを含み得る、ステアリング・システム654は、推進システム650が動作しているときに(たとえば、車両が移動中のときに)車両600のかじを取る(たとえば、所望の進路又はルートに沿って)ために使用され得る。ステアリング・システム654は、ステアリング・アクチュエータ656から信号を受信することができる。ハンドルは、完全自動化(レベル5)機能のオプションでもよい。
Steering system 654, which may include a steering wheel, steers vehicle 600 (e.g., along a desired course or route) when
ブレーキ・センサ・システム646は、ブレーキ・アクチュエータ648及び/又はブレーキ・センサからの信号の受信に応答して車両ブレーキを動作させるために使用され得る。
1つ又は複数のシステム・オン・チップ(SoC:system on Chip)604(図6C)及び/又はGPUを含み得る、コントローラ636は、車両600の1つ若しくは複数の構成要素及び/又はシステムに信号(たとえば、コマンドの表現)を提供することができる。たとえば、コントローラは、1つ又は複数のブレーキ・アクチュエータ648を介して車両ブレーキを動作させて、1つ又は複数のステアリング・アクチュエータ656を介してステアリング・システム654を動作させて、1つ又は複数のスロットル/加速装置652を介して推進システム650を動作させるために、信号を送ることができる。コントローラ636は、センサ信号を処理する、並びに律的運転を可能にするために及び/又は運転者の車両600の運転を支援するために動作コマンド(たとえば、コマンドを表す信号)を出力する、1つ又は複数の搭載された(たとえば、統合された)計算デバイス(たとえば、スーパーコンピュータ)を含み得る。コントローラ636は、自律運転機能のための第1のコントローラ636、機能的安全性機能のための第2のコントローラ636、人工知能機能(たとえば、コンピュータ・ビジョン)のための第3のコントローラ636、インフォテインメント機能のための第4のコントローラ636、緊急状態における冗長性のための第5のコントローラ636、及び/又は他のコントローラを含み得る。いくつかの実例では、単一のコントローラ636が、前述の機能のうちの2個以上を処理することができ、2個以上のコントローラ636が、単一の機能、及び/又はその任意の組合せを処理することができる。
コントローラ636は、1つ又は複数のセンサから受信したセンサ・データ(たとえば、センサ入力)に応答して車両600の1つ若しくは複数の構成要素及び/又はシステムを制御するための信号を提供することができる。センサ・データは、限定ではなく実例として、全地球的航法衛星システム・センサ658(たとえば、グローバル・ポジショニング・システム・センサ)、RADARセンサ660、超音波センサ662、LIDARセンサ664、慣性計測装置(IMU:inertial measurement unit)センサ666(たとえば、加速度計、ジャイロスコープ、磁気コンパス、磁力計など)、マイクロフォン696、ステレオ・カメラ668、ワイド・ビュー・カメラ670(たとえば、魚眼カメラ)、赤外線カメラ672、サラウンド・カメラ674(たとえば、360度カメラ)、長距離及び/又は中距離カメラ698、スピード・センサ644(たとえば、車両600のスピードを測定するための)、振動センサ642、ステアリング・センサ640、ブレーキ・センサ(たとえば、ブレーキ・センサ・システム646の一部としての)、及び/又は他のセンサ・タイプから受信され得る。
コントローラ636のうちの1つ又は複数のコントローラは、車両600の計器群632から入力(たとえば、入力データによって表される)を受信し、出力(たとえば、出力データ、ディスプレイ・データなどによって表される)をヒューマン・マシン・インターフェース(HMI:human-machine interface)ディスプレイ634、可聴式アナンシエータ、ラウドスピーカ、及び/又は車両600の他の構成要素を介して提供することができる。出力は、車両速度、スピード、時間、マップ・データ(たとえば、図6CのHDマップ622)、位置データ(たとえば、マップ上などの、車両600の位置)、方向、他の車両の位置(たとえば、占有グリッド)、コントローラ636によって把握されるものとしての物体及び物体の状況に関する情報などの、情報を含み得る。たとえば、HMIディスプレイ634は、1つ又は複数の物体(たとえば、道路標識、警告標識、交通信号の変化など)の存在、及び/又は車両が行った、行っている、又は行うであろう運転操作(たとえば、今、車線変更をしていること、3.22km(2マイル)内の出口34Bを出ることなど)に関する情報を表示することができる。
One or more of
車両600はさらに、1つ若しくは複数のワイヤレス・アンテナ626及び/又はモデムを使用して1つ若しくは複数のネットワークを介して通信することができるネットワーク・インターフェース624を含む。たとえば、ネットワーク・インターフェース624は、LTE、WCDMA(登録商標)、UMTS、GSM、CDMA2000などを介する通信の能力を有し得る。ワイヤレス・アンテナ626はまた、ブルートゥース(登録商標)、ブルートゥースLE、Z-Wave、ZigBeeなどのローカル・エリア・ネットワーク、及び/又はLoRaWAN、SigFoxなどのロー・パワー・ワイドエリア・ネットワーク(LPWAN:low power wide-area network)を使用し、環境内の物体(たとえば、車両、モバイル・デバイスなど)の間の通信を可能にすることができる。
図6Bは、本開示のいくつかの実施例による、図6Aの例示的自律型車両600のカメラ位置及び視野の実例である。カメラ及びそれぞれの視野は、1つの例示的実施例であり、限定することは意図されていない。たとえば、追加の及び/又は代替カメラが含まれ得る、及び/又はカメラは車両600の異なる位置に置かれ得る。
FIG. 6B is an illustration of camera positions and fields of view of exemplary
カメラのカメラ・タイプは、車両600の構成要素及び/又はシステムと使用するようになされ得るデジタル・カメラを含み得るが、これに限定されない。カメラは、自動車安全整合性レベル(ASIL:automotive safety integrity level)Bにおいて及び/又は別のASILにおいて動作することができる。カメラ・タイプは、実施例に応じて、60フレーム/秒(fps)、120fps、240fpsなど、任意の画像キャプチャ・レートの能力を有し得る。カメラは、ロール・シャッタ、グローバル・シャッタ、別のタイプのシャッタ、又はその組合せを使用する能力を有し得る。いくつかの実例では、カラー・フィルタ・アレイは、RCCC(red clear clear clear)カラー・フィルタ・アレイ、RCCB(red clear clear blue)カラー・フィルタ・アレイ、RBGC(red blue green clear)カラー・フィルタ・アレイ、Foveon X3カラー・フィルタ・アレイ、Bayerセンサ(RGGB)カラー・フィルタ・アレイ、モノクロ・センサ・カラー・フィルタ・アレイ、及び/又は別のタイプのカラー・フィルタ・アレイを含み得る。一部の実施例では、RCCC、RCCB、及び/又はRBGCカラー・フィルタ・アレイを有するカメラなどのクリア画素カメラは、光感度を上げるための取り組みにおいて使用され得る。
Camera types of cameras may include, but are not limited to, digital cameras that may be adapted for use with
いくつかの実例では、カメラのうちの1つ又は複数が、先進運転者支援システム(ADAS)機能(たとえば、冗長又はフェイルセーフ設計の一部として)を実行するために使用され得る。たとえば、多機能モノ・カメラは、車線逸脱警報、交通標識アシスト及びインテリジェント・ヘッドランプ制御を含む機能を提供するために設置され得る。カメラのうちの1つ又は複数(たとえば、すべてのカメラ)が、画像データ(たとえば、ビデオ)を同時に記録及び提供することができる。 In some instances, one or more of the cameras may be used to perform advanced driver assistance system (ADAS) functions (eg, as part of a redundant or failsafe design). For example, a multi-function mono camera can be installed to provide functions including lane departure warning, traffic sign assist and intelligent headlamp control. One or more of the cameras (eg, all cameras) can simultaneously record and provide image data (eg, video).
カメラのうちの1つ又は複数は、カメラの画像データ・キャプチャ能力を妨げることがある自動車内からの迷光及び反射(たとえば、フロントガラスのミラーにおいて反射されたダッシュボードからの反射)を取り除くために、カスタム設計された(3D印刷された)部品などの取付部品において取り付けられ得る。サイドミラー取付部品を参照すると、サイドミラー部品は、カメラ取付板がサイドミラーの形状に合うように、カスタム3D印刷され得る。いくつかの実例では、カメラは、サイドミラー内に統合され得る。サイドビュー・カメラについては、カメラはまた、キャビンの各角にある4個の支柱内に統合され得る。 One or more of the cameras are used to filter out stray light and reflections from within the vehicle (e.g. reflections from the dashboard reflected in the windshield mirrors) that can interfere with the camera's ability to capture image data. , in a mounting component such as a custom designed (3D printed) part. With reference to the side mirror mounting component, the side mirror component can be custom 3D printed such that the camera mounting plate matches the shape of the side mirror. In some instances, the camera may be integrated within the side mirror. For side-view cameras, the cameras can also be integrated into four stanchions at each corner of the cabin.
車両600の前の環境の部分を含む視野を有するカメラ(たとえば、前向きのカメラ)は、前向きの進路及び障害物を識別するのを助け、1つ若しくは複数のコントローラ636及び/又は制御SoCの助けにより、占有グリッドの生成及び/又は好ましい車両進路の決定に不可欠な情報を提供するのを助けるための、サラウンド・ビューのために使用され得る。前向きのカメラは、緊急ブレーキング、歩行者検出、及び衝突回避を含む、LIDARと同じADAS機能の多くを実行するために使用され得る。前向きのカメラはまた、車線逸脱警報(LDW:Lane Departure Warning)、自律的クルーズ制御(ACC:Autonomous Cruise Control)、及び/又は交通標識認識などの他の機能を含むADAS機能及びシステムのために使用され得る。
A camera with a field of view that includes a portion of the environment in front of vehicle 600 (e.g., a forward-facing camera) helps identify forward-facing paths and obstacles with the aid of one or
様々なカメラが、たとえば、CMOS(complementary metal oxide semiconductor)カラー撮像装置を含む単眼カメラ・プラットフォームを含む、前向きの構成において使用され得る。別の実例は、周辺(たとえば、歩行者、交差する交通又は自転車)からの視界に入る物体を把握するために使用され得るワイド・ビュー・カメラ670でもよい。図6Bにはワイド・ビュー・カメラは1つだけ示されているが、車両600には任意の数のワイド・ビュー・カメラ670が存在し得る。加えて、長距離カメラ698(たとえば、ロングビュー・ステレオ・カメラ・ペア)が、特に、ニューラル・ネットワークがまだトレーニングされていない物体について、深度ベースの物体検出のために使用され得る。長距離カメラ698はまた、物体検出及び分類、並びに基本物体追跡のために使用され得る。
Various cameras may be used in front-facing configurations, including, for example, a monocular camera platform that includes a complementary metal oxide semiconductor (CMOS) color imager. Another example may be a
1つ又は複数のステレオ・カメラ668もまた、前向きの構成に含まれ得る。ステレオ・カメラ668は、単一のチップ上に統合されたCAN又はイーサネット(登録商標)・インターフェースを有するプログラマブル論理(FPGA)及びマルチコア・マイクロプロセッサを提供し得る、拡張可能な処理ユニットを備えた統合された制御ユニットを含み得る。そのようなユニットは、画像内のすべてのポイントの距離推定値を含む、車両の環境の3Dマップを生成するために使用され得る。代替となるステレオ・カメラ668は、2個のカメラ・レンズ(左と右に1個ずつ)と、車両から対象物体までの距離を測定する及び生成された情報(たとえば、メタデータ)を使用して自律的緊急ブレーキング及び車線逸脱警報機能をアクティブにすることができる画像処理チップとを含み得る、コンパクト・ステレオ・ビジョン・センサを含み得る。他のタイプのステレオ・カメラ668が、本明細書に記載のものに加えて、又はそれらの代わりに、使用されてもよい。
One or more
車両600の側面に対する環境の部分を含む視野を有するカメラ(たとえば、サイドビュー・カメラ)が、占有グリッドを作成及び更新するために並びに側方衝撃衝突警報を生成するために使用される情報を提供する、サラウンド・ビューのために使用され得る。たとえば、サラウンド・カメラ674(たとえば、図6Bに示されるような4個のサラウンド・カメラ674)は、車両600上に位置付けられ得る。サラウンド・カメラ674は、ワイド・ビュー・カメラ670、魚眼カメラ、360度カメラ、及び/又は同類のものを含み得る。たとえば、4個の魚眼カメラが、車両の前、後ろ、及び側面に配置され得る。代替配置において、車両は、3個のサラウンド・カメラ674(たとえば、左、右、及び後部)を使用してもよく、第4のサラウンド・ビュー・カメラとして1つ又は複数の他のカメラ(たとえば、前向きのカメラ)を活用してもよい。
A camera with a field of view that includes portions of the environment to the sides of the vehicle 600 (e.g., a side-view camera) provides information used to create and update occupancy grids and to generate side impact collision alerts. can be used for surround view. For example, surround cameras 674 (eg, four
車両600の後ろに対する環境の部分を含む視野を有するカメラ(たとえば、後方確認カメラ)が、駐車支援、サラウンド・ビュー、後部衝突警報、並びに占有グリッドの作成及び更新のために使用され得る。本明細書に記載のように、前向きのカメラ(たとえば、長距離及び/又は中距離カメラ698、ステレオ・カメラ668)、赤外線カメラ672など)としても適したカメラを含むがこれらに限定されない、多種多様なカメラが使用され得る。
A camera with a field of view that includes a portion of the environment behind the vehicle 600 (eg, a rear-view camera) may be used for parking assistance, surround view, rear collision warning, and occupancy grid creation and updating. As described herein, a variety of cameras including, but not limited to, cameras also suitable as forward facing cameras (e.g., long and/or
図6Cは、本開示のいくつかの実施例による、図6Aの例示的自律型車両600の例示的システム・アーキテクチャのブロック図である。本明細書に記載されているこの配置及び他の配置は単に実例として説明されていることを理解されたい。他の配置及び要素(たとえば、マシン、インターフェース、機能、順番、機能のグループ分けなど)が、示されたものに加えて又はこれらに代わって使用されてもよく、いくつかの要素はともに除外されてもよい。さらに、本明細書に記載の要素の多くは、離散された若しくは分散された構成要素として又は他の構成要素と併せて、並びに任意の適切な組合せ及び場所において、実装され得る機能エンティティである。エンティティによって実行されるものとして本明細書に記載された様々な機能は、ハードウェア、ファームウェア、及び/又はソフトウェアによって実施され得る。たとえば、様々な機能が、メモリに記憶された命令を実行するプロセッサによって実施され得る。
FIG. 6C is a block diagram of an exemplary system architecture for exemplary
図6Cの車両600の構成要素、特徴、及びシステムのそれぞれは、バス602を介して接続されるものとして図示されている。バス602は、コントローラ・エリア・ネットワーク(CAN)データ・インターフェース(或いは、本明細書では「CANバス」と称される)を含み得る。CANは、ブレーキ、加速度、ブレーキング、ステアリング、フロントガラス・ワイパなどの作動など、車両600の様々な特徴及び機能の制御を助けるために使用される車両600内のネットワークでもよい。CANバスは、それぞれが独自の一意の識別子(たとえば、CAN ID)を有する、数ダース又は数百ものノードを有するように構成され得る。CANバスは、ハンドル角度、対地速度、1分間のエンジン回転(RPM:revolutions per minute)、ボタン位置、及び/又は他の車両状況指標を見つけるために読み取られ得る。CANバスは、ASIL B準拠でもよい。
Each of the components, features, and systems of
バス602は、CANバスであるものとして本明細書に記載されているが、これは限定することを意図されていない。たとえば、CANバスに加えて、又はその代替として、FlexRay及び/又はイーサネット(登録商標)が使用されてもよい。加えて、単一の線が、バス602を表すために使用されているが、これは限定することを意図されていない。たとえば、1つ若しくは複数のCANバス、1つ若しくは複数のFlexRayバス、1つ若しくは複数のイーサネット(登録商標)・バス、及び/又は異なるプロトコルを使用する1つ若しくは複数の他のタイプのバスを含み得る、任意の数のバス602が存在し得る。いくつかの実例では、2個以上のバス602が、異なる機能を実行するために使用され得る、及び/又は冗長性のために使用され得る。たとえば、第1のバス602は衝突回避機能のために使用されてもよく、第2のバス602は作動制御のために使用されてもよい。任意の実例において、各バス602は、車両600の構成要素のいずれかと通信し得、2個以上のバス602が同じ構成要素と通信し得る。いくつかの実例では、車両内の各SoC604、各コントローラ636、及び/又は各コンピュータは、同じ入力データ(たとえば、車両600のセンサからの入力)へのアクセスを有し得、CANバスなどの共通バスに接続され得る。
Although
車両600は、図6Aに関して本明細書で説明されるものなど、1つ又は複数のコントローラ636を含み得る。コントローラ636は、様々な機能のために使用され得る。コントローラ636は、車両600の様々な他の構成要素及びシステムのいずれかに連結されてもよく、車両600、車両600の人工知能、車両600のためのインフォテインメント、及び/又は同類のものの制御のために使用され得る。
車両600は、システム・オン・チップ(SoC)604を含み得る。SoC604は、CPU606、GPU608、プロセッサ610、キャッシュ612、加速装置614、データ・ストア616、及び/又は図示されていない他の構成要素及び特徴を含み得る。SoC604は、様々なプラットフォーム及びシステム内の車両600を制御するために使用され得る。たとえば、SoC604は、1つ又は複数のサーバ(たとえば、図6Dのサーバ678)からネットワーク・インターフェース624を介してマップのリフレッシュ及び/又は更新を取得することができるHDマップ622を有するシステム(たとえば、車両700のシステム)において結合され得る。
CPU606は、CPUクラスタ又はCPU複合体(或いは、本明細書では「CCPLEX」とも称される)を含み得る。CPU606は、複数のコア及び/又はL2キャッシュを含み得る。たとえば、一部の実施例では、CPU606は、コヒーレント・マルチプロセッサ構成内の8個のコアを含み得る。一部の実施例では、CPU606は、4個のデュアルコア・クラスタを含むことができ、各クラスタが専用のL2キャッシュ(たとえば、2MBL2キャッシュ)を有する。CPU606(たとえば、CCPLEX)は、CPU606のクラスタの任意の組合せが所与の時間にアクティブになることを可能にする同時クラスタ動作をサポートするように構成され得る。
CPU606は、以下の特徴のうちの1つ又は複数を含む電力管理能力を実装することができる:個別ハードウェア・ブロックが、動的電力を節約するためにアイドル状態のときに自動的にクロック・ゲーティングされ得る、各コア・クロックは、WFI/WFE命令の実行により命令をコアがアクティブに実行していないときにゲーティングされ得る、各コアは、独立してパワー・ゲーティングされ得る、各コア・クラスタは、すべてのコアがクロック・ゲーティングされる若しくはパワー・ゲーティングされるときに、独立してクロック・ゲーティングされ得る、及び/又は、各コア・クラスタは、すべてのコアがパワー・ゲーティングされるときに、独立してパワー・ゲーティングされ得る。CPU606は、電力状態を管理するための強化されたアルゴリズムをさらに実装することができ、そこでは、許容される電力状態及び予想されるウェイクアップ時間が指定され、ハードウェア/マイクロ・コードが、コア、クラスタ、及びCCPLEXに入力するための最良の電力状態を決定する。処理コアは、作業がマイクロ・コードにオフロードされたソフトウェアにおける簡略化された電力状態入力シーケンスをサポートすることができる。
GPU608は、統合されたGPU(或いは本明細書において「iGPU」と称される)を含み得る。GPU608は、プログラマブルになり得、並行のワークロードに効率的になり得る。一部の実例では、GPU608は、強化されたテンソル命令セットを使用することができる。GPU608は、1つ又は複数のストリーミング・マイクロプロセッサを含み得、そこで、各ストリーミング・マイクロプロセッサは、L1キャッシュ(たとえば、少なくとも96KB記憶容量を有するL1キャッシュ)を含み得、ストリーミング・マイクロプロセッサのうちの2個以上が、L2キャッシュ(たとえば、512KB記憶容量を有するL2キャッシュ)を共用し得る。一部の実施例では、GPU608は、少なくとも8個のストリーミング・マイクロプロセッサを含み得る。GPU608は、計算アプリケーション・プログラミング・インターフェース(API)を使用することができる。加えて、GPU608は、1つ若しくは複数の並行のコンピューティング・プラットフォーム及び/又はプログラミング・モデル(たとえば、NVIDIA(登録商標)のCUDA)を使用することができる。
GPU608は、自動車の及び組み込まれた使用事例における最高のパフォーマンスのために電力最適化され得る。たとえば、GPU608は、FinFET(Fin field-effect transistor)上に製造され得る。しかしながら、これは限定することを意図されておらず、GPU608は、他の半導体製造プロセスを使用し、製造され得る。各ストリーミング・マイクロプロセッサは、複数のブロックに区切られたいくつかの混合適合率(mixed-precision)処理コアを組み込むことができる。限定ではなく、たとえば、64 PF32コア及び32 PF64コアは、4個の処理ブロックに区切られてもよい。そのような実例では、各処理ブロックは、16 FP32コア、8 FP64コア、16 INT32コア、深層学習行列演算のための2個の混合適合率NVIDIA TENSOR COREs、L0命令キャッシュ、ワープ・スケジューラ、発送ユニット、及び/又は64KBレジスタ・ファイルを割り当てられ得る。加えて、ストリーミング・マイクロプロセッサは、計算及びアドレス指定演算の混合を有するワークロードの効率的な実行を提供するための独立した並行の整数及び浮動小数点データ進路を含み得る。ストリーミング・マイクロプロセッサは、並行スレッドの間のより高い細粒度の同期及び連携を可能にするために、独立したスレッド・スケジューリング能力を含み得る。ストリーミング・マイクロプロセッサは、プログラミングを単純化しつつパフォーマンスを向上させるために、結合されたL1データ・キャッシュ及び共用メモリ・ユニットを含み得る。
GPU608は、一部の実例では、900GB/秒のピーク・メモリ帯域幅に関して、提供するための高帯域幅メモリ(HBM:high bandwidth memory)及び/又は16GBHBM2メモリ・サブシステムを含み得る。いくつかの実例では、HBMメモリに加えて、又はこれの代わりに、グラフィックス・ダブル・データ・レート・タイプ5同期ランダム・アクセス・メモリ(GDDR5:graphics double data rate type five synchronous random-access memory)などの同期グラフィックス・ランダム・アクセス・メモリ(SGRAM:synchronous graphics random-access memory)が使用され得る。
GPU608は、メモリ・ページに最も頻繁にアクセスするプロセッサへのそれらのメモリ・ページのより正確な移動を可能にするためにアクセス・カウンタを含む統一されたメモリ技術を含むことができ、それにより、プロセッサ間で共用される記憶範囲の効率を向上させる。いくつかの実例では、アドレス変換サービス(ATS:address translation service)サポートが、GPU608がCPU606ページ・テーブルに直接アクセスすることを可能にするために使用され得る。そのような実例では、GPU608メモリ管理ユニット(MMU:memory management unit)がミスを経験するとき、アドレス変換要求が、CPU606に送信され得る。応答して、CPU606は、アドレスの仮想対現実マッピングのためのそのページ・テーブルを調べることができ、GPU608に変換を送り返す。そのようなものとして、統一されたメモリ技術は、CPU606とGPU608との両方のメモリの単一統一仮想アドレス空間を可能にすることができ、それによりGPU608へのアプリケーションのGPU608プログラミング及びポーティングを単純化する。
加えて、GPU608は、他のプロセッサのメモリへのGPU608のアクセスの頻度を記録することができるアクセス・カウンタを含み得る。アクセス・カウンタは、メモリ・ページが最も頻繁にそのページにアクセスしているプロセッサの物理メモリに移動されることを確実にするのを助けることができる。
Additionally,
SoC604は、本明細書に記載のものを含む任意の数のキャッシュ612を含み得る。たとえば、キャッシュ612は、CPU606とGPU608との両方に利用可能な(たとえば、CPU606とGPU608との両方に接続された)L3キャッシュを含み得る。キャッシュ612は、キャッシュ・コヒーレンス・プロトコル(たとえば、MEI、MESI、MSIなど)を使用することなどによって、線の状態を記録することができるライトバック・キャッシュを含み得る。L3キャッシュは、より小さいキャッシュ・サイズが使用されてもよいが、実施例に応じて、4MB以上を含み得る。
SoC604は、車両600の様々なタスク又は動作のいずれか(たとえば、処理DNN)に関して処理を実行する際に活用され得る論理演算ユニット(ALU:arithmetic logic unit)を含み得る。加えて、SoC604は、システム内で数学演算を実行するための浮動小数点演算ユニット(FPU:floating point unit)(又は他のマス・コプロセッサ又は数値演算コプロセッサ・タイプ)を含み得る。たとえば、SoC104は、CPU606及び/又はGPU608内の実行ユニットとして統合された1つ又は複数のFPUを含み得る。
SoC604は、1つ又は複数の加速装置614(たとえば、ハードウェア・加速装置、ソフトウェア・加速装置、又はその組合せ)を含み得る。たとえば、SoC604は、最適化されたハードウェア加速装置及び/又は大きなオンチップ・メモリを含み得る、ハードウェア加速クラスタを含み得る。大きなオンチップメモリ(たとえば、4MBのSRAM)は、ハードウェア加速クラスタがニューラル・ネットワーク及び他の演算を加速することを可能にし得る。ハードウェア加速クラスタは、GPU608を補完するために及びGPU608のタスクの一部をオフロードするために(たとえば、他のタスクを実行するためのGPU608のより多くのサイクルを解放するために)使用され得る。一実例として、加速装置614は、加速に適するように十分に安定している対象ワークロード(たとえば、知覚、畳み込みニューラル・ネットワーク(CNN:convolutional neural network)など)のために使用され得る。本明細書では、「CNN」という用語は、領域ベースの又は領域的畳み込みニューラル・ネットワーク(RCNN:regional convolutional neural network)及び高速RCNN(たとえば、物体検出のために使用されるものとしての)を含む、すべてのタイプのCNNを含み得る。
加速装置614(たとえば、ハードウェア加速クラスタ)は、深層学習加速装置(DLA:deep learning accelerator)を含み得る。DLAは、深層学習アプリケーション及び推論のために1秒あたり追加の10兆の動作を提供するように構成することができる1つ又は複数のテンソル処理ユニット(TPU:Tensor processing unit)を含み得る。TPUは、画像処理機能(たとえば、CNN、RCNNなどの)を実行するように構成及び最適化された加速装置でもよい。DLAはさらに、特定のセットのニューラル・ネットワーク・タイプ及び浮動小数点演算、並びに推論のために最適化され得る。DLAの設計は、汎用GPUよりも1ミリメートルあたりより多くのパフォーマンスを提供することができ、CPUのパフォーマンスを大きく超える。TPUは、たとえば、特徴と重みとの両方についてINT8、INT16、及びFP16データ・タイプをサポートする、単一インスタンス畳み込み機能、並びにポスト・プロセッサ機能を含む、いくつかの機能を実行することができる。 Accelerator 614 (eg, hardware acceleration cluster) may include a deep learning accelerator (DLA). The DLA may include one or more Tensor Processing Units (TPUs) that can be configured to provide an additional 10 trillion operations per second for deep learning applications and inference. The TPU may be an accelerator configured and optimized to perform image processing functions (eg, CNN, RCNN, etc.). The DLA can be further optimized for a particular set of neural network types and floating point operations and inference. DLA designs can deliver more performance per millimeter than general-purpose GPUs, greatly exceeding the performance of CPUs. The TPU can perform several functions, including, for example, single-instance convolution functions, supporting INT8, INT16, and FP16 data types for both features and weights, as well as post-processor functions.
DLAは、以下を含むがこれらに限定されない、様々な機能のいずれかのために処理済み又は未処理のデータでニューラル・ネットワーク、特にCNN、を迅速に及び効率的に実行することができる:カメラ・センサからのデータを使用する物体識別及び検出のためのCNN、カメラ・センサからのデータを使用する距離推定のためのCNN、マイクロフォンからのデータを使用する緊急車両検出及び識別及び検出のためのCNN、カメラ・センサからのデータを使用する顔認識及び車両所有者識別のためのCNN、及び/又は、セキュリティ及び/又は安全性関連イベントのためのCNN。 DLAs can quickly and efficiently run neural networks, particularly CNNs, on processed or unprocessed data for any of a variety of functions, including but not limited to: cameras - CNN for object identification and detection using data from sensors, CNN for range estimation using data from camera sensors, emergency vehicle detection and identification and detection using data from microphones CNN, CNN for facial recognition and vehicle owner identification using data from camera sensors, and/or CNN for security and/or safety related events.
DLAは、GPU608の任意の機能を実行することができ、そして、推論加速装置を使用することによって、たとえば、設計者は、任意の機能のためにDLA又はGPU608のいずれかを対象にすることができる。たとえば、設計者は、DLA上のCNN及び浮動小数点演算の処理に重点的に取り組み、他の機能をGPU608及び/又は他の加速装置614に任せることができる。
The DLA can perform any function of the
加速装置614(たとえば、ハードウェア加速クラスタ)は、或いはコンピュータ・ビジョン加速装置と本明細書で称され得るプログラマブル・ビジョン加速装置(PVA:programmable vision accelerator)を含み得る。PVAは、先進運転者支援システム(ADAS)、自律運転、及び/又は拡張現実(AR:augmented reality)及び/又は仮想現実(VR:virtual reality)アプリケーションのためのコンピュータ・ビジョン・アルゴリズムを加速するように設計及び構成され得る。PVAは、パフォーマンスと柔軟性との間のバランスをもたらすことができる。たとえば、各PVAは、たとえば、任意の数の縮小命令セット・コンピュータ(RISC:reduced instruction set computer)コア、直接メモリ・アクセス(DMA:direct memory access)、及び/又は任意の数のベクトル・プロセッサを含み得るが、これらに限定されない。 Accelerator 614 (eg, hardware acceleration cluster) may include a programmable vision accelerator (PVA), which may alternatively be referred to herein as a computer vision accelerator. PVA is designed to accelerate computer vision algorithms for advanced driver assistance systems (ADAS), autonomous driving, and/or augmented reality (AR) and/or virtual reality (VR) applications. can be designed and constructed to PVA can provide a balance between performance and flexibility. For example, each PVA may include, for example, any number of reduced instruction set computer (RISC) cores, direct memory access (DMA), and/or any number of vector processors. may include, but are not limited to.
RISCコアは、画像センサ(たとえば、本明細書に記載のカメラのうちのいずれかのカメラの画像センサ)、画像信号プロセッサ、及び/又は同類のものと相互作用することができる。それぞれのRISCコアは、任意の量のメモリを含み得る。RISCコアは、実施例に応じて、いくつかのプロトコルのいずれかを使用することができる。いくつかの実例では、RISCコアは、リアルタイム・オペレーティング・システム(RTOS:real-time operating system)を実行することができる。RISCコアは、1つ若しくは複数の集積回路デバイス、特定用途向け集積回路(ASIC)、及び/又はメモリ・デバイスを使用して、実装され得る。たとえば、RISCコアは、命令キャッシュ及び/又はしっかりと結合されたRAMを含み得る。 The RISC core can interact with an image sensor (eg, the image sensor of any of the cameras described herein), an image signal processor, and/or the like. Each RISC core can contain any amount of memory. The RISC core can use any of several protocols, depending on the implementation. In some instances, the RISC core may run a real-time operating system (RTOS). A RISC core may be implemented using one or more integrated circuit devices, application specific integrated circuits (ASICs), and/or memory devices. For example, a RISC core may include an instruction cache and/or tightly coupled RAM.
DMAは、CPU606から独立したシステム・メモリにPVAの構成要素がアクセスすることを可能にし得る。DMAは、多次元アドレス指定及び/又は循環アドレス指定をサポートすることを含むがこれに限定されないPVAに最適化をもたらすために使用される任意の数の特徴をサポートすることができる。いくつかの実例では、DMAは、ブロック幅、ブロック高さ、ブロック深度、水平ブロック・ステッピング、垂直ブロック・ステッピング、及び/又は深度ステッピングを含み得る、6次元まで又はそれ以上のアドレス指定をサポートすることができる。
DMA may allow PVA components to access system memory independent of
ベクトル・プロセッサは、コンピュータ・ビジョン・アルゴリズムのプログラミングを効率的に柔軟に実行する及び信号処理能力を提供するように設計され得るプログラマブル・プロセッサでもよい。いくつかの実例では、PVAは、PVAコア及び2個のベクトル処理サブシステム・パーティションを含み得る。PVAコアは、プロセッサ・サブシステム、DMAエンジン(たとえば、2個のDMAエンジン)、及び/又は他の周辺装置を含み得る。ベクトル処理サブシステムは、PVAの1次的処理エンジンとして動作することができ、ベクトル処理ユニット(VPU:vector processing unit)、命令キャッシュ、及び/又はベクトル・メモリ(たとえば、VMEM)を含み得る。VPUコアは、たとえば、単一の命令、複数のデータ(SIMD)、超長命令語(VLIW:very long instruction word)デジタル信号プロセッサなど、デジタル信号プロセッサを含み得る。SIMD及びVLIWの組合せは、スループット及びスピードを高めることができる。 A vector processor may be a programmable processor that can be designed to efficiently and flexibly perform programming of computer vision algorithms and provide signal processing capabilities. In some instances, a PVA may include a PVA core and two vector processing subsystem partitions. A PVA core may include a processor subsystem, a DMA engine (eg, two DMA engines), and/or other peripherals. The vector processing subsystem may operate as the PVA's primary processing engine and may include a vector processing unit (VPU), an instruction cache, and/or a vector memory (eg, VMEM). The VPU core may include a digital signal processor, such as, for example, a single instruction, multiple data (SIMD), very long instruction word (VLIW) digital signal processor. Combining SIMD and VLIW can increase throughput and speed.
それぞれのベクトル・プロセッサは、命令キャッシュを含み得、専用のメモリに連結され得る。結果として、一部の実例では、それぞれのベクトル・プロセッサは、他のベクトル・プロセッサから独立して実行するように構成され得る。他の実例において、特定のPVAに含まれるベクトル・プロセッサは、データ並列処理を用いるように構成され得る。たとえば、一部の実施例では、単一のPVAに含まれる複数のベクトル・プロセッサは、同じコンピュータ・ビジョン・アルゴリズムを、しかし画像の異なる領域上で、実行することができる。他の実例において、特定のPVAに含まれるベクトル・プロセッサは、異なるコンピュータ・ビジョン・アルゴリズムを、同じ画像上で、同時に実行することができ、或いは順次画像又は画像の部分で異なるアルゴリズムを実行することさえできる。特に、任意の数のPVAは、ハードウェア加速クラスタに含まれ得、任意の数のベクトル・プロセッサは、それぞれのPVAに含まれ得る。加えて、PVAは、全体的システム安全性を高めるために、追加のエラー訂正コード(ECC:error correcting code)メモリを含み得る。 Each vector processor may include an instruction cache and may be coupled to dedicated memory. As a result, in some instances each vector processor may be configured to execute independently of other vector processors. In other examples, vector processors included in a particular PVA can be configured to use data parallelism. For example, in some embodiments, multiple vector processors contained in a single PVA can execute the same computer vision algorithm, but on different regions of the image. In other examples, vector processors included in a particular PVA can run different computer vision algorithms simultaneously on the same image, or run different algorithms on successive images or portions of images. can even In particular, any number of PVAs may be included in a hardware acceleration cluster, and any number of vector processors may be included in each PVA. Additionally, the PVA may include additional error correcting code (ECC) memory to enhance overall system security.
加速装置614(たとえば、ハードウェア加速クラスタ)は、加速装置614のための高帯域幅、低レイテンシSRAMを提供するための、コンピュータ・ビジョン・ネットワーク・オンチップ及びSRAMを含み得る。いくつかの実例では、オンチップ・メモリは、限定ではなく実例として、PVAとDLAとの両方によってアクセス可能でもよい、8個のフィールド構成可能なメモリ・ブロックから成る、少なくとも4MBのSRAMを含み得る。各ペアのメモリ・ブロックは、高度周辺バス(APB:advanced peripheral bus)インターフェース、構成回路、コントローラ、及びマルチプレクサを含み得る。任意のタイプのメモリが、使用され得る。PVA及びDLAは、メモリへの高速アクセスを有するPVA及びDLAを提供するバックボーンを介してメモリにアクセスすることができる。バックボーンは、(たとえば、APBを使用して)PVA及びDLAをメモリに相互接続するコンピュータ・ビジョン・ネットワーク・オンチップを含み得る。 Accelerator 614 (eg, hardware acceleration cluster) may include a computer vision network-on-chip and SRAM to provide high-bandwidth, low-latency SRAM for accelerator 614 . In some instances, the on-chip memory may include, by way of illustration and not limitation, at least 4MB of SRAM consisting of eight field configurable memory blocks that may be accessible by both PVA and DLA. . Each pair of memory blocks may include an advanced peripheral bus (APB) interface, configuration circuitry, a controller, and a multiplexer. Any type of memory can be used. PVAs and DLAs can access memory through a backbone that provides PVAs and DLAs with fast access to memory. The backbone may include a computer vision network-on-chip interconnecting PVAs and DLAs to memory (eg, using APBs).
コンピュータ・ビジョン・ネットワーク・オンチップは、PVAとDLAとの両方が作動可能及び有効信号を提供することを、任意の制御信号/アドレス/データの送信の前に、決定するインターフェースを含み得る。そのようなインターフェースは、制御信号/アドレス/データを送信するための別個のフェーズ及び別個のチャネル、並びに連続的データ転送のためのバーストタイプの通信を提供することができる。このタイプのインターフェースは、ISO26262又はIEC61508規格に従うことができるが、他の規格及びプロトコルが使用されてもよい。 The computer vision network-on-chip may include an interface that determines, prior to sending any control signals/addresses/data, that both the PVA and DLA provide ready and valid signals. Such an interface can provide separate phases and separate channels for transmitting control signals/addresses/data, as well as burst-type communication for continuous data transfer. This type of interface may follow the ISO26262 or IEC61508 standards, although other standards and protocols may be used.
いくつかの実例では、SoC604は、2018年8月10日に出願された特許文献1に記載されるような、リアルタイム・レイトレーシング・ハードウェア加速装置を含み得る。リアルタイム・レイトレーシング・ハードウェア加速装置は、RADAR信号解釈のための、音響伝播合成及び/又は分析のための、SONARシステムのシミュレーションのための、一般波伝播シミュレーションのための、ローカリゼーション及び/又は他の機能を目的とするLIDARデータに対する比較のための、及び/又は他の使用のための、リアルタイム視覚化シミュレーションを生成するために、(たとえば、世界モデル内の)物体の位置及び規模を迅速に効率的に決定するために使用され得る。一部の実施例では、1つ又は複数のツリー・トラバース・ユニット(TTU:tree traversal unit)が、1つ又は複数のレイトレーシング関連動作を実行するために使用され得る。
In some instances,
加速装置614(たとえば、ハードウェア加速装置クラスタ)は、自律運転のための多様な用途を有する。PVAは、ADAS及び自律型車両における極めて重要な処理段階に使用され得るプログラマブル・ビジョン加速装置でもよい。PVAの能力は、低電力及び低レイテンシにおいて、予測可能な処理を必要とするアルゴリズムの領域にふさわしい。言い換えれば、PVAは、低レイテンシ及び低電力とともに予測可能な実行時間を必要とする、小さなデータ集合上でも、半高密度の又は高密度の通常の計算で上手く機能する。それ故に、PVAは、物体検出及び整数計算での動作において効率的であるので、自律型車両のためのプラットフォームとの関連で、PVAは、クラシック・コンピュータ・ビジョン・アルゴリズムを実行するように設計される。 Accelerators 614 (eg, hardware accelerator clusters) have a variety of applications for autonomous driving. PVA may be a programmable vision accelerator that can be used for critical processing steps in ADAS and autonomous vehicles. PVA's capabilities are well suited to areas of algorithms that require predictable processing at low power and low latency. In other words, PVA performs well in semi-dense or dense regular computations even on small data sets that require predictable execution times with low latency and low power. Therefore, in the context of platforms for autonomous vehicles, PVA is designed to run classic computer vision algorithms, as it is efficient in object detection and working with integer arithmetic. be.
たとえば、本技術の1つの実施例によれば、PVAは、コンピュータ・ステレオ・ビジョンを実行するために使用される。半グローバルなマッチングベースのアルゴリズムが、一部の実例では使用され得るが、これは限定することを意図されていない。レベル3~5の自律運転のための多数のアプリケーションは、動き推定/ステレオ・マッチング・オンザフライ(たとえば、SFM(structure from motion)、歩行者認識、レーン検出など)を必要とする。PVAは、2個の単眼カメラからの入力でコンピュータ・ステレオ・ビジョン機能を実行することができる。 For example, according to one embodiment of the present technology, PVA is used to perform computer stereo vision. A semi-global matching-based algorithm may be used in some instances, but this is not intended to be limiting. Many applications for level 3-5 autonomous driving require motion estimation/stereo matching on-the-fly (eg, structure from motion (SFM), pedestrian recognition, lane detection, etc.). The PVA can perform computer stereo vision functions with input from two monocular cameras.
いくつかの実例では、PVAは、高密度のオプティカル・フローを実行するために使用され得る。処理されたRADARを提供するために未加工のRADARデータを処理する(たとえば、4D高速フーリエ変換を使用して)ことによる。他の実例において、PVAは、たとえば、未加工飛行時間のデータを処理して、処理済みの飛行時間のデータを提供することにより、飛行時間の深度処理に使用される。 In some instances, PVA may be used to perform high density optical flow. By processing the raw RADAR data (eg, using a 4D Fast Fourier Transform) to provide processed RADAR. In another example, PVA is used for time-of-flight depth processing, for example, by processing raw time-of-flight data to provide processed time-of-flight data.
DLAは、たとえば、各物体検出の信頼性の測定値を出力するニューラル・ネットワークを含む、制御及び運転安全性を強化するために任意のタイプのネットワークを実行するために使用され得る。そのような信頼性値は、確率として、又は他の検出と比較した各検出の相対的「重み」を提供するものとして、解釈され得る。この信頼性値は、どの検出が誤判定検出ではなくて真陽性検出と考えられるべきであるかに関するさらなる決定をシステムが行うことを可能にする。たとえば、システムは、信頼性の閾値を設定し、真陽性検出としての閾値を超える検出のみを考慮することができる。自動緊急ブレーキング(AEB:automatic emergency braking)システムにおいて、誤判定検出は、車両に緊急ブレーキングを自動で実行させることになり、これは明らかに望ましくない。したがって、最も確信のある検出のみが、AEBのトリガとして考えられるべきである。DLAは、信頼性値を退行するニューラル・ネットワークを実行し得る。ニューラル・ネットワークは、境界ボックス次元、(たとえば、別のサブシステムから)取得されたグラウンド・プレーン推定、ニューラル・ネットワーク及び/又は他のセンサ(たとえば、LIDARセンサ664又はRADARセンサ660)から取得された物体の車両600方位、距離、3D位置推定と相関する慣性計測装置(IMU:inertial measurement unit)センサ666出力、その他など、少なくともいくつかのサブセットのパラメータをその入力として受け取ることができる。
The DLA can be used to implement any type of network to enhance control and driving safety, including, for example, neural networks that output a measure of confidence in each object detection. Such confidence values can be interpreted as probabilities or as providing a relative "weight" for each detection compared to other detections. This confidence value allows the system to make further decisions regarding which detections should be considered true positive detections rather than false positive detections. For example, the system can set a confidence threshold and consider only detections above the threshold as true positive detections. In an automatic emergency braking (AEB) system, a false positive detection would cause the vehicle to automatically perform emergency braking, which is clearly undesirable. Therefore, only the most confident detections should be considered as triggers for AEB. The DLA may run a neural network that regresses confidence values. The neural network may include bounding box dimensions, ground plane estimates obtained (e.g., from another subsystem), neural networks and/or other sensors (e.g., LIDAR sensor 664 or RADAR sensor 660). At least some subset of parameters may be received as its inputs, such as
SoC604は、データ・ストア616(たとえば、メモリ)を含み得る。データ・ストア616は、SoC604のオンチップ・メモリでもよく、GPU及び/又はDLAで実行されることになるニューラル・ネットワークを記憶することができる。いくつかの実例では、データ・ストア616は、冗長性及び安全性のためにニューラル・ネットワークの複数のインスタンスを記憶するのに十分な大きさの容量を有し得る。データ・ストア612は、L2又はL3キャッシュ612を備え得る。データ・ストア616の参照は、本明細書に記載のような、PVA、DLA、及び/又は他の加速装置614に関連するメモリの参照を含み得る。
SoC604は、1つ又は複数のプロセッサ610(たとえば、組み込まれたプロセッサ)を含み得る。プロセッサ610は、ブート電力及び管理能力及び関連するセキュリティ施行を処理するための専用のプロセッサ及びサブシステムでもよいブート及び電力管理プロセッサを含み得る。ブート及び電力管理プロセッサは、SoC604ブート・シーケンスの一部でもよく、実行時間電力管理サービスを提供することができる。ブート電力及び管理プロセッサは、クロック及び電圧プログラミング、システム低電力状態移行の支援、SoC604熱及び温度センサの管理、及び/又はSoC604電力状態の管理を提供することができる。各温度センサは、その出力頻度が温度に比例するリング発振器として実装されてもよく、SoC604は、リング発振器を使用してCPU606、GPU608、及び/又は加速装置614の温度を検出することができる。温度が、閾値を超えたと判定された場合、ブート及び電力管理プロセッサは、温度障害ルーティンに入り、SoC604をより低い電力状態に置く及び/又は車両600を安全停止のための運転代行モードにする(たとえば、車両600を安全停止させる)ことができる。
プロセッサ610は、オーディオ処理エンジンの機能を果たし得る1セットの組み込まれたプロセッサをさらに含み得る。オーディオ処理エンジンは、複数のインターフェースを介するマルチチャネル・オーディオの完全なハードウェア・サポートとオーディオI/Oインターフェースの広く柔軟な範囲とを可能にするオーディオ・サブシステムでもよい。いくつかの実例では、オーディオ処理エンジンは、専用のRAMを有するデジタル信号プロセッサを有する専用のプロセッサ・コアである。 Processor 610 may further include a set of embedded processors that may act as an audio processing engine. The audio processing engine may be an audio subsystem that allows full hardware support for multi-channel audio over multiple interfaces and a wide and flexible range of audio I/O interfaces. In some instances, the audio processing engine is a dedicated processor core having a digital signal processor with dedicated RAM.
プロセッサ610は、低電力センサ管理及びウェイク使用事例をサポートするための必要なハードウェア特徴を提供することができる常時オンのプロセッサ・エンジンをさらに含み得る。常時オンのプロセッサ・エンジンは、プロセッサ・コア、しっかりと結合されたRAM、支援周辺装置(たとえば、タイマ及び割り込みコントローラ)、様々なI/Oコントローラ周辺装置、及びルーティング論理を含み得る。 Processor 610 may further include an always-on processor engine that can provide the necessary hardware features to support low power sensor management and wake use cases. An always-on processor engine may include a processor core, tightly coupled RAM, support peripherals (eg, timers and interrupt controllers), various I/O controller peripherals, and routing logic.
プロセッサ610は、自動車のアプリケーションの安全性管理を処理するために専用のプロセッサ・サブシステムを含む安全性クラスタ・エンジンをさらに含み得る。安全性クラスタ・エンジンは、2個以上のプロセッサ・コア、しっかりと結合されたRAM、サポート周辺装置(たとえば、タイマ、割り込みコントローラなど)、及び/又はルーティング論理を含み得る。安全性モードにおいて、2個以上のコアは、ロックステップ・モードにおいて動作し、それらの動作の間の何らかの差を検出するための比較論理を有する単一のコアとして機能することができる。 Processor 610 may further include a safety cluster engine that includes a dedicated processor subsystem to handle safety management for automotive applications. A security cluster engine may include two or more processor cores, tightly coupled RAM, supporting peripherals (eg, timers, interrupt controllers, etc.), and/or routing logic. In safety mode, two or more cores can operate in lockstep mode and function as a single core with comparison logic to detect any difference between their operations.
プロセッサ610は、リアルタイム・カメラ管理を処理するための専用のプロセッサ・サブシステムを含み得るリアルタイム・カメラ・エンジンをさらに含み得る。 Processor 610 may further include a real-time camera engine, which may include a dedicated processor subsystem for handling real-time camera management.
プロセッサ610は、カメラ処理パイプラインの一部であるハードウェア・エンジンである画像信号プロセッサを含み得る高ダイナミック・レンジ信号プロセッサをさらに含み得る。 Processor 610 may further include a high dynamic range signal processor, which may include an image signal processor, which is a hardware engine that is part of the camera processing pipeline.
プロセッサ610は、プレイヤ・ウインドウのための最終的画像を生み出すためにビデオ再生アプリケーションによって必要とされるビデオ処理後機能を実装する処理ブロック(たとえば、マイクロプロセッサに実装された)でもよいビデオ画像合成器を含み得る。ビデオ画像合成器は、ワイド・ビュー・カメラ670で、サラウンド・カメラ674で、及び/又はキャビン内監視カメラ・センサでレンズ歪み補正を実行することができる。キャビン内監視カメラ・センサは好ましくは、キャビン内イベントを識別し、適切に応答するように構成された、高度SoCの別のインスタンス上で実行するニューラル・ネットワークによって監視される。キャビン内システムは、セルラ・サービスをアクティブにする及び電話をかける、電子メールを書き取らせる、車両の目的地を変更する、車両のインフォテインメント・システム及び設定をアクティブにする又は変更する、或いは音声起動型ウェブ・サーフィンを提供するために、読唇術を実行することができる。ある特定の機能は、自律モードで動作しているときにのみ運転者に利用可能であり、そうでない場合には無効にされる。
Processor 610 may be a processing block (e.g., microprocessor-implemented) that implements the video post-processing functions required by the video playback application to produce the final image for the player window. can include The video image compositor may perform lens distortion correction at the
ビデオ画像合成器は、空間的ノイズ低減及び時間的ノイズ低減の両方のための強化された時間的ノイズ低減を含み得る。たとえば、動きがビデオ内で生じた場合、ノイズ低減は、隣接するフレームによって提供される情報の重みを減らし、空間的情報に適切に重みを加える。画像又は画像の一部が動きを含まない場合、ビデオ画像合成器によって実行される時間的ノイズ低減は、前の画像からの情報を使用して現在の画像におけるノイズを減らすことができる。 A video image synthesizer may include enhanced temporal noise reduction for both spatial noise reduction and temporal noise reduction. For example, if motion occurs in the video, noise reduction de-weights the information provided by adjacent frames and weights the spatial information appropriately. If an image or part of an image does not contain motion, temporal noise reduction performed by a video image synthesizer can use information from previous images to reduce noise in the current image.
ビデオ画像合成器はまた、入力ステレオ・レンズ・フレーム上でステレオ・レクティフィケーションを実行するように構成され得る。ビデオ画像合成器はさらに、オペレーティング・システム・デスクトップが使用中であるときにユーザ・インターフェース合成のために使用することができ、GPU608は、新しい面を連続してレンダリングするために必要とされない。GPU608の電源が入れられ、3Dレンダリングをアクティブに行っているときでも、ビデオ画像合成器は、GPU608をオフロードしてパフォーマンス及び応答性を向上させるために使用され得る。
The video image synthesizer may also be configured to perform stereo rectification on the input stereo lens frame. The video image compositor can also be used for user interface compositing when the operating system desktop is in use, and
SoC604は、カメラからビデオ及び入力を受信するためのモバイル・インダストリ・プロセッサ・インターフェース(MIPI:mobile industry processor interface)カメラ・シリアル・インターフェース、高速インターフェース、及び/又は、カメラ及び関連画素入力機能のために使用され得るビデオ入力ブロックをさらに含み得る。SoC604は、ソフトウェアによって制御され得る、及び特定の役割にコミットされていないI/O信号を受信するために使用され得る、入力/出力コントローラをさらに含み得る。
SoC604は、周辺装置、オーディオ・コーデック、電力管理、及び/又は他のデバイスとの通信を可能にするために、広範囲の周辺インターフェースをさらに含み得る。SoC604は、(たとえば、ギガビット・マルチメディア・シリアル・リンク及びイーサネット(登録商標)を介して接続された)カメラからのデータ、センサ(たとえば、イーサネット(登録商標)を介して接続され得るLIDARセンサ664、RADARセンサ660など)、バス602からのデータ(たとえば、車両600のスピード、ハンドル位置など)、(たとえば、イーサネット(登録商標)又はCANバスを介して接続された)GNSSセンサ658からのデータを処理するために使用され得る。SoC604は、独自のDMAエンジンを含み得る及びルーティン・データ管理タスクからCPU606を解放するために使用され得る専用の高パフォーマンス大容量記憶コントローラをさらに含み得る。
SoC604は、自動化レベル3~5に広がる柔軟なアーキテクチャを有する終端間プラットフォームでもよく、それによって、多様性及び冗長性のためにコンピュータ・ビジョン及びADAS技法を活用し、効率的に使用し、深層学習ツールとともに、柔軟な、信頼できる運転ソフトウェア・スタックのためのプラットフォームを提供する、総合的機能的安全性アーキテクチャを提供する。SoC604は、従来のシステムよりも高速で、信頼でき、さらにエネルギ効率がよく、空間効率がよくなり得る。たとえば、加速装置614が、CPU606と結合されるとき、GPU608、及びデータ・ストア616は、レベル3~5の自律型車両のための高速で効率的なプラットフォームを提供することができる。
したがって、本技術は、従来のシステムによって達成することができない能力及び機能性をもたらす。たとえば、コンピュータ・ビジョン・アルゴリズムは、多種多様な視覚的データにわたり多種多様な処理アルゴリズムを実行するために、Cプログラミング言語などの高レベルのプログラミング言語を使用して構成され得る、CPUで実行され得る。しかしながら、CPUは、しばしば、たとえば、実行時間及び電力消費に関連するものなど、多数のコンピュータ・ビジョン・アプリケーションのパフォーマンス要件を満たすことができない。具体的には、多数のCPUは、車両内ADASアプリケーションの要件及び実際のレベル3~5の自律型車両の要件である、リアルタイムでの複合物体検出アルゴリズムを実行することができない。 Thus, the technology provides capabilities and functionality unattainable by conventional systems. For example, computer vision algorithms can be executed on a CPU that can be configured using a high level programming language such as the C programming language to perform a wide variety of processing algorithms over a wide variety of visual data. . However, CPUs often fail to meet the performance requirements of many computer vision applications, such as those related to execution time and power consumption. Specifically, multiple CPUs are unable to run complex object detection algorithms in real-time, which is a requirement for in-vehicle ADAS applications and practical Level 3-5 autonomous vehicles.
従来のシステムとは対照的に、CPU複合体、GPU複合体、及びハードウェア加速クラスタを提供することによって、本明細書に記載の技術は、複数のニューラル・ネットワークが同時に及び/又は連続して実行されることと、レベル3~5の自律運転機能を可能にするために結果が結合されることとを可能にする。たとえば、DLA又はdGPU(たとえば、GPU620)で実行するCNNは、ニューラル・ネットワークが具体的にトレーニングされていない標識を含む、交通標識をスーパーコンピュータが読み取る及び理解することを可能にする、テキスト及び単語認識を含み得る。DLAは、標識の意味論的理解を識別、解釈、及び提供することと、CPU複合体で実行する進路計画立案モジュールに意味論的理解を渡すこととを行うことができる、ニューラル・ネットワークをさらに含み得る。 By providing CPU complexes, GPU complexes, and hardware acceleration clusters, in contrast to conventional systems, the techniques described herein enable multiple neural networks to run simultaneously and/or in series. be executed and the results combined to enable level 3-5 autonomous driving functions. For example, a CNN running on a DLA or dGPU (e.g., GPU 620) enables a supercomputer to read and understand traffic signs, including signs for which the neural network has not been specifically trained, text and word can include recognition. The DLA further includes a neural network capable of identifying, interpreting, and providing semantic understanding of the signs and passing the semantic understanding to a course planning module running on the CPU complex. can contain.
別の実例として、複数のニューラル・ネットワークは、レベル3、4、又は5の運転に必要とされるように、同時に実行され得る。たとえば、電光とともに、「注意:点滅光は、凍った状態を示す」から成る警告標識は、いくつかのニューラル・ネットワークによって独立して又は集合的に解釈され得る。標識自体は、第1の配備されたニューラル・ネットワーク(たとえば、トレーニングされてあるニューラル・ネットワーク)によって交通標識として識別され得、「点滅光は、凍った状態を示す」というテキストは、点滅光が検出されるときには凍った状態が存在することを車両の進路計画立案ソフトウェア(好ましくはCPU複合体上で実行する)に知らせる、第2の配備されたニューラル・ネットワークによって解釈され得る。点滅光は、点滅光の存在(又は無いこと)を車両の進路計画立案ソフトウェアに知らせ、複数のフレームを介して第3の配備されたニューラル・ネットワークを動作させることによって識別され得る。すべての3個のニューラル・ネットワークは、DLA内及び/又はGPU608上などで、同時に実行することができる。
As another example, multiple neural networks can be run simultaneously, as required for level 3, 4, or 5 operation. For example, a warning sign consisting of "CAUTION: Flashing light indicates a frozen condition" along with a lightning can be independently or collectively interpreted by several neural networks. The sign itself may be identified as a traffic sign by a first deployed neural network (e.g., a neural network that has been trained), and the text "Flashing light indicates icy conditions" indicates that the flashing light indicates an icy condition. It can be interpreted by a second deployed neural network that, when detected, informs the vehicle's route planning software (preferably running on the CPU complex) that an icy condition exists. Flashing lights can be identified by informing the vehicle's route planning software of the presence (or absence) of the flashing lights and running a third deployed neural network over multiple frames. All three neural networks can run concurrently, such as in the DLA and/or on
いくつかの実例では、顔認識及び車両所有者識別のためのCNNは、カメラ・センサからのデータを使用して車両600の正規の運転者及び/又は所有者の存在を識別することができる。常時オンのセンサ処理エンジンは、所有者が運転席側のドアに近づくときに車両を解錠する及び明かりをつけるために、並びに、セキュリティ・モードにおいて、所有者が車両を離れるときに車両の動作を停止させるために、使用され得る。このようにして、SoC604は、盗難及び/又は車の乗っ取りに対するセキュリティをもたらす。
In some instances, CNNs for facial recognition and vehicle owner identification may use data from camera sensors to identify the presence of a legitimate driver and/or owner of
別の実例では、緊急車両検出及び識別のためのCNNは、マイクロフォン696からのデータを使用して緊急車両サイレンを検出及び識別することができる。一般分類子を使用してサイレンを検出する及び特徴を手動で抽出する従来のシステムとは対照的に、SoC604は、環境の及び都市の音の分類、並びに視覚的データの分類のためにCNNを使用する。好ましい一実施例では、DLA上で実行するCNNは、(たとえば、ドップラー効果を使用することによって)緊急車両の相対的終速度を識別するようにトレーニングされる。CNNはまた、GNSSセンサ658によって識別されるように、車両が稼働しているローカル・エリアに特有の緊急車両を識別するようにトレーニングされ得る。それ故に、たとえば、欧州で稼働しているとき、CNNは、欧州のサイレンを検出しようとすることになり、そして、米国にあるとき、CNNは、北米のサイレンのみを識別しようとすることになる。緊急車両が検出された後は、制御プログラムが、緊急車両が通過するまで、超音波センサ662の支援を受けて、車両を減速する、道の端に停止させる、車両を駐車する、及び/又は車両をアイドリングさせる、緊急車両安全性ルーティンを実行するために使用され得る。
In another example, a CNN for emergency vehicle detection and identification may use data from
車両は、高速相互接続(たとえば、PCIe)を介してSoC604に連結され得るCPU618(たとえば、離散されたCPU、又はdCPU)を含み得る。CPU618は、たとえば、X86プロセッサを含み得る。CPU618は、たとえば、ADASセンサとSoC604との間の潜在的に不整合の結果を調停すること、及び/又はコントローラ636及び/又はインフォテインメントSoC630の状況及び調子を監視することを含む、様々な機能のいずれかを実行するために使用され得る。
The vehicle may include a CPU 618 (eg, discrete CPU, or dCPU) that may be coupled to
車両600は、高速相互接続(たとえば、NVIDIAのNVLINK)を介してSoC604に連結され得るGPU620(たとえば、離散されたGPU、又はdGPU)を含み得る。GPU620は、冗長及び/又は異なるニューラル・ネットワークを実行することなどによって、付加的な人工知能機能をもたらすことができ、車両600のセンサからの入力(たとえば、センサ・データ)に基づいてニューラル・ネットワークをトレーニング及び/又は更新するために使用され得る。
車両600は、1つ又は複数のワイヤレス・アンテナ626(たとえば、セルラ・アンテナ、ブルートゥース・アンテナなど、異なる通信プロトコルのための1つ又は複数のワイヤレス・アンテナ)を含み得るネットワーク・インターフェース624をさらに含み得る。ネットワーク・インターフェース624は、インターネットを介するクラウドとの(たとえば、サーバ678及び/又は他のネットワーク・デバイスとの)、他の車両との、及び/又は計算デバイス(たとえば、乗客のクライアント・デバイス)とのワイヤレス接続を使用可能にするために使用され得る。他の車両と通信するために、直接リンクが2個の車両の間に確立され得る、及び/又は、間接リンクが(たとえば、ネットワークを通じて及びインターネットを介して)確立され得る。直接リンクは、車両対車両通信リンクを使用し、提供され得る。車両対車両通信リンクは、車両600に近接する車両(たとえば、車両600の前の、横の、及び/又は後ろの車両)に関する車両600情報を提供することができる。この機能は、車両600の協調アダプティブ・クルーズ制御機能の一部でもよい。
ネットワーク・インターフェース624は、変調及び復調機能を提供する及びコントローラ636がワイヤレス・ネットワークを介して通信することを可能にする、SoCを含み得る。ネットワーク・インターフェース624は、ベースバンドから無線周波数へのアップコンバージョン、及び無線周波数からベースバンドへのダウンコンバージョンのための無線周波数フロントエンドを含み得る。周波数コンバージョンは、よく知られているプロセスを通して実行することができ、及び/又はスーパーヘテロダイン・プロセスを用いて実行することができる。いくつかの実例では、無線周波数フロントエンド機能は、別個のチップによって提供され得る。ネットワーク・インターフェースは、LTE、WCDMA(登録商標)、UMTS、GSM、CDMA2000、ブルートゥース(登録商標)、ブルートゥースLE、Wi-Fi、Z-Wave、ZigBee、LoRaWAN、及び/又は他のワイヤレス・プロトコルを介して通信するためのワイヤレス機能を含み得る。
車両600は、チップ外の(たとえば、SoC604外の)ストレージを含み得るデータ・ストア628をさらに含み得る。データ・ストア628は、RAM、SRAM、DRAM、VRAM、フラッシュ、ハードディスク、及び/又は、少なくとも1ビットのデータを記憶することができる他の構成要素及び/又はデバイスを含む、1つ又は複数の記憶素子を含み得る。
車両600は、GNSSセンサ658をさらに含み得る。GNSSセンサ658(たとえば、GPS、支援されたGPSセンサ、ディファレンシャルGPS(DGPS)センサなど)は、マッピング、知覚、占有グリッド生成、及び/又は進路計画策定機能を支援する。たとえば、シリアル(RS-232)ブリッジへのイーサネット(登録商標)を有するUSBコネクタを使用するGPSを含むが、これに限定されない、任意の数のGNSSセンサ658が、使用され得る。
車両600は、RADARセンサ660をさらに含み得る。RADARセンサ660は、暗闇及び/又は厳しい気象条件においても、長距離車両検出のために車両600によって使用され得る。RADAR機能安全性レベルは、ASIL Bでもよい。一部の実例では、RADARセンサ660は、未加工のデータにアクセスするためのイーサネット(登録商標)へのアクセスを用いて、制御のために及び物体追跡データにアクセスするために(たとえば、RADARセンサ660によって生成されたデータを送信するために)CAN及び/又はバス602を使用することができる。多種多様なRADARセンサ・タイプが、使用され得る。限定ではなく、たとえば、RADARセンサ660は、前部、後部、及び側部RADAR使用に適し得る。一部の実例では、パルス・ドップラーRADARセンサが使用される。
RADARセンサ660は、狭い視野を有する長距離、広い視野を有する短距離、短距離側部カバレッジなど、異なる構成を含み得る。いくつかの実例では、長距離RADARは、アダプティブ・クルーズ制御機能のために使用され得る。長距離RADARシステムは、250mの範囲内など、2個以上の独立したスキャンによって実現される広い視野を提供することができる。RADARセンサ660は、静的物体と動く物体との区別を助けることができ、緊急ブレーキ・アシスト及び前方衝突警報のためのADASシステムによって使用され得る。長距離RADARセンサは、複数の(たとえば、6つ以上の)固定RADARアンテナと高速CAN及びFlexRayインターフェースとを有するモノスタティック・マルチモーダルRADARを含み得る。6つのアンテナを有する一実例では、中央の4個のアンテナは、隣接レーン内の交通からの干渉を最小限にして高速で車両600の周囲を記録するように設計された、集束ビーム・パターンを作成し得る。他の2個のアンテナは、視野を広げることができ、車両600のレーンに入る又はこれを去る車両を迅速に検出することを可能にする。
一実例として、中距離RADARシステムは、660m(前)又は80m(後)までの範囲、及び42度(前)又は650度(後)までの視野を含み得る。短距離RADARシステムは、後部バンパの両端に設置されるように設計されたRADARセンサを含み得るが、これに限定されない。後部バンパの両端に設置されるとき、そのようなRADARセンサ・システムは、車両の後ろ及び隣の死角を常に監視する2個のビームを作成することができる。 As an example, a medium-range RADAR system may include a range of up to 660m (front) or 80m (rear) and a field of view of up to 42 degrees (front) or 650 degrees (rear). A short-range RADAR system may include, but is not limited to, RADAR sensors designed to be installed at each end of the rear bumper. When installed at either end of the rear bumper, such a RADAR sensor system can create two beams that constantly monitor the blind spots behind and next to the vehicle.
短距離RADARシステムは、死角検出及び/又はレーン変更アシストのためにADASシステムにおいて使用され得る。 Short-range RADAR systems can be used in ADAS systems for blind spot detection and/or lane change assistance.
車両600は、超音波センサ662をさらに含み得る。車両600の前部、後部、及び/又は側部に位置付けられ得る、超音波センサ662は、駐車アシストのために及び/又は占有グリッドの作成及び更新のために使用され得る。多種多様な超音波センサ662が使用され得、異なる超音波センサ662が、異なる範囲の検出(たとえば、2.5m、4m)のために使用され得る。超音波センサ662は、ASIL Bの機能的安全性レベルにおいて動作することができる。
車両600はLIDARセンサ664を含み得る。LIDARセンサ664は、物体及び歩行者検出、緊急ブレーキング、衝突回避、及び/又は他の機能のために使用され得る。LIDARセンサ664は、機能的安全性レベルASIL Bでもよい。いくつかの実例では、車両600は、(たとえば、ギガビット・イーサネット(登録商標)・スイッチにデータを提供するために)イーサネット(登録商標)を使用することができる複数の(たとえば、2個、4個、6個などの)LIDARセンサ664を含み得る。
いくつかの実例では、LIDARセンサ664は、物体及び360度視野のそれらの距離のリストを提供する能力を有し得る。市販のLIDARセンサ664は、たとえば、2cm~3cmの精度を有し、600Mbpsイーサネット(登録商標)接続のサポートを有して、約600mの広告された範囲を有し得る。いくつかの実例では、1つ又は複数の非突出したLIDARセンサ664が、使用され得る。そのような実例では、LIDARセンサ664は、車両600の前部、後部、側部、及び/又は角に組み込まれ得る小さいデバイスとして実装され得る。そのような実例では、LIDARセンサ664は、低反射物体についても200mの範囲を有し、120度水平及び35度垂直視野まで提供することができる。前部に取り付けられたLIDARセンサ664は、45度と135度との間の水平視野向けに構成され得る。
In some instances, LIDAR sensor 664 may be capable of providing a list of objects and their distances in a 360 degree field of view. Commercially available LIDAR sensors 664 may, for example, have an accuracy of 2 cm to 3 cm and an advertised range of approximately 600 m with support for 600 Mbps Ethernet connections. In some instances, one or more non-protruding LIDAR sensors 664 may be used. In such instances, LIDAR sensors 664 may be implemented as small devices that may be incorporated into the front, rear, sides, and/or corners of
いくつかの実例では、3DフラッシュLIDARなどのLIDAR技術もまた使用され得る。3DフラッシュLIDARは、約200mまで車両の周囲を照らすために、送信元としてレーザーのフラッシュを使用する。フラッシュLIDARユニットは、車両から物体までの範囲に順番に対応する、レーザー・パルス走行時間及び各画素上の反射光を記録する、レセプタを含む。フラッシュLIDARは、周囲の高精度の及び歪みのない画像があらゆるレーザー・フラッシュで生成されることを可能にし得る。いくつかの実例では、4個のフラッシュLIDARセンサが、車両600の各側面に1個ずつ、配備され得る。利用可能な3DフラッシュLIDARシステムは、送風機以外に動く部分を有さないソリッドステート3Dステアリング・アレイLIDARカメラ(たとえば、非スキャン型LIDARデバイス)を含む。フラッシュLIDARデバイスは、1フレームにつき5ナノ秒クラスI(目に安全な)レーザー・パルスを使用することができ、3D範囲点群及び共記載された強度データの形で反射レーザー光をキャプチャし得る。フラッシュLIDARを使用することによって、また、フラッシュLIDARは、動く部分を有さないソリッドステート・デバイスであるので、LIDARセンサ664は、モーション・ブラー、振動、及び/又は衝撃の影響を受けにくくなり得る。
In some instances, LIDAR technology such as 3D flash LIDAR may also be used. 3D flash LIDAR uses a laser flash as a transmitter to illuminate the vehicle's surroundings up to about 200m. A flash LIDAR unit contains a receptor that records the laser pulse transit time and reflected light on each pixel, which in turn corresponds to the range from the vehicle to the object. Flash LIDAR may allow highly accurate and distortion-free images of the surroundings to be produced with any laser flash. In some instances, four flash LIDAR sensors may be deployed, one on each side of
車両は、IMUセンサ666をさらに含み得る。一部の実例では、IMUセンサ666は、車両600の後部車軸の中央に位置付けられ得る。IMUセンサ666は、たとえば、加速度計、磁力計、ジャイロスコープ、磁気コンパス、及び/又は他のセンサ・タイプを含み得るが、これらに限定されない。いくつかの実例では、6軸アプリケーションなどにおいて、IMUセンサ666は、加速度計及びジャイロスコープを含み得るが、9軸アプリケーションにおいて、IMUセンサ666は、加速度計、ジャイロスコープ、及び磁力計を含み得る。
The vehicle may further include IMU sensors 666 . In some instances, IMU sensor 666 may be positioned in the middle of the rear axle of
一部の実施例では、IMUセンサ666は、マイクロ電気機械システム(MEMS:micro-electro-mechanical system)慣性センサ、高感度GPSレシーバ、及び高度カルマン・フィルタリング・アルゴリズムを結合して位置、速度、及び姿勢の推定値を提供する小型の高パフォーマンスGPS支援型慣性航行システム(GPS/INS:GPS-Aided Inertial Navigation System)として実装され得る。そのようなものとして、一部の実例では、IMUセンサ666は、GPSからIMUセンサ666までの速度の変化を直接観測すること及び関連付けることによって、磁気センサからの入力を必要とせずに進行方向を車両600が推定することを可能にし得る。いくつかの実例では、IMUセンサ666及びGNSSセンサ658は、単一の統合されたユニットにおいて結合され得る。
In some embodiments, the IMU sensor 666 combines a micro-electro-mechanical system (MEMS) inertial sensor, a sensitive GPS receiver, and an advanced Kalman filtering algorithm to detect position, velocity, and It can be implemented as a compact high-performance GPS-Aided Inertial Navigation System (GPS/INS) that provides attitude estimates. As such, in some instances, the IMU sensor 666 can determine heading without requiring input from a magnetic sensor by directly observing and correlating changes in velocity from the GPS to the IMU sensor 666.
車両は、車両600内及び/又は周囲に置かれたマイクロフォン696を含み得る。マイクロフォン696は、中でも、緊急車両検出及び識別のために使用され得る。
A vehicle may include a
車両は、ステレオ・カメラ668、ワイド・ビュー・カメラ670、赤外線カメラ672、サラウンド・カメラ674、長距離及び/又は中距離カメラ698、及び/又は他のカメラ・タイプを含む、任意の数のカメラ・タイプをさらに含み得る。カメラは、車両600の全周の画像データをキャプチャするために使用され得る。使用されるカメラのタイプは、車両600の実施例及び要件に応じて決まり、任意の組合せのカメラ・タイプが、車両600の周りの必要なカバレッジを実現するために使用され得る。加えて、カメラの数は、実施例に応じて異なり得る。たとえば、車両は、6個のカメラ、7個のカメラ、10個のカメラ、12個のカメラ、及び/又は別の数のカメラを含んでもよい。カメラは、一実例として、ギガビット・マルチメディア・シリアル・リンク(GMSL:Gigabit Multimedia Serial Link)及び/又はギガビット・イーサネット(登録商標)をサポートし得るが、これに限定されない。それぞれのカメラは、図6A及び図6Bに関連して本明細書においてさらに詳しく説明される。
The vehicle may have any number of cameras, including
車両600は、振動センサ642をさらに含み得る。振動センサ642は、車軸など、車両の構成要素の振動を測定することができる。たとえば、振動の変化は、道路の表面の変化を示し得る。別の実例では、2個以上の振動センサ642が使用されるとき、振動の差は、道路表面の摩擦又は滑りを判定するために使用され得る(たとえば、振動の差が電力駆動車軸と自由回転車軸との間であるとき)。
車両600は、ADASシステム638を含み得る。一部の実例では、ADASシステム638は、SoCを含み得る。ADASシステム638は、自律/アダプティブ/自動クルーズ制御(ACC:autonomous/adaptive/automatic cruise control)、協調アダプティブ・クルーズ制御(CACC:cooperative adaptive cruise control)、前方衝突警報(FCW:forward crash warning)、自動緊急ブレーキング(AEB:automatic emergency braking)、車線逸脱警報(LDW:lane departure warning)、レーン・キープ・アシスト(LKA:lane keep assist)、死角警報(BSW:blind spot warning)、後部交錯交通警報(RCTW:rear cross-traffic warning)、衝突警報システム(CWS:collision warning system)、レーン・センタリング(LC:lane centering)、及び/又は他の特徴及び機能を含み得る。
ACCシステムは、RADARセンサ660、LIDARセンサ664、及び/又はカメラを使用し得る。ACCシステムは、縦のACC及び/又は横のACCを含み得る。縦のACCは、車両600の直ぐ前の車両までの距離を監視及び制御し、前方の車両からの安全距離を維持するために車両速度を自動的に調整する。横のACCは、距離の保持を実行し、必要なときにレーンを変更するように車両600にアドバイスする。横のACCは、LCA及びCWSなどの他のADASアプリケーションに関連する。
The ACC system may use
CACCは、ワイヤレス・リンクを介して他の車両からネットワーク・インターフェース624及び/又はワイヤレス・アンテナ626を介して、或いは間接的にネットワーク接続を介して(たとえば、インターネットを介して)、受信することができる、他の車両からの情報を使用する。直接リンクは、車両対車両(V2V:vehicle-to-vehicle)通信リンクによって提供され得、一方、間接リンクは、インフラストラクチャ対車両(I2V:infrastructure-to-vehicle)通信リンクでもよい。一般に、V2V通信概念は、直前の車両(たとえば、車両600と同じレーン内にある、車両600の直ぐ前の車両)に関する情報を提供し、一方、I2V通信概念は、さらに前の交通に関する情報を提供する。CACCシステムは、I2V情報ソースとV2V情報ソースとのいずれか又は両方を含み得る。車両600の前方の車両の情報を所与として、CACCは、より高信頼になり得、CACCは、交通の流れをよりスムーズにし、道路の渋滞を減らす可能性を有する。
CACC may be received from other vehicles via wireless links via
運転者が修正の行動を取ることができるように、FCWシステムは、危険を運転者に警告するように設計される。FCWシステムは、ディスプレイ、スピーカ、及び/又は振動部品など、運転者フィードバックに電気的に連結された、専用のプロセッサ、DSP、FPGA、及び/又はASICに連結された、前向きのカメラ及び/又はRADARセンサ660を使用する。FCWシステムは、音響、視覚的警報、振動及び/又はクイック・ブレーキ・パルスなどの形で、警報を提供することができる。
FCW systems are designed to warn drivers of hazards so that they can take corrective action. FCW systems are forward-facing cameras and/or RADARs coupled to dedicated processors, DSPs, FPGAs, and/or ASICs that are electrically coupled to driver feedback, such as displays, speakers, and/or vibration components.
AEBシステムは、別の車両又は他の物体との差し迫った前方衝突を検出し、運転者が指定された時間又は距離パラメータ内に修正の行動を取らない場合に、ブレーキを自動的に適用することができる。AEBシステムは、専用のプロセッサ、DSP、FPGA、及び/又はASICに連結された、前向きのカメラ及び/又はRADARセンサ660を使用することができる。AEBシステムが危険を検出するとき、AEBシステムは通常は、先ず、衝突を回避するための修正の行動を取るように運転者に警告し、運転者が修正の行動を取らない場合、AEBシステムは、予測される衝突の影響を防ぐ、又は少なくとも軽減するための努力の一環としてブレーキを自動的に適用することができる。AEBシステムは、ダイナミック・ブレーキ・サポート及び/又は衝突緊急ブレーキングなどの技法を含み得る。
An AEB system detects an impending frontal collision with another vehicle or other object and automatically applies the brakes if the driver does not take corrective action within specified time or distance parameters. can be done. The AEB system may use a forward facing camera and/or
LDWシステムは、ハンドル又はシートの振動など、視覚的、可聴式、及び/又は触覚的警報を提供して、車両600が車線区分線を越えたときに運転者に警告する。LDWシステムは、運転者が、方向指示器を起動することによって、意図的な車線逸脱を指示するときには、起動しない。LDWシステムは、ディスプレイ、スピーカ、及び/又は振動部品など、運転者フィードバックに電気的に連結された、専用のプロセッサ、DSP、FPGA、及び/又はASICに連結された、前側を向いたカメラを使用することができる。
The LDW system provides visual, audible, and/or tactile alarms, such as steering wheel or seat vibrations, to warn the driver when the
LKAシステムは、LDWシステムの変更形態である。LKAシステムは、車両600が車線をはみ出し始めた場合に車両600を修正するためにステアリング入力又はブレーキングを提供する。
The LKA system is a modification of the LDW system. The LKA system provides steering input or braking to correct the
BSWシステムは、自動車の死角において車両の運転者に検出及び警告する。BSWシステムは、合流又はレーンの変更が安全ではないことを指示するために視覚的、可聴式、及び/又は触覚的警告を提供することができる。システムは、運転者が方向指示器を使用するときに、付加的警告を提供することができる。BSWシステムは、運転者フィードバック、たとえば、ディスプレイ、スピーカ、及び/又は振動部品、に電気的に結合された、専用プロセッサ、DSP、FPGA、及び/又はASICに結合された、後ろ側を向いたカメラ及び/又はRADARセンサ660を使用することができる。
The BSW system detects and warns the vehicle operator in the vehicle's blind spots. The BSW system may provide visual, audible, and/or tactile warnings to indicate that merging or lane changes are unsafe. The system can provide additional warnings when the driver uses the turn signals. BSW systems are rear-facing cameras coupled to dedicated processors, DSPs, FPGAs, and/or ASICs electrically coupled to driver feedback, e.g., displays, speakers, and/or vibrating components. and/or a
RCTWシステムは、車両600がバックしているときにリアカメラの範囲外で物体が検出されたときに視覚的、可聴式、及び/又は触覚的通知を提供することができる。いくつかのRCTWシステムは、衝突を回避するために車両ブレーキが適用されることを確実にするために、AEBを含む。RCTWシステムは、運転者フィードバック、たとえば、ディスプレイ、スピーカ、及び/又は振動部品、に電気的に結合された、専用プロセッサ、DSP、FPGA、及び/又はASICに結合された、1つ又は複数の後ろを向いたRADARセンサ660を使用することができる。
The RCTW system can provide visual, audible, and/or tactile notification when an object is detected out of range of the rear camera when the
従来のADASシステムは、運転者に警告し、安全状態が本当に存在するかどうかを運転者が判定し、それに応じて行動することを可能にするので、従来のADASシステムは、通常は壊滅的ではないが、運転者を苛立たせ、及び気を散らせ得る誤判定結果を生み出す傾向にあることがあった。しかしながら、自律型車両600では、結果が矛盾する場合には、車両600自体が、1次的コンピュータ又は2次的コンピュータ(たとえば、第1のコントローラ636又は第2のコントローラ636)からの結果を聞き入れるかどうかを決定しなければならない。たとえば、一部の実施例では、ADASシステム638は、知覚情報をバックアップ・コンピュータ合理性モジュールに提供するためのバックアップ及び/又は2次的コンピュータでもよい。バックアップ・コンピュータ合理性モニタは、ハードウェア構成要素で冗長で多様なソフトウェアを実行して、知覚及び動的運転タスクにおいて障害を検出することができる。ADASシステム638からの出力は、監督MCUに提供され得る。1次的コンピュータ及び2次的コンピュータからの出力が矛盾する場合、監督MCUは、安全な動作を確実にするためにその矛盾をどのように調整するかを決定する必要がある。
Because conventional ADAS systems alert the driver and allow the driver to determine whether a safe condition really exists and act accordingly, conventional ADAS systems are typically not catastrophic. No, but tended to produce false positive results that could be irritating and distracting to the driver. However, in an
いくつかの実例では、1次的コンピュータは、選択された結果における1次的コンピュータの信頼性を指示する、信頼性スコアを監督MCUに提供するように構成され得る。信頼性スコアが閾値を超えた場合、監督MCUは、2次的コンピュータが矛盾する又は不整合の結果を与えるかどうかにかかわらず、1次的コンピュータの指示に従い得る。信頼性スコアが閾値を満たさない場合、及び1次的及び2次的コンピュータが異なる結果を示す(たとえば、矛盾する)場合、監督MCUは、コンピュータの間で調停して適切な結果を決定することができる。 In some instances, the primary computer may be configured to provide the supervisory MCU with a confidence score that indicates the primary computer's confidence in the selected outcome. If the confidence score exceeds the threshold, the supervisory MCU may follow the instructions of the primary computer regardless of whether the secondary computer gives contradictory or inconsistent results. If the confidence score does not meet the threshold, and if the primary and secondary computers give different results (e.g. conflicting), the supervisory MCU will mediate between the computers to determine the appropriate result. can be done.
監督MCUは、2次的コンピュータが誤ったアラームを提供する状態を、1次的コンピュータ及び2次的コンピュータからの出力に基づいて判定するようにトレーニング及び構成されたニューラル・ネットワークを実行するように構成され得る。したがって、監督MCU内のニューラル・ネットワークは、2次的コンピュータの出力が信頼され得るとき、及びそれが信頼され得ないときを学習することができる。たとえば、2次的コンピュータがRADARベースのFCWシステムであるとき、監督MCU内のニューラル・ネットワークは、アラームをトリガする下水溝の鉄格子又はマンホールの蓋など、実際には危険ではない金属製の物体をいつFCWが識別しているかを学習することができる。同様に、2次的コンピュータがカメラベースのLDWシステムであるとき、監督MCU内のニューラル・ネットワークは、自転車に乗った人又は歩行者が存在し、車線逸脱が、実際には、最も安全な操作であるときに、LDWを無視することを学習することができる。監督MCU上で実行中のニューラル・ネットワークを含む実施例では、監督MCUは、関連メモリを有するニューラル・ネットワークを実行するのに適したDLA又はGPUのうちの少なくとも1つを含み得る。好ましい実施例において、監督MCUは、SoC604の構成要素を備え得る、及び/又はSoC604の構成要素として含まれ得る。
The supervisory MCU executes a neural network trained and configured to determine a condition in which the secondary computer provides a false alarm based on outputs from the primary and secondary computers. can be configured. Thus, a neural network within the supervisory MCU can learn when the output of the secondary computer can be trusted and when it cannot be trusted. For example, when the secondary computer is a RADAR-based FCW system, a neural network within the supervisory MCU may detect metal objects that are not actually dangerous, such as sewer grate or manhole covers, that trigger alarms. It can learn when the FCW is discerning. Similarly, when the secondary computer is a camera-based LDW system, the neural network within the supervisory MCU will predict that there are cyclists or pedestrians present and that lane departure is, in fact, the safest maneuver. We can learn to ignore the LDW when . In embodiments involving a neural network running on a supervisory MCU, the supervisory MCU may include at least one of a DLA or GPU suitable for running the neural network with associated memory. In preferred embodiments, a supervisory MCU may comprise and/or be included as a component of
他の実例において、ADASシステム638は、コンピュータ・ビジョンの従来のルールを使用するADAS機能を実行する2次的コンピュータを含み得る。そのようなものとして、2次的コンピュータは、古典的コンピュータ・ビジョン・ルール(if-then)を使用することができ、監督MCU内のニューラル・ネットワークの存在は、信頼性、安全性及びパフォーマンスを向上させることができる。たとえば、多様な実装形態及び意図的な非同一性は、特にソフトウェア(又はソフトウェア-ハードウェア・インターフェース)機能によって引き起こされる障害に対して、システム全体をよりフォールトトレラントにする。たとえば、1次的コンピュータで実行中のソフトウェア内にソフトウェア・バグ又はエラーが存在し、2次的コンピュータで実行中の同一でないソフトウェア・コードが同じ総合的結果を提供する場合、監督MCUは、総合的結果は正しく、1次的コンピュータ上のソフトウェア又はハードウェア内のバグは重大なエラーを引き起こしていないというより大きな確信を有し得る。
In other examples,
いくつかの実例では、ADASシステム638の出力は、1次的コンピュータの知覚ブロック及び/又は1次的コンピュータの動的運転タスク・ブロックに供給され得る。たとえば、ADASシステム638が、直ぐ前の物体が原因で、前方衝突警報を示した場合、知覚ブロックは、物体を識別するときに、この情報を使用することができる。他の実例において、2次的コンピュータは、本明細書に記載のように、トレーニングされ、それ故に誤判定のリスクを減らす、独自のニューラル・ネットワークを有し得る。
In some instances, the output of the
車両600は、インフォテインメントSoC630(たとえば、車両内のインフォテインメント・システム(IVI:in-vehicle infotainment system))をさらに含み得る。SoCとして図示及び記述されているが、インフォテインメント・システムは、SoCでなくてもよく、2個以上の離散された構成要素を含み得る。インフォテインメントSoC630は、オーディオ(たとえば、音楽、携帯情報端末、ナビゲーション命令、ニュース、無線など)、ビデオ(たとえば、TV、映画、ストリーミングなど)、電話(たとえば、ハンズフリー通話)、ネットワーク接続(たとえば、LTE、Wi-Fiなど)、及び/又は情報サービス(たとえば、ナビゲーション・システム、後方駐車支援、無線データシステム、燃料レベル、総移動距離、ブレーキ燃料レベル、オイル・レベル、ドアを開ける/閉じる、エア・フィルタ情報などの車両関連情報)を車両600に提供するために使用され得るハードウェア及びソフトウェアの組合せを含み得る。たとえば、インフォテインメントSoC630は、無線、ディスク・プレイヤ、ナビゲーション・システム、ビデオ・プレイヤ、USB及びブルートゥース接続、カーピュータ、車内エンターテインメント、Wi-Fi、ハンドル・オーディオ制御装置、ハンズ・フリー音声制御、ヘッドアップ・ディスプレイ(HUD:heads-up display)、HMIディスプレイ634、テレマティックス・デバイス、制御パネル(たとえば、様々な構成要素、特徴、及び/又はシステムを制御する及び/又はこれと相互に作用するための)、及び/又は他の構成要素でもよい。インフォテインメントSoC630は、ADASシステム638からの情報、計画された車両操作などの自律運転情報、軌道、周囲環境情報(たとえば、交差点情報、車両情報、道路情報など)、及び/又は他の情報など、車両のユーザへの情報(たとえば、視覚的及び/又は可聴式の)を提供するためにさらに使用され得る。
インフォテインメントSoC630は、GPU機能性を含み得る。インフォテインメントSoC630は、バス602(たとえば、CANバス、イーサネット(登録商標)など)を介して、車両600の他のデバイス、システム、及び/又は構成要素と通信することができる。いくつかの実例では、インフォテインメント・システムのGPUが、1次的コントローラ636(たとえば、車両600の1次的及び/又はバックアップ・コンピュータ)が故障した場合に、いくつかのセルフドライブ機能を実行することができるように、インフォテインメントSoC630は、監督MCUに連結され得る。そのような実例では、インフォテインメントSoC630は、本明細書に記載のように、車両600を安全停止のための運転代行モードにすることができる。
車両600は、計器群632(たとえば、デジタル・ダッシュ、電子計器群、デジタル計器パネルなど)をさらに含み得る。計器群632は、コントローラ及び/又はスーパーコンピュータ(たとえば、離散されたコントローラ又はスーパーコンピュータ)を含み得る。計器群632は、スピードメーター、燃料レベル、油圧、タコメーター、オドメーター、方向指示器、ギアシフト位置指標、シート・ベルト警告灯、パーキングブレーキ警告灯、エンジン故障灯、エアバッグ(SRS)システム情報、照明制御装置、安全システム制御装置、ナビゲーション情報など、1セットの器具類を含み得る。いくつかの実例では、情報は、インフォテインメントSoC630及び計器群632の間で表示及び/又は共有され得る。言い換えれば、計器群632は、インフォテインメントSoC630の一部として含まれてもよく、逆もまた同様である。
図6Dは、本開示のいくつかの実施例による、クラウドベースのサーバと図6Aの例示的自律型車両600との間の通信のシステム図である。システム676は、サーバ678、ネットワーク690、及び、車両600を含む車両を含み得る。サーバ678は、複数のGPU684(A)~684(H)(本明細書でGPU684と総称される)、PCIeスイッチ682(A)~682(H)(本明細書でPCIeスイッチ682と総称される)、及び/又はCPU680(A)~680(B)(本明細書でCPU680と総称される)を含み得る。GPU684、CPU680、及びPCIeスイッチは、たとえば、NVIDIAによって開発されたNVLinkインターフェース688及び/又はPCIe接続686などの、これらに限定されない、高速相互接続で相互に接続され得る。いくつかの実例では、GPU684は、NVLink及び/又はNVSwitch SoCを介して接続され、GPU684及びPCIeスイッチ682は、PCIe相互接続を介して接続される。8個のGPU684、2個のCPU680、及び2個のPCIeスイッチが図示されているが、これは限定を意図されていない。実施例に応じて、それぞれのサーバ678は、任意の数のGPU684、CPU680、及び/又はPCIeスイッチを含み得る。たとえば、サーバ678は、それぞれ、8個、16個、32個、及び/又はそれ以上のGPU684を含んでもよい。
FIG. 6D is a system diagram of communications between a cloud-based server and exemplary
サーバ678は、最近開始された道路工事など、予想外の又は変更された道路状態を示す画像を表す画像データを、ネットワーク690を介して、車両から、受信することができる。サーバ678は、ニューラル・ネットワーク692、更新されたニューラル・ネットワーク692、及び/又は、交通及び道路状態に関する情報を含むマップ情報694をネットワーク690を介して車両に送信することができる。マップ情報694の更新は、建設現場、くぼみ、迂回路、洪水、及び/又は他の障害物に関する情報など、HDマップ622の更新を含み得る。いくつかの実例では、ニューラル・ネットワーク692、更新されたニューラル・ネットワーク692、及び/又はマップ情報694は、環境において任意の数の車両から受信されたデータにおいて表された新しいトレーニング及び/又は経験から、及び/又は(たとえば、サーバ678及び/又は他のサーバを使用する)データ・センタにおいて実行されたトレーニングに基づいて生じた可能性がある。
The server 678 may receive image data from the vehicle via the
サーバ678は、トレーニング・データに基づいて機械学習モデル(たとえば、ニューラル・ネットワーク)をトレーニングするために使用され得る。トレーニング・データは、車両によって生成され得る、及び/又は(たとえば、ゲーム・エンジンを使用して)シミュレーションにおいて生成され得る。いくつかの実例では、トレーニング・データは、タグ付けされる(たとえば、ニューラル・ネットワークが、監督された学習の恩恵を受ける場合)及び/又は他の事前処理を受けるが、他の実例において、トレーニング・データは、タグ付け及び/又は事前処理されない(たとえば、ニューラル・ネットワークが、監督された学習を必要としない場合)。トレーニングは、たとえば以下のクラスを含むがこれらに限定されない、任意の1つ又は複数のクラスの機械学習技法に従って、実行され得る:監視されたトレーニング、半監視されたトレーニング、監視されていないトレーニング、自己学習、強化学習、連合型学習、転移学習、特徴学習(主要構成要素及びクラスタ分析を含む)、マルチ線形部分空間学習、多様体学習、表現学習(予備辞書学習を含む)、ルールに基づく機械学習、異常検出、及びそれらの変更形態若しくは組合せ。機械学習モデルがトレーニングされた後は、機械学習モデルは、車両によって使用され得(たとえば、ネットワーク690を介して車両に送信される)、及び/又は、機械学習モデルは、車両を遠隔監視するために、サーバ678によって使用され得る。 Server 678 may be used to train machine learning models (eg, neural networks) based on the training data. Training data may be generated by the vehicle and/or generated in a simulation (eg, using a game engine). In some instances, the training data is tagged (e.g., if the neural network benefits from supervised learning) and/or undergoes other preprocessing, while in other instances the training data - The data is not tagged and/or pre-processed (eg, if the neural network does not require supervised learning). Training may be performed according to any one or more classes of machine learning techniques, including, but not limited to, the following classes: supervised training, semi-supervised training, unsupervised training, Self-learning, reinforcement learning, federated learning, transfer learning, feature learning (including principal component and cluster analysis), multi-linear subspace learning, manifold learning, representation learning (including preliminary dictionary learning), rule-based machine Learning, anomaly detection, and variations or combinations thereof. After the machine learning model is trained, the machine learning model can be used by the vehicle (eg, transmitted to the vehicle via network 690) and/or the machine learning model can be used to remotely monitor the vehicle. can be used by server 678 to
いくつかの実例では、サーバ678は、車両からデータを受信し、リアルタイムのインテリジェント推論のために最新のリアルタイムのニューラル・ネットワークにデータを適用することができる。サーバ678は、NVIDIAによって開発されたDGX及びDGXステーション・マシンなど、GPU684によって電力供給される深層学習スーパーコンピュータ及び/又は専用のAIコンピュータを含み得る。しかしながら、一部の実例では、サーバ678は、CPU電源式データ・センタのみを使用する深層学習インフラストラクチャを含み得る。
In some instances, server 678 may receive data from the vehicle and apply the data to state-of-the-art real-time neural networks for real-time intelligent inference. Server 678 may include a deep learning supercomputer powered by
サーバ678の深層学習インフラストラクチャは、高速のリアルタイム推論の能力を有することでき、その能力を使用して車両600内のプロセッサ、ソフトウェア、及び/又は関連ハードウェアの調子を評価及び検証することができる。たとえば、深層学習インフラストラクチャは、車両600がそのシーケンスの画像内に位置したシーケンスの画像及び/又は物体など、車両600からの定期的更新を受信することができる(たとえば、コンピュータ・ビジョン及び/又は他の機械学習物体分類技法を介して)。深層学習インフラストラクチャは、物体を識別し、車両600によって識別された物体とそれらを比較するために、独自のニューラル・ネットワークを実行することができ、結果が一致せず、インフラストラクチャが、車両600内のAIは正常に機能していないという結論を下した場合、サーバ678は、制御を推測し、乗客に通知し、安全な駐車操作を完了するように車両600のフェイルセーフ・コンピュータに命じる車両600への信号を送信することができる。
The deep learning infrastructure of server 678 may be capable of fast real-time inference, which may be used to assess and verify the health of processors, software, and/or related hardware within
推論のために、サーバ678は、GPU684及び1つ又は複数のプログラマブル推論加速装置(たとえば、NVIDIAのTensorRT)を含み得る。GPU電源式サーバ及び推論加速の組合せは、リアルタイムの応答性を可能にすることができる。パフォーマンスがさほど必要とされない場合など、他の実例では、CPU、FPGA、及び他のプロセッサによって電力供給されるサーバが、推論のために使用され得る。
For inference, server 678 may include
(例示的計算デバイス)
図7は、本開示のいくつかの実施例の実装に使用するのに適した計算デバイス700の一実例のブロック図である。計算デバイス700は、以下のデバイスを間接的に又は直接的につなぐ相互接続システム702を含み得る:メモリ704、1つ又は複数の中央処理装置(CPU)706、1つ又は複数のグラフィック処理ユニット(GPU)708、通信インターフェース710、入力/出力(I/O)ポート712、入力/出力構成要素714、電力供給装置716、1つ又は複数の提示構成要素718(たとえば、ディスプレイ)、及び1つ又は複数の論理ユニット720。少なくとも1つの実施例において、計算デバイス700は、1つ又は複数の仮想マシン(VM)を含み得る、及び/又は、その構成要素のいずれかは、仮想構成要素(たとえば、仮想ハードウェア構成要素)を含み得る。非限定的実例として、GPU708のうちの1つ又は複数は、1つ又は複数のvGPUを含み得、CPU706のうちの1つ又は複数は、1つ又は複数のvCPUを含み得、及び/又は、論理ユニット720のうちの1つ又は複数は、1つ又は複数の仮想論理ユニットを含み得る。そのようなものとして、計算デバイス700は、離散された構成要素(たとえば、計算デバイス700専用の全GPU)、仮想構成要素(たとえば、計算デバイス700専用のGPUの一部分)、又はその組合せを含み得る。
(exemplary computing device)
FIG. 7 is a block diagram of an
図7の様々なブロックは、線で相互接続システム702を介して接続しているように示されているが、これは限定することを意図されておらず、単に分かりやすくするためである。たとえば、一部の実施例では、ディスプレイ・デバイスなどの提示構成要素718は、I/O構成要素714と考えられ得る(たとえば、ディスプレイがタッチ・スクリーンである場合)。別の実例として、CPU706及び/又はGPU708はメモリを含み得る(たとえば、メモリ704は、GPU708、CPU706、及び/又は他の構成要素のメモリに加えた記憶デバイスを表し得る)。言い換えれば、図7の計算デバイスは、単に例示である。「ワークステーション」、「サーバ」、「ラップトップ」、「デスクトップ」、「タブレット」、「クライアント・デバイス」、「モバイル・デバイス」、「ハンドヘルド・デバイス」、「ゲーム機」、「電子制御ユニット(ECU:electronic control unit)」、「仮想現実システム」、及び/又は他のデバイス若しくはシステム・タイプなどのカテゴリはすべて、図7の計算デバイスの範囲内にあることが意図されているので、これらは区別されない。
Although the various blocks in FIG. 7 are shown connected by lines via
相互接続システム702は、1つ又は複数のリンク又はバス、たとえば、アドレス・バス、データ・バス、制御バス、又はそれらの組合せ、を表し得る。相互接続システム702は、1つ又は複数のバス又はリンク・タイプ、たとえば、業界標準アーキテクチャ(ISA:industry standard architecture)バス、拡張業界標準アーキテクチャ(EISA:extended industry standard architecture)バス、VESA(video electronics standards association)バス、周辺構成要素相互接続(PCI:peripheral component interconnect)バス、周辺構成要素相互接続エクスプレス(PCIe:peripheral component interconnect express)バス、及び/又は別のタイプのバス若しくはリンク、を含み得る。一部の実施例では、構成要素の間に直接接続が存在する。一実例として、CPU706は、メモリ704に直接接続され得る。さらに、CPU706は、GPU708に直接接続され得る。構成要素の間に直接、又はポイント対ポイント接続が存在する場合、相互接続システム702は、接続を実施するためのPCIeリンクを含み得る。これらの実例では、PCIバスは、計算デバイス700に含まれる必要はない。
メモリ704は、様々なコンピュータ可読媒体のいずれかを含み得る。コンピュータ可読媒体は、計算デバイス700によってアクセスすることができる任意の利用可能な媒体でもよい。コンピュータ可読媒体は、揮発性及び不揮発性媒体の両方、及び取り外し可能な及び取り外し不可能な媒体を含んでもよい。限定ではなく実例として、コンピュータ可読媒体は、コンピュータ記憶媒体及び通信媒体を備え得る。
Memory 704 may include any of a variety of computer readable media. Computer readable media can be any available media that can be accessed by computing
コンピュータ記憶媒体は、コンピュータ可読命令、データ構造体、プログラム・モジュール、及び/又は他のデータ・タイプなどの情報の記憶のための任意の方法又は技術において実装された揮発性及び不揮発性媒体及び/又は取り外し可能な及び取り外し不可能な媒体の両方を含んでもよい。たとえば、メモリ704は、オペレーティング・システムなど、(たとえば、プログラム及び/又はプログラム要素を表す)コンピュータ可読命令を記憶することができる。コンピュータ記憶媒体は、RAM、ROM、EEPROM、フラッシュメモリ又は他のメモリ技術、CD-ROM、デジタル多用途ディスク(DVD:digital versatile disk)又は他の光ディスク・ストレージ、磁気カセット、磁気テープ、磁気ディスク・ストレージ又は他の磁気記憶デバイス、或いは、所望の情報を記憶するために使用し得る及び計算デバイス700によってアクセスし得る任意の他の媒体を含み得るが、これらに限定されない。本明細書では、コンピュータ記憶媒体は、信号自体を含まない。
Computer storage media includes volatile and nonvolatile media and/or implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules and/or other data types. or may include both removable and non-removable media. For example, memory 704 may store computer readable instructions (eg, representing programs and/or program elements), such as an operating system. Computer storage media may include RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital versatile disk (DVD) or other optical disk storage, magnetic cassettes, magnetic tapes, magnetic disks, etc. It may include, but is not limited to, a storage or other magnetic storage device or any other medium that may be used to store desired information and that may be accessed by computing
コンピュータ記憶媒体は、搬送波などの変調データ信号又は他の移送機構においてコンピュータ可読命令、データ構造体、プログラム・モジュール、及び/又は他のデータ・タイプを実施することができ、任意の情報配信媒体を含む。「変調データ信号」という用語は、その特性セットのうちの1つ又は複数を有する或いは信号内の情報をエンコードするような方式で変化した信号を指し得る。限定ではなく実例として、コンピュータ記憶媒体は、ワイヤード・ネットワーク又は直接ワイヤード接続などのワイヤード媒体と、音響、RF、赤外線及び他のワイヤレス媒体などのワイヤレス媒体とを含み得る。前述のいずれかの組合せもまた、コンピュータ可読媒体の範囲に含まれるべきである。 Computer storage media can embody computer readable instructions, data structures, program modules and/or other data types in a modulated data signal, such as a carrier wave or other transport mechanism, and can comprise any information delivery media. include. The term "modulated data signal" may refer to a signal that has one or more of its characteristics set or changed in such a manner as to encode information in the signal. By way of example, and not limitation, computer storage media may include wired media such as a wired network or direct-wired connection, and wireless media such as acoustic, RF, infrared and other wireless media. Combinations of the any of the above should also be included within the scope of computer readable media.
CPU706は、コンピュータ可読命令のうちの少なくともいくつかを実行して計算デバイス700の1つ又は複数の構成要素を制御して本明細書に記載の方法及び/又はプロセスのうちの1つ又は複数を実行するように構成され得る。CPU706は、多数のソフトウェア・スレッドを同時に処理する能力を有する1つ又は複数の(たとえば、1個、2個、4個、8個、28個、72個などの)コアをそれぞれ含んでもよい。CPU706は、任意のタイプのプロセッサを含んでもよく、実装された計算デバイス700のタイプに応じて、異なるタイプのプロセッサを含んでもよい(たとえば、モバイル・デバイスのためのより少数のコアを有するプロセッサ、及びサーバのためのより多数のコアを有するプロセッサ)。たとえば、計算デバイス700のタイプに応じて、プロセッサは、縮小命令セット計算(RISC:Reduced Instruction Set Computing)を使用して実装されたAdvanced RISC Machines(ARM)プロセッサ、又は複合命令セット計算(CISC:Complex Instruction Set Computing)を使用して実装されたx86プロセッサでもよい。計算デバイス700は、計算コプロセッサなど、1つ又は複数のマイクロプロセッサ又は補助コプロセッサに加えて、1つ又は複数のCPU706を含み得る。
CPU 706 executes at least some of the computer readable instructions to control one or more components of
CPU706に加えて又はその代わりに、GPU708は、コンピュータ可読命令のうちの少なくともいくつかを実行して計算デバイス700の1つ又は複数の構成要素を制御して本明細書に記載の方法及び/又はプロセスのうちの1つ又は複数を実行するように構成され得る。GPU708のうちの1つ若しくは複数は、統合されたGPUでもよく(たとえば、CPU706のうちの1つ又は複数とでもよい)、及び/又はGPU708のうちの1つ若しくは複数は、離散GPUでもよい。実施例では、GPU708のうちの1つ又は複数は、CPU706のうちの1つ又は複数のコプロセッサでもよい。GPU708は、グラフィックス(たとえば、3Dグラフィックス)をレンダリングする又は汎用計算を実行するために、計算デバイス700によって使用され得る。たとえば、GPU708は、GPUによる汎用計算(GPGPU:General-Purpose computing on GPU)のために使用され得る。GPU708は、同時に数百又は数千のソフトウェア・スレッドを処理する能力を有する数百又は数千のコアを含み得る。GPU708は、レンダリング・コマンド(たとえば、ホスト・インターフェースを介して受信されたCPU706からのレンダリング・コマンド)に応答して、出力画像のための画素データを生成することができる。GPU708は、画素データ又は任意の他の適切なデータ、たとえばGPGPUデータ、を記憶するためのグラフィックス・メモリ、たとえばディスプレイ・メモリ、を含み得る。ディスプレイ・メモリは、メモリ704の一部として含まれ得る。GPU708は、並行して動作する(たとえば、リンクを介して)2個以上のGPUを含み得る。リンクは、GPUに直接接続することができ(たとえば、NVLINKを使用して)、又はスイッチを介して(たとえば、NVSwitchを使用して)GPUを接続することができる。ともに結合されるとき、各GPU708は、出力の異なる部分の又は異なる出力の画素データ又はGPGPUデータ(たとえば、第1の画像の第1のGPU及び第2の画像の第2のGPU)を生成することができる。各GPUは、独自のメモリを含むことができ、又は他のGPUとメモリを共有することができる。
In addition to or instead of CPU 706, GPU 708 executes at least some of the computer-readable instructions to control one or more components of
CPU706及び/又はGPU708に加えて又はその代わりに、論理ユニット720は、コンピュータ可読命令のうちの少なくともいくつかを実行して計算デバイス700のうちの1つ又は複数を制御して本明細書に記載の方法及び/又はプロセスのうちの1つ又は複数を実行するように構成され得る。実施例では、CPU706、GPU708、及び/又は論理ユニット720は、方法、プロセス及び/又はその部分の任意の組合せを離散的に又は合同で実行することができる。論理ユニット720のうちの1つ若しくは複数は、CPU706及び/若しくはGPU708のうちの1つ若しくは複数の一部でもよく及び/又はそこで統合されてもよく、及び/又は、論理ユニット720のうちの1つ若しくは複数は、CPU706及び/若しくはGPU708に対する離散構成要素であっても若しくは他の方法でそれらの外部にあってもよい。実施例では、論理ユニット720のうちの1つ又は複数は、CPU706のうちの1つ若しくは複数及び/又はGPU708のうちの1つ若しくは複数のコプロセッサでもよい。
In addition to or instead of CPU 706 and/or GPU 708,
論理ユニット720の実例は、1つ又は複数の処理コア及び/又はその構成要素、たとえば、データ処理ユニット(DPU:Data Processing Unit)、テンソル・コア(TC:Tensor Core)、テンソル処理ユニット(TPU:Tensor Processing Unit)、画素ビジュアル・コア(PVC:Pixel Visual Core)、ビジョン処理ユニット(VPU:Vision Processing Unit)、グラフィックス処理クラスタ(GPC:Graphics Processing Cluster)、テクスチャ処理クラスタ(TPC:Texture Processing Cluster)、ストリーミング・マルチプロセッサ(SM:Streaming Multiprocessor)、ツリー・トラバース・ユニット(TTU:Tree Traversal Unit)、人工知能加速装置(AIA:Artificial Intelligence Accelerator)、深層学習加速装置(DLA:Deep Learning Accelerator)、論理演算ユニット(ALU)、特定用途向け集積回路(ASIC)、浮動小数点演算ユニット(FPU)、入力/出力(I/O)エレメント、周辺構成要素相互接続(PCI)又は周辺構成要素相互接続エクスプレス(PCIe)エレメント、及び/又は同類のもの、を含む。
Examples of
通信インターフェース710は、ワイヤード及び/又はワイヤレス通信を含む、電子通信ネットワークを介して計算デバイス700が他の計算デバイスと通信することを可能にする、1つ又は複数のレシーバ、トランスミッタ、及び/又はトランシーバを含み得る。通信インターフェース710は、ワイヤレス・ネットワーク(たとえば、Wi-Fi、Z-Wave、ブルートゥース(登録商標)、ブルートゥースLE、ZigBeeなど)、ワイヤード・ネットワーク(たとえば、イーサネット(登録商標)又はInfiniBandを介して通信すること)、低電力ワイド・エリア・ネットワーク(たとえば、LoRaWAN、SigFoxなど)、及び/又はインターネットなどの、いくつかの異なるネットワークのうちのいずれかを介する通信を可能にするための構成要素及び機能を含み得る。1つ又は複数の実施例において、論理ユニット720及び/又は通信インターフェース710は、ネットワークを介して及び/又は相互接続システム702を通して受信されるデータを1つ又は複数のGPU708(たとえば、そのメモリ)に直接に送信するために1つ又は複数のデータ処理装置(DPU)を含み得る。
I/Oポート712は、そのうちのいくつかは計算デバイス700に内蔵(たとえば、統合)され得る、I/O構成要素714、提示構成要素718、及び/又は他の構成要素を含む、他のデバイスに計算デバイス700が論理的に連結されることを可能にすることができる。例示的なI/O構成要素714は、マイクロフォン、マウス、キーボード、ジョイスティック、ゲーム・パッド、ゲーム・コントローラ、サテライト・ディッシュ、スキャナ、プリンタ、ワイヤレス・デバイスなどを含む。I/O構成要素714は、エア・ジェスチャ、音声、又は、ユーザによって生成される他の生理的入力を処理する自然ユーザ・インターフェース(NUI:natural user interface)を提供することができる。場合によっては、入力は、さらなる処理のための適切なネットワーク要素に送信され得る。NUIは、音声認識、スタイラス認識、顔認識、生体認識、画面上での及び画面の隣でのジェスチャ認識、エア・ジェスチャ、頭部及び視標追跡、並びに計算デバイス700のディスプレイに関連するタッチ認識(さらに詳しく後述するような)の任意の組合せを実装し得る。計算デバイス700は、ジェスチャ検出及び認識のための、ステレオスコープ・カメラ・システム、赤外線カメラ・システム、RGBカメラ・システム、タッチ・スクリーン技術、及びこれらの組合せなど、深度カメラを含み得る。追加で、計算デバイス700は、動きの検出を可能にする加速度計又はジャイロスコープを含み得る(たとえば、慣性測定ユニット(IMU:inertia measurement unit)の一部として)。いくつかの実例では、加速度計又はジャイロスコープの出力は、没入型拡張現実又は仮想現実をレンダリングするために、計算デバイス700によって使用され得る。
I/
電力供給装置716は、ハードワイヤード電力供給装置、バッテリ電力供給装置、又はその組合せを含み得る。電力供給装置716は、計算デバイス700の構成要素が動作することを可能にするために計算デバイス700に電力を提供することができる。
提示構成要素718は、ディスプレイ(たとえば、モニタ、タッチ・スクリーン、テレビジョン・スクリーン、ヘッドアップ・ディスプレイ・デバイス(HUD)、他のディスプレイタイプ、又はそれらの組合せ)、スピーカ、及び/又は他の提示構成要素を含み得る。提示構成要素718は、他の構成要素(たとえば、GPU708、CPU706、DPUなど)からデータを受信し、データを(たとえば、画像、ビデオ、音響などとして)出力することができる。
(例示的データ・センタ)
図8は、本開示の少なくとも1つの実施例において使用され得る例示的データ・センタ800を示す。データ・センタ800は、データ・センタ・インフラストラクチャ層810、フレームワーク層820、ソフトウェア層830、及び/又はアプリケーション層840を含み得る。
(exemplary data center)
FIG. 8 illustrates an
図8に示すように、データ・センタ・インフラストラクチャ層810は、資源オーケストレータ812、グループ化された計算資源814、及びノード計算資源(「ノードC.R.」)816(1)~816(N)を含み得、そこで、「N」は、任意の正の整数を表す。少なくとも1つの実施例において、ノードC.R.816(1)~816(N)は、任意の数の中央処理装置(CPU)又は他のプロセッサ(DPU、加速装置、フィールド・プログラマブル・ゲート・アレイ(FPGA)、グラフィックス・プロセッサ若しくはグラフィックス・プロセッシング・ユニット(GPU)などを含む)、メモリ・デバイス(たとえば、動的リード・オンリ・メモリ)、記憶デバイス(たとえば、ソリッドステート若しくはディスク・ドライブ)、ネットワーク入力/出力(NW I/O)デバイス、ネットワーク・スイッチ、仮想マシン(VM)、電力モジュール、及び/又は冷却モジュールなどを含み得るが、これらに限定されない。いくつかの実施例において、ノードC.R.816(1)~816(N)のうちの1つ又は複数のノードC.R.は、前述の計算資源のうちの1つ又は複数を有するサーバに対応し得る。加えて、いくつかの実施例において、ノードC.R.816(1)~8161(N)は、1つ若しくは複数の仮想構成要素、たとえば、vGPU、vCPU、及び/若しくは同類のもの、を含み得る、並びに/又は、ノードC.R.816(1)~816(N)のうちの1つ若しくは複数は、仮想マシン(VM)に対応し得る。
As shown in FIG. 8, the data center infrastructure layer 810 includes a resource orchestrator 812, grouped
少なくとも1つの実施例において、グループ化された計算資源814は、1つ又は複数のラック(図示せず)内に収容された別個のグループのノードC.R.816、或いは様々な地理的場所(やはり図示せず)にあるデータ・センタに収容された多数のラックを含み得る。グループ化された計算資源814内の別個のグループのノードC.R.816は、1つ又は複数のワークロードをサポートするように構成する又は割り当てることができる、グループ化された計算、ネットワーク、メモリ又はストレージ資源を含み得る。少なくとも1つの実施例において、CPU、GPU、DPU、及び/又は他のプロセッサを含むいくつかのノードC.R.816は、1つ又は複数のワークロードをサポートするための計算資源を提供するために、1つ又は複数のラック内にグループ化され得る。1つ又は複数のラックはまた、任意の組合せで、任意の数の電力モジュール、冷却モジュール、及び/又はネットワーク・スイッチを含み得る。
In at least one embodiment, the grouped
資源オーケストレータ812は、1つ若しくは複数のノードC.R.816(1)~816(N)及び/又はグループ化された計算資源814を構成又は他の方法で制御することができる。少なくとも1つの実施例において、資源オーケストレータ812は、データ・センタ800のソフトウェア設計インフラストラクチャ(「SDI」)管理エンティティを含み得る。資源オーケストレータ812は、ハードウェア、ソフトウェア、又はその何らかの組合せを含み得る。
A resource orchestrator 812 is one or more nodes C.I. R. 816(1)-816(N) and/or grouped
少なくとも1つの実施例において、図8に示すように、フレームワーク層820は、ジョブ・スケジューラ833、構成マネージャ834、資源マネージャ836、及び/又は分散型ファイル・システム838を含み得る。フレームワーク層820は、ソフトウェア層830のソフトウェア832及び/又はアプリケーション層840の1つ若しくは複数のアプリケーション842をサポートするためにフレームワークを含み得る。ソフトウェア832又はアプリケーション842は、ウェブベースのサービス・ソフトウェア又はアプリケーション、たとえば、Amazon Web Services(登録商標)、Google Cloud及びMicrosoft Azureによって提供されるもの、をそれぞれ含み得る。フレームワーク層820は、大規模データ処理(たとえば、「ビッグ・データ」)のための分散型ファイル・システム838を使用し得るApache Spark(商標)(以下「Spark」)などのフリー及びオープン・ソース・ソフトウェア・ウェブ・アプリケーション・フレームワークのタイプでもよいが、これに限定されない。少なくとも1つの実施例において、ジョブ・スケジューラ833は、データ・センタ800の様々な層によってサポートされるワークロードのスケジューリングを容易にするために、Sparkドライバを含み得る。構成マネージャ834は、異なる層、たとえば、ソフトウェア層830と、大規模データ処理をサポートするためのSpark及び分散型ファイル・システム838を含むフレームワーク層820、を構成する能力を有し得る。資源マネージャ836は、分散型ファイル・システム838及びジョブ・スケジューラ833のサポートのためにマップされた又は割り当てられたクラスタ化された又はグループ化された計算資源を管理する能力を有し得る。少なくとも1つの実施例において、クラスタ化された又はグループ化された計算資源は、データ・センタ・インフラストラクチャ層810にグループ化された計算資源814を含み得る。資源マネージャ836は、資源オーケストレータ812と調整して、これらのマップされた又は割り当てられた計算資源を管理することができる。
In at least one embodiment, framework layer 820 may include job scheduler 833, configuration manager 834, resource manager 836, and/or distributed file system 838, as shown in FIG. Framework layer 820 may include frameworks to support software 832 of software layer 830 and/or one or more applications 842 of application layer 840 . Software 832 or application 842 may include web-based service software or applications, such as those provided by Amazon Web Services®, Google Cloud, and Microsoft Azure, respectively. Framework layer 820 includes free and open source software such as Apache Spark™ (“Spark”) that can use distributed file system 838 for large-scale data processing (eg, “big data”). • Can be of the type, but not limited to, software web application framework. In at least one embodiment, job scheduler 833 may include Spark drivers to facilitate scheduling of workloads supported by various tiers of
少なくとも1つの実施例において、ソフトウェア層830に含まれるソフトウェア832は、ノードC.R.816(1)~816(N)の少なくとも部分、グループ化された計算資源814、及び/又はフレームワーク層820の分散型ファイル・システム838によって使用されるソフトウェアを含み得る。1つ又は複数のタイプのソフトウェアは、インターネット・ウェブ・ページ検索ソフトウェア、電子メール・ウイルス・スキャン・ソフトウェア、データベース・ソフトウェア、及びストリーミング・ビデオ・コンテンツ・ソフトウェアを含み得るが、これらに限定されない。
In at least one embodiment, software 832 included in software layer 830 is node C. R. At least portions of 816 ( 1 )- 816 (N) may include software used by grouped
少なくとも1つの実施例において、アプリケーション層840に含まれるアプリケーション842は、ノードC.R.816(1)~816(N)の少なくとも部分、グループ化された計算資源814、及び/又はフレームワーク層820の分散型ファイル・システム838によって使用される1つ又は複数のタイプのアプリケーションを含み得る。1つ又は複数のタイプのアプリケーションは、任意の数のゲノミクス・アプリケーション、認知計算、並びに、トレーニング若しくは推論ソフトウェア、機械学習フレームワーク・ソフトウェア(たとえば、PyTorch、TensorFlow、Caffeなど)、及び/又は1つ若しくは複数の実施例と併せて使用される他の機械学習アプリケーションを含む、機械学習アプリケーションを含み得るが、これらに限定されない。
In at least one embodiment, application 842 included in application layer 840 is node C. R. 816(1)-816(N), grouped
少なくとも1つの実施例において、構成マネージャ834、資源マネージャ836、及び資源オーケストレータ812のうちのいずれかは、任意の技術的に可能な方式で取得される任意の量及びタイプのデータに基づいて任意の数及びタイプの自己書換え型アクションを実装することができる。自己書換え型アクションは、よくない可能性のある構成決定を行うこと並びにデータ・センタの十分に活用されていない及び/又は実行の不十分な部分を恐らく回避することからデータ・センタ800のデータ・センタ・オペレータを解放し得る。
In at least one embodiment, any one of configuration manager 834, resource manager 836, and resource orchestrator 812 may perform any task based on any amount and type of data obtained in any technically possible manner. number and types of self-modifying actions can be implemented. Self-modifying actions reduce the
データ・センタ800は、1つ又は複数の機械学習モデルをトレーニングする或いは本明細書に記載の1つ又は複数の実施例による1つ又は複数の機械学習モデルを使用して情報を予測する又は推論するために、ツール、サービス、ソフトウェア或いは他の資源を含み得る。たとえば、機械学習モデルは、データ・センタ800に関して前述されたソフトウェア及び/又は計算資源を使用するニューラル・ネットワーク・アーキテクチャによる重量パラメータの計算によって、トレーニングされ得る。少なくとも1つの実施例において、1つ又は複数のニューラル・ネットワークに対応するトレーニングされた又は配備された機械学習モデルは、たとえば、本明細書に記載のものに限定されない、1つ又は複数のトレーニング技法を介して計算された重量パラメータを使用することによって、データ・センタ800に関して前述された資源を使用して情報を推論又は予測するために使用され得る。
少なくとも1つの実施例において、データ・センタ800は、前述の資源を使用するトレーニング及び/又は推論を実行するために、CPU、特定用途向け集積回路(ASIC)、GPU、FPGA、及び/又は他のハードウェア(若しくはそれに対応する仮想計算資源)を使用することができる。さらに、前述の1つ又は複数のソフトウェア及び/又はハードウェア資源は、情報の推論をユーザがトレーニング又は実行することを可能にするためのサービス、たとえば、画像認識、音声認識、又は他の人工知能サービス、として構成され得る。
In at least one embodiment,
(例示的ネットワーク環境)
本開示の実施例の実装において使用するのに適したネットワーク環境は、1つ若しくは複数のクライアント・デバイス、サーバ、ネットワーク接続型ストレージ(NAS:network attached storage)、他のバックエンド・デバイス、及び/又は他のデバイス・タイプを含み得る。クライアント・デバイス、サーバ、及び/又は他のデバイス・タイプ(たとえば、各デバイス)は、図7の計算デバイス700の1つ又は複数のインスタンスで実装され得、たとえば、各デバイスは、計算デバイス700の類似の構成要素、特徴、及び/又は機能性を含み得る。加えて、バックエンド・デバイス(たとえば、サーバ、NASなど)が、実装される場合、バックエンド・デバイスは、データ・センタ800の一部として含まれ得、その実例は、図8に関して本明細書でさらに詳述される。
(Exemplary network environment)
A network environment suitable for use in implementing embodiments of the present disclosure includes one or more client devices, servers, network attached storage (NAS), other backend devices, and/or or may include other device types. Client devices, servers, and/or other device types (eg, each device) may be implemented with one or more instances of
ネットワーク環境の構成要素は、ワイヤード、ワイヤレス、又はその両方でもよい、ネットワークを介して互いに通信し得る。ネットワークは、複数のネットワーク、又は複数のネットワークのうちの1つのネットワークを含み得る。実例として、ネットワークは、1つ若しくは複数のワイド・エリア・ネットワーク(WAN)、1つ若しくは複数のローカル・エリア・ネットワーク(LAN)、1つ若しくは複数のパブリック・ネットワーク、たとえば、インターネット及び/若しくは公衆交換電話網(PSTN)、並びに/又は1つ若しくは複数のプライベート・ネットワークを含み得る。ネットワークが、ワイヤレス電気通信ネットワークを含む場合、構成要素、たとえば、基地局、通信塔、或いはアクセス・ポイント(並びに他の構成要素)、は、ワイヤレス接続を提供し得る。 Components of a network environment may communicate with each other via a network, which may be wired, wireless, or both. A network may include multiple networks or one of multiple networks. Illustratively, the network may include one or more wide area networks (WAN), one or more local area networks (LAN), one or more public networks, such as the Internet and/or public It may include a switched telephone network (PSTN) and/or one or more private networks. When the network comprises a wireless telecommunications network, components such as base stations, communication towers or access points (as well as other components) may provide wireless connectivity.
互換性のあるネットワーク環境は、1つ又は複数のピア・ツー・ピア・ネットワーク環境(その場合、サーバはネットワーク環境に含まれないことがある)と、1つ又は複数のクライアント・サーバ・ネットワーク環境(その場合、1つ又は複数のサーバがネットワーク環境に含まれ得る)とを含み得る。ピア・ツー・ピア・ネットワーク環境では、サーバに関して本明細書に記載した機能性は、任意の数のクライアント・デバイスで実装され得る。 Compatible network environments include one or more peer-to-peer network environments (where servers may not be included in the network environment) and one or more client-server network environments. (where one or more servers may be included in the network environment). In a peer-to-peer network environment, the functionality described herein with respect to servers may be implemented by any number of client devices.
少なくとも1つの実施例において、ネットワーク環境は、1つ又は複数のクラウドベースのネットワーク環境、分散型計算環境、その組合せなどを含み得る。クラウドベースのネットワーク環境は、フレームワーク層、ジョブ・スケジューラ、資源マネージャ、並びに、1つ若しくは複数のコア・ネットワーク・サーバ及び/又はエッジ・サーバを含み得る、サーバのうちの1つ又は複数で実装された分散型ファイル・システムを含み得る。フレームワーク層は、ソフトウェア層のソフトウェア及び/又はアプリケーション層の1つ若しくは複数のアプリケーションをサポートするために、フレームワークを含み得る。ソフトウェア又はアプリケーションは、それぞれ、ウェブベースのサービス・ソフトウェア又はアプリケーションを含み得る。実施例において、クライアント・デバイスのうちの1つ又は複数は、ウェブベースのサービス・ソフトウェア又はアプリケーションを使用し得る(たとえば、1つ又は複数のアプリケーション・プログラミング・インターフェース(API)を介してサービス・ソフトウェア及び/又はアプリケーションにアクセスすることによって)。フレームワーク層は、たとえば大規模データ処理(たとえば、「ビッグ・データ」)のための分散型ファイル・システムを使用し得る、フリー及びオープン・ソース・ソフトウェア・ウェブ・アプリケーション・フレームワークのタイプでもよいが、これに限定されない。 In at least one embodiment, the network environment can include one or more cloud-based network environments, distributed computing environments, combinations thereof, and the like. A cloud-based network environment is implemented on one or more of the servers, which may include a framework layer, a job scheduler, a resource manager, and one or more core network servers and/or edge servers. may include a distributed file system that is A framework layer may include a framework to support software in the software layer and/or one or more applications in the application layer. Software or applications may include web-based service software or applications, respectively. In an embodiment, one or more of the client devices may use web-based service software or applications (e.g., access the service software via one or more application programming interfaces (APIs)). and/or by accessing the application). The framework layer can be of the type free and open source software web application frameworks that can use distributed file systems, for example, for large-scale data processing (e.g., "big data"). but not limited to this.
クラウドベースのネットワーク環境は、本明細書に記載の計算及び/又はデータ・ストレージ機能(又は1つ若しくは複数のその部分)の任意の組合せを実施するクラウド計算及び/又はクラウド・ストレージを提供し得る。これらの様々な機能のいずれも、(たとえば、州、領域、国、世界にわたって分散され得る1つ又は複数のデータ・センタなどの)セントラル又はコア・サーバから複数の場所に分散され得る。ユーザ(たとえば、クライアント・デバイス)への接続が、エッジ・サーバに比較的近い場合、コア・サーバは、機能性の少なくとも一部分をエッジ・サーバに指定し得る。クラウドベースのネットワーク環境は、プライベート(たとえば、単一の組織に制限される)でもよく、パブリック(たとえば、多数の組織に利用可能)、及び/又はその組合せ(たとえば、ハイブリッド・クラウド環境)でもよい。 A cloud-based network environment may provide cloud computing and/or cloud storage that implements any combination of the computing and/or data storage functions (or one or more portions thereof) described herein. . Any of these various functions may be distributed to multiple locations from a central or core server (eg, one or more data centers that may be distributed across states, regions, countries, and the world). If the connection to the user (eg, client device) is relatively close to the edge server, the core server may assign at least a portion of the functionality to the edge server. A cloud-based network environment may be private (eg, restricted to a single organization), public (eg, available to many organizations), and/or a combination thereof (eg, a hybrid cloud environment). .
クライアント・デバイスは、図7に関して本明細書に記載の例示的計算デバイス700の構成要素、特徴、及び機能性のうちの少なくともいくつかを含み得る。限定ではなく実例として、クライアント・デバイスは、パーソナル・コンピュータ(PC)、ラップトップ・コンピュータ、モバイル・デバイス、スマートフォン、タブレット・コンピュータ、スマート・ウォッチ、ウェアラブル・コンピュータ、パーソナル・デジタル・アシスタント(PDA)、MP3プレイヤ、仮想現実ヘッドセット、全地球測位システム(GPS)又はデバイス、ビデオ・プレイヤ、ビデオカメラ、監視デバイス又はシステム、車両、ボート、飛行船、仮想マシン、ドローン、ロボット、ハンドヘルド通信デバイス、病院デバイス、ゲーミング・デバイス又はシステム、娯楽システム、車両コンピュータ・システム、組み込み型システム・コントローラ、リモート制御、器具、民生用電子デバイス、ワークステーション、エッジ・デバイス、これらの描写されたデバイスの任意の組合せ、或いは任意の他の適切なデバイスとして実施され得る。
A client device may include at least some of the components, features, and functionality of
本開示は、コンピュータ又は、携帯情報端末若しくは他のハンドヘルド・デバイスなどの、他のマシンによって実行されている、プログラム・モジュールなどのコンピュータ実行可能命令を含む、コンピュータ・コード又はマシン使用可能命令との一般的関連において説明されることがある。一般に、ルーティン、プログラム、オブジェクト、構成要素、データ構造体などを含むプログラム・モジュールは、特定のタスクを実行する又は特定の抽象データ・タイプを実装するコードを指す。本開示は、ハンドヘルド・デバイス、家電製品、汎用コンピュータ、より特殊な計算デバイスなどを含む、様々なシステム構成で実施され得る。本開示はまた、通信ネットワークを介してリンクされた遠隔処理デバイスによってタスクが実行される分散型コンピューティング環境において実施され得る。 This disclosure relates to computer code or machine-usable instructions, including computer-executable instructions, such as program modules, being executed by a computer or other machine, such as a personal digital assistant or other handheld device. It may be explained in general terms. Generally, program modules including routines, programs, objects, components, data structures, etc. refer to code that performs particular tasks or implements particular abstract data types. The present disclosure may be implemented in various system configurations, including handheld devices, consumer electronics, general purpose computers, more specialized computing devices, and the like. The disclosure may also be practiced in distributed computing environments where tasks are performed by remote processing devices that are linked through a communications network.
本明細書では、2個以上の要素に関する「及び/又は」の記述は、1つの要素のみ、又は要素の組合せを意味すると解釈されるべきである。たとえば、「要素A、要素B、及び/又は要素C」は、要素Aのみ、要素Bのみ、要素Cのみ、要素A及び要素B、要素A及び要素C、要素B及び要素C、或いは、要素A、B、及びCを含み得る。加えて、「要素A又は要素Bのうちの少なくとも1つ」は、要素Aの少なくとも1つ、要素Bの少なくとも1つ、或いは、要素Aの少なくとも1つ及び要素Bの少なくとも1つを含み得る。さらに、「要素A及び要素Bのうちの少なくとも1つ」は、要素Aのうちの少なくとも1つ、要素Bのうちの少なくとも1つ、或いは、要素Aのうちの少なくとも1つ及び要素Bのうちの少なくとも1つを含み得る。 In this specification, the word "and/or" referring to two or more elements should be construed to mean only one element or any combination of elements. For example, "element A, element B, and/or element C" means only element A, only element B, only element C, element A and element B, element A and element C, element B and element C, or element A, B, and C may be included. Additionally, "at least one of element A or element B" can include at least one of element A, at least one of element B, or at least one of element A and at least one of element B . Furthermore, "at least one of element A and element B" means at least one of element A, at least one of element B, or at least one of element A and element B at least one of
本開示の発明は、法定の要件を満たすために特異性を有して記述されている。しかしながら、その記述自体が本開示の範囲を限定することは意図されていない。そうではなくて、本発明者は、請求項に記載された発明が、他の現在の又は未来の技術と併せて、異なるステップ又は本文書に記載されたものと類似のステップの組合せを含むように、他の形で実施され得ることを意図している。さらに、「ステップ」及び/又は「ブロック」という用語は、使用される方法の異なる要素を含意するように本明細書で使用され得るが、これらの用語は、個別のステップの順番が明示的に記載されていない限り及びそのように記載されているときを除いて本明細書で開示される様々なステップの間に何らかの特定の順番を暗示するものとして解釈されるべきではない。 The invention of this disclosure has been described with specificity to meet statutory requirements. However, the description itself is not intended to limit the scope of this disclosure. Rather, the inventors believe that the claimed invention, in conjunction with other present or future technology, may include different steps or combinations of steps similar to those described in this document. However, it is intended that it may be embodied in other ways. Additionally, although the terms "step" and/or "block" may be used herein to imply different elements of the method used, these terms are used to clarify the order of the individual steps. It should not be construed as implying any particular order among the various steps disclosed herein, unless and except when so stated.
Claims (20)
前記1つ又は複数の回路が、
ニューラル・ネットワークを使用して、1つ又は複数のセンサを使用して生成された環境の画像データに少なくとも基づき、前記環境に対応する動作領域の1つ又は複数のパラメータを表すデータを計算し、
前記データに少なくとも部分的に基づき、前記環境に対応するエゴマシンの動作レベルを判定し、
前記動作レベルに応じて前記エゴマシンの動作を制御する
プロセッサ。 A processor comprising one or more circuits,
the one or more circuits comprising:
calculating, using a neural network, data representing one or more parameters of an operating region corresponding to said environment based at least on image data of the environment generated using one or more sensors;
determining, based at least in part on the data, a level of egomachine performance corresponding to the environment;
A processor that controls the operation of the egomachine according to the operation level.
カメラの視界遮蔽レベル、
視界遮蔽分類、
照明レベル、
進路表面の状態、
視認距離、
シーン・タイプ分類、又は
シーン・タイプ分類に対応するシーンまでの距離
のうちの少なくとも1つ含む、請求項1に記載のプロセッサ。 The one or more parameters are
camera visibility level,
Visual occlusion classification,
lighting level,
condition of the track surface,
viewing distance,
2. The processor of claim 1, comprising at least one of: a scene type classification; or a distance to a scene corresponding to the scene type classification.
前記1つ又は複数の回路が、
前記ニューラル・ネットワークのトランクを使用して中間データを生成し、
前記中間データに基づいて、前記ニューラル・ネットワークの少なくとも1つのヘッドを使用して前記データのサブセットを計算し、前記データの前記サブセットが、
カメラの視界遮蔽レベル、
視界遮蔽分類、
照明レベル、
進路表面の状態、
視認距離、
シーン・タイプ分類、又は
シーン・タイプ分類に対応するシーンまでの距離
のうちの少なくとも1つを表す、請求項1に記載のプロセッサ。 A processor comprising one or more circuits,
the one or more circuits comprising:
generating intermediate data using the trunk of said neural network;
calculating a subset of the data using at least one head of the neural network based on the intermediate data, the subset of the data comprising:
camera visibility level,
Visual occlusion classification,
lighting level,
condition of the track surface,
viewing distance,
2. The processor of claim 1, representing at least one of: a scene type classification; or a distance to a scene corresponding to the scene type classification.
自律若しくは半自律マシン用の制御システム、
自律若しくは半自律マシン用の認知システム、
シミュレーション動作を実行するためのシステム、
深層学習動作を実行するためのシステム、
エッジ・デバイスを使用して実装されるシステム、
ロボットを使用して実装されるシステム、
1つ若しくは複数の仮想マシン(VM)を組み込むシステム、
データ・センタに少なくとも部分的に実装されるシステム、又は
クラウド計算資源を使用して少なくとも部分的に実装されるシステム
のうちの少なくとも1つに含まれる、請求項1に記載のプロセッサ。 the processor
control systems for autonomous or semi-autonomous machines,
cognitive systems for autonomous or semi-autonomous machines,
a system for performing simulation operations;
a system for performing deep learning operations;
Systems implemented using edge devices,
systems implemented using robots,
a system that incorporates one or more virtual machines (VMs);
2. The processor of claim 1, included in at least one of: a system implemented at least partially in a data center; or a system implemented at least partially using cloud computing resources.
1つ又は複数の処理ユニットであって、
ニューラル・ネットワークを使用し、画像データに少なくとも部分的に基づき、照明レベル、進路表面の状態、視認距離のうちの少なくとも1つ、シーン・タイプ分類又は前記シーン・タイプ分類に対応するシーンまでの距離のうちの少なくとも1つ、並びにカメラの視界遮蔽の量又はカメラの視界遮蔽の原因のうちの少なくとも1つを表すデータを計算し、
前記データに少なくとも部分的に基づき、前記エゴマシンの動作レベルを判定し、
前記動作レベルに少なくとも部分的に基づき、1つ又は複数の制御操作を判定する、
1つ又は複数の処理ユニットと
を備える、システム。 one or more sensors for generating image data;
one or more processing units,
at least one of lighting level, path surface conditions, viewing distance, scene type classification, or distance to scene corresponding to said scene type classification, using a neural network, based at least in part on image data; and at least one of an amount of camera view occlusion or a cause of camera view occlusion;
determining a level of activity of the egomachine based at least in part on the data;
determining one or more control operations based at least in part on the activity level;
A system comprising one or more processing units.
自律若しくは半自律マシン用の制御システム、
自律若しくは半自律マシン用の認知システム、
シミュレーション動作を実行するためのシステム、
深層学習動作を実行するためのシステム、
エッジ・デバイスを使用して実装されるシステム、
ロボットを使用して実装されるシステム、
1つ若しくは複数の仮想マシン(VM)を組み込むシステム、
データ・センタに少なくとも部分的に実装されるシステム、又は
クラウド計算資源を使用して少なくとも部分的に実装されるシステム
のうちの少なくとも1つに含まれる、請求項14に記載のシステム。 said system
control systems for autonomous or semi-autonomous machines,
cognitive systems for autonomous or semi-autonomous machines,
a system for performing simulation operations;
a system for performing deep learning operations;
Systems implemented using edge devices,
systems implemented using robots,
a system that incorporates one or more virtual machines (VMs);
15. The system of claim 14, included in at least one of: a system that is at least partially implemented in a data center; or a system that is at least partially implemented using cloud computing resources.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/540,654 US20230177839A1 (en) | 2021-12-02 | 2021-12-02 | Deep learning based operational domain verification using camera-based inputs for autonomous systems and applications |
US17/540,654 | 2021-12-02 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023082647A true JP2023082647A (en) | 2023-06-14 |
Family
ID=86382035
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022089329A Pending JP2023082647A (en) | 2021-12-02 | 2022-06-01 | Deep learning based operational domain verification using camera-based inputs for autonomous systems and applications |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230177839A1 (en) |
JP (1) | JP2023082647A (en) |
CN (1) | CN116229390A (en) |
DE (1) | DE102022131400A1 (en) |
Family Cites Families (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003093857A2 (en) * | 2002-05-03 | 2003-11-13 | Donnelly Corporation | Object detection system for vehicle |
JP4589169B2 (en) * | 2005-04-28 | 2010-12-01 | シャープ株式会社 | Multi-beam optical distance sensor, self-propelled vacuum cleaner and air conditioner equipped with the same |
US8676466B2 (en) * | 2009-04-06 | 2014-03-18 | GM Global Technology Operations LLC | Fail-safe speed profiles for cooperative autonomous vehicles |
US8825265B1 (en) * | 2012-03-16 | 2014-09-02 | Google Inc. | Approach for consolidating observed vehicle trajectories into a single representative trajectory |
US8880272B1 (en) * | 2012-03-16 | 2014-11-04 | Google Inc. | Approach for estimating the geometry of roads and lanes by using vehicle trajectories |
US9176500B1 (en) * | 2012-05-14 | 2015-11-03 | Google Inc. | Consideration of risks in active sensing for an autonomous vehicle |
EP2672289B1 (en) * | 2012-06-06 | 2014-09-10 | AIRBUS HELICOPTERS DEUTSCHLAND GmbH | Obstacle information system of a helicopter |
EP2738520B1 (en) * | 2012-11-28 | 2017-01-11 | Elektrobit Automotive GmbH | Technique for assisting driving a vehicle based on an identified road mark |
JP6132659B2 (en) * | 2013-02-27 | 2017-05-24 | シャープ株式会社 | Ambient environment recognition device, autonomous mobile system using the same, and ambient environment recognition method |
US9751534B2 (en) * | 2013-03-15 | 2017-09-05 | Honda Motor Co., Ltd. | System and method for responding to driver state |
US8825259B1 (en) * | 2013-06-21 | 2014-09-02 | Google Inc. | Detecting lane closures and lane shifts by an autonomous vehicle |
US9558659B1 (en) * | 2014-08-29 | 2017-01-31 | Google Inc. | Determining the stationary state of detected vehicles |
US10395541B2 (en) * | 2015-01-16 | 2019-08-27 | Texas Instruments Incorporated | Integrated fault-tolerant augmented area viewing system |
US9836062B1 (en) * | 2015-01-20 | 2017-12-05 | State Farm Mutual Automobile Insurance Company | Analyzing telematics data to determine travel events and corrective actions |
JP6269566B2 (en) * | 2015-05-08 | 2018-01-31 | トヨタ自動車株式会社 | False recognition determination device |
US20170363949A1 (en) * | 2015-05-27 | 2017-12-21 | Google Inc | Multi-tier camera rig for stereoscopic image capture |
US11138349B2 (en) * | 2015-12-04 | 2021-10-05 | International Business Machines Corporation | System and method for simulating traffic flow distributions with approximated vehicle behavior near intersections |
NL2016753B1 (en) * | 2016-05-10 | 2017-11-16 | Daf Trucks Nv | Platooning method for application in heavy trucks |
DE102016208703A1 (en) * | 2016-05-20 | 2017-11-23 | Ford Global Technologies, Llc | Motor vehicle and method for operating a motor vehicle |
DE102016006687B4 (en) * | 2016-05-31 | 2019-05-29 | Audi Ag | Assistance system and method for transmitting data relating to an accident or breakdown of a vehicle |
US9983013B1 (en) * | 2016-07-08 | 2018-05-29 | Allstate Insurance Company | Automated vehicle control and guidance based on real-time blind corner navigational analysis |
US9873429B1 (en) * | 2016-07-08 | 2018-01-23 | Volkswagen Ag | Turned-wheel detection for yielding during low-speed lane changes |
US11169190B2 (en) * | 2016-09-19 | 2021-11-09 | The University Of New Hampshire | Techniques for empirical mode decomposition (EMD)-based noise estimation |
EP3496069B1 (en) * | 2016-10-07 | 2022-10-26 | Aisin Corporation | Travel assistance device and computer program |
US10146223B1 (en) * | 2016-10-21 | 2018-12-04 | Waymo Llc | Handling sensor occlusions for autonomous vehicles |
EP3552071B1 (en) * | 2016-12-08 | 2020-10-21 | PCMS Holdings, Inc. | System and method for routing and reorganization of a vehicle platoon in a smart city |
US10845820B2 (en) * | 2016-12-30 | 2020-11-24 | DeepMap Inc. | Route generation using high definition maps for autonomous vehicles |
US10610098B1 (en) * | 2017-04-11 | 2020-04-07 | VisionQuest Biomedical LLC | Generalized retinal image screening system (GRIS) |
US10810875B2 (en) * | 2017-07-06 | 2020-10-20 | Ford Global Technologies, Llc | Navigation of impaired vehicle |
US10437247B2 (en) * | 2017-08-10 | 2019-10-08 | Udelv Inc. | Multi-stage operation of autonomous vehicles |
US10636297B2 (en) * | 2017-08-11 | 2020-04-28 | Fujitsu Limited | Cooperative autonomous driving for traffic congestion avoidance |
US11040726B2 (en) * | 2017-12-15 | 2021-06-22 | Baidu Usa Llc | Alarm system of autonomous driving vehicles (ADVs) |
CN109979238A (en) * | 2017-12-28 | 2019-07-05 | 北京百度网讯科技有限公司 | Barrier based reminding method, device and equipment in lane |
EP3543985A1 (en) * | 2018-03-21 | 2019-09-25 | dSPACE digital signal processing and control engineering GmbH | Simulation of different traffic situations for a test vehicle |
JP7110729B2 (en) * | 2018-05-25 | 2022-08-02 | トヨタ自動車株式会社 | AUTOMATED DRIVING SYSTEM AND CONTROL METHOD FOR AUTOMATED DRIVING SYSTEM |
US10569773B2 (en) * | 2018-05-31 | 2020-02-25 | Nissan North America, Inc. | Predicting behaviors of oncoming vehicles |
US11508049B2 (en) * | 2018-09-13 | 2022-11-22 | Nvidia Corporation | Deep neural network processing for sensor blindness detection in autonomous machine applications |
JP2020062691A (en) * | 2018-10-15 | 2020-04-23 | 株式会社Preferred Networks | Inspection device, inspection method, robot device and inspection method and program in robot device |
US10988110B1 (en) * | 2018-11-14 | 2021-04-27 | Waymo Llc | Safety considerations for self-driving vehicles |
US10824148B2 (en) * | 2018-12-14 | 2020-11-03 | Waymo Llc | Operating an autonomous vehicle according to road user reaction modeling with occlusions |
US11428536B2 (en) * | 2018-12-19 | 2022-08-30 | Nvidia Corporation | Navigable boundary generation for autonomous vehicles |
DE102019000461B4 (en) * | 2019-01-22 | 2023-11-30 | Mercedes-Benz Group AG | Method for operating a lane guidance system and lane guidance system |
US11726184B2 (en) * | 2019-03-08 | 2023-08-15 | Leddartech Inc. | Component for a LIDAR sensor system, LIDAR sensor system, LIDAR sensor device, method for a LIDAR sensor system and method for a LIDAR sensor device |
US11579629B2 (en) * | 2019-03-15 | 2023-02-14 | Nvidia Corporation | Temporal information prediction in autonomous machine applications |
US11100339B2 (en) * | 2019-05-20 | 2021-08-24 | Zoox, Inc. | Closed lane detection |
US20220299860A1 (en) * | 2019-06-25 | 2022-09-22 | Shanghai Jun Kai Technology Llc | Extensiview and adaptive lka for adas and autonomous driving |
US11467573B2 (en) * | 2019-06-28 | 2022-10-11 | Zoox, Inc. | Vehicle control and guidance |
US11164450B2 (en) * | 2019-07-02 | 2021-11-02 | International Business Machines Corporation | Traffic flow at intersections |
US11600174B2 (en) * | 2019-07-22 | 2023-03-07 | Pony A1 Inc. | Systems and methods for autonomous road condition reporting |
CA3158124A1 (en) * | 2019-10-15 | 2021-04-22 | Alarm.Com Incorporated | Navigation using selected visual landmarks |
US11353877B2 (en) * | 2019-12-16 | 2022-06-07 | Zoox, Inc. | Blocked region guidance |
US11145193B2 (en) * | 2019-12-20 | 2021-10-12 | Qualcom Incorporated | Intersection trajectory determination and messaging |
US11493625B2 (en) * | 2020-03-16 | 2022-11-08 | Nio Technology (Anhui) Co., Ltd. | Simulated LiDAR devices and systems |
US11571969B2 (en) * | 2020-06-04 | 2023-02-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | External communication suppression device for driving automation |
US11613381B2 (en) * | 2020-08-14 | 2023-03-28 | Tusimple, Inc. | Launchpad for autonomous vehicles |
US11380109B2 (en) * | 2020-08-14 | 2022-07-05 | Tusimple, Inc. | Mobile launchpad for autonomous vehicles |
US11718319B2 (en) * | 2020-08-14 | 2023-08-08 | Tusimple, Inc. | Landing pad for autonomous vehicles |
JP7276282B2 (en) * | 2020-08-24 | 2023-05-18 | トヨタ自動車株式会社 | OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND COMPUTER PROGRAM FOR OBJECT DETECTION |
US20220122456A1 (en) * | 2020-10-20 | 2022-04-21 | Here Global B.V. | Explanation of erratic driving behavior |
US11851083B2 (en) * | 2021-01-13 | 2023-12-26 | Argo AI, LLC | Methods and system for constructing data representation for use in assisting autonomous vehicles navigate intersections |
JP7484758B2 (en) * | 2021-02-09 | 2024-05-16 | トヨタ自動車株式会社 | Robot Control System |
US20230067887A1 (en) * | 2021-08-27 | 2023-03-02 | Zoox, Inc. | Techniques for detecting road blockages and generating alternative routes |
US11851091B2 (en) * | 2021-09-14 | 2023-12-26 | Motional Ad Llc | Immobility detection within situational context |
US11656093B2 (en) * | 2021-09-27 | 2023-05-23 | Argo AI, LLC | Method and system for navigating vehicle to pickup / drop-off zone |
-
2021
- 2021-12-02 US US17/540,654 patent/US20230177839A1/en active Pending
-
2022
- 2022-06-01 JP JP2022089329A patent/JP2023082647A/en active Pending
- 2022-09-09 CN CN202211106166.2A patent/CN116229390A/en active Pending
- 2022-11-28 DE DE102022131400.6A patent/DE102022131400A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
DE102022131400A1 (en) | 2023-06-07 |
CN116229390A (en) | 2023-06-06 |
US20230177839A1 (en) | 2023-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11841458B2 (en) | Domain restriction of neural networks through synthetic data pre-training | |
US11928822B2 (en) | Intersection region detection and classification for autonomous machine applications | |
US11508049B2 (en) | Deep neural network processing for sensor blindness detection in autonomous machine applications | |
US11941819B2 (en) | Object detection using skewed polygons suitable for parking space detection | |
US11688181B2 (en) | Sensor fusion for autonomous machine applications using machine learning | |
US11995895B2 (en) | Multi-object tracking using correlation filters in video analytics applications | |
US20210063578A1 (en) | Object detection and classification using lidar range images for autonomous machine applications | |
JP2023503729A (en) | Landmark detection using curve fitting for autonomous driving applications | |
US20210406679A1 (en) | Multi-resolution image patches for predicting autonomous navigation paths | |
US11841987B2 (en) | Gaze determination using glare as input | |
CN114155272A (en) | Adaptive target tracking algorithm in autonomous machine applications | |
US20230110713A1 (en) | Training configuration-agnostic machine learning models using synthetic data for autonomous machine applications | |
JP2023051713A (en) | Visible distance estimation using deep learning in autonomous machine application | |
CN117581117A (en) | Dynamic object detection using LiDAR data in autonomous machine systems and applications | |
JP2023071168A (en) | Particle-based hazard detection for autonomous machine applications | |
JP2023088849A (en) | Single and across sensor object tracking using feature descriptor mapping in autonomous system and application | |
JP2022117916A (en) | Patching Deployed Deep Neural Networks for Autonomous Machine Applications | |
EP3850539A2 (en) | Deep neural network processing for sensor blindness detection in autonomous machine applications | |
CN112989914B (en) | Gaze-determining machine learning system with adaptive weighted input | |
US12026955B2 (en) | Assigning obstacles to lanes using neural networks for autonomous machine applications | |
US20230177839A1 (en) | Deep learning based operational domain verification using camera-based inputs for autonomous systems and applications | |
US20230099494A1 (en) | Assigning obstacles to lanes using neural networks for autonomous machine applications | |
CN112989914A (en) | Gaze-determining machine learning system with adaptive weighted input |