JP2021508863A - 安全で信頼できる自動運転車両のためのシステム及び方法 - Google Patents
安全で信頼できる自動運転車両のためのシステム及び方法 Download PDFInfo
- Publication number
- JP2021508863A JP2021508863A JP2020525931A JP2020525931A JP2021508863A JP 2021508863 A JP2021508863 A JP 2021508863A JP 2020525931 A JP2020525931 A JP 2020525931A JP 2020525931 A JP2020525931 A JP 2020525931A JP 2021508863 A JP2021508863 A JP 2021508863A
- Authority
- JP
- Japan
- Prior art keywords
- controlling
- computer
- vehicle
- sensor
- chip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 337
- 230000006870 function Effects 0.000 claims abstract description 127
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 claims abstract description 107
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 claims abstract description 107
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 claims abstract description 107
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 98
- 238000013135 deep learning Methods 0.000 claims abstract description 92
- 238000013528 artificial neural network Methods 0.000 claims description 361
- 238000001514 detection method Methods 0.000 claims description 184
- 238000012545 processing Methods 0.000 claims description 182
- 230000015654 memory Effects 0.000 claims description 154
- 238000004891 communication Methods 0.000 claims description 103
- 238000013527 convolutional neural network Methods 0.000 claims description 98
- 230000004044 response Effects 0.000 claims description 95
- 238000005192 partition Methods 0.000 claims description 91
- 230000008569 process Effects 0.000 claims description 81
- 238000012544 monitoring process Methods 0.000 claims description 73
- 230000001133 acceleration Effects 0.000 claims description 68
- 230000006399 behavior Effects 0.000 claims description 57
- 230000001149 cognitive effect Effects 0.000 claims description 47
- 238000013507 mapping Methods 0.000 claims description 45
- 230000033001 locomotion Effects 0.000 claims description 43
- 238000007726 management method Methods 0.000 claims description 39
- 230000005484 gravity Effects 0.000 claims description 37
- 238000013439 planning Methods 0.000 claims description 33
- 230000004807 localization Effects 0.000 claims description 29
- 238000012549 training Methods 0.000 claims description 29
- 238000005259 measurement Methods 0.000 claims description 28
- 238000011156 evaluation Methods 0.000 claims description 27
- 230000009471 action Effects 0.000 claims description 23
- 230000001413 cellular effect Effects 0.000 claims description 18
- 238000003860 storage Methods 0.000 claims description 18
- 230000002123 temporal effect Effects 0.000 claims description 17
- 239000002184 metal Substances 0.000 claims description 16
- 238000012360 testing method Methods 0.000 claims description 16
- 238000004458 analytical method Methods 0.000 claims description 13
- 239000004744 fabric Substances 0.000 claims description 13
- 230000009467 reduction Effects 0.000 claims description 12
- 230000037361 pathway Effects 0.000 claims description 11
- 238000001816 cooling Methods 0.000 claims description 10
- 230000032258 transport Effects 0.000 claims description 10
- 238000004140 cleaning Methods 0.000 claims description 9
- 238000012937 correction Methods 0.000 claims description 9
- 230000005540 biological transmission Effects 0.000 claims description 8
- 239000012530 fluid Substances 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 8
- 238000007667 floating Methods 0.000 claims description 7
- 230000001427 coherent effect Effects 0.000 claims description 6
- 238000007689 inspection Methods 0.000 claims description 6
- 230000008520 organization Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 239000007787 solid Substances 0.000 claims description 6
- 238000012546 transfer Methods 0.000 claims description 6
- 230000007704 transition Effects 0.000 claims description 6
- 238000009833 condensation Methods 0.000 claims description 4
- 230000005494 condensation Effects 0.000 claims description 4
- 238000010438 heat treatment Methods 0.000 claims description 4
- 239000000779 smoke Substances 0.000 claims description 4
- 239000000758 substrate Substances 0.000 claims description 4
- 230000000052 comparative effect Effects 0.000 claims description 3
- 230000008878 coupling Effects 0.000 claims description 3
- 238000010168 coupling process Methods 0.000 claims description 3
- 238000005859 coupling reaction Methods 0.000 claims description 3
- 239000003550 marker Substances 0.000 claims description 3
- 238000003909 pattern recognition Methods 0.000 claims description 3
- 230000004075 alteration Effects 0.000 claims description 2
- 230000005236 sound signal Effects 0.000 claims description 2
- 210000000056 organ Anatomy 0.000 claims 5
- 238000005516 engineering process Methods 0.000 abstract description 122
- 230000029305 taxis Effects 0.000 abstract description 7
- 239000002131 composite material Substances 0.000 abstract description 4
- 230000000670 limiting effect Effects 0.000 description 167
- 238000012806 monitoring device Methods 0.000 description 96
- 230000008859 change Effects 0.000 description 50
- 239000010410 layer Substances 0.000 description 37
- 239000011295 pitch Substances 0.000 description 28
- 238000010586 diagram Methods 0.000 description 25
- 230000007246 mechanism Effects 0.000 description 25
- 230000000007 visual effect Effects 0.000 description 25
- 230000002093 peripheral effect Effects 0.000 description 24
- 230000000694 effects Effects 0.000 description 18
- 230000019771 cognition Effects 0.000 description 17
- 230000036544 posture Effects 0.000 description 14
- 238000013459 approach Methods 0.000 description 13
- 238000013461 design Methods 0.000 description 13
- 239000000872 buffer Substances 0.000 description 12
- CGKYNYPOXYSJFN-UHFFFAOYSA-N 3-[[3,3-dimethylbutan-2-yloxy(methyl)phosphoryl]oxy-methylphosphoryl]oxy-2,2-dimethylbutane Chemical compound CC(C)(C)C(C)OP(C)(=O)OP(C)(=O)OC(C)C(C)(C)C CGKYNYPOXYSJFN-UHFFFAOYSA-N 0.000 description 11
- 238000013519 translation Methods 0.000 description 11
- 230000014616 translation Effects 0.000 description 11
- 230000002829 reductive effect Effects 0.000 description 9
- 230000003044 adaptive effect Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 8
- 238000001914 filtration Methods 0.000 description 8
- 238000002955 isolation Methods 0.000 description 8
- 230000001537 neural effect Effects 0.000 description 8
- 230000008901 benefit Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 7
- 238000003745 diagnosis Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 7
- 238000000638 solvent extraction Methods 0.000 description 7
- 230000003068 static effect Effects 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 6
- 230000006378 damage Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- 238000012805 post-processing Methods 0.000 description 6
- 238000005096 rolling process Methods 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 6
- 230000001960 triggered effect Effects 0.000 description 6
- 238000000354 decomposition reaction Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 238000002604 ultrasonography Methods 0.000 description 5
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 4
- 241000269400 Sirenidae Species 0.000 description 4
- 238000007792 addition Methods 0.000 description 4
- 230000007123 defense Effects 0.000 description 4
- 230000018109 developmental process Effects 0.000 description 4
- 230000009977 dual effect Effects 0.000 description 4
- 230000001976 improved effect Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000007257 malfunction Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 230000002441 reversible effect Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 229910052710 silicon Inorganic materials 0.000 description 4
- 239000010703 silicon Substances 0.000 description 4
- 230000008093 supporting effect Effects 0.000 description 4
- 241000408659 Darpa Species 0.000 description 3
- 238000013474 audit trail Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000002405 diagnostic procedure Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000001931 thermography Methods 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 2
- 208000027418 Wounds and injury Diseases 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 2
- 239000010426 asphalt Substances 0.000 description 2
- 238000012550 audit Methods 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000008867 communication pathway Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000001010 compromised effect Effects 0.000 description 2
- 230000009193 crawling Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 208000014674 injury Diseases 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000000116 mitigating effect Effects 0.000 description 2
- 239000003921 oil Substances 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 229920002689 polyvinyl acetate Polymers 0.000 description 2
- 230000003449 preventive effect Effects 0.000 description 2
- 230000035484 reaction time Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000004043 responsiveness Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 239000000725 suspension Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- 238000010257 thawing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 238000012384 transportation and delivery Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 238000010146 3D printing Methods 0.000 description 1
- 101150116940 AGPS gene Proteins 0.000 description 1
- 238000006424 Flood reaction Methods 0.000 description 1
- 244000035744 Hura crepitans Species 0.000 description 1
- 102100030148 Integrator complex subunit 8 Human genes 0.000 description 1
- 101710092891 Integrator complex subunit 8 Proteins 0.000 description 1
- 206010022998 Irritability Diseases 0.000 description 1
- 240000007182 Ochroma pyramidale Species 0.000 description 1
- 208000034530 PLAA-associated neurodevelopmental disease Diseases 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 241000220317 Rosa Species 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 239000011324 bead Substances 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 235000012813 breadcrumbs Nutrition 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000003920 cognitive function Effects 0.000 description 1
- 230000036992 cognitive tasks Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000001447 compensatory effect Effects 0.000 description 1
- 239000004567 concrete Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000356 contaminant Substances 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000003467 diminishing effect Effects 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 208000035475 disorder Diseases 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 235000019580 granularity Nutrition 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 208000002551 irritable bowel syndrome Diseases 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000013021 overheating Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 125000000914 phenoxymethylpenicillanyl group Chemical group CC1(S[C@H]2N([C@H]1C(=O)*)C([C@H]2NC(COC2=CC=CC=C2)=O)=O)C 0.000 description 1
- 229920002451 polyvinyl alcohol Polymers 0.000 description 1
- 235000019422 polyvinyl alcohol Nutrition 0.000 description 1
- 230000002028 premature Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 238000000275 quality assurance Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 235000019640 taste Nutrition 0.000 description 1
- 238000003971 tillage Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000013024 troubleshooting Methods 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 201000009482 yaws Diseases 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0248—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/023—Avoiding failures by using redundant parts
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/76—Architectures of general purpose stored program computers
- G06F15/78—Architectures of general purpose stored program computers comprising a single central processing unit
- G06F15/7807—System on chip, i.e. computer system on a single chip; System in package, i.e. computer system on one or more chips in a single package
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Medical Informatics (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Electromagnetism (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Neurology (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
- Combined Controls Of Internal Combustion Engines (AREA)
- Microcomputers (AREA)
- Stored Programmes (AREA)
Abstract
Description
なし
2016年4月28日に出願された「Programmable Vision Accelerator」、米国特許出願第15/141,703号(代理人整理番号15−SC−0128−US02)、現在の米国特許第______号
2016年10月28日に出願された「Reliability Enhancement Systems and Methods」、米国特許出願第15/338,247号(代理人整理番号15−SC−0356US01)、現在の米国特許第______号
2017年6月23日に出願された「Methodology of Using a Single Controller (ECU) For a Fault−Tolerant/Fail−Operational Self−Driving System」、米国仮特許出願第62/524,283号(代理人整理番号16−SC−0130−US01)
2018年1月26日に出願された「Method Of Using A Single Controller (ECU) For A Fault−Tolerant/Fail−Operational Self−Driving System」、米国特許出願第15/881,426号(代理人整理番号16−SC−0130US02)、現在の米国特許第______号
A.ADASシステム
今日のADASシステムには、とりわけ、自律/適応/自動走行制御(「ACC:Autonomous/adaptive/automatic cruise control」)、前方クラッシュ警告(「FCW:Forward Crash Warning」)、自動緊急ブレーキ(「AEB:Auto Emergency Braking」)、車線逸脱警告(「LDW:Lane Departure Warning」)、死角警告(「BSW:Blind Spot Warning」)、及び後方交差交通警告(「RCTW:Rear Cross−Traffic Warning」)が含まれる。
1.古典的なコンピュータ・ビジョン及びルール・ベースの手法
自動運転車両について、2つの明確に異なる手法が提案されている。1つ目の手法であるコンピュータ・ビジョンは、視覚データを自動的に認識、分析、理解、及び/又は解釈するプロセスである。このような視覚データには、任意のタイプのカメラ又はビデオ記録デバイスによって捕捉された、ビデオ、画像、リアル・タイム又はほぼリアル・タイムのデータの任意の組合せが含まれ得る。コンピュータ・ビジョン・アプリケーションは、上位レベルの問題を解決するためのコンピュータ・ビジョン・アルゴリズムを実装する。例えば、ADASシステムは、車載カメラ又はビデオ録画デバイスによって捕捉された視覚データに基づいて、歩行者/自転車を検出し、交通標識を認識し、且つ/又は車線逸脱警告を発するための、リアル・タイムの物体検出アルゴリズムを実装することができる。
ニューラル・ネットワークは、古典的なコンピュータ・ビジョンに対する代替手法と広く見なされている。ニューラル・ネットワークは、1989年のPomerleauによるニューラル・ネットワークの自律陸上車両(「ALVINN:Autonomous Land Vehicle in a Neural Network」)システムの研究に始まり、長年にわたって自動運転車両について提案されてきた。
GPUは、CNNが適切に訓練される場合は車を操縦するために使用され得ることを実証した。レベル3〜5の自動運転車両は、環境をナビゲートするために瞬時に多数の決定を行わなければならない。これらの選択は、初期のALVINN及びDAVEシステムの車線追従及びステアリング・アプリケーションよりもはるかに複雑である。
図4は、例示的な自律運転車両(50)を示す。図示の実例における車両(50)は、人間の運転者及び/又は人間の乗員を収容できる車又はトラックなどの乗用車を含む。車両(50)は、シャーシ上に懸架された車体(52)を含み、この実例では、4本のホイール(54)及び関連する車軸から構成される。内燃機関、ハイブリッド発電装置、又はさらには全電力式エンジンなどの推進システム(56)は、トランスミッション(図示せず)を含み得るドライブ・トレインを介してホイール(54)の一部又は全部を駆動するように接続される。ステアリング・ホイール(58)は、推進システム(56)が動作して車両を推進するよう従事しているときに、ホイール(54)の一部又は全部を操縦して車両(50)を所望の経路に沿って方向付けるために使用され得る。レベル5の実施例では、ステアリング・ホイール(58)などは任意選択である。1つ又は複数のコントローラ(100(1)〜100(3))は、以下でより詳細に説明するように、センサ・アレイからリアル・タイムで継続的に提供される信号に応答して、自動自律運転機能を提供する。
ソナー及びレーダと比較して、カメラはわずかなコストでより豊富な特徴のセットを生成する。したがって、自律運転車両(50)は、車両の全周囲の周辺の画像を捕捉する複数のカメラ(72、73、74、75、76)を含む。カメラのタイプ及びレンズの選択は、機能の性質とタイプによって異なる。車両は、車両の周辺を完全に対象範囲とするために、カメラのタイプとレンズを混合したものを有することが好ましく、一般に、狭いレンズは広視野を有していないが、さらに遠くまで見ることができる。好ましい実施例では、車両は12台のカメラを含むが、より多い又はより少ない数のカメラが使用されてもよい。車両のすべてのカメラ位置は、ギガビット・マルチメディア・シリアル・リンク(GMSL:Gigabit Multimedia Serial Link)及びギガビット・イーサネットなどのインターフェースをサポートすることが好ましい。
自律運転車両(50)は、物体及び歩行者の検出、緊急ブレーキ、並びに衝突回避のためにしばしば使用される1つ又は複数のLIDARセンサ(70)を含むことが好ましい。LIDARセンサは、短レーザ・パルスがセンサから物体に移動して戻るまでの飛行時間(「ToF:Time of Flight」)を測定し、既知の光速から距離を計算することによって、距離を測定する。LIDARは、より小さい物体を検出し、比較的見通しが良い大気条件下で距離を検出するのに効果的である。しかし、LIDARは悪天候ではうまく機能せず、泥又はほこりの多い物体など反射しない物体の検出にはあまり効果的ではない。したがって、レーダとは異なり、LIDARセンサは通常、見通しが良く遮るものがない視線を有していなければならず、センサは、汚れ、ほこり、又は他の障害物によって隠れてはならない。
自律運転車両(50)は、1つ又は複数の超音波センサ(66)を含むことが好ましい。前面、後面、さらには側面に配置される超音波センサは、駐車支援のために、且つ占有グリッドを作成及び更新するために最もよく使用される。しかし、ソナーの有用性は、高速では損なわれ、低速でも作動距離は約2メートルに制限される。多種多様な超音波センサが使用されてよい。適切な超音波センサは、様々な検出距離(例えば、2.5m、4m)用に設計され得る。典型的な超音波センサの機能安全レベルは、ASIL Bである。
特定の実施例では、特に暗闇の中及び霧を通して物体を検出、分類、及び識別する車両の能力を高めるために、自律運転車両(50)は1つ又は複数の赤外線カメラ又は熱カメラ(75)を含むことが好ましい。本技術は、アクティブ赤外線システム又はパッシブ赤外線システムのいずれかを含むことができる。アクティブ・システムは、ゲーティングされる手法又はゲーティングされない手法のいずれかを使用して、赤外線光源を用いて車両の周囲を赤外線で照射する。ゲーティングされるアクティブ・システムは、パルス赤外線光源及び同期赤外線カメラを使用する。アクティブ・システムは赤外線光源を使用するので、歩行者、自転車に乗った人、及び動物などの生物を検出する際は十分に機能しない。
自律運転車両(50)は、1つ又は複数のレーダ・センサ(68)を含むことが好ましい。レーダは長距離の車両検出によく適しており、近接する車の検出はソナーを用いて解決され得る。一般に、レーダは距離を正確に検出するので、暗闇及び悪天候の条件下でも機能する。しかし、レーダは、マンホール蓋、大きな缶、排水格子、及び他の金属製の物体を含む誤検知を起こしやすい。加えて、レーダは、方位に関する有意義な情報を提供せず、横方向の位置ではしばしば不正確であり、これは湾曲した高速道路及び急カーブにとって問題である。
自律運転車両(50)は、マッピング、知覚、占有グリッド、及び経路計画機能を支援するために、GPS及び/又は補助GPS(「aGPS:assisted GPS」)を含むGPSセンサ(76)を含むことが好ましい。イーサネットとシリアル(RS−232)のブリッジを備えたUSBコネクタを使用するGPSを含むがこれに限定されない、任意の数の異なるGPSセンサ及びコネクタが使用されてよい。
自律運転車両(50)は、加速度計、ジャイロスコープ、及び磁力計などの慣性測定ユニット・センサ(IMU)(82)を含むことが好ましい。IMU(82)は、車両(50)の後車軸の中心に配置されることが好ましい。
レベル3〜5の機能は、車両が運転するときに継続的に学習することを車両に要求し、理想的には、レベル3〜5の車両は、車両自体の経験だけでなく、道路上の他の車両の経験からも学習する。したがって、自律運転車両(50)は、外部ネットワーク及び他の車両へのワイヤレス接続のためのワイヤレス・モデム(103)及びアンテナ(101)を含むことが好ましい。
上記のセンサに加えて、自動運転車両は、他のセンサ、ADASシステム、及び警告システムを含み得る。このようなシステムには、車両のタイヤにおいて空気圧が低下したときに自動的に検出するシステムが含まれるが、これに限定されない。空気圧低下警告システムは、単純なセンサを使用してタイヤ(80)の角速度を測定し、角速度は、タイヤが収縮して小さくなるにつれて増加する。空気圧低下警告システムは、タイヤの振動数(85)も測定し、振動数は、タイヤの空気圧が低下すると変化する。
1.本技術を実行するためのAIスーパーコンピュータ・プラットフォーム
自律運転機能は、多数の別個の機能を迅速に、正確に、安全に、及び効率的に実行できるスーパーコンピュータを必要とするので、単一のプロセッサでレベル3〜5の自動運転車両機能を提供することはできない。むしろ、本技術を実行するための高性能プラットフォーム及び高性能SoCは、複数のタイプのプロセッサを有し、「作業に適したツール」、及び機能安全のための処理の多様性を提供することが好ましい。例えば、GPUはより高精度のタスクによく適している。一方、ハードウェア・アクセラレータは、機能のより特有のセットを実行するように最適化され得る。複数のプロセッサを組み合わせたものを提供することによって、高性能プラットフォーム及び高性能SoCは、レベル3〜5の自動運転車両に関連する複雑な機能を迅速に、確実に、効率的に実行できるツールの完全なセットを含む。
好ましい実施例では、プラットフォーム(100)は高性能SoCを備える。本技術の高性能SoCは自律運転車専用に構築されており、モバイル・チップ、又は自動車用に転用されたデスクトップではない。むしろ、SoCはL3〜5の機能用に最適化された特定の機能を備えた自律運転車で使用するために設計されたAIスーパーコンピュータである。SoCは、ISO26262機能安全仕様などの重要な自動車規格に適合するように設計されることが好ましい。好ましい実施例では、高性能SoCは少なくともASIL Cの機能安全レベルを有する。
図8及び図9に示すように、SoCは、本明細書で「CPU」又は「CCPLEX」と呼ばれる高速CPUクラスタ又はCPU複合体(200)を含む。CCPLEXは一般に、複数のCPUコア(201)及び関連するL2キャッシュ(202)を含む直列作業の実行を担当する。一実施例では、CCPLEXは、コヒーレント・マルチプロセッサ構成(200)に8つのCPUコア(201)を含む。CCPLEXは同時クラスタ動作をサポートしており、クラスタの任意の組合せが、任意の所与の時間にアクティブになり得ることを意味する。
図8及び図9に示すように、SoCは、統合GPU又は「iGPU」と呼ばれることもある少なくとも1つのGPU複合体(300)を含む。GPUは、並列作業負荷に対してプログラム可能で効率的であり、拡張テンソル命令セットを使用することが好ましい。GPUアーキテクチャは、少なくとも8つのストリーミング・マルチプロセッサ(「SM:streaming multiprocessor」)(301)を含み、それぞれが少なくとも96KBのLIキャッシュ(図示せず)を有し、少なくとも512KBのL2キャッシュ(302)を共有することが好ましい。GPUは、CUDAを含む広範なコンピュートAPI及びライブラリを使用することが好ましい。
図8及び図9に示す好ましい実施例では、高性能SoCは、最適化されたハードウェア・アクセラレータ及び大型オン・チップ・メモリを含むハードウェア加速クラスタ(400)を含む。大型オン・チップ・メモリ(好ましい実施例では、4MBのSRAM)により、ハードウェア加速クラスタ(400)は、ニューラル・ネットワーク及び他の計算を高速化することができる。ハードウェア加速クラスタ(400)は、GPUを補完し、GPUからいくつかのタスクをオフロードするために利用可能である。例えば、アクセラレータは、プログラマブルに対して、加速及びAPIに対応できるほど十分に安定した、目標とされる作業負荷(知覚、CNN)について機能する。アクセラレータは、GPUをオフロードして、他の作業のためにより多くのGPUサイクルを解放することができる。
好ましい実施例では、ハードウェア加速クラスタ(400)は、ディープ・ラーニング・アプリケーション及び推論に、毎秒10兆回の演算(「TOP:Trillion Operations Per Second」)を追加で提供する、1つ又は複数のテンソル処理ユニット(「TPU:Tensor Processing Unit」)(401)(TPU0及びTPU1)を含む。TPU(401)は、NVIDIAのNVDLAディープ・ラーニング・アクセラレータ設計に基づくことが好ましい。TPU(401)は、画像処理機能(CNN又はRCNNネットワーク)を実行するためのアクセラレータであり、その画像処理機能のタスク用に最適化されているが、他のディープ・ラーニング(「DL」)機能(例えば、オーディオ用の再帰型ニューラル・ネットワーク(「RNN:recurrent neural network」))用ほど効率的ではない場合がある。DLAは、ネットワークの特定のセット及び浮動小数点演算用に最適化されている。加えて、DLAは推論用に設計及び最適化されている。したがって、設計は、汎用GPUよりも1ミリメートル当たりの性能が高く、CPUの性能を大幅に上回る。TPU(401)は、特徴と重みの両方についてのINT8/INT16/FP16データ型をサポートする単一インスタンスの畳み込み関数(単一インスタンス)、及びポスト・プロセッサ関数を含む、いくつかの関数を実行することが好ましい。
本技術はニューラル・ネットワークを使用するが、コンピュータ・ビジョンはまた、例えば、車線検出、及び中程度の距離での冗長物体検出において役割を果たす。したがって、SoC設計は、コンピュータ・ビジョン・アクセラレータ(402)(VA0、VA1)を含むことが好ましい。コンピュータ・ビジョン・アクセラレータ(402)は、NVIDIAのプログラマブル・ビジョン・アクセラレータ(「PVA:Programmable Vision Accelerator」)を使用することが好ましい。PVAは、先進運転支援システム(「ADAS」)、自動運転、及びAR/VRアプリケーションのためのコンピュータ・ビジョン(「CV」)アルゴリズムを高速化するように設計されている。例示的なPVAのブロック図を図10に示す。
ハードウェア加速クラスタは、高いメモリ帯域幅要求を備えたマスタである、PVAとDLAの両方を含むことが好ましい。図11に示すように、ハードウェア加速クラスタに高帯域幅、低レイテンシのSRAMを提供するために、高性能SoCは、コンピュータ・ビジョン・ネットワーク・オン・チップ及びSRAM(「CVNAS」)を含むことが好ましい。好ましい実施例では、オン・チップ・メモリは、PLAとDLAの両方によってアクセス可能な(例えば、限定されないが)8つのフィールド構成可能メモリ(「FCM:Field−Configurable Memory」)ブロック(601)から構成された少なくとも4MBのSRAMを含む。
ハードウェア・アクセラレータ(400)及び関連するメモリ(600)は、自動運転のための幅広い用途を有する。上記で広く述べられているように、PVA(402)は、ADAS及び自動運転車両の主要な処理段階で使用され得るプログラマブル・ビジョン・アクセラレータである。PVAの能力は、低電力且つ低レイテンシで予測可能な処理を必要とするアルゴリズム領域に最適である。言い換えれば、PVAは、低レイテンシ且つ低電力で予測可能なランタイムを必要とする小さいデータ・セットに対しても、準高密度又は高密度の通常の計算で適切に機能する。したがって、自動運転車両用のプラットフォームのコンテキストでは、古典的なコンピュータ・ビジョン・アルゴリズムが物体検出及び整数演算での動作に有効であるので、PVAは古典的なコンピュータ・ビジョン・アルゴリズムを実行するように設計される。
図8に示すように、プラットフォームは、各プロセッサ・サブシステム用の専用メモリを含み、DDRへの圧力を低減し、より低い電力を必要とする。高性能SoCは、オン・チップ・メモリ(500)及び(600)を含み、好ましい実施例では、GPU(300)及びDLA(400)上でそれぞれ実行されるニューラル・ネットワークを格納する。好ましい実施例では、メモリ(500)及び(600)は、安全性及び冗長性を確保するために、ニューラル・ネットワークの複数のインスタンスを格納するのに十分な大きさである。
(1)ブート及びパワー管理
高性能SoCは、ブート及びパワー管理プロセッサ(「BPMP:Boot and Power Management Processor」)(703)を含むことが好ましい。BPMPは、ブート及びパワー管理機能及び関連するセキュリティ実施を処理するための専用のプロセッサ及びサブシステムであることが好ましい。BPMP(703)はSoCブート・シーケンスの一部であり、実行時のパワー管理サービスを提供する。BPMPは、最初のブート後、すなわちブートROM及びブート・ローダが完了した後に実行される。上位レベルでは、BPMP(703)によって提供される主なサービスは、(1)SoCクロック及び電圧プログラミング、(2)システムにおける低電力状態遷移の支援(ディープ・スリープ(SC7)の開始及び終了を含むSC状態)、(3)SoCの熱センサ及び温度センサの管理、並びに(4)SoCのパワー状態の管理である。BPMPランタイム・ファームウェアは、オペレーティング・システム、プラットフォーム、ボード、及びブート・ローダに依存しない。
好ましい実施例では、各温度センサは、その出力周波数が温度に比例するリング・オシレータとして実装され得る。高性能SoCは、CPUグループの温度、GPUグループの温度、及び加速クラスタの温度を検出し、BPMPに報告するリング・オシレータを含むことが好ましい。CPU、GPU、又は加速クラスタの温度が安全な動作のしきい値を超えていることをBPMPが検出した場合、BPMPは温度障害ルーチンを実行し、このルーチンにおいて、高性能SoCは、まず可能であれば低電力状態に入るよう試み、必要に応じて「安全停止のための運転手」(Chauffeur to Safe Stop)モードに入る。
高性能SoCは、オーディオ処理エンジン(「APE:Audio Processing Engine」)(701)を含む、埋め込みプロセッサのセットを含むことが好ましい。APEは、複数のインターフェースを介したマルチ・チャネル・オーディオの完全なハードウェア・サポート、及び幅広い柔軟なオーディオI/Oインターフェースを可能にする、オーディオ・サブシステムである。APEは、専用RAMを有するデジタル信号プロセッサ(「DSP」)を備えた専用プロセッサ・コアであることが好ましい。
高性能SoCは、常時オン・センサ処理エンジン(「AON:Always−On」/「SPE:Sensor Processing Engine」)(702)を含むことが好ましい。AONエンジン(702)は、低電力センサ管理及びウェイクのユース・ケースをサポートするために必要なすべてのハードウェア機能を提供する。エンジン(702)は、周辺機器(タイマー及び割り込みコントローラなど)、様々なI/Oコントローラ周辺機器、及びルーティング論理をサポートする、密結合RAMを備えたプロセッサ・コアから構成されることが好ましい。AONブロック内のプロセッサは、センサ処理エンジン(「SPE」)とも呼ばれる。これは、常時オン・パワー・ドメイン内のロー・アクティブ・パワー・プロセッサである。これは「常時オン」エンジンと呼ばれるものの、通常の使用ではロー・アクティブ・パワーで常時オンの状態を維持することになるが、完全シャットダウン・モードにすることもできる。
SoCは、自動車アプリケーション用安全管理を処理するための専用プロセッサ・サブシステムである安全クラスタ・エンジン(「SCE:Safety Cluster Engine」)(704)を含むことが好ましい。好ましい実施例では、SCE(704)は、密結合RAM、サポート周辺機器(例えば、タイマー、割り込みコントローラ)、及びルーティング論理を備えた2つ以上のプロセッサ・コアから構成される。安全モードでは、2つのコアはロックステップ・モードで動作し、動作間の差を検出する比較論理を備えた単一のコアとして機能する。特定の実施例では、SoCは、リアル・タイム・カメラ・エンジン(「RCE:Real−time Camera Engine」)(705)を含むことが好ましい。好ましい実施例では、RCEは、リアル・タイム・カメラ管理を処理するための専用プロセッサ・サブシステムを備える。
図8に示すように、高性能SoCは、好ましくは、ハイ・ダイナミック・レンジ画像信号プロセッサ(「HDR ISP:High−Dynamic Range Image Signal Processor」)403を含む。高性能SoCは、カメラ処理パイプラインの一部であるハードウェア・エンジンである画像信号プロセッサ(712)をさらに含むことが好ましい。
高性能SoCは、プレイヤ・ウィンドウの最終画像を作成するためにビデオ再生アプリケーションが必要とするビデオ後処理機能を実装するブロックである、ビデオ画像コンポジタ(「VIC:Video Image Compositor」)(706)を含むことが好ましい。好ましい実施例では、VICは、魚眼及び広視野カメラ・センサ(201)〜(205)上、並びに任意選択のイン・キャビン・モニタリング・カメラ・センサ上でもレンズ収差補正(「LDC:lens distortion correction」)を実行する。イン・キャビン・モニタリング・カメラ・センサは、キャビン内の事象を識別し、それに応じて対応するように構成された、高性能SoCの別のインスタンスで実行されるニューラル・ネットワークによってモニタされることが好ましい。イン・キャビン・システムは、リップ・リーディングを実行して、携帯電話サービスをアクティブにして電話をかける、電子メールを指示する、車両の目的地を変更する、車両のインフォテインメント・システム及び設定をアクティブにする若しくは変更する、又は音声起動ウェブ・サーフィンを提供することができる。特定の機能は、車両が自律モードで動作しているときにのみ運転者が使用でき、それ以外の場合は無効になる。
高性能SoCは、MIPIカメラ・シリアル・インターフェース(713)、標準高速シリアル・インターフェース、並びにカメラ及び関連する画素入力機能に使用されるブロックであるビデオ入力ブロック(VI:Video Input block)(713)を介して、カメラ及びビデオから入力を受け取る。高性能SoCは、特定の役割にコミットされず、且つソフトウェアによって制御されるI/O信号用に、汎用入力/出力コントローラ(711)を含むことが好ましい。
高性能システム・オン・チップにより、レベル3〜5に及ぶ柔軟性のある1つのアーキテクチャを備えたエンド・ツー・エンド・プラットフォームが可能となり、このアーキテクチャは、多様性及び冗長性のためにコンピュータ・ビジョン及びADAS技法を活用し効果的に利用するとともに、柔軟で信頼できるドライビング・ソフトウェア・スタックのプラットフォームをディープ・ラーニング・ツールと共に提供する、包括的な機能安全アーキテクチャである。高性能SoCは、従来技術のシステム及び方法よりも高速で、信頼性が高く、さらにエネルギー効率及び空間効率が高い。例えば、ハードウェア加速クラスタは、CPU複合体、GPU複合体、及びメモリと組み合わされて、レベル3〜5の自動運転車両用の高速で効率的なプラットフォームを提供する。したがって、本技術は、従来技術の方法及びシステムでは達成できない能力及び機能を提供する。例えば、Cプログラミング言語などの高水準プログラミング言語を使用して構成され得るCVアルゴリズムは、CPU上で実行されて、多種多様な視覚データにまたがって多種多様な処理アルゴリズムを実行することができる。しかし、CPUは、例えば実行時間及び消費電力に関連するアプリケーションなど、多くのコンピュータ・ビジョン・アプリケーションの性能要件を満たすことができないことがしばしばある。特に、多くのCPUは、車載ADASアプリケーションの要件であるとともに実用的なレベル3〜5の自動運転車両の要件である、複雑な物体検出アルゴリズムをリアル・タイムで実行することができない。
1つ又は複数の高性能SoC(100)は、様々なプラットフォーム及びシステムにおいて自動運転車両を制御するために使用され得る。図13に示す第1の例示的な実施例において、1つ又は複数の高性能SoC(100)は、ゲートウェイ(214)又はモデム(103)及び例えば「ワイヤレス接続及びネットワーク・アクセス」という見出しのセクションで上述したタイプのワイヤレス・トランシーバを介して地図のリフレッシュ/更新をクラウドから取得することができるHDマップシステム(212)とシステム内で組み合わされる。
図15は、単一の高性能SoC(100)を有する一実施例を示す。もちろん、車両(50)は、一般的には、他の不可欠な所望の機能(例えば、ブレーキ作動、エレクトロニック・イグニション、環境制御、インフォテインメント・システム、GPS、レーダ及びLIDAR処理など)を制御する追加のプロセッサと、ASICと、SoCとを含む。車両の機能安全性は、モニタ/アクチュエータ・アーキテクチャ及び冗長化を使用することによって向上され得る。モニタ/アクチュエータ・アーキテクチャは、1つのモジュール(アクチュエータ)を使用して主な機能を実行し、そのアクチュエータを、独立したモニタリング・モジュールを用いてモニタする。アクチュエータが故障した場合、モニタ・モジュールはフェイル・セーフ・モードに入り、アクチュエータに優先する。
図20は、任意の数の協働し相互接続されたシステム・オン・チップ(SOC)2002(1)、2002(2)、…、2002(N)を含む別の例示的なシステム・アーキテクチャ2000を示す。示される特定の非限定的な実例では、1つ又は複数のSOC2002(1)、2002(2)があり、これらの各々は、プロセッサと、キャッシュ・メモリと、メモリ管理回路と、通信回路と、インターフェース回路と、ディープ・ラーニング・アクセラレータ(DLA)などの他のコンピューティング構造とを有するコンピュータを含む。示されるSOC2002の実例は、同じ集積回路パッケージング内の同じ基板上の所与のSOC2002のすべてのそのような構造を提供するが、他の実装も可能である。例えば、各コンピュータは、複数の集積回路(IC)パッケージ及び/又は同じパッケージ内の複数の基板(例えば、マルチ・チップ・モジュール、すなわちMCM)にまたがって分散可能である。
図8は、本技術を実行するための高性能SoCの一実施例を示し、図17、図18、図19、及び図19は、本技術を実行するための高性能SoCを組み込んだプラットフォームを示す。各プラットフォームは、自動運転のためのボードを備えてよく、構成要素(100)、(802)、(803)は、共通プリント回路基板に取り付けられ、同じエンクロージャ又はハウジング内に配置され、したがって、「ワン・ボックス」コントローラ・ソリューション又はスーパーコンピュータ・ソリューションを提供する。上記で述べられたように、スーパーコンピュータ・ソリューションは、好ましくは、プロセッサ及び回路基板を効率的に冷却するためのシステムを含む。一実施例では、冷却システムは、ファンシンクと統合されるように適合された能動的ハイブリッド熱輸送モジュールを含む。ハイブリッド熱輸送モジュールは、熱を輸送するように適合された流体チャネルと空気チャネルの両方を含む。ハイブリッド熱輸送モジュール及びファンシンクは、単独で使用されてもよいし、プロセッサから熱を放散させるために組み合わせて使用されてもよい。
自動運転制御システムは複雑である。自動運転制御システムは、多くの場合、システムのシステムと考えられる。重要な難題は、そのような大規模システムをどのようにして安全にするかである。物理的に別個のコンピューティング・ハードウェアは、自動運転車両動作におけるリスクを減少させるために使用可能である。そのような物理的に別個のハードウェアは、コンピューティング・デバイス間に空気ギャップを提供することによって、フォールト・トレランス及びセキュリティを提供することができ、したがって、1つのハードウェア構成要素に対する問題又は攻撃は、他のハードウェア構成要素に影響しない。しかしながら、自動運転車両制御のために実行される異なる計算タスクは、多くの場合に、異なるときにではあるが、同じ計算リソースの多くを必要とすると判明する。
・ VCPU4004(0)は、コア4006(0)上で実行してよい。
・ VCPU4004(1)は、コア4006(1)上で実行してよい。
・ VCPU4004(2)は、コア4006(2)上で実行してよい。
・ VCPU4004(3)は、コア4006(3)上で実行してよい。
・ VCPU4004(4)及び4004(9)は、コア4006(4)上で実行してよい。
・ VCPU4004(5)は、コア4006(5)上で実行してよい。
・ VCPU4004(6)及び4004(8)は、コア4006(6)上で実行してよい。
・ VCPU4004(7)は、コア4006(7)上で実行してよい。
・ カメラ入力を管理するためのカメラ・ビデオ・ストリーミング・サーバ4010(3)、
・ 記憶デバイスを管理する(そして、例えば、各仮想マシン4002自体の仮想メモリ・アドレス空間を割り振り、サービス品質保証を実施するために、ゲストが多すぎるアクセスで物理的記憶域を圧倒するのを防止する)ためのストレージ・サーバ4010(4)、
・ I2Cなどのいくつかの通信バスの使用を管理するためのバス・サーバ4010(5)、
・ オーディオ・ハードウェア・リソースを管理するためのオーディオ・サーバ4010(6)、
・ ディスプレイ・リソースを管理するためのディスプレイ・サーバ4010(7)、
・ セキュリティ・エンジンを管理するためのセキュリティ・サーバ4010(8)、
・ デバッグにおいて使用するためのデバッグ・サーバ4010(9)、
・ CPUコア4006上で実行する他の機能のすべてをモニタし、オン・チップ・ハードウェア若しくは他のリソースにステータスを報告する安全モニタ(ウォッチドッグ)サーバ4010(10)、及び/又は
・ その他
を含んでよい。
・ 仮想マシン4002(0)は、チャネル4012(0)、…4012(N)が割り当てられてよい。
・ 仮想マシン4002(1)は、チャネル4012(N+1)、…4012(M)が割り当てられてよい。
・ 仮想マシン4002(2)は、チャネル4012(M+1)、…4012(P)が割り当てられてよい。
・ 以下同様である。
・ イーサネット(登録商標)仮想化
・ ファイアウォール
・ ネットワーク・アドレス変換(NAT)
・ Xavier CANバスのためのCAN仮想化
・ 外部MCU CANバスのためのCAN仮想化
・ インターフェースDDoS対抗策
・ 他の車載ネットワーク(FlexRay、MOST、LIN)の仮想化
・ その他
があり得る。
・ IPステートフル・ファイアウォール及びIPステートレス・ファイアウォール(NATを含む)
・ CANファイアウォール
・ SSLプロキシ
・ リモート監査サーバへのログ・アップロードを伴うセキュリティ監査及びイベント・ロギング
・ 暗号化マネージャ−セキュリティ・ログ及び構成ファイル暗号化
・ DDoS対抗策
・ イーサネット(登録商標)及びCAN上のディープ・パケット・インスペクション(DPI)に関する機械学習
・ 仮想マシン及びファイル整合性チェック
・ セキュリティ及び通信仮想マシンOTAサービス及びバックアップ管理
・ 他の車載ネットワーク・プロトコル(FlexRay、MOST、LIN)のためのセキュリティ
があり得る。
例示的な非限定的なプラットフォームは、運転及び他のシステム・タスク又はミッション・クリティカルなタスクを制御するソフトウェア機能及び/又はハードウェア機能の動作を絶えずモニタする安全性フレームワークをさらに含む。安全性フレームワークは、運転制御機能がどのように動作しているかに関する情報を収集し、システム構成要素が適切に動作していることを保証するために診断プロセスを実行することができ、必要に応じて自動的終了/リブート/再起動プロセスなどの是正措置をとり得る別個の安全性専用ハードウェア(例えば、1つ又は複数の安全性マイクロコントローラ)に例外を報告する。
・ 診断開始 − システムがミッション・モード、例えば、ハードウェア・セキュリティ・モジュール(HSM)構成に入ることができる前に実行及び検証される診断
・ 定期的診断 − 定期的に実行される診断(通常、診断テスト時間間隔内で、例えば、重要なデバイス構成をゴールド基準(golden−reference)/チェックサムと照合する)
・ オン・デマンド診断 − イベント発生に応じて動的に要求される診断、例えば、シングル・ビット・エラー報告があらかじめ設定されたしきい値を超えた、ある一定の数のフレームがある一定の量の時間内に削除された、などの後のメモリ診断
・ シャットダウン診断 − シャットダウン時に実行される診断。これらのうちのいくつかは、安全性フレームワークがシャットダウンされた後に実行され、そのため、結果は、次回のブート時に利用可能になることがあることに留意されたい
・ ランタイム診断 − 通常のソフトウェア・フローの一部として実行される診断。実施例によれば、これらは、必ずしも安全性フレームワークによって独立して呼び出されるとは限らないが、いくつかはそうである場合がある。ランタイム診断は、機会主義的に又はソフトウェア・ドライバによる必要によって呼び出され、結果/ステータスは、安全性フレームワーク内の標準的なエラー・フローを使用して通知可能である。ランタイム診断の実例には、以下がある。
− 書き込み後のソフトウェア・レジスタ・リードバック検証
− 安全を最重視すべき構成データのソフトウェア・アイドル・タスク実行チェックサム検証
− 計算された信号値に関するソフトウェア実行信頼性(plausibility)チェック
− ソフトウェア制御下での冗長な実行及び比較、並びに
− 安全性フレームワーク・パスウェイ上で発行されたドメイン固有循環チャレンジ/レスポンス
・ 1つ又は複数のイベント参加適応パーティション4052、
・ 1つ又は複数のタイム・トリガ型適応パーティション4054、及び
・ 他のパーティション。
・ 異なるSOC及び/又は
・ 同じSOC上で実行する異なる仮想マシン、及び/又は
・ 同じ仮想マシン内の異なるプログラム、及び/又は
・ 同じプログラムの異なるスレッド
間の通信に使用可能である。
例示的な自動運転プラットフォーム
例示的な非限定的な実施例は、運転のために直接的に行動可能である世界の性質を認知する自動運転プラットフォームを提供する。これらの行動可能である性質は、アフォーダンスと呼ばれることがあり、以下の全体的なカテゴリを含むことができる。
・ 障害物
・ 経路
・ 待ち状態(例えば、交通信号、全方向一時停止など)
・ その他
自動運転は、定義された運転のアフォーダンスがセンサ入力から明らかであり、運転し続けるのに十分に行動可能であるとき、可能になる。
・ 障害物認知3010
・ 経路認知3012
・ 待ち状態認知3014
・ 地図認知3016
・ その他(図示せず)
障害物認知は、車両はどこを運転することができるか、及び直接的に検知されている障害物(例えば、対象物、構造、エンティティ)に文字通りぶつかることなく車両はどれくらい速く運転することができるかという推定を中心に展開する。障害物との衝突を回避することは、一般に、安全な自動運転に必要であるが、それは十分でない。障害物を正常に回避するが、それにもかかわらず安全でない又は望ましくないと見なされ得る、車両の多数の挙動がある。
例示的な非限定的な実施例では、経路認知は、特定の状況で使用可能である名目上経路を認知するために使用される。経路アフォーダンスの追加の次元は、1つ又は複数の車線変更の利用可能性である。いくつかの例示的な実施例は、車線グラフと呼ばれる表現を有する経路アフォーダンスを表す。車線グラフは、ハイウェイのオン・ランプ上の単一の経路と同じくらい単純であってよい。他の車線グラフ表現は、所望の車線への経路を提供し、ハイウェイを下る利用可能な車線変更を示してよい。より複雑な車線グラフ又はより完全な車線グラフは、近くの車線、車線変更、分岐、曲がり角、クローバー型インターチェンジ、及び合流を示してよい。
例示的な非限定的な実施例はまた、ルール、慣例、及び/又は実際的な考慮事項のセットによって長手方向に制限されてよい。1つの例示的な慣例は、交通信号である。交通信号ルールは、自車両が停止し、ある一定の状態が真実になる(すなわち、交通信号が青になる)まである一定の点で待機することを強要する。これらのルール、慣例、及び実際的な考慮事項は、待ち状態アフォーダンスと呼ばれてよく、例示的な非限定的な実施例では、待ち状態認知3014によって扱われる。
・ 交通信号交差点
・ 全方向一時停止
・ 譲り
・ 合流
・ 料金所
・ 遮断機
・ 交通整理をする警察官又は道路工夫
・ 停車したスクール・バス
・ 一方通行の橋の調停
・ 連絡船入口
・ その他
例示的な非限定的な実施例では、マッピングは、それ自体ではアフォーダンスでない。むしろ、マッピングは、特にどの慣例が特定の場面に適用されるかの具体的な実例を判定するための、挙動が認識されるメカニズムである。いくつかの実例には、以下がある。
・ ロード・アイランドでは、交通信号で左に曲がるために待機している第1の車は、信号が青になったとき、対向するトラフィックより前に曲がることによって、法律に違反する
・ 異なる道路をゲート開閉するが互いとほとんどずれていない交通信号
・ 木曜日の午後4時から午後6時までUターン禁止
・ 時刻に応じて車線の方向性を変更する電子標識
したがって、マッピングすることは、アフォーダンス推定を以前のドライブから現在のものへと移す手段を提供する。
図42は、例示的なプラットフォーム3000の、より詳細に分解したものを示す。図42では、濃い色の線を有するブロックは、データ構造(一般的には、非一時的なメモリに記憶される)を示し、他のボックスは、処理モジュール又は機能(一般的には、例えば限定するものではないが、1つ又は複数の訓練されたニューラル・ネットワークの展開を含み得る命令を実行する1つ又は複数のプロセッサによって実施される)を示す。
例示的な非限定的なワールド・モデル3002のデータ構造は、地図に由来し得るデータに対応し、前方の1つ又は2つの曲がり角を計画するなどの中距離プランニング3004をサポートするのに十分に豊富である。このデータ構造はまた、ライブ認知からの比較的最小のアフォーダンスのみに基づいて運転に対応し得る。基本的なハイウェイ自動操縦の場合、初期ワールド・モデル3004は、判定された経路内対象物3120を有する単一車線グラフ・エッジ3100bと同じくらい単純であってよい。他の例示的な実施例及び状況では、ワールド・モデル3002は、車線変更利用可能性及び隣接する車線内の対象物、プラス、長距離のより詳細な地図(3105)における全体的なルート計画に対するマップされたルート(3104)を用いて進歩されてよい。さらなる追加には、待ち状態3106、車線境界線、及び動的占有率グリッド3102があり得る。ゾーン運転などの場合によっては、動的占有率グリッド3102内の対象物のみが利用可能なことがあるが、他の実施例では、待ち状態3106も利用可能である。異なる能力は、運転システムの状況、能力、及び要件に応じて追加可能である。
1つの例示的な非限定的な実施例及び状況では、ワールド・モデル3002は、単一追従車線グラフ3100bを含む。この状況では、「追従」は、車線グラフが通信されるとき、以前の車線グラフ配信との対応が含まれることを意味する。図43に示される1つの例示的な実施例では、追従車線グラフ3100bは、以下を提供してよい。
・ 運転可能なエッジのスプライン
・ 車線変更の存在及び利用可能性
・ 車線境界線
・ 待ち状態3106(この場合、分岐)
・ 経路内対象物
・ 他の対象物3120
・ 動的占有率グリッド3102
・ 基本ルート地図3104
・ 車両状態
・ 競合エリア
・ その他
車線グラフ3100及び動的占有率グリッド3102は、一般的には、車両座標系内のプランニング3004に配信され、これは、エンティティが配信ごとに移動することを意味する。これは、不具合を回避するためにその以前のプランニングにより明示的に結び付けることが可能であるデータに対して作用する計画器3004にも有用である。したがって、例示的な非限定的な実施例は、この機能を通信インターフェースに組み込んでよい。
例示的な非限定的な実施例では、経路内対象物は、車線グラフの運転可能な線上にとどめられたビーズのようなものである。それらは、対象物が車線グラフ区間に沿った前進をどのように妨げるかを表す。経路内対象物は、各車線グラフ区間に関するリストとなる。経路内対象物は、その始まりからその第1の対象物点までの3次スプライン区間に沿った距離を含む、対象物についての情報を含む。経路内対象物は、3次スプライン区間に沿った速度も含む。経路内対象物は、車線変更が利用可能であるかどうかを示すためにライブ認知によって使用される各車線変更に関するブール・フラグ又は他のデータ要素であってもよい(対象物障害を示すより単純な形)。
例示的な非限定的な実施例では、待ち状態は経路内形式及び自由形式としてもたらされる(よく似た対象物も、経路内形式及び自由形式としてもたらされてよい)。経路内待ち状態は、車線グラフ内の運転可能なエッジのうちの1つに沿った前進の点として、経路内対象物と同様にコード化される。経路内待ち状態は、速度を有する場合がある。運転中の待ち状態の実例は、停止のプロセスにおける点滅するライトを有するスクール・バスのようなものであり、バスのさらに後ろにある前進の限界を生成する。例示的な非限定的な実施例における待ち状態は、タイプ(停止/譲り/合流/特徴拡張)、状態の表示(例えば、青/黄/赤)、並びに待ち状態が赤であるときの推奨速度を伴う。待ち状態は、状態が考慮されるべき開始点の後の、状態の長手方向範囲を符号化する空間的な長さも伴ってよい。非限定的な実施例では、青は、待ち状態が存在しない又はアクティブでないことを意味し、赤は、待ち状態が、推奨スピードよりも速いスピードでその間隔を通しての自車両からの移動を禁じる(ゼロであってよい)ことを意味し、黄は、間隔の開始点の前であるが快適及び安全にそのようにすることが可能である場合のみ、自車両が、スピードを減少させるべきであることを意味する。
例示的な非限定的な実施例では、図43に示される対象物は、自車両座標系内の3D点と3D速度からなる又はこれらを含む。対象物は、経路内判定3120及び動的占有率グリッド3102を通して扱われてよい。
例示的な非限定的な実施例では、(自)車両状態は、(自)車両の長手方向速度、長手方向加速度、及び横方向湾曲に基づいて符号化可能である。車両状態は、ルート地図3104とともに有用であることがある、GPS(ジオロケーション)位置とコンパス方向も含んでよい。プランニング3004及び制御3006は、最近の相対移動の高速推定のための基本軌跡推定3030インターフェースと、自車両のセンシング及び制御のためのCAN(作動)インターフェースをもつことも可能にされる。
図43に示される動的占有率グリッド3102は、例示的な非限定的な実施例では、2つの次元が空間的であり、1つの次元が時間的である体積測定配列からなる。1つの特定の非限定的な実例では、グリッド3102は、車両の周りにあり、10cm刻みで、次の5秒間に10分の1秒間隔でレンダリングされ、グリッドの1000×1000×50の配列という結果になる、100m×100mグリッドを含んでよい。
ルート地図3104は、いくつかの実施例では、ノードがGPS中間点であり、エッジは中間点を結び付け、予想横断時間を示す、大規模地図グラフである。ルート地図3104は、国、州、都市、近所などに対する別個のスケールなどの、複数のスケールで存在してよい。
車線グラフ3100の状況では、センサ抽出3158は、同じタイプのすべてのセンサのための均一なフォーマットを提供し、センサはすべて、車線グラフの共通表示とともに使用可能である。すなわち、例示的な非限定的な実施例では、1つの内部フォーマットは、レーダ・データ、LIDARデータ、カメラ・データなどに使用されてよい。類似の均一なフォーマットは、フレーム・レートを設定する又はゲイン制御を実行するなどの、センサに制御を適用するケースに使用されてよい。センサ抽出3108は、いくつかの実施例では、各センサ・パケットにタイムスタンプも提供する。
例示的な実施例では、車線検出は、経路が可能な限り直接的に適切であることを推定する。基本車線検出は、例示的な非限定的な実施例では、自己較正をサポートするので、図42では経路認知から始められて示される。
例示的な非限定的な実施例は、自己較正ロールにおいて及びマッピングにおいて使用するための仮想ランドマーク検出3158(図45を参照)を与える。垂直ランドマークは、検出され得る例示的な非限定的なランドマークの1種である。垂直ランドマーク検出3158は、いくつかの実施例における垂直ランドマーク検出が、自己較正をサポートするので、マップ認知3016から取り出され得る。
画像特徴トラッカー3150は、常に、いくつかの例示的な非限定的な実施例において実行している。画像特徴トラッカー3150は、高性能軌跡推定3030a並びに対象物追跡3010の両方をサポートし、したがって、図42中で別個のモジュールとして取り出されている。特徴トラッカー3150は、LIDAR画像、光画像、レーダ画像、及び/又は他の検知された認知に対して動作することができる。
LIDARセンサが存在するとき、例示的な非限定的な実施例は、何らかの空間分離のフレーム間の反復最近点整合をも実施する。図47、図48を参照。これは、いくつかの実施例では、第1のフレーム(基準)を深度マップ3304として、及び第2のフレームを3Dポイント・クラウドとして追跡することによって行われる。例示的な非限定的な実施例は、基本軌跡推定モジュール3030によって与えられたモーションに基づいて、相対姿勢3306を初期化し、また、そのデータを使用してモーションのためのLIDARスキャンを事前補正する。例示的な非限定的な実施例は、次いで、深度マップ3304の平滑化されたバージョンの微分画像を事前算出する。新しいフレームからの3D点は、(例えば、並列計算を通して)基準深度マップに投影され、深度マップ中の非常に小さい領域中の最良マッチング深度が見つけられる(距離が大変異なる場合、点は、ロバストネスのために拒否される)。いくつかの実施例では、導関数は、例えば、6×6 3D姿勢更新式など、式に累算するために使用される。プロシージャは反復される。いくつかの非限定的な実施例では、この機能は、LIDARを使用して、高性能軌跡推定3030aと障害物検出3010の両方をサポートする。
LIDAR接地平面3154について、1つの例示的な非限定的な推定プロセスは、深度マップ中の近接したすべての点に対してあらゆる可能な接地平面姿勢をテストするブルート・フォース探索を実施することである。他の実施例は、車両の近くの深度マップ中のピクセルの各ブロックへの最小2乗パッチ・フィットを実施するわずかにより少ない計算量的に重い手法を使用し、次いで、車両の近くの深度マップ中のブロックの各列上で車両から出る接地平面からの線の2次元探索を行い得る。いくつかの例示的な実施例は、次いで、線のセットを入力データとして使用して、ランダム・サンプル・コンセンサス(RANSAC:random sample consensus)プロシージャを実行し、線の各ペアは仮説を与え、線自体はコンセンサス・テストとして使用される。例示的な非限定的な実施例は、反復最近点整合(ICPA)を実施する同じコードを使用することができるが、平面を基準深度マップとして使用する。
任意の形態の登録を実施するために、それが同じドライブの瞬間の間のものであるにせよ、異なるドライブの瞬間の間のものであるにせよ、例示的な非限定的な実施例は、一般に、車両上の異なるセンサ間の正確な登録を有することを希望する。これは、通常、較正と呼ばれ、固有較正と外因性較正とにスプリットされる。固有較正は、センサのカノニカル姿勢を仮定すれば、センサが世界角度から画像角度へ実施するマッピングを伴い得る。外因性較正は、世界又は車両上の何らかの基準座標系に対するセンサの姿勢を伴い得る。そのような登録の異なるソースは、仕様情報3156、(レンズのひずみ影響などについての)公称設計値、工場又はサービス・センタにおける較正、及び自己較正を含み、ここで、自己較正は、通常動作中に収集されたセンサ・データ(のみ)を使用して(例えば、1つ又は複数の他のセンサを較正するための1つ又は複数のセンサを使用して)較正のパラメータを判定することを指す。
例示的な非限定的な実施例は、接地平面に対するセンサの回転を判定する。これは、センサのロール3212及びピッチ3206のための基準を与える(しかし、ヨー3218のための基準は与えない)。原則として、ロールとピッチとは互いに依存し、結合して「上方向ベクトル」を形成し、これは、センサにおいて観測された接地平面に対する法線ベクトルを意味する。
ピッチを決定するために、例示的な非限定的な実施例は、ロール較正及び補正が行われると仮定する。ピッチ3206について前向きカメラを自己較正するための1つのやり方は、車線検出3160を介して道路車線境界線を活用することである。これは、運転のための重要なことへの直接リンクを与え、長い時間期間にわたって、ほとんどどんな車でも、ピッチ較正をサポートするための車線境界線観測の十分な量に遭遇することになる。潜在的後処理を用いた車線境界線3160のニューラル・ネットワーク・ベース検出が、いくつかの実施例において採用され得、接続された曲線又は点リストを出力する。例示的な非限定的な実施例がそれらの接続された曲線のうちの1つ、画像の下部の近くの1つ、及びわずかにより高い1つから点のペアを取る場合、それらは、ほとんどの時間、車の近くの接地平面に沿って車線境界線と平行な線を形成するために使用され得る。2つのそのような線を使用すること、及びそれらを交差すること(例えば、同次座標におけるクロス乗積を使用すること)によって、例示的な非限定的な実施例は、画像中の交差点を得る。その点は、理想的には、車の周りのローカル接地平面の消失線である画像中の水平線上にあるべきである。したがって、例示的な非限定的な実施例は、水平消失線に対して投票するために、画像中の交差点の垂直座標を使用することができる。
センサのヨー3218は、世界においてそれをゆだねるための接地ほどにカノニカルなものは何もないという意味で異なる。一方、接地平面は、単に、車両のホイールの下部接触点を結合する平面として考えられ得る。同様に、ヨーは、いくつかのセンサ位置を有する仕様情報3156からの機械製図中の姿勢に対して定義され得る。しかしながら、運転目的のために、少なくとも前向きカメラについて、運転の前方方向に対する、特に、例示的な非限定的な実施例が、ゼロのステアリング角度を指令するときに得る制御に対してカメラのヨー3218を知ることは有用である。理想的には、これはまた、車両が直線状にドライブすることを生じるべきである。
図48に示されているように、ロールは、すべてのカメラについて同じやり方で解決され得るが、立体などの高い正確さ目的のために、いくつかの実施例は、標準画像マッチング技法を使用して相対ロールについて解き、あるカメラのロールを他方にマッチングさせる。ピッチとヨーとは、相対技法がしばしば最良であるという点で同様である。例えば、例示的な非限定的な実施例は、フロント・カメラのうちの1つのロール3212、ピッチ3206及びヨー3218を計算したと想像する。次いで、すでに較正されたカメラと較正されるべきカメラの両方における車線境界線の観測のために、例示的な非限定的な実施例は、まだ較正されていないカメラのピッチ3224及びヨー3226のための提案を得る。例示的な非限定的な実施例では、接地上への車線境界線の2つの投影を行うピッチ及びヨーは整列する。そのような例示的な非限定的な実施例は、(空気圧、サスペンション及び荷重により)車両の高さについて解くことが可能である。各カメラのロール、ピッチ及びヨーが、原則として、それ自体によって解けるので、正しい高さは、次いで、接地平面上の異なるカメラからの投影を整列する高さであり、これは、カメラ間のベースラインがある場合、一意の高さを生じる。このプロシージャは、運転の間の道路線及び他のコンテンツの移動を予測するために車両オドメトリを使用することによって、最初のカメラの場合の瞬時重複を有しない他のカメラに続けられ得る。例えば、側面カメラのピッチは、フロント・カメラにおいて前に観測された車線境界線の観測によってうまく制約されることになる。
例示的な実施例は、車両の近くの点が、接地平面に対応する頻度モードを有すべきであるという、及びそれらの点の構造が、両方向において等位であるべきであるというという仮定を使用して、任意のLIDARセンサのロール3234及びピッチ3232を決定する。例えば、例示的な非限定的な実施例は、各フレーム中の車両の近くの接地平面(3154)のロバストな平面フィットを探し、ロール及びピッチに対する別個の票を作成するために、それを使用することができる。高さは、次いで、LIDAR距離においても観測される。複数のLIDAR間の相対位置は、反復最近点アルゴリズムを使用してうまく推定され得る。
車線境界線は、車線境界線(3160’を参照)が、一般に、反射性であり、LIDARアクティブ光のより強い反射を生じるので、LIDAR強度データ中で並びにカメラにおいて観測され得る。この理由で、例示的な非限定的な実施例は、カメラに関して運転方向に対するLIDARセンサのヨー3240を較正するために、本質的に同じ技法を使用することができる。
自動車レーダが、主に、距離、相対速度及び軸受角度に有用であるので、較正すべき主要な物は、ヨー角3252である。興味深いことに、例示的な非限定的な実施例は、カメラに関して同様のアルゴリズムを使用することができる。レーダは、点目標と、またそれらが静止しているかどうかの決定とを返すので、例示的な非限定的な実施例は、各静止目標軌跡を使用し、それが現在の車両モーションについて補償された後の点に最も近い目標軌跡を生じるレーダ・センサのヨーを探すことができる。前向きレーダにおける目標について、横向き変動は、ヨー角と最も強く接続されるものであり、キューは、カメラヨー角較正のために使用されているものと同じ(及び、後向きレーダについて同様)である。
例示的な非限定的な実施例は、それらが、機能し、主要な推定プロセスに正しく通信される限り、完全な障害をあまり受けない概算軌跡推定値を与えることができるセンサを有し得る。ホイール「チック」(例えば、検知された回転角変化)は、(例えば、ステアリング・ホイール角度センサからの)ステアリング・ホイール角度とともに、すでに基本平面軌跡を与える。いくつかの例示的な非限定的な実施例は、正確な相対的回転を与えるために、ジャイロセンサをもつ慣性測定ユニット(IMU:inertial measurement unit)を追加する。これは、例示的な非限定的な実施例が、軌跡推定を、それらのセンサを用いて構築された概算において開始する非線形最適化問題として扱い、複数の代替ソリューションを維持することについてあまり心配しないことがあることを意味する。
基本軌跡推定3030は、概算であるが高速で便利な推定である。それは、コントローラ3006のために、及びすべての認知タスク、障害物、経路、待機条件内の前方予測のために、並びにマッピングのために有用である。これらのタスクのために、例示的な非限定的な実施例は、GPSに依存せず、一貫して滑らかな経路へのアクセスを有すべきである。したがって、基本軌跡推定3030のためのインターフェースは、クエリが、2つの異なる時間の間の相対的モーションのために配置され得るものである。実装形態は、車両オドメトリ及びIMUを入力として取り、クエリをサービスするために結果をもつローリング・バッファを保つ、軽く高速の拡張カルマン・フィルタである。
マップ中の現在の車両所在地のための開始点を見つけることなど、いくつかの他のタスクは、GPS姿勢を用いてより良くサービスされる(この文脈では、GPS姿勢は、緯度/経度又は北進/東進だけでなく、完全な6つの自由度を意味する)。これは、いくつかの実施例では、GPS、車両オドメトリ及びIMUとともに作用し、GPS座標系においてであるが、基本軌跡推定と同様のフィルタ処理を実施する、基本ローカライゼーションモジュール3026aによって果たされる。
図49は、例示的な非限定的な軌跡推定器3030aのブロック図を示す。高性能軌跡推定3030aのために、タスクは、視覚ランドマーク又はLIDARマッピングの詳細な視覚三角測量をサポートするために、うまく登録されたカメラ又はLIDARセンサ示度に基づいて非常に正確な相対軌跡を与えることである。
例示的な非限定的な障害物モデリングは、対象物トラック3164、自由空間3162、及び動的占有グリッド3102を作成する。
例示的な実施例は、ピクセルごとのクラス出力画像及びピクセルごとのリグレッサ出力を作成するために、個々のカメラ・フレーム(図50を参照)中でディープ・ラーニングを使用する。対象物を作成するために、ピクセルごとのクラス画像は、複数の4つのレッグ・スカラ・リグレッサ画像と組み合わせられる。ピクセルごとのクラス・マップは、対象物コアを返し、ここで、対象物コア・ピクセルは、リグレッサが有効であるピクセルである。リグレッサは、バウンディング・ボックスに対する票を作成する。この出力は、検出バウンディング・ボックスに後処理される。別個のクラス・マップが、対象物のサブクラスを決定し得る。同様のプロセスが、(1スイープを取り、それを深度画像として表す)円筒形深度マップを表すために使用されるLIDARデータに対して使用され得る。他の実施例は、エゴ・モーションの影響を取り出した後、2回の後続の整合LIDAR走査においてモーション・ベース検出を実施する。
例示的な実施例は、いくつかの理由のために対象物追跡3164を実施する。対象物追跡3164は、検出が弱いフレームをブリッジすることによって、より粘着性のある検出を与えることができる(図51を参照)。対象物追跡3164は、それが、現代のニューラル・ネットよりも軽い処理であるので、検出がスキップされたフレーム間をブリッジすることよって、性能利得を与えることができる。対象物追跡3164は、それが、2つの依存しない検出の比較よりも時間フレーム間で正確であることがあるので、モーションの慎重な理解を与えるためにも使用される。
例示的な非限定的な実施例は、正しい時間ベースラインを決定するために様々な技法を使用する。そのような時間ベースラインは、例えば、現在の運転速度など、特定の速度まで相対的モーションの範囲に依存する。しかしながら、時間ベースラインは、移動している対象物の速度(例えば、何らかの最大速度で車両に接近する別の車両又は他の対象物の速度)によっても影響を及ぼされる。時間ベースラインは、例えば、最大所要距離範囲と比較的公称対象物サイズとにも依存し得る。例示的な非限定的な実施例は、最大距離範囲において、1つのピクセルの画像サイズの変化が、最も緊急可能な相対的モーションによって誘起されたピクセルの数の何らかの所与の部分の変化であるべきであるかどうかを分析する。図52を参照。したがって、例えば、例示的な非限定的な実施例が、最大モーションからの変化のn個のピクセルについてテストすると、対象物がサイズwを有すると、及び最大距離がdであると仮定する。ピクセルにおける投影サイズsは、s=fw/dであり、ここで、fは、何らかの焦点距離スケーリングである。最大クロージング速度がvであると仮定すると、時間単位ごとのサイズの変化は、微分s’=−fwv/dΛ2である。例示的な非限定的な実施例は、sのためのこの式をこれに代入し、s’=sv/dを取得することができることに留意されたい。長さtの短時間間隔の間、サイズの変化の絶対値は、tsv/dである。例示的な非限定的な実施例が、それが少なくともn個のピクセルであることを必要とする場合、要件tsv/d>=nが導出される。例示的な非限定的な実施例は、あるサイズを仮定すれば、どのくらいの時間、モーション分析以上を実施すべきかの方策としてこれを使用することができる、
t=dn/(sv)。
したがって、バウンディング・ボックスが小さいほど、例示的な非限定的な実施例は長く待つはずである。例示的な非限定的な実施例は、dのための固定値(例えば、100mなど)、nのための固定値(例えば、6ピクセルなど)、及びvのための固定値(例えば、30m/sなど)を使用することができる。これらの例の場合、例示的な非限定的な実施例は、t=20/sを得る。
t=d2(t2−t1)/(d1−d2)
U=(d1−d2)/(d2(t2−t1))=(s2/s1−1)/(t2−t1)
を導出する。第2のスケールが第1のスケールよりも大きいとき、緊急度は正になり、それは、より短い時間期間においてより大きいスケール差とともに増加することに留意されたい。正確なタイム・スタンプt1及びt2(又は少なくとも正確な時間差)の重要性に留意されたい。
いくつかの例示的な実施例は、随意に、イメージ・スタビリゼーション又はIMU支援基本軌跡推定によって短時間スケールにわたって調整された、自己較正からの長期ピッチを使用して、観測された対象物の最も低い画像行を平坦な接地仮定上にマッピングすることによって、カメラ被写体について粗距離感を導出する。単純であるが、この方法の性質の1つは、それが、実際の距離の連続ひずみとして挙動することである。高速の場合、道路は、通常、より平坦であり、したがって、推定は、ある反応時間に関係するスケールにわたって知覚可能である傾向がある。地平線により近い距離は、ますます伸張され、したがって、地平線が到達される前に、距離を制限することがより良好である。いくつかの例示的な実施例は、接地平面を、ますます急になり、ある高さ(例えば、40〜50m、図53を参照)において壁にカーブする滑らかなランプにヒューリスティックに再定義することよってそれを行い、その上に画像行を投影し、得られた距離を取る。到着時間値は、次いで、測定された到着時間を「エミュレートする」対象物速度を決定するために使用される。そのエミュレーションを与える相対速度(接近速度)は、単に、緊急度を乗算された距離である。この出力で作用するクルーズ制御モジュールは、これらが物理的値であることを装うことができる。
例示的な実施例は、ビジョン・トラックと同様のローリング・バッファ・テーブルにレーダ・トラックを記憶する。レーダ・トラックは、一般に、正確な範囲と範囲レート、概算軸受角度、及びそれほど有用でない高度角度を備える。
ビジョン及びレーダ・トラックをマッチングさせるために(図54を参照)、例示的な実施例は、たいてい軸受角度及び緊急度である、レーダとビジョン・トラックとの間で共通である性質を使用する。例示的な実施例は、このようにしてトラック間のマッチ・スコアを形成する。例示的な実施例はまた、大きい分散(マッチ・スコアのこの部分上の軽量)をもつビジョンからの粗逆距離を使用することができる。例示的な実施例は、次いで、トラックを関連づけるために、短時間スライディング・ウィンドウを使用する。すなわち、例示的な実施例は、小さい時間間隔にわたってトラック・テーブル中のデータを使用して問題を解決する。時間ウィンドウを使用することの利益は、例示的な実施例が、新しいデータが利用可能になると変化され得る暫定的決定を依然として行いながら、現在の瞬間からだけでない情報に照らして決定を行うことができることである。例示的な実施例は、ペアワイズ関連づけスコア行列を計算し、次いで、グリーディ様式でマッチを割り当てることを開始する。例示的な実施例はまた、ペア内で、両方のメイトが、任意の他のマッチよりも互いを選好するという意味で、どのペアリングが「幸福な」ペアリングであるかを検査することができる。この性質を有しないペアリングは疑わしい。ここで、保守的手法を取り、縦方向加速度を最も制約するすべてのもっともらしいマッチのうちの1つを使用することが可能であるが、偽正及び偽負の両方が問題になる。
例示的な実施例は、画像中のすべてのドライブ可能な領域を示すピクセルごとの自由空間画像をも作成するディープ・ラーニング処理を実施する。これは、実施例が「自由空間速度」をも必要とする、又は自由空間がどのくらい速く変化するかという意味で十分でない。これの1つの場合は、自己車両が、別の車両のテールの後でドライブすることであり、その場合、自己車両は、先行車両が離れることを通して自由空間がそれの前で開けていることを確信しているべきである。これを処理するための1つの例示的なやり方は、対象物バウンディング・ボックス内にある領域で作用し、それらのピクセルがバウンディング・ボックスのモーション分析に従って移動すると仮定することである。さらに、何が移動することができる対象物であるか、及び何が静的バックグラウンドであるかを知ることなど、セマンティック・セグメンテーションが、その点において有用であり得る。いくつかの実施例はまた、車両と分類されないすべてのピクセルについて保守的であること(したがって、例えば、歩行者が離れると決して仮定しないこと)を必要とし得る。より完全な試みは、自由空間の境界の近くにあるすべての領域に対してモーション分析を実施することである。
動的占有グリッド3102(図55を参照)は、自由空間及び追跡されたバウンディング・ボックス、動的レーダ・トラック、接地平面の上のLIDAR点、及び深度マップと考えられるLIDARデータ中の深度の変化率によるモーション推定値を使用してなど、利用可能なデータのいずれかを使用してレンダリングされる。例示的な実施例は、間違って割り当てられたデータのスリバーを回避するために、何らかの形態のモーション・セグメンテーション及び接地点の分類を行い得る。
例示的な実施例は、経路認知3012のために利用可能なすべてのキューを活用する(図56のシナリオを参照)。それらは、偏心パラメータ(経路の中心からの正又は負の横方向オフセット)、オフ方位パラメータ(経路の方向からの正又は負の角度オフセット)、及び曲率パラメータに関して、車両に対する主経路の推定値を得る。いくつかの実施例では、これは、時間的に前方にドライブされるどんな経路が現在の画像と組み合わせられるかの多くの例から訓練されたニューラル・ネットワークによって作成される。訓練データは、車線中で定常を保持しながら取られ、次いで、主カメラ及び2つのオフセット・カメラに基づく合成レンダリングを使用して横方向に及び方位的に増強される。例示的な実施例は、LIDARデータを用いてこれを同様に行うことができる。このプロシージャは、特定の偏心/オフ方位/曲率を仮定すれば、中心へ戻る経路を定義するために、クラシック・プランナー/コントローラを用いて使用され、訓練例を定義するために、(何らかの時間的オフセットをもつ)経路の始まりにおいて逆回転半径を取っていることがある。この訓練時間制御は、このコントローラ3006への入力を予測するようにネットワークを訓練し、それにより、経路推定値を明示的にし、望まれる因数分解と、結果を他の入力と組み合わせるための、及び望まれる場合、時間的にそれを融合させるための機会とを与えることになる。
図57は、経路内決定の問題を示す。例示的な実施例は、追跡された対象物と各関連する経路との間の経路内決定3120を実施する。考慮中の経路は、ピクセル・マップとしてレンダリングされた画像(又はLIDAR座標系)に投影される(図57を参照)。例示的な実施例は、対象物の決定された部分であった当該のバウンディング・ボックス中のすべてのピクセル(例えば、バウンディング・ボックス中のすべての非自由空間点、又はセマンティック・セグメンテーションによって対象物点であると決定されたすべてのピクセル)を取り、(例えば、もう1秒の間前方に外挿された最後の1/2秒にわたるバウンディング・ボックスのモーションを使用してなど)前方予測によってそれらを変調し、次いで、対象物のピクセル・マップと経路のピクセル・マップとの間の比較を実施する。例示的な実施例は、次いで、対象物が、テストされた経路上に浸食しているかどうかを決めるために、任意の重複エリアに対して何らかのしきい値を使用することができる。効率のために、これは、テストで使用されるほぼ固定された数のピクセルがあるようにバウンディング・ボックス・サイズに適応されたピラミッド・スケールで行われ得る。
図58は、一般的な待機条件シナリオを示す。例示的な実施例は、バウンディング・ボックスのためのリグレッサに加えて分類レイヤを用いたディープ・ラーニングを使用して、障害物と同様に交通信号を検出する。別個のレイヤが、赤/緑/黄を予測し、交通信号は、他の対象物と同じやり方で追跡される。停止及び減速標識が同様に検出される。例示的な実施例はまた、視覚交差点領域全体をマーキングし、それについてバウンディング・ボックスを予測することよって、交差点を検出するために訓練する。ここで、例示的な実施例は、セマンティック・セグメンテーション・クラスがそれについて交差点を示すエリア全体にわたってより慎重な幾何解析を行い、下、上、左及び右に対して投票したメジアンを探し得る。例示的な実施例はまた、終点を予測するリグレッサを用いて、ディープ・ラーニングを使用して可視待機線を検出する。すべてのこれらの検出は、三角測量のためにマップ認知3016に受け渡され、クラウド2022中のマッピングに送られる。高性能ローカライゼーション3026bをもつマップも、妥当性を検査し、情報に追加するために、及び交通信号方向転換関連づけを示唆するために使用される。
図59は、例示的な非限定的なマップ認知シナリオを示す。センサ較正及び軌跡推定により、問題は、ほぼ、2つのドライブ・セグメントを整合させる3つの自由度を見つけることに低減される。2つのドライブ軌跡の姿勢は、(例えば、限定はしないが)10mの程度の大きさまでGPS座標系においてほぼ知られる(GPSローカライゼーション精度は、時々、はるかに良いことがあるが、究極的には、より高い不確実性が含まれる分布である)。これは、互いに10m内で通過するドライブ軌跡が、軌跡が、共通ドライブ可能な地面を共有するのに十分近いどこででも、ローカル接地形状に沿ったローカル・トランスレーション及び回転としてモデル化され得る残差整合を有することを意味する。
関連する視覚ランドマークは、道路マーキング(並列実線、ダッシュ及びドット、垂直線、道路画像)、道路境界(ドライブ可能な表面が、静止と見なされ得る非ドライブ可能な表面に遷移する点)、ポールなどの垂直ランドマーク、交通標識及び交通信号である。視覚ランドマークは、いくつかの実施例では、適切な後処理を用いてニューラル・ネットワークによって検出される。
道路マーキング及び道路境界の3D位置は、いくつかの実施例では、接地平面への車両の近くの逆投影によって決定される(これは、車両が接地のその部分を通過した後に起こることさえあることに留意されたい)。LIDARが利用可能な場合、これは、またさらに車両からの厳密な接地形状によって改善され得る。垂直ランドマーク、交通標識及び交通信号が追跡され、観測の時間ウィンドウを使用して三角測量される。LIDARが利用可能な場合、LIDAR距離が使用され得る。静止レーダ目標は、単一のレーダ観測からの3Dにおいてほぼ決定されるが、複数の観測値から慎重に推定される。すべての3D位置は、車両姿勢のうちの1つに対して決定され、ドライブ・セグメントからのすべてのランドマークが、それにより、推定されたドライブ軌跡を使用して同じ座標系にチェーン結合され得る。しかしながら、グローバル座標系の必要性が回避されることに留意されたい。
ランドマーク3158とともに軌跡推定3030、3030aから出てくる姿勢のチェーンは、各運転車両によって作成された「マップ・ストリーム」を構成する。例示的な実施例は、それが、運転のメートルごとに数バイトに達するのみであるほど十分に効率的にこれを符号化する。現代のモバイル・データ・チャネル上でメートルごとに数バイトをクラウド3022に転送するコストは、車両を推進するコストによって小さく見せられる。これは、各車両に、リアルタイムでマップ・ストリームを寄与させる可能性を開き、Wi−Fiホットスポットが使用され得るまでデータをバッファすること、又はいくつかのドライブ・セグメントのみを入念に選ぶことが、コストをいっそう低くすることができる。
高性能ローカライゼーション3026bは、前のドライブに車両のローカライズし、それにより、前のドライブからのデータをもたらす際の最終ステップが、現在の運転タスクを支援することを可能にする。
マップ・ストリーム・ストア(ドライブ・ストア)
例示的な一実施例において、完全なマッピング・ソリューションは、車両からデータを受信するクラウド・サービス成分のコンスタレーションを含み、ドライブを一緒に登録するためにデータを処理し、マップ・データを用いて車両をサービスする。それらは、従来のマップよりも「アグリゲート・ドライブ」である。
ドライブ・インデクサーは、ストアに緊密に関係する。それは、GPSによってドライブ・セグメントを検索することと、概算セグメント・ルートによって随意にフィルタ処理することとを可能にする。
ドライブ・マッチングは、ランドマークによってもたらされる正確さまで慎重に複数のドライブを整合させるタスクである。一般的な動作は、ドライブ・インデクサーを使用してドライブ・セグメントの候補セットを見つけることである。候補セットは、同じ道路セグメント又は道路セグメントのシーケンスを通してドライブするためのわずかに異なるやり方であるように仮定される。基本動作は、次いで、いくつかのペアワイズ動作を通して複数のセグメントを整合させるように拡張され得る、2つのドライブ・セグメントをマッチングさせることが可能であることである。動作は、ドライブ・マッチャーが、現在、ある時点からの(過去のみでない)全ドライブを有する唯一の差がある、ローカライゼーションによって実施されるものと全く同様である。したがって、例示的な実施例は、ドライブ・セグメントの中央に中心を置かれた姿勢尤度空間にすべての証拠をもたらすために、いくつかの例において修正された同じ機構を使用することができる。別の代替形態は、フル6DOF反復最近点プロシージャを使用することである。実施例は、それらのGPSトレースによって判定されたものと同様である、固定の長さ、例えば、50mのセグメントにマッチすることができ、マッチの結果は、セグメント内の(例えば、セグメントの中間の近くの)姿勢間の6DOF姿勢リンクである。
ドライブ・グラフは、マッピング・エフォートの全範囲にわたって、できるだけ多くの有望なマッチについてドライブ・マッチングを系統的に実施することの結果である。ドライブ間の姿勢リンクへの参照は、それらが、ドライブ・セグメントから容易に見つけられ得るようなやり方で記憶される。したがって、前の方に及び後の方にドライブをトラバースすることを可能にする、ドライブ・ストアと組み合わせ、姿勢リンクは、それらが、最も良くマッチングされることが予想される場所におけるマッチングされたドライブ間のホッピングを可能にする。
上記で説明されたドライブ・グラフは、(例えば、GPS座標を介して)にインデックスを付けられ得るが、ドライブ・セグメントは、ドライブ・マッチングを通して、生GPS座標が可能にするよりも潜在的に正確に関係し、例示的な実施例は、(GPS oneのような)共通グローバル座標系へのすべてのドライブを強制しない。何らかのエンティティの座標は、常に、何らかの他の参照に対するものである。GPS事例では、基準システムは、衛星のコンスタレーションである。写真測量では、座標系の選定はゲージと呼ばれる。ゲージの異なる選定は、物を別様に不確実に見えるようにする。例えば、三角測量されたランドマーク点に基づくゲージは、点をより確実に見えるようにすることになるが、カメラ位置をあまり確実に見えないようにすることになり、その逆も同様である。同様に、車線境界線又は停止線がどこにあるかについての基準として衛星のシステムを使用することは、衛星に対するその車線境界線又は停止線をローカライズする能力による精度を制限することになる。実施例が、代わりに、車線境界線又は停止線が観測された基準ドライブを使用する場合、精度は、基準ドライブに現在のドライブを登録する能力と同じくらい高いことがある。それは、実施例が、衛星システム及びバックを介して行く代わりに、車両の近くにある視覚/LIDAR/レーダ・ランドマークに依拠するので、より正確であることがある。いくつかの実施例は、したがって、GPS座標系ではなくドライブに関して定義された座標系で作用する。いくつかの実施例では、各タイルの最適精度は、衛星に対してでなく、タイルの自体の座標系に対してであり、それタイル間の関係は、1つのタイルの座標系をそれの近隣のタイルの座標系に関係付ける姿勢リンクを通して考察される(又は作業が、独立して各タイルにおいて実施され得、これも機能的手法である)。
座標系を常に再評価する必要なしにタイルにおけるドライブで作用することの単純さのために、例示的な実施例は、タイル・マップを構成する。図60を参照。これは、各ドライブと、それが登録されるGPSタイルの各々との間の姿勢リンクの追加に達する。すなわち、例示的な実施例は、例えば、50m正方形タイルにおいて、GPS座標系に基づいてタイルに地球をタイリングし、各ドライブについて、(〜10mGPS不確実性でほぼ定義された)それが通過するか又はほぼ通過したタイルの各々へのドライブからの双方向インデックス・リンクを登録した。各タイルについて、実施例は、それが、ドライブ・マッチングを通してリンクされたすべてのドライブにマッチすることを試み、いくつかの姿勢リンク、及びドライブのいくつかの接続成分を生じる。これらの接続成分は、例えば、あるルート・ドライブから開始するダイクストラ・プロシージャを実施することによって、姿勢リンクを介して同じ座標系に変換され得る。これは、GPSが可能にするであろうよりも潜在的に正確であるそれらのドライブの登録を生じる。最終ステップとして、例示的な非限定的な実施例は、例えば、各GPS観測についての依存しないロバスト化されたガウス・エラーを加えた、(大気条件バイアスをモデル化することなど)各ドライブについての単一のトランスレーションのオフセットのモデルを用いて、(おのずと、すべてのクラスタリングされたドライブからのすべてのGPS観測に基づいてGPS座標系に連帯して登録されたドライブを整合させる転換(単一の転換)を見つけるために最善を尽くす。これは、実施例が、タイルに登録するために多くのバイアス補正されたGPS測定値を一緒に結合するために、非常に正確なランドマーク整合を潜在的に活用しているので、個々のGPS測定値さらにはトレースよりも正確に各接続成分を登録する可能性を有する。これは、「視覚ランドマーク・ベース差分GPS」に類似する。
とはいえ、タイル間の関係が「保証されない」ので、実施例はまた、各タイルにおける各接続成分と、近隣のタイルにおける接続成分(及び、適用可能な場合、同じタイル)との間の姿勢リンクを推定及び記憶する。これらの姿勢リンクは、常に存在するとは限らないことがあり、これは、当該の接続成分間の登録が、GPS精度よりも正確に知られないことを意味する。あるセグメントから次のセグメントへのドライブに追従するとき、ドライブ自体は、(それが、相対チェーンとして記録されるので)2つのタイル間の自然姿勢リンクである。タイル・マップは、2つの異なるタイルへのドライブの登録を有し、チェーンが、タイル間の境界においてどこかで破壊されたときはいつでも、ドライブ内の姿勢リンクは、(タイルの1つへの)それの前の姿勢、及び(他のタイルへの)それの後の姿勢の登録にわずかに同意しないことになる。したがって、その姿勢リンクは、タイル間の予想されたグリッチを知らせるタイル間の姿勢リンクを与える。実施例は、個々のドライブで直接作用するか、又は2つの接続成分を結合し、タイル間のそれらの姿勢リンクをジョイント推定値に融合させるすべてのドライブを使用することができる。
ローカライゼーションの目的で、例示的な実施例は、タイル・グラフ中の各タイルの各接続成分のランドマーク情報を融合させる。整合の後、これは、道路マーキング、道路境界、垂直ランドマーク、交通標識、交通信号、静止レーダ目標及びポイント・クラウド表面など、ランドマークを関連づけること、それらを重複排除すること、及びそれらに最良推定値を与えることに達する。一般に、登録が、ベスト・エフォートに対処されたので、これは、概念的に、何らかの放射状に減衰するサポート測定カーネルに基づいて、何らかの関係する半径をもつ非最大抑圧を使用してピーク・サポートを見つけることに達する。ローカライゼーション・タイルのコンパクトな符号化は、次いで、マップ・ストリームの符号化と同様に実施される。
ローカライゼーションは、タイルごとに(又はより正確には、タイルにおける接続成分ごとに)進む。タイルのエッジに接近するとき、接続成分間の姿勢リンクは、次のタイルからの接続成分を測位するために使用される。
登録に直接関係しないデータは、メタデータと呼ばれる。メタデータは、2つの異なるクラス、すなわち、運転を直接助けるものと、真に補助データであるものとに分割される。例えば、運転を助けるメタデータのタイプは、交差部の所在地及び待機条件、どの交通信号のどの状態が、どの車線軌跡が進む(又は進むが道を譲る)ことを可能にするか、どのエリアにおいて多方向停止における競合するトラフィックを探すべきか、駐車場の所在地、及び軌跡統計値である(とはいえ、後者はコア登録データから抽出される)。さらなる補助データの例は、どのアドレスがどのビジネスに対応するか、日の特定の時間及び特定曜日における特定の車線におけるトラフィックの一般的な密度がどれほどであるか、である。登録実装形態からメタデータ機能を分離するために、ユーザは、ドライブ・ストアに入っているドライブのいずれかの車両姿勢に対して1つのメタデータを挿入することを可能にされる。情報が、GPSレベル正確さにおいてのみである場合、これは、単に、GPS座標に対してそれを挿入することによって処理され得る。しかしながら、情報が、より高い正確さを必要とする場合、要求は、ユーザに座標系アンカーを発行するコア登録レイヤによって処理される。ユーザの観点から、座標系アンカーはGUIDであり、座標系は、車両の現在の姿勢に対して表される。コア登録レイヤによってサービスされる機構は、同じGUIDがユーザによって指される場合、登録は、(ベスト・エフォートに)GUIDがユーザに与えられたときに使用されたものと同じ座標系を復元することになることである。より高いレベルのサービス成分が、次いで、コア登録レイヤによって発行された座標系を参照することによって、正確に測位され、方位付けされた情報を挿入及び検索することができる。この機構は、データのストレージ及び所有権を、それの正確な登録をサポートするサービスから分離することを可能にする(とはいえ、正確な測位は、コア登録サービスに依存する)。
タイル・マップによって暗示されるドライブ・レイアウトにおいて、実施例は、十分な共通サポートを有するセグメントを探し、それにより、運転をサポートする車線グラフを導出する。サポートは、少なくとも一定数のセグメントに、(30cmなど)何らかのトランスレーション偏差及び(5度など)方位性偏差未満をもつ同じ経路に追従させることによって測定され得る。
マップ中の経路情報が、追従するべき「切替え可能レール」のグリッドを与える場合、待機条件は、それが、車両の前の障害物により直ちに明らかでないことがある場合に、待機又は減速を必要とし得る縦方向制約である。マッピングは、実施例が、ライブ認知よりも情報を用いてこれらを推定することを可能にする。太線セグメントによって示されているように、マップ上の待機条件を示す図61を参照。
マップ・マッチングは、ローカライゼーションされたマップと他の既存のマップとの間の対応を見つける。これは、出口の名前、当該の点、住所、及び人間が理解できるルーティング先など、補助情報を、ローカライゼーションされたマップに注入する。経路以外の追加の定義情報を概略的に示す代表ビューを示す、図62を参照。それは、補助情報のいくつかのプロバイダに適応する複数の形態でもたらされる可能性がある。
例示的な実施例は、プランニング階層を使用する。図63を参照。概念的に、ルート・プランナー3004eは、都市外のルートのためのスコアを与える国のスケールにおいて実行し、エリア外のルートのためのスコアを与える都市のスケールにおいて実行し得る。次いで、最も望ましい挙動の要求を見つけ出す、次の少数のブロックのための車線シーケンスのためのスコアを与える車線プランナー3004cがある。次いで、車線変更又は車線中にとどまることなど、異なる挙動の実現可能性をスコアリングするか又はそれをただ判定するための挙動プランナー3004a、3004bがある。最後に、挙動選択3004dは、最も望ましい実現可能な挙動として行われ、制御3006及び作動3008に受け渡される。車線変更など、いくつかの挙動について、実施例は、それが、行われたか又は中止されたと判定されるまで、それをスティックする。プランニングは、(より小規模のプランニング・レイヤについてより高くなり得る)何らかの頻度で繰り返される。
ルート・プランナー3004eは、ルート・マップ及び目標ノード及び現在のノードから大規模マップグラフを取る。目標ノード及び現在のノードは、GPS目標点及び最後の知られている良好なGPS示度に基づいて、単純な最近傍ルックアップによって取得されていることがある。ルート・プランナー3004eは、いくつかの実施例では、(グラフが小さい場合、A*/D*又はダイクストラなど)グラフ探索アルゴリズムを実行する。それは、現在のノードから目標ノードへのグラフを通して最善ルートを返す。大規模問題の場合、これは、ハイウェイのみがあるより単純なグラフをもつ米国大陸スケールにおいて、及びより詳細なグラフをもつ都市スケールにおいてなど、階層的に起こり得る。階層プランニングは、十分に遠くに(一方、より小規模のプランナーの範囲内に)あるより大規模のプランからの中間点を使用する、(プランニングのグラニュラリティ間の差による)ハンドオフ点における任意の潜在的グリッチは無視できること。(階層的に行われるかどうかにかかわらず)ルート・プランニングは、全体として、GPS中間点のリストからなる計画された経路を作成する。そのような中間点は、車線プランナーのための目標として使用される(例えば、キロメートルなど)将来へのいくつかの都市ブロックの中間点を含む。他の実施例は、詳細なプランナーの次のレベルのための複数の代替形態のための各プランナー出力コストを有する。
車線プランナー3004cは、入力としてルート・プランナー3004eの出力を取る。それは、マッピングされた車線グラフ(及び高性能ローカライゼーションによるそれの内の対象物姿勢)及びルート・プランナーからの将来へのいくつかの都市ブロックにおける目標点及び方向で作用する。目標点及び方向は、(一般に、GPS及びコンパス方向を使用して)車線グラフ中の最良のマッチング・ドライブ可能な点及び方向にマッピングされる。次いで、グラフ探索アルゴリズムが、目標点への最短経路を見つけるために、車線グラフ中の現在のエッジから車線グラフ上で実行される。現在の点において、及び車線変更を有する車線グラフ中の各エッジの始まりにおいて開始する車線変更が含まれる。車線変更は、車線変更が直ちに始められる場合、より少ない(例えば、25m)距離ペナルティ(例えば、50m)を用いてペナルティが与えられ、したがって、車線変更が必要とされる場合、それは、利用可能なとき、注意をもって実施されることが計画される。
挙動プランナー3004は、車線中にとどまること或いは左又は右に車線を変更することなど、基本挙動の実現可能性を判定し、したがって、実現可能な挙動は、車線プランナー3004cからの最も望まれる挙動とマッチ・アップされ得る。車線変更が、安全で利用可能であると判定されなかった場合、デフォルト挙動は、車線中にとどまることである。基本挙動プランナー3004aによってテストされる主要な3つの挙動は、車線中にとどまること、車線プランナーが要求したものとのマッチを最大にするために車線グラフ中の任意の分岐又は選定に追従すること、或いは左又は右に車線を変更し、マッチを最大にすることである。
高性能挙動プランナー3004bは、基本挙動プランナー3004aよりも自由形態前方軌跡を考慮する。それを行うために、高性能挙動プランナー3004bは、基本短期プランナー3004aへの入力に加えて、入力として動的占有グリッド3102を取る。高性能挙動プランナー3004bは、次いで、方向転換の変動する量を用いて端部においてわずかに横方向にオフセットされた経路など、当該の挙動のための公称経路の周りの経路のファンを生成する。原則として、経路の任意のファミリーが使用され得るが、経路の2次元又は3次元ファミリーが、妥当な選定得る。高性能挙動はまた、対象物トラックを考慮に入れることができる。経路は、動的占有グリッドと比較され、それにより、安全性並びに、快適さ及び公称経路との合致など、望ましいものについて検査される。
挙動セレクタ3004dは、挙動プランナー3004a、3004bの出力、及び車線プランナー3004cからの要求に基づいて、何らかの単純論理を実施する。自己車両がすでに車線変更中にあるのでない限り、以下の論理が、いくつかの実施例によって適用される。車線プランナー3004cが、自己車両が車線中にとどまることを要求した場合、それは、単に、車線中にとどまる(これは、実施例が、車線グラフ中の主要な車線からの中心経路をコントローラ3006に受け渡すことを意味する)。車線変更が車線プランナー3004cによって要求された場合、実施例は、それが、車線グラフよって利用可能で、安全で、挙動プランナー3004a、3004bによる激しいブレーキングを用いないと判定されたとすれば、それを開始する。
プランニング3004と制御3006との間の線引きは、多くの実装形態において正確に定義されない。コントローラ・モジュール3006のタスクは、できるだけ近接して挙動セレクタ3004dから送られた、及び自己車両によって実装され得る何かに近接する前方軌跡(横方向及び縦方向)選定に追従することである。例えば、図64を参照。コントローラ3006は、未計画イベント、又はモデル化されない挙動、又は予想されない遅延など、理想からの相違を引き起こす何かを扱うためにタイトなフィードバックを使用する。いくつかの実施例では、コントローラ3006は、プランナーと同様に、入力変数として制御を取る前方予測モデルを使用する。前方予測モデルは、望まれる状態(この場合、要求される横方向及び縦方向経路)と比較され得る予測を作成する。相違を最小限に抑える制御が、時間フィルタ処理を用いて見つけられる。(標準PIDコントローラにおけるなど)時間フィルタ処理は、時間要素がない場合、任意の非モデル化された遅延が、発振を生じ得るので、いくつかのコンテキストにおいて有用である。基本純粋探求モデルにおいて、単純な前方予測モデルは、相違が測定される単一のルックアヘッド点とともに使用され得る。
本技術は、警察又は企業セキュリティのいずれかによって使用される、自律運転パトロール・カーのためにも使用され得る。自律運転パトロール・カーは、パトロール及びセキュリティ機能のために設計された追加の特徴をもつ、上記で説明された自律運転車両(50)の修正バージョンである。自律運転パトロール・カーとして使用されるとき、本技術は、車両本体と、車両を制御するための高性能システム・オン・チップをもつコンピュータと、パトロール及び/又は安全機能を実施するように訓練された1つ又は複数のニューラル・ネットワークとを含む。例えば、自律運転パトロール・カーは、車のDLA上で実行し、(1)他の車両のナンバー・プレート、メーカー、若しくは外観(例えば、モデル、色)のうちの1つ又は複数を識別することによる、少なくとも1つの他の車両、(2)交通事故、(3)自転車運転者、歩行者、又は他の居合わせた人など、負傷者、(4)火事、(5)人々の間の対立、(6)侵入又は麻薬取引など、犯罪行為、或いは(7)なぎ倒された木、電力線、破片、又はくぼみなど、道路ハザードのいずれかを識別するように訓練されたCNNを含み得る。
で説明したセンサの多くを含む。さらに、トレーラ(55)は、重量重心センサ(82)を含み、このセンサは、トレーラの重量及び重量分布に関する情報をコントローラ(100)に提供する。トレーラはさらに、2つの慣性センサ(82(1)及び82(2))を含み、このセンサは、トレーラの速度、ヨー、ピッチ、ロールに関する情報をコントローラ(100)に提供する。
Claims (604)
- システム・オン・チップであって、
仮想化をサポートする少なくとも1つのCPUと、
超並列処理を提供する少なくとも1つのGPUと、
少なくとも1つのコンピュータ・ビジョン・ハードウェア・ベース・アクセラレータと、
少なくとも1つのディープ・ラーニング・ハードウェア・ベース・アクセラレータと
を特徴とし、
少なくとも1つのメモリ・デバイス・インターフェースが、システム・オン・ザ・チップによって実行されると前記システム・オン・チップが自動運転車両コントローラとして動作することを可能にする命令を記憶する少なくとも1つのメモリ・デバイスに前記システム・オン・チップを接続するように構造化されることをさらに特徴とする、
システム・オン・チップ。 - 前記システム・オン・チップが、前記自動運転車両コントローラが、SAE規格J3016によって定義されたレベル5完全自動運転に実質的に準拠することを可能にするように構造化及び設計されることをさらに特徴とする、請求項1に記載のシステム・オン・チップ。
- 前記システム・オン・チップが、前記自動運転車両コントローラが、ISO規格26262によって定義された完全性レベル「D」に実質的に準拠することを可能にするように構造化及び設計されることをさらに特徴とする、請求項1又は2に記載のシステム・オン・チップ。
- システム・オン・チップであって、
仮想化をサポートする少なくとも1つのCPUと、
超並列処理を提供する少なくとも1つのGPUと、
少なくとも1つのコンピュータ・ビジョン・ハードウェア・ベース・アクセラレータと、
少なくとも1つのディープ・ラーニング・ハードウェア・ベース・アクセラレータと
を特徴とし、
少なくとも1つのメモリ・デバイス・インターフェースが、システム・オン・ザ・チップによって実行されると前記システム・オン・チップが自動運転車両コントローラとして動作することを可能にする命令を記憶する少なくとも1つのメモリ・デバイスに前記システム・オン・チップを接続するように構造化されることをさらに特徴とする、システム・オン・チップ。 - 前記少なくとも1つのCPU、前記少なくとも1つのGPU、前記少なくとも1つのコンピュータ・ビジョン・ハードウェア・ベース・アクセラレータ、及び前記少なくとも1つのディープ・ラーニング・ハードウェア・ベース・アクセラレータが、前記自動運転車両コントローラが、国際標準化機構の規格26262によって定義された完全性レベル「D」に実質的に準拠することを可能にするように構造化及び相互接続されることをさらに特徴とする、請求項4に記載のシステム・オン・チップ。
- 自動運転車両を制御するためのシステムであって、
CPUと、GPUと、ディープ・ラーニング・アクセラレータとを含む少なくとも1つのシステム・オン・チップと、
前記システム・オン・チップに接続された少なくとも1つのメモリ・デバイスであって、前記CPU、前記GPU、及び/又は前記ディープ・ラーニング・アクセラレータによって実行されると、国際標準化機構の規格26262によって定義された自動車安全完全性レベルDに実質的に準拠する自動運転車両制御を提供する命令を記憶するメモリ・デバイスをさらに特徴とする前記少なくとも1つのシステム・オン・チップ
を特徴とする、自動運転車両を制御するためのシステム。 - 前記システム・オン・チップが、国際標準化機構の規格26262における安全完全性レベルDに実質的に準拠する自動運転車両制御を提供する少なくとも1つのコンピュータ・ビジョン・アクセラレータを含むことをさらに特徴とする、請求項6に記載の自動運転車両を制御するためのシステム。
- システム・オン・チップであって、
少なくとも1つのコンピュータ・ビジョン・アクセラレータと、
少なくとも1つのディープ・ラーニング・アクセラレータと
を特徴とし、
前記コンピュータ・ビジョン・アクセラレータ及び/又は前記ディープ・ラーニング・アクセラレータによって実行されると国際標準化機構の規格26262によって定義された機能安全完全性レベル「D」に実質的に準拠する自動運転車両制御を可能にする自動運転車両制御命令を記憶する少なくとも1つのメモリ・デバイスに前記システム・オン・チップを接続するための少なくとも1つのメモリ・デバイス・インターフェースをさらに特徴とする、システム・オン・チップ。 - 車輪によって支持される本体と、
パワー・トレインと、
センサと
を特徴とし、
前記パワー・トレイン及び前記センサに結合されたシステム・オン・チップであって、前記センサからデータを受け取り、前記パワー・トレインを少なくとも一部は制御し、
仮想化をサポートする少なくとも1つのCPUと、
超並列処理を提供する少なくとも1つのGPUと、
少なくとも1つのコンピュータ・ビジョン・ハードウェア・ベース・アクセラレータと、
少なくとも1つのディープ・ラーニング・ハードウェア・ベース・アクセラレータと、
システム・オン・ザ・チップによって実行されると前記システム・オン・チップが自動運転車両コントローラとして動作することを可能にする命令を記憶する少なくとも1つのメモリ・デバイスに前記システム・オン・チップを接続するように構造化された少なくとも1つのメモリ・デバイス・インターフェースと
を含むシステム・オン・チップをさらに特徴とする、自動運転車両。 - 前記システム・オン・チップが、前記自動運転車両コントローラが、ISO規格及びSAE規格の下で完全性レベル「D」におけるレベル3〜5自動運転車両性能に実質的に準拠することを可能にするように構造化及び設計されることをさらに特徴とする、請求項9に記載のシステム・オン・チップ。
- センサ・データを前処理するためのプリプロセッサと、
前記プリプロセッサからの前処理されたセンサ・データからアフォーダンスを認知するための1つ又は複数の認知器と、
ワールド・モデルに少なくとも一部は基づいて生成されたルート計画を実行するためのナビゲータと
を特徴とし、
前記1つ又は複数の認知器からの前記認知されたアフォーダンスに少なくとも一部は基づいて維持されるワールド・モデルをさらに特徴とする、自動運転車両制御システム。 - 前記1つ又は複数の認知器が、
障害物アフォーダンスを認知するための障害物認知器と、
経路アフォーダンスを認知するための経路認知器と、
待ち状態アフォーダンスを認知するための待ち状態認知器と、
地図アフォーダンスを認知するための地図認知器と
を含む前記複数の認知器からの少なくとも1つの認知器を備えることをさらに特徴とする、請求項11に記載のシステム。 - 前記1つ又は複数の認知器が、少なくとも地図アフォーダンスを認知するための前記地図認知器を含むことをさらに特徴とし、前記システムが、
前記地図認知器からの出力に基づいて自動運転車両のためのローカライゼーションを実行するためのローカライザを備える
ことをさらに特徴とする、請求項12に記載のシステム。 - 前記ローカライザが、前記地図認知器からの前記出力とマッピング・データ・プロバイダからの地図データを処理することによって、前記自動運転車両のためのローカライゼーションを実行することをさらに特徴とする、請求項13に記載のシステム。
- 前記マッピング・データ・プロバイダがクラウド・マッピング・データ・プロバイダを含むことをさらに特徴とする、請求項14に記載のシステム。
- 前記プリプロセッサが、
車線プリプロセッサと、
自己較正器と、
エゴ・モーション推定器と、
軌跡推定器と
を含むプリプロセッサのリストからの少なくとも1つのプリプロセッサを備えることをさらに特徴とする、請求項11に記載のシステム。 - 前記センサ・データが、
カメラ・センサと、
LIDARセンサと、
レーダ・センサと、
慣性測定ユニットと
を含むセンサのセットからの1つ又は複数のセンサによって生成されたデータを含むことをさらに特徴とする、請求項16に記載のシステム。 - 前記自己較正器が、前記1つ又は複数のセンサに対する自己較正を実行することをさらに特徴とする、請求項17に記載のシステム。
- 前記自己較正器が、前記1つ又は複数のセンサによって作成されたセンサ出力及びセンサ基準データのセットに基づいて前記1つ又は複数のセンサに対する自己較正を実行することをさらに特徴とする、請求項17に記載のシステム。
- 前記センサ・データがカメラ・センサ・データと、LIDARセンサ・データとを含み、前記車線プリプロセッサが、少なくとも前記カメラ・センサ・データ及び前記LIDARセンサ・データに基づいて車線検出を実行することをさらに特徴とすることをさらに特徴とする、請求項16に記載のシステム。
- 前記プリプロセッサが軌跡推定器を備え、前記センサ・データがLIDARセンサ・データを含み、前記1つ又は複数の認知器が障害物認知器を含むことをさらに特徴とし、
前記障害物認知器が、少なくとも前記LIDARセンサ・データ及び前記軌跡推定器からの軌跡推定に基づいて障害物アフォーダンスを認知することをさらに特徴とする、請求項16に記載のシステム。 - 前記ナビゲータが、
前記ワールド・モデルに基づいてルート計画を生成するためのルート計画器と、
前記ルート計画に基づいてルートを完成させるために1つ又は複数の制御動作を生成するための制御計画器と、
前記ルート計画を実行するために前記1つ又は複数の制御動作を実行するためのアクチュエータと
を備えることをさらに特徴とする、請求項11に記載のシステム。 - 前記1つ又は複数の認知器が障害物認知器を含むことをさらに特徴とし、
前記障害物認知器の出力が、
動的占有率グリッドと、
空き空間アフォーダンスと、
1つ又は複数の認知された対象物に対応する軌道のセットと
を含む出力のリストからの少なくとも1つの出力を含むことをさらに特徴とする、請求項12に記載のシステム。 - 前記1つ又は複数の認知器が経路認知器を含むことをさらに特徴とし、
前記経路認知器の出力が、追従車線グラフを含むことをさらに特徴とする、請求項12に記載のシステム。 - 前記1つ又は複数の認知器が、障害物認知器と、経路認知器と、待ち状態認知器とを含むことをさらに特徴とし、
経路内判定が、
空き空間アフォーダンス及び前記障害物認知器からの1つ又は複数の認知された対象物に対応する軌道のセット、
前記経路認知器からの追従車線グラフ、並びに
前記待ち状態認知器からの1つ又は複数の待ち状態の識別
に基づいて生成されることをさらに特徴とする、請求項12に記載のシステム。 - 前記経路内判定が、前記障害物認知器、経路認知器、及び待ち状態認知器からの出力によって連続的に更新されることをさらに特徴とし、
前記ワールド・モデルが前記経路内判定に基づいて維持されることをさらに特徴とする、請求項25に記載のシステム。 - カメラ・センサから画像データを受け取るために接続されたカメラ方位較正器と、
LIDARセンサからLIDARデータを受け取るために接続されたLIDAR方位較正器と、
レーダ・センサからレーダ・データを受け取るために接続されたレーダ方位較正器と
を特徴とし、
前記カメラ方位較正器、前記LIDAR方位較正器、及び前記レーダ方位較正器のうちの少なくとも1つが、前記較正器が受け取るデータを提供するセンサ以外のセンサの方位を較正するために使用されるデータを生成することをさらに特徴とする、
車両自己較正器。 - ワールド・モデルを記憶するワールド・モデル記憶域と、
クラウド・ベース・マッピング・システムと通信する通信器であって、前記クラウド・ベース・マッピング・システムから地理情報を受信し、前記受信された地理情報に応じて前記記憶されたワールド・モデルを更新する通信器と、
障害物及び所在地キューを検出するために新着画像及び他のセンサ入力データを処理するように構成された超並列センサ入力プロセッサと、
前記超並列センサ入力プロセッサ及び前記記憶されたワールド・モデルに動作可能に結合された車線追従エンジンであって、ディープ・ラーニング・ハードウェア・アクセラレータとともに加速された少なくとも1つのニューラル・ネットワークを使用して、車両を車線内で運転させるために挙動制御信号を生成する車線追従エンジンと
を備える運転制御システム。 - 前記車線追従エンジン及び超並列センサ入力プロセッサが、互いと相互接続された複数のシステム・オン・チップを備える処理構成において実施されることをさらに特徴とする、請求項28に記載の運転制御システム。
- 前記処理構成が、仮想マシンに、実行中の高性能アプリケーションを提供し、前記仮想マシンが、前記実行中の高性能アプリケーションを隔離することをさらに特徴とする、請求項29に記載の運転制御システム。
- 前記仮想マシンが、前記複数のシステム・オン・チップとは別であるマイクロコントローラを含むエラー報告チェーンにエラーを報告するエラー・モニタを含むことをさらに特徴とする、請求項30に記載の運転制御システム。
- 前記エラー・モニタがディープ・パケット・エラー検出器を含むことをさらに特徴とする、請求項31に記載の運転制御システム。
- 軌跡推定器が、車両姿勢のシーケンスとしてパラメータ化され、オドメトリ及び/又は慣性センシングに少なくとも一部は基づいて実行される深度マッピングに少なくとも一部は基づいて動作することをさらに特徴とする、請求項28に記載の運転制御システム。
- 動的占有率グリッドが、空間次元と時間次元とを有する体積測定配列であることをさらに特徴とする、請求項28に記載の運転制御システム。
- センサ自己較正器が、検知された垂直ランドマーク及び/又は検知された接地平面に少なくとも一部は基づいて少なくとも1つの方位用センサを較正するように構成されることをさらに特徴とする、請求項28に記載の運転制御システム。
- 経路内及び自由形式待ち状態処理をさらに特徴とする、請求項28に記載の運転制御システム。
- 挙動計画器、車線計画器、及びルート計画器を特徴とし、前記挙動計画器が前記車線計画器に入力を提供し、前記車線計画器が前記挙動計画器入力を処理し、前記ルート計画器への適用のための出力を生成し、前記ルート計画器が、前記記憶されたワールド・モデルと協働して、前記ワールド・モデルを通るルートを計画する、請求項28に記載の運転制御システム。
- 処理コアが仮想マシンに割り振られることを特徴とする少なくとも1つのシステム・オン・チップと、
ハードウェアにおいて又はその近くで動作するハイパーバイザであって、前記仮想マシンによるGPUなどの処理リソースの使用をスケジュールするハイパーバイザと
を特徴とし、
前記仮想マシンのうちの少なくとも1つが、侵入攻撃を検出及び軽減するニューラル・ネットワークを含む、
仮想化運転制御システム。 - 処理コアが複数のパーティションに割り振られることを特徴とする少なくとも1つのシステム・オン・チップと、
前記複数のパーティションによる処理リソースの使用をスケジュールするハイパーバイザと
を特徴とし、
前記パーティションのうちの少なくとも1つが、侵入攻撃を検出及び軽減するニューラル・ネットワーク・ベース・セキュリティ・パーティションを特徴とする、
パーティション化された運転制御システム。 - 複数のパーティションに割り振られた処理コアが高性能アプリケーションを実行することを特徴とする少なくとも1つのシステム・オン・チップと、
前記複数のパーティションをモニタするウォッチドッグ・モニタであって、前記実行中の高性能アプリケーションをモニタし、エラー状態を検出し、検出されたエラー状態を、前記複数のパーティションから隔離された安全パーティションに報告するように構造化されるウォッチドッグ・モニタ
を特徴とするパーティション化された運転制御システム。 - 前記安全パーティション及び前記複数のパーティションが異なるハードウェア上で動作することをさらに特徴とする、請求項40に記載のパーティション化された運転制御システム。
- 前記安全パーティション及び前記複数のパーティションが、同じハードウェア上で動作する異なる仮想マシンを備えることをさらに特徴とする、請求項40に記載のパーティション化された運転制御システム。
- 前記安全パーティションが安全プロセッサ・コア上で実行することをさらに特徴とする、請求項40に記載のパーティション化された運転制御システム。
- 前記安全処理コアが前記システム・オン・チップの一部であることをさらに特徴とする、請求項43に記載のパーティション化された運転制御システム。
- 前記安全処理コアが前記システム・オン・チップの一部でないことをさらに特徴とする、請求項43に記載のパーティション化された運転制御システム。
- 前記安全処理コアが前記システム・オン・チップの一部であり、前記システムが、前記システム・オン・チップの一部でない追加の安全処理コアをさらに含むことをさらに特徴とし、前記システム・オン・チップの一部である前記安全処理コアが、前記システム・オン・チップの一部でない前記追加の安全処理コアと通信することをさらに特徴とする、請求項43に記載のパーティション化された運転制御システム。
- 前記追加の安全処理コアが、エラー信号ピンを介してエラー信号を受け取るために接続されることをさらに特徴とする、請求項46に記載のパーティション化された運転制御システム。
- 前記追加の安全処理コアが、前記システム・オン・チップの一部でない前記追加の安全処理コアが前記システム・オン・チップの一部である前記安全処理コアと通信することを可能にするバス上でチャレンジ/レスポンス・プロトコルを実行することをさらに特徴とする、請求項46に記載のパーティション化された運転制御システム。
- 前記ウォッチドッグ・モニタがハードウェア・エラー検出器を含むことをさらに特徴とする、請求項40に記載のパーティション化された運転制御システム。
- ワールド・モデルと、
前記ワールド・モデルに接続された1つ又は複数の認知器であって、障害物、経路、待ち状態、及び地図認知器を特徴とし、ディープ・ラーニング・アクセラレータを含む少なくとも1つのシステム・オン・チップ上で実行する1つ又は複数の認知器と、
少なくとも前記地図認知器と通信するクラウド・ベース・システムであって、運転履歴及び/又は複数の車両の運転に基づいた前記モデルの更新を可能にするクラウド・ベース・システム
を特徴とする車両制御プラットフォーム。 - 挙動計画器と、
車線計画器と、
ルート計画器と、
挙動選択器と
を特徴とし、
前記挙動計画器、前記車線計画器、及び前記ルート計画器が、階層的に相互接続され、1つ又は複数のハードウェア・ベース・ディープ・ラーニング・アクセラレータを使用して実行することをさらに特徴とする、
車両コントローラ。 - ルートをマップするように構成されたルート・マッパーと、
ローカライズされたジオ・データを判定するように構成されたローカライザと、
少なくとも前記ルート・マッパー及び前記ローカライザに動作可能に結合されたクラウド・ベース・マッチャー及びタイラーと
を特徴とし、
前記ルート・マッパーが、ハードウェア・アクセラレータを用いて超並列処理された多次元センサ・データの結果を処理することをさらに特徴とする、
ASIL D 自動運転車両コントローラ。 - CPU
を特徴とし、
ディープ・ラーニング・アクセラレータをさらに特徴とする、
自動運転車両コントローラ。 - CPU
を特徴とし、
仮想化実行システムをさらに特徴とする、
自動運転車両コントローラ。 - CPU
を特徴とし、
レイ・トレーシング・アクセラレータをさらに特徴とする、
自動運転車両コントローラ。 - CPU
を特徴とし、
ニューラル・ネットワークに結合されたワールド・モデルをさらに特徴とする、
自動運転車両コントローラ。 - CPU
を特徴とし、
安全モニタMCUをさらに特徴とする、
自動運転車両コントローラ。 - CPU
を特徴とし、
3レベル安全モニタをさらに特徴とする、
自動運転車両コントローラ。 - パワー・トレインと、
ディープ・ラーニング・アクセラレータを含むコントローラと
を備える自動運転車両。 - パワー・トレインと、
ディープ・ラーニング・アクセラレータを含むSOCと
を備える自動運転車両。 - パワー・トレインと、
ASIL D SOCコントローラと
を備える自動運転車両。 - CANバスと、
ASIL D SOCと
を備える自動運転車両。 - カメラ・データを前処理する超並列プロセッサを備えるGPUと、
ASIL D SOCと
を備える自動運転車両。 - パワー・トレインと、
1つよりも多く3つよりも少ないSOCを備える自動運転コントローラと
を備え、
前記コントローラがASIL Dに実質的に準拠する、
自動運転車両。 - パワー・トレインと、
1つよりも多く3つよりも少ないSOCを備える自動運転コントローラと
を備え、
前記コントローラが、完全な自動運転車両動作のためにASIL Dに実質的に準拠する、
自動運転車両。 - ブレーキ・システムと、
前記ブレーキ・システムを自動的に作動させるコントローラであって、各々がディープ・ラーニング・アクセラレータを含む、1つよりも多く3つよりも少ないSOCを備えるコントローラと
を備える自動運転車両。 - ブレーキ・システムと、
前記ブレーキ・システムを自動的に作動させるコントローラであって、仮想パーティションをモニタするマルチレベル安全モニタを備えるコントローラと
を備える自動運転車両。 - ビデオ・ストリーミング・センサと、
各々がディープ・ラーニング・アクセラレータを含む、1つよりも多く3つよりも少ないSOCを備えるコントローラであって、前記センサの出力のディープ・パケット・インスペクションを実行するコントローラと
を備える自動運転車両。 - CPUと、
GPUと、
メモリと、
3レベル安全モニタと
を備えるSOC。 - ハウジングと、
冷却ファンと、
その上に第1のSOC及び第2のSOCを有する基板であって、前記第1のSOC及び前記第2のSOCのうちの少なくとも1つがディープ・ラーニング・アクセラレータを含む、基板と
を備え、
コントローラ・モジュールが、ISO規格26262によって定義されるASIL Dに実質的に準拠する、
自動運転車両コントローラ・モジュール。 - 前記SOCのうちの少なくとも1つがリアル・タイム・レイ・トレーシング・アクセラレーション・ハードウェアを含む、請求項70に記載のモジュール。
- 前記レイ・トレーシング・ハードウェアが空間衝突解析を実行するように構成される、請求項71に記載のモジュール。
- 前記第1のSOCと前記第2のSOCとの間の高速通信を提供するバスをさらに含む、請求項70に記載のモジュール。
- 前記バスが第3のSOCへの拡張を提供する、請求項73に記載のモジュール。
- 前記第1のSOC及び前記第2のSOCと通信する安全モニタ・マイクロコントローラをさらに含む、請求項70に記載のモジュール。
- 前記第1のSOC及び前記第2のSOCが各々、前記安全モニタ・マイクロコントローラと通信するウォッチドッグ・モニタを含む、請求項75に記載のモジュール。
- 前記ウォッチドッグ・モニタがソフトウェアを備える、請求項76に記載のモジュール。
- 前記ウォッチドッグ・モニタがハードウェアを備える、請求項76に記載のモジュール。
- 前記ウォッチドッグ・モニタが、ソフトウェアと、ハードウェアとを備える、請求項76に記載のモジュール。
- 前記ウォッチドッグ・モニタが仮想パーティション内で実行する、請求項76に記載のモジュール。
- 前記仮想パーティションが、高性能アプリケーション・パーティションと、安全パーティションとを含む、請求項80に記載のモジュール。
- 前記パーティションが、共通CPU上で実行する仮想マシンを備える、請求項81に記載のモジュール。
- 前記仮想マシンが互いから隔離される、請求項82に記載のモジュール。
- 前記仮想マシンが、仮想マシン間通信を介して互いと通信する、請求項83に記載のモジュール。
- 前記仮想マシンがニューラル・ネットワークを実行する、請求項83に記載のモジュール。
- 前記ニューラル・ネットワークがパターン認識を実行する、請求項85に記載のモジュール。
- 前記ニューラル・ネットワークが衝突検出を実行する、請求項86に記載のモジュール。
- 前記ニューラル・ネットワークが車線プランニングを実行する、請求項87に記載のモジュール。
- 前記ニューラル・ネットワークがディープ・ニューラル・ネットワークを含む、請求項87に記載のモジュール。
- 予約済み。
- 予約済み。
- 予約済み。
- 予約済み。
- 予約済み。
- 予約済み。
- 予約済み。
- 予約済み。
- 予約済み。
- 予約済み。
- 予約済み。
- 中央処理ユニット複合体と、
グラフィックス処理ユニットと、
プログラマブル・ビジョン・アクセラレータと、
ディープ・ラーニング・アクセラレータと、
オン・チップ・メモリと
をさらに特徴とする、埋め込みハードウェア・アクセラレーション複合体と
を特徴とする、自律運転車両のためのシステム・オン・チップ。 - 前記グラフィックス処理ユニットがHBMメモリを含む
ことをさらに特徴とする、請求項10[00542]に記載のシステム・オン・チップ。 - 前記HBMメモリがHBM2メモリである
ことをさらに特徴とする、請求項10[00542]に記載のシステム・オン・チップ。 - 前記グラフィックス処理ユニットが、独立並列整数及び浮動小数点データ・パスを含む複数のストリーミング・マイクロプロセッサを備える
ことをさらに特徴とする、請求項10[00542]に記載のシステム・オン・チップ。 - 前記グラフィックス処理ユニットが、独立スレッド・スケジューリング能力を含む複数のストリーミング・マイクロプロセッサを備える
ことをさらに特徴とする、請求項10[00542]に記載のシステム・オン・チップ。 - 前記グラフィックス処理ユニットがユニファイド・メモリを含む
ことをさらに特徴とする、請求項10[00542]に記載のシステム・オン・チップ。 - 前記ユニファイド・メモリが、前記中央処理ユニット複合体及び前記グラフィックス処理ユニットに単一ユニファイド仮想アドレス空間を提供する
ことをさらに特徴とする、請求項10106に記載のシステム・オン・チップ。 - ロックステップ・モードで動作し、単一のコアとして機能するように構成された複数のプロセッサ・コアと、
前記複数のプロセッサ・コアによって実行される動作間の差を検出する比較論理と
を特徴とする安全クラスタ・エンジン
をさらに特徴とする、請求項10[00542]に記載のシステム・オン・チップ。 - メモリ・コントローラ
をさらに特徴とする、請求項10[00542]に記載のシステム・オン・チップ。 - 前記システム・オン・チップのパワー状態遷移を制御するように構成されたブート及びパワー管理プロセッサ
をさらに特徴とする、請求項10[00542]に記載のシステム・オン・チップ。 - 前記ブート及びパワー管理プロセッサが、前記システム・オン・チップの熱状態をモニタし、反応して前記システム・オン・チップのパワー状態を管理するようにさらに構成される
ことをさらに特徴とする、請求項110に記載のシステム・オン・チップ。 - L3キャッシュが前記中央処理ユニット複合体及び前記グラフィックス処理ユニットによって共有される
ことをさらに特徴とする、請求項10109に記載のシステム・オン・チップ。 - 複数の温度センサ
をさらに特徴とする、請求項10[00542]に記載のシステム・オン・チップ。 - 各々、出力周波数が温度に比例する1つ又は複数のリング・オシレータを特徴とする、前記複数の温度センサ
をさらに特徴とする、請求項1113に記載のシステム・オン・チップ。 - 前記複数の温度センサが、前記中央処理ユニット複合体グループ、前記グラフィックス処理ユニット、及び前記アクセラレーション・クラスタのうちの1つ又は複数の温度を検出するように構成される
ことをさらに特徴とする、請求項1114に記載のシステム・オン・チップ。 - 前記中央処理ユニット複合体が複数のCPUコアを備える
ことをさらに特徴とする、請求項10[00542]に記載のシステム・オン・チップ。 - 前記中央処理ユニット複合体がCPUコアのクラスタを備える
ことをさらに特徴とする、請求項10[00542]に記載のシステム・オン・チップ。 - 前記複数のCPUコアにおける各CPUコアがオン・チップL2キャッシュ・メモリに結合される
ことをさらに特徴とする、請求項1116に記載のシステム・オン・チップ。 - 前記CPUコアのクラスタがオン・チップL2キャッシュ・メモリに結合される
ことをさらに特徴とする、請求項1117に記載のシステム・オン・チップ。 - 前記中央処理ユニット複合体がCPUコアの複数のクラスタを備える
ことをさらに特徴とする、請求項10[00542]に記載のシステム・オン・チップ。 - 前記複数のクラスタの各クラスタが専用オン・チップL2キャッシュ・メモリに結合される
ことをさらに特徴とする、請求項1120に記載のシステム・オン・チップ。 - 前記複数のクラスタの各クラスタが、前記中央処理ユニット複合体内の他のクラスタのステータスとは無関係にアクティブであるように構成される
ことをさらに特徴とする、請求項1121に記載のシステム・オン・チップ。 - 前記複数のクラスタの各クラスタが、前記複数のクラスタのうちの1つ又は複数を用いたヘテロジニアス・マルチ・プロセッシングのために構成される
ことをさらに特徴とする、請求項1122に記載のシステム・オン・チップ。 - パワー管理プロセッサ
をさらに特徴とする、請求項1120に記載のシステム・オン・チップ。 - 前記パワー管理プロセッサが各コアを独立してパワー・ゲーティングする
ことをさらに特徴とする、請求項1124に記載のシステム・オン・チップ。 - 前記パワー管理プロセッサが各クラスタを独立してパワー・ゲーティングする
ことをさらに特徴とする、請求項1124に記載のシステム・オン・チップ。 - 前記中央処理ユニット複合体がCPUコアのクラスタを備える
ことをさらに特徴とする、請求項1[00544]に記載のシステム・オン・チップ。 - 各CPUコアがL2キャッシュ・メモリに結合される
ことをさらに特徴とする、請求項1127に記載のシステム・オン・チップ。 - 前記CPUコアのクラスタがL2キャッシュ・メモリに結合される
ことをさらに特徴とする、請求項1127に記載のシステム・オン・チップ。 - 前記中央処理ユニット複合体がCPUコアの複数のクラスタを備える
ことをさらに特徴とする、請求項1[00544]に記載のシステム・オン・チップ。 - 前記複数のクラスタの各クラスタが専用L2キャッシュ・メモリに結合される
ことをさらに特徴とする、請求項1130に記載のシステム・オン・チップ。 - 前記複数のクラスタの各クラスタが、前記中央処理ユニット複合体内の他のクラスタのステータスとは無関係にアクティブであるように構成される
ことをさらに特徴とする、請求項1131に記載のシステム・オン・チップ。 - 前記複数のクラスタの各クラスタが、前記複数のクラスタのうちの1つ又は複数を用いたヘテロジニアス・マルチ・プロセッシングのために構成される
ことをさらに特徴とする、請求項1132に記載のシステム・オン・チップ。 - パワー管理プロセッサ
をさらに特徴とする、請求項1127に記載のシステム・オン・チップ。 - 前記パワー管理プロセッサが各コアを独立してパワー・ゲーティングする
ことをさらに特徴とする、請求項1134に記載のシステム・オン・チップ。 - 前記パワー管理プロセッサが各クラスタを独立してパワー・ゲーティングする
ことをさらに特徴とする、請求項1134に記載のシステム・オン・チップ。 - 前記プログラマブル・ビジョン・アクセラレータに結合されたSRAMメモリ
をさらに特徴とする、請求項10[00542]に記載のシステム・オン・チップ。 - 前記ディープ・ラーニング・アクセラレータに結合されたSRAMメモリ
をさらに特徴とする、請求項10[00542]に記載のシステム・オン・チップ。 - ビデオ画像合成器プロセッサ
をさらに特徴とする、請求項10109に記載のシステム・オン・チップ。 - 前記ビデオ画像合成器プロセッサが、少なくとも1つの魚眼カメラ・センサ又はワイド・ビュー・カメラ・センサからの画像データに対してレンズ収差補正を実行するように構成される
ことをさらに特徴とする、請求項1139に記載のシステム・オン・チップ。 - 前記ビデオ画像合成器プロセッサが、少なくとも1つのカメラ・センサからの入力に対して時間的ノイズ低減を実行するように構成される
ことをさらに特徴とする、請求項1139に記載のシステム・オン・チップ。 - 前記ビデオ画像合成器プロセッサが、2つのカメラから受け取られた画像データに対してステレオ平行化を実行するようにさらに構成される
ことをさらに特徴とする、請求項1140に記載のシステム・オン・チップ。 - 前記ビデオ画像合成器プロセッサが、2つのカメラから受け取られた画像データに対してステレオ平行化を実行するようにさらに構成される
ことをさらに特徴とする、請求項1141に記載のシステム・オン・チップ。 - プロセッサ・コアと、
前記プロセッサ・コアに結合されたRAMと、
割り込みコントローラと
を特徴とするリアル・タイム・カメラ・エンジン
をさらに特徴とする、請求項10109に記載のシステム・オン・チップ。 - 低電力モードのプロセッサ・コアと、
前記プロセッサ・コアに結合されたRAMと、
割り込みコントローラと
を特徴とする常時オン・センサ処理エンジン
をさらに特徴とする、請求項10109に記載のシステム・オン・チップ。 - 前記常時オン・センサ処理エンジンが、車両の許可された操作者を認識するように訓練されたニューラル・ネットワークを備える
ことをさらに特徴とする、請求項1145に記載のシステム・オン・チップ。 - 前記常時オン・センサ処理エンジンが、前記ニューラル・ネットワークが、車両の前記許可された操作者が前記車両にいることを示すとき、前記車両をロック解除するように構成される
ことをさらに特徴とする、請求項1146に記載のシステム・オン・チップ。 - 前記常時オン・センサ処理エンジンが、前記ニューラル・ネットワークが、車両の前記許可された操作者が前記車両から離れたことを示すとき、前記車両をロックするように構成される
ことをさらに特徴とする、請求項1147に記載のシステム・オン・チップ。 - 前記中央処理ユニット複合体と前記ビデオ画像合成器プロセッサを接続するシステム・コヒーレンシ・ファブリック
をさらに特徴とする、請求項1[00547]に記載のシステム・オン・チップ。 - 前記システム・コヒーレンシ・ファブリックが、前記システム内での前記非コヒーレント・クライアントとのソフトウェア・ベース・コヒーレンシを容易にするコヒーレンシ・キャッシュ・フラッシュ・エンジンを備えること
をさらに特徴とする、請求項1149に記載のシステム・オン・チップ。 - 前記中央処理ユニット複合体と前記リアル・タイム・カメラ・エンジンを接続するためのシステム・コヒーレンシ・ファブリック
をさらに特徴とする、請求項1[00547]に記載のシステム・オン・チップ。 - 前記システム・コヒーレンシ・ファブリックが、前記システム内での前記非コヒーレント・クライアントとのソフトウェア・ベース・コヒーレンシを容易にするコヒーレンシ・キャッシュ・フラッシュ・エンジンを備える
ことをさらに特徴とする、請求項1151に記載のシステム・オン・チップ。 - 前記中央処理ユニット複合体と前記常時オン・センサ処理エンジンを接続するためのシステム・コヒーレンシ・ファブリック
をさらに特徴とする、請求項1145に記載のシステム・オン・チップ。 - 前記システム・コヒーレンシ・ファブリックが、前記システム内での前記非コヒーレント・クライアントとのソフトウェア・ベース・コヒーレンシを容易にするコヒーレンシ・キャッシュ・フラッシュ・エンジンを備えること
をさらに特徴とする、請求項1[00550]に記載のシステム・オン・チップ。 - 前記プログラマブル・ビジョン・アクセラレータが、
少なくとも1つのプロセッサと、
少なくとも1つのダイレクト・メモリ・アクセス・エンジンと
を備える
ことをさらに特徴とする、請求項10[00542]に記載のシステム・オン・チップ。 - 前記プログラマブル・ビジョン・アクセラレータが、
第1のベクトル・プロセッサと、
前記第1のベクトル・プロセッサと関連づけられた第1の命令キャッシュと、
前記第1のベクトル・プロセッサと関連づけられた第1のベクトル・メモリと、
前記第1のベクトル・プロセッサと関連づけられた第1のダイレクト・メモリ・アクセス・エンジンと、
第2のベクトル・プロセッサと、
前記第2のベクトル・プロセッサと関連づけられた第2の命令キャッシュと、
前記第2のベクトル・プロセッサと関連づけられた第2のベクトル・メモリと、
前記第2のベクトル・プロセッサと関連づけられた第2のダイレクト・メモリ・アクセス・エンジンと
を備える
ことをさらに特徴とする、請求項10[00542]に記載のシステム・オン・チップ。 - 前記第1のベクトル・プロセッサが第1のコンピュータ・ビジョン・アルゴリズムを実行するように構成され、前記第2のベクトル・プロセッサが第2のコンピュータ・ビジョン・アルゴリズムを実行するように構成される
ことをさらに特徴とする、請求項1156に記載のシステム・オン・チップ。 - 前記第1のベクトル・プロセッサが、画像の一部分に対して第1のコンピュータ・ビジョン・アルゴリズムを実行するように構成され、
前記第2のベクトル・プロセッサが、前記画像の別の部分に対して第2のコンピュータ・ビジョン・アルゴリズムを実行するように構成される
ことをさらに特徴とする、請求項1156に記載のシステム・オン・チップ。 - 前記第1のベクトル・プロセッサがDSPであり、
前記第2のベクトル・プロセッサがDSPである
ことをさらに特徴とする、請求項1157に記載のシステム・オン・チップ。 - 前記第1のベクトル・プロセッサがSIMD VLIW DSPであり、
前記第2のベクトル・プロセッサがSIMD VLIW DSPである
ことをさらに特徴とする、請求項1157に記載のシステム・オン・チップ。 - 前記プログラマブル・ビジョン・アクセラレータが、
コンピュータ・ビジョンのために最適化されたデジタル信号プロセッサと、
前記デジタル信号プロセッサと関連づけられたメモリと、
前記デジタル信号プロセッサと関連づけられた命令キャッシュと
をさらに備える
ことをさらに特徴とする、請求項1155に記載のシステム・オン・チップ。 - 複数のCPUコアと専用L2キャッシュ・メモリとを特徴とする中央処理ユニット複合体と、
複数のGPUコアと専用L2キャッシュ・メモリとを特徴とするグラフィックス処理ユニットと、
プログラマブル・ビジョン・アクセラレータと、
ディープ・ラーニング・アクセラレータと、
前記プログラマブル・ビジョン・アクセラレータ及び前記ディープ・ラーニング・アクセラレータに接続された専用SRAMと
を特徴とする、埋め込みハードウェア・アクセラレーション複合体と
を特徴とする、自律運転車両のためのシステム・オン・チップ。 - 前記グラフィックス処理ユニットがHBMメモリを含む
ことをさらに特徴とする、請求項1[00555]に記載のシステム・オン・チップ。 - 前記HBMメモリがHBM2メモリである
ことをさらに特徴とする、請求項1163に記載のシステム・オン・チップ。 - 前記グラフィックス処理ユニットが、独立並列整数及び浮動小数点データ・パスを含む複数のストリーミング・マイクロプロセッサを備える
ことをさらに特徴とする、請求項1[00555]に記載のシステム・オン・チップ。 - 前記グラフィックス処理ユニットが、独立スレッド・スケジューリング能力を含む複数のストリーミング・マイクロプロセッサを備える
ことをさらに特徴とする、請求項1[00555]に記載のシステム・オン・チップ。 - 前記グラフィックス処理ユニットがユニファイド・メモリを含む
ことをさらに特徴とする、請求項1[00555]に記載のシステム・オン・チップ。 - 前記ユニファイド・メモリが、前記中央処理ユニット複合体及び前記グラフィックス処理ユニットに単一ユニファイド仮想アドレス空間を提供する
ことをさらに特徴とする、請求項1167に記載のシステム・オン・チップ。 - 前記中央処理ユニット複合体及び前記グラフィックス処理ユニットによって共有されるL3キャッシュ
をさらに特徴とする、請求項1[00555]に記載のシステム・オン・チップ。 - 前記プログラマブル・ビジョン・アクセラレータが、
少なくとも1つのデジタル信号プロセッサと、
少なくとも1つのダイレクト・メモリ・アクセス・エンジンと
を備える
ことをさらに特徴とする、請求項1[00555]に記載のシステム・オン・チップ。 - 前記プログラマブル・ビジョン・アクセラレータが、
コンピュータ・ビジョンのために最適化されたデジタル信号プロセッサと、
前記デジタル信号プロセッサと関連づけられたメモリと、
前記デジタル信号プロセッサと関連づけられた命令キャッシュと
をさらに備える
ことをさらに特徴とする、請求項1170に記載のシステム・オン・チップ。 - 請求項10[00542]に記載の第1のシステム・オン・チップと、
請求項10[00542]に記載の第2のシステム・オン・チップと、
前記第1のシステム・オン・チップに結合された第1のディスクリート・グラフィックス処理ユニットと、
前記第2のシステム・オン・チップに結合された第2のディスクリート・グラフィックス処理ユニットと、
前記第1のシステム・オン・チップ及び前記第2のシステム・オン・チップに結合されたマイクロコントローラと
を特徴とする、自動運転車両を制御するためのコンピュータ。 - 6軸慣性測定ユニット
をさらに特徴とする、請求項1[00558]に記載の自動運転車両を制御するためのコンピュータ。 - 前記6軸慣性測定ユニットが、前記車両の加速及び回転に関する情報を前記第1のシステム・オン・チップに提供するために前記第1のシステム・オン・チップに結合され、
前記第1のシステム・オン・チップが、前記車両の加速及び回転に関する前記情報に対してセンサ・フュージョンを実行するように構成される
ことをさらに特徴とする、請求項1173に記載の自動運転車両を制御するためのコンピュータ。 - 前記第1のシステム・オン・チップと、第2のシステム・オン・チップと、前記マイクロコントローラとを結合するためのスイッチ
をさらに特徴とする、請求項1[00558]に記載の自動運転車両を制御するためのコンピュータ。 - 前記スイッチがPCIeスイッチである
ことをさらに特徴とする、請求項1175に記載の自動運転車両を制御するためのコンピュータ。 - 前記スイッチに結合されたディスクリートCPU
をさらに特徴とする、請求項1175に記載の自動運転車両を制御するためのコンピュータ。 - 前記ディスクリートCPUがX86 CPUである
ことをさらに特徴とする、請求項1177に記載の自動運転車両を制御するためのコンピュータ。 - 前記第1のシステム・オン・チップ及び前記第2のシステム・オン・チップが、センサ・データを受け取るための複数の入力ポートに結合される
ことをさらに特徴とする、請求項1[00558]に記載の自動運転車両を制御するためのコンピュータ。 - 請求項10[00542]に記載の複数のシステム・オン・チップと、
各々が前記システム・オン・チップのうちの1つに結合された複数のディスクリート・グラフィックス処理ユニットと、
前記複数のシステム・オン・チップと前記複数のディスクリート・グラフィックス処理ユニットを相互接続するためのシステム・オン・チップと
を特徴とする、自動運転車両を制御するためのコンピュータ。 - 前記複数のシステム・オン・チップが互いに結合される
ことをさらに特徴とする、請求項1180に記載の自動運転車両を制御するためのコンピュータ。 - 前記複数のシステム・オン・チップがI2Cバスを通じて互いに結合される
ことをさらに特徴とする、請求項1181に記載の自動運転車両を制御するためのコンピュータ。 - 前記複数のシステム・オン・チップが、共通プリント回路基板上に取り付けられ、同じハウジング内に配置される
ことをさらに特徴とする、請求項1182に記載の自動運転車両を制御するためのコンピュータ。 - 前記ハウジングが、ファンシンクと前記システム・オン・チップからの熱を輸送する流体チャネルとを備える冷却システムをさらに備える
ことをさらに特徴とする、請求項1183に記載の自動運転車両を制御するためのコンピュータ。 - 前記ハウジングが、ファンシンクと前記システム・オン・チップからの熱を輸送する空気チャネルとを備える冷却システムをさらに備える
ことをさらに特徴とする、請求項1184に記載の自動運転車両を制御するためのコンピュータ。 - 前記ハウジングが、ファンシンクと、前記システム・オン・チップからの熱を輸送するための、流体チャネルと空気チャネルを特徴とするハイブリッド熱輸送モジュールとをさらに備える
ことをさらに特徴とする、請求項1185に記載の自動運転車両を制御するためのコンピュータ。 - 請求項10[00542]に記載の第1のシステム・オン・チップと、
請求項10[00542]に記載の第2のシステム・オン・チップと、
請求項10[00542]に記載の第3のシステム・オン・チップと、
請求項10[00542]に記載の第4のシステム・オン・チップと、
請求項10[00542]に記載の第5のシステム・オン・チップと、
請求項10[00542]に記載の第6のシステム・オン・チップと、
請求項10[00542]に記載の第7のシステム・オン・チップと、
請求項10[00542]に記載の第8のシステム・オン・チップと、
前記第1のシステム・オン・チップに結合された第1のディスクリート・グラフィックス処理ユニットと、
前記第2のシステム・オン・チップに結合された第2のディスクリート・グラフィックス処理ユニットと、
前記第3のシステム・オン・チップに結合された第3のディスクリート・グラフィックス処理ユニットと、
前記第4のシステム・オン・チップに結合された第4のディスクリート・グラフィックス処理ユニットと、
前記第5のシステム・オン・チップに結合された第5のディスクリート・グラフィックス処理ユニットと、
前記第6のシステム・オン・チップに結合された第6のディスクリート・グラフィックス処理ユニットと、
前記第7のシステム・オン・チップに結合された第7のディスクリート・グラフィックス処理ユニットと、
前記第8のシステム・オン・チップに結合された第8のディスクリート・グラフィックス処理ユニットと、
前記システム・オン・チップの各々に結合されたマイクロコントローラと、
前記高性能SoCとディスクリートGPUとの間のポイント・ツー・ポイント通信を提供するネットワーク・スイッチと
を特徴とする、自動運転車両を制御するためのコンピュータ。 - 前記システム・オン・チップ、前記ディスクリート・グラフィックス処理ユニット、前記マイクロコントローラ、及び前記ネットワーク・スイッチが、共通プリント回路基板上に取り付けられ、同じハウジング内に配置される
ことをさらに特徴とする、請求項1[00563]に記載の自動運転車両を制御するためのコンピュータ。 - 前記ハウジングが、ファンシンクと前記システム・オン・チップからの熱を輸送する流体チャネルとを備える冷却システムをさらに備える
ことをさらに特徴とする、請求項1188に記載の自動運転車両を制御するためのコンピュータ。 - 前記ハウジングが、ファンシンクと前記システム・オン・チップからの熱を輸送する空気チャネルとを備える冷却システムをさらに備える
ことをさらに特徴とする、請求項1189に記載の自動運転車両を制御するためのコンピュータ。 - 前記ハウジングが、ファンシンクと、前記システム・オン・チップからの熱を輸送するための、流体チャネルと空気チャネルを特徴とするハイブリッド熱輸送モジュールとをさらに備える
ことをさらに特徴とする、請求項1190に記載の自動運転車両を制御するためのコンピュータ。 - 前記第1のシステム・オン・チップが、歩行者検出のためのニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項1[00563]に記載の自動運転車両を制御するためのコンピュータ。 - 前記第2のシステム・オン・チップが、標識検出のためのニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項1192に記載の自動運転車両を制御するためのコンピュータ。 - 前記第3のシステム・オン・チップが、距離推定のためのニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項1193に記載の自動運転車両を制御するためのコンピュータ。 - 前記第4のシステム・オン・チップが、車線検出のためのニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項1194に記載の自動運転車両を制御するためのコンピュータ。 - 前記第5のシステム・オン・チップが、衝突回避のためのニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項1195に記載の自動運転車両を制御するためのコンピュータ。 - 前記第6のシステム・オン・チップが、現行占有率グリッドのためのニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項1196に記載の自動運転車両を制御するためのコンピュータ。 - 前記第7のシステム・オン・チップが、予測占有率グリッドのためのニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項1197に記載の自動運転車両を制御するためのコンピュータ。 - 前記第8のシステム・オン・チップが、ステアリング制御のためのニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項1198に記載の自動運転車両を制御するためのコンピュータ。 - 前記距離推定のためのニューラル・ネットワークが、LIDARデータによって訓練されたネットワークである
ことをさらに特徴とする、請求項1194に記載の自動運転車両を制御するためのコンピュータ。 - 自動運転車両を制御するためのシステムであって、
請求項1179に記載の第1のコンピュータを特徴とするプライマリ・コンピュータと、
請求項1179に記載の第2のコンピュータを特徴とするセカンダリ・コンピュータと、
前記第1のコンピュータ及び前記第2のコンピュータに結合された監視MCUと、
前記第1のコンピュータ及び前記第2のコンピュータに結合された複数のカメラ・センサと、
前記第1のコンピュータに結合された複数の車両モニタリング・センサと
を特徴とし、
前記プライマリ・コンピュータが、前記カメラ・センサから入力を受け取り、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの信号を出力するように構成され、
前記セカンダリ・コンピュータが、前記カメラ・センサから入力を受け取り、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの信号を出力するように構成され、
前記監視MCUが、前記プライマリ・コンピュータからの出力と前記セカンダリ・コンピュータからの出力を比較するように構成される
ことをさらに特徴とする、自動運転車両を制御するためのシステム。 - 前記MCUが、請求項1179に記載の第3のコンピュータを備えることをさらに特徴とする、請求項[00566]に記載の自動運転車両を制御するためのシステム。
- 前記プライマリ・コンピュータに電気的に結合されたワイヤレス・デバイスであって、ワイヤレス・ネットワークと通信するためのワイヤレス・デバイス、
ワイヤレス・ネットワークから少なくとも1つのニューラル・ネットワークに関する更新情報を受信するように構成された前記ワイヤレス・デバイス、
前記情報に応答して少なくとも1つのニューラル・ネットワークを更新するように構成された前記プライマリ・コンピュータ
をさらに特徴とする、請求項[00566]に記載の自動運転車両を制御するためのシステム。 - 前記プライマリ・コンピュータが、前記更新されたニューラル・ネットワークを現在のニューラル・ネットワークと並列に実行し、結果を比較することによって、前記更新されたニューラル・ネットワークをテスト及び検証するように構成され、
前記プライマリ・コンピュータが、前記更新されたニューラル・ネットワークが完全にダウンロードされ、テストされ、検証された後で、前記更新されたニューラル・ネットワークに依拠するように構成される
ことをさらに特徴とする、請求項[00567]に記載の自動運転車両を制御するためのシステム。 - 前記ワイヤレス・ネットワークがLTEネットワークである
ことをさらに特徴とする、請求項[00567]に記載の自動運転車両を制御するためのシステム。 - 前記ワイヤレス・ネットワークがWCDMA(登録商標)ネットワークである
ことをさらに特徴とする、請求項[00567]に記載の自動運転車両を制御するためのシステム。 - 前記ワイヤレス・ネットワークがUMTSネットワークである
ことをさらに特徴とする、請求項[00567]に記載の自動運転車両を制御するためのシステム。 - 前記ワイヤレス・ネットワークがCDMA2000ネットワークである
ことをさらに特徴とする、請求項[00567]に記載の自動運転車両を制御するためのシステム。 - 1つ又は複数のGPUサーバを特徴とし、前記ワイヤレス・ネットワークに結合され、
1つ又は複数の車両によって収集され、前記ワイヤレス・ネットワーク上で送信された訓練情報を受信し、
前記情報を使用して1つ又は複数のニューラル・ネットワークを訓練し、
1つ又は複数の自動運転車両への送信のために前記ワイヤレス・ネットワークに前記訓練されたニューラル・ネットワークを提供する
ように構成されたデータセンタ
をさらに特徴とする、請求項[00567]に記載の自動運転車両を制御するためのシステム。 - 1つ又は複数のGPUサーバを特徴とし、前記ワイヤレス・ネットワークに結合され、
車両によって収集され、前記ワイヤレス・ネットワーク上で送信された画像情報及び対象物検出情報を受信し、
前記画像情報を入力として使用して、前記GPUサーバのうちの1つ又は複数の上でニューラル・ネットワークを実行し、
前記GPUサーバのうちの1つ又は複数の上で実行された前記ニューラル・ネットワークの結果を、前記車両から受信された前記対象物検出情報と比較し、
前記比較の結果が信頼度しきい値を下回る場合、乗客に指示して安全な駐車操作を実行するように前記車両に指示するワイヤレス制御信号を前記車両に送る
ように構成されたデータセンタ
をさらに特徴とする、請求項[00567]に記載の自動運転車両を制御するためのシステム。 - 前記プライマリ・コンピュータに電気的に結合されたワイヤレス・デバイスであって、ワイヤレス・ネットワークと通信するためのワイヤレス・デバイス、
ワイヤレス・ネットワークから更新された地図情報を受信するように構成された前記ワイヤレス・デバイス、
前記更新された地図情報をメモリに記憶するように構成された前記プライマリ・コンピュータ
をさらに特徴とする、請求項[00566]に記載の自動運転車両を制御するためのシステム。 - 前記ワイヤレス・ネットワークがLTEネットワークである
ことをさらに特徴とする、請求項211に記載の自動運転車両を制御するためのシステム。 - 前記ワイヤレス・ネットワークがWCDMA(登録商標)ネットワークである
ことをさらに特徴とする、請求項211に記載の自動運転車両を制御するためのシステム。 - 前記ワイヤレス・ネットワークがUMTSネットワークである
ことをさらに特徴とする、請求項211に記載の自動運転車両を制御するためのシステム。 - 前記ワイヤレス・ネットワークがCDMA2000ネットワークである
ことをさらに特徴とする、請求項211に記載の自動運転車両を制御するためのシステム。 - 前記プライマリ・コンピュータに電気的に結合されたワイヤレス・デバイスであって、ワイヤレス・ネットワークと通信するためのワイヤレス・デバイス、
別の車両に関して前記ネットワークからCACC情報を受信するように構成された前記ワイヤレス・デバイス
をさらに特徴とする、請求項[00566]に記載の自動運転車両を制御するためのシステム。 - 前記プライマリ・コンピュータに結合されたHMIディスプレイ、
前記システムが交通信号、交通標識、自転車、歩行者、又は道路内の障害物をいつ識別したかを示すように構成された前記HMIディスプレイ
をさらに特徴とする、請求項[00566]に記載の自動運転車両を制御するためのシステム。 - 前記HMIディスプレイが、前記システムが、前記識別された交通信号、前記識別された交通標識、前記識別された自転車、前記識別された歩行者、又は前記識別された道路内の障害物に応じて、適切な措置をとることを示すようにさらに構成される
ことをさらに特徴とする、請求項217に記載の自動運転車両を制御するためのシステム。 - 前記監視MCUが、前記第1のコンピュータからの出力と前記第2のコンピュータからの出力が一致しない場合にアラーム信号を出力するようにさらに構成される
ことをさらに特徴とする、請求項[00566]に記載の自動運転車両を制御するためのシステム。 - 自動運転車両を制御するためのシステムであって、
請求項179に記載の第1のコンピュータを特徴とするプライマリ・コンピュータと、
ADASシステムを特徴とするセカンダリ・コンピュータと、
前記プライマリ・コンピュータ及び前記セカンダリ・コンピュータに結合された監視MCUと、
前記プライマリ・コンピュータに結合された複数のカメラ・センサと、
前記セカンダリ・コンピュータに結合された1つ又は複数のセカンダリ・センサと、
前記プライマリ・コンピュータに結合された複数の車両モニタリング・センサと
を特徴とし、
前記プライマリ・コンピュータが、前記カメラ・センサから入力を受け取り、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの信号を出力するように構成され、
前記セカンダリ・コンピュータが、前記セカンダリ・センサから入力を受け取り、前記車両の動作に関する少なくとも1つの第2の信号を出力するように構成され、
前記監視MCUが、前記プライマリ・コンピュータからの前記信号と前記セカンダリ・コンピュータからの前記信号を比較するように構成される
ことをさらに特徴とする、自動運転車両を制御するためのシステム。 - 前記ADASシステムがEyeQ SoCを備えることをさらに特徴とする、請求項220に記載の自動運転車両を制御するためのシステム。
- 前記ADASシステムが前方クラッシュ警告ユニットを備える
ことをさらに特徴とする、請求項220に記載の自動運転車両を制御するためのシステム。 - 前記前方クラッシュ警告ユニットが、FPGAと、ステレオ・ビデオ・カメラとを備える
ことをさらに特徴とする、請求項222に記載の自動運転車両を制御するためのシステム。 - 前記前方クラッシュ警告ユニットが、FPGAと、長距離レーダ・ユニットとを備える
ことをさらに特徴とする、請求項222に記載の自動運転車両を制御するためのシステム。 - 前記前方クラッシュ警告ユニットが、プロセッサと、長距離レーダ・ユニットとを備える
ことをさらに特徴とする、請求項222に記載の自動運転車両を制御するためのシステム。 - 前記ADASシステムが車線逸脱警告ユニットを備える
ことをさらに特徴とする、請求項220に記載の自動運転車両を制御するためのシステム。 - 前記車線逸脱警告ユニットが、FPGAと、ステレオ・ビデオ・カメラとを備える
ことをさらに特徴とする、請求項226に記載の自動運転車両を制御するためのシステム。 - 前記車線逸脱警告ユニットが、FPGAと、単眼カメラ・ユニットとを備える
ことをさらに特徴とする、請求項226に記載の自動運転車両を制御するためのシステム。 - 前記車線逸脱警告ユニットが、プロセッサと、単眼カメラ・ユニットとを備える
ことをさらに特徴とする、請求項226に記載の自動運転車両を制御するためのシステム。 - 前記ADASシステムが自動緊急ブレーキ・ユニットを備える
ことをさらに特徴とする、請求項220に記載の自動運転車両を制御するためのシステム。 - 前記自動緊急ブレーキ・ユニットが、FPGAと、ステレオ・ビデオ・カメラとを備える
ことをさらに特徴とする、請求項230に記載の自動運転車両を制御するためのシステム。 - 前記自動緊急ブレーキ・ユニットが、FPGAと、長距離レーダ・ユニットとを備える
ことをさらに特徴とする、請求項230に記載の自動運転車両を制御するためのシステム。 - 前記自動緊急ブレーキ・ユニットが、プロセッサと、長距離レーダ・ユニットとを備える
ことをさらに特徴とする、請求項230に記載の自動運転車両を制御するためのシステム。 - 前記自動緊急ブレーキ・ユニットが、ASICと、長距離レーダ・ユニットとを備える
ことをさらに特徴とする、請求項230に記載の自動運転車両を制御するためのシステム。 - 前記ADASシステムが自動走行制御ユニットを備える
ことをさらに特徴とする、請求項220に記載の自動運転車両を制御するためのシステム。 - 前記自動走行制御ユニットが縦方向自動走行制御ユニットを備える
ことをさらに特徴とする、請求項235に記載の自動運転車両を制御するためのシステム。 - 前記縦方向走行制御ユニットが、先行車両への距離及び前記自動運転車両の現在のスピードに基づいて前記自動運転車両のスピードを調整するように構成される
ことをさらに特徴とする、請求項236に記載の自動運転車両を制御するためのシステム。 - 前記自動走行制御ユニットが横方向自動走行制御ユニットを備える
ことをさらに特徴とする、請求項235に記載の自動運転車両を制御するためのシステム。 - 前記自動走行制御ユニットが前向きレーダ・センサを備える
ことをさらに特徴とする、請求項235に記載の自動運転車両を制御するためのシステム。 - 前記自動走行制御ユニットが、FPGAと、前向きレーダ・センサとを備える
ことをさらに特徴とする、請求項235に記載の自動運転車両を制御するためのシステム。 - 前記自動走行制御ユニットが、プロセッサと、前向きレーダ・センサとを備える
ことをさらに特徴とする、請求項235に記載の自動運転車両を制御するためのシステム。 - 前記自動走行制御ユニットが、ASICと、前向きカメラとを備える
ことをさらに特徴とする、請求項235に記載の自動運転車両を制御するためのシステム。 - 前記自動走行制御ユニットが前向きカメラを備える
ことをさらに特徴とする、請求項235に記載の自動運転車両を制御するためのシステム。 - 前記自動走行制御ユニットが、FPGAと、前向きカメラとを備える
ことをさらに特徴とする、請求項235に記載の自動運転車両を制御するためのシステム。 - 前記自動走行制御ユニットが、プロセッサと、前向きカメラとを備える
ことをさらに特徴とする、請求項235に記載の自動運転車両を制御するためのシステム。 - 前記自動走行制御ユニットが、ASICと、前向きカメラとを備える
ことをさらに特徴とする、請求項235に記載の自動運転車両を制御するためのシステム。 - 前記前向きカメラがステレオ・カメラである
ことをさらに特徴とする、請求項243に記載の自動運転車両を制御するためのシステム。 - 前記前向きカメラがステレオ・カメラである
ことをさらに特徴とする、請求項244に記載の自動運転車両を制御するためのシステム。 - 前記前向きカメラがステレオ・カメラである
ことをさらに特徴とする、請求項245に記載の自動運転車両を制御するためのシステム。 - 前記前向きカメラがステレオ・カメラである
ことをさらに特徴とする、請求項246に記載の自動運転車両を制御するためのシステム。 - 前記ADASシステムが後方交差交通警告ユニットを備える
ことをさらに特徴とする、請求項220に記載の自動運転車両を制御するためのシステム。 - 前記後方交差交通警告ユニットが、FPGAと、1つ又は複数の後ろ向きカメラとを備える
ことをさらに特徴とする、請求項251に記載の自動運転車両を制御するためのシステム。 - 前記後方交差交通警告ユニットが、FPGAと、後ろ向き中距離レーダ・ユニットとを備える
ことをさらに特徴とする、請求項251に記載の自動運転車両を制御するためのシステム。 - 前記後方交差交通警告ユニットが、プロセッサと、後ろ向き中距離レーダ・ユニットとを備える
ことをさらに特徴とする、請求項251に記載の自動運転車両を制御するためのシステム。 - 前記ADASシステムが死角警告ユニットを備える
ことをさらに特徴とする、請求項220に記載の自動運転車両を制御するためのシステム。 - 前記死角警告ユニットが、FPGAと、1つ又は複数のカメラとを備える
ことをさらに特徴とする、請求項255に記載の自動運転車両を制御するためのシステム。 - 前記死角警告ユニットが、FPGAと、1つ又は複数のレーダ・ユニットとを備える
ことをさらに特徴とする、請求項255に記載の自動運転車両を制御するためのシステム。 - 前記死角警告ユニットが、プロセッサと、1つ又は複数のレーダ・ユニットとを備える
ことをさらに特徴とする、請求項255に記載の自動運転車両を制御するためのシステム。 - 前記死角警告ユニットが、プロセッサと、1つ又は複数のレーダ・ユニットとを備える
ことをさらに特徴とする、請求項255に記載の自動運転車両を制御するためのシステム。 - 前記ADASシステムが、滑りやすい道路検出ユニットを備える
ことをさらに特徴とする、請求項220に記載の自動運転車両を制御するためのシステム。 - 前記滑りやすい道路検出ユニットが、
少なくとも1つの動力駆動車軸の第1の角速度を判定するための第1の角速度検出器と、
少なくとも1つの自由回転車軸の第2の角速度を検出するための第2の角速度検出器と、
路面上での摩擦のレベルを判定するために前記第1の角速度と前記第2の角速度を比較するように構成されたプロセッサ
を備える
ことをさらに特徴とする、請求項260に記載の自動運転車両を制御するためのシステム。 - 前記滑りやすい道路検出ユニットが、
前記動力駆動車軸の第1の振動を判定する第1の振動センサと、
前記少なくとも1つの自由回転車軸の第2の振動を判定する第2の振動センサと
をさらに備えることをさらに特徴とし、
前記プロセッサが、前記路面上での前記摩擦のレベルを判定するために前記第1の振動と前記第2の振動を比較するようにさらに構成されることをさらに特徴とする
請求項261に記載の自動運転車両を制御するためのシステム。 - 前記プロセッサがCPUを備える
ことをさらに特徴とする、請求項262に記載の自動運転車両を制御するためのシステム。 - 前記プロセッサがASICを備える
ことをさらに特徴とする、請求項262に記載の自動運転車両を制御するためのシステム。 - 前記監視MCUが、前記プライマリ・コンピュータからの前記出力と前記セカンダリ・コンピュータからの前記出力が一致する場合、前記第1の信号に従って前記車両の少なくとも1つのアクチュエータを制御するようにさらに構成される
ことをさらに特徴とする、請求項220に記載の自動運転車両を制御するためのシステム。 - 前記監視MCUが、前記プライマリ・コンピュータからの出力と前記セカンダリ・コンピュータからの出力が一致しない場合にアラーム信号を出力するようにさらに構成される
ことをさらに特徴とする、請求項220に記載の自動運転車両を制御するためのシステム。 - 前記監視MCUが、前記プライマリ・コンピュータからの前記出力と前記セカンダリ・コンピュータからの前記出力が一致しない場合でも、前記MCUが、前記プライマリ・コンピュータの出力が信頼度しきい値を超えると判定した場合、前記第1の信号に従って前記車両を制御するようにさらに構成される
ことをさらに特徴とする、請求項220に記載の自動運転車両を制御するためのシステム。 - 前記監視MCUが、
前記プライマリ・コンピュータ及び前記セカンダリ・コンピュータからの出力に基づいて、前記セカンダリ・コンピュータがフォールス・アラームを提供する状態を判定するように構成されたニューラル・ネットワーク
をさらに備える
ことをさらに特徴とする、請求項220に記載の自動運転車両を制御するためのシステム。 - 前記ADASシステムが少なくとも1つのレーダ・センサを含み、
前記MCU上の前記ニューラル・ネットワークが、金属製排水格子によって引き起こされるフォールス・アラームの可能性を減少させるように訓練される
ことをさらに特徴とする、請求項268に記載の自動運転車両を制御するためのシステム。 - 前記ADASシステムが少なくとも1つのレーダ・センサを含み、
前記MCU上の前記ニューラル・ネットワークが、金属製排水格子によって引き起こされるフォールス・アラームの可能性を減少させるように訓練される
ことをさらに特徴とする、請求項268に記載の自動運転車両を制御するためのシステム。 - 前記ADASシステムが少なくとも1つのレーダ・センサを含み、
前記MCU上の前記ニューラル・ネットワークが、金属製マンホール蓋によって引き起こされるフォールス・アラームの可能性を減少させるように訓練される
ことをさらに特徴とする、請求項268に記載の自動運転車両を制御するためのシステム。 - 前記セカンダリ・コンピュータが、前記ADASシステムからのフォールス・アラームの可能性を減少させるように構成されたニューラル・ネットワークをさらに備える
ことをさらに特徴とする、請求項220に記載の自動運転車両を制御するためのシステム。 - 前記ADASシステムが少なくとも1つのレーダ・センサを含み、
前記セカンダリ・コンピュータ上の前記ニューラル・ネットワークが、金属製排水格子によって引き起こされるフォールス・アラームの可能性を減少させるように訓練される
ことをさらに特徴とする、請求項272に記載の自動運転車両を制御するためのシステム。 - 前記ADASシステムが少なくとも1つのレーダ・センサを含み、
前記セカンダリ・コンピュータ上の前記ニューラル・ネットワークが、金属製マンホール蓋によって引き起こされるフォールス・アラームの可能性を減少させるように訓練される
ことをさらに特徴とする、請求項272に記載の自動運転車両を制御するためのシステム。 - 前記ADASシステムが少なくとも1つのレーダ・センサを含み、
前記セカンダリ・コンピュータ上の前記ニューラル・ネットワークが、金属製ごみ箱によって引き起こされるフォールス・アラームの可能性を減少させるように訓練される
ことをさらに特徴とする、請求項272に記載の自動運転車両を制御するためのシステム。 - 自動運転車両を制御するためのシステムであって、
請求項1179に記載の第1のコンピュータを特徴とするプライマリ・コンピュータと、
EyeQ SoCを特徴とするセカンダリ・コンピュータと、
前記第1のコンピュータ及び前記第2のコンピュータに結合された監視MCUと、
前記第1のコンピュータに結合された第1の複数のカメラ・センサと、
前記セカンダリ・コンピュータに結合された第2の複数のカメラ・センサと、
前記第1のコンピュータに結合された複数の車両モニタリング・センサと
を特徴とし、
前記第1のコンピュータが、前記カメラ・センサから入力を受け取り、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの信号を出力するように構成され、
前記第2のコンピュータが、前記カメラ・センサから入力を受け取り、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの信号を出力するように構成され、
前記監視MCUが、前記第1のコンピュータからの出力と前記第2のコンピュータからの出力を比較するように構成される
ことをさらに特徴とする、
自動運転車両を制御するためのシステム。 - 前記監視MCUが、前記第1のコンピュータからの出力と前記第2のコンピュータからの出力が一致しない場合にアラーム信号を出力するようにさらに構成される
ことをさらに特徴とする、請求項276に記載の自動運転車両を制御するためのシステム。 - 自動運転車両を制御するためのシステムであって、
請求項1179に記載の第1のコンピュータを特徴とするプライマリ・コンピュータと、
少なくとも1つのCPUと1つのGPUとを有する第2のコンピュータを特徴とするセカンダリ・コンピュータと、
前記第1のコンピュータ及び前記第2のコンピュータに結合された監視MCUと、
前記第1のコンピュータ及び前記第2のコンピュータに結合された複数のカメラ・センサと、
前記第1のコンピュータに結合された複数の車両モニタリング・センサと
を特徴とし、
前記第1のコンピュータが、前記カメラ・センサから入力を受け取り、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの信号を出力するように構成され、
前記第2のコンピュータが、前記カメラ・センサから入力を受け取り、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの信号を出力するように構成され、
前記監視MCUが、前記第1のコンピュータからの出力と前記第2のコンピュータからの出力を比較するように構成される
ことをさらに特徴とする、
自動運転車両を制御するためのシステム。 - 前記監視MCUが、前記第1のコンピュータからの出力と前記第2のコンピュータからの出力が一致しない場合にアラーム信号を出力するようにさらに構成される
ことをさらに特徴とする、請求項[00584]に記載の自動運転車両を制御するためのシステム。 - 前記第1の複数のカメラ・センサが、25度の視野を有する少なくとも1つの長距離カメラと、50度の視野を有する少なくとも1つの短距離カメラとを含む
ことをさらに特徴とする、請求項[00566]に記載の自動運転車両を制御するためのシステム。 - 前記第1の複数のカメラ・センサが、150度の視野を有する少なくとも1つの魚眼前方カメラを含む
ことをさらに特徴とする、請求項[00566]に記載の自動運転車両を制御するためのシステム。 - 前記第1の複数のカメラ・センサが少なくとも4つの広角カメラを含む
ことをさらに特徴とする、請求項[00566]に記載の自動運転車両を制御するためのシステム。 - 前記第1の複数のカメラ・センサが少なくとも1つの赤外線カメラを含む
ことをさらに特徴とする、請求項[00566]に記載の自動運転車両を制御するためのシステム。 - 前記プライマリ・コンピュータが、歩行者検出を向上させるために前記少なくとも1つの赤外線カメラからのデータと少なくとも1つの他のカメラからのデータを融合させる
ことをさらに特徴とする、請求項283に記載の自動運転車両を制御するためのシステム。 - 前記少なくとも1つの赤外線カメラがパッシブ赤外線システムをどこに備えるか
をさらに特徴とする、請求項283に記載の自動運転車両を制御するためのシステム。 - 前記少なくとも1つの赤外線カメラがアクティブ赤外線システムをどこに備えるか
をさらに特徴とする、請求項283に記載の自動運転車両を制御するためのシステム。 - 前記アクティブ赤外線システムが、ゲーティングされた赤外線システムであることをさらに特徴とする、請求項283に記載の自動運転車両を制御するためのシステム。
- 前記第1の複数のカメラ・センサが、15度から45度の間の水平視野を有する少なくとも1つの長距離カメラと、45度から75度の間の水平視野を有する少なくとも1つの短距離カメラとを含む
ことをさらに特徴とする、請求項[00573]に記載の自動運転車両を制御するためのシステム。 - 前記第1の複数のカメラ・センサが、90度から180度の間の水平視野を有する少なくとも1つの魚眼前方カメラを含む
ことをさらに特徴とする、請求項[00573]に記載の自動運転車両を制御するためのシステム。 - 前記第1の複数のカメラ・センサが少なくとも4つの広角カメラを含む
ことをさらに特徴とする、請求項[00573]に記載の自動運転車両を制御するためのシステム。 - 前記第1の複数のカメラ・センサが少なくとも1つの赤外線カメラを含む
ことをさらに特徴とする、請求項[00573]に記載の自動運転車両を制御するためのシステム。 - 前記少なくとも1つの赤外線カメラがパッシブ赤外線システムを備える
ことをさらに特徴とする、請求項291に記載の自動運転車両を制御するためのシステム。 - 前記少なくとも1つの赤外線カメラがアクティブ赤外線システムを備える
ことをさらに特徴とする、請求項291に記載の自動運転車両を制御するためのシステム。 - 前記アクティブ赤外線システムが、ゲーティングされた赤外線システムである
ことをさらに特徴とする、請求項291に記載の自動運転車両を制御するためのシステム。 - 前記プライマリ・コンピュータが、歩行者検出を向上させるために前記少なくとも1つの赤外線カメラからのデータと少なくとも1つの他のカメラからのデータを融合させる
ことをさらに特徴とする、請求項291に記載の自動運転車両を制御するためのシステム。 - 前記第1の複数のカメラ・センサが、15度から45度の間の水平視野を有する少なくとも1つの長距離カメラと、45度から75度の間の水平視野を有する少なくとも1つの短距離カメラとを含む
ことをさらに特徴とする、請求項[00582]に記載の自動運転車両を制御するためのシステム。 - 前記第1の複数のカメラ・センサが、90度から180度の間の水平視野を有する少なくとも1つの魚眼前方カメラを含む
ことをさらに特徴とする、請求項[00582]に記載の自動運転車両を制御するためのシステム。 - 前記第1の複数のカメラ・センサが少なくとも4つの広角カメラを含む
ことをさらに特徴とする、請求項[00582]に記載の自動運転車両を制御するためのシステム。 - 前記第1の複数のカメラ・センサが少なくとも1つの赤外線カメラを含む
ことをさらに特徴とする、請求項[00582]に記載の自動運転車両を制御するためのシステム。 - 前記プライマリ・コンピュータが、歩行者検出を向上させるために前記少なくとも1つの赤外線カメラからのデータと少なくとも1つの他のカメラからのデータを融合させる
ことをさらに特徴とする、請求項299に記載の自動運転車両を制御するためのシステム。 - 前記第1の複数のカメラ・センサが、15度から45度の間の水平視野を有する少なくとも1つの長距離カメラと、45度から75度の間の水平視野を有する少なくとも1つの短距離カメラとを含む
ことをさらに特徴とする、請求項[00584]に記載の自動運転車両を制御するためのシステム。 - 前記第1の複数のカメラ・センサが、90度から180度の間の水平視野を有する少なくとも1つの魚眼前方カメラを含む
ことをさらに特徴とする、請求項[00584]に記載の自動運転車両を制御するためのシステム。 - 前記第1の複数のカメラ・センサが少なくとも4つの広角カメラを含む
ことをさらに特徴とする、請求項[00584]に記載の自動運転車両を制御するためのシステム。 - 前記第1の複数のカメラ・センサが少なくとも4つの赤外線カメラを含む
ことをさらに特徴とする、請求項[00584]に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに結合されたLIDARセンサ
をさらに特徴とする、請求項[00566]に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに結合されたLIDARセンサ
をさらに特徴とする、請求項[00573]に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに結合されたLIDARセンサ
をさらに特徴とする、請求項[00582]に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに結合されたLIDARセンサ
をさらに特徴とする、請求項[00584]に記載の自動運転車両を制御するためのシステム。 - 前記LIDARセンサが前記自動運転車両の前面に取り付けられ、水平視野が45度から135度の間である
ことをさらに特徴とする、請求項305に記載の自動運転車両を制御するためのシステム。 - 前記LIDARセンサが前記自動運転車両の前面に取り付けられ、水平視野が45度から135度の間である
ことをさらに特徴とする、請求項306に記載の自動運転車両を制御するためのシステム。 - 前記LIDARセンサが前記自動運転車両の前面に取り付けられ、水平視野が45度から135度の間である
ことをさらに特徴とする、請求項307に記載の自動運転車両を制御するためのシステム。 - 前記LIDARセンサが前記自動運転車両の前面に取り付けられ、水平視野が45度から135度の間である
ことをさらに特徴とする、請求項308に記載の自動運転車両を制御するためのシステム。 - 前記LIDARセンサがフラッシュLIDARセンサである
ことをさらに特徴とする、請求項305に記載の自動運転車両を制御するためのシステム。 - 前記LIDARセンサがフラッシュLIDARセンサである
ことをさらに特徴とする、請求項306に記載の自動運転車両を制御するためのシステム。 - 前記LIDARセンサがフラッシュLIDARセンサである
ことをさらに特徴とする、請求項307に記載の自動運転車両を制御するためのシステム。 - 前記LIDARセンサがフラッシュLIDARセンサである
ことをさらに特徴とする、請求項308に記載の自動運転車両を制御するためのシステム。 - 前記LIDARセンサがソリッド・ステートLIDARセンサである
ことをさらに特徴とする、請求項305に記載の自動運転車両を制御するためのシステム。 - 前記LIDARセンサがソリッド・ステートLIDARセンサである
ことをさらに特徴とする、請求項306に記載の自動運転車両を制御するためのシステム。 - 前記LIDARセンサがソリッド・ステートLIDARセンサである
ことをさらに特徴とする、請求項307に記載の自動運転車両を制御するためのシステム。 - 前記LIDARセンサがソリッド・ステートLIDARセンサである
ことをさらに特徴とする、請求項308に記載の自動運転車両を制御するためのシステム。 - 前記車両の前面に配置された第1のフラッシュLIDARセンサと、
前記車両の前記前面に配置された第2のフラッシュLIDARセンサと、
前記車両の前記前面に配置された第3のフラッシュLIDARセンサと、
前記車両の後面に配置された第4のフラッシュLIDARセンサと、
前記第1のコンピュータが、前記フラッシュLIDARセンサから情報を受け取るように構成されること
をさらに特徴とする、請求項[00566]に記載の自動運転車両を制御するためのシステム。 - 前記車両の前面に配置された第1のフラッシュLIDARセンサと、
前記車両の前記前面に配置された第2のフラッシュLIDARセンサと、
前記車両の前記前面に配置された第3のフラッシュLIDARセンサと、
前記車両の後面に配置された第4のフラッシュLIDARセンサと、
前記第1のコンピュータが、前記フラッシュLIDARセンサから情報を受け取るように構成されること
をさらに特徴とする、請求項[00573]に記載の自動運転車両を制御するためのシステム。 - 前記車両の前面に配置された第1のフラッシュLIDARセンサと、
前記車両の前記前面に配置された第2のフラッシュLIDARセンサと、
前記車両の前記前面に配置された第3のフラッシュLIDARセンサと、
前記車両の後面に配置された第4のフラッシュLIDARセンサと、
前記第1のコンピュータが、前記フラッシュLIDARセンサから情報を受け取るように構成されること
をさらに特徴とする、請求項[00582]に記載の自動運転車両を制御するためのシステム。 - 前記車両の前面に配置された第1のフラッシュLIDARセンサと、
前記車両の前記前面に配置された第2のフラッシュLIDARセンサと、
前記車両の前記前面に配置された第3のフラッシュLIDARセンサと、
前記車両の後面に配置された第4のフラッシュLIDARセンサと、
前記第1のコンピュータが、前記フラッシュLIDARセンサから情報を受け取るように構成されること
をさらに特徴とする、請求項[00584]に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに結合されたレーダ・センサ
をさらに特徴とする、請求項[00566]に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに結合されたレーダ・センサ
をさらに特徴とする、請求項[00573]に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに結合されたレーダ・センサ
をさらに特徴とする、請求項[00582]に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに結合されたレーダ・センサ
をさらに特徴とする、請求項[00584]に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに結合された超音波センサ
をさらに特徴とする、請求項325に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに結合された超音波センサ
をさらに特徴とする、請求項326に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに結合された超音波センサ
をさらに特徴とする、請求項327に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに結合された超音波センサ
をさらに特徴とする、請求項328に記載の自動運転車両を制御するためのシステム。 - レーダ、LIDAR、及び超音波センサからなる群から選択された前記第1のコンピュータに結合された少なくとも1つのセンサ
をさらに特徴とする、請求項[00566]に記載の自動運転車両を制御するためのシステム。 - レーダ、LIDAR、及び超音波センサからなる群から選択された前記第1のコンピュータに結合された少なくとも1つのセンサ
をさらに特徴とする、請求項[00573]に記載の自動運転車両を制御するためのシステム。 - レーダ、LIDAR、及び超音波センサからなる群から選択された前記第1のコンピュータに結合された少なくとも1つのセンサ
をさらに特徴とする、請求項[00582]に記載の自動運転車両を制御するためのシステム。 - レーダ、LIDAR、及び超音波センサからなる群から選択された前記第1のコンピュータに結合された少なくとも1つのセンサ
をさらに特徴とする、請求項[00584]に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータ上の少なくとも1つのディープ・ラーニング・アクセラレータ上で実行するニューラル・ネットワーク
をさらに特徴とする、請求項[00566]に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータ上の少なくとも1つのディープ・ラーニング・アクセラレータ上で実行する前記ニューラル・ネットワークがCNNを有する
ことをさらに特徴とする、請求項337に記載の自動運転車両を制御するためのシステム。 - 前記CNNが領域ベース畳み込みニューラル・ネットワークを備える
ことをさらに特徴とする、請求項338に記載の自動運転車両を制御するためのシステム。 - 前記CNNが対象物検出のために訓練される
ことをさらに特徴とする、請求項338に記載の自動運転車両を制御するためのシステム。 - 前記CNNが、交通標識検出、歩行者検出、又は車両検出のうちの少なくとも1つのために訓練される
ことをさらに特徴とする、請求項338に記載の自動運転車両を制御するためのシステム。 - 前記CNNが、カメラ・レンズが障害によって妨害された状態を検出するように訓練される
ことをさらに特徴とする、請求項338に記載の自動運転車両を制御するためのシステム。 - 前記CNNの、前記レンズ妨害状態の検出に応答して、前記プライマリ・コンピュータが、レンズ清掃ルーチンを実行するために制御信号を送る
ことをさらに特徴とする、請求項342に記載の自動運転車両を制御するためのシステム。 - 前記レンズ清掃ルーチンを実行する前記プライマリ・コンピュータによって指示されると1つ又は複数のレンズ上で圧縮空気のストリームを提供するためのノズル
をさらに特徴とする、請求項343に記載の自動運転車両を制御するためのシステム。 - 前記レンズ清掃ルーチンを実行する前記プライマリ・コンピュータによって指示されると結露、霜、又は氷を減少させるために前記レンズを加熱するためのヒータ
をさらに特徴とする、請求項343に記載の自動運転車両を制御するためのシステム。 - 前記CNNが、カメラの故障を検出するように訓練される
ことをさらに特徴とする、請求項338に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータ上の少なくとも1つのディープ・ラーニング・アクセラレータ上で実行するニューラル・ネットワーク
をさらに特徴とする、請求項[00573]に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータ上の少なくとも1つのディープ・ラーニング・アクセラレータ上で実行する前記ニューラル・ネットワークがCNNを有すること
をさらに特徴とする、請求項347に記載の自動運転車両を制御するためのシステム。 - 前記CNNが領域ベース畳み込みニューラル・ネットワークを備える
ことをさらに特徴とする、請求項348に記載の自動運転車両を制御するためのシステム。 - 前記CNNが対象物検出のために訓練される
ことをさらに特徴とする、請求項348に記載の自動運転車両を制御するためのシステム。 - 前記CNNが、交通標識検出、歩行者検出、又は車両検出のうちの少なくとも1つのために訓練される
ことをさらに特徴とする、請求項350に記載の自動運転車両を制御するためのシステム。 - 前記CNNが、カメラ・レンズが障害によって妨害された状態を検出するように訓練される
ことをさらに特徴とする、請求項348に記載の自動運転車両を制御するためのシステム。 - 前記CNNの、前記レンズ妨害状態の検出に応答して、前記プライマリ・コンピュータが、レンズ清掃ルーチンを実行するために制御信号を送る
ことをさらに特徴とする、請求項352に記載の自動運転車両を制御するためのシステム。 - 前記レンズ清掃ルーチンを実行する前記プライマリ・コンピュータによって指示されると1つ又は複数のレンズ上で圧縮空気のストリームを提供するためのノズル
をさらに特徴とする、請求項353に記載の自動運転車両を制御するためのシステム。 - 前記レンズ清掃ルーチンを実行する前記プライマリ・コンピュータによって指示されると結露、霜、又は氷を減少させるために前記レンズを加熱するためのヒータ
をさらに特徴とする、請求項353に記載の自動運転車両を制御するためのシステム。 - 前記CNNが、カメラの故障を検出するように訓練される
ことをさらに特徴とする、請求項348に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータ上の少なくとも1つのディープ・ラーニング・アクセラレータ上で実行するCNN
をさらに特徴とする、請求項[00582]に記載の自動運転車両を制御するためのシステム。 - 前記CNNが対象物検出のために訓練される
ことをさらに特徴とする、請求項357に記載の自動運転車両を制御するためのシステム。 - 前記CNNが、交通標識検出、歩行者検出、又は車両検出のうちの少なくとも1つのために訓練される
ことをさらに特徴とする、請求項358に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータ上の少なくとも1つのディープ・ラーニング・アクセラレータ上で実行するCNN
をさらに特徴とする、請求項[00584]に記載の自動運転車両を制御するためのシステム。 - 前記CNNが対象物検出のために訓練される
ことをさらに特徴とする、請求項360に記載の自動運転車両を制御するためのシステム。 - 前記CNNが、交通標識検出、歩行者検出、又は車両検出のうちの少なくとも1つのために訓練される
ことをさらに特徴とする、請求項361に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータ上の少なくとも1つのプログラマブル・ビジョン・アクセラレータ上で実行するコンピュータ・ビジョン・アルゴリズム
をさらに特徴とする、請求項[00566]に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータ上の少なくとも1つのプログラマブル・ビジョン・アクセラレータ上で実行するコンピュータ・ビジョン・アルゴリズム
をさらに特徴とする、請求項[00573]に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータ上の少なくとも1つのプログラマブル・ビジョン・アクセラレータ上で実行するコンピュータ・ビジョン・アルゴリズム
をさらに特徴とする、請求項[00582]に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータ上の少なくとも1つのプログラマブル・ビジョン・アクセラレータ上で実行するコンピュータ・ビジョン・アルゴリズム
をさらに特徴とする、請求項[00584]に記載の自動運転車両を制御するためのシステム。 - 前記コンピュータ・ビジョン・アルゴリズムが、交通標識検出、距離推定、又は車両検出のうちの少なくとも1つを実行する
ことをさらに特徴とする、請求項363に記載の自動運転車両を制御するためのシステム。 - 前記コンピュータ・ビジョン・アルゴリズムが、交通標識検出、距離推定、又は車両検出のうちの少なくとも1つを実行する
ことをさらに特徴とする、請求項364に記載の自動運転車両を制御するためのシステム。 - 前記コンピュータ・ビジョン・アルゴリズムが、交通標識検出、距離推定、又は車両検出のうちの少なくとも1つを実行する
ことをさらに特徴とする、請求項365に記載の自動運転車両を制御するためのシステム。 - 前記コンピュータ・ビジョン・アルゴリズムが、交通標識検出、距離推定、又は車両検出のうちの少なくとも1つを実行する
ことをさらに特徴とする、請求項366に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータ上の少なくとも1つのプログラマブル・ビジョン・アクセラレータ上で実行するコンピュータ・ビジョン・アルゴリズム
をさらに特徴とする、請求項341に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータ上の少なくとも1つのプログラマブル・ビジョン・アクセラレータ上で実行するコンピュータ・ビジョン・アルゴリズム
をさらに特徴とする、請求項351に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータ上の少なくとも1つのプログラマブル・ビジョン・アクセラレータ上で実行するコンピュータ・ビジョン・アルゴリズム
をさらに特徴とする、請求項359に記載の自動運転車両を制御するためのシステム。 - 前記コンピュータ・ビジョン・アルゴリズムが、交通標識検出、距離推定、又は車両検出のうちの少なくとも1つを実行する
ことをさらに特徴とする、請求項371に記載の自動運転車両を制御するためのシステム。 - 前記コンピュータ・ビジョン・アルゴリズムが、交通標識検出、距離推定、又は車両検出のうちの少なくとも1つを実行する
ことをさらに特徴とする、請求項372に記載の自動運転車両を制御するためのシステム。 - 前記コンピュータ・ビジョン・アルゴリズムが、交通標識検出、距離推定、又は車両検出のうちの少なくとも1つを実行する
ことをさらに特徴とする、請求項373に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに結合された超音波センサ
をさらに特徴とする、請求項325に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに結合された超音波センサ
をさらに特徴とする、請求項326に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに結合された超音波センサ
をさらに特徴とする、請求項327に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに結合された超音波センサ
をさらに特徴とする、請求項328に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータに電気的に結合された少なくとも1つのマイクロホン
をさらに特徴とする、請求項1[00558]に記載の自動運転車両を制御するためのシステム。 - オーディオ信号を処理するためのデジタル信号プロセッサと、内部RAMとを特徴とするオーディオ処理エンジン
をさらに特徴とする、請求項381に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータが、緊急車両サイレンを識別するように訓練されたCNNを含む
ことをさらに特徴とする、請求項382に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータが、緊急車両サイレンを識別すると緊急車両安全ルーチンを実行するように構成される
ことをさらに特徴とする、請求項383に記載の自動運転車両を制御するためのシステム。 - 前記緊急車両安全ルーチンが、前記車両を遅くすることと、前記道路の脇に寄せることと、前記車両を駐車させることと、緊急車両が通過するまで前記車両をアイドリングさせることとを含む
ことをさらに特徴とする、請求項384に記載の自動運転車両を制御するためのシステム。 - 前記第1のコンピュータが、前記緊急車両安全ルーチンを実行するとき、1つ又は複数の超音波センサからの情報を使用するように構成される
ことをさらに特徴とする1つ又は複数の超音波センサ
をさらに特徴とする、請求項385に記載の自動運転車両を制御するためのシステム。 - 前記緊急車両安全ルーチンを実行するように構成された前記第1のコンピュータに結合されたディスクリートX86 CPU
をさらに特徴とする、請求項386に記載の自動運転車両を制御するためのシステム。 - ASIL D機能安全性評価を有する自動運転車両を制御するためのシステムであって、
請求項1[00558]に記載の自動運転車両を制御するためのコンピュータと、
ASIL−B機能安全性評価を有する前方衝突警告システムと
を特徴とし、
前記自動運転車両を制御するためのコンピュータがASIL−C機能安全性評価を有することをさらに特徴とする、
システム。 - 請求項[00566]に記載の自動運転車両のシステムを特徴とする牽引車と、
複数の重量重心センサを特徴とするトレーラであって、
前記牽引車に電気的に結合されたトレーラと
を特徴とする、自律運転トラック。 - 請求項219に記載の自動運転車両のシステムを特徴とする牽引車と、
複数の重量重心センサを特徴とするトレーラであって、
前記牽引車に電気的に結合されたトレーラと
を特徴とする、自律運転トラック。 - 請求項[00573]に記載の自動運転車両のシステムを特徴とする牽引車と、
複数の重量重心センサを特徴とするトレーラであって、
前記牽引車に電気的に結合されたトレーラと
を特徴とする、自律運転トラック。 - 請求項265に記載の自動運転車両のシステムを特徴とする牽引車と、
複数の重量重心センサを特徴とするトレーラであって、
前記牽引車に電気的に結合されたトレーラと
を特徴とする、自律運転トラック。 - 請求項[00582]に記載の自動運転車両のシステムを特徴とする牽引車と、
複数の重量重心センサを特徴とするトレーラであって、
前記牽引車に電気的に結合されたトレーラと
を特徴とする、自律運転トラック。 - 請求項277に記載の自動運転車両のシステムを特徴とする牽引車と、
複数の重量重心センサを特徴とするトレーラであって、
前記牽引車に電気的に結合されたトレーラと
を特徴とする、自律運転トラック。 - 請求項[00584]に記載の自動運転車両のシステムを特徴とする牽引車と、
複数の重量重心センサを特徴とするトレーラであって、
前記牽引車に電気的に結合されたトレーラと
を特徴とする、自律運転トラック。 - 前記トレーラに加えられた横風を検出するための、前記トレーラと関連づけられた少なくとも1つの突風センサ
をさらに特徴とする、請求項[00596]に記載の自律運転トラック。 - 前記突風センサが、
前記トレーラの一方の側にピトー管を有する第1のセンサと、
前記トレーラの他方の側にピトー管を有する第2のセンサと、
前記プライマリ・コンピュータに電気的に結合された前記第1のセンサ及び前記第2のセンサ
を備えることをさらに特徴とし、
前記プライマリ・コンピュータが、横方向の突風を識別するために前記第1のセンサからの結果と前記第2のセンサからの結果を比較するように構成されることをさらに特徴とする、請求項396に記載の自律運転トラック。 - 前記トラックの加速、ブレーキ、及びステアリングを制御するための複数の車両アクチュエータ
をさらに特徴とし、
前記プライマリ・コンピュータが、前記比較を使用して前記車両アクチュエータのうちの1つ又は複数を制御するように構成される
ことをさらに特徴とする、請求項397に記載の自律運転トラック。 - 前記トレーラの重量及び重心を測定するために配置され、前記トレーラの前記重量及び重心に関する情報を前記プライマリ・コンピュータに提供するために前記プライマリ・コンピュータに電気的に結合された複数の重量重心センサ
を特徴とし、
前記プライマリ・コンピュータが、前記重量及び重心情報を使用して、突風を識別するために前記第1のセンサからの結果と前記第2のセンサからの結果の比較を検証するように構成される
ことをさらに特徴とする、請求項398に記載の自律運転トラック。 - 前記トレーラに加えられた横風を検出するための、前記トレーラと関連づけられた少なくとも1つの突風センサ
をさらに特徴とする、請求項390に記載の自律運転トラック。 - 前記突風センサが、
前記トレーラの一方の側にピトー管を有する第1のセンサと、
前記トレーラの他方の側にピトー管を有する第2のセンサと、
前記プライマリ・コンピュータに電気的に結合された前記第1のセンサ及び前記第2のセンサ
を備えることをさらに特徴とし、
前記プライマリ・コンピュータが、横方向の突風を識別するために前記第1のセンサからの結果と前記第2のセンサからの結果を比較するように構成されることをさらに特徴とする、請求項400に記載の自律運転トラック。 - 前記トラックの加速、ブレーキ、及びステアリングを制御するための複数の車両アクチュエータ
をさらに特徴とし、
前記プライマリ・コンピュータが、前記比較を使用して前記車両アクチュエータのうちの1つ又は複数を制御するように構成される
ことをさらに特徴とする、請求項401に記載の自律運転トラック。 - 前記トレーラの重量及び重心を測定するために配置され、前記トレーラの前記重量及び重心に関する情報を前記プライマリ・コンピュータに提供するために前記プライマリ・コンピュータに電気的に結合された複数の重量重心センサ
をさらに特徴とし、
前記プライマリ・コンピュータが、前記重量及び重心情報を使用して、突風を識別するために前記第1のセンサからの結果と前記第2のセンサからの結果の比較を検証するように構成される
ことをさらに特徴とする、請求項402に記載の自律運転トラック。 - 前記トレーラに加えられた横風を検出するための、前記トレーラと関連づけられた少なくとも1つの突風センサ
をさらに特徴とする、請求項391に記載の自律運転トラック。 - 前記突風センサが、
前記トレーラの一方の側にピトー管を有する第1のセンサと、
前記トレーラの他方の側にピトー管を有する第2のセンサと、
前記プライマリ・コンピュータに電気的に結合された前記第1のセンサ及び前記第2のセンサ
を備えることをさらに特徴とし、
前記プライマリ・コンピュータが、横方向の突風を識別するために前記第1のセンサからの結果と前記第2のセンサからの結果を比較するように構成されることをさらに特徴とする、請求項404に記載の自律運転トラック。 - 前記トラックの加速、ブレーキ、及びステアリングを制御するための複数の車両アクチュエータ
をさらに特徴とし、
前記プライマリ・コンピュータが、前記比較を使用して前記車両アクチュエータのうちの1つ又は複数を制御するように構成される
ことをさらに特徴とする、請求項405に記載の自律運転トラック。 - 前記トレーラの重量及び重心を測定するために配置され、前記トレーラの前記重量及び重心に関する情報を前記プライマリ・コンピュータに提供するために前記プライマリ・コンピュータに電気的に結合された複数の重量重心センサ
をさらに特徴とし、
前記プライマリ・コンピュータが、前記重量及び重心情報を使用して、突風を識別するために前記第1のセンサからの結果と前記第2のセンサからの結果の比較を検証するように構成される
ことをさらに特徴とする、請求項406に記載の自律運転トラック。 - 前記トレーラに加えられた横風を検出するための、前記トレーラと関連づけられた少なくとも1つの突風センサ
をさらに特徴とする、請求項392に記載の自律運転トラック。 - 前記突風センサが、
前記トレーラの一方の側にピトー管を有する第1のセンサと、
前記トレーラの他方の側にピトー管を有する第2のセンサと、
前記プライマリ・コンピュータに電気的に結合された前記第1のセンサ及び前記第2のセンサ
を備えることをさらに特徴とし、
前記プライマリ・コンピュータが、横方向の突風を識別するために前記第1のセンサからの結果と前記第2のセンサからの結果を比較するように構成されることをさらに特徴とする、請求項408に記載の自律運転トラック。 - 前記トラックの加速、ブレーキ、及びステアリングを制御するための複数の車両アクチュエータ
をさらに特徴とし、
前記プライマリ・コンピュータが、前記比較を使用して前記車両アクチュエータのうちの1つ又は複数を制御するように構成される
ことをさらに特徴とする、請求項409に記載の自律運転トラック。 - 前記トレーラの重量及び重心を測定するために配置され、前記トレーラの前記重量及び重心に関する情報を前記プライマリ・コンピュータに提供するために前記プライマリ・コンピュータに電気的に結合された複数の重量重心センサ
をさらに特徴とし、
前記プライマリ・コンピュータが、前記重量及び重心情報を使用して、突風を識別するために前記第1のセンサからの結果と前記第2のセンサからの結果の比較を検証するように構成される
ことをさらに特徴とする、請求項410に記載の自律運転トラック。 - 前記トレーラに加えられた横風を検出するための、前記トレーラと関連づけられた少なくとも1つの突風センサ
をさらに特徴とする、請求項393に記載の自律運転トラック。 - 前記突風センサが、
前記トレーラの一方の側にピトー管を有する第1のセンサと、
前記トレーラの他方の側にピトー管を有する第2のセンサと、
前記プライマリ・コンピュータに電気的に結合された前記第1のセンサ及び前記第2のセンサ
を備えることをさらに特徴とし、
前記プライマリ・コンピュータが、横方向の突風を識別するために前記第1のセンサからの結果と前記第2のセンサからの結果を比較するように構成されることをさらに特徴とする、請求項412に記載の自律運転トラック。 - 前記トラックの加速、ブレーキ、及びステアリングを制御するための複数の車両アクチュエータ
をさらに特徴とし、
前記プライマリ・コンピュータが、前記比較を使用して前記車両アクチュエータのうちの1つ又は複数を制御するように構成される
ことをさらに特徴とする、請求項413に記載の自律運転トラック。 - 前記トレーラの重量及び重心を測定するために配置され、前記トレーラの前記重量及び重心に関する情報を前記プライマリ・コンピュータに提供するために前記プライマリ・コンピュータに電気的に結合された複数の重量重心センサ
をさらに特徴とし、
前記プライマリ・コンピュータが、前記重量及び重心情報を使用して、突風を識別するために前記第1のセンサからの結果と前記第2のセンサからの結果の比較を検証するように構成される
ことをさらに特徴とする、請求項414に記載の自律運転トラック。 - 前記トレーラに加えられた横風を検出するための、前記トレーラと関連づけられた少なくとも1つの突風センサ
をさらに特徴とする、請求項394に記載の自律運転トラック。 - 前記突風センサが、
前記トレーラの一方の側にピトー管を有する第1のセンサと、
前記トレーラの他方の側にピトー管を有する第2のセンサと、
前記プライマリ・コンピュータに電気的に結合された前記第1のセンサ及び前記第2のセンサ
を備えることをさらに特徴とし、
前記プライマリ・コンピュータが、横方向の突風を識別するために前記第1のセンサからの結果と前記第2のセンサからの結果を比較するように構成されることをさらに特徴とする、請求項416に記載の自律運転トラック。 - 前記トラックの加速、ブレーキ、及びステアリングを制御するための複数の車両アクチュエータ
をさらに特徴とし、
前記プライマリ・コンピュータが、前記比較を使用して前記車両アクチュエータのうちの1つ又は複数を制御するように構成される
ことをさらに特徴とする、請求項417に記載の自律運転トラック。 - 前記トレーラの重量及び重心を測定するために配置され、前記トレーラの前記重量及び重心に関する情報を前記プライマリ・コンピュータに提供するために前記プライマリ・コンピュータに電気的に結合された複数の重量重心センサ
をさらに特徴とし、
前記プライマリ・コンピュータが、前記重量及び重心情報を使用して、突風を識別するために前記第1のセンサからの結果と前記第2のセンサからの結果の比較を検証するように構成される
ことをさらに特徴とする、請求項418に記載の自律運転トラック。 - 前記トレーラに加えられた横風を検出するための、前記トレーラと関連づけられた少なくとも1つの突風センサ
をさらに特徴とする、請求項395に記載の自律運転トラック。 - 前記突風センサが、
前記トレーラの一方の側にピトー管を有する第1のセンサと、
前記トレーラの他方の側にピトー管を有する第2のセンサと、
前記プライマリ・コンピュータに電気的に結合された前記第1のセンサ及び前記第2のセンサ
を備えることをさらに特徴とし、
前記プライマリ・コンピュータが、横方向の突風を識別するために前記第1のセンサからの結果と前記第2のセンサからの結果を比較するように構成されることをさらに特徴とする、請求項420に記載の自律運転トラック。 - 前記トラックの加速、ブレーキ、及びステアリングを制御するための複数の車両アクチュエータ
をさらに特徴とし、
前記プライマリ・コンピュータが、前記比較を使用して前記車両アクチュエータのうちの1つ又は複数を制御するように構成される
ことをさらに特徴とする、請求項421に記載の自律運転トラック。 - 前記トレーラの重量及び重心を測定するために配置され、前記トレーラの前記重量及び重心に関する情報を前記プライマリ・コンピュータに提供するために前記プライマリ・コンピュータに電気的に結合された複数の重量重心センサ
をさらに特徴とし、
前記プライマリ・コンピュータが、前記重量及び重心情報を使用して、突風を識別するために前記第1のセンサからの結果と前記第2のセンサからの結果の比較を検証するように構成される
ことをさらに特徴とする、請求項422に記載の自律運転トラック。 - 前記トレーラのピッチ、ロール、及びヨーのうちの少なくとも1つを検出するための、前記トレーラと関連づけられた複数の慣性センサ
をさらに特徴とする、請求項396に記載の自律運転トラック。 - 前記トレーラのピッチ、ロール、及びヨーのうちの少なくとも1つを検出するための、前記トレーラと関連づけられた複数の慣性センサ
をさらに特徴とする、請求項400に記載の自律運転トラック。 - 前記トレーラのピッチ、ロール、及びヨーのうちの少なくとも1つを検出するための、前記トレーラと関連づけられた複数の慣性センサ
をさらに特徴とする、請求項404に記載の自律運転トラック。 - 前記トレーラのピッチ、ロール、及びヨーのうちの少なくとも1つを検出するための、前記トレーラと関連づけられた複数の慣性センサ
をさらに特徴とする、請求項408に記載の自律運転トラック。 - 前記トレーラのピッチ、ロール、及びヨーのうちの少なくとも1つを検出するための、前記トレーラと関連づけられた複数の慣性センサ
をさらに特徴とする、請求項412に記載の自律運転トラック。 - 前記トレーラのピッチ、ロール、及びヨーのうちの少なくとも1つを検出するための、前記トレーラと関連づけられた複数の慣性センサ
をさらに特徴とする、請求項416に記載の自律運転トラック。 - 前記トレーラのピッチ、ロール、及びヨーのうちの少なくとも1つを検出するための、前記トレーラと関連づけられた複数の慣性センサ
をさらに特徴とする、請求項420に記載の自律運転トラック。 - 前記MCUが、前記重量重心センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項[00596]に記載の自律運転トラック。 - 前記MCUが、前記重量重心センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項390に記載の自律運転トラック。 - 前記MCUが、前記重量重心センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項391に記載の自律運転トラック。 - 前記MCUが、前記重量重心センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項392に記載の自律運転トラック。 - 前記MCUが、前記重量重心センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項393に記載の自律運転トラック。 - 前記MCUが、前記重量重心センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項394に記載の自律運転トラック。 - 前記MCUが、前記重量重心センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項395に記載の自律運転トラック。 - 前記MCUが、前記突風センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項396に記載の自律運転トラック。 - 前記MCUが、前記突風センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項400に記載の自律運転トラック。 - 前記MCUが、前記突風センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項404に記載の自律運転トラック。 - 前記MCUが、前記突風センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項408に記載の自律運転トラック。 - 前記MCUが、前記突風センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項412に記載の自律運転トラック。 - 前記MCUが、前記突風センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項416に記載の自律運転トラック。 - 前記MCUが、前記突風センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項420に記載の自律運転トラック。 - 前記プログラマブル・ビジョン・アクセラレータが、前記突風センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項396に記載の自律運転トラック。 - 前記プログラマブル・ビジョン・アクセラレータが、前記突風センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項400に記載の自律運転トラック。 - 前記プログラマブル・ビジョン・アクセラレータが、前記突風センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項404に記載の自律運転トラック。 - 前記プログラマブル・ビジョン・アクセラレータが、前記突風センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項408に記載の自律運転トラック。 - 前記プログラマブル・ビジョン・アクセラレータが、前記突風センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項412に記載の自律運転トラック。 - 前記プログラマブル・ビジョン・アクセラレータが、前記突風センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項416に記載の自律運転トラック。 - 前記プログラマブル・ビジョン・アクセラレータが、前記突風センサからの前記情報を使用して、前記トラックの速度、加速、又は減速のうちの少なくとも1つを制限するように構成される
ことをさらに特徴とする、請求項420に記載の自律運転トラック。 - 前記トレーラ内に配置されたカメラ・センサと、
前記システム・オン・チップに電気的に結合された前記センサと
をさらに特徴とする、請求項420に記載の自律運転トラック。 - 前記トレーラ内に配置された煙検出器と、
前記システム・オン・チップに電気的に結合された前記センサと、
前記トレーラ内の火災を示す前記煙検出器からの信号に応答して火災応答プロトコルを実行するように構成された前記システム・オン・チップと、
火災の存在を示すワイヤレス信号を送ること、
前記トラックの所在地を示すワイヤレス信号を送ること、及び
前記トラックの駐車操作を実行すること
を特徴とする前記火災応答プロトコルと
をさらに特徴とする、請求項420に記載の自律運転トラック。 - 第1の制御可能な車軸と、
前記第1の制御可能な車軸を制御するための第1のコントローラと、
第2の制御可能な車軸と、
前記第2の制御可能な車軸を制御するための第2のコントローラと、
請求項1179に記載のシステム・オン・チップを特徴とする前記第1のコントローラと、
請求項1179に記載のシステム・オン・チップを特徴とする前記第2のコントローラと
を特徴とする、自律運転トラック。 - 第1の制御可能な車軸と、
前記第1の制御可能な車軸を制御するための第1のコントローラと、
第2の制御可能な車軸と、
前記第2の制御可能な車軸を制御するための第2のコントローラと、
請求項1179に記載のシステム・オン・チップを特徴とする前記第1のコントローラと、
ディープ・ラーニング・アクセラレータを特徴とする前記第2のコントローラと
を特徴とする、自律運転トラック。 - 前記車両の前面に設置された少なくとも1つの赤外線カメラ
をさらに特徴とする、請求項[00601]に記載の自律運転トラック。 - 前記赤外線カメラがズーム機能を含む
ことをさらに特徴とする、請求項[00601]に記載の自律運転トラック。 - 前記車両の前面、後面、及び側面に設置された複数の赤外線カメラ
をさらに特徴とする、請求項455に記載の自律運転トラック。 - 前記赤外線カメラのうちの1つ又は複数がズーム機能を含む
ことをさらに特徴とする、請求項[00601]に記載の自律運転トラック。 - 車両本体と、
複数の乗客のための、前記車両本体内の座席エリアと、
請求項1179に記載のコンピュータを特徴とする前記車両を制御するためのコンピュータと、
前記座席エリアをモニタするための前記車両本体内の少なくとも1つのカメラであって、前記コンピュータに電気的に結合されたカメラと、
前記コンピュータ上で実行する少なくとも1つのニューラル・ネットワークであって、安全状態を識別するように訓練されたニューラル・ネットワークと、
セルラー・ネットワークと通信するためのワイヤレス・デバイスと、
前記セルラー・ネットワークを介して前記安全状態の通知を送るように構成された前記コンピュータと
を特徴とする、自律運転複数乗客車両。 - 前記セルラー・ネットワークがLTEネットワークを備える
ことをさらに特徴とする、請求項[00602]に記載の自律運転複数乗客車両。 - 前記セルラー・ネットワークがWCDMA(登録商標)ネットワークを備える
ことをさらに特徴とする、請求項[00602]に記載の自律運転複数乗客車両。 - 車両本体と、
請求項1179に記載のコンピュータを特徴とする前記車両を制御するためのコンピュータと、
前記車両本体の周りに配置された複数のカメラであって、前記コンピュータに電気的に結合されたカメラと、
前記コンピュータ上で実行する少なくとも1つのニューラル・ネットワークであって、少なくとも1つの他の車両を位置特定するように訓練されたニューラル・ネットワークと、
前記コンピュータに電気的に結合されたワイヤレス・デバイスであって、ワイヤレス・ネットワークと通信するためのワイヤレス・デバイスと、
前記セルラー・ネットワークを介して前記少なくとも1つの他の車両の存在及び所在地の通知を送るように構成された前記コンピュータ
を特徴とする、自律運転パトロール・カー。 - 前記車両の前面に設置された少なくとも1つの赤外線カメラ
をさらに特徴とする、請求項[00603]に記載の自律運転パトロール・カー。 - 前記赤外線カメラがズーム機能を含む
ことをさらに特徴とする、請求項464に記載の自律運転パトロール・カー。 - 前記車両の前面、後面、及び側面に設置された複数の赤外線カメラ
をさらに特徴とする、請求項[00603]に記載の自律運転パトロール・カー。 - 前記赤外線カメラのうちの1つ又は複数がズーム機能を含む
ことをさらに特徴とする、請求項466に記載の自律運転パトロール・カー。 - 前記セルラー・ネットワークがLTEネットワークを備える
ことをさらに特徴とする、請求項[00603]に記載の自律運転パトロール・カー。 - 前記セルラー・ネットワークがWCDMA(登録商標)ネットワークを備える
ことをさらに特徴とする、請求項[00603]に記載の自律運転パトロール・カー。 - 前記ニューラル・ネットワークが、ナンバー・プレートを識別することによって、前記少なくとも1つの他の車両を識別する
ことをさらに特徴とする、請求項[00603]に記載の自律運転パトロール・カー。 - 前記ニューラル・ネットワークが、ナンバー・プレートの一部分並びに前記他の車両のメーカー及びモデルを識別することによって、前記少なくとも1つの他の車両を識別する
ことをさらに特徴とする、請求項[00603]に記載の自律運転パトロール・カー。 - 前記ニューラル・ネットワークが、前記他の車両の外観を識別することによって、前記少なくとも1つの他の車両を識別する
ことをさらに特徴とする、請求項[00603]に記載の自律運転パトロール・カー。 - 前記コンピュータが、前記ディープ・ラーニング・アクセラレータ上で前記ニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項[00603]に記載の自律運転パトロール・カー。 - 前記コンピュータが、前記GPU上で前記ニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項[00603]に記載の自律運転パトロール・カー。 - 車両本体と、
請求項1179に記載のコンピュータを特徴とする前記車両を制御するためのコンピュータと、
前記車両本体の周りに配置された複数のカメラであって、前記コンピュータに電気的に結合されたカメラと、
前記コンピュータ上で実行する少なくとも1つのニューラル・ネットワークであって、少なくとも1つの安全状態を識別するように訓練されたニューラル・ネットワークと、
セルラー・ネットワークと通信するためのワイヤレス・デバイスと、
前記セルラー・ネットワークを介して前記少なくとも1つの安全状態の存在及び所在地の通知を送るように構成された前記コンピュータ
を特徴とする、自律運転パトロール・カー。 - 前記安全状態が火災である
ことをさらに特徴とする、請求項[00606]に記載の自律運転パトロール・カー。 - 前記安全状態が自動車事故である
ことをさらに特徴とする、請求項[00606]に記載の自律運転パトロール・カー。 - 前記安全状態が負傷者である
ことをさらに特徴とする、請求項[00606]に記載の自律運転パトロール・カー。 - 前記安全状態が人々の間の物理的衝突である
ことをさらに特徴とする、請求項256に記載の自律運転パトロール・カー。 - 前記コンピュータが、前記ディープ・ラーニング・アクセラレータ上で前記ニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項476に記載の自律運転パトロール・カー。 - 前記コンピュータが、前記ディープ・ラーニング・アクセラレータ上で前記ニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項477に記載の自律運転パトロール・カー。 - 前記コンピュータが、前記ディープ・ラーニング・アクセラレータ上で前記ニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項478に記載の自律運転パトロール・カー。 - 前記コンピュータが、前記ディープ・ラーニング・アクセラレータ上で前記ニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項479に記載の自律運転パトロール・カー。 - 前記コンピュータが、前記GPU上で前記ニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項476に記載の自律運転パトロール・カー。 - 前記コンピュータが、前記GPU上で前記ニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項477に記載の自律運転パトロール・カー。 - 前記コンピュータが、前記GPU上で前記ニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項478に記載の自律運転パトロール・カー。 - 前記コンピュータが、前記GPU上で前記ニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項479に記載の自律運転パトロール・カー。 - システム・オン・チップ上のディープ・ラーニング・アクセラレータ上で第1のニューラル・ネットワークを実行することと、
前記システム・オン・チップ上のGPU上で第2のニューラル・ネットワークを実行することと、
前記システム・オン・チップ上のプログラマブル・ビジョン・アクセラレータ上で第1のコンピュータ・ビジョン・アルゴリズムを実行することと、
前記第1のニューラル・ネットワーク、第2のニューラル・ネットワーク、及び前記コンピュータ・ビジョン・アルゴリズムの出力に応答して、前記自動運転車両上の1つ又は複数のアクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - 少なくとも1つの動力駆動車軸の第1の角速度を検出することと、
少なくとも1つの自由回転車軸の第2の角速度を検出することと、
路面上での摩擦のレベルを判定するために前記第1の角速度と前記第2の角速度を比較することと、
前記第1のニューラル・ネットワーク、第2のニューラル・ネットワーク、前記コンピュータ・ビジョン・アルゴリズム、及び前記第1の角速度と前記第2の角速度の前記比較の出力に応答して、前記自動運転車両上の1つ又は複数のアクチュエータを制御することと
をさらに特徴とする、請求項[00608]に記載の自動運転車両を制御するための方法。 - 前記動力駆動車軸の第1の振動を検出することと、
前記少なくとも1つの自由回転車軸の第2の振動を判定する第2の振動センサを検出することと、
前記路面上での前記摩擦のレベルを判定するために前記第1の振動と前記第2の振動を比較することと
をさらに特徴とする、請求項489に記載の自動運転車両を制御するための方法。 - 少なくとも1つのカメラ・センサからの画像情報を前記第1のニューラル・ネットワークへの入力として提供すること
をさらに特徴とする、請求項[00608]に記載の自動運転車両を制御するための方法。 - 少なくとも1つのカメラ・センサからの画像情報を前記第2のニューラル・ネットワークへの入力として提供すること
をさらに特徴とする、請求項[00608]に記載の自動運転車両を制御するための方法。 - 少なくとも1つの赤外線カメラ・センサからの画像情報を前記第1のニューラル・ネットワークへの入力として提供すること
をさらに特徴とする、請求項[00608]に記載の自動運転車両を制御するための方法。 - 少なくとも1つの赤外線カメラ・センサからの画像情報を前記第2のニューラル・ネットワークへの入力として提供すること
をさらに特徴とする、請求項[00608]に記載の自動運転車両を制御するための方法。 - 少なくとも1つの単眼カメラ・センサからの画像情報を前記第1のニューラル・ネットワークへの入力として提供すること
をさらに特徴とする、請求項[00608]に記載の自動運転車両を制御するための方法。 - 少なくとも1つの単眼カメラ・センサからの画像情報を前記第2のニューラル・ネットワークへの入力として提供すること
をさらに特徴とする、請求項[00608]に記載の自動運転車両を制御するための方法。 - 少なくとも1つのステレオ・カメラ・センサからの画像情報を前記第1のニューラル・ネットワークへの入力として提供すること
をさらに特徴とする、請求項[00608]に記載の自動運転車両を制御するための方法。 - 少なくとも1つのステレオ・カメラ・センサからの画像情報を前記第2のニューラル・ネットワークへの入力として提供すること
をさらに特徴とする、請求項[00608]に記載の自動運転車両を制御するための方法。 - 少なくともレーダ・センサからの情報を前記第1のコンピュータ・ビジョン・アルゴリズムへの入力として提供すること
をさらに特徴とする、請求項[00608]に記載の自動運転車両を制御するための方法。 - 少なくとも1つのLIDARセンサからの情報を前記第1のコンピュータ・ビジョン・アルゴリズムへの入力として提供すること
をさらに特徴とする、請求項[00608]に記載の自動運転車両を制御するための方法。 - 少なくとも1つの超音波センサからの情報を前記第1のコンピュータ・ビジョン・アルゴリズムへの入力として提供すること
をさらに特徴とする、請求項[00608]に記載の自動運転車両を制御するための方法。 - 少なくとも1つのフラッシュLIDARセンサからの情報を前記第1のコンピュータ・ビジョン・アルゴリズムへの入力として提供すること
をさらに特徴とする、請求項[00608]に記載の自動運転車両を制御するための方法。 - 第2のシステム・オン・チップ上のディープ・ラーニング・アクセラレータ上で第3のニューラル・ネットワークを実行することと、
前記第2のシステム・オン・チップ上のGPU上で第4のニューラル・ネットワークを実行することと、
前記第2のシステム・オン・チップ上のプログラマブル・ビジョン・アクセラレータ上で第2のコンピュータ・ビジョン・アルゴリズムを実行することと、
前記第1のシステム・オン・チップの前記出力と前記第2のシステム・オン・チップの前記出力を比較することと、
前記比較に応答して前記自動運転車両上の1つ又は複数のアクチュエータを制御することと
をさらに特徴とする、請求項[00608]に記載の自動運転車両を制御するための方法。 - 少なくとも1つのカメラ・センサからの画像情報を前記第1のニューラル・ネットワークへの入力として提供することと、
少なくとも1つのカメラ・センサからの画像情報を前記第3のニューラル・ネットワークへの入力として提供することと
をさらに特徴とする、請求項503に記載の自動運転車両を制御するための方法。 - 少なくとも1つのカメラ・センサからの画像情報を前記第2のニューラル・ネットワークへの入力として提供することと、
少なくとも1つのカメラ・センサからの画像情報を前記第4のニューラル・ネットワークへの入力として提供することと
をさらに特徴とする、請求項503に記載の自動運転車両を制御するための方法。 - 少なくとも1つの赤外線カメラ・センサからの画像情報を前記第1のニューラル・ネットワークへの入力として提供することと、
少なくとも1つのカメラ・センサからの画像情報を前記第3のニューラル・ネットワークへの入力として提供することと
をさらに特徴とする、請求項503に記載の自動運転車両を制御するための方法。 - 少なくとも1つの赤外線カメラ・センサからの画像情報を前記第2のニューラル・ネットワークへの入力として提供することと、
少なくとも1つのカメラ・センサからの画像情報を前記第4のニューラル・ネットワークへの入力として提供することと
をさらに特徴とする、請求項503に記載の自動運転車両を制御するための方法。 - 少なくとも1つのステレオ・カメラ・センサからの画像情報を前記第1のニューラル・ネットワークへの入力として提供することと、
少なくとも1つのLIDARセンサからの情報を前記第3のニューラル・ネットワークへの入力として提供することと
をさらに特徴とする、請求項503に記載の自動運転車両を制御するための方法。 - 少なくとも1つの単眼カメラ・センサからの画像情報を前記第2のニューラル・ネットワークへの入力として提供することと、
少なくとも1つのLIDARセンサからの情報を前記第4のニューラル・ネットワークへの入力として提供することと
をさらに特徴とする、請求項503に記載の自動運転車両を制御するための方法。 - 少なくとも1つのステレオ・カメラ・センサからの画像情報を前記第1のニューラル・ネットワークへの入力として提供することと、
少なくとも1つの単眼カメラ・センサからの画像情報を前記第3のニューラル・ネットワークへの入力として提供することと
をさらに特徴とする、請求項503に記載の自動運転車両を制御するための方法。 - 少なくとも1つのステレオ・カメラ・センサからの画像情報を前記第2のニューラル・ネットワークへの入力として提供することと、
少なくとも1つの単眼カメラ・センサからの画像情報を前記第4のニューラル・ネットワークへの入力として提供することと
をさらに特徴とする、請求項503に記載の自動運転車両を制御するための方法。 - 少なくとも1つのレーダ・センサからの情報を前記第1のコンピュータ・ビジョン・アルゴリズムへの入力として提供することと、
少なくとも1つのレーダ・センサからの情報を前記第2のコンピュータ・ビジョン・アルゴリズムへの入力として提供することと
をさらに特徴とする、請求項503に記載の自動運転車両を制御するための方法。 - 少なくとも1つのLIDARセンサからの情報を前記第1のコンピュータ・ビジョン・アルゴリズムへの入力として提供することと、
少なくとも1つのLIDARセンサからの情報を前記第2のコンピュータ・ビジョン・アルゴリズムへの入力として提供することと
をさらに特徴とする、請求項503に記載の自動運転車両を制御するための方法。 - 少なくとも1つの超音波センサからの情報を前記第1のコンピュータ・ビジョン・アルゴリズムへの入力として提供することと、
少なくとも1つの超音波センサからの情報を前記第2のコンピュータ・ビジョン・アルゴリズムへの入力として提供することと
をさらに特徴とする、請求項503に記載の自動運転車両を制御するための方法。 - 少なくとも1つのフラッシュLIDARセンサからの情報を前記第1のコンピュータ・ビジョン・アルゴリズムへの入力として提供することと、
少なくとも1つのフラッシュLIDARセンサからの情報を前記第2のコンピュータ・ビジョン・アルゴリズムへの入力として提供することと
をさらに特徴とする、請求項503に記載の自動運転車両を制御するための方法。 - システム・オン・チップ上のディープ・ラーニング・アクセラレータ上で第1の複数のニューラル・ネットワークを実行することと、
前記システム・オン・チップ上のGPU上で第2の複数のニューラル・ネットワークを実行することと、
前記システム・オン・チップ上のプログラマブル・ビジョン・アクセラレータ上で複数のコンピュータ・ビジョン・アルゴリズムを実行することと、
前記第1の複数のニューラル・ネットワークの出力、第2の複数のニューラル・ネットワークの出力、及び前記複数のコンピュータ・ビジョン・アルゴリズムの出力に応答して、前記自動運転車両上で1つ又は複数のアクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - 第2のシステム・オン・チップ上のディープ・ラーニング・アクセラレータ上で第3の複数のニューラル・ネットワークを実行することと、
前記第2のシステム・オン・チップ上のGPU上で第4の複数のニューラル・ネットワークを実行することと、
前記第2のシステム・オン・チップ上のプログラマブル・ビジョン・アクセラレータ上で第2の複数のコンピュータ・ビジョン・アルゴリズムを実行することと、
前記第1のシステム・オン・チップの前記出力と第2のシステム・オン・チップの前記出力を比較することと、
前記比較に応答して前記自動運転車両上の1つ又は複数のアクチュエータを制御することと
をさらに特徴とする、請求項516に記載の自動運転車両を制御するための方法。 - 請求項1179に記載の第1のコンピュータを特徴とするプライマリ・コンピュータに1つ又は複数のカメラ・センサからの入力を提供することと、
前記プライマリ・コンピュータ上で第1のニューラル・ネットワークを実行することと、
前記第1のコンピュータ内で、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第1の信号を生成することと、
請求項1179に記載の第2のコンピュータを特徴とするセカンダリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記セカンダリ・コンピュータ上で第2のCNNを実行することと、
前記第2のコンピュータ内で、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第2の信号を生成することと、
前記第1の信号及び前記第2の信号を監視MCUに提供することと、
前記MCU内で、前記第1の信号と前記第2の信号を比較することと
を特徴とする、自動運転車両を制御するための方法。 - 前記第1の信号と前記第2の信号が一致しない場合に、前記MCU内で、アラーム信号を生成すること
をさらに特徴とする、請求項[00608]に記載の自動運転車両を制御するための方法。 - 請求項1179に記載の第1のコンピュータを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記カメラ・センサからの前記入力に応答して少なくとも1つの第1の信号を生成するために、前記プライマリ・コンピュータ上で第1のニューラル・ネットワークを実行することと、
第2の信号を生成するために、プログラマブル・ビジョン・アクセラレータ上でコンピュータ・ビジョン・アルゴリズムを実行することと、
前記第1の信号前記第2の信号を使用して、少なくとも1つの車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - 少なくとも1つの第1の信号を生成するために、第1のシステム・オン・チップ上で歩行者検出のためのニューラル・ネットワークを実行することと、
少なくとも1つの第2の信号を生成するために、第2のシステム・オン・チップ上で標識検出のためのニューラル・ネットワークを実行することと、
少なくとも1つの第3の信号を生成するために、第3のシステム・オン・チップ上で距離推定のためのニューラル・ネットワークを実行することと、
少なくとも1つの第4の信号を生成するために、第4のシステム・オン・チップ上で車線検出のためのニューラル・ネットワークを実行することと、
少なくとも1つの第5の信号を生成するために、第5のシステム・オン・チップ上で衝突回避のためのニューラル・ネットワークを実行することと、
少なくとも1つの第6の信号を生成するために、第6のシステム・オン・チップ上で現行占有率グリッドのためのニューラル・ネットワークを実行することと、
少なくとも第7の第1の信号を生成するために、第7のシステム・オン・チップ上で予測占有率グリッドのためのニューラル・ネットワークを実行することと、
少なくとも1つの第8の信号を生成するために、第8のシステム・オン・チップ上でステアリング制御のためのニューラル・ネットワークを実行することと、
少なくとも1つの第9の信号を生成するために、中央処理ユニット上でコンピュータ・ビジョン・アルゴリズムを実行することと、
前記信号を使用して、少なくとも1つの車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - 請求項1179に記載の第1のコンピュータを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
自動走行制御ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - 前記自動走行制御ユニットが縦方向自動走行制御ユニットである
ことをさらに特徴とする、請求項[00632]に記載の自動運転車両を制御するための方法。 - 前記自動走行制御ユニットが横方向自動走行制御ユニットである
ことをさらに特徴とする、請求項[00632]に記載の自動運転車両を制御するための方法。 - 前記自動走行制御ユニットが前向きレーダ・センサを備える
ことをさらに特徴とする、請求項[00632]に記載の自動運転車両を制御するための方法。 - 請求項1179に記載の第1のコンピュータを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
自動緊急ブレーキ・ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - 前記自動緊急ブレーキ・ユニットが、FPGAと、ステレオ・ビデオ・カメラとを備える
ことをさらに特徴とする、請求項526に記載の自動運転車両を制御するための方法。 - 請求項1179に記載の第1のコンピュータを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
前方クラッシュ警告ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - 前記前方クラッシュ警告ユニットが、FPGAと、ステレオ・ビデオ・カメラとを備える
ことをさらに特徴とする、請求項528に記載の自動運転車両を制御するための方法。 - 請求項1179に記載の第1のコンピュータを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
車線逸脱警告ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - 前記車線逸脱警告ユニットが、FPGAと、モノ・カメラとを備える
ことをさらに特徴とする、請求項530に記載の自動運転車両を制御するための方法。 - 請求項1179に記載の第1のコンピュータを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
衝突警告システムから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - 前記衝突警告システムが、FPGAと、ステレオ・ビデオ・カメラとを備える
ことをさらに特徴とする、請求項532に記載の自動運転車両を制御するための方法。 - GPU上で実行する畳み込みニューラル・ネットワークを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
自動走行制御ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - GPU上で実行する畳み込みニューラル・ネットワークを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
自動緊急ブレーキ・ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - 前記自動緊急ブレーキが、FPGAと、ステレオ・ビデオ・カメラとを備える
ことをさらに特徴とする、請求項[00634]に記載の自動運転車両を制御するための方法。 - GPU上で実行する畳み込みニューラル・ネットワークを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
前方クラッシュ警告ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - GPU上で実行する畳み込みニューラル・ネットワークを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
車線逸脱警告ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - 前記車線逸脱警告ユニットが、FPGAと、単眼カメラとを備える
ことをさらに特徴とする、請求項538に記載の自動運転車両を制御するための方法。 - GPU上で実行する畳み込みニューラル・ネットワークを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
前方クラッシュ警告ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - DLA上で実行する畳み込みニューラル・ネットワークを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
前方クラッシュ警告ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - GPU上で実行する畳み込みニューラル・ネットワークを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
自動緊急ブレーキ・ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - DLA上で実行する畳み込みニューラル・ネットワークを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
自動緊急ブレーキ・ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - GPU上で実行する畳み込みニューラル・ネットワークを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
車線逸脱警告ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - DLA上で実行する畳み込みニューラル・ネットワークを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
車線逸脱警告ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - GPU上で実行する畳み込みニューラル・ネットワークを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
車線維持支援ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - GPU上で実行する畳み込みニューラル・ネットワークを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
死角警告ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - DLA上で実行する畳み込みニューラル・ネットワークを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
死角警告ユニットから第2の信号を受け取ることと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - GPU上で実行する畳み込みニューラル・ネットワークを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
DLA上で実行する畳み込みニューラル・ネットワークを特徴とするセカンダリ・コンピュータに、前記1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して第1の制御信号を生成することと、
前記第1の制御信号が前記第2の信号と競合するかどうかを評価することと、
前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする、自動運転車両を制御するための方法。 - GPUデータセンタ内の第1のニューラル・ネットワークを訓練することと、
自動運転車両に前記第1のニューラル・ネットワークを提供することと、
GPUデータセンタ内の第2のニューラル・ネットワークを訓練することと、
前記自動運転車両に前記第2のニューラル・ネットワークを提供することと、
前記自動運転車両内のメモリに前記第1のニューラル・ネットワークを記憶することと、
前記自動運転車両内のメモリに前記第2のニューラル・ネットワークを記憶することと、
前記自動運転車両の前面に配置された少なくとも1つのステレオ・カメラ・センサから画像情報を受け取ることと、
前記自動運転車両の前面に配置された少なくとも1つのLIDARセンサからLIDAR情報を受け取ることと、
前記画像情報を入力として使用して、前記自動運転車両内のプライマリ・コンピュータ上で前記第1のニューラル・ネットワークを実行することと、
前記LIDAR情報を入力として使用して、前記自動運転車両内のプライマリ・コンピュータ上で前記第2のニューラル・ネットワークを実行することと、
前記第1のニューラル・ネットワーク及び前記第2のニューラル・ネットワークの出力に応答して、前記自動運転車両を制御することと
を特徴とする、自動運転車両を制御するための方法。 - ワイヤレス・ネットワークを介して前記第1のニューラル・ネットワークの更新されたインスタンスを受信すること
をさらに特徴とする、請求項[00637]に記載の自動運転車両を制御するための方法。 - 前記ワイヤレス・ネットワークがLTEネットワークである
ことをさらに特徴とする、請求項[00638]に記載の自動運転車両を制御するための方法。 - 前記ワイヤレス・ネットワークがWCDMA(登録商標)ネットワークである
ことをさらに特徴とする、請求項[00638]に記載の自動運転車両を制御するための方法。 - 前記ワイヤレス・ネットワークがUMTSネットワークである
ことをさらに特徴とする、請求項[00638]に記載の自動運転車両を制御するための方法。 - 前記ワイヤレス・ネットワークがCDMA2000ネットワークである
ことをさらに特徴とする、請求項[00638]に記載の自動運転車両を制御するための方法。 - 前記LIDARセンサが3DフラッシュLIDARである
ことをさらに特徴とする、請求項[00637]に記載の自動運転車両を制御するための方法。 - 前記画像情報を前方クラッシュ警告システムに適用することと、
前記プライマリ・コンピュータの結果と前記前方クラッシュ警告システムの結果を比較することと
をさらに特徴とする、請求項[00637]に記載の自動運転車両を制御するための方法。 - 前記自動運転車両が、ディープ・ラーニング・アクセラレータ上で前記第1のニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項[00637]に記載の自動運転車両を制御するための方法。 - 前記自動運転車両が、GPU上で前記第1のニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項[00637]に記載の自動運転車両を制御するための方法。 - 前記自動運転車両が、ディープ・ラーニング・アクセラレータ上で前記第2のニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項[00637]に記載の自動運転車両を制御するための方法。 - 前記自動運転車両が、GPU上で前記第2のニューラル・ネットワークを実行する
ことをさらに特徴とする、請求項[00637]に記載の自動運転車両を制御するための方法。 - 牽引車とトレーラとを特徴とする自動運転トラックを制御するための方法であって、
GPU上で実行する少なくとも1つの畳み込みニューラル・ネットワークを特徴とするプライマリ・コンピュータに、前記牽引車上に配置された1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して少なくとも1つの第1の信号を生成することと、
前記トレーラ上に配置された突風センサから第2の信号を受け取ることと、
前記第2の信号が突風状態を識別するかどうかを評価することと、
前記第1の信号及び前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする方法。 - 牽引車とトレーラとを特徴とする自動運転トラックを制御するための方法であって、
DLA上で実行する少なくとも1つの畳み込みニューラル・ネットワークを特徴とするプライマリ・コンピュータに、前記牽引車上に配置された1つ又は複数のカメラ・センサからの入力を提供することと、
前記入力に応答して少なくとも1つの第1の信号を生成することと、
前記トレーラ上に配置された少なくとも1つの突風センサから第2の信号を受け取ることと、
前記第2の信号が突風状態を識別するかどうかを評価することと、
前記第1の信号及び前記評価に応答して1つ又は複数の車両アクチュエータを制御することと
を特徴とする方法。 - 請求項1179に記載の第1のコンピュータを特徴とするプライマリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記プライマリ・コンピュータ上のGPU上で第1のニューラル・ネットワークを実行することと、
前記プライマリ・コンピュータ内で、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第1の信号を生成することと、
請求項1179に記載の第2のコンピュータを特徴とするセカンダリ・コンピュータに、1つ又は複数のカメラ・センサからの入力を提供することと、
前記セカンダリ・コンピュータ上で第2のCNNを実行することであって、前記第2のCNNが、画像情報から少なくとも1つの他の車両を識別するように訓練される、実行することと、
前記第2のコンピュータ内で、少なくとも1つの他の車両の存在又は不在を識別する少なくとも1つの第2の信号を生成することと、
ワイヤレス・ネットワークを介して前記少なくとも1つの他の車両の前記存在及び所在地の通知を送ることと
を特徴とする、自律運転パトロール・カーを制御するための方法。 - CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするプライマリ・コンピュータに、第1の画像情報を提供することと、
前記第1の画像情報を入力として用いて、前記プライマリ・コンピュータ上のGPU上で第1のニューラル・ネットワークを実行することと、
前記プライマリ・コンピュータ内で、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第1の信号を生成することと、
CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするセカンダリ・コンピュータに、第2の画像情報を提供することと、
前記第2の画像情報を入力として用いて、前記セカンダリ・コンピュータ上のGPU上で第2のニューラル・ネットワークを実行することと、
前記セカンダリ・コンピュータ内で、少なくとも1つの他の車両の存在又は不在を示す少なくとも1つの第2の信号を生成することと、
ワイヤレス・ネットワークを介して前記少なくとも1つの他の車両の前記存在及び所在地の通知を送信することと
を特徴とする、自律運転パトロール・カーを制御するための方法。 - CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするプライマリ・コンピュータに、第1の画像情報を提供することと、
前記第1の画像情報を入力として用いて、前記プライマリ・コンピュータ上の前記ハードウェア・アクセラレータのうちの1つの上で第1のニューラル・ネットワークを実行することと、
前記プライマリ・コンピュータ内で、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第1の信号を生成することと、
CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするセカンダリ・コンピュータに、第2の画像情報を提供することと、
前記第2の画像情報を入力として用いて、前記セカンダリ・コンピュータ上のGPU上で第2のニューラル・ネットワークを実行することと、
前記セカンダリ・コンピュータ内で、少なくとも1つの他の車両の存在又は不在を示す少なくとも1つの第2の信号を生成することと、
ワイヤレス・ネットワークを介して前記少なくとも1つの他の車両の前記存在及び所在地の通知を送信することと
を特徴とする、自律運転パトロール・カーを制御するための方法。 - CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするプライマリ・コンピュータに、第1の画像情報を提供することと、
前記第1の画像情報を入力として用いて、前記プライマリ・コンピュータ上のGPU上で第1のニューラル・ネットワークを実行することと、
前記プライマリ・コンピュータ内で、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第1の信号を生成することと、
CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするセカンダリ・コンピュータに、第2の画像情報を提供することと、
前記第2の画像情報を入力として用いて、前記セカンダリ・コンピュータ上の前記ハードウェア・アクセラレータのうちの1つの上で第2のニューラル・ネットワークを実行することと、
前記セカンダリ・コンピュータ内で、少なくとも1つの他の車両の存在又は不在を示す少なくとも1つの第2の信号を生成することと、
ワイヤレス・ネットワークを介して前記少なくとも1つの他の車両の前記存在及び所在地の通知を送信することと
を特徴とする、自律運転パトロール・カーを制御するための方法。 - CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするプライマリ・コンピュータに、第1の画像情報を提供することと、
前記第1の画像情報を入力として用いて、前記プライマリ・コンピュータ上の前記ハードウェア・アクセラレータのうちの1つの上で第1のニューラル・ネットワークを実行することと、
前記プライマリ・コンピュータ内で、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第1の信号を生成することと、
CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするセカンダリ・コンピュータに、第2の画像情報を提供することと、
前記第2の画像情報を入力として用いて、前記セカンダリ・コンピュータ上の前記ハードウェア・アクセラレータのうちの1つの上で第2のニューラル・ネットワークを実行することと、
前記セカンダリ・コンピュータ内で、少なくとも1つの他の車両の存在又は不在を示す少なくとも1つの第2の信号を生成することと、
ワイヤレス・ネットワークを介して前記少なくとも1つの他の車両の前記存在及び所在地の通知を送信することと
を特徴とする、自律運転パトロール・カーを制御するための方法。 - CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするプライマリ・コンピュータに、第1の画像情報を提供することと、
前記第1の画像情報を入力として用いて、前記プライマリ・コンピュータ上のGPU上で第1のニューラル・ネットワークを実行することと、
前記プライマリ・コンピュータ内で、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第1の信号を生成することと、
CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするセカンダリ・コンピュータに、第2の画像情報を提供することと、
前記第2の画像情報を入力として用いて、前記セカンダリ・コンピュータ上のGPU上で第2のニューラル・ネットワークを実行することと、
前記セカンダリ・コンピュータ内で、少なくとも1つの安全状態の存在又は不在を示す少なくとも1つの第2の信号を生成することと、
ワイヤレス・ネットワークを介して前記少なくとも1つの安全状態の前記存在及び所在地の通知を送信することと
を特徴とする、自律運転パトロール・カーを制御するための方法。 - CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするプライマリ・コンピュータに、第1の画像情報を提供することと、
前記第1の画像情報を入力として用いて、前記プライマリ・コンピュータ上の前記ハードウェア・アクセラレータのうちの1つの上で第1のニューラル・ネットワークを実行することと、
前記プライマリ・コンピュータ内で、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第1の信号を生成することと、
CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするセカンダリ・コンピュータに、第2の画像情報を提供することと、
前記第2の画像情報を入力として用いて、前記セカンダリ・コンピュータ上のGPU上で第2のニューラル・ネットワークを実行することと、
前記セカンダリ・コンピュータ内で、少なくとも1つの安全状態の存在又は不在を示す少なくとも1つの第2の信号を生成することと、
ワイヤレス・ネットワークを介して前記少なくとも1つの安全状態の前記存在及び所在地の通知を送信することと
を特徴とする、自律運転パトロール・カーを制御するための方法。 - CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするプライマリ・コンピュータに、第1の画像情報を提供することと、
前記第1の画像情報を入力として用いて、前記プライマリ・コンピュータ上のGPU上で第1のニューラル・ネットワークを実行することと、
前記プライマリ・コンピュータ内で、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第1の信号を生成することと、
CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするセカンダリ・コンピュータに、第2の画像情報を提供することと、
前記第2の画像情報を入力として用いて、前記セカンダリ・コンピュータ上の前記ハードウェア・アクセラレータのうちの1つの上で第2のニューラル・ネットワークを実行することと、
前記セカンダリ・コンピュータ内で、少なくとも1つの安全状態の存在又は不在を示す少なくとも1つの第2の信号を生成することと、
ワイヤレス・ネットワークを介して前記少なくとも1つの安全状態の前記存在及び所在地の通知を送信することと
を特徴とする、自律運転パトロール・カーを制御するための方法。 - CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするプライマリ・コンピュータに、第1の画像情報を提供することと、
前記第1の画像情報を入力として用いて、前記プライマリ・コンピュータ上の前記ハードウェア・アクセラレータのうちの1つの上で第1のニューラル・ネットワークを実行することと、
前記プライマリ・コンピュータ内で、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第1の信号を生成することと、
CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするセカンダリ・コンピュータに、第2の画像情報を提供することと、
前記第2の画像情報を入力として用いて、前記セカンダリ・コンピュータ上の前記ハードウェア・アクセラレータのうちの1つの上で第2のニューラル・ネットワークを実行することと、
前記セカンダリ・コンピュータ内で、少なくとも1つの安全状態の存在又は不在を示す少なくとも1つの第2の信号を生成することと、
ワイヤレス・ネットワークを介して前記少なくとも1つの安全状態の前記存在及び所在地の通知を送信することと
を特徴とする、自律運転パトロール・カーを制御するための方法。 - 前記安全状態が火災である
ことをさらに特徴とする、請求項[00644]に記載の方法。 - 前記安全状態が自動車事故である
ことをさらに特徴とする、請求項570に記載の方法。 - 前記安全状態が負傷者である
ことをさらに特徴とする、請求項571に記載の方法。 - 前記安全状態が人々の間の物理的衝突である
ことをさらに特徴とする、請求項572に記載の方法。 - 前記安全状態が火災である
ことをさらに特徴とする、請求項[00644]に記載の方法。 - 前記安全状態が自動車事故である
ことをさらに特徴とする、請求項570に記載の方法。 - 前記安全状態が負傷者である
ことをさらに特徴とする、請求項571に記載の方法。 - 前記安全状態が人々の間の物理的衝突である
ことをさらに特徴とする、請求項572に記載の方法。 - 前記安全状態が火災である
ことをさらに特徴とする、請求項[00644]に記載の方法。 - 前記安全状態が自動車事故である
ことをさらに特徴とする、請求項570に記載の方法。 - 前記安全状態が負傷者である
ことをさらに特徴とする、請求項571に記載の方法。 - 前記安全状態が人々の間の物理的衝突である
ことをさらに特徴とする、請求項572に記載の方法。 - 前記第1の画像情報が、1つ又は複数の赤外線カメラからの情報を含む
ことをさらに特徴とする、請求項[00644]に記載の方法。 - 前記第1の画像情報が、1つ又は複数の赤外線カメラからの情報を含む
ことをさらに特徴とする、請求項570に記載の方法。 - 前記第1の画像情報が、1つ又は複数の赤外線カメラからの情報を含む
ことをさらに特徴とする、請求項571に記載の方法。 - 前記第1の画像情報が、1つ又は複数の赤外線カメラからの情報を含む
ことをさらに特徴とする、請求項572に記載の方法。 - 前記第2の画像情報が、1つ又は複数の赤外線カメラからの情報を含む
ことをさらに特徴とする、請求項[00644]に記載の方法。 - 前記第2の画像情報が、1つ又は複数の赤外線カメラからの情報を含む
ことをさらに特徴とする、請求項570に記載の方法。 - 前記第2の画像情報が、1つ又は複数の赤外線カメラからの情報を含む
ことをさらに特徴とする、請求項571に記載の方法。 - 前記第2の画像情報が、1つ又は複数の赤外線カメラからの情報を含む
ことをさらに特徴とする、請求項572に記載の方法。 - CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするプライマリ・コンピュータに、第1の画像情報を提供することと、
前記第1の画像情報を入力として用いて、前記プライマリ・コンピュータ上の前記ハードウェア・アクセラレータのうちの1つの上で第1のニューラル・ネットワークを実行することと、
前記プライマリ・コンピュータ内で、第1の制御可能な車軸と関連づけられた少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第1の信号を生成することと、
CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするセカンダリ・コンピュータに、第2の画像情報を提供することと、
前記第2の画像情報を入力として用いて、前記セカンダリ・コンピュータ上の前記ハードウェア・アクセラレータのうちの1つの上で第2のニューラル・ネットワークを実行することと、
前記セカンダリ・コンピュータ内で、第2の制御可能な車軸と関連づけられた少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第2の信号を生成することと
を特徴とする、自律運転はしご車を制御するための方法。 - CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするプライマリ・コンピュータに、第1の画像情報を提供することと、
前記第1の画像情報を入力として用いて、前記プライマリ・コンピュータ上のGPU上で第1のニューラル・ネットワークを実行することと、
前記プライマリ・コンピュータ内で、第1の制御可能な車軸と関連づけられた少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第1の信号を生成することと、
CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするセカンダリ・コンピュータに、第2の画像情報を提供することと、
前記第2の画像情報を入力として用いて、前記セカンダリ・コンピュータ上の前記ハードウェア・アクセラレータのうちの1つの上で第2のニューラル・ネットワークを実行することと、
前記セカンダリ・コンピュータ内で、第2の制御可能な車軸と関連づけられた少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第2の信号を生成することと
を特徴とする、自律運転はしご車を制御するための方法。 - CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするプライマリ・コンピュータに、第1の画像情報を提供することと、
前記第1の画像情報を入力として用いて、前記プライマリ・コンピュータ上の前記ハードウェア・アクセラレータのうちの1つの上で第1のニューラル・ネットワークを実行することと、
前記プライマリ・コンピュータ内で、第1の制御可能な車軸と関連づけられた少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第1の信号を生成することと、
CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするセカンダリ・コンピュータに、第2の画像情報を提供することと、
前記第2の画像情報を入力として用いて、前記セカンダリ・コンピュータ上のGPU上で第2のニューラル・ネットワークを実行することと、
前記セカンダリ・コンピュータ内で、第2の制御可能な車軸と関連づけられた少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第2の信号を生成することと
を特徴とする、自律運転はしご車を制御するための方法。 - CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするプライマリ・コンピュータに、第1の画像情報を提供することと、
前記第1の画像情報を入力として用いて、前記プライマリ・コンピュータ上のGPU上で第1のニューラル・ネットワークを実行することと、
前記プライマリ・コンピュータ内で、第1の制御可能な車軸と関連づけられた少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第1の信号を生成することと、
CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするセカンダリ・コンピュータに、第2の画像情報を提供することと、
前記第2の画像情報を入力として用いて、前記セカンダリ・コンピュータ上のGPU上で第2のニューラル・ネットワークを実行することと、
前記セカンダリ・コンピュータ内で、第2の制御可能な車軸と関連づけられた少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第2の信号を生成することと
を特徴とする、自律運転はしご車を制御するための方法。 - 自律運転バスを制御するための方法であって、
CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とするプライマリ・コンピュータに、第1の画像情報を提供することと、
前記第1の画像情報を入力として用いて、前記プライマリ・コンピュータ上のGPU上で第1のニューラル・ネットワークを実行することと、
前記プライマリ・コンピュータ内で、少なくとも1つの車両アクチュエータを制御するための少なくとも1つの第1の信号を生成することと、
CPUとGPUと1つ又は複数のハードウェア・アクセラレータとを特徴とする第2のコンピュータに、第2の画像情報を提供することであって、前記第2の画像情報が、前記バスの乗客区画の内部の少なくとも一部分の画像を含む、提供することと、
前記第2の画像情報を入力として用いて、前記セカンダリ・コンピュータ上のGPU上で第2のニューラル・ネットワークを実行することと、
前記第2の画像情報を入力として用いて、前記セカンダリ・コンピュータ上の前記ハードウェア・アクセラレータのうちの1つの上で第2のニューラル・ネットワークを実行することと、
前記セカンダリ・コンピュータ内で、少なくとも1つの安全状態の存在又は不在を示す少なくとも1つの第2の信号を生成することと、
ワイヤレス・ネットワークを介して前記少なくとも1つの安全状態の前記存在及び所在地の通知を送信することと
を特徴とする方法。 - 前記安全状態が火災である
ことをさらに特徴とする、請求項[00646]に記載の自律運転バスを制御するための方法。 - 前記安全状態が、負傷したバス乗客である
ことをさらに特徴とする、請求項[00646]に記載の自律運転バスを制御するための方法。 - 前記安全状態がバス乗客間の物理的衝突である
ことをさらに特徴とする、請求項[00646]に記載の自律運転バスを制御するための方法。 - 前記ワイヤレス・ネットワークがLTEネットワークである
ことをさらに特徴とする、請求項[00646]に記載の自律運転バスを制御するための方法。 - 前記ワイヤレス・ネットワークがWCDMA(登録商標)ネットワークである
ことをさらに特徴とする、請求項[00646]に記載の自律運転バスを制御するための方法。 - 前記ワイヤレス・ネットワークがUMTSネットワークである
ことをさらに特徴とする、請求項[00646]に記載の自律運転バスを制御するための方法。 - 前記ワイヤレス・ネットワークがCDMA2000ネットワークである
ことをさらに特徴とする、請求項[00646]に記載の自律運転バスを制御するための方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762584549P | 2017-11-10 | 2017-11-10 | |
US62/584,549 | 2017-11-10 | ||
PCT/US2018/060205 WO2019094843A1 (en) | 2017-11-10 | 2018-11-09 | Systems and methods for safe and reliable autonomous vehicles |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021508863A true JP2021508863A (ja) | 2021-03-11 |
JP7346401B2 JP7346401B2 (ja) | 2023-09-19 |
Family
ID=64664395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020525931A Active JP7346401B2 (ja) | 2017-11-10 | 2018-11-09 | 安全で信頼できる自動運転車両のためのシステム及び方法 |
Country Status (5)
Country | Link |
---|---|
US (3) | US11644834B2 (ja) |
EP (1) | EP3707572B1 (ja) |
JP (1) | JP7346401B2 (ja) |
CN (1) | CN111587407B (ja) |
WO (1) | WO2019094843A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220144144A (ko) * | 2021-04-19 | 2022-10-26 | 대한민국(관리부서: 행정안전부 국립과학수사연구원장) | 디지털 영상을 이용한 차량의 이동 경로 추정 장치 및 그 방법 |
WO2023287052A1 (ko) * | 2021-07-12 | 2023-01-19 | 재단법인대구경북과학기술원 | 관제 인프라를 이용한 다중 센서 융합 기반의 회피 경로 생성 방법 및 제어 장치 |
WO2023013337A1 (ja) * | 2021-08-04 | 2023-02-09 | 矢崎総業株式会社 | 車両システム |
WO2023239008A1 (ko) * | 2022-06-10 | 2023-12-14 | 엘지전자 주식회사 | 차량의 신호 처리 장치 및 이를 구비하는 차량용 통신 장치용 통신 장치 |
Families Citing this family (478)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10279488B2 (en) | 2014-01-17 | 2019-05-07 | Knightscope, Inc. | Autonomous data machines and systems |
US10514837B1 (en) | 2014-01-17 | 2019-12-24 | Knightscope, Inc. | Systems and methods for security data analysis and display |
JP6524943B2 (ja) * | 2016-03-17 | 2019-06-05 | 株式会社デンソー | 走行支援装置 |
GB2551516B (en) * | 2016-06-20 | 2019-03-20 | Jaguar Land Rover Ltd | Activity monitor |
JP6261812B1 (ja) * | 2016-11-17 | 2018-01-17 | 三菱電機株式会社 | 車載装置、携帯端末装置、認識支援システム、認識支援方法、及び認識支援プログラム |
KR102380216B1 (ko) | 2016-11-29 | 2022-03-28 | 블랙모어 센서스 앤드 애널리틱스, 엘엘씨 | 포인트 클라우드 데이터 세트에서 객체의 분류를 위한 방법 및 시스템 |
EP3548841A4 (en) | 2016-11-30 | 2020-06-10 | Blackmore Sensors And Analytics Inc. | METHOD AND SYSTEM FOR DOPPLER DETECTION AND DOPPLER CORRECTION OF THE OPTICAL DETECTION OF THE CHIRPED AREA |
CN117310731A (zh) | 2016-11-30 | 2023-12-29 | 布莱克莫尔传感器和分析有限责任公司 | 利用光学测距系统进行自动实时自适应扫描的方法和系统 |
JP6811862B2 (ja) | 2016-11-30 | 2021-01-13 | ブラックモア センサーズ アンド アナリティクス エルエルシー | 光学測距システムによる適応走査の方法およびシステム |
US10422880B2 (en) | 2017-02-03 | 2019-09-24 | Blackmore Sensors and Analytics Inc. | Method and system for doppler detection and doppler correction of optical phase-encoded range detection |
DE102017204691B3 (de) * | 2017-03-21 | 2018-06-28 | Audi Ag | Steuervorrichtung zum redundanten Ausführen einer Betriebsfunktion sowie Kraftfahrzeug |
EP3593166B1 (en) | 2017-03-31 | 2024-04-17 | Velodyne Lidar USA, Inc. | Integrated lidar illumination power control |
WO2018195869A1 (en) * | 2017-04-27 | 2018-11-01 | SZ DJI Technology Co., Ltd. | Systems and methods for generating real-time map using movable object |
US10401495B2 (en) | 2017-07-10 | 2019-09-03 | Blackmore Sensors and Analytics Inc. | Method and system for time separated quadrature detection of doppler effects in optical range measurements |
RU2725836C1 (ru) * | 2017-07-20 | 2020-07-06 | Ниссан Мотор Ко., Лтд. | Способ управления движением транспортного средства и устройство управления движением транспортного средства |
US20190033875A1 (en) * | 2017-07-31 | 2019-01-31 | Ford Global Technologies, Llc | Occupancy-based vehicle collision management |
US11415690B2 (en) * | 2017-08-28 | 2022-08-16 | HELLA GmbH & Co. KGaA | Method and system comparing odometer velocity to radar based velocity |
DE102017215718B4 (de) * | 2017-09-07 | 2019-06-13 | Audi Ag | Verfahren zum Auswerten eines optischen Erscheinungsbildes in einer Fahrzeugumgebung und Fahrzeug |
US20190079526A1 (en) * | 2017-09-08 | 2019-03-14 | Uber Technologies, Inc. | Orientation Determination in Object Detection and Tracking for Autonomous Vehicles |
US11599795B2 (en) * | 2017-11-08 | 2023-03-07 | International Business Machines Corporation | Reducing the cost of n modular redundancy for neural networks |
US10788835B2 (en) | 2017-11-13 | 2020-09-29 | Raven Industries, Inc. | Safety system for autonomous operation of off-road and agricultural vehicles using machine learning for detection and identification of obstacles |
EP3688718A1 (en) * | 2017-11-15 | 2020-08-05 | Google LLC | Unsupervised learning of image depth and ego-motion prediction neural networks |
US20190155283A1 (en) * | 2017-11-17 | 2019-05-23 | Waymo Llc | Determining pullover locations for autonomous vehicles |
US11163309B2 (en) * | 2017-11-30 | 2021-11-02 | Direct Current Capital LLC | Method for autonomous navigation |
KR102030462B1 (ko) * | 2017-12-08 | 2019-10-10 | 현대오트론 주식회사 | 복수의 차량용 멀티 코어 프로세서 오류 모니터링 장치 및 그 방법 |
US11130497B2 (en) | 2017-12-18 | 2021-09-28 | Plusai Limited | Method and system for ensemble vehicle control prediction in autonomous driving vehicles |
US20190185012A1 (en) | 2017-12-18 | 2019-06-20 | PlusAI Corp | Method and system for personalized motion planning in autonomous driving vehicles |
US11273836B2 (en) * | 2017-12-18 | 2022-03-15 | Plusai, Inc. | Method and system for human-like driving lane planning in autonomous driving vehicles |
US10852731B1 (en) * | 2017-12-28 | 2020-12-01 | Waymo Llc | Method and system for calibrating a plurality of detection systems in a vehicle |
CN109993300B (zh) | 2017-12-29 | 2021-01-29 | 华为技术有限公司 | 一种神经网络模型的训练方法及装置 |
US11328210B2 (en) | 2017-12-29 | 2022-05-10 | Micron Technology, Inc. | Self-learning in distributed architecture for enhancing artificial neural network |
US10551850B2 (en) * | 2018-01-03 | 2020-02-04 | Uatc, Llc | Low quality pose |
US11042163B2 (en) | 2018-01-07 | 2021-06-22 | Nvidia Corporation | Guiding vehicles through vehicle maneuvers using machine learning models |
US20190220016A1 (en) * | 2018-01-15 | 2019-07-18 | Uber Technologies, Inc. | Discrete Decision Architecture for Motion Planning System of an Autonomous Vehicle |
JP7204326B2 (ja) * | 2018-01-15 | 2023-01-16 | キヤノン株式会社 | 情報処理装置及びその制御方法及びプログラム、並びに、車両の運転支援システム |
DE102018200982A1 (de) | 2018-01-23 | 2019-08-08 | Volkswagen Aktiengesellschaft | Verfahren zur Verarbeitung von Sensordaten in einer Anzahl von Steuergeräten, entsprechend ausgelegte Vorverarbeitungseinheit sowie Fahrzeug |
FR3077382B1 (fr) * | 2018-01-30 | 2020-02-21 | Transdev Group | Procede et dispositif electronique de controle de la vitesse d'un vehicule autonome, programme d'ordinateur, vehicule autonome et plateforme de supervision associes |
US11091162B2 (en) * | 2018-01-30 | 2021-08-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Fusion of front vehicle sensor data for detection and ranging of preceding objects |
DE112019000065T5 (de) | 2018-02-02 | 2020-03-05 | Nvidia Corporation | Sicherheitsprozeduranalyse zur hindernisvermeidung in einem autonomen fahrzeug |
KR102066219B1 (ko) * | 2018-02-05 | 2020-01-14 | 주식회사 만도 | 리던던트 구조 기반의 차량 제어 장치 및 방법 |
KR102541561B1 (ko) * | 2018-02-12 | 2023-06-08 | 삼성전자주식회사 | 차량의 주행을 위한 정보를 제공하는 방법 및 그 장치들 |
US11995551B2 (en) | 2018-02-14 | 2024-05-28 | Nvidia Corporation | Pruning convolutional neural networks |
DE102018202296A1 (de) * | 2018-02-15 | 2019-08-22 | Robert Bosch Gmbh | Radarsensor-System und Verfahren zum Betreiben eines Radarsensor-Systems |
US10776983B2 (en) | 2018-02-27 | 2020-09-15 | Nvidia Corporation | Analysis of point cloud data using depth and texture maps |
JP6607272B2 (ja) * | 2018-03-02 | 2019-11-20 | 株式会社Jvcケンウッド | 車両用記録装置、車両用記録方法及びプログラム |
US10605897B2 (en) * | 2018-03-06 | 2020-03-31 | Veoneer Us, Inc. | Vehicle lane alignment correction improvements |
US10884115B2 (en) * | 2018-03-09 | 2021-01-05 | Waymo Llc | Tailoring sensor emission power to map, vehicle state, and environment |
EP3540710A1 (en) * | 2018-03-14 | 2019-09-18 | Honda Research Institute Europe GmbH | Method for assisting operation of an ego-vehicle, method for assisting other traffic participants and corresponding assistance systems and vehicles |
US11537139B2 (en) | 2018-03-15 | 2022-12-27 | Nvidia Corporation | Determining drivable free-space for autonomous vehicles |
US11080590B2 (en) | 2018-03-21 | 2021-08-03 | Nvidia Corporation | Stereo depth estimation using deep neural networks |
RU2716322C2 (ru) * | 2018-03-23 | 2020-03-11 | Общество с ограниченной ответственностью "Аби Продакшн" | Репродуцирующая аугментация данных изображения |
US11436484B2 (en) | 2018-03-27 | 2022-09-06 | Nvidia Corporation | Training, testing, and verifying autonomous machines using simulated environments |
US10946868B2 (en) * | 2018-03-28 | 2021-03-16 | Nio Usa, Inc. | Methods and devices for autonomous vehicle operation |
US10906536B2 (en) | 2018-04-11 | 2021-02-02 | Aurora Innovation, Inc. | Control of autonomous vehicle based on determined yaw parameter(s) of additional vehicle |
US10522038B2 (en) | 2018-04-19 | 2019-12-31 | Micron Technology, Inc. | Systems and methods for automatically warning nearby vehicles of potential hazards |
WO2019209727A1 (en) * | 2018-04-23 | 2019-10-31 | Blackmore Sensors and Analytics Inc. | Method and system for controlling autonomous vehicle using coherent range doppler optical sensors |
JP6746037B2 (ja) * | 2018-04-24 | 2020-08-26 | 三菱電機株式会社 | 攻撃検知装置、攻撃検知プログラム及び攻撃検知方法 |
US11593119B2 (en) | 2018-04-27 | 2023-02-28 | Tesla, Inc. | Autonomous driving controller parallel processor boot order |
WO2019217545A1 (en) * | 2018-05-09 | 2019-11-14 | Cavh Llc | Systems and methods for driving intelligence allocation between vehicles and highways |
US11042156B2 (en) * | 2018-05-14 | 2021-06-22 | Honda Motor Co., Ltd. | System and method for learning and executing naturalistic driving behavior |
US11231715B2 (en) * | 2018-05-22 | 2022-01-25 | King Fahd University Of Petroleum And Minerals | Method and system for controlling a vehicle |
US11372115B2 (en) * | 2018-05-24 | 2022-06-28 | Cyngn, Inc. | Vehicle localization |
EP3572939A1 (en) * | 2018-05-25 | 2019-11-27 | TTTech Auto AG | Method, device and real-time network for highly-integrated automotive systems |
FR3082162B1 (fr) * | 2018-06-11 | 2020-06-05 | Renault S.A.S | Procede et dispositif de mise au point d'une boucle fermee d'un dispositif d'aide a la conduite avance |
US11966838B2 (en) | 2018-06-19 | 2024-04-23 | Nvidia Corporation | Behavior-guided path planning in autonomous machine applications |
US11296999B2 (en) * | 2018-06-26 | 2022-04-05 | Telefonaktiebolaget Lm Ericsson (Publ) | Sliding window based non-busy looping mode in cloud computing |
US11354406B2 (en) * | 2018-06-28 | 2022-06-07 | Intel Corporation | Physics-based approach for attack detection and localization in closed-loop controls for autonomous vehicles |
US11119478B2 (en) * | 2018-07-13 | 2021-09-14 | Waymo Llc | Vehicle sensor verification and calibration |
WO2020014683A1 (en) * | 2018-07-13 | 2020-01-16 | Kache.AI | Systems and methods for autonomous object detection and vehicle following |
US11216007B2 (en) * | 2018-07-16 | 2022-01-04 | Phantom Auto Inc. | Normalization of intelligent transport system handling characteristics |
KR102077201B1 (ko) * | 2018-07-20 | 2020-02-13 | 현대모비스 주식회사 | 차량의 통합 제어 장치 및 방법 |
FR3084631B1 (fr) * | 2018-07-31 | 2021-01-08 | Valeo Schalter & Sensoren Gmbh | Assistance a la conduite pour le controle longitudinal et/ou lateral d'un vehicule automobile |
US11204605B1 (en) * | 2018-08-03 | 2021-12-21 | GM Global Technology Operations LLC | Autonomous vehicle controlled based upon a LIDAR data segmentation system |
US10479356B1 (en) | 2018-08-17 | 2019-11-19 | Lyft, Inc. | Road segment similarity determination |
US10942030B2 (en) | 2018-08-17 | 2021-03-09 | Lyft, Inc. | Road segment similarity determination |
US11129024B2 (en) * | 2018-08-21 | 2021-09-21 | Continental Teves Ag & Co. Ohg | Vehicle-to-X communication device and method for realizing a safety integrity level in vehicle-to-X communication |
US10816979B2 (en) * | 2018-08-24 | 2020-10-27 | Baidu Usa Llc | Image data acquisition logic of an autonomous driving vehicle for capturing image data using cameras |
WO2020045978A1 (ko) * | 2018-08-29 | 2020-03-05 | 한국과학기술원 | 초음파 신호를 이용한 노면 종류 추정 방법 및 장치 |
EP3849296A1 (en) * | 2018-09-14 | 2021-07-21 | AgJunction LLC | Using non-real-time computers for agricultural guidance systems |
US10712434B2 (en) | 2018-09-18 | 2020-07-14 | Velodyne Lidar, Inc. | Multi-channel LIDAR illumination driver |
DE102018216082A1 (de) * | 2018-09-20 | 2018-12-13 | Robert Bosch Gmbh | Verfahren zur kooperativen Manöverabstimmung |
US11199847B2 (en) * | 2018-09-26 | 2021-12-14 | Baidu Usa Llc | Curvature corrected path sampling system for autonomous driving vehicles |
US11403517B2 (en) * | 2018-09-27 | 2022-08-02 | Intel Corporation | Proximity-based distributed sensor processing |
KR102233260B1 (ko) * | 2018-10-02 | 2021-03-29 | 에스케이텔레콤 주식회사 | 정밀 지도 업데이트 장치 및 방법 |
US11138348B2 (en) * | 2018-10-09 | 2021-10-05 | Intel Corporation | Heterogeneous compute architecture hardware/software co-design for autonomous driving |
US10627819B1 (en) * | 2018-10-11 | 2020-04-21 | Pony Ai Inc. | On-site notification from autonomous vehicle for traffic safety |
JP7014129B2 (ja) * | 2018-10-29 | 2022-02-01 | オムロン株式会社 | 推定器生成装置、モニタリング装置、推定器生成方法及び推定器生成プログラム |
CN109543245B (zh) * | 2018-10-31 | 2021-08-10 | 百度在线网络技术(北京)有限公司 | 无人车应对能力边界信息确定方法、装置和电子设备 |
US11256263B2 (en) * | 2018-11-02 | 2022-02-22 | Aurora Operations, Inc. | Generating targeted training instances for autonomous vehicles |
US11403492B2 (en) | 2018-11-02 | 2022-08-02 | Aurora Operations, Inc. | Generating labeled training instances for autonomous vehicles |
US20200153926A1 (en) * | 2018-11-09 | 2020-05-14 | Toyota Motor North America, Inc. | Scalable vehicle data compression systems and methods |
US11032370B2 (en) * | 2018-11-14 | 2021-06-08 | Toyota Jidosha Kabushiki Kaisha | Wireless communications in a vehicular macro cloud |
US10789728B2 (en) * | 2018-11-15 | 2020-09-29 | Denso International America, Inc. | Machine learning framework for visual tracking |
WO2020102733A1 (en) | 2018-11-16 | 2020-05-22 | Nvidia Corporation | Learning to generate synthetic datasets for training neural networks |
US11126197B2 (en) * | 2018-11-19 | 2021-09-21 | Waymo Llc | Verification of iterative closest point alignments for autonomous vehicles |
US10823855B2 (en) * | 2018-11-19 | 2020-11-03 | Fca Us Llc | Traffic recognition and adaptive ground removal based on LIDAR point cloud statistics |
JP2020087001A (ja) * | 2018-11-27 | 2020-06-04 | 株式会社デンソー | 車線位置情報出力装置 |
US10936902B1 (en) | 2018-11-27 | 2021-03-02 | Zoox, Inc. | Training bounding box selection |
US11010907B1 (en) * | 2018-11-27 | 2021-05-18 | Zoox, Inc. | Bounding box selection |
US11030476B2 (en) * | 2018-11-29 | 2021-06-08 | Element Ai Inc. | System and method for detecting and tracking objects |
US10997729B2 (en) * | 2018-11-30 | 2021-05-04 | Baidu Usa Llc | Real time object behavior prediction |
US11137762B2 (en) * | 2018-11-30 | 2021-10-05 | Baidu Usa Llc | Real time decision making for autonomous driving vehicles |
DE102018221063A1 (de) * | 2018-12-05 | 2020-06-10 | Volkswagen Aktiengesellschaft | Konfiguration eines Steuerungssystems für ein zumindest teilautonomes Kraftfahrzeug |
US11971988B2 (en) * | 2018-12-07 | 2024-04-30 | Arris Enterprises Llc | Detection of suspicious objects in customer premises equipment (CPE) |
CN109737977A (zh) * | 2018-12-10 | 2019-05-10 | 北京百度网讯科技有限公司 | 自动驾驶车辆定位方法、装置及存储介质 |
US20200184321A1 (en) * | 2018-12-11 | 2020-06-11 | Fotonation Limited | Multi-processor neural network processing apparatus |
JP7082940B2 (ja) * | 2018-12-17 | 2022-06-09 | 本田技研工業株式会社 | 走行軌道決定処理及び自動運転装置 |
JP6708249B1 (ja) * | 2018-12-26 | 2020-06-10 | 株式会社Jvcケンウッド | 車両用記録制御装置、車両用記録装置、車両用記録制御方法およびプログラム |
IT201800021244A1 (it) * | 2018-12-27 | 2020-06-27 | Fiat Ricerche | Sistema elettronico autoveicolistico di controllo della dinamica laterale di un autoveicolo |
US11214268B2 (en) * | 2018-12-28 | 2022-01-04 | Intel Corporation | Methods and apparatus for unsupervised multimodal anomaly detection for autonomous vehicles |
US11144417B2 (en) * | 2018-12-31 | 2021-10-12 | Texas Instruments Incorporated | Debug for multi-threaded processing |
US11822010B2 (en) | 2019-01-04 | 2023-11-21 | Blackmore Sensors & Analytics, Llc | LIDAR system |
US11327490B2 (en) * | 2019-01-07 | 2022-05-10 | Velodyne Lidar Usa, Inc. | Dynamic control and configuration of autonomous navigation systems |
US10545893B1 (en) * | 2019-01-11 | 2020-01-28 | Arm Limited | Interrupt controller and method of operation of an interrupt controller |
CN109870698B (zh) * | 2019-01-15 | 2021-12-24 | 阿波罗智能技术(北京)有限公司 | 一种超声波阵列障碍物检测结果处理方法及系统 |
JP7172625B2 (ja) * | 2019-01-16 | 2022-11-16 | トヨタ自動車株式会社 | 情報処理装置 |
US11447152B2 (en) * | 2019-01-25 | 2022-09-20 | Cavh Llc | System and methods for partially instrumented connected automated vehicle highway systems |
US10628688B1 (en) * | 2019-01-30 | 2020-04-21 | Stadvision, Inc. | Learning method and learning device, and testing method and testing device for detecting parking spaces by using point regression results and relationship between points to thereby provide an auto-parking system |
US11373466B2 (en) | 2019-01-31 | 2022-06-28 | Micron Technology, Inc. | Data recorders of autonomous vehicles |
US10817777B2 (en) * | 2019-01-31 | 2020-10-27 | StradVision, Inc. | Learning method and learning device for integrating object detection information acquired through V2V communication from other autonomous vehicle with object detection information generated by present autonomous vehicle, and testing method and testing device using the same |
US11410475B2 (en) | 2019-01-31 | 2022-08-09 | Micron Technology, Inc. | Autonomous vehicle data recorders |
KR102211604B1 (ko) * | 2019-02-01 | 2021-02-04 | 재단법인대구경북과학기술원 | Gpu 기반의 채널 단위 딥뉴럴 네트워크 구조 검색을 사용하는 인공지능 시스템 |
DE102019102830A1 (de) * | 2019-02-05 | 2020-08-06 | Bayerische Motoren Werke Aktiengesellschaft | Notmanöver-Steuerungssystem und Notmanöver-Steuerungsverfahren für ein Fahrzeug |
WO2020163390A1 (en) | 2019-02-05 | 2020-08-13 | Nvidia Corporation | Driving lane perception diversity and redundancy in autonomous driving applications |
JP7221070B2 (ja) * | 2019-02-07 | 2023-02-13 | 日立Astemo株式会社 | 電子制御装置、制御方法 |
US11050932B2 (en) * | 2019-03-01 | 2021-06-29 | Texas Instruments Incorporated | Using real time ray tracing for lens remapping |
US11681030B2 (en) | 2019-03-05 | 2023-06-20 | Waymo Llc | Range calibration of light detectors |
US11648945B2 (en) | 2019-03-11 | 2023-05-16 | Nvidia Corporation | Intersection detection and classification in autonomous machine applications |
US11550320B2 (en) * | 2019-03-18 | 2023-01-10 | Pony Ai Inc. | Vehicle redundant processing resource usage |
CN113454607B (zh) * | 2019-03-21 | 2023-08-22 | 杭州飞步科技有限公司 | 调试方法、装置及片上系统 |
KR20200112439A (ko) * | 2019-03-22 | 2020-10-05 | 삼성전자주식회사 | 멀티 코어를 포함하는 전자 장치 및 이의 패킷 처리를 위한 방법 |
US11507084B2 (en) * | 2019-03-27 | 2022-11-22 | Intel Corporation | Collaborative 3-D environment map for computer-assisted or autonomous driving vehicles |
US11532060B2 (en) * | 2019-03-28 | 2022-12-20 | Lyft, Inc. | Systems and methods for matching autonomous transportation provider vehicles and transportation requests in transportation management systems |
US11169513B2 (en) * | 2019-03-29 | 2021-11-09 | Tusimple, Inc. | Operational testing of autonomous vehicles |
US11148676B2 (en) * | 2019-03-29 | 2021-10-19 | Intel Corporation | Detection of an anomalous image associated with image data from one or more cameras of a computer-aided or autonomous driving vehicle |
US11520297B2 (en) * | 2019-03-29 | 2022-12-06 | Intel Corporation | Enhancing diagnostic capabilities of computing systems by combining variable patrolling API and comparison mechanism of variables |
US11157004B2 (en) * | 2019-04-01 | 2021-10-26 | GM Global Technology Operations LLC | Real-time control system for a vehicle and a method of executing control of the vehicle via the real-time control system |
US11740631B2 (en) | 2019-04-02 | 2023-08-29 | The Raymond Corporation | Systems and methods for an arbitration controller to arbitrate multiple automation requests on a material handling vehicle |
US11068295B2 (en) | 2019-04-12 | 2021-07-20 | Ghost Locomotion Inc. | Device operation across multiple operating system modalities |
JP2020177074A (ja) * | 2019-04-16 | 2020-10-29 | 株式会社デンソー | 車両用装置、車両用装置の制御方法 |
JP7215315B2 (ja) * | 2019-04-26 | 2023-01-31 | トヨタ自動車株式会社 | 車両システム |
CN110110787A (zh) * | 2019-05-06 | 2019-08-09 | 腾讯科技(深圳)有限公司 | 目标的位置获取方法、装置、计算机设备及存储介质 |
US11110917B2 (en) * | 2019-05-13 | 2021-09-07 | Great Wall Motor Company Limited | Method and apparatus for interaction aware traffic scene prediction |
WO2020230323A1 (ja) * | 2019-05-16 | 2020-11-19 | 日本電信電話株式会社 | 異常検出装置、方法、システム及びプログラム |
US11214253B2 (en) * | 2019-05-24 | 2022-01-04 | Toyota Jidosha Kabushiki Kaisha | Longitudinal motion control of connected and automated vehicles |
US11610142B2 (en) | 2019-05-28 | 2023-03-21 | Ati Technologies Ulc | Safety monitor for image misclassification |
EP3745310A1 (en) * | 2019-05-28 | 2020-12-02 | Robert Bosch GmbH | Method for calibrating a multi-sensor system using an artificial neural network |
US11391649B2 (en) * | 2019-05-29 | 2022-07-19 | Pony Ai Inc. | Driving emulation system for an autonomous vehicle |
US11210199B2 (en) | 2019-05-31 | 2021-12-28 | Ati Technologies Ulc | Safety monitor for invalid image transform |
CN114007912B (zh) * | 2019-06-07 | 2024-04-09 | 汉拿万都株式会社 | 制动系统的控制装置结构 |
CN110188062A (zh) * | 2019-06-11 | 2019-08-30 | 苏州浪潮智能科技有限公司 | 一种ai服务器 |
US11928557B2 (en) | 2019-06-13 | 2024-03-12 | Lyft, Inc. | Systems and methods for routing vehicles to capture and evaluate targeted scenarios |
US11727272B2 (en) * | 2019-06-19 | 2023-08-15 | Nvidia Corporation | LIDAR-based detection of traffic signs for navigation of autonomous vehicles |
US11531349B2 (en) * | 2019-06-21 | 2022-12-20 | Volkswagen Ag | Corner case detection and collection for a path planning system |
US11422553B2 (en) * | 2019-06-28 | 2022-08-23 | Intel Corporation | Methods and apparatus to adjust autonomous vehicle driving software using machine programming |
US11120566B2 (en) * | 2019-06-28 | 2021-09-14 | Baidu Usa Llc | Determining vanishing points based on feature maps |
US10625748B1 (en) * | 2019-06-28 | 2020-04-21 | Lyft, Inc. | Approaches for encoding environmental information |
US20190318265A1 (en) * | 2019-06-28 | 2019-10-17 | Helen Adrienne Frances Gould | Decision architecture for autonomous systems |
KR102087046B1 (ko) * | 2019-06-28 | 2020-03-10 | 웨이즈원 주식회사 | 자율 주행 차량에서 ldm을 이용하여 차선 기반으로 사각 지대에 대한 정보를 제공하는 방법 및 장치 |
US11227167B2 (en) | 2019-06-28 | 2022-01-18 | Baidu Usa Llc | Determining vanishing points based on lane lines |
US11157007B2 (en) | 2019-06-28 | 2021-10-26 | Lyft, Inc. | Approaches for encoding environmental information |
US11449475B2 (en) | 2019-06-28 | 2022-09-20 | Lyft, Inc. | Approaches for encoding environmental information |
US20220254140A1 (en) * | 2019-06-28 | 2022-08-11 | Bayerische Motoren Werke Aktiengesellschaft | Method and System for Identifying Object |
US11368471B2 (en) * | 2019-07-01 | 2022-06-21 | Beijing Voyager Technology Co., Ltd. | Security gateway for autonomous or connected vehicles |
WO2021007117A1 (en) * | 2019-07-05 | 2021-01-14 | DeepMap Inc. | Generating training data for deep learning models for building high definition maps |
US11531346B2 (en) * | 2019-07-05 | 2022-12-20 | Uatc, Llc | Goal-directed occupancy prediction for autonomous driving |
WO2021007152A1 (en) * | 2019-07-09 | 2021-01-14 | Refraction Ai, Inc. | Method and system for autonomous vehicle control |
CN110349109B (zh) * | 2019-07-12 | 2023-04-21 | 创新奇智(重庆)科技有限公司 | 基于鱼眼畸变校正方法及其系统、电子设备 |
CN110348636B (zh) * | 2019-07-12 | 2023-07-28 | 南方科技大学 | 路径规划预测方法、装置、设备和计算机可读存储介质 |
KR102147912B1 (ko) * | 2019-08-13 | 2020-08-25 | 삼성전자주식회사 | 프로세서 칩 및 그 제어 방법들 |
US11392796B2 (en) | 2019-08-20 | 2022-07-19 | Micron Technology, Inc. | Feature dictionary for bandwidth enhancement |
US11636334B2 (en) | 2019-08-20 | 2023-04-25 | Micron Technology, Inc. | Machine learning with feature obfuscation |
US11755884B2 (en) | 2019-08-20 | 2023-09-12 | Micron Technology, Inc. | Distributed machine learning with privacy protection |
WO2021040708A1 (en) | 2019-08-28 | 2021-03-04 | Vehicle Service Group, Llc | Maintenance and repair system for advanced driver assistance features |
US11475255B2 (en) * | 2019-08-30 | 2022-10-18 | Kabushiki Kaisha Toshiba | Method for adaptive context length control for on-line edge learning |
JP7372784B2 (ja) * | 2019-08-30 | 2023-11-01 | マツダ株式会社 | 中央演算装置 |
JP2022546397A (ja) | 2019-08-31 | 2022-11-04 | エヌビディア コーポレーション | 自律運転アプリケーションのためのマップ作成及びローカリゼーション |
CN110321319B (zh) * | 2019-09-02 | 2020-09-29 | 广东高云半导体科技股份有限公司 | 片上系统 |
CN110705358B (zh) * | 2019-09-03 | 2023-09-26 | 湖南九域同创高分子新材料有限责任公司 | 一种列车aeb系统隧道场景控制决策方法 |
US11485018B2 (en) * | 2019-09-16 | 2022-11-01 | The Boeing Company | Robotic end effector system with surface tracking and methods for use |
US10837795B1 (en) * | 2019-09-16 | 2020-11-17 | Tusimple, Inc. | Vehicle camera calibration system |
US11087147B2 (en) | 2019-09-19 | 2021-08-10 | Ford Global Technologies, Llc | Vehicle lane mapping |
US11958183B2 (en) | 2019-09-19 | 2024-04-16 | The Research Foundation For The State University Of New York | Negotiation-based human-robot collaboration via augmented reality |
US20200017114A1 (en) * | 2019-09-23 | 2020-01-16 | Intel Corporation | Independent safety monitoring of an automated driving system |
EP3798886A1 (en) * | 2019-09-26 | 2021-03-31 | General Electric Company | Devices, systems, and methods for securely initializing an embedded system |
US20210094555A1 (en) * | 2019-09-26 | 2021-04-01 | Magna Electronics Inc. | Vehicular collision avoidance system using adaptive filtering of vehicle speed |
US11788846B2 (en) | 2019-09-30 | 2023-10-17 | Lyft, Inc. | Mapping and determining scenarios for geographic regions |
CN114467038A (zh) * | 2019-10-10 | 2022-05-10 | 奥斯特公司 | 处理lidar准确度的时间序列测量 |
US20210110217A1 (en) * | 2019-10-11 | 2021-04-15 | Zf Active Safety And Electronics Us Llc | Automotive sensor fusion |
CN112668597B (zh) * | 2019-10-15 | 2023-07-28 | 杭州海康威视数字技术股份有限公司 | 一种特征比对方法、装置及设备 |
KR20210044963A (ko) * | 2019-10-15 | 2021-04-26 | 현대자동차주식회사 | 자율주행차량의 차선변경 경로 결정 장치 및 그 방법 |
US11273806B2 (en) * | 2019-10-17 | 2022-03-15 | Ford Global Technologies, Llc | Enhanced collision mitigation |
CN110765923B (zh) * | 2019-10-18 | 2024-05-24 | 腾讯科技(深圳)有限公司 | 一种人脸活体检测方法、装置、设备及存储介质 |
TWI738095B (zh) * | 2019-10-23 | 2021-09-01 | 中華電信股份有限公司 | 字元識別系統和字元識別方法 |
US11816900B2 (en) | 2019-10-23 | 2023-11-14 | Lyft, Inc. | Approaches for encoding environmental information |
US12020149B2 (en) | 2019-10-28 | 2024-06-25 | Micron Technology, Inc. | Distributed neural network processing on an intelligent image sensor stack |
US11378681B2 (en) * | 2019-10-30 | 2022-07-05 | Nxp Usa, Inc. | Systems and methods for automotive synthetic aperture radar |
US11577757B2 (en) * | 2019-11-01 | 2023-02-14 | Honda Motor Co., Ltd. | System and method for future forecasting using action priors |
US11747453B1 (en) | 2019-11-04 | 2023-09-05 | Waymo Llc | Calibration system for light detection and ranging (lidar) devices |
CN112784639A (zh) * | 2019-11-07 | 2021-05-11 | 北京市商汤科技开发有限公司 | 路口检测、神经网络训练及智能行驶方法、装置和设备 |
CN114787739A (zh) * | 2019-11-15 | 2022-07-22 | 伟摩有限责任公司 | 使用向量化输入的智能体轨迹预测 |
US11120280B2 (en) | 2019-11-15 | 2021-09-14 | Argo AI, LLC | Geometry-aware instance segmentation in stereo image capture processes |
US11101996B2 (en) * | 2019-11-15 | 2021-08-24 | Red Hat, Inc. | TPM-based data integrity |
US11558428B2 (en) * | 2019-11-15 | 2023-01-17 | Marvell Asia Pte Ltd | Automotive gateway providing secure open platform for guest applications |
US11531107B2 (en) * | 2019-11-19 | 2022-12-20 | Volvo Car Corporation | Long range LIDAR-based speed estimation |
KR20210060779A (ko) * | 2019-11-19 | 2021-05-27 | 현대자동차주식회사 | 차량센서의 이상 진단 장치 및 그 방법 |
CN111025959B (zh) * | 2019-11-20 | 2021-10-01 | 华为技术有限公司 | 一种数据管理的方法、装置、设备及智能汽车 |
EP3832341A1 (en) * | 2019-11-21 | 2021-06-09 | NVIDIA Corporation | Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications |
US20210155158A1 (en) * | 2019-11-22 | 2021-05-27 | Telenav, Inc. | Navigation system with lane estimation mechanism and method of operation thereof |
CN111131069B (zh) * | 2019-11-25 | 2021-06-08 | 北京理工大学 | 一种基于深度学习策略的异常加密流量检测与分类方法 |
US20230015771A1 (en) * | 2019-11-26 | 2023-01-19 | B. G. Negev Technologies And Applications Ltd. | Methods for detecting phantom projection attacks against computer vision algorithms |
DE102020204078A1 (de) * | 2019-11-27 | 2021-05-27 | Robert Bosch Gesellschaft mit beschränkter Haftung | Fahrerassistenzsystem für Kraftfahrzeuge |
CN111079800B (zh) * | 2019-11-29 | 2023-06-23 | 上海汽车集团股份有限公司 | 一种智能驾驶虚拟测试的加速方法及加速系统 |
CN111211903B (zh) * | 2019-12-02 | 2021-06-11 | 中国矿业大学 | 基于雾计算和保护隐私的移动群体感知数据报告去重方法 |
KR102388782B1 (ko) * | 2019-12-05 | 2022-04-20 | 부산대학교 산학협력단 | Pir 센서를 이용한 딥러닝 기반 객체 인지 시스템 및 방법 |
US11952010B1 (en) * | 2019-12-06 | 2024-04-09 | Matthew MacGregor Roy | Automatically adjustable steering geometry for autonomous vehicle |
WO2021116921A1 (en) | 2019-12-09 | 2021-06-17 | Thales Canada Inc. | Method and system for high integrity can bus traffic supervision in safety critical application |
US11127147B2 (en) * | 2019-12-10 | 2021-09-21 | GM Global Technology Operations LLC | Three-dimensional point cloud generation using a polarimetric camera in a drive assistance system equipped vehicle |
US11420645B2 (en) * | 2019-12-11 | 2022-08-23 | At&T Intellectual Property I, L.P. | Method and apparatus for personalizing autonomous transportation |
US20210182386A1 (en) * | 2019-12-11 | 2021-06-17 | Samsung Electronics Co., Ltd. | Electronic apparatus that monitors a safety function and a controlling method thereof |
CN111125495A (zh) * | 2019-12-19 | 2020-05-08 | 京东方科技集团股份有限公司 | 一种信息推荐方法、设备及存储介质 |
GB202311795D0 (en) * | 2019-12-19 | 2023-09-13 | Motional Ad Llc | Foreground extraction using surface fitting |
DE102019135372A1 (de) * | 2019-12-20 | 2021-06-24 | HELLA GmbH & Co. KGaA | Verfahren zur Überprüfung eines Radarsensors eines Fahrzeuges |
US11415992B2 (en) * | 2019-12-27 | 2022-08-16 | Woven Planet North America, Inc. | Resource prioritization based on travel path relevance |
US11172219B2 (en) * | 2019-12-30 | 2021-11-09 | Texas Instruments Incorporated | Alternating frame processing operation with predicted frame comparisons for high safety level use |
US11127142B2 (en) * | 2019-12-31 | 2021-09-21 | Baidu Usa Llc | Vehicle trajectory prediction model with semantic map and LSTM |
US11462020B2 (en) * | 2020-01-03 | 2022-10-04 | Ford Global Technologies, Llc | Temporal CNN rear impact alert system |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
EP3848807A1 (en) | 2020-01-07 | 2021-07-14 | Aptiv Technologies Limited | Data processing system and method for configuring and operating a data processing system |
CN111103577A (zh) * | 2020-01-07 | 2020-05-05 | 湖南大学 | 一种基于循环神经网络的端到端激光雷达标定方法 |
CN111242000A (zh) * | 2020-01-09 | 2020-06-05 | 电子科技大学 | 一种结合激光点云转向的道路边沿检测方法 |
KR20210089846A (ko) * | 2020-01-09 | 2021-07-19 | 주식회사 만도 | 능동 후방 추돌 방지 장치 및 방법 |
MX2021004989A (es) * | 2020-01-10 | 2021-09-08 | Workhorse Group Inc | Sistema de control del camion electrico de reparto para la gestion de la energia electrica. |
US11385656B2 (en) * | 2020-01-22 | 2022-07-12 | Huawei Technologies Co., Ltd. | System, device and method of identifying and updating the operational design domain of an autonomous vehicle |
DE102020201182A1 (de) * | 2020-01-31 | 2021-08-05 | Robert Bosch Gesellschaft mit beschränkter Haftung | Hardwarebeschleunigte Berechnung von Faltungen |
US11485429B2 (en) * | 2020-02-03 | 2022-11-01 | GM Global Technology Operations LLC | Control system for active aerodynamic devices |
US11416959B1 (en) * | 2020-02-10 | 2022-08-16 | Zoox, Inc. | Vision architecture |
US20210252698A1 (en) * | 2020-02-14 | 2021-08-19 | Nvidia Corporation | Robotic control using deep learning |
JP7111755B2 (ja) * | 2020-02-17 | 2022-08-02 | 矢崎総業株式会社 | 車載通信システム |
EP3869338A1 (en) * | 2020-02-18 | 2021-08-25 | Veoneer Sweden AB | A vehicle safety electronic control system |
CN115175841A (zh) * | 2020-02-19 | 2022-10-11 | 辉达公司 | 自主车辆的行为规划 |
DE102020001083A1 (de) * | 2020-02-20 | 2021-08-26 | Man Truck & Bus Se | Sensorvorrichtung zur Umfelderfassung für ein Kraftfahrzeug |
US11574463B2 (en) | 2020-02-24 | 2023-02-07 | Ford Global Technologies, Llc | Neural network for localization and object detection |
WO2021171207A1 (en) * | 2020-02-24 | 2021-09-02 | Thales Canada Inc. | Controller, control system and method for vehicle control |
CN111221762B (zh) * | 2020-02-25 | 2021-05-25 | 深圳市春盛海科技有限公司 | 图像控制器及图像系统 |
CN111208482B (zh) * | 2020-02-28 | 2022-02-18 | 成都汇蓉国科微系统技术有限公司 | 基于距离对齐的雷达精度分析方法 |
US11325603B2 (en) | 2020-02-28 | 2022-05-10 | Toyota Research Institute, Inc. | Systems and methods for estimating lane geometry |
CN111368424B (zh) * | 2020-03-03 | 2023-09-01 | 阿波罗智能技术(北京)有限公司 | 一种车辆仿真方法、装置、设备及介质 |
US11254323B2 (en) * | 2020-03-04 | 2022-02-22 | Zoox, Inc. | Localization error monitoring |
US20210281440A1 (en) * | 2020-03-05 | 2021-09-09 | Texas Instruments Incorporated | System-in-loop testing for adas socs |
US11450116B2 (en) | 2020-03-09 | 2022-09-20 | Ford Global Technologies, Llc | Systems and methods for sharing camera setting control among multiple image processing components in a vehicle |
JP2021143892A (ja) * | 2020-03-11 | 2021-09-24 | いすゞ自動車株式会社 | 通知装置、通知方法及びプログラム |
EP4117981A1 (en) * | 2020-03-12 | 2023-01-18 | HELLA GmbH & Co. KGaA | System for determining a condition of a road and/or at least one component of a chassis system of a vehicle |
US11966673B2 (en) | 2020-03-13 | 2024-04-23 | Nvidia Corporation | Sensor simulation and learning sensor models with generative machine learning methods |
US11814073B2 (en) * | 2020-03-18 | 2023-11-14 | Baidu Usa Llc | Learning based controller for autonomous driving |
DE102020203543A1 (de) * | 2020-03-19 | 2021-09-23 | Continental Automotive Gmbh | Verfahren und System zur Erstellung einer semantischen Repräsentation eines Umfelds eines Fahrzeugs |
US12001958B2 (en) * | 2020-03-19 | 2024-06-04 | Nvidia Corporation | Future trajectory predictions in multi-actor environments for autonomous machine |
DE102020108070A1 (de) | 2020-03-24 | 2021-09-30 | Basler Aktiengesellschaft | Robuste Überwachung von Computersystemen und/oder Steuerungssystemen |
CN111327790B (zh) * | 2020-03-27 | 2022-02-08 | 武汉烛照科技有限公司 | 一种视频处理芯片 |
US11364883B2 (en) * | 2020-03-27 | 2022-06-21 | Nvidia Corporation | Leveraging rear-view sensors for automatic emergency braking in autonomous machine applications |
US11458994B2 (en) | 2020-03-30 | 2022-10-04 | Toyota Research Institute, Inc. | Systems and methods for semi-autonomously controlling a vehicle |
DE102020109761A1 (de) * | 2020-04-08 | 2021-10-14 | Valeo Schalter Und Sensoren Gmbh | Umfeldsensorsystem |
US11681598B2 (en) | 2020-04-16 | 2023-06-20 | Texas Instruments Incorporated | Method and apparatus to facilitate low latency fault mitigation, QoS management and debug of a processing pipeline |
CA3115486A1 (en) | 2020-04-17 | 2021-10-17 | Oshkosh Corporation | Thermal management sensors |
CA3115471A1 (en) * | 2020-04-17 | 2021-10-17 | Oshkosh Corporation | Thermal management controls |
US11676291B1 (en) * | 2020-04-20 | 2023-06-13 | Everguard, Inc. | Adaptive multimodal safety systems and methods |
CN111522026B (zh) * | 2020-04-21 | 2022-12-09 | 北京三快在线科技有限公司 | 一种数据融合的方法及装置 |
US11453409B2 (en) * | 2020-04-21 | 2022-09-27 | Baidu Usa Llc | Extended model reference adaptive control algorithm for the vehicle actuation time-latency |
EP3902205B1 (de) * | 2020-04-21 | 2023-06-14 | TTTech Auto AG | Echtzeitcomputersystem und verfahren zur steuerung einer anlage oder eines fahrzeuges |
KR20210132496A (ko) * | 2020-04-27 | 2021-11-04 | 한국전자기술연구원 | 영상 기반 차선 검출 및 주행 차로 인식 방법 및 장치 |
CN111539112B (zh) * | 2020-04-27 | 2022-08-05 | 吉林大学 | 一种用于自动驾驶车快速查找交通对象的场景建模方法 |
US20210331695A1 (en) * | 2020-04-28 | 2021-10-28 | Rahul Ramakrishnan | Object detection and tracking for automated operation of vehicles and machinery |
US11675878B1 (en) | 2020-04-30 | 2023-06-13 | Everguard, Inc. | Auto-labeling method for multimodal safety systems |
DE102020205525A1 (de) * | 2020-04-30 | 2021-11-04 | Zf Friedrichshafen Ag | Verarbeitungssystem für ein Fahrzeug |
US11803955B1 (en) | 2020-04-30 | 2023-10-31 | Everguard, Inc. | Multimodal safety systems and methods |
WO2021226090A1 (en) * | 2020-05-04 | 2021-11-11 | Optimus Ride, Inc. | Mapping system and method |
US11399084B2 (en) * | 2020-05-12 | 2022-07-26 | Nxp Usa, Inc. | Hot plugging of sensor |
DE102021112349A1 (de) * | 2020-05-12 | 2021-11-18 | Motional Ad Llc | Fahrzeugbetrieb unter verwendung eines dynamischen belegungsrasters |
JP2023526329A (ja) * | 2020-05-15 | 2023-06-21 | パーセプティブ オートマタ インコーポレイテッド | 自律車両のための機械学習ベースモデルの検証およびトレーニングのためのシナリオ識別 |
CN113689705B (zh) * | 2020-05-19 | 2022-11-29 | 深圳市丰驰顺行信息技术有限公司 | 车辆闯红灯检测方法、装置、计算机设备和存储介质 |
US20210362749A1 (en) * | 2020-05-20 | 2021-11-25 | Gm Cruise Holdings Llc | Hardware accelerated network interface for an autonomous vehicle switched-network |
CN113792566B (zh) * | 2020-05-25 | 2024-05-17 | 华为技术有限公司 | 一种激光点云的处理方法及相关设备 |
US20210370941A1 (en) * | 2020-05-27 | 2021-12-02 | Baidu Usa Llc | Precautionary slowdown speed planning |
US11940786B2 (en) | 2020-06-06 | 2024-03-26 | Honeywell International Inc. | Building management system and method with virtual controller and failsafe mode |
US11829150B2 (en) * | 2020-06-10 | 2023-11-28 | Toyota Research Institute, Inc. | Systems and methods for using a joint feature space to identify driving behaviors |
US11520343B2 (en) | 2020-06-15 | 2022-12-06 | Argo AI, LLC | Methods and systems for performing inter-trajectory re-linearization about an evolving reference path for an autonomous vehicle |
US11769332B2 (en) | 2020-06-15 | 2023-09-26 | Lytx, Inc. | Sensor fusion for collision detection |
US11574100B2 (en) * | 2020-06-19 | 2023-02-07 | Micron Technology, Inc. | Integrated sensor device with deep learning accelerator and random access memory |
US11891075B2 (en) * | 2020-06-23 | 2024-02-06 | Tusimple, Inc. | Redundant hardware and software architecture for autonomous vehicles |
DE102020116959A1 (de) | 2020-06-26 | 2021-12-30 | Infineon Technologies Ag | Watchdog-schaltung, schaltung, system-auf-chip, verfahren zum betrieb einer watchdog-schaltung, verfahren zum betrieb einer schaltung und verfahren zum betrieb eines systems-auf-chip |
US20200326721A1 (en) * | 2020-06-26 | 2020-10-15 | Intel Corporation | Occupancy verification device and method |
US11605228B2 (en) | 2020-06-26 | 2023-03-14 | Nxp Usa, Inc. | System and method for sensor fusion system having distributed convolutional neural network |
EP4165476A4 (en) | 2020-07-01 | 2024-07-03 | May Mobility Inc | METHOD AND SYSTEM FOR DYNAMIC MANAGEMENT OF AUTONOMOUS VEHICLE INTERVENTIONS |
CN111818037A (zh) * | 2020-07-02 | 2020-10-23 | 上海工业控制安全创新科技有限公司 | 基于信息熵的车载网络流量异常检测防御方法及防御系统 |
DE102020208309A1 (de) * | 2020-07-02 | 2022-01-05 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems |
WO2022014327A1 (ja) * | 2020-07-14 | 2022-01-20 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2022011722A1 (zh) * | 2020-07-17 | 2022-01-20 | 华为技术有限公司 | 数据处理方法、装置及智能车辆 |
US11514588B1 (en) * | 2020-07-21 | 2022-11-29 | Amazon Technologies, Inc. | Object localization for mapping applications using geometric computer vision techniques |
US20220032932A1 (en) * | 2020-07-29 | 2022-02-03 | Micron Technology, Inc. | Image sensor for processing sensor data to reduce data traffic to host system |
US11463555B2 (en) | 2020-08-04 | 2022-10-04 | Nxp B.V. | Local interconnect network (LIN) messaging between LIN partitions separated by a backbone communication network |
US11594040B2 (en) * | 2020-08-05 | 2023-02-28 | Fca Us Llc | Multiple resolution deep neural networks for vehicle autonomous driving systems |
CN111915488B (zh) * | 2020-08-05 | 2023-11-28 | 成都圭目机器人有限公司 | 大数据下的高性能图像瓦块图生成方法 |
JP7074166B2 (ja) * | 2020-08-07 | 2022-05-24 | トヨタ自動車株式会社 | サーバ、車両の制御装置、および車両の機械学習システム |
US20220048539A1 (en) * | 2020-08-12 | 2022-02-17 | Autonomous Solutions, Inc. | Autonomous safety rider |
US20230306633A1 (en) * | 2020-08-18 | 2023-09-28 | Foresight Automotive Ltd. | System and method for pose estimation of sensors using motion and angular shift |
US11553618B2 (en) | 2020-08-26 | 2023-01-10 | PassiveLogic, Inc. | Methods and systems of building automation state load and user preference via network systems activity |
WO2022051767A1 (en) * | 2020-09-03 | 2022-03-10 | The Regents Of The University Of California | Temporally and spectrally adaptive sonar for autonomous vehicle navigation |
DE102020211216B3 (de) | 2020-09-07 | 2021-10-28 | Volkswagen Aktiengesellschaft | Verfahren, Computerprogramm und Vorrichtung für eine Netzwerkkomponente zur Auflösung einer ungeplanten Verkehrssituation für ein selbstfahrendes Fahrzeug. |
DE102020123831A1 (de) * | 2020-09-14 | 2022-03-17 | ASFINAG Maut Service GmbH | Konzept zum Unterstützen eines zumindest teilautomatisiert geführten Kraftfahrzeugs |
CN112083456B (zh) * | 2020-09-14 | 2023-04-07 | 电子科技大学 | 一种货运状态识别方法、装置、设备及存储介质 |
EP3967565B1 (en) * | 2020-09-14 | 2022-09-28 | Bayerische Motoren Werke Aktiengesellschaft | Methods and apparatuses for estimating an environmental condition |
US11321862B2 (en) | 2020-09-15 | 2022-05-03 | Toyota Research Institute, Inc. | Systems and methods for multi-camera modeling with neural camera networks |
US11494927B2 (en) | 2020-09-15 | 2022-11-08 | Toyota Research Institute, Inc. | Systems and methods for self-supervised depth estimation |
US11508080B2 (en) | 2020-09-15 | 2022-11-22 | Toyota Research Institute, Inc. | Systems and methods for generic visual odometry using learned features via neural camera models |
US11615544B2 (en) | 2020-09-15 | 2023-03-28 | Toyota Research Institute, Inc. | Systems and methods for end-to-end map building from a video sequence using neural camera models |
CN111929693B (zh) * | 2020-09-18 | 2021-01-08 | 雷熵信息科技(潍坊)有限公司 | 一种基于激光点云距离序列的井下定位方法 |
CN112182133B (zh) * | 2020-09-29 | 2022-02-15 | 南京北斗创新应用科技研究院有限公司 | 一种基于ais数据的船舶徘徊检测方法 |
DE102020126220A1 (de) | 2020-10-07 | 2022-04-07 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Betreiben eines Fahrerassistenzsystems, Computerprogrammprodukt, Fahrerassistenzsystem und Fahrzeug |
CN112389464A (zh) * | 2020-10-19 | 2021-02-23 | 雅析安全系统(上海)有限公司 | 符合安全等级要求的自动驾驶远端控制方法及控制系统 |
US11978266B2 (en) | 2020-10-21 | 2024-05-07 | Nvidia Corporation | Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications |
US11884298B2 (en) * | 2020-10-23 | 2024-01-30 | Tusimple, Inc. | Safe driving operations of autonomous vehicles |
CN112428989B (zh) * | 2020-10-30 | 2022-03-11 | 惠州华阳通用电子有限公司 | 一种车辆控制方法 |
CN112277799B (zh) * | 2020-10-30 | 2023-01-06 | 重庆长安汽车股份有限公司 | 一种汽车盲区检测报警方法及系统 |
US11386784B2 (en) * | 2020-11-02 | 2022-07-12 | GM Global Technology Operations LLC | Systems and methods for vehicle pose prediction |
CN112286819A (zh) * | 2020-11-03 | 2021-01-29 | 深圳市云伽智能技术有限公司 | Adas系统的故障处理方法、装置、设备及存储介质 |
CN112345942B (zh) * | 2020-11-09 | 2024-02-23 | 阳光储能技术有限公司 | 一种电池系统及其bms和满充满放soc校准方法 |
US11960993B2 (en) * | 2020-11-10 | 2024-04-16 | Equifax Inc. | Machine-learning techniques involving monotonic recurrent neural networks |
CN112256590B (zh) * | 2020-11-12 | 2022-04-29 | 腾讯科技(深圳)有限公司 | 虚拟场景有效性判定方法、装置和自动驾驶系统 |
EP4002215A1 (en) * | 2020-11-13 | 2022-05-25 | NavInfo Europe B.V. | Method to improve scale consistency and/or scale awareness in a model of self-supervised depth and ego-motion prediction neural networks |
WO2022115009A1 (en) * | 2020-11-24 | 2022-06-02 | Telefonaktiebolaget Lm Ericsson (Publ) | Network parameter for cellular network based on safety |
WO2022115713A1 (en) * | 2020-11-30 | 2022-06-02 | Nuro, Inc. | Hardware systems for an autonomous vehicle |
CN112561152A (zh) * | 2020-12-07 | 2021-03-26 | 安徽四创电子股份有限公司 | 一种基于聚类分析的公共安全重点区域点位规划方法 |
US11718287B2 (en) * | 2020-12-09 | 2023-08-08 | Bendix Commercial Vehicle Systems Llc | Automated system and method for parking a commercial vehicle |
US11827240B2 (en) * | 2020-12-09 | 2023-11-28 | Uatc, Llc | Systems and methods for costing autonomous vehicle maneuvers |
CN114625424B (zh) * | 2020-12-09 | 2023-09-29 | 博泰车联网科技(上海)股份有限公司 | 基于硬隔离的资源重分配方法、系统和设备 |
US11396302B2 (en) | 2020-12-14 | 2022-07-26 | May Mobility, Inc. | Autonomous vehicle safety platform system and method |
US11603116B2 (en) * | 2020-12-16 | 2023-03-14 | Zoox, Inc. | Determining safety area based on bounding box |
CN112596685A (zh) * | 2020-12-17 | 2021-04-02 | 华南理工大学 | 一种基于arm核心的远程访问dlp 3d打印方法及装置 |
CN112590815B (zh) * | 2020-12-22 | 2021-07-23 | 吉林大学 | 基于act-r的自动驾驶预测节能认知模型的构建方法 |
CN112622930A (zh) * | 2020-12-22 | 2021-04-09 | 北京百度网讯科技有限公司 | 无人车的行驶控制方法、装置、设备以及自动驾驶车辆 |
GB202303224D0 (en) * | 2020-12-23 | 2023-04-19 | Motional Ad Llc | Security gateway |
CN112765095B (zh) * | 2020-12-24 | 2022-08-23 | 山东省国土测绘院 | 一种立体测绘卫星影像数据归档方法和系统 |
CN112738469A (zh) * | 2020-12-25 | 2021-04-30 | 浙江合众新能源汽车有限公司 | 图像处理方法、设备、系统和计算机可读介质 |
US20220206831A1 (en) * | 2020-12-28 | 2022-06-30 | Ati Technologies Ulc | Method and system for managing applications on a virtual machine |
CN112644517B (zh) * | 2020-12-29 | 2022-01-25 | 北京宸控科技有限公司 | 一种井下车辆自动驾驶算法 |
CN112686609B (zh) * | 2020-12-31 | 2021-08-13 | 江苏佳利达国际物流股份有限公司 | 基于优化效率评价算法的智能无人物流运输方法和系统 |
CN112550303A (zh) * | 2021-01-12 | 2021-03-26 | 蔚来汽车科技(安徽)有限公司 | 车辆控制系统、车辆控制方法及存储介质 |
US20220222386A1 (en) * | 2021-01-13 | 2022-07-14 | University Of Florida Research Foundation, Inc. | Decommissioning and erasing entropy in microelectronic systems |
DE102021000246A1 (de) | 2021-01-19 | 2022-07-21 | Mercedes-Benz Group AG | Steuerungsverfahren zum automatischen Aufbau oder zur automatischen Umschaltung einer Fahrzeugkommunikation zum Datenaustausch zwischen einem Fahrzeug und einer Gegenstelle |
US11676403B2 (en) * | 2021-01-21 | 2023-06-13 | Hitachi Astemo, Ltd. | Combining visible light camera and thermal camera information |
FR3119118B1 (fr) * | 2021-01-25 | 2022-12-09 | Psa Automobiles Sa | Procédé et dispositif de contrôle de témoins d’une interface homme-machine pour véhicule |
US20220232763A1 (en) * | 2021-01-27 | 2022-07-28 | Deere & Company | Machine control using a map with regime zones |
US11489940B2 (en) * | 2021-01-28 | 2022-11-01 | Arm Limited | Data processing systems |
CN112818834B (zh) * | 2021-01-29 | 2022-11-25 | 山东大学 | 一种交叉口针对应急车辆的避让判定方法、设备及介质 |
CN112884210B (zh) * | 2021-01-31 | 2022-03-15 | 中国人民解放军63963部队 | 一种基于模糊聚类的车辆健康管理系统 |
US11580060B2 (en) * | 2021-02-13 | 2023-02-14 | Drako Motors, Inc. | Policy driven latency control applied to a vehicular real time network apparatus |
US20220266862A1 (en) * | 2021-02-25 | 2022-08-25 | Autonomous Solutions, Inc. | Intelligent urgent stop system for an autonomous vehicle |
CN113163108B (zh) * | 2021-02-26 | 2022-04-29 | 山东英信计算机技术有限公司 | 图像采集系统 |
US20220281478A1 (en) * | 2021-03-02 | 2022-09-08 | Steering Solutions Ip Holding Corporation | Motion monitoring safety diagnostic for the detection of erroneous autonomous motion requests |
US11635507B2 (en) * | 2021-03-03 | 2023-04-25 | Adobe Inc. | Systems for estimating three-dimensional trajectories of physical objects |
US11827245B2 (en) | 2021-03-09 | 2023-11-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for estimating motion of an automated vehicle for cooperative driving |
US11214271B1 (en) * | 2021-03-10 | 2022-01-04 | Aurora Operations, Inc. | Control system interface for autonomous vehicle |
US20220293170A1 (en) * | 2021-03-10 | 2022-09-15 | Invention And Collaboration Laboratory Pte. Ltd. | Integrated scaling and stretching platform for optimizing monolithic integration and/or heterogeneous integration in a single semiconductor die |
US11145208B1 (en) | 2021-03-15 | 2021-10-12 | Samsara Networks Inc. | Customized route tracking |
CN117015493A (zh) * | 2021-03-15 | 2023-11-07 | 动态Ad有限责任公司 | 自动紧急制动系统 |
CN113076824B (zh) * | 2021-03-19 | 2024-05-14 | 上海欧菲智能车联科技有限公司 | 车位获取方法、装置、车载终端及存储介质 |
CN113126130B (zh) * | 2021-03-25 | 2022-06-24 | 中国电子科技集团公司第五十四研究所 | 一种多层次深耦合的导航信号异常高精度监测方法 |
US20210247743A1 (en) * | 2021-03-26 | 2021-08-12 | Intel Corporation | Functional safety with root of safety and chain of safety |
CN112896162B (zh) * | 2021-03-29 | 2022-09-27 | 东风汽车集团股份有限公司 | 一种匝道工况下的汽车纵向行驶优化控制方法及装置 |
JP2022154943A (ja) * | 2021-03-30 | 2022-10-13 | 本田技研工業株式会社 | 車両用制御システム、車両、制御方法 |
US11472436B1 (en) | 2021-04-02 | 2022-10-18 | May Mobility, Inc | Method and system for operating an autonomous agent with incomplete environmental information |
US11954894B2 (en) | 2021-04-08 | 2024-04-09 | Rivian Ip Holdings, Llc | Systems and methods for determining camera blockage |
CN114084170A (zh) * | 2021-04-15 | 2022-02-25 | 上海丰豹商务咨询有限公司 | 一种服务于cvcs的车载智能单元及其控制方法 |
CN113400937B (zh) * | 2021-04-15 | 2022-05-24 | 浙江吉利控股集团有限公司 | 车辆娱乐信息显示系统及车辆 |
US11967122B2 (en) | 2021-04-19 | 2024-04-23 | Argo AI, LLC | Context aware verification for sensor pipelines |
US20220334862A1 (en) * | 2021-04-20 | 2022-10-20 | Stmicroelectronics International N.V. | Virtual mode execution manager |
CN113011388B (zh) * | 2021-04-23 | 2022-05-06 | 吉林大学 | 一种基于车牌及车道线的车辆外轮廓尺寸检测方法 |
US20220342702A1 (en) * | 2021-04-26 | 2022-10-27 | GM Global Technology Operations LLC | Real-time scheduling for a heterogeneous multi-core system |
CN113162809A (zh) * | 2021-04-30 | 2021-07-23 | 腾讯科技(深圳)有限公司 | 驾驶辅助处理方法、装置、计算机可读介质及电子设备 |
TWI759194B (zh) | 2021-05-03 | 2022-03-21 | 廣達電腦股份有限公司 | 車用電子系統及其控制方法 |
US11768283B2 (en) | 2021-05-03 | 2023-09-26 | Waymo Llc | Sound source distance estimation |
US11988565B2 (en) | 2021-05-06 | 2024-05-21 | Apple Inc. | Process-insensitive sensor circuit |
DE102021113037A1 (de) * | 2021-05-19 | 2022-11-24 | B-Horizon GmbH | Fahrzeugdatenkommunikationssystem zur Übermittlung von Fahrzeugdaten |
CN113313271B (zh) * | 2021-06-03 | 2022-09-30 | 国家电网有限公司客户服务中心 | 一种基于远程客服的电力系统故障报修方法及装置 |
CN113222295B (zh) * | 2021-06-07 | 2022-05-27 | 吉林大学 | 一种面向l3级自动驾驶汽车控制权切换状态下的接管时间预测方法 |
US20220405573A1 (en) * | 2021-06-18 | 2022-12-22 | Ford Global Technologies, Llc | Calibration for a distributed system |
DE102021117311A1 (de) * | 2021-07-05 | 2023-01-05 | Spleenlab GmbH | Steuer- und Navigationsvorrichtung für ein autonom bewegtes System und autonom bewegtes System |
CN113386669A (zh) * | 2021-07-13 | 2021-09-14 | 虹软科技股份有限公司 | 一种辅助驾驶系统及车辆 |
WO2023007209A1 (en) * | 2021-07-26 | 2023-02-02 | Molex, Llc | Fault-tolerant distributed computing for vehicular systems |
WO2023009549A2 (en) * | 2021-07-26 | 2023-02-02 | Cyngn, Inc. | High-definition mapping |
US11869353B2 (en) | 2021-07-26 | 2024-01-09 | Toyota Motor Engineering & Manufacturing North America, Inc. | Vehicular topple risk notification |
US11582064B1 (en) * | 2021-07-28 | 2023-02-14 | GM Cruise Holdings LLC. | Secure ethernet and transmission control protocol |
US20230029993A1 (en) * | 2021-07-28 | 2023-02-02 | Toyota Research Institute, Inc. | Systems and methods for behavior cloning with structured world models |
US11803668B2 (en) | 2021-07-30 | 2023-10-31 | Nvidia Corporation | Isolating a region of a system on a chip for safety critical operations |
WO2023009559A1 (en) * | 2021-07-30 | 2023-02-02 | Nvidia Corporation | Isolating a region of a system on a chip for safety critical operations |
US11704067B2 (en) * | 2021-08-02 | 2023-07-18 | Nvidia Corporation | Performing multiple point table lookups in a single cycle in a system on chip |
US11836527B2 (en) | 2021-08-02 | 2023-12-05 | Nvidia Corporation | Accelerating table lookups using a decoupled lookup table accelerator in a system on a chip |
US11673577B2 (en) | 2021-08-02 | 2023-06-13 | Cyngn, Inc. | System and methods of adaptive relevancy prediction for autonomous driving |
US20230044344A1 (en) * | 2021-08-03 | 2023-02-09 | GM Global Technology Operations LLC | Autonomous look ahead methods and systems |
WO2023028274A1 (en) | 2021-08-25 | 2023-03-02 | Cyngn, Inc. | System and method of large-scale autonomous driving validation |
CN113705474B (zh) * | 2021-08-30 | 2022-04-15 | 北京易航远智科技有限公司 | 车位检测方法和装置 |
CN113721622B (zh) * | 2021-08-31 | 2024-02-23 | 安徽工业大学 | 一种机器人路径规划方法 |
US20230060776A1 (en) * | 2021-09-01 | 2023-03-02 | Baidu Usa Llc | Decision consistency profiler for an autonomous driving vehicle |
US20230071312A1 (en) * | 2021-09-08 | 2023-03-09 | PassiveLogic, Inc. | External Activation of Quiescent Device |
US11830383B2 (en) | 2021-09-08 | 2023-11-28 | PassiveLogic, Inc. | External activating of quiescent device |
CN113743810A (zh) * | 2021-09-10 | 2021-12-03 | 东风悦享科技有限公司 | 一种用于港口无人驾驶车辆的智能管理系统、方法及设备 |
CN113984403B (zh) * | 2021-09-13 | 2024-06-07 | 惠州市德赛西威智能交通技术研究院有限公司 | 一种Autobox端实时泊车试验台及泊车测试方法 |
US11626027B2 (en) | 2021-09-13 | 2023-04-11 | Morphix, Inc. | Classifying possession or control of target assets |
CN113568713A (zh) * | 2021-09-22 | 2021-10-29 | 国汽智控(北京)科技有限公司 | 基于自动驾驶系统的数据处理方法、装置、设备及产品 |
CN113873200B (zh) * | 2021-09-26 | 2024-02-02 | 珠海研果科技有限公司 | 一种图像标识方法及系统 |
CN113830106A (zh) * | 2021-09-28 | 2021-12-24 | 英博超算(南京)科技有限公司 | 一种基于高精度六轴自动驾驶的实现方法 |
DE102021125525A1 (de) * | 2021-10-01 | 2023-04-06 | Deere & Company | Verfahren zur Ausgabe von Kollisionswarnungen für ein land-wirtschaftliches Fahrzeuggespann |
DE102021125672A1 (de) | 2021-10-04 | 2023-04-06 | Bayerische Motoren Werke Aktiengesellschaft | Prozessorsystem für ein Fahrzeug und Verfahren zum Überwachen eines Prozesszustands nach einem Remote-Software-Update |
CN114084141A (zh) * | 2021-10-27 | 2022-02-25 | 东风汽车股份有限公司 | 一种电动教练车行驶模式切换方法 |
CN113706737B (zh) * | 2021-10-27 | 2022-01-07 | 北京主线科技有限公司 | 基于自动驾驶车辆的路面巡检系统及方法 |
US20230136643A1 (en) * | 2021-10-29 | 2023-05-04 | Kyndryl, Inc. | Intelligent locking of display devices for remote use |
US20230139521A1 (en) * | 2021-11-02 | 2023-05-04 | GM Global Technology Operations LLC | Neural network validation system |
WO2023080891A1 (en) * | 2021-11-04 | 2023-05-11 | Zeku, Inc. | System and method for dual-microcontroller unit parallel data processing |
CN114066759B (zh) * | 2021-11-18 | 2023-08-01 | 电子科技大学 | 一种基于fpga的红外图像实时畸变校正方法和系统 |
CN113822234B (zh) * | 2021-11-22 | 2022-04-22 | 成都星宇融科电力电子股份有限公司 | 基于车载热成像的目标检测预警分析方法、系统及终端 |
US11527074B1 (en) * | 2021-11-24 | 2022-12-13 | Continental Automotive Technologies GmbH | Systems and methods for deep multi-task learning for embedded machine vision applications |
CN114179824B (zh) * | 2021-11-30 | 2024-05-07 | 广东浪潮智慧计算技术有限公司 | 一种无人驾驶的计算系统 |
US20230171397A1 (en) * | 2021-11-30 | 2023-06-01 | Texas Instruments Incorporated | Fail safe surround view |
US12012123B2 (en) | 2021-12-01 | 2024-06-18 | May Mobility, Inc. | Method and system for impact-based operation of an autonomous agent |
CN113868778B (zh) * | 2021-12-02 | 2022-03-11 | 中智行科技有限公司 | 仿真场景管理方法和装置 |
US11687483B1 (en) * | 2021-12-05 | 2023-06-27 | Western Digital Technologies, Inc. | Embedded physical layers with passive interfacing for configurable integrated circuits |
TWI809592B (zh) * | 2021-12-08 | 2023-07-21 | 財團法人工業技術研究院 | 模型預測控制系統及其方法 |
CN113911103B (zh) * | 2021-12-14 | 2022-03-15 | 北京理工大学 | 一种混合动力履带车辆速度与能量协同优化方法及系统 |
CN114104002B (zh) * | 2021-12-21 | 2023-11-21 | 华人运通(江苏)技术有限公司 | 自动驾驶系统监控方法、装置、设备和存储介质 |
CN114285693B (zh) * | 2021-12-23 | 2023-04-21 | 延锋伟世通电子科技(上海)有限公司 | Autosar网络flexray硬件buffer复用的实现方法及系统 |
US20230215026A1 (en) * | 2022-01-03 | 2023-07-06 | GM Global Technology Operations LLC | On-vehicle spatial monitoring system |
DE102022201123A1 (de) | 2022-02-03 | 2023-08-03 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren und Vorrichtung zur Ermittlung einer Sichtweitendegradation eines LiDAR-Systems sowie Computerprogramm und maschinenlesbares Speichermedium |
WO2023154568A1 (en) | 2022-02-14 | 2023-08-17 | May Mobility, Inc. | Method and system for conditional operation of an autonomous agent |
CN116681758A (zh) * | 2022-02-23 | 2023-09-01 | 北京百度网讯科技有限公司 | 车辆的姿态估计方法、装置、电子设备及存储介质 |
US20230280183A1 (en) * | 2022-03-01 | 2023-09-07 | Mobileye Vision Technologies Ltd. | Machine learning-based traffic light relevancy mapping |
CN114859847B (zh) * | 2022-03-11 | 2023-05-09 | 四川大学 | 一种适用于互联非线性系统的可靠优化控制系统及方法 |
US20230286508A1 (en) * | 2022-03-14 | 2023-09-14 | Garrett Transportation I Inc. | Non-selfish traffic lights passing advisory systems |
CN114331645B (zh) * | 2022-03-14 | 2022-08-05 | 广州宸祺出行科技有限公司 | 一种提升网约车的运力利用率的方法及系统 |
CN114739554B (zh) * | 2022-04-02 | 2024-02-02 | 中国第一汽车股份有限公司 | 一种四驱车传动系扭转强度测试实验方法和评价方法 |
CN114537341A (zh) * | 2022-04-24 | 2022-05-27 | 中国重汽集团济南动力有限公司 | 一种基于红外传感器的前向主动防碰撞系统及方法 |
WO2023211980A1 (en) * | 2022-04-26 | 2023-11-02 | Motional Ad Llc | Boot process system-on-chip node configuration |
WO2023211966A1 (en) * | 2022-04-26 | 2023-11-02 | Motional Ad Llc | Scalable configurable chip architecture |
CN118251660A (zh) * | 2022-04-29 | 2024-06-25 | 辉达公司 | 检测数据处理管线中的硬件故障 |
US20230410490A1 (en) * | 2022-05-11 | 2023-12-21 | Aptiv Technologies Limited | Deep Association for Sensor Fusion |
CN115050093B (zh) * | 2022-05-23 | 2024-05-31 | 山东大学 | 一种基于分阶段多级金字塔的跨视角步态识别方法 |
CN115009291B (zh) * | 2022-05-23 | 2023-05-23 | 暨南大学 | 基于网络演化重放缓冲区的自动驾驶辅助决策方法及系统 |
CN114815852B (zh) * | 2022-06-14 | 2023-02-03 | 北京航空航天大学 | 一种基于空间离散化的cacc车队轨迹规划方法 |
US20230410423A1 (en) * | 2022-06-15 | 2023-12-21 | Gm Cruise Holdings Llc | Three-dimensional motion grid system for autonomous vehicle perception |
CN115240150A (zh) * | 2022-06-21 | 2022-10-25 | 佛山仙湖实验室 | 基于单目相机的车道偏离预警方法、系统、设备及介质 |
CN115123385A (zh) * | 2022-06-24 | 2022-09-30 | 中科领航智能科技(苏州)有限公司 | 一种无人巴士线控底盘及其自动驾驶系统 |
CN114817900A (zh) * | 2022-06-24 | 2022-07-29 | 北京阿帕科蓝科技有限公司 | 一种车辆主控系统空中下载升级的验证方法及系统 |
EP4300236A1 (fr) * | 2022-06-27 | 2024-01-03 | Loxo AG | Système de pilotage de véhicule autonome et méthode de gestion |
CN114966618A (zh) * | 2022-06-29 | 2022-08-30 | 威健国际贸易(上海)有限公司 | 一种使用mipi与hssl通信接口的daniellin型汽车激光雷达系统 |
CN115220973A (zh) * | 2022-07-05 | 2022-10-21 | 长春大学 | 基于Tsallis熵的车载CAN总线信息安全异常检测方法、系统及设备 |
US11914468B1 (en) * | 2022-08-15 | 2024-02-27 | Western Digital Technologies, Inc. | NVMe boot partition error correction code enhancement |
WO2024054746A1 (en) * | 2022-09-07 | 2024-03-14 | Cummins Inc. | Vehicle braking management systems and methods |
US12010446B2 (en) * | 2022-09-08 | 2024-06-11 | Micron Technology, Inc. | Image compression using integrated circuit devices having analog inference capability |
WO2024071944A1 (ko) * | 2022-09-27 | 2024-04-04 | 엘지전자 주식회사 | 신호 처리 장치 및 이를 구비하는 차량용 디스플레이 장치 |
WO2024071942A1 (ko) * | 2022-09-27 | 2024-04-04 | 엘지전자 주식회사 | 신호 처리 장치 및 이를 구비하는 차량용 디스플레이 장치 |
CN115269205B (zh) * | 2022-09-27 | 2022-12-27 | 之江实验室 | 一种面向神经网络计算的内存优化方法和装置 |
US20240114162A1 (en) * | 2022-09-29 | 2024-04-04 | Nvidia Corporation | Frame selection for streaming applications |
CN115471495B (zh) * | 2022-09-30 | 2024-02-13 | 北京瑞莱智慧科技有限公司 | 模型鲁棒性检测方法、相关装置及存储介质 |
WO2024085580A1 (ko) * | 2022-10-18 | 2024-04-25 | 엘지전자 주식회사 | 신호 처리 장치 및 이를 구비하는 차량용 디스플레이 장치 |
WO2024108123A1 (en) * | 2022-11-18 | 2024-05-23 | Cornell University | Lane-change timing determinations in autonomous vehicle routing |
CN115617217B (zh) * | 2022-11-23 | 2023-03-21 | 中国科学院心理研究所 | 一种车辆状态的显示方法、装置、设备及可读存储介质 |
US11943328B1 (en) * | 2022-11-29 | 2024-03-26 | GM Global Technology Operations LLC | Secure method and apparatus for mixed criticality services discovery in a vehicle |
CN116071353B (zh) * | 2023-03-06 | 2023-09-05 | 成都盛锴科技有限公司 | 一种螺栓装配检测方法及系统 |
CN116461539A (zh) * | 2023-04-10 | 2023-07-21 | 北京辉羲智能科技有限公司 | 一种采集传感器时序数据的自动驾驶SoC芯片 |
CN116350190B (zh) * | 2023-05-29 | 2023-08-18 | 中国第一汽车股份有限公司 | 一种驾驶能力确定方法、电子设备及存储介质 |
CN116339957B (zh) * | 2023-05-30 | 2023-08-11 | 北京理工大学 | 一种异构分布式平台混合关键系统的任务调度方法及系统 |
CN116450207A (zh) * | 2023-06-14 | 2023-07-18 | 北京鉴智科技有限公司 | 自动驾驶感知处理方法、装置、电子设备及存储介质 |
CN116620287B (zh) * | 2023-06-30 | 2024-03-19 | 南京项尚车联网技术有限公司 | 一种智能驾驶方法、系统 |
US11954587B2 (en) * | 2023-08-30 | 2024-04-09 | Deepx Co., Ltd. | System-on-chip for artificial neural network being operated according to dynamically calibrated phase of clock signal |
CN116954950B (zh) * | 2023-09-04 | 2024-03-12 | 北京凯芯微科技有限公司 | 一种核间通信方法和电子设备 |
CN117274781B (zh) * | 2023-11-21 | 2024-04-16 | 成都合能创越软件有限公司 | 基于双管道信息交错车载实时检测方法及系统 |
CN117274941B (zh) * | 2023-11-22 | 2024-06-11 | 安徽蔚来智驾科技有限公司 | 占用栅格预测方法和装置、智能设备和存储介质 |
CN117609749B (zh) * | 2024-01-19 | 2024-04-02 | 中国航发四川燃气涡轮研究院 | 一种基于过临界特征的发动机整机振动故障诊断方法 |
CN117930850B (zh) * | 2024-01-29 | 2024-06-21 | 盐城生物工程高等职业技术学校 | 一种气垫悬浮车控制器、控制方法及系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007141870A1 (ja) * | 2006-06-09 | 2007-12-13 | Fujitsu Limited | 温度センサ用リングオシレータ、温度センサ回路及びこれを備える半導体装置 |
WO2009078081A1 (ja) * | 2007-12-14 | 2009-06-25 | Fujitsu Limited | 半導体集積回路 |
US20100149193A1 (en) * | 2008-12-11 | 2010-06-17 | Yu Meng-Shiue | Method And System For Enabling Managed Code-Based Application Program To Access Graphics Processing Unit |
JP2014516443A (ja) * | 2011-04-22 | 2014-07-10 | クアルコム,インコーポレイテッド | ポータブルコンピューティングデバイスにおける熱負荷の管理 |
JP2015524597A (ja) * | 2012-08-06 | 2015-08-24 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | リリース一貫性メモリ順序付けモデルを用いたマルチコア計算キャッシュコヒーレンシ |
JP2016075558A (ja) * | 2014-10-06 | 2016-05-12 | 日本電産エレシス株式会社 | レーダシステム、レーダ信号処理装置、車両走行制御装置および方法、ならびにコンピュータプログラム |
JP2016517207A (ja) * | 2013-03-13 | 2016-06-09 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ドライバの注意散漫検出および報告 |
US20160321074A1 (en) * | 2015-05-01 | 2016-11-03 | Nvidia Corporation | Programmable Vision Accelerator |
JP2017062666A (ja) * | 2015-09-25 | 2017-03-30 | 富士ゼロックス株式会社 | 情報処理装置および画像形成装置 |
WO2017118907A1 (en) * | 2016-01-05 | 2017-07-13 | Mobileye Vision Technologies Ltd. | Systems and methods for estimating future paths |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4432265C2 (de) * | 1994-09-10 | 1996-12-12 | Daimler Benz Aerospace Ag | Verfahren zur Bestimmung des Drehimpulsvektors eines Satelliten |
KR101861742B1 (ko) * | 2011-08-30 | 2018-05-30 | 삼성전자주식회사 | 이종의 가속기들 사이에서 스위칭할 수 있는 데이터 처리 시스템과 그 방법 |
US8874162B2 (en) * | 2011-12-23 | 2014-10-28 | Microsoft Corporation | Mobile device safe driving |
US9123128B2 (en) * | 2012-12-21 | 2015-09-01 | Nvidia Corporation | Graphics processing unit employing a standard processing unit and a method of constructing a graphics processing unit |
US9098323B2 (en) | 2013-09-05 | 2015-08-04 | Nvidia Corporation | Simultaneous utilization of a first graphics processing unit (GPU) and a second GPU of a computing platform through a virtual machine (VM) in a shared mode and a dedicated mode respectively |
US9742869B2 (en) | 2013-12-09 | 2017-08-22 | Nvidia Corporation | Approach to adaptive allocation of shared resources in computer systems |
US9710714B2 (en) * | 2015-08-03 | 2017-07-18 | Nokia Technologies Oy | Fusion of RGB images and LiDAR data for lane classification |
US9767565B2 (en) * | 2015-08-26 | 2017-09-19 | Digitalglobe, Inc. | Synthesizing training data for broad area geospatial object detection |
CN205621018U (zh) * | 2016-02-26 | 2016-10-05 | 陈进民 | 手机细胞/卷积神经网络加速器 |
WO2017177128A1 (en) * | 2016-04-08 | 2017-10-12 | The Trustees Of Columbia University In The City Of New York | Systems and methods for deep reinforcement learning using a brain-artificial intelligence interface |
US10829116B2 (en) * | 2016-07-01 | 2020-11-10 | nuTonomy Inc. | Affecting functions of a vehicle based on function-related information about its environment |
CN115343947A (zh) * | 2016-09-23 | 2022-11-15 | 苹果公司 | 自主车辆的运动控制决策 |
CN106525057A (zh) * | 2016-10-26 | 2017-03-22 | 陈曦 | 高精度道路地图的生成系统 |
WO2018102425A1 (en) * | 2016-12-02 | 2018-06-07 | Starsky Robotics, Inc. | Vehicle control system and method of use |
CN106647757B (zh) * | 2016-12-23 | 2019-06-18 | 江西理工大学 | 基于组合个体差分演化的机器人路径规划方法 |
US10380886B2 (en) * | 2017-05-17 | 2019-08-13 | Cavh Llc | Connected automated vehicle highway systems and methods |
US10671076B1 (en) * | 2017-03-01 | 2020-06-02 | Zoox, Inc. | Trajectory prediction of third-party objects using temporal logic and tree search |
US10282995B2 (en) * | 2017-09-05 | 2019-05-07 | Starship Technologies Oü | Mobile robot having collision avoidance system for crossing a road from a pedestrian pathway |
-
2018
- 2018-11-09 WO PCT/US2018/060205 patent/WO2019094843A1/en unknown
- 2018-11-09 US US16/186,473 patent/US11644834B2/en active Active
- 2018-11-09 JP JP2020525931A patent/JP7346401B2/ja active Active
- 2018-11-09 EP EP18816312.5A patent/EP3707572B1/en active Active
- 2018-11-09 CN CN201880085825.4A patent/CN111587407B/zh active Active
-
2022
- 2022-12-07 US US18/076,543 patent/US20230176577A1/en active Pending
-
2023
- 2023-05-04 US US18/143,360 patent/US20240045426A1/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007141870A1 (ja) * | 2006-06-09 | 2007-12-13 | Fujitsu Limited | 温度センサ用リングオシレータ、温度センサ回路及びこれを備える半導体装置 |
WO2009078081A1 (ja) * | 2007-12-14 | 2009-06-25 | Fujitsu Limited | 半導体集積回路 |
US20100149193A1 (en) * | 2008-12-11 | 2010-06-17 | Yu Meng-Shiue | Method And System For Enabling Managed Code-Based Application Program To Access Graphics Processing Unit |
JP2014516443A (ja) * | 2011-04-22 | 2014-07-10 | クアルコム,インコーポレイテッド | ポータブルコンピューティングデバイスにおける熱負荷の管理 |
JP2015524597A (ja) * | 2012-08-06 | 2015-08-24 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | リリース一貫性メモリ順序付けモデルを用いたマルチコア計算キャッシュコヒーレンシ |
JP2016517207A (ja) * | 2013-03-13 | 2016-06-09 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ドライバの注意散漫検出および報告 |
JP2016075558A (ja) * | 2014-10-06 | 2016-05-12 | 日本電産エレシス株式会社 | レーダシステム、レーダ信号処理装置、車両走行制御装置および方法、ならびにコンピュータプログラム |
US20160321074A1 (en) * | 2015-05-01 | 2016-11-03 | Nvidia Corporation | Programmable Vision Accelerator |
JP2017062666A (ja) * | 2015-09-25 | 2017-03-30 | 富士ゼロックス株式会社 | 情報処理装置および画像形成装置 |
WO2017118907A1 (en) * | 2016-01-05 | 2017-07-13 | Mobileye Vision Technologies Ltd. | Systems and methods for estimating future paths |
Non-Patent Citations (2)
Title |
---|
FOLEY,DENIS ET AL.: "Ultra-Performance PASCAL GPU and NVlink Interconnect", IEEE MICRO, vol. Volume37,Issue2, JPN6022050460, 30 April 2017 (2017-04-30), US, pages 7 - 17, ISSN: 0004931926 * |
HISA ANDO, GPUを支える技術, vol. 第1版, JPN6022050457, pages 124 - 130, ISSN: 0004931925 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220144144A (ko) * | 2021-04-19 | 2022-10-26 | 대한민국(관리부서: 행정안전부 국립과학수사연구원장) | 디지털 영상을 이용한 차량의 이동 경로 추정 장치 및 그 방법 |
KR102511142B1 (ko) * | 2021-04-19 | 2023-03-17 | 대한민국 | 디지털 영상을 이용한 차량의 이동 경로 추정 장치 및 그 방법 |
WO2023287052A1 (ko) * | 2021-07-12 | 2023-01-19 | 재단법인대구경북과학기술원 | 관제 인프라를 이용한 다중 센서 융합 기반의 회피 경로 생성 방법 및 제어 장치 |
WO2023013337A1 (ja) * | 2021-08-04 | 2023-02-09 | 矢崎総業株式会社 | 車両システム |
JP7471756B2 (ja) | 2021-08-04 | 2024-04-22 | 矢崎総業株式会社 | 車両システム |
WO2023239008A1 (ko) * | 2022-06-10 | 2023-12-14 | 엘지전자 주식회사 | 차량의 신호 처리 장치 및 이를 구비하는 차량용 통신 장치용 통신 장치 |
WO2023239009A1 (ko) * | 2022-06-10 | 2023-12-14 | 엘지전자 주식회사 | 차량의 신호 처리 장치 및 이를 구비하는 차량용 통신 장치용 통신 장치 |
Also Published As
Publication number | Publication date |
---|---|
EP3707572A1 (en) | 2020-09-16 |
US20190258251A1 (en) | 2019-08-22 |
US11644834B2 (en) | 2023-05-09 |
EP3707572B1 (en) | 2023-08-23 |
US20240045426A1 (en) | 2024-02-08 |
US20230176577A1 (en) | 2023-06-08 |
CN111587407B (zh) | 2024-01-23 |
CN111587407A (zh) | 2020-08-25 |
JP7346401B2 (ja) | 2023-09-19 |
WO2019094843A4 (en) | 2019-07-18 |
WO2019094843A1 (en) | 2019-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111587407B (zh) | 用于安全且可靠的自主车辆的系统和方法 | |
US11885907B2 (en) | Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications | |
US11531088B2 (en) | Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications | |
WO2021041854A1 (en) | Object detection and classification using lidar range images for autonomous machine applications | |
JP2021082294A (ja) | 自律マシン適用におけるradarセンサを使用する障害物インスタンスの検出のためのディープ・ニューラル・ネットワーク | |
US20220391766A1 (en) | Training perception models using synthetic data for autonomous systems and applications | |
WO2021174118A1 (en) | Object detection using image alignment for autonomous machine applications | |
US20230135088A1 (en) | 3d surface reconstruction with point cloud densification using deep neural networks for autonomous systems and applications | |
US20230130814A1 (en) | Yield scenario encoding for autonomous systems | |
US20230136860A1 (en) | 3d surface structure estimation using neural networks for autonomous systems and applications | |
US20220297706A1 (en) | Combining rule-based and learned sensor fusion for autonomous systems and applications | |
US20230136235A1 (en) | 3d surface reconstruction with point cloud densification using artificial intelligence for autonomous systems and applications | |
US20240059295A1 (en) | Multi-view geometry-based hazard detection for autonomous systems and applications | |
US20230406315A1 (en) | Encoding junction information in map data | |
JP2023021910A (ja) | 自律マシン・アプリケーションにおける距離画像マッピングのための信念伝搬 | |
US20230135234A1 (en) | Using neural networks for 3d surface structure estimation based on real-world data for autonomous systems and applications | |
US20230139772A1 (en) | 3d surface structure estimation using neural networks for autonomous systems and applications | |
JP2022165372A (ja) | 高解像度マップを更新するためのシステム及び方法 | |
WO2024015632A1 (en) | Surround scene perception using multiple sensors for autonomous systems and applications | |
US20220341750A1 (en) | Map health monitoring for autonomous systems and applications | |
JP2023066377A (ja) | 自律システム及びアプリケーションのための人工知能を使用した点群高密度化を有する3d表面再構成 | |
JP2023071168A (ja) | 自律マシン・アプリケーションのための粒子ベース危険検出 | |
JP2022117916A (ja) | 自律マシン・アプリケーションのための配備されたディープ・ニューラル・ネットワークのパッチ | |
US20230351638A1 (en) | Detecting hazards based on disparity maps using computer vision for autonomous machine systems and applications | |
US20240161341A1 (en) | Sensor calibration for autonomous systems and applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210112 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211027 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221129 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230224 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230428 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230906 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7346401 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |