CN105835874A - 视野受阻环境中的自主车辆操作 - Google Patents
视野受阻环境中的自主车辆操作 Download PDFInfo
- Publication number
- CN105835874A CN105835874A CN201610056775.XA CN201610056775A CN105835874A CN 105835874 A CN105835874 A CN 105835874A CN 201610056775 A CN201610056775 A CN 201610056775A CN 105835874 A CN105835874 A CN 105835874A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- occupant
- viewing area
- autonomous vehicle
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000009471 action Effects 0.000 claims abstract description 22
- 238000000034 method Methods 0.000 claims description 104
- 230000000007 visual effect Effects 0.000 claims description 90
- 230000004044 response Effects 0.000 claims description 31
- 238000001514 detection method Methods 0.000 claims description 24
- 230000009467 reduction Effects 0.000 claims description 3
- 230000006399 behavior Effects 0.000 description 58
- 238000004458 analytical method Methods 0.000 description 30
- 230000004438 eyesight Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 230000007613 environmental effect Effects 0.000 description 12
- 230000008901 benefit Effects 0.000 description 11
- 238000013500 data storage Methods 0.000 description 11
- 210000001508 eye Anatomy 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 230000015654 memory Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000007689 inspection Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 230000011664 signaling Effects 0.000 description 4
- 238000002604 ultrasonography Methods 0.000 description 4
- 239000004744 fabric Substances 0.000 description 3
- 239000000446 fuel Substances 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 238000012163 sequencing technique Methods 0.000 description 3
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 2
- ATUOYWHBWRKTHZ-UHFFFAOYSA-N Propane Chemical compound CCC ATUOYWHBWRKTHZ-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 239000007789 gas Substances 0.000 description 2
- 239000003502 gasoline Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000021317 sensory perception Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 239000012190 activator Substances 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 210000003984 auditory pathway Anatomy 0.000 description 1
- -1 battery Substances 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000002826 coolant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 239000002283 diesel fuel Substances 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000002828 fuel tank Substances 0.000 description 1
- 210000004602 germ cell Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 229910052739 hydrogen Inorganic materials 0.000 description 1
- 125000004435 hydrogen atom Chemical class [H]* 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000010705 motor oil Substances 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 239000001294 propane Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000007474 system interaction Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000004304 visual acuity Effects 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q9/00—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
- B60Q9/008—Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0097—Predicting future conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/0098—Details of control systems ensuring comfort, safety or stability not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
- B60W60/0018—Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2510/00—Input parameters relating to a particular sub-units
- B60W2510/10—Change speed gearings
- B60W2510/1005—Transmission ratio engaged
- B60W2510/101—Transmission neutral state
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2510/00—Input parameters relating to a particular sub-units
- B60W2510/18—Braking system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2510/00—Input parameters relating to a particular sub-units
- B60W2510/20—Steering systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/04—Vehicle stop
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/221—Physiology, e.g. weight, heartbeat, health or special needs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/225—Direction of gaze
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4026—Cycles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/801—Lateral distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/802—Longitudinal distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/10—Change speed gearings
- B60W2710/1005—Transmission ratio engaged
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/18—Braking system
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2710/00—Output or target parameters relating to a particular sub-units
- B60W2710/20—Steering systems
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- Acoustics & Sound (AREA)
Abstract
本发明涉及视野受阻环境中的自主车辆操作。描述了在视野受阻环境中操作自主车辆的布置。可以检测自主车辆的外部环境的至少一部分以检测位于其中的一个或更多个物体。可以确定外部环境的乘员可视区域。可以确定检测到的一个或更多个物体中的一个或更多个物体是否位于确定的乘员可视区域的外部。响应于确定检测到的物体位于确定的乘员可视区域的外部,可以采取一个或更多个动作。例如,动作可以包括在自主车辆内给出警报。可替代地或附加地,动作可以包括使得自主车辆的当前驾驶动作被修改。
Description
技术领域
这里描述的主题一般地涉及具有自主操作模式的车辆,并且更具体地,涉及这种车辆在驾驶环境的视野受阻部分中的操作。
背景技术
一些车辆包括其中使用计算系统来沿着行驶路线导航和/或操纵车辆的操作模式,其中只有极少或者没有来自人类驾驶员的输入。这种车辆包括被配置为检测关于周围环境(包括在环境中的物体的存在)的信息的传感器。计算系统被配置为处理检测到的信息,以确定如何导航和/或操纵车辆通过周围环境。由于各种原因,车辆的人类乘员在周围环境中所能感知到的事物和车辆传感器在周围环境中所能检测到的事物之间可能存在差异。
发明内容
在一个方面,本公开内容致力于在视野受阻环境中操作自主车辆(autonomous vehicle)的方法。该方法可以包括感测自主车辆的外部环境的至少一部分以检测位于该外部环境的至少一部分中的一个或更多个物体。该方法还可以包括确定外部环境的乘员可视区域(occupant viewable area)。该方法还可以包括确定所检测到的一个或更多个物体中的一个或多个物体是否位于所确定的乘员可视区域的外部。该方法可以包括,响应于确定所检测到的一个或更多个物体中的一个或更多个物体位于所确定的乘员可视区域的外部,在自主车辆内给出警报。
在另一个方面,本公开内容致力于用于在视野受阻环境中操作自主车辆的系统。该系统包括传感器系统和可操作地连接到传感器系统的处理器。传感器系统可以被配置为检测位于自主车辆的外部环境的至少一部分中的一个或更多个物体。处理器被编程为启动可执行操作。可执行操作可以包括确定外部环境的乘员可视区域。可执行操作还可以包括确定所检测到的一个或更多个物体中的一个或更多个物体是否位于所确定的乘员可视区域的外部。可执行操作还可以包括:响应于确定所检测到的一个或更多个物体中的一个或更多个物体位于所确定的乘员可视区域的外部,在自主车辆内给出警报。
在还有的另一个方面,本公开内容致力于在视野受阻环境中操作自主车辆的方法。该方法可以包括感测自主车辆的外部环境的至少一部分以检测位于该外部环境的至少一部分中的一个或更多个物体。该方法还可以包括确定外部环境的乘员可视区域。该方法还可以包括确定所检测到的一个或更多个物体中的一个或更多个物体是否位于所确定的乘员可视区域的外部。该方法可以包括:响应于确定所检测到的一个或更多个物体中的一个或更多个物体位于所确定的乘员可视区域的外部,使得对自主车辆的当前驾驶动作进行修改。
在还有的方面,本公开内容致力于用于在视野受阻环境中操作自主车辆的系统。该系统包括传感器系统和可操作地连接到传感器系统的处理器。该传感器系统可以被配置为检测位于自主车辆的外部环境的至少一部分中的一个或更多个物体。处理器被编程为启动可执行操作。可执行操作可以包括确定外部环境的乘员可视区域。可执行操作也可以包括:确定所检测到的一个或更多个物体中的一个或更多个物体是否位于所确定的乘员可视区域的外部。可执行操作还可以包括:响应于确定所述检测到的一个或更多个物体中的一个或更多个物体位于所确定的乘员可视区域的外部,使得对自主车辆的当前驾驶动作进行修改。
在还有的另一个方面,本公开内容致力于在视野受阻环境中操作自主车辆的方法。该方法可以包括识别沿车辆的当前行驶路线的信息关键区域。信息关键区域可以与未来驾驶动作有关。该方法还可以包括确定外部环境的乘员可视区域。该方法还可以包括确定信息关键区域的至少一部分是否位于所确定的乘员可视区域的外部。该方法可以包括:响应于确定信息关键区域的至少一部分位于所确定的乘员可视区域的外部,使得对自主车辆的当前驾驶动作进行修改。
在还有的另一个方面,本公开内容致力于用于在视野受阻环境中操作自主车辆的系统。该系统可以包括处理器。处理器被编程为启动可执行操作。可执行操作可以包括识别沿当前行驶路线的信息关键区域。信息关键区域可以与未来驾驶动作有关。可执行操作还可以包括确定外部环境的乘员可视区域。可执行操作还可以包括确定信息关键区域的至少一部分是否位于所确定的乘员可视区域的外部。可执行操作还可以包括:响应于确定信息关键区域的至少一部分位于所确定的乘员可视区域的外部,使得对自主车辆的当前驾驶动作进行修改。
附图说明
图1是自主车辆的例子。
图2是在视野受阻环境中操作自主车辆的方法的例子。
图3是在视野受阻环境中操作自主车辆的方法的例子。
图4是其中检测到的物体位于自主车辆的所确定的乘员可视区域的外部的环境的例子。
图5是其中检测到的物体位于自主车辆的所确定的乘员可视区域的外部的环境的例子。
图6是其中检测到的物体位于自主车辆的所确定的乘员可视区域的外部的环境的例子。
图7是位于自主车辆内的显示器的例子,其中视觉警报呈现在该显示器上。
图8是在视野受阻环境中操作自主车辆的方法的例子。
图9是其中信息关键区域的至少一部分位于自主车辆的所确定的乘员可视区域的外部的环境的例子。
具体实施方式
本详细说明涉及在视野受阻环境中自主车辆的操作。在一个或更多个实现方式中,可以确定由自主车辆的传感器系统检测到的物体是否位于确定的乘员可视区域的外部。响应于确定物体位于确定的乘员可视区域的外部,自主车辆可以被配置为执行一个或更多个动作,包括,例如,在自主车辆内给出警报和/或使得对自主车辆的当前驾驶动作进行修改。在一个或更多个实现方式中,可以识别沿着行驶路线的信息关键区域。如果信息关键区域的至少一部分位于确定的乘员可视区域的外部,则可以使得自主车辆的当前驾驶动作被修改。本详细说明涉及包含此类特征的系统、方法和计算机程序产品。在至少一些情况下,此类系统、方法和计算机程序产品可以提高在车辆的自主操作时的乘员的信心。
本文公开了详细的实施例;但是,应当理解,所公开的实施例只是要作为示例性的。因此,这里所公开的具体结构和功能细节不应当被解释为限制,而是仅仅作为权利要求的基础和作为用于教导本领域技术人员在几乎任何适当的详细结构中以各种方式利用这里的各方面的代表性基础。此外,本文使用的术语和短语不是要进行限制,而是对可能的实现方式提供可理解的说明。各种实施例在图1-9中示出,但是实施例并不限于所示出的结构或应用。
应当理解,为了说明的简化和清楚,在适当的情况下,附图标记在不同的图中被重复,以指示对应的或类似的元件。此外,阐述了大量的具体细节,以便提供对本文所描述的实施例的透彻理解。但是,本领域普通技术人员将理解,本文所描述的实施例可以在没有这些具体细节的情况下进行实践。
参考图1,其示出了示例车辆100。如本文所使用的,“车辆”是指任何形式的机动交通工具。在一个或更多个实现方式中,车辆100可以是汽车。虽然本文将相对于汽车描述布置,但是可以理解,实施例并不限于汽车。在一个或更多个实现中,车辆100可以是船只、飞行器或任何其它形式的机动交通工具。车辆100可以具有前端102和后端104。
根据本文的布置,车辆100可以是自主车辆。如本文所使用的,“自主车辆”是指被配置为在自主模式下操作的车辆。“自主模式”是指使用一个或更多个计算系统来沿着行驶路线导航和/或操纵车辆,其中只有极少的或者没有来自人类驾驶员的输入。在一个或更多个布置中,车辆100可以被高度自动化。在一些情况下,车辆100可以被配置为在自主模式和手动模式之间选择性地切换。这种切换可以以现在已知的或以后开发的任何合适的方式来实现。“手动模式”是指车辆沿着行驶路线的大部分导航和/或操纵都是由人类驾驶员执行的。
车辆100可以包括各种元件,其中一些可以是自主驾驶系统的一部分。车辆100的一些可能的元件在图1中示出并且现在将对其进行描述。应该理解,车辆100不一定要具有图1中示出的或本文描述的所有元件。车辆100可以具有图1中示出的各种元件的任意组合。此外,车辆100可以具有除了图1中示出的那些元件之外的附加元件。在一些布置中,车辆100可以不包括图1中示出的元件中的一个或更多个元件。此外,虽然各个元件在图1中被示为位于车辆100之内,但是应当理解,这些元件中的一个或更多个元件可以位于车辆100的外部。此外,示出的元件可以实体地分开很大的距离。
车辆100可以包括一个或更多个处理器110。“处理器”是指如下的任何组件或任何一组组件:所述任何组件或任何一组组件被配置为执行这里所描述的任何处理或者执行任何形式的指令从而运行这些处理或使得这些处理被执行。处理器110可以利用一个或更多个通用和/或一个或更多个专用处理器来实现。合适的处理器的例子包括微处理器、微控制器、DSP处理器和可以执行软件的其它电路系统。合适的处理器的还有的例子包括但不限于,中央处理单元(CPU)、阵列处理器、矢量处理器、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、专用集成电路(ASIC)、可编程逻辑电路系统和控制器。处理器110可以包括被配置为运行包含在程序代码中的指令的至少一个硬件电路(例如,集成电路)。在其中存在多个处理器110的布置中,这些处理器可以彼此独立地工作或者一个或更多个处理器可以彼此组合工作。在一个或更多个布置中,处理器110可以是车辆100的主处理器。例如,处理器110可以是引擎控制单元(ECU)。
车辆100可以包括一个或更多个数据存储装置115,以用于存储一种或多种类型的数据。数据存储装置115可以包括易失性和/或非易失性存储器。合适的数据存储装置115的例子包括RAM(随机存取存储器)、闪存存储器、ROM(只读存储器)、PROM(可编程只读存储器)、EPROM(可擦除可编程只读存储器)、EEPROM(电可擦除可编程只读存储器)、寄存器、磁盘、光盘、硬盘驱动器或任何其它合适的存储介质或其任意组合。数据存储装置115可以是处理器110的组件,或者数据存储装置115可以被可操作地连接到处理器110以用于被其使用。如贯穿本说明书所使用的,术语“可操作地连接”可以包括直接或间接的连接,并且包括不直接物理接触的连接。
车辆100可以包括自主驾驶模块120。自主驾驶模块120可以被实现为计算机可读程序代码,当该计算机可读程序代码被处理器执行时,实现这里所描述的各种过程中的一个或更多个过程,包括,例如,确定对车辆100的当前驾驶动作的修改和/或直接或间接地使得车辆100的当前驾驶动作被修改。自主驾驶模块120可以是处理器110的组件,或者自主驾驶模块120可以在处理器110被可操作地连接到其的其它处理系统上执行和/或在其中分布。
自主驾驶模块120可以包括可被处理器110执行的指令(例如,程序逻辑)。这些指令可以包括如下指令:执行各种车辆功能的指令和/或将数据传送到车辆100或其一个或更多个系统(例如,车辆系统145中的一个或更多个系统)的指令,从车辆100或其一个或更多个系统接收数据的指令,与车辆100或其一个或更多个系统交互的指令,和/或控制车辆100或其一个或更多个系统的指令。可替代地或附加地,数据存储装置115可以包含此类指令。
车辆100可以包括查看分析(viewing analysis)模块121。查看分析模块121可以被实现为计算机可读程序代码,当该计算机可读程序代码被处理器执行时,实现这里所描述的各种处理中的一个或更多个处理。查看分析模块121可以是处理器110的组件,或者查看分析模块121可以在可操作地连接有处理器110的其它处理系统上执行和/或在其中分布。
查看分析模块121可以被配置为检测、分析、评估和/或解释关于车辆100的外部环境的信息,以确定乘员可视区域。“乘员可视区域”是指对车辆乘员可见的外部环境的一部分。确定乘员可视区域可以基于一个或更多个因素,包括例如乘员在车辆100内的位置、外部环境中的障碍(例如,其它车辆、天气状况等等)、车辆中的障碍(例如,阻挡视场的车辆框架或造型的部分、窗户的浮脏等等)、座位位置(例如,高度、在车辆纵向方向上的位置、倾斜位置等)、人类乘员身体测量值(例如身高)、人类乘员身体限制和/或人类乘员感官感知限制,这仅仅是列举几种可能性。人类乘员身体测量值、人类乘员身体限制和/或人类乘员感官感知限制可以基于特定人的数据、人类平均值或其它数据集。
在一个或更多个布置中,人类乘员身体测量值可以基于人类乘员的一个或更多个特征的实际测量值。作为例子,可以捕获人类乘员的身体的至少一部分的一个或更多个图像。例如,人类乘员的身体的至少一部分的一个或更多个图像可以由扫描仪、照相机和/或传感器捕获。查看分析模块121或其它元件可以包括任何合适的身体识别软件和/或身体分析软件。在一个或更多个布置中,可以捕获人类乘员的面部的至少一部分。可以使用面部识别和/或分析软件来促进图像捕获和/或分析捕获的图像。分析图像可以包括确定或测量人类乘员的一个或更多个身体特征,诸如眼睛大小、瞳孔距离、眼睛之间的距离、至少一只眼睛和一个或更多个其它面部或身体特征之间的距离、至少一只眼睛和车辆内的结构之间的距离、头部角度、眼睛的角度、每只眼睛中的垂直经线、每只眼睛中的水平经线,这仅仅是列举几种可能性。
在一个或更多个布置中,可以至少部分地使用这些测量值来确定乘员可视区域。在一个或更多个布置中,乘员可视区域也可以通过把关于人类的视场的信息/数据作为因素来确定。例如,在一个或更多个布置中,预定的人类视场可以包括一组预定的视力范围,其可以基于特定的人、人类平均值或其它数据集。作为例子,一组预定的视力范围可以包括:从每只眼睛的垂直经线向鼻子(例如,朝鼻子或向内)大约60度到从每只眼睛的垂直经线向颞部(例如,离开鼻子或向外)大约100度,并且高于每只眼睛的水平经线大约60度和低于每只眼睛的水平经线大约75度。
在一个或更多个布置中,查看分析模块121可以被配置为在确定乘员可视区域时,确定或考虑车辆100的人类乘员的实际视力范围。例如,查看分析模块121可以被配置为获取、访问和/或接收与车辆的人类乘员的视力的一个或更多个方面相关的信息/数据。例如,查看分析模块121可以被配置为执行车辆100的人类乘员的至少部分视场测试。可替代地或者附加地,查看分析模块121可以接收与人类乘员的视力对应的信息/数据或输入,包括关于任何医疗状况、矫正镜片、视敏度、之前的视力测试等的信息/数据。
查看分析模块121可以被配置为确定在外部环境中检测到的物体相对于乘员查看区域的位置。更具体地,查看分析模块121可以被配置为确定在外部环境中检测到的物体是否位于乘员可视区域的外部。可替代地或者附加地,查看分析模块121可以被配置为确定外部环境的信息关键区域的至少一部分是否位于确定的乘员可视区域的外部。
查看分析模块121可以包括可由处理器110执行的指令(例如,程序逻辑)。此类指令可以包括如下的指令:确定乘员查看区域的指令、确定检测到的物体相对于乘员查看区域的位置的指令和/或确定信息关键区域的至少一部分是否位于确定的乘员可视区域的外部的指令。可替代地或附加地,数据存储装置115可以包含此类指示。
车辆100可以包括信息关键区域确定模块122。信息关键区域确定模块122可以被实现为计算机可读程序代码,当该计算机可读程序代码被处理器执行时,实现这里所描述的各种处理。信息关键区域确定模块122可以是处理器110的组件,或者信息关键区域确定模块122可以在可操作地连接有处理器110的其它处理系统上执行和/或在其中分布。
信息关键区域确定模块122可以被配置为识别沿着车辆的行驶路线的信息关键区域。“信息关键区域”是指如下的车辆的外部环境的任何部分,在该部分中包含的信息对于人类驾驶员而言是在执行未来驾驶动作时要感测的关键信息。在这种上下文中,“关键”是指在确定车辆是否能够安全地和成功地完成未来驾驶动作方面重要的信息。信息关键区域可以随着车辆100的地点、位置和/或方向发生改变而改变。
信息关键区域确定模块122可以被可操作地连接到传感器系统125、照相机系统127、导航系统180和/或车辆100的其它元件,以识别信息关键区域。在一个或更多个布置中,信息关键区域确定模块122可以可操作地连接到可以包括有地图或其它数据的数据存储装置115中的一个或更多个。随着车辆100沿着行驶路线行驶,可以相对于外部环境的其它部分评估车辆100将沿着行驶路线执行的未来驾驶动作。
本文描述了信息关键区域的各种例子。例如,如果车辆正在接近交叉路口并且计划右转到横向街道上,则一个信息关键区域将会是位于该交叉路口左边的横向街道的至少一部分。这种区域的一个例子在图9中的950处示出并且将在后面进行更详细的描述。在这种区域中存在或不存在物体对于未来驾驶动作(例如右转到横向街道上)将会是关键的。在一个或更多个布置中,信息关键区域可以位于预定区域或距离之内。例如,对于在图9中示出的信息关键区域,该信息关键区域可以从交叉路口延伸到离开该交叉路口的预定距离。在一个或更多个布置中,预定距离可以是大约50英尺或更小、大约75英尺或更小、大约100英尺或更小、大约150英尺或更小、大约200英尺或更小等等。
如上所述,车辆100可以包括传感器系统125。传感器系统125可以包括一个或更多个传感器。“传感器”是指可以检测、确定、评估、监测、测量、量化和/或感测一些东西的任何设备、组件和/或系统。该一个或更多个传感器可以被配置为实时地检测、确定、评估、监测、测量、量化和/或感测。如本文所使用的,术语“实时”是指用户或系统对于特定处理或要做出的决定感觉为足够及时或者使得处理器能够跟上某个外部处理的处理响应性的水平。传感器系统125可以具有相关联的传感器检测区域。“传感器检测区域”是指位于传感器系统中的一个或更多个传感器的范围之内的环境的一部分。传感器系统125的传感器检测区域可以通过例如传感器系统125、查看分析模块121或其它模块或元件来确定。
在其中传感器系统125包括多个传感器的布置中,这些传感器可以彼此独立地工作。可替代地,这些传感器中的两个或更多个可以彼此组合工作。传感器系统125和/或一个或更多个传感器可以被可操作地连接到处理器110、数据存储装置115、自主驾驶模块120和/或车辆100的其它元件。
传感器系统125可以包括任何合适类型的传感器。例如,传感器系统125可以包括被配置为检测、确定、评估、监测、测量、量化和/或感测关于车辆100的信息的一个或更多个传感器。可替代地或附加地,传感器系统125可以包括被配置为检测、确定、评估、监测、测量、量化和/或感测关于车辆100所位于的外部环境的信息的一个或更多个传感器,其中外部环境的信息包括关于在外部环境中的物体的信息。这些物体可以是静止的物体或移动的物体。作为以上例子中的一个或更多个例子的替代或附加,传感器系统125可以包括被配置为检测、确定、评估、监测、测量、量化和/或感测车辆100的位置和/或环境中的物体相对于车辆100的位置的一个或更多个传感器。这些和其它类型的传感器的各种例子将在本文进行描述。应当理解,实施例不限于所描述的特定传感器。
传感器系统125可以包括被配置为诸如像基于惯性加速度来检测、确定、评估、监测、测量、量化和/或感测车辆100的位置和方位变化的一个或更多个传感器。在一个或更多个布置中,传感器系统125可以包括加速计、陀螺仪和/或其它合适的传感器。传感器系统125可以包括可监测车辆100的一个或更多个内部系统(例如,氧气监视器、燃料计、引擎机油温度、冷却剂温度等)的传感器。
传感器系统125可以包括一个或更多个环境传感器126。环境传感器126可以被配置为检测、确定、评估、监测、测量、量化和/或感测在车辆100的外部环境的至少一部分中的物体和/或关于这些物体的信息/数据。一个或更多个环境传感器126可以在车辆的任何合适的位置中提供。在一个或更多个布置中,环境传感器126中的一个或更多个可以位于朝着车辆100的前端102。在一个或更多个布置中,一个或更多个环境传感器126可以位于车辆100的前端102的左侧。可替代地或附加地,一个或更多个环境传感器126可以位于车辆100的前端102的右侧。附加地或可替代地,一个或更多个环境传感器126可以位于车辆100的后端104处或靠近车辆100的后端104的任何合适的位置。
环境传感器126的各种例子将在本文进行描述。但是,应当理解,实施例并不限于所描述的特定传感器。
在一个或更多个布置中,环境传感器126中的一个或更多个可以至少部分地使用无线电信号(例如,基于雷达的传感器)。一个或更多个基于无线电的传感器可以被配置为直接或间接地检测、确定、评估、监测、测量、量化和/或感测车辆100的外部环境中的一个或更多个物体的存在、每个检测到的物体相对于车辆100的位置、每个检测到的物体与车辆100之间在一个或更多个方向上(例如,在纵向方向、横向方向和/或其它(一个或更多个)方向上)的距离、每个检测到的物体的速度和/或每个检测到的物体的移动。
在一个或更多个布置中,环境传感器126中的一个或更多个可以至少部分地使用激光器。例如,环境传感器126中的一个或更多个可以是激光测距仪或LIDAR(激光雷达)或被包括作为激光测距仪或LIDAR的一部分。这种设备可以包括被配置为发射激光的激光源和/或激光扫描器和被配置为检测激光的反射的检测器。激光测距仪或LIDAR可以被配置为以连贯或不连贯的检测模式操作。一个或更多个基于激光的传感器可以被配置为直接或间接地检测、确定、评估、监测、测量、量化和/或感测车辆100的外部环境中的一个或更多个物体的存在、每个检测到的物体相对于车辆100的位置、每个检测到的物体和车辆100之间在一个或更多个方向上(例如,在纵向方向、横向方向和/或其它(一个或更多个)方向上)的距离、每个检测到的物体的速度和/或每个检测到的物体的移动。
在一个或更多个布置中,环境传感器126中的一个或更多个可以至少部分地使用超声波。这种传感器可以包括被配置为发射超声波信号的超声波源和被配置为检测超声波信号的反射的检测器。一个或更多个基于超声波的环境传感器126可以被配置为直接或间接地检测、确定、评估、监测、测量、量化和/或感测车辆100的外部环境中的一个或更多个物体的存在、每个检测到的物体相对于车辆100的位置、每个检测到的物体和车辆100之间在一个或更多个方向上(例如,在纵向方向、横向方向和/或其它(一个或更多个)方向上)的距离、每个检测到的物体的速度和/或每个检测到的物体的移动。这种检测可以基于反射的超声波信号的特性(例如,强度)。
在一些布置中,传感器系统125、处理器110和/或模块120、121、122中的一个或更多个模块可以被配置为直接或间接地检测、确定、评估、监测、测量、量化和/或感测检测到的物体的一个或更多个方面、特性和/或属性。例如,传感器系统125、处理器110和/或模块120、121、122中的一个或更多个可以被配置为直接或间接地检测、确定、评估、监测、测量、量化/或感测检测到的物体的尺寸、相对尺寸、长度、宽度、高度、维度、材料、材料属性、速度、加速度和/或运动轨迹。
作为上述传感器中的任何传感器的替代或附加,传感器系统125可以包括其它类型的传感器。传感器系统125、处理器110和/或模块120、121、122中的一个或更多个模块可以可操作地控制传感器系统125的传感器中的一个或更多个传感器的移动。应当注意,本文所描述的任何传感器都可以在相对于车辆100的任何合适的位置提供。例如,一个或更多个传感器可以位于车辆100内、一个或更多个传感器可以位于车辆的外部和/或一个或更多个传感器可以位于使得该一个或更多个传感器暴露于车辆100的外部。
车辆100可以包括照相机系统127。在一个或更多个布置中,照相机系统127可以是传感器系统125的一部分。照相机系统127可以包括一个或更多个照相机128和/或一个或更多个乘员视野照相机129。“照相机”被定义为可以捕获视觉数据的任何设备、组件和/或系统。“视觉数据”包括视频和/或图像信息/数据。视觉数据可以是任何合适的形式。
在一个或更多个布置中,照相机128中的一个或更多个和/或乘员视野照相机129中的一个或更多个可以包括透镜(未示出)和图像捕获元件(未示出)。图像捕获元件可以是任何合适类型的图像捕获设备或系统,包括例如区域阵列传感器、电荷耦合器件(CCD)传感器、互补金属氧化物半导体(CMOS)传感器、线性阵列传感器、CCD(单色)。图像捕获元件可以捕获电磁频谱上任何合适波长的图像。图像捕获元件可以捕获彩色图像和/或灰度图像。照相机128中的一个或更多个和/或乘员视野照相机129中的一个或更多个可以被配置为具有放大和/或缩小能力。
在一个或更多个布置中,照相机128中的一个或更多个和/或乘员视野照相机129中的一个或更多个可以面向外部。“面向外部”是指被定向、放置、配置、可操作和/或布置为从车辆100的外部环境的至少一部分捕获视觉数据的照相机。一个或更多个照相机128和/或一个或更多个乘员视野照相机129可以位于车辆100的任何合适部分。例如,照相机128中的一个或更多个和/或乘员视野照相机129中的一个或更多个可以位于车辆100之内。照相机128中的一个或更多个和/或乘员视野照相机129中的一个或更多个可以位于车辆100的外部。照相机128中的一个或更多个和/或乘员视野照相机129中的一个或更多个可以位于车辆100的外部或暴露给车辆100的外部。
照相机128中的一个或更多个和/或乘员视野照相机129中的一个或更多个的位置可以是固定的,以使得其位置不相对于车辆100变化。照相机128中的一个或更多个和/或乘员视野照相机129中的一个或更多个可以是可移动的,以使得其位置可以改变,从而使得能够捕获来自车辆100的外部环境的不同部分的视觉数据。照相机128和/或乘员视野照相机129的移动可以以任何合适的方式来实现。例如,照相机128和/或乘员视野照相机129可以围绕一个或更多个轴可旋转、可转动、可滑动和/或可扩展,这仅仅是列举几种可能性。在一个或更多个布置中,照相机128和/或乘员视野照相机129可以具有任何合适的运动范围,包括例如基本上球形的、基本上半球形的、基本上圆形的和/或基本上线性的。如本文所使用的,术语“基本上”包括其修饰的确切术语和它的轻微变型。因此,例如,术语“基本上球形的”是指确切的球形和它的轻微变型。
一个或更多个照相机128、乘员视野照相机129、一个或更多个照相机128的移动和/或一个或更多个乘员视野照相机129的移动可以由照相机系统127、传感器系统125、处理器110和/或模块120、121、122中的任何一个或更多个模块来控制。
“乘员视野照相机”是指被配置、放置、位于、可移动和/或定向为捕获、获得和/或收集车辆的外部环境的视觉数据以确定或评估可以被车辆的人类乘员实际看到的外部环境的一部分或多个部分的任何照相机。乘员可视区域可以通过例如查看分析模块121和/或处理器110来确定。一个或更多个乘员视野照相机129可以在任何合适的位置提供。例如,一个或更多个乘员视野照相机129可以位于车辆100的内部里。
在一个或更多个布置中,可以提供一个或更多个乘员视野照相机129来捕获、获得和/或收集视觉数据,以使得可以确定车辆100的驾驶员的乘员可视区域。可替代地或附加地,可以提供一个或更多个乘员视野照相机129来捕获、获得和/或收集视觉数据,以使得可以确定车辆100的非驾驶员乘客的乘员可视区域。
查看分析模块121和/或处理器110可以被配置为分析由一个或更多个乘员视野照相机129捕获的视觉数据来确定乘员可视区域。查看分析模块121和/或处理器110可以被配置为分析由传感器系统125捕获的关于在外部环境中检测到的物体的信息/数据,以及相对于乘员可视区域定位检测到的物体。传感器系统125、查看分析模块121和/或处理器110可以被配置为确定传感器检测区域。查看分析模块121和/或处理器110可以被配置为评估或比较乘员可视区域和传感器检测区域。
车辆100可以包括输入系统130。“输入系统”被定义为使得信息/数据能够被录入到机器中的任何设备、组件、系统、元件或布置或它们的组合。输入系统160可以接收来自车辆乘员(例如,驾驶员或乘客)的输入。可以使用任何合适的输入系统130,包括,例如,键盘、显示器、触摸屏、多点触摸屏、按钮、操纵杆、鼠标、轨迹球、麦克风和/或其组合。
车辆100可以包括输出系统131。“输出系统”被定义为使得信息/数据能够被呈现给用户(例如,个人、车辆乘员等)的任何设备、组件、系统、元件或布置或它们的组合。如上所述,输出系统131可以包括显示器。可替代地或附加地,输出系统131可以包括麦克风、耳机和/或扬声器。车辆100的一些组件既可以用作输入系统130的组件又可以用作输出系统131的组件。
在本文所描述的一个或更多个布置中,输出系统131的至少一部分可以响应于确定在外部环境中检测到的一个或更多个物体位于确定的乘员可视区域的外部而被激活以提供警报。输出系统131可以被配置为向车辆100的一个或更多个乘员给出警报。警报可以是任何类型的警报,包括,例如,视觉警报132。“视觉警报”是以人类视觉可以察觉到的方式提供信息的任何输出。视觉警报132可以在视觉上提醒车辆乘员在车辆100的外部环境中检测到的位于确定的乘员可视区域的外部的物体的存在。视觉警报132可以具有任何合适的形式。视觉警报132可以由输出系统131的一个或更多个组件呈现,诸如位于车辆100内的一个或更多个显示器133和/或一个或更多个光源134。
“显示器”被定义为以视觉形式,包括,例如,视频、图像、图形等呈现信息/数据的组件或一组组件。在一个或更多个布置中,显示器133可以位于车辆100的前方内部部分中。作为例子,显示器133可以被包括在车辆100的表盘或仪表面板(未示出)中。
显示器133可以是任何合适类型的显示器。显示器133可以是任何合适类型的显示器。例如,显示器133可以是液晶显示器(LCD)、发光二极管(LED)显示器或一些其它合适的显示器。在一个或更多个布置中,前方显示器133可以是触摸屏显示器、多点触摸显示器或远程控制显示器。触摸屏可以允许用户通过与前方显示器133接触而与一个或更多个显示的元素(诸如图形用户界面(GUI))和/或在任何车辆系统上运行的其它应用(包括本文所描述的那些应用中的任何应用)交流或交互。例如,用户可以通过简单地用手指或触控笔触摸前方显示器133做出选择和移动光标。
视觉警报132可以具有任何合适的形式。在一个或更多个布置中,视觉警报132可以是在显示器133上呈现的单词、短语或消息。在一个或更多个布置中,视觉警报132可以包括一个或更多个项目的表示。例如,视觉警报132可以包括外部环境的表示。外部环境的表示可以呈现图形、照片、视频和/或地图信息或数据,这些可以从任何合适的来源获得,包括,例如,从数据存储装置115、导航系统180以及车辆100的一个或更多个元件可操作地连接到的其它来源获得。这种视觉信息/数据可以被实时地呈现在显示器133上。
视觉警报132可以包括在外部环境中检测到的一个或更多个物体的表示。视觉警报132可以包括乘员可视区域的表示。视觉警报132可以包括外部环境的传感器检测区域的表示。在一个或更多个布置中,一个或更多个物体的表示、乘员可视区域的表示和/或传感器检测区域的表示可以被叠加在外部环境的表示上。
可替代地或附加地,视觉警报132可以由一个或更多个光源134呈现。一个或更多个光源134可以产生或发出任何类型的光能。在一个或更多个布置中,一个或更多个光源134可以是被供电的。在一个或更多个布置中,一个或更多个光源134可以包括以下类型的电动光源中的一个或更多个:电子刺激、白炽灯、电致发光(EL)灯、气体放电灯、高强度放电灯和/或激光器,这仅仅是列举几种可能性。在一个或更多个布置中,一个或更多个光源134可以是发光二极管(LED)。例如,一个或更多个光源134可以是有机LED、聚合物LED、固态照明、LED灯和/或有源矩阵有机LED。在一些布置中,一个或更多个光源134可以是相同类型的光源。在其它布置中,一个或更多个光源134中的一个或更多个光源可以是与其它光源不同类型的光源。
作为视觉警报132的替代或附加,警报可以是可听警报135。“可听警报”是以人类听觉可以感知到的方式提供信息的任何输出。可听警报135可以通知车辆乘员在车辆100的外部环境中检测到的位于确定的乘员可视区域的外部的物体的存在。可听警报135可以具有任何合适的形式。可听警报135可以由输出系统131的一个或更多个组件给出,诸如经由一个或更多个扬声器136或经由一个或更多个车载音频通道发出。在这种情况下,可听警报可以是一个声音、多个声音、单词、短语或消息。
可听警报135可以由输出系统131的一个或更多个组件给出,诸如经由一个或更多个扬声器136发出。“扬声器”是指响应于音频信号输入而产生声音的一个或更多个元件、一个或更多个设备、一个或更多个组件、一个或更多个系统和/或其任意组合。扬声器的例子包括,例如,电声换能器、声音芯片和声卡。每个扬声器可以具有可操作地连接到其的一个或更多个音频输出通道(未示出)。“音频输出通道”是指用于携带音频信号的任何合适的设备、组件或结构。
车辆100可以包括一个或多个车辆系统145。一个或多个车辆系统145的各种例子在图1中示出。但是,车辆100可以包括更多、更少或不同的系统。应当理解,尽管特定的车辆系统被单独定义,但是这些系统或其部分中的每一个或任何一个都可以通过车辆100内的硬件和/或软件以其它方式来组合或隔离。
车辆100可以包括推进系统150。推进系统150可以包括被配置为向车辆100提供动力运动的现在已知的或以后开发的一个或多个机构、设备、元件、组件、系统和/或其组合。推进系统150可以包括引擎和能源来源。
引擎可以是现在已知的或以后开发的任何合适类型的引擎或发动机。例如,引擎可以是内燃机引擎、电动发动机、蒸汽引擎和/或斯特林(Stirling)引擎,这仅仅是列举几种可能性。在一些实施例中,推进系统可以包括多种引擎类型。例如,气电混合动力车辆可以包括汽油引擎和电动发动机。
能量来源可以是可用来至少部分地给引擎提供动力的任何合适的能量的来源。引擎可以被配置为将能量来源转换为机械能。能量来源的例子包括汽油、柴油、丙烷、氢气、其它压缩的基于气体的燃料、乙醇、太阳能面板、电池和/或其它电力的来源。可替代地或附加地,能量来源可以包括燃料箱、电池、电容器和/或飞轮。在一些实施例中,可以使用能量来源为车辆100的其它系统提供能量。
车辆100可以包括车轮、轮胎和/或履带。可以使用任何合适类型的车轮、轮胎和/或履带。在一个或多个布置中,车辆100的车轮、轮胎和/或履带可以被配置为相对于车辆100的其它车轮、轮胎和/或履带差动地旋转。车轮、轮胎和/或履带可以由任何合适的材料制成。
车辆100可以包括制动系统155。制动系统155可以包括被配置为使车辆100减速的现在已知的或以后开发的一个或多个机构、设备、元件、组件、系统和/或其组合。作为例子,制动系统155可以使用摩擦来使车轮/轮胎减速。制动系统155可以将车轮/轮胎的动能转换为电流。
此外,车辆100可以包括转向系统160。转向系统160可以包括被配置为调整车辆100的航向的现在已知的或以后开发的一个或多个机构、设备、元件、组件、系统和/或其组合。
车辆100可以包括油门系统165。油门系统165可以包括被配置为控制车辆100的引擎/发动机的操作速度并且进而控制车辆100的速度的现在已知的或以后开发的一个或多个机构、设备、元件、组件、系统和/或其组合。
车辆100可以包括传动系统170。传动系统170可以包括被配置为从车辆100的引擎/发动机向车轮/轮胎传送机械动力的现在已知的或以后开发的一个或多个机构、设备、元件、组件、系统和/或其组合。例如,传动系统170可以包括变速箱、离合器、差动器、驱动轴和/或其它元件。在其中传动系统170包括驱动轴的布置中,驱动轴可以包括被配置为耦合到车轮/轮胎的一个或多个轴。
车辆100可以包括信号系统175。信号系统175可以包括被配置为向车辆100的驾驶员提供照明和/或提供关于车辆100的一个或多个方面的信息的现在已知的或以后开发的一个或多个机构、设备、元件、组件、系统和/或其组合。例如,信号系统175可以提供关于车辆的存在、位置、尺寸、行驶方向的信息和/或关于行驶的方向和速度的驾驶员的意图。例如,信号系统175可以包括前灯、尾灯、刹车灯、危险警示灯和转弯信号灯。
车辆100可以包括导航系统180。导航系统180可以包括被配置为确定车辆100的地理位置和/或为车辆100确定行驶路线的现在已知的或以后开发的一个或多个机构、设备、元件、组件、系统、应用和/或其组合。
导航系统180可以包括为车辆100确定行驶路线的一个或多个地图应用。例如,驾驶员或乘客可以输入出发地和目的地。地图应用可以确定出发地和目的地之间的一条或多条合适的行驶路线。行驶路线可以基于一个或多个参数(例如,最短行驶距离、最短行驶时间量等)来选择。在一些布置中,导航系统180可以被配置为当车辆100在操作中时动态地更新行驶路线。
导航系统180可以包括全球定位系统、本地定位系统或地理定位系统。导航系统180可以利用多种卫星定位系统中的任何一种来实现,卫星定位系统诸如是美国全球定位系统(GPS)、俄罗斯Glonass系统、欧洲伽利略系统、中国北斗系统或使用来自一组卫星系统的卫星的任何系统或将来开发的任何卫星系统,包括计划的中国COMPASS系统和印度区域导航卫星系统。此外,导航系统180可以使用传输控制协议(TCP)和/或地理信息系统(GIS)以及定位服务。
导航系统180可以包括被配置为估计车辆100相对于地球的位置的收发器。例如,导航系统180可以包括确定车辆的纬度、经度和/或海拔高度的GPS收发器。导航系统180可以使用其它系统(例如,基于激光的定位系统、惯性辅助的GPS和/或基于照相机的定位)来确定车辆100的位置。
可替代地或附加地,导航系统180可以是诸如利用W3C地理定位应用编程接口(API)的基于接入点的地理定位服务。利用这种系统,车辆100的位置可以通过咨询位置信息服务器来确定,包括例如互联网协议(IP)地址、Wi-Fi和蓝牙媒体访问控制(MAC)地址、射频标识(RFID)、Wi-Fi连接位置、或设备GPS和全球移动通信系统(GSM)/码分多址(CDMA)小区ID。因此,应该理解,其中确定车辆100的地理位置的具体方式将取决于所使用的特定位置跟踪系统的操作方式。
处理器110和/或自主驾驶模块120可以被可操作地连接,以与各种车辆系统145和/或其各个组件通信。例如,返回到图1,处理器110和/或自主驾驶模块120可以处于通信状态,以向各种车辆系统145发送信息和/或从各种车辆系统145接收信息,从而控制车辆100的移动、速度、操纵、航向、方向等。处理器110和/或自主驾驶模块120可以控制这些车辆系统145中的一些或全部,并且因此,可以是部分或完全自主的。
处理器110和/或自主驾驶模块120可以可操作地通过控制车辆系统145中的一个或多个系统和/或其组件来控制车辆100的导航和/或操纵。例如,当在自主模式下操作时,处理器110和/或自主驾驶模块120可以控制车辆100的方向和/或速度。处理器110和/或自主驾驶模块120可以使车辆100加速(例如,通过增加提供给引擎的燃料供给)、减速(例如,通过减少到引擎的燃料供给和/或通过施加刹车)和/或改变方向(例如,通过使前面两个车轮转向)。如本文所使用的,“使”或“使得”是指让、强迫、迫使、指挥、命令、指示和/或使得事件或动作能够发生或至少处于其中这种事件或动作可以或者以直接的方式或者以间接的方式发生的状态。
车辆100可以包括一个或多个致动器140。致动器140可以是可操作地修改、调整和/或改变车辆系统145中的一个或多个系统或其组件从而对从处理器110和/或自主驾驶模块120接收信号或其它输入做出响应的任何元件或元件的组合。可以使用任何合适的致动器。例如,一个或多个致动器140可以包括发动机、气动致动器、液压活塞、继电器、螺线管和/或压电致动器,这仅仅是列举几种可能性。
根据本文所描述的布置,车辆100可以被配置为用于在乘员视野受阻环境中操作自主车辆。根据本文的布置,车辆100(或其一个或多个元件)可以被配置为确定外部环境的乘员可视区域、传感器系统125和/或照相机系统127的传感器检测区域和/或识别沿着车辆100的当前行驶路线的与未来驾驶动作有关的信息关键区域。
在一个或多个布置中,可以响应于确定在外部环境中的一个或多个检测到的物体位于确定的乘员可视区域的外部而采取动作。例如,动作可以是在车辆100内发出警报。可替代地或附加地,动作可以是使车辆100的当前驾驶动作被修改。可能的动作的这些和其它的例子将贯穿本说明进行更详细的描述。在一个或多个布置中,处理器110、驾驶模块120、查看分析模块121和/或(一个或多个)其它元件可以被配置为确定在外部环境中的一个或多个检测到的物体是否位于确定的乘员可视区域的外部。
在一个或更多个布置中,可以响应于确定信息关键区域的至少一部分位于确定的乘员可视区域的外部而采取动作。例如,动作可以是使得车辆100的当前驾驶动作被修改。可能的动作的这些和其它例子将贯穿本说明进行更详细的描述。在一个或更多个布置中,处理器110、驾驶模块120、查看分析模块121、信息关键区域确定模块122和/或(一个或更多个)其它元件可以被配置为确定信息关键区域的至少一部分是否位于确定的乘员可视区域的外部。
既然已描述了车辆100的各种可能的系统、设备、元件和/或组件,现在将描述用于在视野受阻环境中操作自主车辆的各种方法。现在参考图2,其示出了在视野受阻环境中操作自主车辆的方法的例子。现在将描述方法200的各种可能的步骤。在图2中示出的方法200可以适用于以上关于图1描述的实施例,但是,应当理解,方法200可以利用其它合适的系统和布置来运行。而且,方法200可以包括这里未示出的其它步骤,并且事实上,方法200不限于包括在图2中示出的每一个步骤。这里示出的作为方法200的一部分的步骤不限于这种特定的时间顺序。事实上,这些步骤中的一些步骤可以以与所示出的顺序不同的顺序来执行和/或这些示出的步骤中的至少一些步骤可以同时发生。
在方框210处,可以感测自主车辆的外部环境的至少一部分以检测位于其中的一个或更多个物体。在一个或更多个布置中,外部环境的检测可以由传感器系统125中的一个或更多个传感器(例如,环境传感器126中的一个或更多个传感器)和/或由照相机系统127(例如,照相机128中的一个或更多个照相机)来执行。在一些布置中,外部环境的检测可以被连续地或以任何合适的时间间隔执行。
如果在外部环境中检测到物体,则方法200可以继续到方框220。如果在外部环境中没有检测到物体,则方法200可以返回到方框210,或者方法200可以结束。
在方框220处,可以确定外部环境的乘员可视区域。乘员可视区域的确定可以由车辆100的任何合适的元件或元件的组合来执行。在一个或更多个布置中,乘员可视区域的确定可以由传感器系统125、照相机系统127、查看分析模块121和/或处理器110来执行。乘员可视区域的确定可以被连续地或以任何合适的时间间隔执行。方法200可以继续到方框230。
可以相对于确定的乘员可视区域定位一个或更多个检测到的物体。特别地,在方框230处,可以确定检测到的一个或更多个物体中的一个或更多个物体是否位于确定的乘员可视区域的外部。该确定可以由车辆100的任何合适的元件或元件的组合来执行。例如,在一个或更多个布置中,该确定可以由处理器110、传感器系统125、照相机系统127和/或查看分析模块121来执行。确定检测到的一个或更多个物体中的一个或多个物体是否位于确定的乘员可视区域的外部可以被连续地或以任何合适的时间间隔执行。确定检测到的一个或更多个物体中的一个或多个物体是否位于确定的乘员可视区域的外部可以包括将检测到的一个或更多个物体的位置与确定的乘员可视区域的位置进行比较。该方法可以继续到方框240。
在方框240处,响应于确定检测到的一个或更多个物体中的一个或多个物体位于确定的乘员可视区域的外部,可以在自主车辆内给出警报。警报可以是任何类型的警报,包括,例如,视觉警报132和/或可听警报135。警报可以通知车辆乘员中的一个或更多个乘员车辆(例如,传感器系统125和/或照相机系统127)检测到了不能由车辆乘员中的一个或更多个乘员感知到的物体。
当给出警报时,方法200可以结束。可替代地,方法200可以返回到方框210或者方法200的其它方框。在一个或更多个布置中,方法200可以包括附加的方框(未示出)。应当注意,在一个或更多个布置中,响应于确定检测到的一个或更多个物体位于确定的乘员可视区域的内部,则不采取任何动作(例如,不给出警报)。可替代地或附加地,响应于确定检测到的一个或更多个物体中没有物体位于确定的乘员可视区域的外部,则不采取任何动作(例如,不给出警报)。
现在将关于图4描述根据方法200的车辆的操作的非限制性例子。为了这个例子的目的,车辆100可以在环境400中在道路405上行驶。如本文所使用的,“道路”是指在两个地方之间的并且车辆可以在其上行驶的大路、路线、路径或小路。道路405可以是铺砌的或以其它方式改善的,以便于车辆在其上行驶。在一些情况下,道路405可以是未铺砌或未开发的。道路405可以是公共道路或私有道路。道路405可以包括一个或更多个桥梁、隧道、支撑结构、交汇口、人行横道、立交和收费道路或者是其一部分。
道路405可以包括多条行驶车道407、410、412、415。如本文所使用的,“行驶车道”是被指定为被单线的车辆使用的道路的一部分和/或正在被单线的车辆使用的道路的一部分。在一些情况下,一个或更多个行驶车道407、410、412、415可以通过道路405上的标志或以任何其它合适的方式来指定。在一些情况下,一个或更多个行驶车道407、410、412、415可能没有被标记。
在图4示出的布置中,道路405可以被指定用于双向行驶。为了这个例子的目的,车辆可以在第一行驶车道407和第二行驶车道410中在第一方向417上移动,并且车辆可以在第三行驶车道412和第四行驶车道415中在第二方向420上移动。第一方向417可以与第二方向415不同。例如,如在图4中所示出的,第一方向417可以与第二方向415基本上相反。第一和第二行驶车道407、410可以通过中间线442与第三和第四行驶车道412、415隔开。应该理解,在图4中示出的具体布置仅仅作为例子提供,并且本文所描述的布置不限于这个例子。
在图4中,车辆100的当前行驶车道可以是第一行驶车道407。“当前行驶车道”是指车辆在当前时刻正在上面行驶的行驶车道。另一个车辆(例如卡车430)可以位于第二行驶车道410中。车辆100和卡车430可以在交叉路口处停止。
车辆100可以诸如通过利用传感器系统125和/或照相机系统127感测环境400的至少一部分。车辆100可以具有相关联的检测区域460。车辆100可以检测在外部环境400中的,并且更具体地,在检测区域460内的物体440(例如行人、骑自行车的人、动物等)的存在。
可以确定外部环境400的乘员可视区域450。乘员可视区域450的确定可以由,例如,照相机系统127、查看分析模块121和/或处理器110来执行。在这个例子中,乘员可视区域450的一部分会由于卡车430的存在被阻挡。因此,乘员可视区域450可能不会像如果没有卡车430存在时那样大。乘员可视区域450的确定可以被连续地或以任何合适的时间间隔执行。乘员可视区域450可以基于外部环境400中的变化(例如,卡车430移动、另一个车辆出现,等等)而改变。
应当注意,在图4中示出的乘员可视区域450是为车辆100的驾驶员确定的。但是,布置并不限于驾驶员可视区域。事实上,作为替代或附加,乘员可视区域可以包括一个或更多个乘客可视区域。
可以确定检测到的物体440相对于乘员可视区域450的位置。更具体地,可以确定检测到的物体440是否位于确定的乘员可视区域450的外部。该确定可以由例如,处理器110和/或查看分析模块121来执行。在这个例子中,可以确定检测到的物体440位于确定的乘员可视区域450的外部。
响应于这种确定,可以在车辆100内给出警报。警报可以是任何类型的警报,包括,例如,视觉警报132和/或可听警报135。为了这个例子的目的,可以给出可听警报135。可听警报135可以提供任何合适的信息。例如,可听警报135可以指示在乘员可视区域的外部检测到了物体。可听警报135也可以指示检测到的物体相对于车辆100的位置、检测到的物体(例如,车辆,行人等)的性质、检测到的物体的当前速度和/或检测到的物体正在移动的当前方向,这仅仅是列举几种可能性。
在一个或更多个布置中,可听警报135可以在车辆100内的某个位置中发出,该位置通常对应于检测到的物体440相对于车辆100的位置。因此,例如,在图4示出的布置中,物体440位于车辆100的左侧。相应地,可听警报135可以在车辆100内在车辆100左侧部分发出,诸如从位于车辆100的左侧的一个或更多个扬声器136发出。
当给出警报时,可以使一个或更多个车辆乘员意识到,在由车辆100检测到的但是一个或更多个车辆乘员不能看到的环境400的一部分中的物体的存在。有了这种意识,该一个或更多个车辆乘员就可以在车辆100的自主操作模式下获得信心。还有,驾驶员可以决定至少部分地以手动模式操作车辆100,或者可以继续允许车辆100在自主操作模式下继续。
现在将关于图5描述根据方法300的车辆的操作的另一个非限制性例子。为了这个例子的目的,车辆100可以位于环境500中。车辆100可以在道路505上行驶。以上在图4中对道路405的讨论适用于道路505。道路505可以包括多条行驶车道,包括第一行驶车道510和第二行驶车道515。
车辆100的当前行驶车道可以是第一行驶车道510。物体(例如第二车辆530)可以位于第二行驶车道515中。车辆100和第二车辆530可以停止并等待进入环岛520。在环境500中可以存在第三车辆540。第三车辆540可以正在环岛520上行驶。
车辆100可以诸如通过利用传感器系统125和/或照相机系统127感测环境500的至少一部分。相应地,车辆100可以具有相关联的检测区域560。当第三车辆560的至少一部分位于检测区域560内时,车辆100可以检测到物体(例如,第三车辆540)的存在。
可以确定外部环境500的乘员可视区域550。乘员可视区域550的确定可以由例如,传感器系统125、照相机系统127、查看分析模块121和/或处理器110来执行。在这个例子中,乘员可视区域550会由于第二车辆530的存在被部分地阻挡。因此,乘员可视区域550可能不会像如果没有第二车辆530存在时那样大。
可以确定第三车辆540相对于乘员可视区域550的位置。更具体地,可以确定第三车辆540是否位于确定的乘员可视区域550的外部。该确定可以由例如,处理器110和/或查看分析模块121来执行。在这个例子中,确定了第三车辆540位于确定的乘员可视区域550的外部。
响应于这种确定,可以在车辆100内给出警报。警报可以是任何类型的警报,包括,例如,视觉警报132和/或可听警报135。为了这个例子的目的,可以给出视觉警报132。视觉警报132可以由输出系统131的一个或更多个组件给出,诸如一个或更多个显示器133和/或一个或更多个光源134。
视觉警报132可以具有任何合适的形式。在一个或更多个布置中,视觉警报132提供任何合适的信息。例如,视觉警报132可以指示在乘员可视区域的外部检测到了物体。视觉警报132也可以指示检测到的物体相对于车辆100的位置、检测到的物体(例如,车辆,行人等)的性质、检测到的物体的当前速度和/或检测到的物体正在移动的当前方向,这仅仅是列举几种可能性。
图7示出了其中在显示器133上呈现视觉警报132的例子。为了便于描述,针对该例子,在显示器133上呈现的视觉警报132一般地对应于图5中给出的场景。在一个或更多个布置中,视觉警报132可以包括外部环境710的表示。外部环境710的表示可以呈现图形、照片、视频、卫星和/或地图信息或数据,这些可以从任何合适的来源获得,包括,例如,从数据存储装置115、导航系统180以及车辆100的一个或更多个元件可操作地连接到的其它合适的来源获得。这种来源可以位于车辆100的外部。
视觉警报132可以包括在外部环境中检测到的(一个或更多个)物体740的表示。更具体地,视觉警报132可以包括检测到的位于乘员可视区域的外部的(一个或更多个)物体740的表示。在一个或更多个布置中,视觉警报132可以包括检测到的位于乘员可视区域的内部的物体的表示。可替代地,在一个或更多个布置中,视觉警报132可以不包括检测到的位于乘员可视区域的内部的物体的表示。作为例子,在图7中,第二车辆530的表示没有被包括。如在图7中所出的,检测到的(一个或更多个)物体740的表示可以叠加在外部环境710的表示上。检测到的(一个或更多个)物体740的表示可以相对于外部环境710的表示被基本上精确地定位。
视觉警报132可以包括乘员可视区域750的表示和/或检测区域760的表示。乘员可视区域750的表示和/或检测区域760的表示可以被叠加在外部环境710的表示上。在一些情况下,乘员可视区域750的表示和/或检测区域760的表示在一个或更多个方面上可以是彼此视觉上可区分的,一个或更多个方面包括,例如,不同的颜色、阴影或边界。
作为以上的替代或附加,视觉警报132可以包括一个或多个光源134。在这种情况下,光源中的一个或更多个光源可以被激活来发出光能量,以提醒车辆100的乘员在不位于确定的乘员可视区域之内的外部环境中检测到了物体。
在一个或更多个布置中,光源可以在车辆100内的某个位置中被激活,该位置通常对应于位于确定的乘员可视区域的外部的检测到的一个或更多个物体的位置。因此,例如,在图5示出的布置中,物体(例如,第三车辆540)位于车辆100的左侧。相应地,在车辆100的左侧的一个或更多个光源可以被激活。
现在将描述在外部环境的视野受阻部分中操作自主车辆的方法的另一个例子。现在参考图3,其示出了在外部环境的视野受阻部分中操作自主车辆的方法的例子。现在将描述方法300的各种可能的步骤。在图3中示出的方法300可以适用于以上关于图1描述的实施例,但是应当理解,方法300可以利用其它合适的系统和布置来运行。而且,方法300可以包括这里未示出的其它步骤,并且事实上,方法300不限于包括在图3中示出的每一个步骤。这里示出的作为方法300的一部分的步骤不限于这种特定的时间顺序。事实上,这些步骤中的一些步骤可以以与所示出的不同的顺序来执行和/或这些示出的步骤中的至少一些步骤可以同时发生。
图3中的方框310、方框320和方框330分别类似于图2中的方框210、方框220和方框230。相应地,以上关于方框210、220和230的讨论同样分别适用于方框310、320和330。该方法可以继续到方框340。
在方框340处,响应于确定检测到的一个或更多个物体中的一个或多个物体位于确定的乘员可视区域的外部,可以使得车辆100修改车辆100的当前驾驶动作。在一个或更多个布置中,处理器110和/或驾驶模块120可以使得车辆100修改当前驾驶动作。处理器110和/或驾驶模块120可以被可操作地连接到车辆系统145中的一个或更多个系统,以使得对车辆100的当前驾驶动作进行修改。在一个或更多个布置中,处理器110和/或驾驶模块120可以可操作地控制一个或更多个致动器140,该致动器140可以控制车辆系统145中的一个或更多个系统或者其部分,以使得对车辆100的当前驾驶动作进行修改。
可以使得对车辆100的当前驾驶动作进行任何合适的修改。在一个或更多个布置中,对当前驾驶动作的修改可以包括降低车辆100的速度。可替代地或附加地,对当前驾驶动作的修改可以包括以保守的方式移动车辆100。
当当前驾驶动作被修改时,方法300可以结束。可替代地,方法300可以返回到方框310。作为还有的替代,方法300可以包括附加的方框(未示出)。例如,一旦车辆100已移动到其中检测到的一个或更多个物体位于乘员可视区域之内的点,就可以中止对当前驾驶动作的修改。应当注意,在一个或更多个布置中,响应于确定检测到的一个或更多个物体位于确定的乘员可视区域内,则不采取任何动作(例如,当前驾驶动作不被修改)。可替代地或附加地,响应于确定检测到的一个或更多个物体中没有物体位于确定的乘员可视区域的外部,则不采取任何动作(例如,当前驾驶动作不被修改)。
现在将关于图6描述根据方法300的车辆的操作的非限制性例子。为了这个例子的目的,车辆100可以在环境600中在道路605上行驶。以上在图4中对道路405的讨论适用于道路605。道路605可以包括多条行驶车道,包括第一行驶车道610、第二行驶车道615以及第三行驶车道620。
在图6示出的布置中,道路605可以被指定用于双向行驶。为了这个例子的目的,车辆可以在第一行驶车道610和第二行驶车道615中在第一行驶方向618上移动,并且车辆可以在第三行驶车道620中在第二行驶方向617上移动。第一行驶方向618不同于第二行驶方向617。在一个或更多个布置中,第一行驶方向618可以与第二方向617基本上相反,如在图6中所示出的。应该理解,在图6中示出的特定布置仅仅作为例子提供,并且本文所描述的布置不限于这个例子。
在图6中,车辆100的当前行驶车道可以是第一行驶车道610。一个或更多个物体(例如,卡车630和前方车辆635)可以位于第二行驶车道615中。物体(例如,转弯车辆640)可以位于第三行驶车道620中。转弯车辆640可以正在等待机会左转到横向道路680上。横向道路680和道路605可以相对于彼此具有任何合适的朝向。例如,如在图6中所示出的,横向道路680和道路605可以相对于彼此定向为大约90度。
车辆100可以诸如通过利用传感器系统125和/或照相机系统127来感测环境600的至少一部分。车辆100可以具有相关联的检测区域660。当第三车辆640位于检测区域660之内时,车辆100可以检测到物体(例如,第三车辆640)的存在。
可以确定外部环境600的乘员可视区域650。乘员可视区域650的确定可以由例如,传感器系统125、照相机系统127、查看分析模块121和/或处理器110来执行。在这个例子中,乘员可视区域650会由于卡车630和/或前方车辆635的存在被部分地阻挡。因此,乘员可视区域650可能不会像如果没有这种障碍物体存在时那样大。
可以确定第三车辆640相对于乘员可视区域650的位置。更具体地,可以确定第三车辆640是否位于确定的乘员可视区域650的外部。该确定可以由处理器110和/或查看分析模块121来执行。在这个例子中,确定了第三车辆640位于确定的乘员可视区域650的外部。
响应于这种确定,可以使得车辆100修改当前驾驶动作。例如,车辆100的当前速度可以被降低。车辆可以以当前速度行驶。车辆100的速度可以相对于当前速度或公示的速度限制降低预定的量,相对于当前速度或公示的速度限制降低预定的百分比,或者降低到固定的预定速度。在一个或更多个布置中,预定的百分比可以是车辆当前速度的或公示的速度限制的至少大约10%、至少大约15%、至少大约20%、至少大约25%、至少大约30%、至少大约35%、至少大约40%、至少大约45%、或至少大约50%。车辆100可以继续以降低的速度操作至少到第三车辆640被确定位于检测到的乘员可视区域650之内为止。
现在参考图8,其示出了在行驶路线的视野受阻部分中操作自主车辆的另一个方法的例子。现在将描述方法800的各种可能的步骤。图8中示出的方法800可以适用于以上关于图1所描述的实施例,但是应当理解,方法800可以利用其它合适的系统和布置来运行。而且,方法800可以包括这里未示出的其它步骤,并且事实上,方法800不限于包括在图8中示出的每一个步骤。这里示出的作为方法800的一部分的步骤不限于这种特定的时间顺序。事实上,这些步骤中的一些步骤可以以与所示出的顺序不同的顺序来执行和/或这些示出的步骤中的至少一些步骤可以同时发生。
在方框810处,可以识别沿着行驶路线的至少一部分的信息关键区域。信息关键区域可以与车辆100的未来驾驶动作有关。在一个或更多个布置中,信息关键区域的识别可以由信息关键区域确定模块122、导航系统180和/或处理器110来执行。在一些布置中,信息关键区域的识别可以被连续地或者以任何合适的时间间隔执行。方法800可以继续到方框820。
在方框820处,可以确定外部环境的乘员可视区域。乘员可视区域的确定可以由车辆100的任何合适的元件或元件的组合来执行。在一个或更多个布置中,乘员可视区域的确定可以由传感器系统125、照相机系统127(例如,一个或更多个乘员视野照相机)、查看分析模块121和/或处理器110来执行。乘员可视区域的确定可以被连续地或以任何合适的时间间隔来执行。方法800可以继续到方框830。
在方框830处,可以确定信息关键区域的至少一部分是否位于确定的乘员可视区域的外部。该确定可以由车辆100的任何合适的元件或元件的组合来执行。例如,在一个或更多个布置中,该确定可以由处理器110、查看分析模块121和/或信息关键区域确定模块122来执行。乘员可视区域的确定可以被连续地或以任何合适的时间间隔执行。该方法可以继续到方框840。
在方框840处,响应于确定信息关键区域的至少一部分位于确定的乘员可视区域的外部,可以使得车辆100的当前驾驶动作被修改。可以执行对车辆100的当前驾驶动作的任何合适的修改。例如,当前驾驶动作可以是以当前速度向前行驶。在这种情况下,当前驾驶动作可以通过降低车辆的速度来修改。应当注意,对车辆100的当前驾驶动作的修改可以被自动地实现。此外,不管车辆100(例如,传感器系统125和/或照相机系统127)是否能够感测到整个信息关键区域,都可以实现对车辆100的当前驾驶动作的修改。
在一个或更多个布置中,处理器110和/或驾驶模块120可以使得车辆100修改车辆100的当前驾驶动作。处理器110和/或驾驶模块120可以被可操作地连接到车辆系统145中的一个或更多个系统,以使得对车辆100的当前驾驶动作的修改被实现。在一个或更多个布置中,处理器110和/或驾驶模块120可以可操作地控制一个或更多个致动器140,该致动器可以控制车辆系统145中的一个或更多个系统或者其部分以实现对当前驾驶动作的修改。
当对当前驾驶动作的修改被实现时,方法800可以结束。可替代地,方法800可以返回到方框810。作为还有的替代,方法800可以包括附加的块(未示出)。在一些情况下,一旦车辆100已移动到预定的点,就可以中止对当前驾驶动作的修改。预定的点可以是其中信息关键区域被确定为完全位于乘员可视区域内的点。可替代地,预定的点可以是其中信息关键区域的大部分(例如,至少大约51%、至少大约55%、至少大约60%、至少大约65%、至少大约70%、至少大约75%、至少大约80%、至少大约85%、至少大约90%、或至少大约95%)被确定为位于乘员可视区域内的点。
方法800可以在各种场景中实现。在一个或更多个布置中,方法800可以在其中驾驶员负责车辆100的安全操作的情况下实现。如果车辆100(例如,传感器系统125和/或照相机系统127)没有在与未来驾驶动作有关的信息关键区域中检测到任何物体并且如果车辆100(例如,传感器系统125和/或驾驶模块120)确定继续未来驾驶动作是安全的,则车辆100的驾驶员至少在一些情况下可能不想和/或不应该依赖该确定。例如,传感器系统125的至少一部分和/或照相机系统127的至少一部分会存在故障。对于这种信息关键区域,驾驶员应该在视觉上确认情景的安全性,而不是依赖于车辆100。因此,如果确定驾驶员不能看到与未来驾驶动作有关的信息关键区域的至少一部分,则可以降低车辆100的当前速度或者可以采取对当前驾驶动作的一些其它修改,以使得驾驶员或其他车辆乘员可以在视觉上或以其它方式感知信息关键区域。
现在将关于图9描述根据方法800的车辆100的操作的一个非限制性例子。为了这个例子的目的,车辆100可以在包括第一道路905和第二道路910的环境900中行驶。第一道路905和第二道路910可以彼此交叉,以形成交叉路口925。在一个或更多个布置中,相对于交叉路口925的交通可以利用任何合适的交通控制设备(例如,停止标志、交通信号灯等)进行调控。在一个或更多个布置中,交叉路口925可能不具有相关联的交通控制设备。第一道路905和第二道路910可以相对于彼此以任何合适的角度定向。例如,如在图9中所示出的,第一道路905和第二道路910可以相对于彼此被定向为基本上90度。但是,在一个或更多个布置中,第一道路905和第二道路910可以相对于彼此被定向为成锐角。在一个或更多个布置中,第一道路905和第二道路910可以相对于彼此成钝角。此外,在一些布置中,交叉路口925可以由两条以上的道路形成。
第一道路905和第二道路910可以具有任何合适的构造和/或布局。第一道路905和/或第二道路910可以被指定用于双向行驶,包括多条行驶车道。为了这个例子的目的,第一道路905可以包括第一组一个或更多个行驶车道903和第二组一个或更多个行驶车道904。第一组行驶车道903可以意图或被指定用于在第一方向916上的车辆行驶。第二组行驶车道904可以意图或被指定用于在第二方向917上的车辆行驶。第一方向916可以与第二方向917不同。例如,第一方向916可以与第二方向917基本上相反。
第一组行驶车道903和第二组行驶车道904可以包括任何合适类型和/或数量的行驶车道。例如,图9示出了至少与交叉路口925下方的第一道路905的部分相关的例子,其中第一组行驶车道903可以包括行驶车道907和专用的右转车道908。第二组行驶车道904可以包括单条行驶车道906。
第二道路910可以包括第三组一个或更多个行驶车道918和第四组一个或更多个行驶车道919。第三组行驶车道918可以意图或被指定用于在第三方向913上的车辆行驶。第四组行驶车道919可以意图或被指定用于在第四方向914上的车辆行驶。第三方向913可以与第四方向914不同。例如,第三方向913可以与第四方向914基本上相反。
第三组行驶车道918和第四组行驶车道919可以包括任何合适类型和/或数量的行驶车道。例如,图9示出了其中第三组行驶车道918可以包括行驶车道912并且第四组行驶车道919可以包括行驶车道914的例子。
应当理解,本文相对于第一道路905、第二道路910和/或交叉路口925示出和描述的布置仅仅作为例子提供,并且布置并不限于所示出和描述的特定布置。实际上,本文描述的布置可以与具有任何数量、类型和/或布置的行驶车道的道路结合使用。
车辆100可以在第一道路905上行驶。车辆100的当前行驶路径可以包括右转到第二道路910上。车辆100可以在第一方向916上行驶时接近交叉路口925。随着辆100接近交叉路口925,车辆100的当前行驶车道可以是专用的右转车道908。可以有另一个车辆930位于行驶车道907中。车辆100和另一个车辆930可以在前进到交叉路口925中之前,诸如利用交通控制设备给予其指示,以使其停止。
沿着行驶路线的至少一部分的信息关键区域可以由车辆100(例如,信息关键区域确定模块122、导航系统180和/或处理器110)来识别。信息关键区域可以与车辆100的未来计划驾驶动作有关。在这个例子中,未来计划驾驶动作可以是右转到第二道路910上。因此,一个信息关键区域可以包括位于交叉路口925左边(在图9中)的行驶车道912的区域950,因为当车辆100右转到第二道路910上时,在这个区域950中行驶的任何车辆都将是车辆100所关心的。
车辆100可以确定外部环境900的乘员可视区域960。但是,乘员可视区域960可能会由于其它车辆930的存在而受到影响。在这种情况下,乘员可视区域960可能不会像如果没有其它车辆960存在时那样大。
车辆100(查看分析模块121、信息关键区域确定模块122和/或处理器110)可以确定信息关键区域950的至少一部分是否位于确定的乘员可视区域960的外部。响应于确定信息关键区域的至少一部分位于确定的乘员可视区域的外部,可以使得车辆100的当前驾驶动作被修改。例如,对车辆100的当前驾驶动作的修改可以包括降低车辆100的当前速度。在这种情况下,车辆100的当前速度可以被降低到降低的速度。降低的速度可以被保持至少到信息关键区域的检测到的乘员可视区域包括整个信息关键区域或者至少包括信息关键区域的基本上大部分为止。
在一个或更多个布置中,处理器110和/或驾驶模块120可以使得车辆100修改当前驾驶动作。处理器110和/或驾驶模块120可以被可操作地连接到车辆系统145中的一个或更多个系统,以实现车辆100的当前驾驶动作。在一个或更多个布置中,处理器110和/或驾驶模块120可以是可操作的,以控制一个或更多个致动器140,该致动器可以控制车辆系统145中的一个或更多个系统或者其部分,以实现当前驾驶动作。
应当注意,在一个或更多个布置中,可以提示车辆乘员(例如,驾驶员和/或其它乘客)提供实现未来驾驶动作的许可。可以以任何合适的方式提示车辆乘员。例如,提示可以被呈现在车辆100内的显示器上。可替代地或附加被,提示可以是驾驶员或其他乘客通过一个或更多个可听通道可听到的输出。可以使用其它形式的提示作为上述形式提示的替代或附加。响应于接收到对应于车辆乘员批准实现未来驾驶动作的输入,可以使车辆100实现未来驾驶动作。
应当理解,本文描述的布置可以提供多种益处,包括本文提及的益处中的一种或多种益处。例如,本文描述的布置可以当在视野受阻环境中操作时提高自主车辆的性能。本文描述的布置可以通过向车辆乘员通知该车辆意识到对车辆乘员中的一个或更多个乘员不可见的物体的存在向车辆乘员提供某种程度的舒适感和信心。本文描述的布置也可以通过修改自主车辆的当前驾驶动作向车辆乘员提供某种程度的舒适感和信心和/或提高车辆的安全性。此外,本文描述的布置也可以通过当相对于未来驾驶动作的信息关键区域位于确定的乘员可视区域的外部时修改自主车辆的当前驾驶动作来提高车辆的安全操作。
附图中的流程图和框图示出了根据各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,其包含用于实现(一个或多个)具体逻辑功能的一个或多个可执行指令。也应当注意,在一些可替代的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,被示为连续的两个方框实际上可以基本上并行地执行,或者它们有时也可以按相反的顺序执行,这取决于所涉及的功能。
上述系统、组件和/或处理可以以硬件或硬件和软件的组合实现,并且可以在一个处理系统中以集中方式实现或者以其中不同元件跨若干个互连的处理系统分布的分布式方式实现。任何种类的处理系统或适于运行本文所述方法的其它装置都是合适的。硬件和软件的典型组合可以是具有计算机可用程序代码的处理系统,当所述计算机可用程序代码被加载和执行时,控制处理系统,以使得它运行本文所述的方法。该系统、组件和/或处理也可以被嵌入在诸如计算机程序产品或其它数据程序存储设备的计算机可读存储中、可被机器读取、有形地包含可被机器执行以实现本文所述方法和处理的指令的程序。这些元件也可以被嵌入在应用产品中,其包含使本文所述的方法能够实现的所有特征,并且当其在处理系统中被加载时能够运行这些方法。
此外,本文所描述的布置可以采取包含在其上包含(例如,存储)有计算机可读程序代码的一个或多个计算机可读介质中的计算机程序产品的形式。可以使用一个或多个计算机可读介质的任意组合。计算机可读介质可以是计算机可读信号介质或计算机可读存储介质。短语“计算机可读存储介质”是指非临时性存储介质。计算机可读存储介质可以是例如但不限于,电子、磁、光、电磁、红外、或半导体系统、装置或设备或上述任何合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)将包括以下:具有一条或多条电线的电连接、便携式计算机盘、硬盘驱动器(HDD)、固态驱动器(SSD)、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或闪存)、光纤、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、光存储设备、磁存储设备或上述任何合适的组合。在本文档的上下文中,计算机可读存储介质可以是可包含或存储用于被指令执行系统、装置或设备使用或与其结合使用的程序的任何有形介质。
包含在计算机可读介质上的程序代码可以利用任何适当的介质来传送,介质包括但不限于无线、有线、光纤、电缆、RF等或者上述任何合适的组合。用于运行本布置的各方面的操作的计算机程序代码可以用一种或多种编程语言的任意组合来编写,包括诸如JavaTM、Smalltalk、C++等面向对象的编程语言和诸如“C”编程语言或类似编程语言的常规过程式编程语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为独立的软件包执行、部分地在用户计算机上并且部分地在远程计算机上执行或者完全地在远程计算机或服务器上执行。在后者的情形中,远程计算机可以通过任何类型的网络,包括局域网(LAN)或广域网(WAN)连接到用户的计算机,或者可以(例如,利用互联网服务提供商通过互联网)连接到外部计算机。
如本文所使用的,术语“一”和“一个”被定义为一个或多于一个。如本文所使用的,术语“多个”被定义为两个或多于两个。如本文所使用的,术语“另一个”被定义为至少第二个或更多个。如本文所使用的,术语“包括”和/或“具有”被定义为包含(即,开放性语言)。如本文所使用的,短语“...和...中的至少一个”指代并且包括相关联的列出项中的一个或多个的任何和所有可能的组合。作为例子,短语“A、B和C中的至少一个”包括只有A、只有B、只有C、或其任何组合(例如AB、AC、BC或ABC)。
本文的各方面在不背离其精神或基本属性的情况下,可以以其它形式来体现。因此,应该参考以下权利要求,而不是以上说明书作为对本发明的范围的指示。
Claims (15)
1.一种在视野受阻环境中操作自主车辆的方法,包括:
感测自主车辆的外部环境的至少一部分以检测位于该外部环境的至少一部分中的一个或更多个物体;
确定外部环境的乘员可视区域;
确定所检测到的一个或更多个物体中的一个或更多个物体是否位于所确定的乘员可视区域的外部;以及
响应于确定所检测到的一个或更多个物体中的一个或更多个物体位于所确定的乘员可视区域的外部,在自主车辆内给出警报。
2.一种用于在视野受阻环境中操作自主车辆的系统,包括:
传感器系统,被配置为检测位于自主车辆的外部环境的至少一部分中的一个或更多个物体;
处理器,可操作地连接到传感器系统,该处理器被编程为启动包括以下操作的可执行操作:
确定外部环境的乘员可视区域;
确定所检测到的一个或更多个物体中的一个或更多个物体是否位于所确定的乘员可视区域的外部;以及
响应于确定所检测到的一个或更多个物体中的一个或更多个物体位于所确定的乘员可视区域的外部,在自主车辆内给出警报。
3.如权利要求1所述的方法或如权利要求2所述的系统,其中,所述警报是可听警报,并且其中,在自主车辆内给出警报包括在自主车辆内发出可听警报。
4.如权利要求3所述的方法或如权利要求3所述的系统,其中,所述可听警报在自主车辆内的如下位置中发出,该位置与位于所确定的乘员可视区域的外部的所检测到的一个或更多个物体的位置对应。
5.如权利要求1所述的方法或如权利要求2所述的系统,其中,所述警报是视觉警报,并且其中,在自主车辆内给出警报包括在自主车辆内显示视觉警报。
6.如权利要求5所述的方法或如权利要求5所述的系统,其中,所述视觉警报包括外部环境的表示,并且其中,所检测到的一个或更多个物体中的位于乘员可视区域的外部的一个或更多个物体的表示、乘员可视区域的表示或者所感测的外部环境的至少一部分的表示中的至少一个被叠加在外部环境的表示上。
7.一种在视野受阻环境中操作自主车辆的方法,包括:
感测自主车辆的外部环境的至少一部分以检测位于该外部环境的至少一部分中的一个或更多个物体;
确定外部环境的乘员可视区域;
确定所检测到的一个或更多个物体中的一个或更多个物体是否位于所确定的乘员可视区域的外部;以及
响应于确定所检测到的一个或更多个物体中的一个或更多个物体位于所确定的乘员可视区域的外部,使得对自主车辆的当前驾驶动作进行修改。
8.一种用于在视野受阻环境中操作自主车辆的系统,包括:
传感器系统,被配置为检测位于自主车辆的外部环境的至少一部分中的一个或更多个物体;
处理器,可操作地连接到传感器系统,该处理器被编程为启动包括以下操作的可执行操作:
确定外部环境的乘员可视区域;
确定所检测到的一个或更多个物体中的一个或更多个物体是否位于所确定的乘员可视区域的外部;以及
响应于确定所检测到的一个或更多个物体中的一个或更多个物体位于所确定的乘员可视区域的外部,使得对自主车辆的当前驾驶动作进行修改。
9.如权利要求7所述的方法或如权利要求8所述的系统,其中,使得对自主车辆的当前驾驶动作进行修改包括使得自主车辆的当前速度被降低。
10.如权利要求9所述的方法或如权利要求9所述的系统,其中,自主车辆的当前速度被降低到降低的速度,并且其中,该降低的速度至少被维持到所检测到的一个或更多个物体中的位于所确定的乘员可视区域的外部的一个或更多个物体被确定为位于乘员可视区域内为止。
11.如权利要求7所述的方法或如权利要求8所述的系统,还包括:
响应于确定所检测到的一个或更多个物体中的一个或更多个物体位于所确定的乘员可视区域的外部,在自主车辆内给出警报。
12.一种用于在视野受阻环境中操作自主车辆的方法,包括:
识别沿行驶路线的信息关键区域,该信息关键区域与未来驾驶动作有关;
确定外部环境的乘员可视区域;
确定信息关键区域的至少一部分是否位于所确定的乘员可视区域的外部;以及
响应于确定信息关键区域的至少一部分位于所确定的乘员可视区域的外部,使得对自主车辆的当前驾驶动作进行修改。
13.一种用于在视野受阻环境中操作自主车辆的系统,包括:
处理器,该处理器被编程为启动包括以下操作的可执行操作:
识别沿行驶路线的信息关键区域,该信息关键区域与未来驾驶动作有关;
确定外部环境的乘员可视区域;
确定信息关键区域的至少一部分是否位于所确定的乘员可视区域的外部;以及
响应于确定信息关键区域的至少一部分位于所确定的乘员可视区域的外部,使得对自主车辆的当前驾驶动作进行修改。
14.如权利要求12所述的方法或如权利要求13所述的系统,其中,使得对自主车辆的当前驾驶动作进行修改包括降低自主车辆的当前速度。
15.如权利要求14所述的方法或如权利要求14所述的系统,其中,自主车辆的当前速度被降低到降低的速度,并且其中,该降低的速度至少被维持到信息关键区域的所检测到的乘员可视区域至少包括信息关键区域的基本上大部分为止。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/609,273 US9649979B2 (en) | 2015-01-29 | 2015-01-29 | Autonomous vehicle operation in view-obstructed environments |
US14/609,273 | 2015-01-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105835874A true CN105835874A (zh) | 2016-08-10 |
CN105835874B CN105835874B (zh) | 2021-05-11 |
Family
ID=56410133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610056775.XA Active CN105835874B (zh) | 2015-01-29 | 2016-01-28 | 视野受阻环境中的自主车辆操作 |
Country Status (4)
Country | Link |
---|---|
US (2) | US9649979B2 (zh) |
JP (2) | JP6737600B2 (zh) |
CN (1) | CN105835874B (zh) |
DE (1) | DE102016100729A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108694843A (zh) * | 2017-04-12 | 2018-10-23 | 通用汽车环球科技运作有限责任公司 | 用于交通控制设备检测优化的方法和装置 |
CN111959528A (zh) * | 2020-08-20 | 2020-11-20 | 广州小马智行科技有限公司 | 移动载体的显示设备的控制方法、装置与处理器 |
CN112298175A (zh) * | 2019-07-29 | 2021-02-02 | 现代自动车株式会社 | 列队行驶控制器、包括其的系统及列队行驶控制方法 |
CN114379565A (zh) * | 2020-10-21 | 2022-04-22 | 辉达公司 | 用于自主和半自主驾驶应用的乘员注意力和认知负荷监测 |
CN112298175B (zh) * | 2019-07-29 | 2024-07-05 | 现代自动车株式会社 | 列队行驶控制器、包括其的系统及列队行驶控制方法 |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9649979B2 (en) * | 2015-01-29 | 2017-05-16 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle operation in view-obstructed environments |
US9610893B2 (en) * | 2015-03-18 | 2017-04-04 | Car1St Technologies, Llc | Methods and systems for providing alerts to a driver of a vehicle via condition detection and wireless communications |
US10328855B2 (en) | 2015-03-18 | 2019-06-25 | Uber Technologies, Inc. | Methods and systems for providing alerts to a connected vehicle driver and/or a passenger via condition detection and wireless communications |
KR101709521B1 (ko) * | 2015-07-30 | 2017-03-09 | 주식회사 한글과컴퓨터 | 무인 스마트카를 이용한 공익서비스 시스템 및 방법 |
US9849784B1 (en) | 2015-09-30 | 2017-12-26 | Waymo Llc | Occupant facing vehicle display |
US20170124881A1 (en) * | 2015-10-28 | 2017-05-04 | Velvac Incorporated | Blind zone warning for semi-trailer |
US9915951B2 (en) * | 2015-12-27 | 2018-03-13 | Toyota Motor Engineering & Manufacturing North America, Inc. | Detection of overhanging objects |
US10328949B2 (en) * | 2016-01-28 | 2019-06-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | Sensor blind spot indication for vehicles |
US10323952B2 (en) * | 2016-04-26 | 2019-06-18 | Baidu Usa Llc | System and method for presenting media contents in autonomous vehicles |
US9975481B2 (en) * | 2016-05-23 | 2018-05-22 | Ford Global Technologies, Llc | Method and apparatus for animal presence alert through wireless signal detection |
US9910442B2 (en) | 2016-06-28 | 2018-03-06 | Toyota Motor Engineering & Manufacturing North America, Inc. | Occluded area detection with static obstacle maps |
US10137890B2 (en) | 2016-06-28 | 2018-11-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Occluded obstacle classification for vehicles |
US10078335B2 (en) | 2016-06-28 | 2018-09-18 | Toyota Motor Engineering & Manufacturing North America, Inc. | Ray tracing for hidden obstacle detection |
US10543852B2 (en) * | 2016-08-20 | 2020-01-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Environmental driver comfort feedback for autonomous vehicle |
US10093322B2 (en) * | 2016-09-15 | 2018-10-09 | International Business Machines Corporation | Automatically providing explanations for actions taken by a self-driving vehicle |
US10769452B2 (en) * | 2016-11-14 | 2020-09-08 | Lyft, Inc. | Evaluating and presenting pick-up and drop-off locations in a situational-awareness view of an autonomous vehicle |
JP6478415B2 (ja) * | 2016-12-20 | 2019-03-06 | 本田技研工業株式会社 | 車両制御システム、車両制御方法、および車両制御プログラム |
US10082869B2 (en) * | 2017-02-03 | 2018-09-25 | Qualcomm Incorporated | Maintaining occupant awareness in vehicles |
US10166996B2 (en) * | 2017-02-09 | 2019-01-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for adaptively communicating notices in a vehicle |
JP6558393B2 (ja) | 2017-04-06 | 2019-08-14 | トヨタ自動車株式会社 | 進路設定装置及び進路設定方法 |
US11210744B2 (en) * | 2017-08-16 | 2021-12-28 | Mobileye Vision Technologies Ltd. | Navigation based on liability constraints |
US10261514B2 (en) * | 2017-08-16 | 2019-04-16 | Uber Technologies, Inc. | Systems and methods for communicating autonomous vehicle scenario evaluation and intended vehicle actions |
US10429846B2 (en) | 2017-08-28 | 2019-10-01 | Uber Technologies, Inc. | Systems and methods for communicating intent of an autonomous vehicle |
JP6939376B2 (ja) * | 2017-10-10 | 2021-09-22 | トヨタ自動車株式会社 | 自動運転システム |
CN111788532B (zh) * | 2018-02-28 | 2022-05-10 | 北美日产公司 | 用于自主运载工具决策的运输网络基础设施 |
US10752249B2 (en) * | 2018-03-14 | 2020-08-25 | Toyota Research Institute, Inc. | Vehicle systems and methods for providing turn assistance at an intersection |
US11625036B2 (en) | 2018-04-09 | 2023-04-11 | SafeAl, Inc. | User interface for presenting decisions |
US10809735B2 (en) | 2018-04-09 | 2020-10-20 | SafeAI, Inc. | System and method for a framework of robust and safe reinforcement learning application in real world autonomous vehicle application |
US11467590B2 (en) | 2018-04-09 | 2022-10-11 | SafeAI, Inc. | Techniques for considering uncertainty in use of artificial intelligence models |
US11169536B2 (en) | 2018-04-09 | 2021-11-09 | SafeAI, Inc. | Analysis of scenarios for controlling vehicle operations |
US11561541B2 (en) * | 2018-04-09 | 2023-01-24 | SafeAI, Inc. | Dynamically controlling sensor behavior |
US10901416B2 (en) | 2018-07-19 | 2021-01-26 | Honda Motor Co., Ltd. | Scene creation system for autonomous vehicles and methods thereof |
US11326888B2 (en) * | 2018-07-25 | 2022-05-10 | Uatc, Llc | Generation of polar occlusion maps for autonomous vehicles |
US20210229641A1 (en) * | 2020-01-29 | 2021-07-29 | GM Global Technology Operations LLC | Determination of vehicle collision potential based on intersection scene |
US11151366B2 (en) * | 2020-01-30 | 2021-10-19 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for occluding vehicle occupant communication |
US11505202B2 (en) * | 2020-06-22 | 2022-11-22 | Gm Cruise Holdings Llc | User-assisted maintenance of autonomous vehicle fleet |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1179217A (zh) * | 1995-03-24 | 1998-04-15 | 株式会社小松制作所 | 无人驾驶自卸卡车行驶路线数据制定方法及制定装置 |
CN1882458A (zh) * | 2003-11-14 | 2006-12-20 | 大陆-特韦斯贸易合伙股份公司及两合公司 | 用于降低事故损失的方法及装置 |
CN101380951A (zh) * | 2008-10-30 | 2009-03-11 | 马抗震 | 一种机动、电动车辆自动驾驶识别系统 |
US20130151058A1 (en) * | 2011-12-09 | 2013-06-13 | GM Global Technology Operations LLC | Method and system for controlling a host vehicle |
US8489284B2 (en) * | 2008-08-21 | 2013-07-16 | International Business Machines Corporation | Automated dynamic vehicle blind spot determination |
JP2013250689A (ja) * | 2012-05-31 | 2013-12-12 | Denso Corp | 接近報知装置 |
Family Cites Families (83)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7164117B2 (en) * | 1992-05-05 | 2007-01-16 | Automotive Technologies International, Inc. | Vehicular restraint system control system and method using multiple optical imagers |
US7783403B2 (en) * | 1994-05-23 | 2010-08-24 | Automotive Technologies International, Inc. | System and method for preventing vehicular accidents |
US5587929A (en) * | 1994-09-02 | 1996-12-24 | Caterpillar Inc. | System and method for tracking objects using a detection system |
US5668675A (en) * | 1995-01-18 | 1997-09-16 | Fredricks; Ronald J. | Opto-electronic aid for alignment of exterior vehicle mirrors to minimize blind spot effects |
US6501536B1 (en) * | 1995-01-18 | 2002-12-31 | Ronald J. Fredricks | Method and apparatus for determining the location of an occupant of a vehicle |
US5926126A (en) * | 1997-09-08 | 1999-07-20 | Ford Global Technologies, Inc. | Method and system for detecting an in-path target obstacle in front of a vehicle |
AU6894100A (en) * | 1999-08-06 | 2001-03-05 | Roadrisk Technologies, Llc | Methods and apparatus for stationary object detection |
AU2001259640A1 (en) * | 2000-05-08 | 2001-11-20 | Automotive Technologies International, Inc. | Vehicular blind spot identification and monitoring system |
DE10025492A1 (de) * | 2000-05-23 | 2001-12-13 | Daimler Chrysler Ag | Verfahren und Vorrichtung zur Rückmeldung des Fahrzustands eines Fahrzeugs an den Fahrer |
JP4771602B2 (ja) | 2001-03-07 | 2011-09-14 | 本田技研工業株式会社 | オートクルーズ装置 |
US6882287B2 (en) * | 2001-07-31 | 2005-04-19 | Donnelly Corporation | Automotive lane change aid |
DE60121963T2 (de) * | 2001-10-15 | 2007-01-18 | Ford Global Technologies, LLC, Dearborn | Verfahren und Einrichtung zur Steuerung eines Fahrzeuges |
WO2003093857A2 (en) * | 2002-05-03 | 2003-11-13 | Donnelly Corporation | Object detection system for vehicle |
JP2003344539A (ja) | 2002-05-22 | 2003-12-03 | Toshiba Tec Corp | 自律走行車 |
DE10247290B4 (de) * | 2002-10-10 | 2013-04-18 | Volkswagen Ag | Verfahren und Vorrichtung zur Überwachung toter Winkel eines Kraftfahrzeugs |
KR20040091788A (ko) | 2003-04-22 | 2004-11-02 | 현대자동차주식회사 | 고속도로 자율주행 시스템 및 그의 제어방법 |
JP2006072830A (ja) * | 2004-09-03 | 2006-03-16 | Aisin Aw Co Ltd | 運転支援システム及び運転支援モジュール |
US7499774B2 (en) * | 2004-10-22 | 2009-03-03 | Irobot Corporation | System and method for processing safety signals in an autonomous vehicle |
US7720580B2 (en) * | 2004-12-23 | 2010-05-18 | Donnelly Corporation | Object detection system for vehicle |
CN101535087B (zh) * | 2005-11-01 | 2013-05-15 | 唐纳利公司 | 具有显示装置的内部后视镜 |
DE102006027114A1 (de) * | 2006-06-12 | 2007-12-13 | Robert Bosch Gmbh | Steuergerät und Verfahren zur Fahrerunterstützung |
US9037323B2 (en) * | 2006-12-01 | 2015-05-19 | General Electric Company | Method and apparatus for limiting in-train forces of a railroad train |
US9126533B2 (en) * | 2007-02-23 | 2015-09-08 | Aisin Aw Co., Ltd. | Driving support method and driving support device |
JP4345832B2 (ja) * | 2007-03-12 | 2009-10-14 | トヨタ自動車株式会社 | 道路状況検出システム |
JP4434224B2 (ja) * | 2007-03-27 | 2010-03-17 | 株式会社デンソー | 走行支援用車載装置 |
US7908060B2 (en) * | 2007-07-31 | 2011-03-15 | International Business Machines Corporation | Method and system for blind spot identification and warning utilizing portable and wearable devices |
US8645001B2 (en) * | 2007-09-04 | 2014-02-04 | International Business Machines Corporation | Method and system for blind spot identification and warning utilizing visual indicators |
JP5347257B2 (ja) * | 2007-09-26 | 2013-11-20 | 日産自動車株式会社 | 車両用周辺監視装置および映像表示方法 |
US8190355B2 (en) * | 2007-10-10 | 2012-05-29 | International Business Machines Corporation | Driving assistance and monitoring |
US20090096597A1 (en) * | 2007-10-11 | 2009-04-16 | Avery Jr Richard M | Driver interface unit |
US8031062B2 (en) * | 2008-01-04 | 2011-10-04 | Smith Alexander E | Method and apparatus to improve vehicle situational awareness at intersections |
JP4992755B2 (ja) | 2008-02-25 | 2012-08-08 | 株式会社デンソー | 交差点運転支援システム、車載器、及び、路側機 |
JP5024255B2 (ja) | 2008-09-25 | 2012-09-12 | トヨタ自動車株式会社 | 運転支援装置 |
US8126642B2 (en) | 2008-10-24 | 2012-02-28 | Gray & Company, Inc. | Control and systems for autonomously driven vehicles |
US8087791B2 (en) * | 2009-04-15 | 2012-01-03 | Toyota Motor Engineering And Manufacturing North America, Inc. | Methods and systems for adjusting the position of vehicle outside mirrors |
US8072351B1 (en) * | 2009-07-21 | 2011-12-06 | Absher Ii Charlie A | Blind spot alert apparatus |
DE102009028029A1 (de) * | 2009-07-27 | 2011-02-03 | Robert Bosch Gmbh | Verfahren zur Erhöhung der Sicherheit eines Fahrzeugs und zentrale Verarbeitungseinheit für ein Fahrerassistenzsystem |
SE535786C2 (sv) * | 2010-01-19 | 2012-12-18 | Volvo Technology Corp | System för döda vinkeln-varning |
US8924067B2 (en) * | 2010-10-12 | 2014-12-30 | Caterpillar Inc. | Autonomous machine control system |
DE102010051068A1 (de) * | 2010-11-12 | 2012-05-16 | Claas Selbstfahrende Erntemaschinen Gmbh | Landwirtschaftliche Erntemaschine |
DE102010056389A1 (de) * | 2010-12-28 | 2012-06-28 | GM Global Technology Operations LLC | Verfahren und Überwachungsvorrichtung zum Überwachen eines Anfahrvorgangs eines Kraftfahrzeugs |
US8589014B2 (en) | 2011-06-01 | 2013-11-19 | Google Inc. | Sensor field selection |
DE112011105431B4 (de) * | 2011-07-11 | 2019-05-29 | Toyota Jidosha Kabushiki Kaisha | Fahrzeug-Notfallevakuierungsvorrichtung |
DE102011115223A1 (de) * | 2011-09-24 | 2013-03-28 | Audi Ag | Verfahren zum Betrieb eines Sicherheitssystems eines Kraftfahrzeugs und Kraftfahrzeug |
JP5929093B2 (ja) | 2011-10-24 | 2016-06-01 | 日産自動車株式会社 | 車両用走行支援装置 |
US8577563B2 (en) * | 2011-11-09 | 2013-11-05 | Cnh America Llc | Initiating tractor stop and bale wrap function |
US9180882B1 (en) * | 2012-06-20 | 2015-11-10 | Google Inc. | Avoiding blind spots of other vehicles |
US9139135B2 (en) * | 2012-09-07 | 2015-09-22 | Musaid A. ASSAF | System and method that minimizes hazards of blind spots while driving |
US9221396B1 (en) * | 2012-09-27 | 2015-12-29 | Google Inc. | Cross-validating sensors of an autonomous vehicle |
US9031729B2 (en) * | 2012-11-29 | 2015-05-12 | Volkswagen Ag | Method and system for controlling a vehicle |
US9008886B2 (en) * | 2012-12-12 | 2015-04-14 | Caterpillar Inc. | Method of modifying a worksite |
WO2014107490A2 (en) * | 2013-01-01 | 2014-07-10 | Sharghi Shahriar Mokhtari | Sytstems for indicating visibility of a blind spot to a driver |
US9367065B2 (en) | 2013-01-25 | 2016-06-14 | Google Inc. | Modifying behavior of autonomous vehicles based on sensor blind spots and limitations |
DE102013102087A1 (de) * | 2013-03-04 | 2014-09-04 | Conti Temic Microelectronic Gmbh | Verfahren zum Betrieb eines Fahrerassistenzsystems eines Fahrzeugs |
US8676431B1 (en) * | 2013-03-12 | 2014-03-18 | Google Inc. | User interface for displaying object-based indications in an autonomous driving system |
US9751534B2 (en) * | 2013-03-15 | 2017-09-05 | Honda Motor Co., Ltd. | System and method for responding to driver state |
EP2799902A1 (en) * | 2013-04-30 | 2014-11-05 | Baselabs GmbH | Method and apparatus for the tracking of multiple objects |
FR3005924B1 (fr) * | 2013-05-27 | 2016-10-21 | Renault Sa | Procede de fonctionnement d'un vehicule en mode manuel et en mode autonome |
US8874301B1 (en) * | 2013-07-09 | 2014-10-28 | Ford Global Technologies, Llc | Autonomous vehicle with driver presence and physiological monitoring |
US9616887B2 (en) * | 2013-07-19 | 2017-04-11 | Nissan Motor Co., Ltd. | Driving assistance device for vehicle and driving assistance method for vehicle |
US9199667B2 (en) * | 2014-03-14 | 2015-12-01 | Mitsubishi Electric Research Laboratories, Inc. | System and method for semi-autonomous driving of vehicles |
US9507345B2 (en) * | 2014-04-10 | 2016-11-29 | Nissan North America, Inc. | Vehicle control system and method |
US9153133B1 (en) * | 2014-07-18 | 2015-10-06 | John D. Baker | Motorcycle blind spot detector |
US9533614B2 (en) * | 2014-08-18 | 2017-01-03 | Lenovo (Singapore) Pte. Ltd. | Vehicle collision avoidance modification |
JP6269840B2 (ja) * | 2014-08-21 | 2018-01-31 | 日産自動車株式会社 | 運転支援装置及び運転支援方法 |
US9997077B2 (en) * | 2014-09-04 | 2018-06-12 | Honda Motor Co., Ltd. | Vehicle operation assistance |
KR101596751B1 (ko) * | 2014-09-26 | 2016-02-23 | 현대자동차주식회사 | 운전자 맞춤형 사각 영역 표시 방법 및 장치 |
US9248834B1 (en) * | 2014-10-02 | 2016-02-02 | Google Inc. | Predicting trajectories of objects based on contextual information |
DE102014117830A1 (de) * | 2014-12-04 | 2016-06-09 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Bestimmen eines fahrerspezifischen Totwinkelfeldes für ein Fahrerassistenzsystem, Fahrerassistenzsystem sowie Kraftfahrzeug |
US10614726B2 (en) * | 2014-12-08 | 2020-04-07 | Life Long Driver, Llc | Behaviorally-based crash avoidance system |
US9649979B2 (en) * | 2015-01-29 | 2017-05-16 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle operation in view-obstructed environments |
US9493157B2 (en) * | 2015-01-29 | 2016-11-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Autonomous vehicle operation in obstructed occupant view and sensor detection environments |
DE102015207821A1 (de) * | 2015-04-28 | 2016-11-03 | Bayerische Motoren Werke Aktiengesellschaft | Längsführendes Fahrerassistenzsystem in einem Kraftfahrzeug |
US9931985B1 (en) * | 2015-05-07 | 2018-04-03 | Ambarella, Inc. | Blind-spot monitoring using machine vision and precise FOV information |
US9937795B2 (en) * | 2015-06-24 | 2018-04-10 | Nissan North America, Inc. | Vehicle operation assistance information management for autonomous vehicle control transfer |
US20160378112A1 (en) * | 2015-06-26 | 2016-12-29 | Intel Corporation | Autonomous vehicle safety systems and methods |
US9815481B2 (en) * | 2015-09-28 | 2017-11-14 | GM Global Technology Operations LLC | Vehicle-user-interaction system |
US20180043829A1 (en) * | 2016-08-10 | 2018-02-15 | Surround.IO Corporation | Method and Apparatus for Providing Automatic Mirror Setting Via Inward Facing Cameras |
JP6544320B2 (ja) * | 2016-08-26 | 2019-07-17 | トヨタ自動車株式会社 | 自動運転車両の制御システム及び制御方法 |
JP6686871B2 (ja) * | 2016-12-26 | 2020-04-22 | トヨタ自動車株式会社 | 自動運転システム |
JP6470335B2 (ja) * | 2017-03-15 | 2019-02-13 | 株式会社Subaru | 車両の表示システム及び車両の表示システムの制御方法 |
KR102347689B1 (ko) * | 2017-04-10 | 2022-01-05 | 현대자동차주식회사 | 차량의 사각존용 필러 디스플레이 장치 |
US10011216B1 (en) * | 2017-04-27 | 2018-07-03 | Toyota Motor Engineering & Manufacturing North America, Inc. | Auto turn signal initiation based on lane change and driver history |
-
2015
- 2015-01-29 US US14/609,273 patent/US9649979B2/en active Active
-
2016
- 2016-01-18 DE DE102016100729.3A patent/DE102016100729A1/de active Pending
- 2016-01-26 JP JP2016012371A patent/JP6737600B2/ja active Active
- 2016-01-28 CN CN201610056775.XA patent/CN105835874B/zh active Active
-
2017
- 2017-03-16 US US15/461,316 patent/US10591922B2/en active Active
-
2020
- 2020-03-18 JP JP2020048161A patent/JP7125443B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1179217A (zh) * | 1995-03-24 | 1998-04-15 | 株式会社小松制作所 | 无人驾驶自卸卡车行驶路线数据制定方法及制定装置 |
CN1882458A (zh) * | 2003-11-14 | 2006-12-20 | 大陆-特韦斯贸易合伙股份公司及两合公司 | 用于降低事故损失的方法及装置 |
US8489284B2 (en) * | 2008-08-21 | 2013-07-16 | International Business Machines Corporation | Automated dynamic vehicle blind spot determination |
CN101380951A (zh) * | 2008-10-30 | 2009-03-11 | 马抗震 | 一种机动、电动车辆自动驾驶识别系统 |
US20130151058A1 (en) * | 2011-12-09 | 2013-06-13 | GM Global Technology Operations LLC | Method and system for controlling a host vehicle |
JP2013250689A (ja) * | 2012-05-31 | 2013-12-12 | Denso Corp | 接近報知装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108694843A (zh) * | 2017-04-12 | 2018-10-23 | 通用汽车环球科技运作有限责任公司 | 用于交通控制设备检测优化的方法和装置 |
CN112298175A (zh) * | 2019-07-29 | 2021-02-02 | 现代自动车株式会社 | 列队行驶控制器、包括其的系统及列队行驶控制方法 |
CN112298175B (zh) * | 2019-07-29 | 2024-07-05 | 现代自动车株式会社 | 列队行驶控制器、包括其的系统及列队行驶控制方法 |
CN111959528A (zh) * | 2020-08-20 | 2020-11-20 | 广州小马智行科技有限公司 | 移动载体的显示设备的控制方法、装置与处理器 |
CN111959528B (zh) * | 2020-08-20 | 2021-11-02 | 广州小马智行科技有限公司 | 移动载体的显示设备的控制方法、装置与处理器 |
CN114379565A (zh) * | 2020-10-21 | 2022-04-22 | 辉达公司 | 用于自主和半自主驾驶应用的乘员注意力和认知负荷监测 |
US11978266B2 (en) | 2020-10-21 | 2024-05-07 | Nvidia Corporation | Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications |
Also Published As
Publication number | Publication date |
---|---|
DE102016100729A1 (de) | 2016-08-04 |
JP6737600B2 (ja) | 2020-08-12 |
US20170185088A1 (en) | 2017-06-29 |
US10591922B2 (en) | 2020-03-17 |
JP7125443B2 (ja) | 2022-08-24 |
JP2020123361A (ja) | 2020-08-13 |
JP2016157427A (ja) | 2016-09-01 |
CN105835874B (zh) | 2021-05-11 |
US20160221500A1 (en) | 2016-08-04 |
US9649979B2 (en) | 2017-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105835874A (zh) | 视野受阻环境中的自主车辆操作 | |
CN105835878A (zh) | 在乘员视野和传感器检测受阻环境中的自主车辆操作 | |
US11077850B2 (en) | Systems and methods for determining individualized driving behaviors of vehicles | |
US11056003B1 (en) | Occupant facing vehicle display | |
US10556600B2 (en) | Assessment of human driving performance using autonomous vehicles | |
KR102309575B1 (ko) | 자율 차량들에서의 승객들의 조기 탑승 | |
CA3072744C (en) | Recognizing assigned passengers for autonomous vehicles | |
KR101957943B1 (ko) | 정보 제공 방법 및 이를 위한 정보 제공 차량 | |
KR20210035296A (ko) | 이례적인 차량 이벤트를 감지 및 기록하기 위한 시스템 및 방법 | |
US9434382B1 (en) | Vehicle operation in environments with second order objects | |
CN108227703A (zh) | 信息处理装置和方法、被操作车辆及记录程序的记录介质 | |
JP2017019487A (ja) | 自律型車両の動作モード間の遷移 | |
WO2019035300A1 (ja) | 車両走行制御装置、および車両走行制御方法、並びにプログラム | |
CN106394553A (zh) | 驾驶员辅助设备及其控制方法 | |
US9875583B2 (en) | Vehicle operational data acquisition responsive to vehicle occupant voice inputs | |
KR20190031214A (ko) | 정보 제공 방법 및 이를 위한 정보 제공 차량 | |
US10911542B2 (en) | Systems and methods of incentivized data sharing | |
CA3080739C (en) | Detecting and responding to traffic redirection for autonomous vehicles | |
KR102282368B1 (ko) | 정보 제공 방법 및 이를 위한 정보 제공 차량 | |
US20240231201A9 (en) | Projected av data, hud and virtual avatar on vehicle interior | |
US20240134255A1 (en) | Projected av data, hud and virtual avatar on vehicle interior | |
KR20230167234A (ko) | 차량을 원격 제어하기 위한 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220222 Address after: Aichi Prefecture, Japan Patentee after: Toyota Motor Corp. Address before: Kentucky USA Patentee before: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH AMERICA, Inc. |
|
TR01 | Transfer of patent right |