CN107179767B - 驾驶控制装置、驾驶控制方法以及非瞬时性记录介质 - Google Patents
驾驶控制装置、驾驶控制方法以及非瞬时性记录介质 Download PDFInfo
- Publication number
- CN107179767B CN107179767B CN201710075468.0A CN201710075468A CN107179767B CN 107179767 B CN107179767 B CN 107179767B CN 201710075468 A CN201710075468 A CN 201710075468A CN 107179767 B CN107179767 B CN 107179767B
- Authority
- CN
- China
- Prior art keywords
- appearance
- map
- vehicle
- driving mode
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000001514 detection method Methods 0.000 claims abstract description 55
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 6
- 230000010354 integration Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0055—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
- G05D1/0061—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements for transition from automatic pilot to manual pilot and vice versa
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/005—Handover processes
- B60W60/0051—Handover processes from occupants to vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/005—Handover processes
- B60W60/0053—Handover processes from vehicle to occupant
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/005—Handover processes
- B60W60/0059—Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D1/00—Steering controls, i.e. means for initiating a change of direction of the vehicle
- B62D1/24—Steering controls, i.e. means for initiating a change of direction of the vehicle not vehicle-mounted
- B62D1/28—Steering controls, i.e. means for initiating a change of direction of the vehicle not vehicle-mounted non-mechanical, e.g. following a line or other known markers
- B62D1/286—Systems for interrupting non-mechanical steering due to driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D15/00—Steering not otherwise provided for
- B62D15/02—Steering position indicators ; Steering position determination; Steering aids
- B62D15/025—Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0062—Adapting control system settings
- B60W2050/007—Switching between manual and automatic parameter input, and vice versa
- B60W2050/0072—Controller asks driver to take over
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/06—Direction of travel
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/20—Road profile, i.e. the change in elevation or curvature of a plurality of continuous road segments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/60—Traffic rules, e.g. speed limits or right of way
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
Abstract
提供一种驾驶控制装置、驾驶控制方法以及非瞬时性记录介质,所述驾驶控制装置具备存储器和电路,所述电路在运行中执行包括以下的工作:将规定有可能出现物体的出现区域的物体出现映射存储在所述存储器中;检测拍摄车辆的行进方向得到的拍摄图像所包含的所述物体;基于所述物体的检测结果和所述物体出现映射,从自动驾驶所述车辆的自动驾驶模式切换为由驾驶员手动驾驶所述车辆的手动驾驶模式;通过切换后的所述手动驾驶模式控制所述车辆的驾驶。
Description
技术领域
本公开涉及通过自动驾驶车辆的自动驾驶模式、和由驾驶员手动驾驶车辆的手动驾驶模式中的某一个来控制车辆的驾驶的驾驶控制装置、驾驶控制方法以及驾驶控制程序。
背景技术
近年来,自动驾驶车辆的技术的开发取得了进展。在能够自动驾驶的车辆中,优选,在难以进行自动驾驶的环境下,不以自动驾驶车辆的自动驾驶模式来行驶,而是以由驾驶员手动驾驶车辆的手动驾驶模式来行驶。
例如,在专利文献1(美国专利第8352110号说明书)中,控制计算机判断是否能够安全地控制,在控制计算机判断为能够安全地控制的情况下进行自动驾驶,在控制计算机判断为不能够安全地控制的情况下进行手动驾驶。
发明内容
然而,在上述现有技术中,需要进一步的改善。
本公开的一个技术方案涉及的驾驶控制装置,具备第一存储器和电路,所述电路在运行中,执行包括以下的工作:将规定有可能出现物体的出现区域的物体出现映射存储在所述第一存储器中;检测拍摄车辆的行进方向得到的拍摄图像所包含的所述物体;基于所述物体的检测结果和所述物体出现映射,从自动驾驶所述车辆的自动驾驶模式切换为由驾驶员手动驾驶所述车辆的手动驾驶模式;通过切换后的所述手动驾驶模式控制所述车辆的驾驶。
此外,这些全面或具体技术方案既可以用方法、集成电路、计算机程序或计算机可读取的CD-ROM等记录介质来实现,也可以用系统、方法、集成电路、计算机程序和记录介质的任意组合来实现。
根据本公开,能够根据物体的检测精度,从自动驾驶车辆的自动驾驶模式切换为由驾驶员手动驾驶车辆的手动驾驶模式。
此外,根据本说明书和附图的公开内容可以清楚本公开的进一步的效果和优点。上述进一步的效果和优点可以通过本说明书和附图所公开的各实施方式和特征而单独提供,无需提供全部效果和优点。
附图说明
图1是表示本实施方式1涉及的车辆控制系统的构成的框图。
图2是用于说明本实施方式1中的驾驶控制装置的工作的流程图。
图3是用于说明本实施方式1中的从自动驾驶模式切换为手动驾驶模式的处理的示意图。
图4是表示本实施方式1的变形例中的拍摄图像和出现似然度映射图像的一例的图。
图5是用于说明在本实施方式1中,在出现区域内检测出本不会同时检测出的两个相同种类的物体的例子的示意图。
图6是用于说明在本实施方式1中,在出现区域内检测出本不会同时检测出的两个不同种类的物体的例子的示意图。
图7是表示本实施方式1涉及的车辆控制系统的构成的框图。
图8是用于说明本实施方式2中的驾驶控制装置的工作的流程图。
图9是表示本实施方式3涉及的车辆控制系统的构成的框图。
图10是用于说明本实施方式3中的驾驶控制装置的工作的流程图。
图11是用于说明本实施方式3中的从自动驾驶模式切换为手动驾驶模式的处理的示意图。
具体实施方式
(成为本公开的基础的见解)
如上所述,在专利文献1中,控制计算机判断是否能够安全地控制,在控制计算机判断为能够安全地控制的情况下进行自动驾驶,在控制计算机判断为不能够安全地控制的情况下进行手动驾驶。例如,如果是在过去没有行驶过的历史记录的位置,则专利文献1的控制计算机判断为不能安全地控制。另外,在检测出接近车辆的多个障碍物的情况下,控制计算机判断为不能安全地控制。
在专利文献1中,对于外部环境的状态,利用人的见解来定义了判断为不能安全地控制的条件。然而,由于根据外部环境识别障碍物的识别系统和人的判断基准不同,所以存在即使对人来说是能够简单地识别的外部环境,但对识别系统来说也是难以识别的外部环境。因此,在自动驾驶中,需要考虑识别系统相对于外部环境的状态的行为和性能。
为了解决以上问题,本公开的一个技术方案涉及的驾驶控制装置,具备第一存储器和电路,所述电路在运行中,执行包括以下的工作:将规定有可能出现物体的出现区域的物体出现映射存储在所述第一存储器中;检测拍摄车辆的行进方向得到的拍摄图像所包含的所述物体;基于所述物体的检测结果和所述物体出现映射,从自动驾驶所述车辆的自动驾驶模式切换为由驾驶员手动驾驶所述车辆的手动驾驶模式;通过切换后的所述手动驾驶模式控制所述车辆的驾驶。
根据该构成,将规定有可能出现物体的出现区域的物体出现映射存储在映射存储部中。检测拍摄车辆的行进方向得到的拍摄图像所包含的物体。基于物体的检测结果和物体出现映射,从自动驾驶模式切换为手动驾驶模式。通过切换后的手动驾驶模式来控制车辆的驾驶。
因此,由于基于物体的检测结果和规定有可能出现物体的出现区域的物体出现映射,判断是否从自动驾驶模式切换为手动驾驶模式,所以能够根据物体的检测精度,从自动驾驶车辆的自动驾驶模式切换为由驾驶员手动驾驶车辆的手动驾驶模式。
另外,在上述驾驶控制装置中,也可以与地图信息关联而管理所述物体出现映射。
根据该构成,由于与地图信息关联而管理物体出现映射,所以能够规定地图上的有可能出现物体的出现区域。
另外,也可以是,在上述驾驶控制装置中,所述工作还包括:取得所述车辆的周围的行驶环境;根据所取得的所述行驶环境,生成从与所述拍摄图像相同的视点观察所述物体出现映射得到的视点转换后的物体出现映射,所述切换包括:将所述视点转换后的物体出现映射重叠在所述拍摄图像上;在检测出所述拍摄图像所包含的所述物体的位置位于所述视点转换后的物体出现映射所包含的所述出现区域外的情况下,从所述自动驾驶模式切换为所述手动驾驶模式。
根据该构成,能取得车辆周围的行驶环境。根据所取得的行驶环境,生成从与拍摄图像相同的视点观察物体出现映射得到的视点转换后的物体出现映射。在拍摄图像上重叠视点转换后的物体出现映射,在检测出拍摄图像所包含的物体的位置位于视点转换后的物体出现映射所包含的出现区域外的情况下,从自动驾驶模式切换为手动驾驶模式。
因此,在检测出拍摄图像所包含的物体的位置位于视点转换后的物体出现映射所包含的出现区域外的情况下,能够判断为无法准确地检测物体。在该情况下,通过从自动驾驶模式切换为手动驾驶模式,能够使驾驶员驾驶车辆。
另外,也可以是,在上述驾驶控制装置中,所述地图包括用三维坐标系表示的三维地图,所述出现区域包括所述三维地图上的有可能出现所述物体的出现空间,所述生成中,将三维坐标系的所述物体出现映射转换为从与所述拍摄图像相同的视点观察到的二维坐标系的所述视点转换后的物体出现映射。
根据该构成,地图包括用三维坐标系表示的三维地图,出现区域包括三维地图上的有可能出现物体的出现空间。将三维坐标系的物体出现映射转换成从与拍摄图像相同的视点观察到的二维坐标系的视点转换后的物体出现映射。
因此,由于物体出现映射规定三维地图上的有可能出现物体的出现空间,所以能够更准确地规定有可能出现物体的出现空间的范围,能够提高从自动驾驶模式切换为手动驾驶模式的精度。
另外,也可以是,在上述驾驶控制装置中,在所述存储中,存储根据多条道路的形状分别规定了所述出现区域的、用与所述拍摄图像相同视点的二维坐标系分别表示的多个物体出现映射,所述工作还包括:取得拍摄所述车辆的行进方向得到的拍摄图像所包含的所述道路的形状;从所述多个物体出现映射之中,决定与所取得的所述道路的形状对应的一个物体出现映射。
根据该构成,映射存储部存储有根据多条道路的形状分别规定了所述出现区域的、用与所述拍摄图像相同视点的二维坐标系分别表示的多个物体出现映射。取得拍摄车辆的行进方向得到的拍摄图像所包含的道路的形状。从多个物体出现映射之中,决定与所取得的道路的形状对应的一个物体出现映射。
因此,通过将根据多条道路的形状分别规定了出现区域的、用与拍摄图像相同视点的二维坐标系分别表示的多个物体出现映射存储在存储器中而不是将地图数据存储在存储器中,能够削减存储在存储器中的数据量。
另外,也可以是,在上述驾驶控制装置中,所述地图包括用三维坐标系表示的三维地图,所述出现区域包括所述三维地图上的有可能出现所述物体的出现空间,在所述存储中,存储根据多条道路的形状分别规定了所述出现空间的、用三维坐标系分别表示的多个物体出现映射,所述工作还包括:取得拍摄所述车辆的行进方向得到的拍摄图像所包含的所述道路的形状;从所述多个物体出现映射之中,决定与所取得的所述道路的形状对应的一个物体出现映射;在决定了所述一个物体出现映射的情况下,将三维坐标系的所述一个物体出现映射转换成与所述拍摄图像相同的二维坐标系的物体出现映射。
根据该构成,地图包括用三维坐标系表示的三维地图,出现区域包括三维地图上的有可能出现物体的出现空间。映射存储部存储有根据多条道路的形状分别规定了出现空间的、用三维坐标系分别表示的多个物体出现映射。取得拍摄车辆的行进方向得到的拍摄图像所包含的道路的形状。从多个物体出现映射之中,决定与所取得的道路的形状对应的一个物体出现映射。在决定了一个物体出现映射的情况下,三维坐标系的一个物体出现映射被转换成与拍摄图像相同的二维坐标系的物体出现映射。
因此,由于多个物体出现映射分别规定三维地图上的有可能出现物体的出现空间,所以能够更准确地规定有可能出现物体的出现空间的范围,能够提高从自动驾驶模式切换为手动驾驶模式的精度。
另外,也可以是,在所述存储中,存储根据多条道路的形状分别规定了所述出现区域的、用与所述拍摄图像相同视点的二维坐标系分别表示的多个物体出现映射,所述工作还包括:根据检测出所述拍摄图像所包含的所述物体的位置,从所述多个物体出现映射之中决定一个物体出现映射;和将与所决定的所述一个物体出现映射对应的识别编号存储在所述第二存储器中,所述切换中,在预定时间内存储在所述第二存储器中的所述识别编号被切换了预定次数的情况下,从所述自动驾驶模式切换为所述手动驾驶模式。
根据该构成,映射存储部存储有根据多条道路的形状分别规定了出现区域的、用与拍摄图像相同视点的二维坐标系分别表示的多个物体出现映射。根据检测出拍摄图像所包含的物体的位置,从多个物体出现映射之中决定一个物体出现映射,将与决定了的一个物体出现映射对应的识别编号存储在识别编号存储部中。在预定时间内存储在识别编号存储部中的识别编号被切换了预定次数的情况下,从自动驾驶模式切换为手动驾驶模式。
因此,物体出现映射在短时间内变化这一情况能够判断为不能够准确地检测出物体。在该情况下,通过从自动驾驶模式切换为手动驾驶模式,能够使驾驶员驾驶车辆。
另外,也可以是,在上述驾驶控制装置中,所述物体是人物,所述出现区域是所述人物通行的区域。
根据该构成,能够根据人物的检测精度,从自动驾驶车辆的自动驾驶模式切换为由驾驶员手动驾驶车辆的手动驾驶模式。
本发明的另一技术方案涉及的驾驶控制方法,包括:检测拍摄车辆的行进方向得到的拍摄图像所包含的物体;基于所述物体的检测结果和规定有可能出现所述物体的出现区域的物体出现映射,从自动驾驶所述车辆的自动驾驶模式切换为由驾驶员手动驾驶所述车辆的手动驾驶模式;通过切换后的所述手动驾驶模式控制所述车辆的驾驶。
根据该构成,检测拍摄车辆的行进方向得到的拍摄图像所包含的物体。基于物体的检测结果和规定有可能出现物体的出现区域的物体出现映射,从自动驾驶模式切换为手动驾驶模式。利用切换后的手动驾驶模式来控制车辆的驾驶。
因此,由于基于物体的检测结果和规定有可能出现物体的出现区域的物体出现映射,判断是否从自动驾驶模式切换为手动驾驶模式,所以能够根据物体的检测精度,从自动驾驶车辆的自动驾驶模式切换为由驾驶员手动驾驶车辆的手动驾驶模式。
本发明的另一技术方案涉及的记录介质是记录了程序的计算机可读取的非瞬时性记录介质,所述程序在由计算机执行时,使计算机执行包括以下的方法:检测拍摄车辆的行进方向得到的拍摄图像所包含的物体;基于所述物体的检测结果和规定有可能出现所述物体的出现区域的物体出现映射,从自动驾驶所述车辆的自动驾驶模式切换为由驾驶员手动驾驶所述车辆的手动驾驶模式;通过切换后的所述手动驾驶模式控制所述车辆的驾驶。
根据该构成,将规定有可能出现物体的出现区域的物体出现映射存储在映射存储部中。检测拍摄车辆的行进方向得到的拍摄图像所包含的物体。基于物体的检测结果和物体出现映射,从自动驾驶模式切换为手动驾驶模式。通过切换后的手动驾驶模式来控制车辆的驾驶。
因此,由于基于物体的检测结果和规定有可能出现物体的出现区域的物体出现映射,判断是否从自动驾驶模式切换为手动驾驶模式,所以能够根据物体的检测精度,从自动驾驶车辆的自动驾驶模式切换为由驾驶员手动驾驶车辆的手动驾驶模式。
以下,参照附图说明本发明的实施方式。此外,以下的实施方式是将本发明具体化而成的一例,并不限定本发明的技术范围。
(实施方式1)
图1是表示本实施方式1涉及的车辆控制系统的构成的框图。图1所示的车辆控制系统具备驾驶控制装置1和摄像头2。驾驶控制装置1通过自动驾驶车辆的自动驾驶模式、和由驾驶员手动驾驶车辆的手动驾驶模式中的某一个来控制车辆的驾驶。此外,虽然车辆是汽车,但本公开不特别限定于此,车辆也可以是摩托车、卡车、巴士、电车以及飞行器等各种车辆。
摄像头2配置在车辆的后视镜的附近,并拍摄车辆的前方的图像。此外,也可以是,摄像头2不仅拍摄车辆的前方,还拍摄车辆的后方等车辆的行进方向的图像。
驾驶控制装置1配置在车辆上。驾驶控制装置1具备存储器3和处理器4。
存储器3是计算机可读取记录介质,例如是硬盘驱动器、ROM(Read Only Memory:只读存储器)、RAM(Random Access Memory:随机存取存储器)、光盘以及半导体存储器等。存储器3存储有由处理器4执行的驾驶控制程序。另外,存储器3具备出现似然度映射存储部13。
出现似然度映射存储部13是映射存储部的一例,并存储出现似然度映射(物体出现映射),所述出现似然度映射规定物体可能出现的出现区域。与地图信息关联而管理出现似然度映射。本实施方式1中的出现似然度映射规定有二维地图上的有可能出现物体的出现区域。此外,物体例如是人物或车辆,出现似然度映射分别单独地表示人物通行的出现区域和车辆通行的出现区域。
此外,出现似然度映射预先存储在出现似然度映射存储部13中,但本公开不特别限定于此,也可以经由未图示的通信部从服务器取得,并存储在出现似然度映射存储部13中。
另外,也可以是,根据过去的人物或车辆的检测结果,统计地算出出现似然度映射的出现区域。另外,出现似然度映射的出现区域也可以由操作人员赋予在二维地图上,例如,也可以按照道路交通法等预定规则,赋予在人物或车辆能够通行的区域。
处理器4例如是CPU(中央运算处理装置),执行存储在存储器3中的驾驶控制程序。处理器4具备物体检测部11、行驶环境取得部12、出现似然度映射生成部14、驾驶模式切换部15以及车辆控制部16。
物体检测部11检测由摄像头2拍摄车辆的行进方向得到的拍摄图像所包含的物体。物体检测部11检测由摄像头2拍摄车辆的行进方向得到的拍摄图像所包含的人物或车辆。物体检测部11例如通过向进行了机器学习的神经网络输入拍摄图像,从而检测拍摄图像所包含的人物或车辆。此外,物体检测部11的检测对象并不限定于人物或车辆。
行驶环境取得部12取得车辆周围的行驶环境。行驶环境取得部12根据由摄像头2拍摄车辆的行进方向得到的拍摄图像,识别在道路上描绘的车道,并取得正在行驶的道路的形状。另外,行驶环境取得部12根据拍摄图像识别标识和信号灯,并取得标识信息和信号灯信息。另外,行驶环境取得部12取得车辆的行进方向、车辆的速度以及车辆的当前位置。另外,行驶环境取得部12也可以利用摄像头以外的传感器(例如,LIDAR(Laser ImagingDetection and Ranging:激光成像探测与测距)),推定三维地图上的本车的位置和姿势。此外,当前位置能够从未图示的GPS(Global Positioning System:全球定位系统)取得。另外,通过利用GPS取得两个地点的位置,能够算出行进方向。
出现似然度映射生成部14是生成部的一例,根据由行驶环境取得部12取得的行驶环境,生成从与拍摄图像相同的视点观察出现似然度映射得到的出现似然度映射图像。此外,在本实施方式中,出现似然度映射生成部14生成出现似然度映射图像,但本公开不特别限定于此,也可以是,用与视点对应的二维矩阵表示出现似然度映射。出现似然度映射生成部14根据由行驶环境取得部12取得的车辆的当前位置和车辆的行进方向,能够确定正在出现似然度映射上的哪个位置向哪个方向行驶。另外,出现似然度映射生成部14根据由行驶环境取得部12取得的车道的位置,确定摄像头2的视点的位置和拍摄角度。此外,也可以是,行驶环境取得部12取得预先存储的摄像头2的视点的位置和拍摄角度。而且,出现似然度映射生成部14根据出现似然度映射上的车辆的当前位置,生成朝向行进方向并且从与拍摄图像相同的视点观察到的出现似然度映射图像。
驾驶模式切换部15是切换部的一例,基于物体的检测结果和出现似然度映射,从自动驾驶模式切换为手动驾驶模式。驾驶模式切换部15将出现似然度映射图像重叠在拍摄图像上,在拍摄图像所包含的物体被检测出的位置为出现似然度映射图像所包含的出现区域外的情况下,从自动驾驶模式切换为手动驾驶模式。
车辆控制部16利用自动驾驶车辆的自动驾驶模式、和由驾驶员手动驾驶车辆的手动驾驶模式中的某一个来控制车辆的驾驶。车辆控制部16利用由驾驶模式切换部15切换得到的手动驾驶模式来控制车辆的驾驶。
接着,说明本实施方式1中的驾驶控制装置的工作。
图2是用于说明本实施方式1中的驾驶控制装置的工作的流程图。
首先,在步骤S1中,物体检测部11检测由摄像头2拍摄车辆的行进方向得到的拍摄图像所包含的人物。此外,在以下说明中,说明检测人物的例子。物体检测部11通过图像识别检测拍摄图像所包含的人物。物体检测部11不仅检测行人,也检测骑自行车的人物。
接着,在步骤S2中,行驶环境取得部12取得车辆周围的行驶环境。如上所述,行驶环境取得部12根据由摄像头2拍摄到的拍摄图像,识别描绘在道路上的车道,并取得正在行驶的道路的形状。另外,行驶环境取得部12取得车辆的行进方向和车辆的当前位置。
接着,在步骤S3中,出现似然度映射生成部14根据由行驶环境取得部12取得的行驶环境,生成从与拍摄图像相同的视点观察出现似然度映射得到的出现似然度映射图像。
接着,在步骤S4中,驾驶模式切换部15将出现似然度映射图像重叠在拍摄图像上,并判断拍摄图像所包含的人物被检测出的位置是否为出现似然度映射图像所包含的出现区域外。在这里,当判断为人物被检测出的位置为出现区域外的情况下(在步骤S4中为是),在步骤S5中,驾驶模式切换部15从自动驾驶模式切换为手动驾驶模式。
另一方面,当判断为人物被检测出的位置不是出现区域外的情况下(在步骤S4中为否),在步骤S6中,驾驶模式切换部15维持当前的自动驾驶模式。
此外,也可以是,在手动驾驶模式时,在判断为检测出人物的位置没有位于出现区域外的情况下,驾驶模式切换部15从手动驾驶模式切换为自动驾驶模式。
另外,也可以是,在从自动驾驶模式切换为手动驾驶模式的情况下,驾驶模式切换部15向驾驶员通知从自动驾驶模式切换为手动驾驶模式这一情况。在该情况下,驾驶模式切换部15例如可以利用声音或图像来通知。进而,也可以是,驾驶模式切换部15在向驾驶员通知了从自动驾驶模式切换为手动驾驶模式这一情况之后,从自动驾驶模式切换为手动驾驶模式。
此外,在图2中,说明了按每个帧进行是否从自动驾驶模式切换为手动驾驶模式的判断的例子,但也可以是,基于多个帧的判断结果,进行是否从自动驾驶模式切换为手动驾驶模式的判断。
图3是用于说明本实施方式1中的从自动驾驶模式切换为手动驾驶模式的处理的示意图。
驾驶模式切换部15将出现似然度映射图像102重叠在拍摄图像101上。出现似然度映射图像102包括人物出现的可能性比其他区域高的出现区域103。在图3所示的例子中,出现区域103形成在车道外侧的行人用道路。此外,在图3中,出现区域103用椭圆形表示,但本公开不特别限定于此,可以是任意的形状。
在图3中,物体检测部11检测人物,并且将电线杆误检测为人物。此时,人物的检测位置111存在于出现区域103内,但电线杆的检测位置112、113存在于出现区域103外。因此,驾驶模式切换部15判断为检测出拍摄图像101所包含的人物的检测位置112、113为出现似然度映射图像102所包含的出现区域103外,从自动驾驶模式切换为手动驾驶模式。
此外,在图3中,在出现区域103外存在两个由物体检测部11检测为人物的检测位置,但在出现区域103外至少存在一个检测位置的情况下,从自动驾驶模式切换为手动驾驶模式。
这样,在人物有可能出现的出现区域103外检测出人物的情况下,由于物体检测部11很有可能没有准确地检测出人物,所以判断为按原样(在保持这样的状态下)以自动驾驶模式进行驾驶很困难,从自动驾驶模式切换为手动驾驶模式。由此,能够根据物体的检测精度,从自动驾驶车辆的自动驾驶模式切换为由驾驶员手动驾驶车辆的手动驾驶模式,并能够取代物体的检测精度低的自动驾驶模式而使驾驶员驾驶车辆。
此外,上述出现似然度映射规定有二维地图上的有可能出现物体的出现区域,但本公开不特别限定于此,出现似然度映射也可以规定三维地图上的有可能出现物体的出现空间。在该情况下,出现似然度映射生成部14根据由行驶环境取得部12取得的行驶环境,将三维坐标系的出现似然度映射转换成从与拍摄图像相同的视点观察到的二维坐标系的出现似然度映射图像。
这样,由于出现似然度映射规定三维地图上的有可能出现物体的出现空间,所以能够更准确地规定有可能出现物体的出现空间的范围,能够提高从自动驾驶模式切换为手动驾驶模式的精度。
图4是表示本实施方式1的变形例中的拍摄图像和出现似然度映射图像的一例的图。
如图4所示,出现似然度映射存储部13可以存储根据多条道路的形状分别规定了出现区域的、用与拍摄图像相同视点的二维坐标系分别表示的多个出现似然度映射图像。例如,在出现似然度映射图像102a中,在车道的两侧设定有出现区域103,在出现似然度映射图像102b中,在车道的左侧设定有出现区域103,在出现似然度映射图像102c中,在T字路的尽头部分设定有出现区域103。
在本实施方式1的变形例中,驾驶控制装置1具备出现似然度映射决定部来代替出现似然度映射生成部14。
行驶环境取得部12根据由摄像头2拍摄到的拍摄图像,识别描绘在道路上的车道,并取得拍摄车辆的行进方向得到的拍摄图像所包含的道路的形状。出现似然度映射决定部从存储于出现似然度映射存储部13的多个出现似然度映射图像之中,决定与由行驶环境取得部12取得的道路的形状对应的一个出现似然度映射图像。即,在图4中,选择了与拍摄图像101a的道路形状一致的出现似然度映射图像102a,选择了与拍摄图像101b的道路形状一致的出现似然度映射图像102b,选择了与拍摄图像101c的道路形状一致的出现似然度映射图像102c。
这样,通过将根据多条道路的形状分别规定了出现区域的、用与拍摄图像相同视点的二维坐标系分别表示的多个出现似然度映射图像存储在存储器3中而不是存储地图数据,从而能够削减存储在存储器3中的数据量。
此外,在本实施方式1中,在判断为检测出拍摄图像101所包含的人物的位置位于出现似然度映射图像102所包含的出现区域103外的情况下,从自动驾驶模式切换为手动驾驶模式,但本公开不特别限定于此,也可以是,在出现区域内检测出本不会同时检测出的两个相同种类的物体的情况下,从自动驾驶模式切换为手动驾驶模式。
图5是用于说明在本实施方式1中,在出现区域内检测出本不会同时检测出的两个相同种类的物体的例子的示意图。
在图5中,出现似然度映射图像102重叠在拍摄图像101上,物体检测部11检测出车辆。出现似然度映射图像102包括:形成在车辆的行进方向的车道131上的出现区域104a、形成在从车辆的行进方向的车道131的十字路口向左方延伸的车道132上的出现区域104b以及形成在从车辆的行进方向的车道131的十字路口向右方延伸的车道133上的出现区域104c。出现区域104a、104b、104c是有可能出现车辆的区域。
在由物体检测部11进行检测的检测位置121、122分别正确地检测出车辆,在检测位置123并不是车辆而是将车道132上的一部分误检测为车辆。
在这里,行驶环境取得部12根据由摄像头2拍摄到的拍摄图像101,识别信号灯135的颜色。其结果,行驶环境取得部12取得信号灯135的颜色为绿色这一信号灯信息。本来,由于由物体检测部11进行检测的检测位置121、122、123全部位于出现区域104a、104b内,所以驾驶模式切换部15不从自动驾驶模式切换为手动驾驶模式,维持当前的自动驾驶模式。
然而,由于由行驶环境取得部12取得的信号灯信息为绿色,所以可认为不存在从车道132进入十字路口的车辆。因此,在判断为拍摄图像101所包含的车辆的检测位置121、122、123位于出现似然度映射图像102所包含的两个出现区域104a、104b内的情况下,驾驶模式切换部15判断信号灯信息是否为绿,在判断为信号灯信息是绿的情况下,从自动驾驶模式切换为手动驾驶模式。
这样,在出现区域内检测出本不会同时检测出的两个相同种类的车辆的情况下,能够从自动驾驶模式切换为手动驾驶模式。
另外,在本实施方式1中,也可以是,在出现区域内检测出本不会同时检测出的两个不同种类的物体的情况下,从自动驾驶模式切换为手动驾驶模式。
图6是用于说明在本实施方式1中,在出现区域内检测出本不会同时检测出的两个不同种类的物体的例子的示意图。
在图6中,出现似然度映射图像102重叠在拍摄图像101上,物体检测部11检测作为两个不同种类的物体的人物和车辆。出现似然度映射图像102包括:形成在车辆的行进方向的车道131上的出现区域104a、形成在从车辆的行进方向的车道131的十字路口向左方延伸的车道132上的出现区域104b以及形成在从车辆的行进方向的车道131的十字路口向右方延伸的车道133上的出现区域104c。出现区域104a、104b、104c是有可能出现车辆的区域。
另外,出现似然度映射图像102包括形成于车道131、132、133两侧的出现区域103。出现区域103是有可能出现人物的区域。
在由物体检测部11进行检测的检测位置121、122分别正确地检测出车辆,在检测位置111不是人物而是将车道131上的一部分误检测为人物。
在这里,出现区域104a是有可能出现车辆的区域,不是有可能出现人物的区域。因此,在出现区域104a中,本不会同时检测出车辆和人物。因此,在判断为拍摄图像101所包含的车辆的检测位置121、122和人物的检测位置111位于出现似然度映射图像102所包含的车辆的出现区域104a内的情况下,驾驶模式切换部15从自动驾驶模式切换为手动驾驶模式。
这样,在出现区域内检测出本不会同时检测出的两个不同种类的车辆的情况下,能够从自动驾驶模式切换为手动驾驶模式。
(实施方式2)
在上述实施方式1中,出现似然度映射存储部13存储有规定二维地图上的有可能出现物体的出现区域的出现似然度映射,但在本实施方式2中,出现似然度映射存储部13存储有规定三维地图上的有可能出现物体的出现空间的出现似然度映射。
图7是表示本实施方式1涉及的车辆控制系统的构成的框图。图7所示的车辆控制系统具备驾驶控制装置1和摄像头2。驾驶控制装置1具备存储器3和处理器4。存储器3具备出现似然度映射存储部17。
出现似然度映射存储部17是映射存储部的一例,存储根据多条道路的形状分别规定了出现区域的、用三维坐标系分别表示的多个出现似然度映射(模型)。本实施方式2中的多个出现似然度映射规定有三维地图上的有可能出现物体的出现空间。此外,物体例如是人物或车辆,出现似然度映射分别单独地表示人物通行的出现区域和车辆通行的出现区域。另外,出现空间不是用二维空间表示,而是用三维空间表示。
此外,多个出现似然度映射预先存储在出现似然度映射存储部17中,但本公开不特别限定于此,也可以经由未图示的通信部从服务器取得,并存储在出现似然度映射存储部17中。
另外,也可以根据过去的人物或车辆的检测结果,统计地算出多个出现似然度映射的出现空间。另外,多个出现似然度映射的出现空间也可以由操作人员赋予在三维地图上,例如,也可以是,按照道路交通法等预定规则,赋予在人物或车辆能够通行的空间上。
处理器4例如是CPU,执行存储在存储器3中的驾驶控制程序。处理器4具备物体检测部11、行驶环境取得部12、出现似然度映射决定部22、驾驶模式切换部15、车辆控制部16以及坐标系转换部18。此外,在实施方式2中,对于与实施方式1相同的构成,标注相同的标号并省略说明。
出现似然度映射决定部22从存储于出现似然度映射存储部17的多个出现似然度映射之中,决定与由行驶环境取得部12取得的道路的形状对应的一个出现似然度映射。
在由出现似然度映射决定部22决定了一个出现似然度映射的情况下,坐标系转换部18将三维坐标系的一个出现似然度映射转换成与拍摄图像相同的二维坐标系的出现似然度映射图像。
接着,说明本实施方式2中的驾驶控制装置的工作。
图8是用于说明本实施方式2中的驾驶控制装置的工作的流程图。
此外,由于步骤S11~步骤S12的处理与图2所示的步骤S1~步骤S2的处理相同,所以省略说明。
接着,在步骤S13中,出现似然度映射决定部22从存储于出现似然度映射存储部17的多个出现似然度映射之中,决定与由行驶环境取得部12取得的道路的形状对应的一个出现似然度映射。
接着,在步骤S14中,坐标系转换部18将由出现似然度映射决定部22决定的三维坐标系的一个出现似然度映射转换成与拍摄图像相同的二维坐标系的出现似然度映射图像。即,由出现似然度映射决定部22决定了的一个出现似然度映射用三维坐标系表示。坐标系转换部18将用三维坐标系表示的一个出现似然度映射坐标转换成用二维视点坐标系表示的出现似然度映射图像,所述二维视点坐标系是以摄像头2的视点为基准的坐标系。
此外,由于步骤S15~步骤S17的处理与图2所示的步骤S4~步骤S6的处理相同,所以省略说明。
这样,由于有可能出现物体的出现空间不是用二维空间表示,而是用三维空间表示,所以能够更准确地规定出现空间的范围,并能够提高从自动驾驶模式切换为手动驾驶模式的精度。
(实施方式3)
在上述实施方式2中,根据行驶环境决定出现似然度映射图像,但在实施方式3中,根据检测出物体的位置决定出现似然度映射图像,在预定时间内出现似然度映射图像被切换了预定次数的情况下,从自动驾驶模式切换为手动驾驶模式。
图9是表示本实施方式3涉及的车辆控制系统的构成的框图。图9所示的车辆控制系统具备驾驶控制装置1和摄像头2。驾驶控制装置1具备存储器3和处理器4。存储器3具备出现似然度映射存储部13和识别编号存储部19。此外,在实施方式3中,对于与实施方式1相同的构成,赋予相同的标号并省略说明。
出现似然度映射存储部13存储有根据多条道路的形状规定了出现区域的、用与拍摄图像相同视点的二维坐标系分别表示的多个出现似然度映射图像。向多个出现似然度映射图像分别赋予有识别编号。
识别编号存储部19存储识别编号,所述识别编号识别由最佳出现似然度映射决定部20决定了的出现似然度映射图像。
处理器4例如是CPU,执行存储在存储器3中的驾驶控制程序。处理器4具备物体检测部11、行驶环境取得部12、车辆控制部16、最佳出现似然度映射决定部20以及驾驶模式切换部21。
最佳出现似然度映射决定部20根据检测出拍摄图像所包含的物体的位置,从多个出现似然度映射图像之中决定一个出现似然度映射图像,并将与决定了的一个出现似然度映射图像对应的识别编号存储在识别编号存储部19中。
在预定时间内,存储在识别编号存储部19中的识别编号被切换了预定次数的情况下,驾驶模式切换部21从自动驾驶模式切换为手动驾驶模式。
接着,说明本实施方式3中的驾驶控制装置的工作。
图10是用于说明本实施方式3中的驾驶控制装置的工作的流程图。
此外,由于步骤S21~步骤S22的处理与图2所示的步骤S1~步骤S2的处理相同,所以省略说明。
接着,在步骤S23中,最佳出现似然度映射决定部20根据检测出拍摄图像所包含的物体的位置,从多个出现似然度映射图像之中决定一个出现似然度映射图像。最佳出现似然度映射决定部20从多个出现似然度映射图像之中决定最佳出现似然度映射图像,所述最佳出现似然度映射图像具有与检测出物体的位置一致的出现区域。
接着,在步骤S24中,最佳出现似然度映射决定部20将决定了的最佳出现似然度映射图像的识别编号存储在识别编号存储部19中。
接着,在步骤S25中,驾驶模式切换部21判断是否正在对从最初将最佳出现似然度映射图像的识别编号存储在识别编号存储部19中起的时间进行计时。在这里,在判断为没有在计时的情况下(在步骤S25中为否),在步骤S26中,驾驶模式切换部21开始从最初将最佳出现似然度映射图像的识别编号存储在识别编号存储部19中起的时间的计时。在开始计时之后,返回至步骤S21的处理。
另一方面,在判断为正在计时的情况下(在步骤S25中为是),在步骤S27中,驾驶模式切换部21判断是否经过了预定时间。在这里,在判断为没有经过预定时间的情况下(在步骤S27中为否),返回步骤S21的处理。
另一方面,在判断为经过了预定时间的情况下(在步骤S27中为是),在步骤S28中,驾驶模式切换部21判断存储在识别编号存储部19中的识别编号是否在预定时间的期间变化了预定次数。在识别编号存储部19中,在预定时间内,累积存储由最佳出现似然度映射决定部20决定了的最佳出现似然度映射图像的识别编号。因此,在经过了预定时间时,对存储在识别编号存储部19中的识别编号的数量进行计数,由此能够算出识别编号变化了几次。
在这里,在判断为识别编号变化了预定次数的情况下(在步骤S28中为是),在步骤S29中,驾驶模式切换部21从自动驾驶模式切换为手动驾驶模式。
另一方面,在判断为识别编号没有变化预定次数的情况下(在步骤S28中为否),在步骤S30中,驾驶模式切换部21维持当前的自动驾驶模式。
图11是用于说明本实施方式3中的从自动驾驶模式切换为手动驾驶模式的处理的示意图。此外,在图11中,横轴表示时间t。
如图11所示,在时刻t0,检测出拍摄图像所包含的人物,根据检测出拍摄图像所包含的物体的位置来决定出现似然度映射图像,将决定了的最佳出现似然度映射图像的识别编号(ID:3)存储在识别编号存储部19中。然后,从时刻t0起开始时间的计时。
接着,判断是否经过了预定时间T。此外,预定时间T例如是一秒钟。在这里,在判断为没有经过预定时间T的情况下,再次检测拍摄图像所包含的人物。另一方面,在判断为经过了预定时间T的情况下,判断识别编号是否变化了预定次数。预定次数例如是两次。即,在一秒钟内出现似然度映射图像变化了两次的情况下,从自动驾驶模式切换为手动驾驶模式。
在图11中,在最初存储了识别编号(ID:3)之后,在时刻t1存储有识别编号(ID:102),在时刻t2存储有识别编号(ID:401)。因此,到经过预定时间T为止,出现似然度映射图像变化了两次。判断为到经过预定时间T为止识别编号变化了预定次数,从自动驾驶模式切换为手动驾驶模式。
出现似然度映射图像在短时间内变化这一情况能够判断为不能够准确地检测出物体。在该情况下,能够通过从自动驾驶模式切换为手动驾驶模式,使驾驶员驾驶车辆,来代替物体的检测精度低的自动驾驶模式。
在本公开中,单元、装置、部件或部的全部或一部分,或图示的框图的功能块的全部或一部分也可以利用包括半导体装置、半导体集成电路(IC)或LSI(large scaleintegration:大规模集成电路)的一个或多个电子电路来执行。LSI或IC既可以集成在一块芯片中,也可以将多块芯片组合而构成。例如,存储元件以外的功能块可以集成在一块芯片中。在这里,虽然称为LSI或IC,但根据集成程度的不同叫法也改变,也可以是称为系统LSI、VLSI(Very Large Scale Integration:超大规模集成电路)或ULSI(Ultra Large ScaleIntegration:甚超大规模集成电路)的部件。在制造LSI后被编程的、Field ProgrammableGate Array(FPGA:现场可编程门阵列),或能够进行LSI内部的接合关系的重构或LSI内部的电路划分的安装的Reconfigurable Logic Device(可重构逻辑器件)也能够以相同的目的使用。
进而,单元、装置、部件或部的全部或一部分功能或操作能够通过软件处理来执行。在该情况下,软件记录在一个或多个ROM、光盘、硬盘驱动器等非瞬时性记录介质中,在由处理装置(Processor)执行软件时,在该软件中确定的功能由处理装置(Processor)和周边装置执行。系统或装置可以具备记录有软件的一个或多个非瞬时性记录介质、处理装置(Processor:处理器)以及必要的硬件装置例如接口。
本公开涉及的驾驶控制装置、驾驶控制方法以及驾驶控制程序能够根据物体的检测精度,从自动驾驶车辆的自动驾驶模式切换为由驾驶员手动驾驶车辆的手动驾驶模式,作为利用自动驾驶模式和手动驾驶模式中的某一个来控制车辆的驾驶的驾驶控制装置、驾驶控制方法以及驾驶控制程序是有用的。
Claims (9)
1.一种驾驶控制装置,具备第一存储器和电路,
所述电路在运行中执行包括以下的工作:
将规定有可能出现物体的出现区域的物体出现映射存储在所述第一存储器中;
检测拍摄车辆的行进方向得到的拍摄图像所包含的所述物体;
基于所述物体的检测结果和所述物体出现映射,从自动驾驶所述车辆的自动驾驶模式切换为由驾驶员手动驾驶所述车辆的手动驾驶模式;
通过切换后的所述手动驾驶模式控制所述车辆的驾驶;
取得所述车辆的周围的行驶环境;
根据所取得的所述行驶环境,生成从与所述拍摄图像相同的视点观察所述物体出现映射得到的视点转换后的物体出现映射,
所述切换包括:
将所述视点转换后的物体出现映射重叠在所述拍摄图像上;
在检测出所述拍摄图像所包含的所述物体的位置位于所述视点转换后的物体出现映射所包含的所述出现区域外的情况下,从所述自动驾驶模式切换为所述手动驾驶模式。
2.根据权利要求1所述的驾驶控制装置,
与地图信息关联而管理所述物体出现映射。
3.根据权利要求1所述的驾驶控制装置,
与地图信息关联而管理所述物体出现映射,
所述地图包括用三维坐标系表示的三维地图,
所述出现区域包括所述三维地图上的有可能出现所述物体的出现空间,
所述生成中,将三维坐标系的所述物体出现映射转换为从与所述拍摄图像相同的视点观察到的二维坐标系的所述视点转换后的物体出现映射。
4.根据权利要求1所述的驾驶控制装置,
在所述存储中,存储根据多条道路的形状分别规定了所述出现区域的、用与所述拍摄图像相同视点的二维坐标系分别表示的多个物体出现映射,
所述工作还包括:
取得拍摄所述车辆的行进方向得到的拍摄图像所包含的所述道路的形状;
从所述多个物体出现映射之中,决定与所取得的所述道路的形状对应的一个物体出现映射。
5.根据权利要求1所述的驾驶控制装置,
与地图信息关联而管理所述物体出现映射,
所述地图包括用三维坐标系表示的三维地图,
所述出现区域包括所述三维地图上的有可能出现所述物体的出现空间,
在所述存储中,存储根据多条道路的形状分别规定了所述出现空间的、用三维坐标系分别表示的多个物体出现映射,
所述工作还包括:
取得拍摄所述车辆的行进方向得到的拍摄图像所包含的所述道路的形状;
从所述多个物体出现映射之中,决定与所取得的所述道路的形状对应的一个物体出现映射;
在决定了所述一个物体出现映射的情况下,将三维坐标系的所述一个物体出现映射转换成与所述拍摄图像相同的二维坐标系的物体出现映射。
6.根据权利要求1所述的驾驶控制装置,还具备第二存储器,
在所述存储中,存储根据多条道路的形状分别规定了所述出现区域的、用与所述拍摄图像相同视点的二维坐标系分别表示的多个物体出现映射,
所述工作还包括:
根据检测出所述拍摄图像所包含的所述物体的位置,从所述多个物体出现映射之中决定一个物体出现映射;
将与所决定的所述一个物体出现映射对应的识别编号存储在所述第二存储器中,
所述切换中,在预定时间内存储在所述第二存储器中的所述识别编号被切换了预定次数的情况下,从所述自动驾驶模式切换为所述手动驾驶模式。
7.根据权利要求1所述的驾驶控制装置,
所述物体是人物,
所述出现区域是所述人物通行的区域。
8.一种驾驶控制方法,包括:
检测拍摄车辆的行进方向得到的拍摄图像所包含的物体;
基于所述物体的检测结果和规定有可能出现所述物体的出现区域的物体出现映射,从自动驾驶所述车辆的自动驾驶模式切换为由驾驶员手动驾驶所述车辆的手动驾驶模式;
通过切换后的所述手动驾驶模式控制所述车辆的驾驶;
取得所述车辆的周围的行驶环境;
根据所取得的所述行驶环境,生成从与所述拍摄图像相同的视点观察所述物体出现映射得到的视点转换后的物体出现映射,
所述切换包括:
将所述视点转换后的物体出现映射重叠在所述拍摄图像上;
在检测出所述拍摄图像所包含的所述物体的位置位于所述视点转换后的物体出现映射所包含的所述出现区域外的情况下,从所述自动驾驶模式切换为所述手动驾驶模式。
9.一种记录了程序的计算机可读取的非瞬时性记录介质,
所述程序在由计算机执行时,使计算机执行包括以下的方法:
检测拍摄车辆的行进方向得到的拍摄图像所包含的物体;
基于所述物体的检测结果和规定有可能出现所述物体的出现区域的物体出现映射,从自动驾驶所述车辆的自动驾驶模式切换为由驾驶员手动驾驶所述车辆的手动驾驶模式;
通过切换后的所述手动驾驶模式控制所述车辆的驾驶;
取得所述车辆的周围的行驶环境;
根据所取得的所述行驶环境,生成从与所述拍摄图像相同的视点观察所述物体出现映射得到的视点转换后的物体出现映射,
所述切换包括:
将所述视点转换后的物体出现映射重叠在所述拍摄图像上;
在检测出所述拍摄图像所包含的所述物体的位置位于所述视点转换后的物体出现映射所包含的所述出现区域外的情况下,从所述自动驾驶模式切换为所述手动驾驶模式。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662306173P | 2016-03-10 | 2016-03-10 | |
US62/306173 | 2016-03-10 | ||
JP2016-217869 | 2016-11-08 | ||
JP2016217869A JP6795379B2 (ja) | 2016-03-10 | 2016-11-08 | 運転制御装置、運転制御方法及び運転制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107179767A CN107179767A (zh) | 2017-09-19 |
CN107179767B true CN107179767B (zh) | 2021-10-08 |
Family
ID=58448268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710075468.0A Active CN107179767B (zh) | 2016-03-10 | 2017-02-13 | 驾驶控制装置、驾驶控制方法以及非瞬时性记录介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10864906B2 (zh) |
EP (1) | EP3217318B1 (zh) |
CN (1) | CN107179767B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016027289A1 (ja) * | 2014-08-21 | 2016-02-25 | 三菱電機株式会社 | 運転支援装置、運転支援方法及びプログラム |
DE112015007054B4 (de) | 2015-11-20 | 2019-11-28 | Mitsubishi Electric Corp. | Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm |
US11048927B2 (en) * | 2017-10-24 | 2021-06-29 | Waymo Llc | Pedestrian behavior predictions for autonomous vehicles |
US11003916B2 (en) * | 2017-11-03 | 2021-05-11 | Toyota Research Institute, Inc. | Systems and methods for object historical association |
JP6660929B2 (ja) * | 2017-12-04 | 2020-03-11 | 本田技研工業株式会社 | 車両の制御装置 |
KR102496654B1 (ko) * | 2018-02-21 | 2023-02-07 | 현대자동차주식회사 | 차량의 주행모드 전환 제어 장치 및 방법, 그리고 차량 시스템 |
JP7273031B2 (ja) | 2018-04-20 | 2023-05-12 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、移動装置、情報処理システム、および方法、並びにプログラム |
CN108776472A (zh) * | 2018-05-17 | 2018-11-09 | 驭势(上海)汽车科技有限公司 | 智能驾驶控制方法及系统、车载控制设备和智能驾驶车辆 |
US11150650B2 (en) * | 2018-07-16 | 2021-10-19 | Here Global B.V. | Method, apparatus, and system for operating a vehicle based on vulnerable road user data |
JP7293648B2 (ja) * | 2018-12-21 | 2023-06-20 | トヨタ自動車株式会社 | 運転支援装置、車両、運転支援システム、及び運転支援方法 |
US11473927B2 (en) * | 2020-02-05 | 2022-10-18 | Electronic Arts Inc. | Generating positions of map items for placement on a virtual map |
JP7530694B2 (ja) * | 2021-03-26 | 2024-08-08 | パナソニックオートモーティブシステムズ株式会社 | 支援装置 |
JP2022172945A (ja) * | 2021-05-07 | 2022-11-17 | ウーブン・プラネット・ホールディングス株式会社 | 遠隔支援システム及び遠隔支援方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101876751A (zh) * | 2009-04-02 | 2010-11-03 | 通用汽车环球科技运作公司 | 在全挡风玻璃平视显示器上的车辆间通讯装置 |
CN104094177A (zh) * | 2012-01-30 | 2014-10-08 | 谷歌公司 | 基于感知不确定性的车辆控制 |
CN104290745A (zh) * | 2014-10-28 | 2015-01-21 | 奇瑞汽车股份有限公司 | 车辆用半自动驾驶系统及其方法 |
WO2015162784A1 (ja) * | 2014-04-25 | 2015-10-29 | 日産自動車株式会社 | 情報呈示装置及び情報呈示方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2487906B1 (en) | 2009-10-07 | 2020-05-27 | Panasonic Intellectual Property Management Co., Ltd. | Control device and vehicle surrounding monitoring device |
JP5316698B2 (ja) | 2010-03-16 | 2013-10-16 | トヨタ自動車株式会社 | 運転支援装置 |
US8260482B1 (en) | 2010-04-28 | 2012-09-04 | Google Inc. | User interface for displaying internal state of autonomous driving system |
RU2548649C2 (ru) * | 2010-09-06 | 2015-04-20 | Айсин Сейки Кабусики Кайся | Устройство содействия вождению |
US9142131B2 (en) | 2011-08-31 | 2015-09-22 | Nissan Motor Co., Ltd. | Vehicle driving support apparatus |
US8825258B2 (en) * | 2012-11-30 | 2014-09-02 | Google Inc. | Engaging and disengaging for autonomous driving |
US9141107B2 (en) * | 2013-04-10 | 2015-09-22 | Google Inc. | Mapping active and inactive construction zones for autonomous driving |
DE102013012777A1 (de) | 2013-07-31 | 2015-02-05 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Nutzen eines Kommunikationsendgeräts in einm Kraftfahrzeug beim aktivierten Autopiloten und Kraftfahrzeug |
EP2949548B1 (en) | 2014-05-27 | 2018-07-11 | Volvo Car Corporation | Lane keeping suppressing system and method |
JP6135618B2 (ja) * | 2014-08-08 | 2017-05-31 | トヨタ自動車株式会社 | 車両制御装置 |
US9248834B1 (en) * | 2014-10-02 | 2016-02-02 | Google Inc. | Predicting trajectories of objects based on contextual information |
US10137904B2 (en) | 2015-10-14 | 2018-11-27 | Magna Electronics Inc. | Driver assistance system with sensor offset correction |
US9958864B2 (en) * | 2015-11-04 | 2018-05-01 | Zoox, Inc. | Coordination of dispatching and maintaining fleet of autonomous vehicles |
DE102015224338B4 (de) * | 2015-12-04 | 2021-10-28 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung in einem Kraftfahrzeug zum automatisierten Fahren |
-
2017
- 2017-02-13 CN CN201710075468.0A patent/CN107179767B/zh active Active
- 2017-03-01 US US15/446,525 patent/US10864906B2/en active Active
- 2017-03-06 EP EP17159318.9A patent/EP3217318B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101876751A (zh) * | 2009-04-02 | 2010-11-03 | 通用汽车环球科技运作公司 | 在全挡风玻璃平视显示器上的车辆间通讯装置 |
CN104094177A (zh) * | 2012-01-30 | 2014-10-08 | 谷歌公司 | 基于感知不确定性的车辆控制 |
WO2015162784A1 (ja) * | 2014-04-25 | 2015-10-29 | 日産自動車株式会社 | 情報呈示装置及び情報呈示方法 |
CN104290745A (zh) * | 2014-10-28 | 2015-01-21 | 奇瑞汽车股份有限公司 | 车辆用半自动驾驶系统及其方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3217318B1 (en) | 2021-12-22 |
CN107179767A (zh) | 2017-09-19 |
US10864906B2 (en) | 2020-12-15 |
US20170259814A1 (en) | 2017-09-14 |
EP3217318A2 (en) | 2017-09-13 |
EP3217318A3 (en) | 2017-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107179767B (zh) | 驾驶控制装置、驾驶控制方法以及非瞬时性记录介质 | |
CN106485233B (zh) | 可行驶区域检测方法、装置和电子设备 | |
JP7040374B2 (ja) | 物体検出装置、車両制御システム、物体検出方法及び物体検出用コンピュータプログラム | |
JP6459659B2 (ja) | 画像処理装置、画像処理方法、運転支援システム、プログラム | |
JP6795379B2 (ja) | 運転制御装置、運転制御方法及び運転制御プログラム | |
KR20190039648A (ko) | 자동차의 블라인드 스팟 모니터링 방법 및 이를 이용한 블라인드 스팟 모니터 | |
US10643472B2 (en) | Monitor apparatus and monitor system | |
EP2928178B1 (en) | On-board control device | |
JP7135665B2 (ja) | 車両制御システム、車両の制御方法及びコンピュータプログラム | |
WO2014084121A1 (ja) | 車載用制御装置 | |
JP2008168811A (ja) | 車線認識装置、車両、車線認識方法、及び車線認識プログラム | |
US10546202B2 (en) | Proving hypotheses for a vehicle using optimal experiment design | |
JP6129268B2 (ja) | 車両用運転支援システムおよび運転支援方法 | |
CN112446283A (zh) | 驾驶辅助系统、电子设备及其操作方法 | |
JP4937844B2 (ja) | 歩行者検出装置 | |
CN113297881A (zh) | 一种目标检测方法及相关装置 | |
CN114084153A (zh) | 物体检测装置、物体检测方法以及物体检测用计算机程序 | |
KR102349906B1 (ko) | 자동차의 블라인드 스팟 모니터링을 위한 학습 방법과 테스팅 방법, 및 이를 이용한 학습 장치와 테스팅 장치 | |
EP3410345B1 (en) | Information processing apparatus and non-transitory recording medium storing thereon a computer program | |
JP2018073275A (ja) | 画像認識装置 | |
KR102414632B1 (ko) | 다중 관측정보를 이용한 고정객체의 위치 결정 방법 | |
CN114333339B (zh) | 深度神经网络功能模块去重复的方法 | |
CN114401876B (zh) | 用于预测自行车轨迹的系统和方法 | |
KR101595317B1 (ko) | 차량의 정밀 측위를 위한 노면 표시 검출 방법 및 그 시스템 | |
CN111460852A (zh) | 车载3d目标检测方法、系统及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |