CN107179767A - 驾驶控制装置、驾驶控制方法以及非瞬时性记录介质 - Google Patents

驾驶控制装置、驾驶控制方法以及非瞬时性记录介质 Download PDF

Info

Publication number
CN107179767A
CN107179767A CN201710075468.0A CN201710075468A CN107179767A CN 107179767 A CN107179767 A CN 107179767A CN 201710075468 A CN201710075468 A CN 201710075468A CN 107179767 A CN107179767 A CN 107179767A
Authority
CN
China
Prior art keywords
vehicle
manual drive
region
mapping
occur
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710075468.0A
Other languages
English (en)
Other versions
CN107179767B (zh
Inventor
藤村亮太
小冢和纪
渕上哲司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2016217869A external-priority patent/JP6795379B2/ja
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of CN107179767A publication Critical patent/CN107179767A/zh
Application granted granted Critical
Publication of CN107179767B publication Critical patent/CN107179767B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0061Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements for transition from automatic pilot to manual pilot and vice versa
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0051Handover processes from occupants to vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0059Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • B62D1/24Steering controls, i.e. means for initiating a change of direction of the vehicle not vehicle-mounted
    • B62D1/28Steering controls, i.e. means for initiating a change of direction of the vehicle not vehicle-mounted non-mechanical, e.g. following a line or other known markers
    • B62D1/286Systems for interrupting non-mechanical steering due to driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/007Switching between manual and automatic parameter input, and vice versa
    • B60W2050/0072Controller asks driver to take over
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/06Direction of travel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/20Road profile, i.e. the change in elevation or curvature of a plurality of continuous road segments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)

Abstract

提供一种驾驶控制装置、驾驶控制方法以及非瞬时性记录介质,所述驾驶控制装置具备存储器和电路,所述电路在运行中执行包括以下的工作:将规定有可能出现物体的出现区域的物体出现映射存储在所述存储器中;检测拍摄车辆的行进方向得到的拍摄图像所包含的所述物体;基于所述物体的检测结果和所述物体出现映射,从自动驾驶所述车辆的自动驾驶模式切换为由驾驶员手动驾驶所述车辆的手动驾驶模式;通过切换后的所述手动驾驶模式控制所述车辆的驾驶。

Description

驾驶控制装置、驾驶控制方法以及非瞬时性记录介质
技术领域
本公开涉及通过自动驾驶车辆的自动驾驶模式、和由驾驶员手动驾驶车辆的手动驾驶模式中的某一个来控制车辆的驾驶的驾驶控制装置、驾驶控制方法以及驾驶控制程序。
背景技术
近年来,自动驾驶车辆的技术的开发取得了进展。在能够自动驾驶的车辆中,优选,在难以进行自动驾驶的环境下,不以自动驾驶车辆的自动驾驶模式来行驶,而是以由驾驶员手动驾驶车辆的手动驾驶模式来行驶。
例如,在专利文献1(美国专利第8352110号说明书)中,控制计算机判断是否能够安全地控制,在控制计算机判断为能够安全地控制的情况下进行自动驾驶,在控制计算机判断为不能够安全地控制的情况下进行手动驾驶。
发明内容
然而,在上述现有技术中,需要进一步的改善。
本公开的一个技术方案涉及的驾驶控制装置,具备第一存储器和电路,所述电路在运行中,执行包括以下的工作:将规定有可能出现物体的出现区域的物体出现映射存储在所述第一存储器中;检测拍摄车辆的行进方向得到的拍摄图像所包含的所述物体;基于所述物体的检测结果和所述物体出现映射,从自动驾驶所述车辆的自动驾驶模式切换为由驾驶员手动驾驶所述车辆的手动驾驶模式;通过切换后的所述手动驾驶模式控制所述车辆的驾驶。
此外,这些全面或具体技术方案既可以用方法、集成电路、计算机程序或计算机可读取的CD-ROM等记录介质来实现,也可以用系统、方法、集成电路、计算机程序和记录介质的任意组合来实现。
根据本公开,能够根据物体的检测精度,从自动驾驶车辆的自动驾驶模式切换为由驾驶员手动驾驶车辆的手动驾驶模式。
此外,根据本说明书和附图的公开内容可以清楚本公开的进一步的效果和优点。上述进一步的效果和优点可以通过本说明书和附图所公开的各实施方式和特征而单独提供,无需提供全部效果和优点。
附图说明
图1是表示本实施方式1涉及的车辆控制系统的构成的框图。
图2是用于说明本实施方式1中的驾驶控制装置的工作的流程图。
图3是用于说明本实施方式1中的从自动驾驶模式切换为手动驾驶模式的处理的示意图。
图4是表示本实施方式1的变形例中的拍摄图像和出现似然度映射图像的一例的图。
图5是用于说明在本实施方式1中,在出现区域内检测出本不会同时检测出的两个相同种类的物体的例子的示意图。
图6是用于说明在本实施方式1中,在出现区域内检测出本不会同时检测出的两个不同种类的物体的例子的示意图。
图7是表示本实施方式1涉及的车辆控制系统的构成的框图。
图8是用于说明本实施方式2中的驾驶控制装置的工作的流程图。
图9是表示本实施方式3涉及的车辆控制系统的构成的框图。
图10是用于说明本实施方式3中的驾驶控制装置的工作的流程图。
图11是用于说明本实施方式3中的从自动驾驶模式切换为手动驾驶模式的处理的示意图。
具体实施方式
(成为本公开的基础的见解)
如上所述,在专利文献1中,控制计算机判断是否能够安全地控制,在控制计算机判断为能够安全地控制的情况下进行自动驾驶,在控制计算机判断为不能够安全地控制的情况下进行手动驾驶。例如,如果是在过去没有行驶过的历史记录的位置,则专利文献1的控制计算机判断为不能安全地控制。另外,在检测出接近车辆的多个障碍物的情况下,控制计算机判断为不能安全地控制。
在专利文献1中,对于外部环境的状态,利用人的见解来定义了判断为不能安全地控制的条件。然而,由于根据外部环境识别障碍物的识别系统和人的判断基准不同,所以存在即使对人来说是能够简单地识别的外部环境,但对识别系统来说也是难以识别的外部环境。因此,在自动驾驶中,需要考虑识别系统相对于外部环境的状态的行为和性能。
为了解决以上问题,本公开的一个技术方案涉及的驾驶控制装置,具备第一存储器和电路,所述电路在运行中,执行包括以下的工作:将规定有可能出现物体的出现区域的物体出现映射存储在所述第一存储器中;检测拍摄车辆的行进方向得到的拍摄图像所包含的所述物体;基于所述物体的检测结果和所述物体出现映射,从自动驾驶所述车辆的自动驾驶模式切换为由驾驶员手动驾驶所述车辆的手动驾驶模式;通过切换后的所述手动驾驶模式控制所述车辆的驾驶。
根据该构成,将规定有可能出现物体的出现区域的物体出现映射存储在映射存储部中。检测拍摄车辆的行进方向得到的拍摄图像所包含的物体。基于物体的检测结果和物体出现映射,从自动驾驶模式切换为手动驾驶模式。通过切换后的手动驾驶模式来控制车辆的驾驶。
因此,由于基于物体的检测结果和规定有可能出现物体的出现区域的物体出现映射,判断是否从自动驾驶模式切换为手动驾驶模式,所以能够根据物体的检测精度,从自动驾驶车辆的自动驾驶模式切换为由驾驶员手动驾驶车辆的手动驾驶模式。
另外,在上述驾驶控制装置中,也可以与地图信息关联而管理所述物体出现映射。
根据该构成,由于与地图信息关联而管理物体出现映射,所以能够规定地图上的有可能出现物体的出现区域。
另外,也可以是,在上述驾驶控制装置中,所述工作还包括:取得所述车辆的周围的行驶环境;根据所取得的所述行驶环境,生成从与所述拍摄图像相同的视点观察所述物体出现映射得到的视点转换后的物体出现映射,所述切换包括:将所述视点转换后的物体出现映射重叠在所述拍摄图像上;在检测出所述拍摄图像所包含的所述物体的位置位于所述视点转换后的物体出现映射所包含的所述出现区域外的情况下,从所述自动驾驶模式切换为所述手动驾驶模式。
根据该构成,能取得车辆周围的行驶环境。根据所取得的行驶环境,生成从与拍摄图像相同的视点观察物体出现映射得到的视点转换后的物体出现映射。在拍摄图像上重叠视点转换后的物体出现映射,在检测出拍摄图像所包含的物体的位置位于视点转换后的物体出现映射所包含的出现区域外的情况下,从自动驾驶模式切换为手动驾驶模式。
因此,在检测出拍摄图像所包含的物体的位置位于视点转换后的物体出现映射所包含的出现区域外的情况下,能够判断为无法准确地检测物体。在该情况下,通过从自动驾驶模式切换为手动驾驶模式,能够使驾驶员驾驶车辆。
另外,也可以是,在上述驾驶控制装置中,所述地图包括用三维坐标系表示的三维地图,所述出现区域包括所述三维地图上的有可能出现所述物体的出现空间,所述生成中,将三维坐标系的所述物体出现映射转换为从与所述拍摄图像相同的视点观察到的二维坐标系的所述视点转换后的物体出现映射。
根据该构成,地图包括用三维坐标系表示的三维地图,出现区域包括三维地图上的有可能出现物体的出现空间。将三维坐标系的物体出现映射转换成从与拍摄图像相同的视点观察到的二维坐标系的视点转换后的物体出现映射。
因此,由于物体出现映射规定三维地图上的有可能出现物体的出现空间,所以能够更准确地规定有可能出现物体的出现空间的范围,能够提高从自动驾驶模式切换为手动驾驶模式的精度。
另外,也可以是,在上述驾驶控制装置中,在所述存储中,存储根据多条道路的形状分别规定了所述出现区域的、用与所述拍摄图像相同视点的二维坐标系分别表示的多个物体出现映射,所述工作还包括:取得拍摄所述车辆的行进方向得到的拍摄图像所包含的所述道路的形状;从所述多个物体出现映射之中,决定与所取得的所述道路的形状对应的一个物体出现映射。
根据该构成,映射存储部存储有根据多条道路的形状分别规定了所述出现区域的、用与所述拍摄图像相同视点的二维坐标系分别表示的多个物体出现映射。取得拍摄车辆的行进方向得到的拍摄图像所包含的道路的形状。从多个物体出现映射之中,决定与所取得的道路的形状对应的一个物体出现映射。
因此,通过将根据多条道路的形状分别规定了出现区域的、用与拍摄图像相同视点的二维坐标系分别表示的多个物体出现映射存储在存储器中而不是将地图数据存储在存储器中,能够削减存储在存储器中的数据量。
另外,也可以是,在上述驾驶控制装置中,所述地图包括用三维坐标系表示的三维地图,所述出现区域包括所述三维地图上的有可能出现所述物体的出现空间,在所述存储中,存储根据多条道路的形状分别规定了所述出现空间的、用三维坐标系分别表示的多个物体出现映射,所述工作还包括:取得拍摄所述车辆的行进方向得到的拍摄图像所包含的所述道路的形状;从所述多个物体出现映射之中,决定与所取得的所述道路的形状对应的一个物体出现映射;在决定了所述一个物体出现映射的情况下,将三维坐标系的所述一个物体出现映射转换成与所述拍摄图像相同的二维坐标系的物体出现映射。
根据该构成,地图包括用三维坐标系表示的三维地图,出现区域包括三维地图上的有可能出现物体的出现空间。映射存储部存储有根据多条道路的形状分别规定了出现空间的、用三维坐标系分别表示的多个物体出现映射。取得拍摄车辆的行进方向得到的拍摄图像所包含的道路的形状。从多个物体出现映射之中,决定与所取得的道路的形状对应的一个物体出现映射。在决定了一个物体出现映射的情况下,三维坐标系的一个物体出现映射被转换成与拍摄图像相同的二维坐标系的物体出现映射。
因此,由于多个物体出现映射分别规定三维地图上的有可能出现物体的出现空间,所以能够更准确地规定有可能出现物体的出现空间的范围,能够提高从自动驾驶模式切换为手动驾驶模式的精度。
另外,也可以是,在所述存储中,存储根据多条道路的形状分别规定了所述出现区域的、用与所述拍摄图像相同视点的二维坐标系分别表示的多个物体出现映射,所述工作还包括:根据检测出所述拍摄图像所包含的所述物体的位置,从所述多个物体出现映射之中决定一个物体出现映射;和将与所决定的所述一个物体出现映射对应的识别编号存储在所述第二存储器中,所述切换中,在预定时间内存储在所述第二存储器中的所述识别编号被切换了预定次数的情况下,从所述自动驾驶模式切换为所述手动驾驶模式。
根据该构成,映射存储部存储有根据多条道路的形状分别规定了出现区域的、用与拍摄图像相同视点的二维坐标系分别表示的多个物体出现映射。根据检测出拍摄图像所包含的物体的位置,从多个物体出现映射之中决定一个物体出现映射,将与决定了的一个物体出现映射对应的识别编号存储在识别编号存储部中。在预定时间内存储在识别编号存储部中的识别编号被切换了预定次数的情况下,从自动驾驶模式切换为手动驾驶模式。
因此,物体出现映射在短时间内变化这一情况能够判断为不能够准确地检测出物体。在该情况下,通过从自动驾驶模式切换为手动驾驶模式,能够使驾驶员驾驶车辆。
另外,也可以是,在上述驾驶控制装置中,所述物体是人物,所述出现区域是所述人物通行的区域。
根据该构成,能够根据人物的检测精度,从自动驾驶车辆的自动驾驶模式切换为由驾驶员手动驾驶车辆的手动驾驶模式。
本发明的另一技术方案涉及的驾驶控制方法,包括:检测拍摄车辆的行进方向得到的拍摄图像所包含的物体;基于所述物体的检测结果和规定有可能出现所述物体的出现区域的物体出现映射,从自动驾驶所述车辆的自动驾驶模式切换为由驾驶员手动驾驶所述车辆的手动驾驶模式;通过切换后的所述手动驾驶模式控制所述车辆的驾驶。
根据该构成,检测拍摄车辆的行进方向得到的拍摄图像所包含的物体。基于物体的检测结果和规定有可能出现物体的出现区域的物体出现映射,从自动驾驶模式切换为手动驾驶模式。利用切换后的手动驾驶模式来控制车辆的驾驶。
因此,由于基于物体的检测结果和规定有可能出现物体的出现区域的物体出现映射,判断是否从自动驾驶模式切换为手动驾驶模式,所以能够根据物体的检测精度,从自动驾驶车辆的自动驾驶模式切换为由驾驶员手动驾驶车辆的手动驾驶模式。
本发明的另一技术方案涉及的记录介质是记录了程序的计算机可读取的非瞬时性记录介质,所述程序在由计算机执行时,使计算机执行包括以下的方法:检测拍摄车辆的行进方向得到的拍摄图像所包含的物体;基于所述物体的检测结果和规定有可能出现所述物体的出现区域的物体出现映射,从自动驾驶所述车辆的自动驾驶模式切换为由驾驶员手动驾驶所述车辆的手动驾驶模式;通过切换后的所述手动驾驶模式控制所述车辆的驾驶。
根据该构成,将规定有可能出现物体的出现区域的物体出现映射存储在映射存储部中。检测拍摄车辆的行进方向得到的拍摄图像所包含的物体。基于物体的检测结果和物体出现映射,从自动驾驶模式切换为手动驾驶模式。通过切换后的手动驾驶模式来控制车辆的驾驶。
因此,由于基于物体的检测结果和规定有可能出现物体的出现区域的物体出现映射,判断是否从自动驾驶模式切换为手动驾驶模式,所以能够根据物体的检测精度,从自动驾驶车辆的自动驾驶模式切换为由驾驶员手动驾驶车辆的手动驾驶模式。
以下,参照附图说明本发明的实施方式。此外,以下的实施方式是将本发明具体化而成的一例,并不限定本发明的技术范围。
(实施方式1)
图1是表示本实施方式1涉及的车辆控制系统的构成的框图。图1所示的车辆控制系统具备驾驶控制装置1和摄像头2。驾驶控制装置1通过自动驾驶车辆的自动驾驶模式、和由驾驶员手动驾驶车辆的手动驾驶模式中的某一个来控制车辆的驾驶。此外,虽然车辆是汽车,但本公开不特别限定于此,车辆也可以是摩托车、卡车、巴士、电车以及飞行器等各种车辆。
摄像头2配置在车辆的后视镜的附近,并拍摄车辆的前方的图像。此外,也可以是,摄像头2不仅拍摄车辆的前方,还拍摄车辆的后方等车辆的行进方向的图像。
驾驶控制装置1配置在车辆上。驾驶控制装置1具备存储器3和处理器4。
存储器3是计算机可读取记录介质,例如是硬盘驱动器、ROM(Read Only Memory:只读存储器)、RAM(Random Access Memory:随机存取存储器)、光盘以及半导体存储器等。存储器3存储有由处理器4执行的驾驶控制程序。另外,存储器3具备出现似然度映射存储部13。
出现似然度映射存储部13是映射存储部的一例,并存储出现似然度映射(物体出现映射),所述出现似然度映射规定物体可能出现的出现区域。与地图信息关联而管理出现似然度映射。本实施方式1中的出现似然度映射规定有二维地图上的有可能出现物体的出现区域。此外,物体例如是人物或车辆,出现似然度映射分别单独地表示人物通行的出现区域和车辆通行的出现区域。
此外,出现似然度映射预先存储在出现似然度映射存储部13中,但本公开不特别限定于此,也可以经由未图示的通信部从服务器取得,并存储在出现似然度映射存储部13中。
另外,也可以是,根据过去的人物或车辆的检测结果,统计地算出出现似然度映射的出现区域。另外,出现似然度映射的出现区域也可以由操作人员赋予在二维地图上,例如,也可以按照道路交通法等预定规则,赋予在人物或车辆能够通行的区域。
处理器4例如是CPU(中央运算处理装置),执行存储在存储器3中的驾驶控制程序。处理器4具备物体检测部11、行驶环境取得部12、出现似然度映射生成部14、驾驶模式切换部15以及车辆控制部16。
物体检测部11检测由摄像头2拍摄车辆的行进方向得到的拍摄图像所包含的物体。物体检测部11检测由摄像头2拍摄车辆的行进方向得到的拍摄图像所包含的人物或车辆。物体检测部11例如通过向进行了机器学习的神经网络输入拍摄图像,从而检测拍摄图像所包含的人物或车辆。此外,物体检测部11的检测对象并不限定于人物或车辆。
行驶环境取得部12取得车辆周围的行驶环境。行驶环境取得部12根据由摄像头2拍摄车辆的行进方向得到的拍摄图像,识别在道路上描绘的车道,并取得正在行驶的道路的形状。另外,行驶环境取得部12根据拍摄图像识别标识和信号灯,并取得标识信息和信号灯信息。另外,行驶环境取得部12取得车辆的行进方向、车辆的速度以及车辆的当前位置。另外,行驶环境取得部12也可以利用摄像头以外的传感器(例如,LIDAR(Laser ImagingDetection and Ranging:激光成像探测与测距)),推定三维地图上的本车的位置和姿势。此外,当前位置能够从未图示的GPS(Global Positioning System:全球定位系统)取得。另外,通过利用GPS取得两个地点的位置,能够算出行进方向。
出现似然度映射生成部14是生成部的一例,根据由行驶环境取得部12取得的行驶环境,生成从与拍摄图像相同的视点观察出现似然度映射得到的出现似然度映射图像。此外,在本实施方式中,出现似然度映射生成部14生成出现似然度映射图像,但本公开不特别限定于此,也可以是,用与视点对应的二维矩阵表示出现似然度映射。出现似然度映射生成部14根据由行驶环境取得部12取得的车辆的当前位置和车辆的行进方向,能够确定正在出现似然度映射上的哪个位置向哪个方向行驶。另外,出现似然度映射生成部14根据由行驶环境取得部12取得的车道的位置,确定摄像头2的视点的位置和拍摄角度。此外,也可以是,行驶环境取得部12取得预先存储的摄像头2的视点的位置和拍摄角度。而且,出现似然度映射生成部14根据出现似然度映射上的车辆的当前位置,生成朝向行进方向并且从与拍摄图像相同的视点观察到的出现似然度映射图像。
驾驶模式切换部15是切换部的一例,基于物体的检测结果和出现似然度映射,从自动驾驶模式切换为手动驾驶模式。驾驶模式切换部15将出现似然度映射图像重叠在拍摄图像上,在拍摄图像所包含的物体被检测出的位置为出现似然度映射图像所包含的出现区域外的情况下,从自动驾驶模式切换为手动驾驶模式。
车辆控制部16利用自动驾驶车辆的自动驾驶模式、和由驾驶员手动驾驶车辆的手动驾驶模式中的某一个来控制车辆的驾驶。车辆控制部16利用由驾驶模式切换部15切换得到的手动驾驶模式来控制车辆的驾驶。
接着,说明本实施方式1中的驾驶控制装置的工作。
图2是用于说明本实施方式1中的驾驶控制装置的工作的流程图。
首先,在步骤S1中,物体检测部11检测由摄像头2拍摄车辆的行进方向得到的拍摄图像所包含的人物。此外,在以下说明中,说明检测人物的例子。物体检测部11通过图像识别检测拍摄图像所包含的人物。物体检测部11不仅检测行人,也检测骑自行车的人物。
接着,在步骤S2中,行驶环境取得部12取得车辆周围的行驶环境。如上所述,行驶环境取得部12根据由摄像头2拍摄到的拍摄图像,识别描绘在道路上的车道,并取得正在行驶的道路的形状。另外,行驶环境取得部12取得车辆的行进方向和车辆的当前位置。
接着,在步骤S3中,出现似然度映射生成部14根据由行驶环境取得部12取得的行驶环境,生成从与拍摄图像相同的视点观察出现似然度映射得到的出现似然度映射图像。
接着,在步骤S4中,驾驶模式切换部15将出现似然度映射图像重叠在拍摄图像上,并判断拍摄图像所包含的人物被检测出的位置是否为出现似然度映射图像所包含的出现区域外。在这里,当判断为人物被检测出的位置为出现区域外的情况下(在步骤S4中为是),在步骤S5中,驾驶模式切换部15从自动驾驶模式切换为手动驾驶模式。
另一方面,当判断为人物被检测出的位置不是出现区域外的情况下(在步骤S4中为否),在步骤S6中,驾驶模式切换部15维持当前的自动驾驶模式。
此外,也可以是,在手动驾驶模式时,在判断为检测出人物的位置没有位于出现区域外的情况下,驾驶模式切换部15从手动驾驶模式切换为自动驾驶模式。
另外,也可以是,在从自动驾驶模式切换为手动驾驶模式的情况下,驾驶模式切换部15向驾驶员通知从自动驾驶模式切换为手动驾驶模式这一情况。在该情况下,驾驶模式切换部15例如可以利用声音或图像来通知。进而,也可以是,驾驶模式切换部15在向驾驶员通知了从自动驾驶模式切换为手动驾驶模式这一情况之后,从自动驾驶模式切换为手动驾驶模式。
此外,在图2中,说明了按每个帧进行是否从自动驾驶模式切换为手动驾驶模式的判断的例子,但也可以是,基于多个帧的判断结果,进行是否从自动驾驶模式切换为手动驾驶模式的判断。
图3是用于说明本实施方式1中的从自动驾驶模式切换为手动驾驶模式的处理的示意图。
驾驶模式切换部15将出现似然度映射图像102重叠在拍摄图像101上。出现似然度映射图像102包括人物出现的可能性比其他区域高的出现区域103。在图3所示的例子中,出现区域103形成在车道外侧的行人用道路。此外,在图3中,出现区域103用椭圆形表示,但本公开不特别限定于此,可以是任意的形状。
在图3中,物体检测部11检测人物,并且将电线杆误检测为人物。此时,人物的检测位置111存在于出现区域103内,但电线杆的检测位置112、113存在于出现区域103外。因此,驾驶模式切换部15判断为检测出拍摄图像101所包含的人物的检测位置112、113为出现似然度映射图像102所包含的出现区域103外,从自动驾驶模式切换为手动驾驶模式。
此外,在图3中,在出现区域103外存在两个由物体检测部11检测为人物的检测位置,但在出现区域103外至少存在一个检测位置的情况下,从自动驾驶模式切换为手动驾驶模式。
这样,在人物有可能出现的出现区域103外检测出人物的情况下,由于物体检测部11很有可能没有准确地检测出人物,所以判断为按原样(在保持这样的状态下)以自动驾驶模式进行驾驶很困难,从自动驾驶模式切换为手动驾驶模式。由此,能够根据物体的检测精度,从自动驾驶车辆的自动驾驶模式切换为由驾驶员手动驾驶车辆的手动驾驶模式,并能够取代物体的检测精度低的自动驾驶模式而使驾驶员驾驶车辆。
此外,上述出现似然度映射规定有二维地图上的有可能出现物体的出现区域,但本公开不特别限定于此,出现似然度映射也可以规定三维地图上的有可能出现物体的出现空间。在该情况下,出现似然度映射生成部14根据由行驶环境取得部12取得的行驶环境,将三维坐标系的出现似然度映射转换成从与拍摄图像相同的视点观察到的二维坐标系的出现似然度映射图像。
这样,由于出现似然度映射规定三维地图上的有可能出现物体的出现空间,所以能够更准确地规定有可能出现物体的出现空间的范围,能够提高从自动驾驶模式切换为手动驾驶模式的精度。
图4是表示本实施方式1的变形例中的拍摄图像和出现似然度映射图像的一例的图。
如图4所示,出现似然度映射存储部13可以存储根据多条道路的形状分别规定了出现区域的、用与拍摄图像相同视点的二维坐标系分别表示的多个出现似然度映射图像。例如,在出现似然度映射图像102a中,在车道的两侧设定有出现区域103,在出现似然度映射图像102b中,在车道的左侧设定有出现区域103,在出现似然度映射图像102c中,在T字路的尽头部分设定有出现区域103。
在本实施方式1的变形例中,驾驶控制装置1具备出现似然度映射决定部来代替出现似然度映射生成部14。
行驶环境取得部12根据由摄像头2拍摄到的拍摄图像,识别描绘在道路上的车道,并取得拍摄车辆的行进方向得到的拍摄图像所包含的道路的形状。出现似然度映射决定部从存储于出现似然度映射存储部13的多个出现似然度映射图像之中,决定与由行驶环境取得部12取得的道路的形状对应的一个出现似然度映射图像。即,在图4中,选择了与拍摄图像101a的道路形状一致的出现似然度映射图像102a,选择了与拍摄图像101b的道路形状一致的出现似然度映射图像102b,选择了与拍摄图像101c的道路形状一致的出现似然度映射图像102c。
这样,通过将根据多条道路的形状分别规定了出现区域的、用与拍摄图像相同视点的二维坐标系分别表示的多个出现似然度映射图像存储在存储器3中而不是存储地图数据,从而能够削减存储在存储器3中的数据量。
此外,在本实施方式1中,在判断为检测出拍摄图像101所包含的人物的位置位于出现似然度映射图像102所包含的出现区域103外的情况下,从自动驾驶模式切换为手动驾驶模式,但本公开不特别限定于此,也可以是,在出现区域内检测出本不会同时检测出的两个相同种类的物体的情况下,从自动驾驶模式切换为手动驾驶模式。
图5是用于说明在本实施方式1中,在出现区域内检测出本不会同时检测出的两个相同种类的物体的例子的示意图。
在图5中,出现似然度映射图像102重叠在拍摄图像101上,物体检测部11检测出车辆。出现似然度映射图像102包括:形成在车辆的行进方向的车道131上的出现区域104a、形成在从车辆的行进方向的车道131的十字路口向左方延伸的车道132上的出现区域104b以及形成在从车辆的行进方向的车道131的十字路口向右方延伸的车道133上的出现区域104c。出现区域104a、104b、104c是有可能出现车辆的区域。
在由物体检测部11进行检测的检测位置121、122分别正确地检测出车辆,在检测位置123并不是车辆而是将车道132上的一部分误检测为车辆。
在这里,行驶环境取得部12根据由摄像头2拍摄到的拍摄图像101,识别信号灯135的颜色。其结果,行驶环境取得部12取得信号灯135的颜色为绿色这一信号灯信息。本来,由于由物体检测部11进行检测的检测位置121、122、123全部位于出现区域104a、104b内,所以驾驶模式切换部15不从自动驾驶模式切换为手动驾驶模式,维持当前的自动驾驶模式。
然而,由于由行驶环境取得部12取得的信号灯信息为绿色,所以可认为不存在从车道132进入十字路口的车辆。因此,在判断为拍摄图像101所包含的车辆的检测位置121、122、123位于出现似然度映射图像102所包含的两个出现区域104a、104b内的情况下,驾驶模式切换部15判断信号灯信息是否为绿,在判断为信号灯信息是绿的情况下,从自动驾驶模式切换为手动驾驶模式。
这样,在出现区域内检测出本不会同时检测出的两个相同种类的车辆的情况下,能够从自动驾驶模式切换为手动驾驶模式。
另外,在本实施方式1中,也可以是,在出现区域内检测出本不会同时检测出的两个不同种类的物体的情况下,从自动驾驶模式切换为手动驾驶模式。
图6是用于说明在本实施方式1中,在出现区域内检测出本不会同时检测出的两个不同种类的物体的例子的示意图。
在图6中,出现似然度映射图像102重叠在拍摄图像101上,物体检测部11检测作为两个不同种类的物体的人物和车辆。出现似然度映射图像102包括:形成在车辆的行进方向的车道131上的出现区域104a、形成在从车辆的行进方向的车道131的十字路口向左方延伸的车道132上的出现区域104b以及形成在从车辆的行进方向的车道131的十字路口向右方延伸的车道133上的出现区域104c。出现区域104a、104b、104c是有可能出现车辆的区域。
另外,出现似然度映射图像102包括形成于车道131、132、133两侧的出现区域103。出现区域103是有可能出现人物的区域。
在由物体检测部11进行检测的检测位置121、122分别正确地检测出车辆,在检测位置111不是人物而是将车道131上的一部分误检测为人物。
在这里,出现区域104a是有可能出现车辆的区域,不是有可能出现人物的区域。因此,在出现区域104a中,本不会同时检测出车辆和人物。因此,在判断为拍摄图像101所包含的车辆的检测位置121、122和人物的检测位置111位于出现似然度映射图像102所包含的车辆的出现区域104a内的情况下,驾驶模式切换部15从自动驾驶模式切换为手动驾驶模式。
这样,在出现区域内检测出本不会同时检测出的两个不同种类的车辆的情况下,能够从自动驾驶模式切换为手动驾驶模式。
(实施方式2)
在上述实施方式1中,出现似然度映射存储部13存储有规定二维地图上的有可能出现物体的出现区域的出现似然度映射,但在本实施方式2中,出现似然度映射存储部13存储有规定三维地图上的有可能出现物体的出现空间的出现似然度映射。
图7是表示本实施方式1涉及的车辆控制系统的构成的框图。图7所示的车辆控制系统具备驾驶控制装置1和摄像头2。驾驶控制装置1具备存储器3和处理器4。存储器3具备出现似然度映射存储部17。
出现似然度映射存储部17是映射存储部的一例,存储根据多条道路的形状分别规定了出现区域的、用三维坐标系分别表示的多个出现似然度映射(模型)。本实施方式2中的多个出现似然度映射规定有三维地图上的有可能出现物体的出现空间。此外,物体例如是人物或车辆,出现似然度映射分别单独地表示人物通行的出现区域和车辆通行的出现区域。另外,出现空间不是用二维空间表示,而是用三维空间表示。
此外,多个出现似然度映射预先存储在出现似然度映射存储部17中,但本公开不特别限定于此,也可以经由未图示的通信部从服务器取得,并存储在出现似然度映射存储部17中。
另外,也可以根据过去的人物或车辆的检测结果,统计地算出多个出现似然度映射的出现空间。另外,多个出现似然度映射的出现空间也可以由操作人员赋予在三维地图上,例如,也可以是,按照道路交通法等预定规则,赋予在人物或车辆能够通行的空间上。
处理器4例如是CPU,执行存储在存储器3中的驾驶控制程序。处理器4具备物体检测部11、行驶环境取得部12、出现似然度映射决定部22、驾驶模式切换部15、车辆控制部16以及坐标系转换部18。此外,在实施方式2中,对于与实施方式1相同的构成,标注相同的标号并省略说明。
出现似然度映射决定部22从存储于出现似然度映射存储部17的多个出现似然度映射之中,决定与由行驶环境取得部12取得的道路的形状对应的一个出现似然度映射。
在由出现似然度映射决定部22决定了一个出现似然度映射的情况下,坐标系转换部18将三维坐标系的一个出现似然度映射转换成与拍摄图像相同的二维坐标系的出现似然度映射图像。
接着,说明本实施方式2中的驾驶控制装置的工作。
图8是用于说明本实施方式2中的驾驶控制装置的工作的流程图。
此外,由于步骤S11~步骤S12的处理与图2所示的步骤S1~步骤S2的处理相同,所以省略说明。
接着,在步骤S13中,出现似然度映射决定部22从存储于出现似然度映射存储部17的多个出现似然度映射之中,决定与由行驶环境取得部12取得的道路的形状对应的一个出现似然度映射。
接着,在步骤S14中,坐标系转换部18将由出现似然度映射决定部22决定的三维坐标系的一个出现似然度映射转换成与拍摄图像相同的二维坐标系的出现似然度映射图像。即,由出现似然度映射决定部22决定了的一个出现似然度映射用三维坐标系表示。坐标系转换部18将用三维坐标系表示的一个出现似然度映射坐标转换成用二维视点坐标系表示的出现似然度映射图像,所述二维视点坐标系是以摄像头2的视点为基准的坐标系。
此外,由于步骤S15~步骤S17的处理与图2所示的步骤S4~步骤S6的处理相同,所以省略说明。
这样,由于有可能出现物体的出现空间不是用二维空间表示,而是用三维空间表示,所以能够更准确地规定出现空间的范围,并能够提高从自动驾驶模式切换为手动驾驶模式的精度。
(实施方式3)
在上述实施方式2中,根据行驶环境决定出现似然度映射图像,但在实施方式3中,根据检测出物体的位置决定出现似然度映射图像,在预定时间内出现似然度映射图像被切换了预定次数的情况下,从自动驾驶模式切换为手动驾驶模式。
图9是表示本实施方式3涉及的车辆控制系统的构成的框图。图9所示的车辆控制系统具备驾驶控制装置1和摄像头2。驾驶控制装置1具备存储器3和处理器4。存储器3具备出现似然度映射存储部13和识别编号存储部19。此外,在实施方式3中,对于与实施方式1相同的构成,赋予相同的标号并省略说明。
出现似然度映射存储部13存储有根据多条道路的形状规定了出现区域的、用与拍摄图像相同视点的二维坐标系分别表示的多个出现似然度映射图像。向多个出现似然度映射图像分别赋予有识别编号。
识别编号存储部19存储识别编号,所述识别编号识别由最佳出现似然度映射决定部20决定了的出现似然度映射图像。
处理器4例如是CPU,执行存储在存储器3中的驾驶控制程序。处理器4具备物体检测部11、行驶环境取得部12、车辆控制部16、最佳出现似然度映射决定部20以及驾驶模式切换部21。
最佳出现似然度映射决定部20根据检测出拍摄图像所包含的物体的位置,从多个出现似然度映射图像之中决定一个出现似然度映射图像,并将与决定了的一个出现似然度映射图像对应的识别编号存储在识别编号存储部19中。
在预定时间内,存储在识别编号存储部19中的识别编号被切换了预定次数的情况下,驾驶模式切换部21从自动驾驶模式切换为手动驾驶模式。
接着,说明本实施方式3中的驾驶控制装置的工作。
图10是用于说明本实施方式3中的驾驶控制装置的工作的流程图。
此外,由于步骤S21~步骤S22的处理与图2所示的步骤S1~步骤S2的处理相同,所以省略说明。
接着,在步骤S23中,最佳出现似然度映射决定部20根据检测出拍摄图像所包含的物体的位置,从多个出现似然度映射图像之中决定一个出现似然度映射图像。最佳出现似然度映射决定部20从多个出现似然度映射图像之中决定最佳出现似然度映射图像,所述最佳出现似然度映射图像具有与检测出物体的位置一致的出现区域。
接着,在步骤S24中,最佳出现似然度映射决定部20将决定了的最佳出现似然度映射图像的识别编号存储在识别编号存储部19中。
接着,在步骤S25中,驾驶模式切换部21判断是否正在对从最初将最佳出现似然度映射图像的识别编号存储在识别编号存储部19中起的时间进行计时。在这里,在判断为没有在计时的情况下(在步骤S25中为否),在步骤S26中,驾驶模式切换部21开始从最初将最佳出现似然度映射图像的识别编号存储在识别编号存储部19中起的时间的计时。在开始计时之后,返回至步骤S21的处理。
另一方面,在判断为正在计时的情况下(在步骤S25中为是),在步骤S27中,驾驶模式切换部21判断是否经过了预定时间。在这里,在判断为没有经过预定时间的情况下(在步骤S27中为否),返回步骤S21的处理。
另一方面,在判断为经过了预定时间的情况下(在步骤S27中为是),在步骤S28中,驾驶模式切换部21判断存储在识别编号存储部19中的识别编号是否在预定时间的期间变化了预定次数。在识别编号存储部19中,在预定时间内,累积存储由最佳出现似然度映射决定部20决定了的最佳出现似然度映射图像的识别编号。因此,在经过了预定时间时,对存储在识别编号存储部19中的识别编号的数量进行计数,由此能够算出识别编号变化了几次。
在这里,在判断为识别编号变化了预定次数的情况下(在步骤S28中为是),在步骤S29中,驾驶模式切换部21从自动驾驶模式切换为手动驾驶模式。
另一方面,在判断为识别编号没有变化预定次数的情况下(在步骤S28中为否),在步骤S30中,驾驶模式切换部21维持当前的自动驾驶模式。
图11是用于说明本实施方式3中的从自动驾驶模式切换为手动驾驶模式的处理的示意图。此外,在图11中,横轴表示时间t。
如图11所示,在时刻t0,检测出拍摄图像所包含的人物,根据检测出拍摄图像所包含的物体的位置来决定出现似然度映射图像,将决定了的最佳出现似然度映射图像的识别编号(ID:3)存储在识别编号存储部19中。然后,从时刻t0起开始时间的计时。
接着,判断是否经过了预定时间T。此外,预定时间T例如是一秒钟。在这里,在判断为没有经过预定时间T的情况下,再次检测拍摄图像所包含的人物。另一方面,在判断为经过了预定时间T的情况下,判断识别编号是否变化了预定次数。预定次数例如是两次。即,在一秒钟内出现似然度映射图像变化了两次的情况下,从自动驾驶模式切换为手动驾驶模式。
在图11中,在最初存储了识别编号(ID:3)之后,在时刻t1存储有识别编号(ID:102),在时刻t2存储有识别编号(ID:401)。因此,到经过预定时间T为止,出现似然度映射图像变化了两次。判断为到经过预定时间T为止识别编号变化了预定次数,从自动驾驶模式切换为手动驾驶模式。
出现似然度映射图像在短时间内变化这一情况能够判断为不能够准确地检测出物体。在该情况下,能够通过从自动驾驶模式切换为手动驾驶模式,使驾驶员驾驶车辆,来代替物体的检测精度低的自动驾驶模式。
在本公开中,单元、装置、部件或部的全部或一部分,或图示的框图的功能块的全部或一部分也可以利用包括半导体装置、半导体集成电路(IC)或LSI(large scaleintegration:大规模集成电路)的一个或多个电子电路来执行。LSI或IC既可以集成在一块芯片中,也可以将多块芯片组合而构成。例如,存储元件以外的功能块可以集成在一块芯片中。在这里,虽然称为LSI或IC,但根据集成程度的不同叫法也改变,也可以是称为系统LSI、VLSI(Very Large Scale Integration:超大规模集成电路)或ULSI(Ultra Large ScaleIntegration:甚超大规模集成电路)的部件。在制造LSI后被编程的、Field ProgrammableGate Array(FPGA:现场可编程门阵列),或能够进行LSI内部的接合关系的重构或LSI内部的电路划分的安装的Reconfigurable Logic Device(可重构逻辑器件)也能够以相同的目的使用。
进而,单元、装置、部件或部的全部或一部分功能或操作能够通过软件处理来执行。在该情况下,软件记录在一个或多个ROM、光盘、硬盘驱动器等非瞬时性记录介质中,在由处理装置(Processor)执行软件时,在该软件中确定的功能由处理装置(Processor)和周边装置执行。系统或装置可以具备记录有软件的一个或多个非瞬时性记录介质、处理装置(Processor:处理器)以及必要的硬件装置例如接口。
本公开涉及的驾驶控制装置、驾驶控制方法以及驾驶控制程序能够根据物体的检测精度,从自动驾驶车辆的自动驾驶模式切换为由驾驶员手动驾驶车辆的手动驾驶模式,作为利用自动驾驶模式和手动驾驶模式中的某一个来控制车辆的驾驶的驾驶控制装置、驾驶控制方法以及驾驶控制程序是有用的。

Claims (10)

1.一种驾驶控制装置,具备第一存储器和电路,
所述电路在运行中执行包括以下的工作:
将规定有可能出现物体的出现区域的物体出现映射存储在所述第一存储器中;
检测拍摄车辆的行进方向得到的拍摄图像所包含的所述物体;
基于所述物体的检测结果和所述物体出现映射,从自动驾驶所述车辆的自动驾驶模式切换为由驾驶员手动驾驶所述车辆的手动驾驶模式;
通过切换后的所述手动驾驶模式控制所述车辆的驾驶。
2.根据权利要求1所述的驾驶控制装置,
与地图信息关联而管理所述物体出现映射。
3.根据权利要求1所述的驾驶控制装置,
所述工作还包括:
取得所述车辆的周围的行驶环境;
根据所取得的所述行驶环境,生成从与所述拍摄图像相同的视点观察所述物体出现映射得到的视点转换后的物体出现映射,
所述切换包括:
将所述视点转换后的物体出现映射重叠在所述拍摄图像上;
在检测出所述拍摄图像所包含的所述物体的位置位于所述视点转换后的物体出现映射所包含的所述出现区域外的情况下,从所述自动驾驶模式切换为所述手动驾驶模式。
4.根据权利要求3所述的驾驶控制装置,
与地图信息关联而管理所述物体出现映射,
所述地图包括用三维坐标系表示的三维地图,
所述出现区域包括所述三维地图上的有可能出现所述物体的出现空间,
所述生成中,将三维坐标系的所述物体出现映射转换为从与所述拍摄图像相同的视点观察到的二维坐标系的所述视点转换后的物体出现映射。
5.根据权利要求1所述的驾驶控制装置,
在所述存储中,存储根据多条道路的形状分别规定了所述出现区域的、用与所述拍摄图像相同视点的二维坐标系分别表示的多个物体出现映射,
所述工作还包括:
取得拍摄所述车辆的行进方向得到的拍摄图像所包含的所述道路的形状;
从所述多个物体出现映射之中,决定与所取得的所述道路的形状对应的一个物体出现映射。
6.根据权利要求1所述的驾驶控制装置,
与地图信息关联而管理所述物体出现映射,
所述地图包括用三维坐标系表示的三维地图,
所述出现区域包括所述三维地图上的有可能出现所述物体的出现空间,
在所述存储中,存储根据多条道路的形状分别规定了所述出现空间的、用三维坐标系分别表示的多个物体出现映射,
所述工作还包括:
取得拍摄所述车辆的行进方向得到的拍摄图像所包含的所述道路的形状;
从所述多个物体出现映射之中,决定与所取得的所述道路的形状对应的一个物体出现映射;
在决定了所述一个物体出现映射的情况下,将三维坐标系的所述一个物体出现映射转换成与所述拍摄图像相同的二维坐标系的物体出现映射。
7.根据权利要求1所述的驾驶控制装置,还具备第二存储器,
在所述存储中,存储根据多条道路的形状分别规定了所述出现区域的、用与所述拍摄图像相同视点的二维坐标系分别表示的多个物体出现映射,
所述工作还包括:
根据检测出所述拍摄图像所包含的所述物体的位置,从所述多个物体出现映射之中决定一个物体出现映射;
将与所决定的所述一个物体出现映射对应的识别编号存储在所述第二存储器中,
所述切换中,在预定时间内存储在所述第二存储器中的所述识别编号被切换了预定次数的情况下,从所述自动驾驶模式切换为所述手动驾驶模式。
8.根据权利要求1所述的驾驶控制装置,
所述物体是人物,
所述出现区域是所述人物通行的区域。
9.一种驾驶控制方法,包括:
检测拍摄车辆的行进方向得到的拍摄图像所包含的物体;
基于所述物体的检测结果和规定有可能出现所述物体的出现区域的物体出现映射,从自动驾驶所述车辆的自动驾驶模式切换为由驾驶员手动驾驶所述车辆的手动驾驶模式;
通过切换后的所述手动驾驶模式控制所述车辆的驾驶。
10.一种记录了程序的计算机可读取的非瞬时性记录介质,
所述程序在由计算机执行时,使计算机执行包括以下的方法:
检测拍摄车辆的行进方向得到的拍摄图像所包含的物体;
基于所述物体的检测结果和规定有可能出现所述物体的出现区域的物体出现映射,从自动驾驶所述车辆的自动驾驶模式切换为由驾驶员手动驾驶所述车辆的手动驾驶模式;
通过切换后的所述手动驾驶模式控制所述车辆的驾驶。
CN201710075468.0A 2016-03-10 2017-02-13 驾驶控制装置、驾驶控制方法以及非瞬时性记录介质 Active CN107179767B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662306173P 2016-03-10 2016-03-10
US62/306173 2016-03-10
JP2016-217869 2016-11-08
JP2016217869A JP6795379B2 (ja) 2016-03-10 2016-11-08 運転制御装置、運転制御方法及び運転制御プログラム

Publications (2)

Publication Number Publication Date
CN107179767A true CN107179767A (zh) 2017-09-19
CN107179767B CN107179767B (zh) 2021-10-08

Family

ID=58448268

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710075468.0A Active CN107179767B (zh) 2016-03-10 2017-02-13 驾驶控制装置、驾驶控制方法以及非瞬时性记录介质

Country Status (3)

Country Link
US (1) US10864906B2 (zh)
EP (1) EP3217318B1 (zh)
CN (1) CN107179767B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108776472A (zh) * 2018-05-17 2018-11-09 驭势(上海)汽车科技有限公司 智能驾驶控制方法及系统、车载控制设备和智能驾驶车辆
CN111422199A (zh) * 2018-12-21 2020-07-17 丰田自动车株式会社 驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统及驾驶辅助方法
CN111989729A (zh) * 2018-04-20 2020-11-24 索尼半导体解决方案公司 信息处理装置、移动装置、信息处理系统、方法和程序
CN115311877A (zh) * 2021-05-07 2022-11-08 欧温星球控股股份有限公司 远程支援系统以及远程支援方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106573588B (zh) * 2014-08-21 2019-01-25 三菱电机株式会社 驾驶辅助装置、驾驶辅助方法和程序
DE112015007054B4 (de) 2015-11-20 2019-11-28 Mitsubishi Electric Corp. Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm
US11048927B2 (en) 2017-10-24 2021-06-29 Waymo Llc Pedestrian behavior predictions for autonomous vehicles
US11003916B2 (en) * 2017-11-03 2021-05-11 Toyota Research Institute, Inc. Systems and methods for object historical association
JP6660929B2 (ja) * 2017-12-04 2020-03-11 本田技研工業株式会社 車両の制御装置
KR102496654B1 (ko) * 2018-02-21 2023-02-07 현대자동차주식회사 차량의 주행모드 전환 제어 장치 및 방법, 그리고 차량 시스템
US11150650B2 (en) * 2018-07-16 2021-10-19 Here Global B.V. Method, apparatus, and system for operating a vehicle based on vulnerable road user data
US11473927B2 (en) * 2020-02-05 2022-10-18 Electronic Arts Inc. Generating positions of map items for placement on a virtual map
JP7530694B2 (ja) * 2021-03-26 2024-08-08 パナソニックオートモーティブシステムズ株式会社 支援装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101876751A (zh) * 2009-04-02 2010-11-03 通用汽车环球科技运作公司 在全挡风玻璃平视显示器上的车辆间通讯装置
CN103079902A (zh) * 2010-09-06 2013-05-01 爱信精机株式会社 驾驶支援装置
CN104094177A (zh) * 2012-01-30 2014-10-08 谷歌公司 基于感知不确定性的车辆控制
CN104290745A (zh) * 2014-10-28 2015-01-21 奇瑞汽车股份有限公司 车辆用半自动驾驶系统及其方法
CN104837705A (zh) * 2012-11-30 2015-08-12 谷歌公司 启用和停用自动驾驶
WO2015162784A1 (ja) * 2014-04-25 2015-10-29 日産自動車株式会社 情報呈示装置及び情報呈示方法
CN105365823A (zh) * 2014-08-08 2016-03-02 丰田自动车株式会社 车辆控制装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5143235B2 (ja) 2009-10-07 2013-02-13 パナソニック株式会社 制御装置および車両周囲監視装置
WO2011114442A1 (ja) 2010-03-16 2011-09-22 トヨタ自動車株式会社 運転支援装置
US8260482B1 (en) 2010-04-28 2012-09-04 Google Inc. User interface for displaying internal state of autonomous driving system
WO2013031095A1 (ja) 2011-08-31 2013-03-07 日産自動車株式会社 車両運転支援装置
US9141107B2 (en) * 2013-04-10 2015-09-22 Google Inc. Mapping active and inactive construction zones for autonomous driving
DE102013012777A1 (de) 2013-07-31 2015-02-05 Valeo Schalter Und Sensoren Gmbh Verfahren zum Nutzen eines Kommunikationsendgeräts in einm Kraftfahrzeug beim aktivierten Autopiloten und Kraftfahrzeug
EP2949548B1 (en) 2014-05-27 2018-07-11 Volvo Car Corporation Lane keeping suppressing system and method
US9248834B1 (en) * 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
US10137904B2 (en) 2015-10-14 2018-11-27 Magna Electronics Inc. Driver assistance system with sensor offset correction
US9958864B2 (en) * 2015-11-04 2018-05-01 Zoox, Inc. Coordination of dispatching and maintaining fleet of autonomous vehicles
DE102015224338B4 (de) * 2015-12-04 2021-10-28 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung in einem Kraftfahrzeug zum automatisierten Fahren

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101876751A (zh) * 2009-04-02 2010-11-03 通用汽车环球科技运作公司 在全挡风玻璃平视显示器上的车辆间通讯装置
CN103079902A (zh) * 2010-09-06 2013-05-01 爱信精机株式会社 驾驶支援装置
CN104094177A (zh) * 2012-01-30 2014-10-08 谷歌公司 基于感知不确定性的车辆控制
CN104837705A (zh) * 2012-11-30 2015-08-12 谷歌公司 启用和停用自动驾驶
WO2015162784A1 (ja) * 2014-04-25 2015-10-29 日産自動車株式会社 情報呈示装置及び情報呈示方法
CN105365823A (zh) * 2014-08-08 2016-03-02 丰田自动车株式会社 车辆控制装置
CN104290745A (zh) * 2014-10-28 2015-01-21 奇瑞汽车股份有限公司 车辆用半自动驾驶系统及其方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111989729A (zh) * 2018-04-20 2020-11-24 索尼半导体解决方案公司 信息处理装置、移动装置、信息处理系统、方法和程序
CN111989729B (zh) * 2018-04-20 2022-12-06 索尼半导体解决方案公司 信息处理装置、移动装置、信息处理系统、方法和程序
US11572085B2 (en) 2018-04-20 2023-02-07 Sony Semiconductor Solutions Corporation Information processing device, mobile device, information processing system, and method
CN108776472A (zh) * 2018-05-17 2018-11-09 驭势(上海)汽车科技有限公司 智能驾驶控制方法及系统、车载控制设备和智能驾驶车辆
CN111422199A (zh) * 2018-12-21 2020-07-17 丰田自动车株式会社 驾驶辅助装置、车辆、信息提供装置、驾驶辅助系统及驾驶辅助方法
CN115311877A (zh) * 2021-05-07 2022-11-08 欧温星球控股股份有限公司 远程支援系统以及远程支援方法

Also Published As

Publication number Publication date
EP3217318A2 (en) 2017-09-13
EP3217318B1 (en) 2021-12-22
US20170259814A1 (en) 2017-09-14
EP3217318A3 (en) 2017-11-22
US10864906B2 (en) 2020-12-15
CN107179767B (zh) 2021-10-08

Similar Documents

Publication Publication Date Title
CN107179767A (zh) 驾驶控制装置、驾驶控制方法以及非瞬时性记录介质
US10949684B2 (en) Vehicle image verification
CN107176161B (zh) 识别结果提示装置、识别结果提示方法以及自主移动体
JP6322268B2 (ja) 車両用のマップデータを確定するためのシステム及び方法
US11370422B2 (en) Method and system in a vehicle for improving prediction results of an advantageous driver assistant system
KR102373487B1 (ko) 최근 주행 경로에 대한 궤적 기반 행동 분석을 수행하여 차량의 모드를 수동 주행 모드에서 자율 주행 모드로 변경할 지 여부를 판단하는 학습 방법 및 학습 장치
JP6788477B2 (ja) 認識結果提示装置及び認識結果提示方法
CN108073950A (zh) 识别方法、识别装置、识别器生成方法以及识别器生成装置
JP7546359B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN107298021A (zh) 信息提示控制装置、自动驾驶车及其驾驶辅助系统
CN108496178A (zh) 用于估计未来路径的系统和方法
CN104660980B (zh) 车载图像处理装置和半导体装置
CN109813328A (zh) 一种驾驶路径规划方法、装置及车辆
JP2017159881A (ja) 認識結果提示装置、認識結果提示方法及び自律移動体
JP2019509552A (ja) コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出
CN105835878A (zh) 在乘员视野和传感器检测受阻环境中的自主车辆操作
US20210374904A1 (en) Depth-guided video inpainting for autonomous driving
JP2009037622A (ja) 画像を評価するための方法および装置
JP6795379B2 (ja) 運転制御装置、運転制御方法及び運転制御プログラム
US20200023841A1 (en) Information processing apparatus, information processing method and computer readable recording medium for recording information processing program
KR20060134944A (ko) 차량의 주행 상황과 교통 상황의 기록 장치 및 기록평가방법
US20180118107A1 (en) Vehicle and control method thereof
KR20200126365A (ko) 조정된 투영면을 포함하는 서라운드뷰 시스템
CN108039084A (zh) 基于虚拟现实的汽车视野评价方法及系统
CN110371123A (zh) 车辆控制装置、车辆控制方法及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant