CN108116410A - 用于控制车辆的速度的方法和设备 - Google Patents

用于控制车辆的速度的方法和设备 Download PDF

Info

Publication number
CN108116410A
CN108116410A CN201710979163.2A CN201710979163A CN108116410A CN 108116410 A CN108116410 A CN 108116410A CN 201710979163 A CN201710979163 A CN 201710979163A CN 108116410 A CN108116410 A CN 108116410A
Authority
CN
China
Prior art keywords
vehicle
terminal
image
distance
visual range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710979163.2A
Other languages
English (en)
Other versions
CN108116410B (zh
Inventor
李宰雨
李东昱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN108116410A publication Critical patent/CN108116410A/zh
Application granted granted Critical
Publication of CN108116410B publication Critical patent/CN108116410B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/143Speed control
    • B60W30/146Speed limiting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/76Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • B60W2050/0083Setting, resetting, calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/04Vehicle stop
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/215Selection or confirmation of options
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Geometry (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)
  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Vehicle Engines Or Engines For Specific Uses (AREA)

Abstract

提供一种用于控制车辆的速度的方法和设备。所述用于控制车辆的速度的方法包括:从输入图像提取道路区域的终点;测量与所述终点对应的终点位置和车辆的位置之间的可视距离;基于测量的可视距离,控制车辆的速度。

Description

用于控制车辆的速度的方法和设备
本申请要求于2016年11月29日提交到韩国知识产权局的第10-2016-0160673号韩国专利申请的权益,该韩国专利申请的全部公开出于所有目的通过引用包含于此。
技术领域
下面的描述涉及控制车辆的速度的技术。
背景技术
自动驾驶包括在驾驶车辆时所需的各种操作的自动执行。例如,执行自动驾驶的主车辆在没有驾驶员控制方向盘、加速器和制动器的情况下自己在道路上行驶。通过从车辆获得的附近图像信息来执行用于自动驾驶的各种技术。特别地,尽管从车辆捕获的前方视野的图像检测自动驾驶的车道,但是由于车辆的附近的地形、恶劣天气(诸如,雪、雨和雾)和道路形状,通过车辆采集到有限范围的信息。
发明内容
提供本发明内容从而以简化的形式介绍在下面的具体实施方式中进一步描述的对构思的选择。本发明内容不意在标识所要求保护的主题的关键特征或必要特征,也不意在用于帮助确定所要求保护的主题的范围。
在一个总体方面,一种用于控制车辆的速度的方法包括:从输入图像提取道路区域的终点;测量与所述终点对应的终点位置和车辆的位置之间的可视距离;基于测量的可视距离,控制车辆的速度。
提取道路区域的终点的步骤可包括:从输入图像辨识车道线;基于车道线从道路区域提取驾驶车道区域;提取所提取的驾驶车道区域的终点作为道路区域的终点。
提取道路区域的终点的步骤可包括:从输入图像辨识道路区域;提取包括在道路区域中的多个像素之中的距输入图像中的车辆的一侧最远距离处的像素作为所述终点。
提取道路区域的终点的步骤可包括:从输入图像辨识道路区域和道路区域上的中心线;提取包括在中心线中的多个像素之中的距输入图像中的车辆的一侧最远距离处的像素作为所述终点。
所述方法还可包括:使用第一相机,获取包括在输入图像中的第一图像;使用与第一相机隔开的第二相机,获取包括在输入图像中的第二图像,其中,测量可视距离的步骤包括:确定与第一图像和第二图像中的任意一个的终点对应的像素视差;基于像素视差,测量可视距离。
确定像素视差的步骤可包括:使用被训练为从训练图像输出训练视差图的像素视差模型从第一图像和第二图像提取像素视差图;在像素视差图中选择与第一图像和第二图像中的所述一个的终点对应的像素视差。
基于像素视差测量可视距离的步骤可包括:进一步基于第一相机与第二相机之间的基线距离以及第一相机和第二相机的焦距,来测量可视距离。
确定像素视差的步骤可包括:从第一图像确定多个终点,并从第二图像确定多个终点;分别计算第一图像的所述多个终点与第二图像的所述多个终点之间的多个视差;将计算的多个视差的视差统计值确定为像素视差。
提取道路区域的终点的步骤可包括:从第一图像的道路区域确定第一图像的终点;从第二图像估计与第一图像的终点对应的像素;将估计的像素确定为第二图像的终点。
测量可视距离的步骤可包括:使用光成像、检测与测距(LiDAR)传感器产生关于车辆的附近的附近距离图;将附近距离图校准到输入图像;从附近距离图选择与输入图像的终点对应的距离作为可视距离。
控制车辆的速度的步骤可包括:基于可视距离确定车辆的停止距离;基于停止距离计算车辆的最大速度;将车辆的速度调节为小于或等于最大速度。
计算车辆的最大速度的步骤可包括:进一步基于车辆的长度计算车辆的最大速度。
所述方法还可包括:响应于用户输入的接收,调节确定的停止距离和计算的最大速度中的任意一个或两者。
计算车辆的最大速度的步骤可包括:基于车辆的位置获得与车辆的位置对应的最大速度信息;进一步基于最大速度信息,计算车辆的最大速度。
调节车辆的速度的步骤可包括:响应于在道路区域上未检测到对象,将车辆的速度调节为最大速度。
所述方法还可包括:响应于提取到多个终点,将与所述多个终点对应的各个终点位置与车辆的位置之间的距离的统计值确定为可视距离。
控制车辆的速度的步骤可包括:基于可视距离和车辆的驾驶道路的线形,确定可获得的停止距离;基于停止距离,计算车辆的最大速度。
控制车辆的速度的步骤可包括:排除相对于车辆的反应距离,并基于制动距离确定车辆的最大速度。
一种可存储指令的非暂时性计算机可读存储介质,当由处理器执行所述指令时,使处理器执行所述方法。
在另一总体方面,一种用于控制车辆的速度的设备包括:传感器,被配置为获取输入图像;处理器,被配置为:从输入图像提取道路区域的终点;确定与所述终点对应的终点位置和车辆的位置之间的可视距离;基于确定的可视距离,控制车辆的速度。
处理器可被配置为:通过从道路区域确定驾驶车道区域,提取道路区域的终点;提取确定的驾驶车道区域的终点作为道路区域的终点。
处理器可被配置为:通过提取包括在道路区域中的多个像素之中的距输入图像中的车辆的一侧最远距离处的像素作为终点,来提取道路区域的终点。
传感器可包括:第一相机和第二相机,其中,第一相机被配置为获取包括在输入图像中的第一图像;第二相机与第一相机隔开,并且第二相机被配置为获取包括在输入图像中的第二图像。处理器可被配置为:通过确定与第一图像和第二图像中的一个的终点对应的像素视差,确定可视距离。
在另一总体方面,一种用于控制车辆的速度的方法包括:从输入图像确定道路区域;确定沿道路区域的可视距离;基于确定的可视距离控制车辆的速度。
所述方法还可包括:提取道路区域的驾驶车道区域;提取所提取的驾驶车道区域的终点,其中,确定可视距离的步骤包括:将可视距离确定为车辆的位置和与所述终点对应的终点位置之间的距离。
所述的方法还可包括:确定道路区域的中心线;提取包括在中心线中的多个像素之中的距输入图像中的车辆的一侧最远距离处的像素作为终点,其中,确定可视距离的步骤包括:将可视距离确定为车辆的位置和与所述终点对应的终点位置之间的距离。
控制车辆的速度的步骤可包括:基于可视距离确定车辆的停止距离;基于停止距离计算车辆的最大速度;基于最大速度控制车辆的速度。
在另一总体方面,一种用于控制车辆的速度的设备包括:相机,被配置为获取输入图像;处理器,被配置为:从输入图像确定道路区域;基于输入图像,确定沿道路区域的可视距离;基于确定的可视距离,控制车辆的速度。
处理器还可被配置为:响应于在道路区域中未检测到对象,基于确定的可视距离控制车辆的速度。
相机可包括:第一相机和第二相机,其中,第一相机被配置为获取包括在输入图像中的第一图像;第二相机与第一相机隔开,并且第二相机被配置为获取包括在输入图像中的第二图像。处理器可被配置为:通过确定与第一图像和第二图像中的一个的终点对应的像素视差,确定可视距离。
所述设备还可包括:光成像、检测与测距(LiDAR)传感器,被配置为产生关于车辆的附近的附近距离图,其中,处理器还被配置为:从输入图像提取道路区域的终点;将附近距离图校准到输入图像;从附近距离图,选择与车辆的位置和与道路区域的所述终点对应的位置之间的距离对应的距离,作为可视距离。
从下面的具体实施方式、附图和权利要求,其他特征和方面将是清楚的。
附图说明
图1是示出根据实施例的车辆速度控制方法的示例的流程图。
图2、图3、图4和图5示出根据实施例的将输入图像分割为多个区域。
图6示出根据实施例的计算用于测量可视距离的像素视差图。
图7示出根据实施例的使用像素视差图测量可视距离。
图8示出根据实施例的使用光成像、检测与测距(LiDAR)传感器测量距离。
图9示出根据实施例的计算停止距离。
图10和图11示出根据实施例的在具有障碍物的弯路上的可视距离。
图12和图13示出根据实施例的在斜坡道路上的可视距离。
图14示出根据实施例的在没有障碍物的弯路上的可视距离。
图15和图16示出根据实施例的针对天气条件的可视距离。
图17示出根据实施例的斜坡道路上的可视距离。
图18和图19示出根据实施例的进入隧道时的可视距离。
图20、图21和图22是示出根据实施例的车辆速度控制设备的框图。
贯穿附图和具体实施方式,除非另外描述或提供,否则相同的附图参考标号将被理解为表示相同的元件、特征和结构。为了清楚、说明和方便,附图可不按比例,并且附图中的元件的相对大小、比例和描绘可被夸大。
具体实施方式
提供下面的详细描述以帮助读者获得对在此描述的方法、设备和/或系统的全面理解。然而,在理解本申请的公开之后,在此描述的方法、设备和/或系统的各种改变、修改和等同物将是清楚的。例如,在此描述的操作的顺序仅是示例,操作的顺序不限于在此阐述的顺序,而是除了必须按特定次序发生的操作之外,可如理解了本申请的公开之后将清楚的那样改变操作的顺序。此外,为了更加清楚和简洁,本领域中已知的特征的描述可被省略。
在此描述的特征可以以不同的形式实现,并且不被解释为受限于在此描述的示例。相反,仅提供在此描述的示例以示出实施在此描述的方法、设备和/或系统的许多可行方式中的一些方式,这在理解本申请的公开之后将是清楚的。
可对示例做出各种变更和修改。这里,示例不被解释为限制于本公开,而应该被理解为包括本公开的构思和技术范围内的所有改变、等同物和替换物。
如在此使用的,术语“和/或”包括相关所列项中的任意一个以及任意两个或更多个的任意组合。
尽管在此可使用诸如“第一”、“第二”和“第三”的术语来描述各种构件、组件、区域、层或部分,但是这些构件、组件、区域、层或部分不受这些术语限制。相反,这些术语仅用于将一个构件、组件、区域、层或部分与另一构件、组件、区域、层或部分区分开来。因此,在不脱离示例的教导的情况下,在此描述的示例中被称为的第一构件、第一组件、第一区域、第一层或第一部分还可被称为第二构件、第二组件、第二区域、第二层或第二部分。
在此使用的术语仅为了描述各种示例,而不用于限制本公开。除非上下文另有清楚的指示,否则单数形式也意在包括复数形式。术语“包括”、“包含”和“具有”指定存在叙述的特征、数量、操作、构件、元件和/或它们的组合,但是不排除存在或添加一个或多个其他特征、数量、操作、构件、元件和/或它们的组合。
除非另外定义,否则在此使用的包括技术术语和科学术语的所有术语具有与示例所属领域的普通技术人员通常理解的含义相同的含义。还将理解,除非在此明确定义,否则诸如在通用字典中定义的术语应被解释为具有与它们在相关技术的上下文中的含义一致的含义,并且将不被理想化或过于形式化地解释。
当参照附图描述示例时,相同的参考标号表示相同的构成元件,并且与此有关的重复描述将被省略。当确定与相关已知功能或配置有关的详细描述可能在描述示例时使得示例的目的不必要地模糊时,详细描述在这里将被省略。
可以以如在理解本申请的公开之后将清楚的那样的各种方式来组合在此描述的示例的特征。此外,尽管在此描述的示例具有各种配置,但是如在理解本申请的公开之后将清楚的那样,其他配置是可行的。
下面的描述提供用于控制车辆的速度的方法和设备。在下面的描述中,车辆可以是汽车(诸如,轿车、运动型多用途车或卡车)。此外,车辆可以是摩托车。作为另一示例,车辆可以是无人驾驶飞机。然而,车辆不限于前述的示例,其他类型的车辆是可行的。
图1是示出根据实施例的车辆速度控制方法的流程图。
参照图1,在操作110中,车辆速度控制设备从输入图像提取道路区域的终点。车辆速度控制设备获取关于车辆的外部的输入图像。例如,车辆速度控制设备获取关于车辆的前方视野的输入图像。车辆速度控制设备使用相机直接捕获输入图像,或者从外部相机模块接收输入图像。
在此,道路区域是与输入图像中的道路对应的区域。道路区域包括与包括车辆速度控制设备的车辆当前正在行驶的驾驶车道对应的驾驶车道区域。
在此,道路区域的终点是距输入图像中的车辆的一侧最远距离处的点。例如,道路区域的终点对应于在道路上的距车辆最远距离处的位置,其中,通过车辆速度控制设备可辨识该位置。将参照图2至图5描述确定道路区域的终点的处理。
在操作120中,车路速度控制设备测量对应于终点的终点位置与车辆位置之间的可视距离。在输入图像是立体图像的情况下,车辆速度控制设备从输入图像估计可视距离。将参照图6和图7描述使用输入图像估计可视距离的示例。在另一示例中,车辆速度控制设备通过单独的传感器来估计可视距离。例如,车辆速度控制设备使用光成像、检测与测距(LiDAR)传感器(参照图8)以及无线电检测与测距(雷达)传感器来检测可视距离。
在下文中,可视距离是由车辆速度控制设备在道路上可识别的最大距离。对应于终点的终点位置是由从输入图像提取的终点所指示的实际物理位置。
在操作130中,车辆速度控制设备基于测量的可视距离控制车辆的速度。车辆速度控制设备基于可视距离确定停止距离,并基于确定的停止距离确定车辆的最大速度。例如,车辆速度控制设备在低于最大速度的范围内调节车辆的速度。车辆的速度是关于车辆的纵向方向(longitudinal direction)的速度。
在道路前方没有障碍物的情况下,车辆速度控制设备基于保证车辆行驶的最大距离来控制车辆的速度。车辆速度控制设备假设在紧接着超过可视距离的道路上存在危险对象的最坏情况。例如,假设障碍物存在于道路上的最远点处,该点可由车辆速度控制设备辨识。因此,即使当位于预定视点处的可视范围之外的障碍物或对象(例如,另一车辆、人或动物)突然出现在可视范围中时,车辆速度控制设备也会安全地制动车辆。
车辆速度控制设备测量在其之内自主车辆可感测到危险对象的可视距离,并基于测量的可视距离降低车辆的速度,从而即使在实际驾驶环境(例如,具有被预定的地形(诸如,山或陡坡)挡住的一侧的急弯路)中通过传感器可测量的极其有限的距离的情况下,也会针对潜在风险确保足够的制动距离。
图2至图5示出根据实施例的将输入图像分割为多个区域。图2和图3示出由车辆速度控制设备获取的输入图像对应于直路的示例。图4和图5示出由车辆速度控制设备获取的输入图像对应于弯路的示例。
车辆速度控制设备为了安全驾驶始终维持保证停止距离的车辆的速度。如在图2和图4中所示,在车辆速度控制设备在预定视点处获取输入图像200、400的情况下,车辆速度控制设备确定在获取输入图像的视点处可获得的距离。例如,车辆速度控制设备提取通过各个输入图像200、400可辨识的道路的终点211、311、411、511。
车辆速度控制设备将输入图像200、400分割为多个区域,以提取道路的终点211、311、411、511。表示通过分割各个输入图像200、输入图像400获取的多个区域的图像被称为分割区域图像300、分割区域图像500。车辆速度控制设备将输入图像分割为道路区域310、510、车辆区域320、人区域330、对象区域340、540和背景区域350、550。道路区域310、510是指示车辆将要行驶的道路的区域,车辆区域320是指示位于道路上的另外的车辆的区域,人区域330是指示在输入图像中所示的人的区域,对象区域340、540是指示除了人之外的对象(例如,树或建筑)的区域,背景区域350、550是指示除了对象之外的背景(例如,天空)的区域。然而,将输入图像分割为多个区域的操作不限于在此提供的示例,而是可根据设计目标或需求而变化。
车辆速度控制设备使用分类器模型将输入图像200、400分割为多个区域,其中,分类器模型被训练为从训练图像输出训练输出。例如,分类器模型是卷积神经网络(CNN)。例如,训练图像是彩色图像,训练输出是训练输入的分割区域图像。例如,训练输出是通过手动指定与训练图像的各个像素对应的属性(例如,车辆、人、对象和背景)并基于指定的属性分割训练图像而获取的分割区域图像。
车辆速度控制设备从分割区域图像300、500提取道路区域310、510的终点311、511。车辆速度控制设备从输入图像200、400辨识道路区域310、510。车辆速度控制设备提取包括在道路区域310、510中的多个像素之中的距输入图像200、400中的车辆的一侧最远距离处的像素作为终点311、511。然而,提取终点311、511的操作不限于在此提供的示例。例如,位于输入图像的道路区域中的最上侧处的部分可对应于终点311、511。
此外,车辆速度控制设备从输入图像200、400辨识车道线。车道线是用于在车道之间进行区分的线。车辆速度控制设备基于车道线从道路区域310、510提取驾驶车道区域。驾驶车道区域是与驾驶车道对应的区域,驾驶车道是包括车辆速度控制设备的车辆当前正在行驶的车道。车辆速度控制设备提取所提取的驾驶车道区域的终点211、311、411、511作为道路区域的终点。例如,车辆速度控制设备提取包括在驾驶车道区域中的多个像素之中的距输入图像200、400中的车辆的一侧最远距离处的像素作为终点211、311、411、511。
图6示出根据实施例的计算用于测量可视距离的像素视差图。
针对图6的示例,在输入图像是立体图像的情况下,车辆速度控制设备使用像素视差估计从车辆到与终点对应的终点位置的可视距离。在使用像素视差的情况下,车辆速度控制设备不使用用于测量从车辆到终点位置的实际距离的单独的传感器(例如,LiDAR传感器或雷达传感器)来估计可视距离。
在此,立体输入图像是表示相同场景的一对图像。例如,如在图6中所示,立体输入图像包括第一图像610和第二图像620。第一图像610是左图像和右图像中的一个,第二图像620是左图像和右图像中的另一个。车辆速度控制设备使用第一相机来获取包括在立体输入图像中的第一图像610,并使用与第一相机隔开的第二相机来获取包括在立体输入图像中的第二图像620。
在此,像素视差是第一图像610中的预定像素与第二图像620中的对应像素之间的像素距离。针对第一图像610和第二图像620中的预定像素计算的像素视差被用于计算至与该像素对应的位置的距离。将参照图7描述像素视差的示例。
车辆速度控制设备确定与第一图像610和第二图像620之一的终点对应的像素视差。车辆速度控制设备产生用于确定像素视差的像素视差图630。例如,车辆速度控制设备从第一图像610和第二图像620产生像素视差图630,并基于产生的像素视差图630确定与终点对应的像素视差。例如,车辆速度控制设备使用像素视差模型从第一图像610和第二图像620提取像素视差图630。像素视差模型是被训练为从训练图像输出训练视差图的神经网络640。训练视差图是为训练图像的各个像素指定的一组像素视差。车辆速度控制设备在像素视差图630中选择与第一图像610和第二图像620之一的终点对应的像素视差。
在另一示例中,车辆速度控制设备提取第一图像610的终点,估计第二图像620中的对应的终点,并计算两个终点之间的像素视差,而不是计算像素视差图630。车辆速度控制设备从第一图像610的道路区域确定第一图像610的终点,并从第二图像620估计与第一图像610的终点对应的像素。
车辆速度控制设备基于图像特征在第二图像620中估计与第一图像610的终点对应的像素。例如,图像特征是尺度不变特征变换(SIFT)特征。车辆速度控制设备使用图像模型(例如,被训练为从图像输出SIFT特征的神经网络)从第一图像610和第二图像620提取图像特征,并将具有与包括与第一图像610的终点对应的像素的部分的图像特征相似的图像特征的部分的中心像素估计为与第一图像610的终点对应的像素。车辆速度控制设备将估计的像素确定为第二图像620的终点。
图7示出根据实施例的使用像素视差图测量可视距离。
参照图7,车辆速度控制设备使用参照图6描述的像素视差模型(例如,神经网络640)产生像素视差图730。车辆速度控制设备从像素视差图730确定与终点对应的像素视差731,并基于与终点对应的像素视差731估计至终点位置的可视距离。如在图7中所示,像素视差790指示第一图像710中的预定像素711与第二图像720中的对应的像素721之间的像素距离。
像素视差图730是具有与第一图像710和第二图像720中的每个的像素相应的像素视差所对应的强度的图。在像素视差图730中,随着点与作为基准的车辆的位置之间的距离减小,像素视差增大;随着点与车辆的位置之间的距离增大,像素视差减小。在图7的像素视差图730中,相对靠近车辆的点具有相对大的像素视差,因此被相对明亮地表示;相对远离车辆的点具有小的像素视差,因此被相对暗地表示。然而,为了更好地理解,提供图7的像素视差图730作为示例。示例不限于此。像素视差图730的每个点可在距车辆的距离相对远时被相对明亮地表示,并可在距车辆的距离相对近时被相对暗地表示。
车辆速度控制设备基于与终点对应的像素视差731测量可视距离。车辆速度控制设备进一步基于第一相机与第二相机之间的基线距离以及第一相机和第二相机的焦距来测量可视距离。例如,车辆速度控制设备基于等式1根据与终点对应的像素视差731测量可视距离。
[等式1]
在等式1中,depth是作为可视距离的从包括车辆速度控制设备的车辆到终点位置的深度。B是第一相机与第二相机之间的基线距离。f是第一相机和第二相机的焦距。第一相机和第二相机具有相同的特性。disparity表示与终点对应的像素视差731。depth和B以作为例如米(m)、厘米(cm)和毫米(mm)之一的实际的距离单位来表示。f和disparity以像素为单位来表示。尽管在等式1中假设depth和B单位相同,f和disparity单位相同,但是在使用不同单位的情况下,单位常数可被合并入等式1中。
尽管在图1至图7中假设从输入图像提取单个终点,但是车辆速度控制设备还可提取多个终点。例如,在输入图像的道路区域中的距车辆的一侧最远的多个点具有相同的像素距离的情况下,车辆速度控制设备确定多个终点。车辆的一侧可表示输入图像的最下方的多个像素。此外,在输入图像是立体图像的情况下,车辆速度控制设备从第一图像确定多个终点,并从第二图像确定对应的多个终点。车辆速度控制设备分别计算第一图像的多个终点与第二图像的多个终点之间的多个视差。车辆速度控制设备将计算的视差的视差统计值确定为像素视差。视差统计值是针对视差的统计值(例如,视差的均值或中值)。
图8示出根据实施例的使用LiDAR传感器测量距离。
参照图8,车辆速度控制设备通过单独的传感器,来测量从车辆801到终点位置的可视距离。例如,车辆速度控制设备使用LiDAR传感器产生关于车辆801的附近的附近距离图。LiDAR传感器是通过以预定角度朝向附近(例如,前侧)发射多个激光束并分析反射的激光束的飞行时间来实时获得附近距离图的传感器。附近距离图被表示为三维(3D)深度图像。如在图8中所示,车辆速度控制设备通过朝向车辆801的附近发射激光束来获得附近距离图。
附近距离图表示距车辆801的距离和存在于车辆801的附近中的对象820。此外,附近距离图还表示至道路810上的每个位置的距离。然而,因为使用LiDAR传感器获得的附近距离图基于朝向对象820发射的激光束的反射是可获得的,所以附近距离图不包括与就车辆801在对象820之后的区域850有关的信息。
车辆速度控制设备将附近距离图校准到输入图像。车辆速度控制设备分割附近距离图的至少一部分,并将分割的距离图匹配到输入图像。车辆速度控制设备将分割的距离图的每个点映射到输入图像中的对应的像素。
车辆速度控制设备从附近距离图选择与输入图像的终点对应的距离作为可视距离。
图9示出根据实施例的停止距离。
车辆速度控制设备基于可视距离确定车辆的停止距离。车辆速度控制设备将可视距离确定为车辆的停止距离。在另一示例中,车辆速度控制设备设置与可视距离成比例的停止距离。因此,车辆速度控制设备将通过输入图像可辨识的最大距离设置为停止距离。然而,确定并设置停止距离的方法不限于前述的示例。车辆速度控制设备响应于用户输入的接收,基于可视距离调节确定的停止距离。用户输入是从用户接收的输入,并且包括用于设置停止距离的操作/指令。例如,车辆速度控制设备响应于用户输入将停止距离设置为短于可视距离,从而使车辆能够更安全地行驶。在另一示例中,车辆速度控制设备响应于用户输入将停止距离设置为长于可视距离,从而使车辆能够更快地行驶。
车辆速度控制设备基于停止距离计算车辆的最大速度。更具体地讲,车辆速度控制设备基于最大速度信息900根据停止距离计算最大速度。最大速度信息900是定义针对预定速度所需的反应距离、制动距离和停止距离的信息。图9的示例最大速度信息900是在韩国提供的信息。
例如,以查找表的数据的形式来实现最大速度信息900。车辆速度控制设备根据最大速度信息900计算与当前的停止距离对应的最大速度。图9还示出反应距离。反应距离是针对用户察觉到前方的对象并对察觉到的对象进行响应所花费的时间而量化的距离。可选地,车辆速度控制设备仅使用制动距离作为停止距离。因此,车辆速度控制设备排除针对车辆的反应距离,并基于制动距离确定车辆的最大速度。
此外,车辆速度控制设备将车辆的速度调节为小于或等于最大速度。响应于在道路区域上未检测到另一对象,车辆速度控制设备将车辆的速度调节为最大速度。因此,车辆速度控制设备基于当前可视范围内的可获得的距离来调节车辆的速度,从而即使在前方不存在对象(诸如,另一车辆)的情况下,也会执行安全驾驶。
在另一示例中,车辆速度控制设备响应于用户输入设置危险等级。车辆速度控制设备基于设置的危险等级调节停止距离和最大速度中的任意一个或两者。例如,当危险等级被设置为相对高时,这意味着用户想要以相对高的风险驾驶。因此,车辆速度控制设备使车辆能够以快的速度行驶。反之,当危险等级被设置为相对低时,这意味着用户想要安全驾驶。因此,车辆速度控制设备使车辆能够以低的速度行驶。因此,车辆速度控制设备基于安全保证的等级限定停止距离或制动距离,并计算维持限定的制动距离的最大速度。
在另一示例中,车辆速度控制设备基于车辆的位置获得与车辆的位置对应的最大速度信息900。例如,车辆所在的国家、地区和州具有不同的关于停止距离的规定。车辆速度控制设备基于车辆的当前位置灵活地获得最大速度信息900。车辆速度控制设备通过通信从外部装置接收最大速度信息900,或者从内部数据库检索与当前位置对应的最大速度信息900。车辆速度控制设备基于与当前位置对应的最大速度信息900根据停止距离计算车辆的最大速度。
例如,美国的加利福尼亚提供与制动距离、车辆长度和速度有关的公式作为最大速度信息。车辆速度控制设备基于制动距离和车辆的长度计算最大速度。制动距离对应于车辆的长度与速度的乘积。
图10和图11示出根据实施例的在具有障碍物的弯路1002和1102上的可视距离1011和1111。
参照图11,在不确定障碍物1130(例如,墙或峭壁)之后是否存在危险对象1120(例如,存在碰撞的危险的对象)的情况下,由于障碍物1130位于弯路1002、1102的弯道的内侧,因此车辆速度控制设备假设在道路的终点位置处存在危险对象1120。
参照图10和图11,与参照图1至图9提供的描述相似,车辆速度控制设备基于输入图像1000确定至道路的终点位置的可视距离1011、1111。
然而,道路的终点不限于所示的示例。车辆速度控制设备还可基于道路的驾驶车道确定终点。
仍参照图10和图11,车辆速度控制设备从输入图像1000辨识道路区域和道路区域上的中心线1119。车辆速度控制设备提取包括在中心线1119上的多个像素之中的距输入图像1000中的车辆1101的一侧最远距离处的像素作为终点。在这个示例中,车辆速度控制设备将至道路的驾驶车道1110上的终点位置的距离确定为可视距离1012、1112。
此外,车辆速度控制设备基于可视距离和车辆1101的驾驶道路的线形来确定可获得的停止距离。在图11的弯路的情况下,车辆速度控制设备基于道路的曲率确定长于至终点位置的可视距离1111、1112的停止距离。车辆速度控制设备基于停止距离计算车辆1101的最大速度。
图12和图13示出根据实施例的在斜坡道路1210和1310上的可视距离1211和1311。
参照图12和图13,在不确定斜坡道路1210、1310上的坡后是否存在障碍物的情况下,车辆速度控制设备假设在道路1210、1310的终点位置存在危险对象1320。
在道路1210、1310是上坡道路的情况下,在输入图像1200中在关于道路区域的相同高度可能存在多个像素。在这个示例中,车辆速度控制设备确定关于道路区域的多个终点。响应于提取到多个终点,车辆速度控制设备将与多个终点对应的各个终点位置和车辆的位置之间的距离的统计值确定为可视距离1211、1311。例如,车辆速度控制设备将终点位置与车辆的位置之间的距离的均值或中值确定为可视距离1211、1311。因此,即使在斜坡上不存在危险对象的情况下,车辆速度控制设备也会使车辆1301以安全的速度行驶。
图14示出根据实施例的在没有障碍物的弯路1410上的可视距离1411。
车辆速度控制设备确定至不存在障碍物的弯路1410的终点的距离,作为可视距离1411。因此,与存在障碍物的地形不同,车辆速度控制设备快速地确定不存在障碍物的平坦地形1441上的车辆1401的速度。
图15和图16示出根据实施例的针对天气条件的可视距离。
参照图15,车辆速度控制设备基于天气条件使车辆能够安全地行驶。在恶劣的天气条件下,车辆的可视距离受到限制。例如,图15是在可视范围被雾1550限制的情况下获取的输入图像1500。
车辆速度控制设备从输入图像1500排除不可视区域1650。参照图16,车辆速度控制设备从排除了不可视区域1650的输入图像1500辨识道路区域1610。例如,如在图16中所示,车辆速度控制设备产生从输入图像1500排除了不可视区域1650的区域图像1600。车辆速度控制设备基于从排除了不可视区域1650的区域图像1600辨识出的道路区域1610确定终点1611。
因此,车辆速度控制设备将在其内获得可视范围的最大距离确定为可视距离,从而在可视范围由于天气条件而减小的情况下,防止潜在的碰撞的风险(例如,由于雾而不可视的对象的突然出现)。
图17示出根据实施例的倾斜的上坡道路1710上的可视距离1711。
参照图17,在车辆1701进入上坡道路1710的情况下,车辆速度控制设备基于针对上坡道路1710可获得的可视范围来确定可视距离1711。车辆速度控制设备的可视范围受到上坡道路1710的坡度的限制。因此,可视距离1711减小,车辆速度控制设备基于减小的可视距离1711降低车辆1701的速度。
图18和图19示出根据实施例的进入隧道时的可视距离。
在车辆进入阴影区域(例如,隧道)的情况下,车辆速度控制设备基于针对阴影区域可获得的可视范围来确定可视距离。
例如,参照图18,车辆速度控制设备在车辆进入隧道之前获取输入图像1800。在日间,照明设备在隧道中是昏暗的。因此,在输入图像1800中出现不可视区域1850。如在图19中所示,车辆速度控制设备通过将输入图像1800分割为多个区域来产生区域图像1900。车辆速度控制设备在区域图像1900中从道路区域1910排除不可视区域1950。车辆速度控制设备基于排除了不可视区域1950的道路区域1910确定可视距离1911。
因此,车辆速度控制设备基于可视距离1911确定车辆的速度,从而即使在车辆进入阴影区域之前由于不可视区域1850、1950而存在潜在的危险对象的情况下,也会防止碰撞的风险。
图20至图22是示出根据实施例的车辆速度控制设备2000、2100和2200的框图。
参照图20,车辆速度控制设备2000包括传感器2010和处理器2020。传感器2010获取输入图像。例如,传感器2010是捕获输入图像的图像传感器。
处理器2020从输入图像提取道路区域的终点,确定与终点对应的终点位置和车辆的位置之间的可视距离,并基于测量的可视距离控制车辆的速度。然而,处理器2920的操作不限于前述的操作,并且处理器2020还可执行参照图1至图19描述的操作。
在图21的车辆速度控制设备2100中,传感器2010包括相机2111,其中,相机2111包括沿基线彼此隔开的第一相机2111a和第二相机2111b,并且传感器2010使用第一相机2111a和第二相机2111b获取立体图像作为输入图像。此外,车辆速度控制设备2100的传感器2010还包括距离传感器。
相机2111如上所述地捕获车辆的外部的图像。相机2111朝向车辆的前侧附着到车辆,以捕获关于车辆的前方视野的图像。例如,相机2111捕获立体图像。然而,相机2111不限于公开的示例。相机2111还可包括基于红外光线和可见光线捕获图像的光学传感器以及基于超声波捕获超声图像的超声传感器。相机2111可被实现为不断捕获预定的可视范围的各种类型的传感器。
距离传感器是测量关于车辆的附近的距离的传感器。距离传感器针对车辆的附近的对象或道路测量距离。例如,如在图21中所示,距离传感器包括LiDAR传感器2112和雷达传感器2113。然而,距离传感器的类型不限于前述的示例。
如参照图8所述,LiDAR传感器2112是通过以预定的角度朝向附近(例如,前侧)发射激光束并分析反射的激光束的飞行时间来实时获得附近距离图的传感器。雷达传感器2113是通过以预定角度发射电磁波并分析反射的电磁波来实时获得附近距离图的传感器。
仍参照图21,存储器2130存储用于控制处理器2020执行参照图1至图19所述的操作的程序指令。此外,存储器2130存储被配置为分割输入图像的分类器模型、被配置为估计像素视差的像素视差模型和被配置为估计立体图像中的对应点的图像模型。存储器2130更新并存储分类器模型、像素视差模型和图像模型。此外,存储器2130暂时性地或半永久性地存储执行车辆速度控制方法所需的各种信息(例如,输入图像、像素视差图、最大距离信息和附近距离图)。
在图22的实施例中,车辆速度控制设备2200被实现为包括道路区域识别器2210、可视距离测量器2220、停止距离确定器2230和速度控制器2240的设备。
道路区域识别器2210是从输入图像识别道路区域的模块,并包括至少一个处理器。例如,道路区域识别器2210基于属性(例如,道路、对象和背景)将输入图像分割为多个区域,并从多个区域中选择道路区域。
可视距离测量器2220是测量至与道路区域的终点对应的终点位置的可视距离的模块。可视距离测量器2220包括估计至终点位置的可视距离的至少一个处理器。在另一示例中,可视距离测量器2220包括测量至终点位置的实际可视距离的传感器。
停止距离确定器2230是基于可视距离确定停止距离的模块。停止距离确定器2230包括将可视距离设置为停止距离的至少一个处理器。此外,停止距离确定器2230响应于用户输入调节停止距离。
速度控制器2240是控制车辆的速度的模块。速度控制器2240包括基于最大速度信息确定车辆的速度的至少一个处理器。此外,速度控制器2240使车辆能够以确定的速度行驶。
包括在道路区域识别器2210、可视距离测量器2220、停止距离确定器2230和速度控制器2240中的处理器可被实现为单个处理器或多个处理器。
通过被配置为执行在本申请中描述的由硬件组件所执行的操作的硬件组件来实现执行在本申请中描述的操作的图20至图22中的传感器2010、处理器2020、相机2111、LiDAR传感器2112和雷达传感器2113、存储器2130、道路区域识别器2210、可视距离测量器2220、停止距离确定器2230和速度控制器2240。可用于执行在本申请中描述的操作的硬件组件的示例在适当情况下包括:控制器、传感器、产生器、驱动器、存储器、比较器、算术逻辑单元、加法器、减法器、乘法器、除法器、积分器和被配置为执行在本申请中描述的操作的任何其他电子组件。在其他示例中,执行在本申请中描述的操作的一个或多个硬件组件通过计算硬件(例如,通过一个或多个处理器或计算机)来实现。可通过一个或多个处理元件(诸如,逻辑门阵列、控制器和算术逻辑单元)、数字信号处理器、微型计算机、可编程逻辑控制器、现场可编辑门阵列、可编程逻辑阵列、微处理器或被配置为以限定的方式响应并执行指令以实现期望的结果的任何其他装置或装置的组合,来实现处理器或计算机。在一个示例中,处理器或计算机包括或连接到一个或多个存储器,其中,一个或多个存储器存储由处理器或计算机执行的指令或软件。通过处理器或计算器实现的硬件组件可执行指令或软件(诸如,操作系统(OS)和在OS上运行的一个或多个软件应用),以执行在本申请中描述的操作。硬件组件还可响应于指令或软件的执行,访问、操纵、处理、创建和存储数据。为了简明,单数术语“处理器”或“计算机”可用于本申请中描述的示例的描述,但在其他示例中,可使用多个处理器或多个计算机,或者一个处理器或一个计算机可包括多个处理元件或多种类型的处理元件或者两者。例如,可通过单个处理器、或者两个或更多个处理器、或者一个处理器和一个控制器,来实现单个硬件组件或者两个或更多个硬件组件。可通过一个或多个处理器、或者一个处理器和一个控制器,来实现一个或多个硬件组件,并且可通过一个或多个其他处理器、或者另一处理器和另一控制器,来实现一个或多个其他硬件组件。一个或多个处理器、或者一个处理器和一个控制器,可实现单个硬件组件、或者两个或更多个硬件组件。硬件组件可具有不同的处理配置中的任意一个或多个,其中,不同的处理配置的示例包括:单处理器、独立处理器、并行处理器、单指令单数据(SISD)多处理、单指令多数据(SIMD)多处理、多指令单数据(MISD)多处理以及多指令多数据(MIMD)多处理。
通过计算硬件(例如,通过一个或多个处理器或计算机)来执行在图1至图19中所示的执行在本申请中描述的操作的方法,其中,计算硬件被实现为如上所述地执行指令或软件,以执行在本申请中描述的由所述方法所执行的操作。例如,可通过单处理器、或者两个或更多个处理器、或者一个处理器和一个控制器来执行单个操作、或者两个或更多个操作。可通过一个或多个处理器、或者一个处理器和一个控制器来执行一个或多个操作,可通过一个或多个其他处理器、或者另一处理器和另一控制器来执行一个或多个其他操作。一个或多个处理器、或者一个处理器和一个控制器可执行单个操作、或者两个或更多个操作。
用于控制计算硬件(例如,一个或多个处理器或计算机)实现硬件组件并执行如上所述的方法的指令或软件可被写为计算机程序、代码段、指令或它们的任意组合,以单独地或共同地指示或配置一个或多个处理器或计算机作为用于执行由硬件组件执行的操作和如上所述的方法的机器或专用计算机进行操作。在一个示例中,指令或软件包括直接由一个或多个处理器或计算机执行的机器代码(诸如,由编译器产生的机器代码)。在另一示例中,指令或软件包括由一个或多个处理器或计算机使用解释器执行的高级代码。可基于附图中示出的框图和流程图以及说明书中的相应描述使用任意编程语言来编写指令或软件,其中,附图中示出的框图和流程图以及说明书中的相应描述公开了用于执行由硬件组件和如上所述的方法执行的操作的算法。
用于控制计算硬件(例如,一个或多个处理器或计算机)实现硬件组件并执行如上所述的方法的指令或软件、以及任何相关联的数据、数据文件以及数据结构可被记录、存储或固定在一个或多个非暂时性计算机可读存储介质中,或者被记录、存储或固定在一个或多个非暂时性计算机可读存储介质上。非暂时性计算机可读存储介质的示例包括:只读存储器(ROM)、随机存取存储器(RAM)、闪存、CD-ROM、CD-R、CD+R、CD-RW、CD+RW、DVD-ROM、DVD-R、DVD+R、DVD-RW、DVD+RW、DVD-RAM、BD-ROM、BD-R、BD-R LTH、BD-RE、磁带、软盘、磁光数据存储装置、光学数据存储装置、硬盘、固态盘、和任何其他设备,该任何其他设备被配置为以非暂时方式存储指令或软件、以及任何相关联的数据、数据文件以及数据结构,并向一个或多个处理器或计算机提供指令或软件、以及任何相关联的数据、数据文件以及数据结构,使得一个或多个处理器或计算机能够执行指令。在一个示例中,指令或软件、以及任何相关联的数据、数据文件以及数据结构分布在联网的计算机系统上,使得指令和软件、以及任何相关联的数据、数据文件以及数据结构通过一个或多个处理器或计算机被以分布式方式存储、访问和执行。
尽管本公开包括特定示例,但是在理解本申请的公开后将清楚的是,在不脱离权利要求和它们的等同物的精神和范围的情况下,可对这些示例做出形式和细节上的各种改变。在此描述的示例被认为仅是描述性的,而非为了限制的目的。每一示例中的特征或方面的描述将被认为适用于其他示例中的相似特征或方面。如果以不同的顺序执行描述的技术,和/或如果在描述的系统、架构、装置、或电路中的组件以不同的方式组合,和/或被其他组件或它们的等同物代替或补充,则可实现合适的结果。因此,本公开的范围不是由具体实施方式限定,而是由权利要求和它们的等同物限定,并且在权利要求和它们的等同物的范围内的所有变化将被解释为被包括在本公开中。

Claims (31)

1.一种用于控制车辆的速度的方法,所述方法包括:
从输入图像提取道路区域的终点;
测量与所述终点对应的终点位置和车辆的位置之间的可视距离;
基于测量的可视距离,控制车辆的速度。
2.如权利要求1所述的方法,其中,提取道路区域的终点的步骤包括:
从输入图像辨识车道线;
基于车道线从道路区域提取驾驶车道区域;
提取所提取的驾驶车道区域的终点作为道路区域的终点。
3.如权利要求1所述的方法,其中,提取道路区域的终点的步骤包括:
从输入图像辨识道路区域;
提取包括在道路区域中的多个像素之中的距输入图像中的车辆最远距离处的像素作为所述终点。
4.如权利要求1所述的方法,其中,提取道路区域的终点的步骤包括:
从输入图像辨识道路区域和道路区域上的中心线;
提取包括在中心线中的多个像素之中的距输入图像中的车辆最远距离处的像素作为所述终点。
5.如权利要求1所述的方法,还包括:
使用第一相机,获取包括在输入图像中的第一图像;
使用与第一相机隔开的第二相机,获取包括在输入图像中的第二图像,其中,测量可视距离的步骤包括:
确定与第一图像和第二图像中的任意一个的终点对应的像素视差;
基于像素视差,测量可视距离。
6.如权利要求5所述的方法,其中,确定像素视差的步骤包括:
使用被训练为从训练图像输出训练视差图的像素视差模型从第一图像和第二图像提取像素视差图;
在像素视差图中选择与第一图像和第二图像中的所述一个的终点对应的像素视差。
7.如权利要求5所述的方法,其中,基于像素视差测量可视距离的步骤包括:进一步基于第一相机与第二相机之间的基线距离以及第一相机和第二相机的焦距,来测量可视距离。
8.如权利要求5所述的方法,其中,确定像素视差的步骤包括:
从第一图像确定多个终点,并从第二图像确定多个终点;
分别计算第一图像的所述多个终点与第二图像的所述多个终点之间的多个视差;
将计算的多个视差的视差统计值确定为像素视差。
9.如权利要求5所述的方法,其中,提取道路区域的终点的步骤包括:
从第一图像的道路区域确定第一图像的终点;
从第二图像估计与第一图像的终点对应的像素;
将估计的像素确定为第二图像的终点。
10.如权利要求1所述的方法,其中,测量可视距离的步骤包括:
使用光成像、检测与测距传感器LiDAR产生关于车辆的附近的附近距离图;
将附近距离图映射到输入图像;
从附近距离图选择与输入图像的终点对应的距离作为可视距离。
11.如权利要求1所述的方法,其中,控制车辆的速度的步骤包括:
基于可视距离确定车辆的停止距离;
基于停止距离计算车辆的最大速度;
将车辆的速度调节为小于或等于最大速度。
12.如权利要求11所述的方法,其中,计算车辆的最大速度的步骤包括:进一步基于车辆的长度计算车辆的最大速度。
13.如权利要求11所述的方法,还包括:
响应于用户输入的接收,调节确定的停止距离和计算的最大速度中的任意一个或两者。
14.如权利要求11所述的方法,其中,计算车辆的最大速度的步骤包括:
基于车辆的位置获得与车辆的位置对应的最大速度信息;
进一步基于最大速度信息,计算车辆的最大速度。
15.如权利要求11所述的方法,其中,调节车辆的速度的步骤包括:响应于在道路区域上未检测到对象,将车辆的速度调节为最大速度。
16.如权利要求1所述的方法,还包括:
响应于提取到多个终点,将与所述多个终点对应的各个终点位置与车辆的位置之间的距离的统计值确定为可视距离。
17.如权利要求1所述的方法,其中,控制车辆的速度的步骤包括:
基于可视距离和车辆的驾驶道路的线形,确定可获得的停止距离;
基于停止距离,计算车辆的最大速度。
18.如权利要求1所述的方法,其中,控制车辆的速度的步骤包括:排除相对于车辆的反应距离,并基于制动距离确定车辆的最大速度。
19.一种存储指令的非暂时性计算机可读存储介质,当由处理器执行所述指令时,使处理器执行如权利要求1所述的方法。
20.一种用于控制车辆的速度的设备,所述设备包括:
传感器,被配置为获取输入图像;
处理器,被配置为:从输入图像提取道路区域的终点;确定与所述终点对应的终点位置和车辆的位置之间的可视距离;基于确定的可视距离,控制车辆的速度。
21.如权利要求20所述的设备,其中,处理器被配置为:通过从道路区域确定驾驶车道区域,提取道路区域的终点;提取确定的驾驶车道区域的终点作为道路区域的终点。
22.如权利要求20所述的设备,其中,处理器被配置为:通过提取包括在道路区域中的多个像素之中的距输入图像中的车辆最远距离处的像素作为终点,来提取道路区域的终点。
23.如权利要求20所述的设备,其中,
传感器包括:第一相机和第二相机,其中,第一相机被配置为获取包括在输入图像中的第一图像;第二相机与第一相机隔开,并且第二相机被配置为获取包括在输入图像中的第二图像,
处理器被配置为:通过确定与第一图像和第二图像中的一个的终点对应的像素视差,确定可视距离。
24.一种用于控制车辆的速度的方法,所述方法包括:
从输入图像确定道路区域;
确定沿道路区域的可视距离;
基于确定的可视距离控制车辆的速度。
25.如权利要求24所述的方法,还包括:
提取道路区域的驾驶车道区域;
提取提取的驾驶车道区域的终点,
其中,确定可视距离的步骤包括:将可视距离确定为车辆的位置和与所述终点对应的终点位置之间的距离。
26.如权利要求24所述的方法,还包括:
确定道路区域的中心线;
提取包括在中心线中的多个像素之中的距输入图像中的车辆最远距离处的像素作为终点,
其中,确定可视距离的步骤包括:将可视距离确定为车辆的位置和与所述终点对应的终点位置之间的距离。
27.如权利要求24所述的方法,控制车辆的速度的步骤包括:
基于可视距离确定车辆的停止距离;
基于停止距离计算车辆的最大速度;
基于最大速度控制车辆的速度。
28.一种用于控制车辆的速度的设备,所述设备包括:
相机,被配置为获取输入图像;
处理器,被配置为:从输入图像确定道路区域;基于输入图像,确定沿道路区域的可视距离;基于确定的可视距离,控制车辆的速度。
29.如权利要求28所述的设备,其中,处理器还被配置为:响应于在道路区域中未检测到对象,基于确定的可视距离控制车辆的速度。
30.如权利要求28所述的设备,其中,
相机包括:第一相机和第二相机,其中,第一相机被配置为获取包括在输入图像中的第一图像;第二相机与第一相机隔开,并且第二相机被配置为获取包括在输入图像中的第二图像,
处理器被配置为:通过确定与第一图像和第二图像中的一个的终点对应的像素视差,确定可视距离。
31.如权利要求28所述的设备,还包括:
光成像、检测与测距传感器LiDAR,被配置为产生关于车辆的附近的附近距离图,
其中,处理器还被配置为:
从输入图像提取道路区域的终点;
将附近距离图映射到输入图像;
从附近距离图,选择与车辆的位置和与道路区域的所述终点对应的位置之间的距离对应的距离,作为可视距离。
CN201710979163.2A 2016-11-29 2017-10-19 用于控制车辆的速度的方法和设备 Active CN108116410B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0160673 2016-11-29
KR1020160160673A KR102585219B1 (ko) 2016-11-29 2016-11-29 차량 속도 제어 방법 및 장치

Publications (2)

Publication Number Publication Date
CN108116410A true CN108116410A (zh) 2018-06-05
CN108116410B CN108116410B (zh) 2022-09-20

Family

ID=60021916

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710979163.2A Active CN108116410B (zh) 2016-11-29 2017-10-19 用于控制车辆的速度的方法和设备

Country Status (5)

Country Link
US (1) US10668924B2 (zh)
EP (1) EP3327618B1 (zh)
JP (1) JP2018087004A (zh)
KR (1) KR102585219B1 (zh)
CN (1) CN108116410B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109383289A (zh) * 2018-10-19 2019-02-26 湖北亿咖通科技有限公司 汽车限速控制方法、装置、电子设备及可读存储介质
CN109656245A (zh) * 2018-10-31 2019-04-19 百度在线网络技术(北京)有限公司 刹车位置的确定方法和装置
CN111121714A (zh) * 2019-12-25 2020-05-08 中公高科养护科技股份有限公司 一种行车视距的测量方法及系统
CN111231946A (zh) * 2020-03-03 2020-06-05 安徽中科美络信息技术有限公司 一种低视距车辆安全行驶控制方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017202363A1 (de) * 2017-02-15 2018-08-16 Robert Bosch Gmbh Verfahren und Vorrichtung zur Festlegung einer Maximalgeschwindigkeit für ein Fahrzeug und automatisiertes Fahrsystem
KR20180094725A (ko) 2017-02-16 2018-08-24 삼성전자주식회사 자율 주행을 위한 차량 제어 방법, 차량 제어 장치 및 자율 주행을 위한 학습 방법
US11479213B1 (en) * 2017-12-11 2022-10-25 Zoox, Inc. Sensor obstruction detection and mitigation
US10518786B2 (en) * 2018-02-22 2019-12-31 GM Global Technology Operations LLC Systems and methods for providing an operation data interface for autonomous operation of a vehicle
EP3588006B1 (en) * 2018-06-28 2021-08-11 Continental Automotive GmbH Determining visibility distances based a on dynamic field of view of a vehicle
CN110780665B (zh) * 2018-07-26 2022-02-08 比亚迪股份有限公司 车辆无人驾驶控制方法及装置
CN109147368A (zh) * 2018-08-22 2019-01-04 北京市商汤科技开发有限公司 基于车道线的智能驾驶控制方法装置与电子设备
CN109657686B (zh) * 2018-10-31 2021-04-20 百度在线网络技术(北京)有限公司 车道线生成方法、装置、设备以及存储介质
JP7081444B2 (ja) * 2018-11-01 2022-06-07 トヨタ自動車株式会社 車両制御システム
US20200406894A1 (en) * 2019-06-28 2020-12-31 Zoox, Inc. System and method for determining a target vehicle speed
CN110667576B (zh) * 2019-10-18 2021-04-20 北京百度网讯科技有限公司 自动驾驶车辆的弯道通行控制方法、装置、设备和介质
DE102020106378A1 (de) * 2020-03-09 2021-09-09 Bayerische Motoren Werke Aktiengesellschaft Fahrerassistenzsystem für ein Kraftfahrzeug
US11505213B2 (en) * 2020-07-24 2022-11-22 Tusimple, Inc. Visibility condition determinations for autonomous driving operations
CN112265546B (zh) * 2020-10-26 2021-11-02 吉林大学 基于时空序列信息的网联汽车车速预测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110066312A1 (en) * 2009-09-15 2011-03-17 Electronics And Telecommunications Research Institute Navigation apparatus and driving route information providing method using the same and automatic driving system and method
CN103250420A (zh) * 2010-12-06 2013-08-14 三星电子株式会社 三维显示装置及其三维显示方法
CN105083285A (zh) * 2014-05-12 2015-11-25 福特全球技术公司 在制动情况下的紧急车道内转向辅助
CN105460008A (zh) * 2014-09-29 2016-04-06 富士重工业株式会社 车辆的行驶控制装置
DE102015213190B3 (de) * 2015-07-14 2016-09-29 Bayerische Motoren Werke Aktiengesellschaft Längsführendes Fahrerassistenzsystem in einem Kraftfahrzeug

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8041483B2 (en) 1994-05-23 2011-10-18 Automotive Technologies International, Inc. Exterior airbag deployment techniques
JPH11148394A (ja) * 1997-11-14 1999-06-02 Nissan Motor Co Ltd 車両制御装置
FR2803391B1 (fr) * 2000-01-05 2002-05-03 Auscultation Multifonctionnell Procede pour determiner les distances de visibilite d'une voie de circulation
JP3878008B2 (ja) * 2001-12-07 2007-02-07 株式会社日立製作所 車両用走行制御装置及び地図情報データ記録媒体
FR2847367B1 (fr) 2002-11-19 2005-01-14 Valeo Vision Procede et dispositif de determination de la distance de visibilite du conducteur d'un vehicule
JP4882499B2 (ja) * 2006-05-10 2012-02-22 株式会社デンソー 速度情報提供装置及びプログラム
JP4933962B2 (ja) * 2007-06-22 2012-05-16 富士重工業株式会社 分岐路進入判定装置
KR100963849B1 (ko) 2008-07-15 2010-06-16 (주)미라클산업 도로 기상 종합 시스템 및 제공방법
KR101240181B1 (ko) 2008-11-10 2013-03-07 한국전자통신연구원 이동 로봇의 안전경로 생성 방법 및 장치
JP2010231561A (ja) * 2009-03-27 2010-10-14 Toyota Motor Corp 走行状態検出装置及び運転支援装置
JP5366703B2 (ja) * 2009-08-19 2013-12-11 株式会社Ihiエアロスペース 半自律型無人車両の遠隔操縦システム
KR101303528B1 (ko) 2009-08-24 2013-09-03 한국전자통신연구원 충돌위험도에 기초한 충돌방지 시스템
WO2011101949A1 (ja) * 2010-02-16 2011-08-25 トヨタ自動車株式会社 車両制御装置
JP5522005B2 (ja) * 2010-11-26 2014-06-18 トヨタ自動車株式会社 車両制御装置
KR20120138352A (ko) * 2011-06-15 2012-12-26 주식회사 만도 차간거리 제어시스템 및 그 제어방법
JP6011104B2 (ja) 2012-07-24 2016-10-19 株式会社デンソー 車両用視界支援装置
US20150316386A1 (en) * 2014-04-30 2015-11-05 Toyota Motor Engineering & Manufacturing North America, Inc. Detailed map format for autonomous driving
KR102118066B1 (ko) 2014-08-20 2020-06-03 현대모비스 주식회사 주행 안전을 위한 차량 제어방법
JP2016080539A (ja) * 2014-10-17 2016-05-16 トヨタ自動車株式会社 車載センサ
KR102203410B1 (ko) * 2014-10-20 2021-01-18 삼성에스디에스 주식회사 관심 영역 설정 방법 및 장치
KR101628503B1 (ko) 2014-10-27 2016-06-08 현대자동차주식회사 운전자 보조장치 및 그 작동 방법
KR102326062B1 (ko) 2014-11-12 2021-11-12 현대모비스 주식회사 자율주행차량의 장애물 회피 시스템 및 방법
KR20160066854A (ko) 2014-12-03 2016-06-13 한국건설기술연구원 자율주행 차량의 기상관측 장치 및 방법
KR101692628B1 (ko) 2014-12-24 2017-01-04 한동대학교 산학협력단 관심영역을 이용하여 차량의 후방 좌우 옆 차선 영역을 감지하는 방법 및 이를 이용한 차량용 영상 모니터링 시스템
DE102015224553A1 (de) * 2015-12-08 2017-06-08 Robert Bosch Gmbh Verfahren, Computerprogramm, Speichermedium und Elektronische Steuereinheit zum Betreiben eines Fahrzeugs

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110066312A1 (en) * 2009-09-15 2011-03-17 Electronics And Telecommunications Research Institute Navigation apparatus and driving route information providing method using the same and automatic driving system and method
CN103250420A (zh) * 2010-12-06 2013-08-14 三星电子株式会社 三维显示装置及其三维显示方法
CN105083285A (zh) * 2014-05-12 2015-11-25 福特全球技术公司 在制动情况下的紧急车道内转向辅助
CN105460008A (zh) * 2014-09-29 2016-04-06 富士重工业株式会社 车辆的行驶控制装置
DE102015213190B3 (de) * 2015-07-14 2016-09-29 Bayerische Motoren Werke Aktiengesellschaft Längsführendes Fahrerassistenzsystem in einem Kraftfahrzeug

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JURE ZBONTAR: "Stereo Matching by Training a Convolutional Neural Network to Compare Image Patches", 《JOURNAL OF MACHINE LEARNING RESEARCH》 *
MIHAI NEGRU: "Assisting Navigation in Homogenous Fog", 《INTERNATIONAL CONFERENCE ON COMPUTER VISION THEORY AND APPLICATIONS(VISAPP)》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109383289A (zh) * 2018-10-19 2019-02-26 湖北亿咖通科技有限公司 汽车限速控制方法、装置、电子设备及可读存储介质
CN109656245A (zh) * 2018-10-31 2019-04-19 百度在线网络技术(北京)有限公司 刹车位置的确定方法和装置
CN111121714A (zh) * 2019-12-25 2020-05-08 中公高科养护科技股份有限公司 一种行车视距的测量方法及系统
CN111121714B (zh) * 2019-12-25 2021-10-26 中公高科养护科技股份有限公司 一种行车视距的测量方法及系统
CN111231946A (zh) * 2020-03-03 2020-06-05 安徽中科美络信息技术有限公司 一种低视距车辆安全行驶控制方法
CN111231946B (zh) * 2020-03-03 2021-08-20 安徽中科美络信息技术有限公司 一种低视距车辆安全行驶控制方法

Also Published As

Publication number Publication date
JP2018087004A (ja) 2018-06-07
EP3327618A3 (en) 2018-09-05
KR102585219B1 (ko) 2023-10-05
EP3327618A2 (en) 2018-05-30
US20180148053A1 (en) 2018-05-31
CN108116410B (zh) 2022-09-20
US10668924B2 (en) 2020-06-02
EP3327618B1 (en) 2022-05-25
KR20180060782A (ko) 2018-06-07

Similar Documents

Publication Publication Date Title
CN108116410A (zh) 用于控制车辆的速度的方法和设备
JP7210165B2 (ja) 仮想経路を表示する方法、装置及びディスプレイ装置
US11593950B2 (en) System and method for movement detection
US11915491B2 (en) Controlling host vehicle based on detected door opening events
EP3732657B1 (en) Vehicle localization
US10696227B2 (en) Determining a road surface characteristic
EP3229041B1 (en) Object detection using radar and vision defined image detection zone
EP2372310B1 (en) Image processing system and position measurement system
CN108271408A (zh) 使用被动和主动测量生成场景的三维地图
KR101891460B1 (ko) 차도 위의 반사체를 인식하고 평가하기 위한 방법 및 장치
US11568654B2 (en) Object recognition method and object recognition device performing the same
CN103770704A (zh) 用于识别车辆的停车位标志线的系统和方法
US11676403B2 (en) Combining visible light camera and thermal camera information
Liu et al. Vehicle detection and ranging using two different focal length cameras
CN104931024B (zh) 障碍物检测装置
Nedevschi et al. Stereovision-based sensor for intersection assistance
Wu et al. Nighttime vehicle detection at close range using vehicle lamps information
JP2024037165A (ja) オブジェクトをモデリングするための方法、機器、記憶媒体及び車両制御方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant