CN104590258A - 车辆控制系统 - Google Patents

车辆控制系统 Download PDF

Info

Publication number
CN104590258A
CN104590258A CN201410584771.XA CN201410584771A CN104590258A CN 104590258 A CN104590258 A CN 104590258A CN 201410584771 A CN201410584771 A CN 201410584771A CN 104590258 A CN104590258 A CN 104590258A
Authority
CN
China
Prior art keywords
distance
vehicle
image
image processing
processing part
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410584771.XA
Other languages
English (en)
Other versions
CN104590258B (zh
Inventor
真壁俊介
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Publication of CN104590258A publication Critical patent/CN104590258A/zh
Application granted granted Critical
Publication of CN104590258B publication Critical patent/CN104590258B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/002Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/06Combustion engines, Gas turbines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/10Change speed gearings
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system

Abstract

本发明提供一种可判断有无向挡风玻璃的映像的车辆控制系统。执行距离计算处理和代表距离计算处理;距离计算处理通过模式匹配来检测通过立体拍摄而得到的一对拍摄图像间的对应点,将对应点间的坐标的偏差作为视差而求出,基于该视差计算至对应点为止的距离;代表距离计算处理将通过距离计算处理计算的每个对应点的距离表示在图像上作为距离图像,沿该距离图像中的纵方向将所述距离图像分割为区分的多个短条区域,按每个短条区域将频度为预定值以上的距离作为代表距离而求出。进一步地,执行计算在图像的下端部中的左右方向的中央部设定的监视区域内的代表距离的数量并判断该计算值与阈值的大小关系的判断处理,来判断有无映像。

Description

车辆控制系统
技术领域
本发明涉及关于车辆控制系统的技术领域,该车辆控制系统具有基于在本车辆的行驶方向上进行立体拍摄而得到的拍摄图像来识别车外环境的功能。
背景技术
已知有这样的车辆系统,即,基于在本车辆的行驶方向上进行立体拍摄而得到的拍摄图像等来识别车外环境,基于识别结果而进行用于驾驶辅助的预定车辆控制(以下,记载为“驾驶辅助控制”)。例如,已知有基于对在本车辆的行驶方向上存在的车辆和/或其它预定障碍物进行识别的结果来进行所谓的避撞制动控制的车辆系统等。避撞制动控制识别存在于本车辆的行驶方向上的前行车辆等的预定对象物(障碍物),当判断为可能会与对象物碰撞时,向驾驶员进行警告和/或进行制动的辅助等的预定的车辆控制。
在此,作为与本申请相关的现有技术文献,可列举下述专利文献1。
现有技术文献
专利文献
专利文献1:日本特开2001-41741号公报
发明内容
技术问题
在此,在对象物的识别处理中,会有因在实际行驶环境下发生的各种事件而导致将对象物以外的物体作为对象物而错误识别的情况。在发生了这样的错误识别的情况下,可能会错误地执行原本应当不必要的上述避撞制动控制等驾驶辅助控制。
作为发生对象物的错误识别的情况之一,可列举由于在仪表板的上表面放置物体,该物体映在挡风玻璃上,而将其作为对象物而识别的情况。有时会由于向仪表板上物体的光的照射状况和/或与隔着挡风玻璃的风景的关系等,而使这种仪表板上物体向挡风玻璃的映像在对象物的识别处理中作为在近距离处存在的对象物而被错误识别。而且,如此错误识别为在近距离有对象物的情况下,有避撞制动控制立即干预来使本车辆紧急制动的隐患。
因此,本发明的目的在于提供一种克服上述的问题点,并可以判断有无向挡风玻璃的映像的车辆控制系统。
技术方案
第一,本发明的车辆控制系统包括:摄像部,通过在本车辆的行驶方向上进行拍摄的一对摄影机来进行立体拍摄;图像处理部,基于由所述摄像部得到的拍摄图像,进行用于识别车外环境的图像处理;所述图像处理部执行:距离计算处理,通过模式匹配来检测通过所述立体拍摄得到的一对拍摄图像间的对应点,将所述对应点间的坐标的偏差作为视差而求出,基于该视差计算至所述对应点为止的距离;代表距离计算处理,将通过所述距离计算处理计算的每个所述对应点的距离表示在图像上作为距离图像,沿该距离图像中的纵方向将所述距离图像分割为区分的多个短条区域,按每个所述短条区域将频度为预定值以上的距离作为代表距离而求出;判断处理,计算监视区域内的所述代表距离的数量,判断该计算值与阈值的大小关系,所述监视区域设定于设纵轴为所述距离、横轴为所述拍摄图像的图像左右位置的图像的下端部中的左右方向的中央部。
如上所述的监视区域为将存在于本车辆的近距离的左右方向的中央附近的物体作为对象的区域。在本车辆正在道路上行驶的情况下,存在于近距离的左右方向的中央附近的主要是路面,但通常关于路面,距离的计算数量少,出现代表距离少。对此,如果产生向挡风玻璃的映像,则成为在监视区域中距离的计算数量增加而代表距离的数量也增加的倾向。这样将监视区域内的代表距离的数量作为用于有无向挡风玻璃的映像的判断指标是适宜的。
第二,优选在上述的本发明的车辆控制系统中,所述图像处理部在判断本车辆的行驶速度在预定速度以上的情况下进行所述判断处理。
由于本车辆为停止中或缓慢行驶中的状况下,在近距离的左右方向的中央附近存在路面上物体的可能性高,因此在监视区域内容易较多地出现因该物体引起的代表距离。因此,通过如上所述在本车辆的行驶速度在预定速度以上的情况下进行判断处理,从而在监视区域内混有因映像以外的物体引起的代表距离的可能性低的状况下进行有无映像的判断。
第三,优选在上述的本发明的车辆控制系统中,所述图像处理部基于每个所述短条区域的所述代表距离,执行对存在于本车辆的行驶方向上的物体进行检测的物体检测处理;判断是否通过所述物体检测处理正在所述监视区域内稳定地检测物体,基于该判断结果执行所述判断处理。
由此,可以在监视区域内稳定地检测了物体的情况下执行判断处理,在不稳定检测的情况下不执行判断处理。即,可以在监视区域内混有因映像以外的物体引起的代表距离的可能性高的状况下不进行有无映像的判断,在监视区域内出现因映像引起的代表距离的可能性高的情况下进行有无映像S的判断。
第四,优选在上述的本发明的车辆控制系统中,所述图像处理部判断本车辆是否正在转弯,基于该判断结果执行所述判断处理。
当本车辆正在转弯时,在监视区域内容易混有存在于路边的物体(例如护栏和/或路边的墙壁等)的代表距离与因映像引起的代表距离。因此,通过判断是否符合这样的情况,并基于其结果来执行判断处理,从而可以在监视区域内混有因映像以外的物体引起的代表距离的可能性高的情况下不执行判断处理,在该可能性低的情况下执行判断处理。
第五,优选在上述的本发明的车辆控制系统中,所述图像处理部判断所述代表距离的孤立数据数量是否多,基于该判断结果来执行所述判断处理。
例如在雨天时等路面湿润而周围物体向路面的映像多的状况下,在监视范围内容易混有因向路面的映像引起的代表距离与因向挡风玻璃的映像引起的代表距离。因此,通过基于代表距离的孤立数据的数量判断是否符合这样的情况,并基于其结果而执行判断处理,从而可以在监视区域内混有因映像以外的物体引起的代表距离的可能性高的情况下不执行判断处理,在该可能性低的情况下执行判断处理。
第六,优选在上述的本发明的车辆控制系统中,所述图像处理部判断本车辆是否正在下坡路上行驶,或者判断是否通过所述摄像部正在上坡路上拍摄,基于该判断结果来执行所述判断处理。
在本车辆正在下坡路上行驶的情况下和/或利用摄像部正在上坡路拍摄的情况下,容易计算因在本车辆的近距离的左右方向的中央附近的路面上的涂漆部分等物体引起的距离,在监视区域内容易出现因映像以外的物体引起的代表距离。因此,判断是否符合这些情况,基于其结果而执行判断处理,从而可以在监视区域内混有因映像以外的物体引起的代表距离的可能性高的情况下不执行判断处理,在该可能性低的情况下执行判断处理。
第七,优选在上述的本发明的车辆控制系统中,所述图像处理部基于每个所述短条区域的所述代表距离来执行对存在于本车辆的行驶方向上的物体进行检测的物体检测处理;包括驾驶辅助控制装置,所述驾驶辅助控制装置基于利用所述物体检测处理的所述物体的检测结果,执行作为驾驶辅助控制处理的预定车辆控制处理;所述图像处理部基于所述判断处理的结果,使所述驾驶辅助控制处理强制停止。
由此,可以与产生映像的情况相对应而使驾驶辅助控制处理强制停止。
有益效果
根据本发明,能够提供可判断有无向挡风玻璃的映像的车辆控制系统。
附图说明
图1是示出实施方式的车辆控制系统的构成的图。
图2是用于说明关于实施方式中执行的图像处理的图。
图3是关于实施方式的立体物检测处理的说明图。
图4是关于向挡风玻璃的映像的说明图。
图5是关于监视区域的说明图。
图6是关于当本车辆正在道路上行驶并且不产生映像时的拍摄图像、监视区域和代表距离的关系的说明图。
图7是关于当本车辆正在道路上行驶并且产生了映像时的拍摄图像、监视区域和代表距离的关系的说明图。
图8是示出作为实施方式的故障安全(fail safe)控制处理的具体处理步骤的流程图。
图9是关于当本车辆正在转弯时的拍摄图像、监视区域和代表距离的关系的说明图。
图10是关于当本车辆正在下坡路上行驶时的拍摄图像、监视区域和代表距离的关系的说明图。
图11是关于当正在上坡路上在拍摄时的拍摄图像、监视区域和代表距离的关系的说明图。
图12是关于当在监视区域内正在稳定地检测物体时的拍摄图像、监视区域和代表距离的关系的说明图。
符号说明
1…车辆控制系统
2…摄像部
3…图像处理部
3A…三维位置信息生成处理部
3D…立体物检测处理部
3F…故障安全控制处理部 5…驾驶辅助控制部
具体实施方式
<1、系统整体构成>
图1示出了作为本发明的实施方式的车辆控制系统1的构成。需要说明的是,在图1中,仅提取并示出了车辆控制系统1的构成中主要与本发明相关的主要部分的构成。
车辆控制系统1被构成为包括:对本车辆设置的摄像部2、图像处理部3、存储器4、驾驶辅助控制部5、显示控制部6、发动机控制部7、变速器控制部8、制动控制部9、传感器/操作件类10、显示部11、发动机关联驱动器12、变速器关联驱动器13、制动关联驱动器14和总线15。
图像处理部3基于摄像部2在本车辆的行驶方向(在本示例中为前方)上拍摄而得到的拍摄图像数据,来执行与车外环境的识别相关的预定的图像处理。利用图像处理部3的图像处理,使用例如作为非易失存储器等的存储器4来进行。需要说明的是,后面将详细描述关于摄像部2的内部构成和图像处理部3执行的具体的处理。
驾驶辅助控制部5例如由包括CPU(中央处理器,Central ProcessingUnit)、ROM(只读存储器,Read Only Memory)、RAM(随机存取存储器,Random Access Memory)等的微型计算机构成,基于利用图像处理部3的图像处理的结果、由传感器/操作件类10得到的检测信息和/或操作输入信息等,执行用于驾驶辅助的各种控制处理(以下,记载为“驾驶辅助控制处理”)。
驾驶辅助控制部5与同样由微型计算机构成的显示控制部6、发动机控制部7、变速器控制部8和制动控制部9的各控制部通过总线15连接,而能够与这些各控制部之间相互进行数据通信。驾驶辅助控制部5对上述的各控制部中需要的控制部进行指示,来执行与驾驶辅助相关的工作。
本示例的驾驶辅助控制部5作为避撞制动控制处理部5A和ACC(Adaptive Cruise Control:前行车辆跟随型自动巡航)控制处理部5B而至少执行作为驾驶辅助控制处理所表示的处理。避撞制动控制处理部5A执行的避撞制动控制处理通过图像处理部3,在检测出存在于本车辆的行驶方向上的前行车辆等预定对象物的状态下,当判断为可能会与该对象物碰撞时,向驾驶员进行警告和/或进行制动辅助等预定的车辆控制。是否可能会与对象物碰撞的判断,如下所述那样,基于在图像处理部3中计算的到该对象物(立体物)为止的距离Z的信息而进行。
另外,ACC控制处理部5B执行的ACC控制处理是这样的处理,即,以在识别出前行车辆的情况下保持与该前行车辆的车间距离固定,并且在距本车辆固定距离内没有识别出前行车辆的情况下以维持所设定的固定速度的方式,进行本车辆的加减速控制。
传感器/操作件类10总括性地表示设置在本车辆的各种传感器和/或操作件。作为传感器/操作件类10具有的传感器、操作件有:检测本车辆的速度的车速传感器10A、根据制动踏板的操作/不操作而被接通/断开(ON/OFF)的制动开关10B、从加速踏板的踩踏量而检测加速开度的加速开度传感器10C、检测转向角的转向角传感器10D、检测横摆率(Yaw Rate)的横摆率传感器10E以及检测加速度的G传感器10F。另外,虽然省略了图示,但作为其它的传感器,例如还有发动机旋转数传感器、检测吸入空气量的吸入空气量传感器、检测安装在吸气通路间而调整向发动机的各气筒供给的吸入空气量的节流阀的开度的节流开度传感器、检测表示发动机温度的冷却水温的水温传感器、检测车外气温的外界气温传感器等。另外,还有表示雨刷器的启动/停止(ON/OFF)状态的雨刷器开关。
另外,作为操作件有:用于指示发动机的启动/停止的点火开关、用于进行AT(自动驾驶)车中的自动变速模式/手动变速模式的选择或用于进行手动变速模式时的升档/降档的指示的选择杆、和/或对设在后述的显示部11的MFD(多功能显示器,Multi Function Display)中的显示信息进行切换的显示切换开关等。
显示部11总括性地表示设置在驾驶员的前方的仪表盘内所设的速度计和/或转速计等各种仪表和/或MFD、以及其它用于向驾驶员进行信息提示的显示装置。在MFD可以同时或切换地显示本车辆的总行驶距离和/或外界气温、瞬时油耗等这样的各种信息。
显示控制部6基于来自传感器/操作件类10中的预定的传感器的检测信号和/或利用操作件的操作输入信息等,对利用显示部11的显示工作进行控制。例如,可以基于来自驾驶辅助控制部5的指示,作为驾驶辅助的一环而使显示部11(例如MFD的预定区域)中显示预定的注意提醒消息。
发动机控制部7基于来自传感器/操作件类10中的预定的传感器的检测信号和/或利用操作件的操作输入信息等,对作为发动机关联驱动器12而设置的各种驱动器进行控制。作为发动机关联驱动器12,例如可设置驱动节流阀的节流驱动器或与进行燃料喷射的喷射器等的发动机驱动相关的各种的驱动器。
例如发动机控制部7根据上述的点火开关的操作而进行发动机的启动/停止控制。另外,发动机控制部7还基于来自发动机旋转数传感器和/或加速开度传感器10C等预定的传感器的检测信号,进行燃料喷射时机、燃料喷射脉冲宽度、节流开度等的控制。
变速器控制部8基于来自传感器/操作件类10中的预定的传感器的检测信号和/或利用操作件的操作输入信息等,对作为变速器关联驱动器13而设置的各种驱动器进行控制。作为变速器关联驱动器13,例如可设置进行自动变速器的变速控制的控制阀、或者使锁止离合器进行闭锁动作的锁止驱动器等的变速器关联的各种驱动器。
例如,当通过上述的选择杆选择了自动变速模式时,变速器控制部8按照预定变速模式将变速信号输出到控制阀而进行变速控制。
另外,当设定手动变速模式时,变速器控制部8将按照利用选择杆的升档/降档指示的变速信号输出到控制阀而进行变速控制。
制动控制部9基于来自传感器/操作件类10中的预定的传感器的检测信号和/或利用操作件的操作输入信息等,对作为制动关联驱动器14而设置的各种驱动器进行控制。作为制动关联驱动器14,例如可设置用于对从制动助力器向主缸的输出液压和/或制动液配管内的液压进行控制的液压控制驱动器等、制动关联的各种驱动器。
例如,在驾驶辅助控制部5做出了打开(ON)制动的指示的情况下,制动控制部9控制上述的液压控制驱动器而对本车辆进行制动。另外,制动控制部9基于由预定的传感器(例如车轴的旋转速度传感器和/或车速传感器10A)的检测信息计算车轮的滑移率,根据滑移率而由上述的液压控制驱动器对液压进行加减压,来实现所说的ABS(防抱死制动系统,Antilock BrakeSystem)控制。
<2、在本实施方式中执行的图像处理>
通过图2对在本实施方式中执行的图像处理进行说明。
需要说明的是,在图2中,为了说明图像处理,将图像处理部3的构成与图1中示出的摄像部2的内部构成以及存储器4一起示出。首先,对用于获得在图像处理中使用的拍摄图像数据的摄像部2进行简单地说明。
在摄像部2中设置有第一摄影机部20-1、第二摄影机部20-2、A/D转换器21-1、A/D转换器21-2和图像修正部22。
第一摄影机部20-1、第二摄影机部20-2分别被构造为包括摄影机光学系统、CCD(电荷耦合器件,Charge Coupled Device)和/或CMOS(互补金属氧化物半导体,Complementary Metal Oxide Semiconductor)等拍摄元件;通过所述摄影机光学系统使被拍摄体图像在所述拍摄元件的拍摄面上成像,通过该摄像元件以像素单位获得与受光光量相对应的电信号。
第一摄影机部20-1、第二摄影机部20-2被设置为能够利用所谓的立体拍摄法进行测距。即,被配置为能够得到视点不同的多个拍摄图像。本示例中的第一摄影机部20-1和第二摄影机部20-2被配置为在本车辆的挡风玻璃上部附近并在车辆宽度方向上隔开预定间隔。将第一摄影机部20-1和第二摄影机部20-2的光轴设为平行,并且将焦距均设为相等的值。另外,使帧周期同步,并且帧频也一致。
将由第一摄影机部20-1的摄影元件得到的电信号提供至A/D转换器21-1,将由第二摄影机部20-2的摄影元件得到的电信号提供至A/D转换器21-2,分别进行A/D转换。由此,以像素单位得到表示根据预定等级的亮度值的数字图像信号(图像数据)。
在图像修正部22中输入通过A/D转换器21-1所得到的基于利用第一摄影机部20-1的拍摄图像的图像数据(以下记载为“第一拍摄图像数据”)、以及通过A/D转换器21-2所得到的基于利用第二摄影机部20-2的拍摄图像的图像数据(以下记载为“第二拍摄图像数据”)。图像修正部22使用例如仿射(affine)变换等分别对于第一拍摄图像数据和第二拍摄图像数据进行因第一摄影机部20-1和第二摄影机部20-2的安装位置的误差而引起的偏差的修正。并且,图像修正部22分别对于第一拍摄图像数据和第二拍摄图像数据还进行包括噪音去除等亮度值的修正。
由摄像部2得到的第一拍摄图像数据和第二拍摄图像数据通过图像处理部3被记录/存储在存储器4中。
图像处理部3由例如微型计算机构成,按照启动的程序而执行基于第一拍摄图像数据和第二拍摄图像数据的各种图像处理。
在图2中,将图像处理部3执行的各种图像处理按每个功能划分来模块化地表示。如图那样如果将图像处理部3按每个功能大致区分则有:三维位置信息生成处理部3A、行车线检测处理部3B、行车线模型形成处理部3C、立体物检测处理部3D、对象识别处理部3E和故障安全控制处理部3F。
三维位置信息生成处理部3A执行的三维位置信息生成处理是基于存储在存储器4中的第一拍摄图像数据和第二拍摄图像数据,生成三维位置信息的处理。具体来说,三维位置信息生成处理是这样的处理,即,通过模式匹配来检测第一拍摄图像数据和第二拍摄图像数据(也就是立体拍摄的一对图像数据)之间的对应点,将检测出的对应点间的坐标偏差作为视差dp而计算,使用视差dp通过三角测量的原理,作为三维位置信息生成实际空间上的对应点的位置的信息。在计算作为视差dp的坐标的偏差时,预先规定第一拍摄图像数据和第二拍摄图像数据中的一方为“基准图像”,另一方为“比较图像”。为了可以计算关于位于基准图像上的水平方向端部的物体的视差dp,比较图像被生成为水平方向像素数量比基准图像更多的图像。
在此,三维位置信息是设一对摄影机(第一摄影机部20-1和第二摄影机部20-2)的中央正下方的点为原点、设沿连接一对摄影机的方向为X轴,沿上下方向为Y轴,沿前后方向为Z轴时,作为空间上的点(X,Y,Z)而表示的信息。设与基准图像中的水平方向平行的轴为i轴,与垂直方向平行的轴为j轴时的像素的坐标用(i,j)表示,设一对摄影机的间隔为CD,每一像素的视角为PW,一对摄影机的安装高度为CH,摄影机正面的无限远的点的基准图像上的i坐标、j坐标分别为IV、JV时,通过由下述[式1]~[式3]表示的坐标转换求出作为三维位置信息的X、Y和Z的各值。
X=CD/2+Z×PW×(i-IV)…[式1]
Y=CH+Z×PW×(j-JV)…[式2]
Z=CD/{PW×(dp-DP)}…[式3]
在此,上述[式3]中的“DP”也称为消失点视差或无限远对应点等,但总之是以基准图像与比较图像之间的对应点间的视差dp以及到对应点为止的实际空间上的距离Z满足上述[式3]的方式而确定的值。
行车线检测处理部3B执行的行车线检测处理是这样的处理,即,基于基准图像(也就是第一拍摄图像数据或者第二拍摄图像数据中预先进行了设定的那一方的图像数据)以及由上述的三维位置信息生成处理生成的三维位置信息(包括作为对应点的每个像素的距离Z),检测在本车辆行驶的路面上形成行车线。具体来说,在行车线检测处理中,首先基于基准图像的各像素的亮度值和各像素的实际空间中的距离Z而检测在基准图像上的行车线候补点,基于检测出的行车线候补点来检测本车辆的左右的行车线位置。例如,将在基准图像上的一个像素宽度的水平线上沿左右方向按每像素进行移动的同时进行搜索,基于基准图像的各像素的亮度值,将满足了各像素的亮度微分值(=边缘强度)在阈值以上大幅变化的条件的像素作为行车线候补点而进行检测。将作为上述搜索对象的水平线从基准图像的例如下侧向上按每像素宽度进行移动的同时依次进行该处理。由此,分别在本车辆的右侧区域和左侧区域检测行车线候补点。
行车线模型形成处理部3C执行的行车线模型形成处理是这样的处理,即,基于由上述的行车线检测所检测出的左右行车线候补点的信息,形成由X、Y、Z的各轴定义的三维空间上的行车线模型。具体来说,将由行车线检测部所检测出的行车线候补点的三维位置(X,Y,Z)通过例如最小二乘法等进行线性拟合,而形成三维空间上的行车线模型。
通过这样形成的行车线模型,还可得到本车辆行驶的路面的高度信息。
立体物检测处理部3D执行的立体物检测处理是基于三维位置信息,检测存在于本车辆的行驶方向上的立体物的处理。例如,在该立体物检测处理中,将在之前的视差dp的计算过程中检测出的各对应点与其距离Z的值对应关联,来生成在图像上表示的距离图像。而且,如图3A所示,将该距离图像沿纵向分割为区分的多个纵区域VR,按每个纵区域VR制作表示图像纵方向(j方向)的距离分布的距离直方图,将频度为预定值以上的位置(对应点)的距离Z设为存在于该纵区域VR内的物体的代表距离(参照图3B)。而且,对于获得了代表距离的各对应点,由达到接近的各对应点的距离Z和/或方向等的相关性,将视为同一物体的像素范围群组化,确定存在于图像内的各立体物的范围G(参照图3C)。由此,来说,还检测包括到该立体物为止的距离Z的信息以及其尺寸的信息在内的存在于图像内的立体物(在图3C中记载为G1~G3)。
需要说明的是,立体物检测处理的方法与日本特开2009-8539号公报中记载的方法相同,详细请参照该文献。
对象识别处理部3E执行的对象识别处理是基于基准图像和立体物检测处理所检测的立体物的信息,对存在于本车辆的行驶方向的对象物进行识别。在此所说的对象物表示当进行驾驶辅助控制处理时检测出的立体物中需要进行该识别(辨别)的前行车辆和/或行人、其它预定的障碍物。
例如,前行车辆的识别通过经过多个帧而对检测出立体物的距离Z的信息进行监视,从而当在本车辆的行驶道路上存在的立体物时,将在与本车辆大致相同的行驶方向上以满足预定速度条件的速度而移动的物体作为前行车辆而提取。这时,为了抑制错误识别车辆以外的立体物,还配合进行使用基准图像的模式匹配(基于例如制动灯等的车辆的特征点的模式匹配)。
在识别出前行车辆的情况下,作为前行车辆识别信息而计算前行车距离(=与本车辆的车间距离)、前行车速度(=车间距离的变化比例+本车速度)、前行车加速度(=前行车速的微分值)。
需要说明的是,上述的对象识别处理的方法与日本特开2012-66759号公報中公开的方法相同,详细情况请参照该文献。
故障安全控制处理部3F执行的故障安全控制处理是进行对驾驶辅助控制部5执行的驾驶辅助控制处理的强制停止以及解除强制停止的处理。故障安全控制处理是这样的处理,即,对由摄像部2得到的拍摄图像的可靠度的高低进行判断,当判断为可靠度低时,从故障安全的观点考虑,强制停止驾驶辅助控制处理;当判断为可靠度不低时解除强制停止。
需要说明的是,作为用于判断拍摄图像的可靠度的判断条件,虽然可列举例如在下述的参考文献1和/或参考文献2中记载的条件等,即,作为判断条件,例如,可以以能够适当地判断雨天时在挡风玻璃上的污垢的付着、逆光等被认为是拍摄图像的可靠度低的状况的方式进行设定,但并不应当被限定为特定的条件。
·参考文献1:日本特开2001-28056号公报
·参考文献2:日本特开2001-43496号公报
在故障安全控制处理中,在使驾驶辅助控制处理强制停止的情况下,还配合执行用于例如将该情况的通知信息显示到显示部11等,将进行强制停止的情况通知给驾驶员的处理。
在此,在本实施方式的故障安全控制处理中,作为对拍摄图像的可靠度的判断处理之一,进行判断有无向挡风玻璃的映像的处理。
图4是关于向挡风玻璃的映像的说明图。
本说明书中所说的向挡风玻璃的映像是如图4A中所示放置在本车辆的仪表板D的上表面的物体Ds反射而映到挡风玻璃FG上的映像。以下,将这种因向挡风玻璃FG的仪表板D上的物体Ds造成的映像记载为“映像S”。
这样的映像S如图4B中所示被映到由摄像部2得到的拍摄图像中,通过上述的立体物检测处理而可被错误检测为立体物。而且,这样错误检测到的映像S可能会在上述的对象识别处理中被错误地识别为在本车辆的前方存在的近距离的对象物,其结果会有利用前述的避撞制动控制处理的制动控制立即干预而使本车辆紧急制动等危险。或者,即使在ACC控制处理中,对于这样的近距离的对象物,要使其拉开一定的车间距离,结果本车辆可能会被不必要地制动。
因此,在本实施方式中,作为故障安全控制处理的一环而判断有无映像S,基于该判断的结果而执行使避撞制动控制处理和/或ACC控制处理等驾驶辅助控制处理强制停止的处理。
有无映像S的判断基于在上述的物体检测处理的过程中按每个纵区域VR求出代表距离而进行。具体来说,针对设纵轴为距离Z、横轴为i方向位置(即拍摄图像的左右位置)的图像而设定监视区域AW,计算监视区域AW内存在的代表距离的数量,判断该计算值与阈值的大小关系。
图5是关于监视区域AW的说明图。如图5A中所示,将监视区域AW设定在设纵轴为距离Z、横轴为i方向位置的图像的下端部中的左右方向的中央部。根据这样的监视区域AW,例如如图5B中所示,作为在本车辆正在道路上行驶的状况下,可以仅掌握位于本车辆的近距离处的路面。
在本示例中,以在实际行驶环境中设想的窄道(例如宽度为2.5m等)中使路边的物体(例如护栏和/或墙等)不进入监视区域AW内的方式来设定监视区域AW的宽度和i方向上的位置。另外,以除停止中和/或缓慢行驶中等之外,本车速在超过一定程度的状态(例如20km/h以上)下使前行车辆不进入监视区域AW内的方式来设定监视区域AW的高度方向的长度(即距离Z的范围)和高度方向上的位置。
具体来说,将1个区块作为4×4=16个像素时的距离图像的宽度尺寸为188个区块,在纵区域VR的宽度为4个像素的情况下,以i方向=第71区块~第117区块的范围、Z方向=0m~12m的范围的方式来设定本示例的监视区域AW。但是,i坐标的原点为图像的最左位置。
在此,如图5B中所示,在本车辆正在道路上行驶并且不产生映像S的情况下,如图6中所示,在监视区域AW内不出现代表距离的可能性高。这是由于在不产生映像S的情况下,作为存在于本车辆的近距离的左右方向的中央附近的物体而仅拍摄路面的可能性高。在这种情况下,如果求出每个纵区域VR的代表距离,则如图6中所示,关于存在于路边的物体(例如路边的墙壁等)和/或前行车辆的代表距离出现在监视区域AW的外侧,在监视区域AW内几乎不出现代表距离。
另一方面,如图7A中所示,在产生了映像S的情况下,从如上所述地映像S可被错误检测为近距离的物体的情况而理解的那样,如图7B中所示,监视区域AW内出现因映像S引起的代表距离。
因此,通过如上所述计算存在于监视区域AW内的代表距离的数量,判断该计算值与阈值的大小关系,从而能够判断有无映像S。
但是,在实际行驶环境中,会预想因行驶道路的种类和/或本车辆的行驶状态、自然现象等而造成在监视区域AW内除映像S以外对可算出距离的物体进行了拍摄的情况。因此,在本示例中,如下所说明的那样,通过排除在监视区域AW内混有因除映像S以外的物体引起的代表距离的可能性高的情况来执行基于代表距离的计算值的判断处理,从而实现提高有无映像S的判断精度。
<3、作为实施方式的故障安全控制处理>
图8是示出作为实施方式的故障安全控制处理的具体的处理步骤的流程图。需要说明的是,在图8中仅提取将图像处理部3作为故障安全控制处理部3F而执行的处理中与判断有无映像S相关的处理而示出,省略了关于其它的处理。
另外,图8中示出的处理是在由摄像部2得到的拍摄图像的每一帧期间重复执行的处理。
首先,在步骤S101中,图像处理部3辨别本车辆的行驶速度是否在预定速度以上。具体来说,例如辨别是否在20km/h以上。
在得到本车辆的行驶速度不在预定速度以上的否定结果的情况下,图像处理部3结束在图8中所示的处理。正如由之前的说明所理解的那样,本车辆在停止中或缓慢行驶中,在近距离处的物体易于被检测到,在监视区域AW内容易混有因该物体引起的代表距离。因此,通过在那样的情况下不执行有无映像S的判断,从而以在监视区域AW内混有因除映像S以外的物体引起的代表距离的可能性的高的状况下不进行有无映像S的判断的方式来实现判断精度的提高。换言之,以在监视区域AW内混有因除映像S以外的物体引起的代表距离的可能性的低的状况下进行有无映像S的判断的方式来实现判断精度的提高。
另一方面,在得到本车辆的行驶速度在预定速度以上的肯定结果的情况下,图像处理部3通过进入步骤S102,来辨别本车辆是否正在转弯。是否正在转弯的辨别基于利用转向角传感器10D和/或横摆率传感器10E得到的检测信号而进行。
在得到本车辆正在转弯的肯定结果的情况下,图像处理部3结束图8中所示的处理。
在此,基于如图9A中所示的作为本车辆正在转弯的情况的拍摄图像,如在图9B中所示在监视区域AW内容易出现因路边的物体(在该图的示例中,为路边的墙壁等)引起的代表距离。因此,通过如上所述在判断本车辆正在转弯的情况下不执行有无映像S的判断,从而在监视区域AW内混有因除映像S以外的物体引起的代表距离的可能性高的状况下不进行有无映像S的判断来实现判断精度的提高。
在图8中,在步骤S102中,图像处理部3得到本车辆不是正在转弯的否定结果的情况下,进入步骤S103来辨别雨刷器是否启动(ON),在得到雨刷器启动(ON)的肯定结果的情况下,在步骤S104中辨别孤立数据数量是否在阈值THk以上。在此,所说的孤立数据是表示按每个纵区域VR求出的代表距离中在图像上不成块的代表距离,在本示例中,表示代表距离中通过物体检测处理而没有被群组化的代表距离。
在步骤S104中,在得到孤立数据的数量为阈值THk以上的肯定结果的情况下,图像处理部3结束图8中示出的处理。
如之前所说明的那样,在本车辆的近距离的左右方向的中央附近主要对路面进行拍摄,但例如当雨天时等路面湿润的情况下,周围的物体容易映到路面上,会在监视区域AW内求出因向这样的路面的映像引起的代表距离的可能性高。
在路面湿润的状况下,在整体图像中较多地出现代表距离的孤立数据。因此,通过如上所述在判断孤立数据数为阈值THk以上的情况下执行有无映像S的判断,从而以在监视区域AW内混有因向路面的映像引起的代表距离的可能性高的状况下,也就是说,在监视区域AW内混有因除映像S以外的物体引起的代表距离的可能性高的状况下,不进行有无映像S的判断的方式来实现判断精度的提高。
需要说明的是,在步骤S103中配合判断雨刷器是否启动(ON)是为了提高区分雨天时或除雨天时以外的区分精度。
在图8中,图像处理部3在步骤S103中得到雨刷器没有启动(ON)的否定结果的情况下,或者在步骤S104中得到孤立数据数不在阈值THk以上的否定结果的情况下,进入步骤S105。
在步骤S105中,图像处理部3辨别本车辆是否正在下坡路上行驶。对是否正在下坡路上的判断,能够基于例如G传感器10F的检测信号来进行。在得到本车辆正在下坡路上行驶的肯定结果的情况下,图像处理部3结束图8中所示的处理。
在此,如果本车辆正在下坡路上行驶,则例如如图10A中所示,人行横道的涂漆部分等路面上物体容易作为存在于本车辆的近距离的左右方向的中央附近的物体而被拍摄,其结果是如图10B中所示,在监视区域AW内容易较多地出现因路面上物体引起的代表距离。特别是,在下坡路的结束地点附近,处于近距离的路面以相对于摄影机的摄像面向近侧倾斜的方式被拍摄,在监视区域AW内容易出现因路面上物体引起的代表距离。
因此,通过如上所述在本车辆正在下坡路上行驶的情况下不执行有无映像S的判断,从而以在监视区域AW内混有因除映像S以外的物体引起的代表距离的可能性高的状况下不进行有无映像S的判断的方式来实现判断精度的提高。
在图8中,图像处理部3在步骤S105中得到本车辆不是正在下坡路上行驶的否定结果的情况下,通过进入步骤S106来辨别是否正在上坡路上拍摄。对于是否正在上坡路上拍摄的辨别能够基于由例如上述的行车线模型形成处理而形成的行车线模型来进行。具体来说,例如辨别在预定距离内是否存在向上倾斜的行车线。
如图11A中所示,在对上坡路拍摄的状况下,由于在近距离处的路面相对于摄影机的拍摄面向近侧倾斜的方式而被拍摄,因此与上述的下坡路的情况同样,在监视区域AW内容易出现因路面上物体引起的代表距离(参照图11B)。
因此,通过本车辆正在上坡路上行驶的情况下不执行有无映像S的判断,从而以在监视区域AW内混有因除映像S以外的物体引起的代表距离的可能性高的状况下不进行有无映像S的判断的方式来实现判断精度的提高。
图像处理部3在步骤S106中得到不是正在上坡路上拍摄否定结果的情况下,进入步骤S107来辨别在监视区域AW内是否正在检测立体物。即,在通过上述的立体物检测处理而检测出的立体物中,相对于作为监视区域AW而设定的检测范围G的左右位置与距离Z的左右范围与距离Z的范围,辨别各立体物是重复否存在。
在得到监视区域AW内没有正在检测立体物的否定结果的情况下,图像处理部3进入步骤S109来计算监视区域AW内的代表距离的数量,在步骤S110中辨别计算值是否在阈值THc以上。
如果在监视区域AW没有检测到立体物,则在监视区域AW内混有因除映像S以外的物体引起的代表距离的可能性较低。因此,与这种情况相对应,可以如上所述基于监视区域AW内的代表距离的数量的计算值与阈值THc来进行有无映像的判断。
另一方面,在步骤S107中得到在监视区域AW内正在检测立体物的肯定结果的情况下,图像处理部3通过进入步骤S108来辨别是否正在稳定地检测该立体物。对是否正在稳定地检测立体物的辨别,不仅使用利用当前帧图像的立体物的检测信息,还使用利用既往帧图像的立体物的检测信息而进行。具体来说在本示例中,对是否正在稳定地检测立体物的辨别以下述方式为基准进行:
·立体物的连续检测帧数量是否为预定数量以上
·立体物的尺寸的变化是否小
·在立体物的检测范围G内的OK距离数据数量是否多
在此,所说的OK距离数据数量表示在立体物的检测范围G内计算的距离Z中,与该立体物的代表距离(在本示例中,为在该立体物的检测范围G中固有的各纵区域VR的代表距离的平均值)之差为预定值以内的距离Z的数量。例如在本示例中,将与该立体物的代表距离之差为±5m以内的距离Z的数量作为为OK距离数据数量。
关于对立体物的连续检测帧数量是否为预定数量以上的辨别以这样的方式进行,即,例如,以将3秒换算为帧数量的值作为阈值,对连续检测帧数量是否在该阈值以上进行辨别。
另外,关于对立体物的尺寸的变化是否小的辨别以这样的方式进行,即,例如计算当前帧与上一帧之间的立体物的检测范围G的长度尺寸、宽度尺寸的变化量(%),按每帧辨别这些长度尺寸、宽度尺寸的变化量中的任意一者是否为50%以上且150%以下,在50%以上且150%以下的状态下例如3个帧连续时,得到立体物的尺寸的变化小的辨别结果,除此之外的情况得到尺寸的变化不小的判断结果。需要说明的是,对尺寸的变化是否小的辨别可以以检测范围G的面积作为基准,或者也可以作为在每帧中结束的辨别处理。无论如何进行,对尺寸的变化是否小的辨别方法不应当限于上述的方法,可以考虑多种方法。
而且,对OK距离数据数量是否多的辨别以例如在立体物的检测范围G内所占的OK距离数据的比例(%)为基准进行。具体来说,在“OK距离数据数量/检测范围G的区块数量”为例如60%以上的情况下,得到OK距离数据数量多的肯定结果,在除此以外的情况下得到否定结果。如上所述,通过以比例为基准,无论立体物的尺寸如何均能够适当地估算出OK距离数据的多少。
需要说明的是,对OK距离数据数量是否多的辨别不应当限定于上述的方法,可考虑例如辨别OK距离数据数量是否在预定值以上等多种方法。对OK距离数据数量是否多的辨别相当于进行对立体物的检测范围G内计算的距离Z的分散程度是否小的辨别。
在步骤S108中,在上述的三种所有辨别处理中得到肯定结果的情况下,得到立体物正在被稳定地检测的肯定结果,除此以外的情况,得到立体物不是正在被稳定地检测的否定结果。
在得到正在稳定地检测立体物的肯定结果的情况下,图像处理部3不进行有无映像S的判断而结束图8中示出的处理。另一方面,在得到不是正在稳定地检测立体物的否定结果的情况下,即,得到正在不稳定地检测的判断结果的情况下,图像处理部3进入步骤S109来计算监视区域AW内的代表距离的数量,在步骤S110中辨别计算值是否在阈值THc以上。
需要说明的是,在步骤S108中,在监视区域AW内检测了多个立体物的情况下,辨别是否正在稳定地检测每个立体物,只要有一个正在被稳定地检测的立体物,就结束图8中示出的处理而不进行有无映像的判断,只有在所有的立体物均没有正在被稳定地检测的情况下(即,正在不稳定地检测的情况下)才进入步骤S110来执行判断。
图12是用于对在监视区域AW内正在稳定地检测立体物的情况的示例进行说明的图。具体来说,在该情况下,如图12A中所示,例如作为在较近距离处存在的前行车辆的货车的后端部作为立体物而被检测(参照图中检测范围G),在监视区域AW内较多地出现因该检测出的立体物引起的代表距离(参照图12B)。这样,在监视区域AW内正在稳定地检测立体物状况下,通过因该立体物引起的代表距离而会使代表距离数量的计算值增加,因此可知进行有无映像S的判断是不妥当的。
在此,在本实施方式中,如上所述,在监视区域AW内不是正在稳定地检测立体物的情况(正在不稳定地检测立体物的情况)下,进入步骤S109来进行有无映像S的判断。
对映像S来说,由于依赖于向仪表板上的物体Ds的照射光的情况和/或隔着挡风玻璃的风景等,其产生形态不同,因此可知通过物体检测处理会有不稳定地检测的倾向。因此,通过如上所述与在监视区域AW内正在不稳定地检测立体物的情况相对应而进行有无映像S的判断,从而以与产生映像S的可能性高的情况相对应而执行判断处理的方式来实现判断精度的提高。
在图8中,图像处理部3在步骤S110中得到计算值不在阈值THc以上的否定结果的情况下结束图8中所示的处理,在得到计算值在阈值THc以上的肯定结果的情况下通过进入步骤S111来执行使驾驶辅助控制处理强制停止的处理,结束图8中所示的处理。
在本示例的情况下,在步骤S111的强制停止处理中,驾驶辅助控制部5执行的驾驶辅助控制处理中,至少执行避撞制动控制处理和使ACC控制处理强制停止的处理。
需要说明的是,在上述的一系列的处理中,作为在步骤S110中使用的阈值THc可以被设定如下,即,对于作为放置在例如仪表板D上的物体Ds估计而得的各种物体,进行计算实际上使映像S产生而出现在监视区域AW内的代表距离的数量的实验,从该结果导出可适当地判断有无映像S的值。
另外,在上述内容中,只要监视区域AW内的代表距离数量的计算值超过阈值THc一次,就判断为有映像S,虽然以使驾驶辅助控制处理强制停止的情况为例示出,但还能够以以下方式改变处理,即,根据代表距离数量的计算值是否超过阈值THc的判断结果而以累计值的方式计算点数,以将该点数与预定阈值的大小关系的判断结果作为最终的有无映像S的判断结果。
或者,也可以以下述方式进行,即,如果连续超过阈值THc的次数达到预定次数的情况下最终得到有映像S的判断结果。
<4、实施方式的总结>
如上所述,本实施方式的车辆控制系统1包括:通过一对摄影机在本车辆的行驶方向上进行拍摄来进行立体拍摄的摄像部2、基于由摄像部2得到的拍摄图像进行用于识别车外环境的图像处理的图像处理部3。
图像处理部3执行以下处理,即,距离计算处理(三维位置信息生成处理的一部分),通过模式匹配来检测通过立体拍摄得到的一对拍摄图像间的对应点,将对应点间的坐标的偏差作为视差dp而求出,基于该视差dp计算到对应点为止的距离Z;代表距离计算处理(立体物检测处理的一部分),将通过距离计算处理计算的每个对应点的距离Z表示在图像上作为距离图像,沿该距离图像中的纵方向将距离图像分割为区分的多个短条区域(纵区域VR),按每个短条区域将频度为预定值以上的距离Z作为代表距离而求出;以及判断处理,计算监视区域AW内的代表距离的数量,判断该计算值与阈值THc的大小关系,所述监视区域被设定于设纵轴为距离Z、横轴为拍摄图像的图像左右位置的图像的下端部中的左右方向的中央部。
如上所述的监视区域AW为将存在于本车辆的近距离的左右方向的中央附近的物体作为对象的区域。在本车辆正在道路上行驶的情况下,存在于近距离的左右方向的中央附近的主要是路面,但通常关于路面,距离的计算数量少,出现代表也距离少。对此,如果产生映像S,则成为在监视区域AW内距离的计算数量增加而代表距离的数量也增加的倾向。这样将监视区域AW内的代表距离的数量作为用于有无向挡风玻璃的映像的判断指标是适宜的。
因此,通过如上所述计算监视区域AW内的代表距离的数量,基于该计算值与阈值THc而进行判断,能够判断有无映像S。
需要说明的是,不计算监视区域AW内的距离Z的数量而计算代表距离的数量,是为了提高判断精度。即,在计算了距离数据数量的情况下,会将可靠性低的数据也计算在内,因此避开了可靠性低的数据。
另外,在本实施方式的车辆控制系统1中,图像处理部3在判断本车辆的行驶速度在预定速度以上的情况下进行所述判断处理。
本车辆为停止中或缓慢行驶中的状况下在近距离的左右方向的中央附近存在有路面上物体的可能性高,因此在监视区域AW内容易较多地出现因该物体引起的代表距离。因此,通过如上所述在本车辆的行驶速度在预定速度以上的情况下进行判断处理,从而在监视区域AW内混有因映像S以外的物体引起的代表距离的可能性低的状况下进行有无映像S的判断。
由此,能够实现有无映像的判断精度的提高。
而且,在本实施方式的车辆控制系统1中,图像处理部3基于每个短条区域的代表距离而执行对存在于本车辆的行驶方向上的物体进行检测的物体检测处理(立体物检测处理),判断是否通过物体检测处理在监视区域AW内稳定地检测物体,基于该判断结果执行所述判断处理。
由此,可以在监视区域AW内稳定地检测物体的情况下执行判断处理,在不稳定地检测的情况下不执行判断处理。即,可以在监视区域AW内混有因映像S以外的物体引起的代表距离的可能性高的状况下不进行有无映像S的判断,在监视区域AW内出现因映像S引起的代表距离的可能性高的情况下进行有无映像S的判断。
因此,能够实现有无映像S的判断精度的提高。
而且,在本实施方式的车辆控制系统1中,图像处理部3判断本车辆是否正在转弯,基于该判断结果执行所述判断处理。当本车辆正在转弯时,在监视区域AW内容易混有因存在于路边的物体(例如护栏和/或路边的墙壁等)的代表距离与因映像S引起的代表距离。因此,通过判断是否符合这样的情况,基于其结果而执行判断处理,从而在监视区域AW内混有因映像S以外的物体引起的代表距离的可能性高的情况下不执行判断处理,在该可能性低的情况下执行判断处理。
由此,能够实现有无映像S的判断精度的提高。
更进一步地,在本实施方式的车辆控制系统1中,图像处理部3判断代表距离的孤立数据数量是否多,基于该判断结果执行所述判断处理。
例如在雨天时等路面湿润而周围物体向路面的映像多的状况下,在监视范围AW内容易混有因向路面的映像引起的代表距离与因向挡风玻璃的映像S引起的代表距离。因此,通过基于代表距离的孤立数据数量判断是否符合这样的情况,基于其结果而执行判断处理,从而可以在监视区域AW内混有因映像S以外的物体引起的代表距离的可能性高的情况下不执行判断处理,在该可能性低的情况下执行判断处理。
由此,能够实现有无映像S的判断精度的提高。
另外,在本实施方式的车辆控制系统1中,图像处理部3判断本车辆是否正在下坡路上行驶,或者是否在通过摄像部2正在上坡路上拍摄,基于该判断结果执行所述判断处理。
在本车辆正在下坡路上行驶的情况下和/或通过摄像部2正在上坡路上拍摄的情况下,容易计算因在本车辆的近距离的左右方向的中央附近的路面上的涂漆部分等物体引起的距离,在监视区域AW内容易出现因映像S以外的物体引起的代表距离。因此,通过判断是否符合这些情况,基于其结果而执行判断处理,从而可以在监视区域AW内混有因映像S以外的物体引起的代表距离的可能性高的情况下不执行判断处理,在该可能性低的情况下执行判断处理。
由此,能够实现有无映像S的判断精度的提高。
而且,本实施方式的车辆控制系统1中,图像处理部3基于每个短条区域的代表距离来执行对存在于本车辆的行驶方向上的物体进行检测的物体检测处理;包括驾驶辅助控制装置(驾驶辅助控制部5),驾驶辅助控制装置基于利用物体检测处理的物体的检测结果,执行作为驾驶辅助控制处理的预定车辆控制处理;图像处理部3基于所述判断处理的结果,使驾驶辅助控制处理强制停止。
由此,可以与产生映像S的情况相对应而使驾驶辅助控制处理强制停止。
因此,能够提高安全性。
<5、变形例>
以上,虽然对本发明的实施方式进行了说明,但本发明不应当限于上述中的作为例示的具体示例,可以考虑多种变形例。
例如,在上述内容中,基于有无映像S的判断结果而使驾驶辅助控制处理强制停止,但在判断为有映像S的情况下,也可以以将因该映像S而引起的被检测的立体物从驾驶辅助控制处理的控制对象物(例如前行车辆等)中排除的方式进行控制。由此也能够实现防止因映像S引起的驾驶辅助控制处理的错误工作。
另外,用于判断有无映像S的如图8中示出的处理是执行的,例如还可以仅在将ACC控制处理等预定驾驶辅助控制处理设为打开(ON)期间执行。
而且,在上述内容中,虽然使监视区域AW的尺寸固定,但监视区域AW的尺寸(特别是高度)可根据本车辆的行驶速度等而进行适当的变化。
另外,在上述内容中,虽然对于设纵轴为距离Z的图像设定了监视区域AW,但是也能够对于设纵轴为j方向(拍摄图像的纵方向)的图像设定监视区域AW。由于拍摄图像中的纵位置与距离Z相关,因此这样相对于设纵轴为j方向的图像而设定监视区域AW的情况下也可以判断有无映像S。

Claims (7)

1.一种车辆控制系统,其特征在于,包括:
摄像部,通过在本车辆的行驶方向上进行拍摄的一对摄影机来进行立体拍摄;
图像处理部,基于由所述摄像部得到的拍摄图像,进行用于识别车外环境的图像处理,
所述图像处理部执行:
距离计算处理,通过模式匹配来检测通过所述立体拍摄得到的一对拍摄图像间的对应点,将所述对应点间的坐标的偏差作为视差而求出,基于该视差计算至所述对应点为止的距离;
代表距离计算处理,将通过所述距离计算处理计算的每个所述对应点的距离表示在图像上作为距离图像,沿该距离图像中的纵方向将所述距离图像分割为区分的多个短条区域,按每个所述短条区域将频度为预定值以上的距离作为代表距离而求出;
判断处理,计算监视区域内的所述代表距离的数量,判断计算值与阈值的大小关系,所述监视区域被设定于设纵轴为所述距离、横轴为所述拍摄图像的图像左右位置的图像的下端部中的左右方向的中央部。
2.根据权利要求1所述的车辆控制系统,其特征在于,
所述图像处理部在判断本车辆的行驶速度在预定速度以上的情况下进行所述判断处理。
3.根据权利要求1或2所述的车辆控制系统,其特征在于,
所述图像处理部
基于每个所述短条区域的所述代表距离,执行对存在于本车辆的行驶方向上的物体进行检测的物体检测处理,
判断是否通过所述物体检测处理正在所述监视区域内稳定地检测物体,基于判断结果执行所述判断处理。
4.根据权利要求1或2所述的车辆控制系统,其特征在于,
所述图像处理部判断本车辆是否正在转弯,基于判断结果执行所述判断处理。
5.根据权利要求1或2所述的车辆控制系统,其特征在于,
所述图像处理部判断所述代表距离的孤立数据数量是否在预定的阈值以上,基于判断结果来执行所述判断处理。
6.根据权利要求1或2所述的车辆控制系统,其特征在于,
所述图像处理部判断本车辆是否正在下坡路上行驶,或者判断是否通过所述摄像部正在上坡路上拍摄,基于判断结果来执行所述判断处理。
7.根据权利要求1或2所述的车辆控制系统,其特征在于,
所述图像处理部基于每个所述短条区域的所述代表距离来执行对存在于本车辆的行驶方向上的物体进行检测的物体检测处理,
所述车辆控制系统还包括驾驶辅助控制装置,所述驾驶辅助控制装置基于利用所述物体检测处理的所述物体的检测结果,执行作为驾驶辅助控制处理的预定车辆控制处理,
所述图像处理部基于所述判断处理的结果,使所述驾驶辅助控制处理强制停止。
CN201410584771.XA 2013-10-31 2014-10-27 车辆控制系统 Active CN104590258B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013227357A JP5893601B2 (ja) 2013-10-31 2013-10-31 車両制御システム
JP2013-227357 2013-10-31

Publications (2)

Publication Number Publication Date
CN104590258A true CN104590258A (zh) 2015-05-06
CN104590258B CN104590258B (zh) 2017-08-11

Family

ID=52811859

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410584771.XA Active CN104590258B (zh) 2013-10-31 2014-10-27 车辆控制系统

Country Status (4)

Country Link
US (1) US9676333B2 (zh)
JP (1) JP5893601B2 (zh)
CN (1) CN104590258B (zh)
DE (1) DE102014115017B4 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107097790A (zh) * 2016-02-19 2017-08-29 罗伯特·博世有限公司 用于阐明车辆的车辆周围环境的方法和设备以及车辆
CN108334073A (zh) * 2017-01-18 2018-07-27 百度(美国)有限责任公司 使用制动灯保持自动驾驶车辆与跟随车辆之间的距离的方法
CN108780609A (zh) * 2016-03-01 2018-11-09 松下知识产权经营株式会社 判定装置和判定方法
CN110007301A (zh) * 2017-12-13 2019-07-12 本田技研工业株式会社 物体识别装置、物体识别方法以及车辆
CN110053625A (zh) * 2018-01-19 2019-07-26 本田技研工业株式会社 距离计算装置和车辆控制装置
CN112020461A (zh) * 2018-04-27 2020-12-01 图森有限公司 用于确定汽车到车道距离的系统和方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6233345B2 (ja) * 2015-04-17 2017-11-22 トヨタ自動車株式会社 路面勾配検出装置
WO2017068743A1 (ja) * 2015-10-22 2017-04-27 京セラ株式会社 路面状態判定装置、撮像装置、撮像システムおよび路面状態判定方法
DE102017202155A1 (de) * 2017-02-10 2018-08-16 Conti Temic Microelectronic Gmbh Kamerasystem für ein Fahrzeug
JP6782433B2 (ja) * 2017-03-22 2020-11-11 パナソニックIpマネジメント株式会社 画像認識装置
JP6976798B2 (ja) * 2017-09-29 2021-12-08 キヤノン株式会社 撮像装置、撮像システム、移動体、回路チップ
DE102017221381A1 (de) * 2017-11-29 2019-05-29 Robert Bosch Gmbh Verfahren, Vorrichtung und Computerprogramm zum Ermitteln eines Abstandes zu einem Objekt
JP7227969B2 (ja) * 2018-05-30 2023-02-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元再構成方法および三次元再構成装置
KR20200042549A (ko) * 2018-10-15 2020-04-24 현대자동차주식회사 차량 및 그 제어방법
US10867190B1 (en) * 2019-11-27 2020-12-15 Aimotive Kft. Method and system for lane detection

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001041741A (ja) * 1999-07-30 2001-02-16 Fuji Heavy Ind Ltd ステレオ式車外監視装置
JP2009069119A (ja) * 2007-09-18 2009-04-02 Mazda Motor Corp 車両用路面状態推定装置
JP2009237938A (ja) * 2008-03-27 2009-10-15 Fuji Heavy Ind Ltd 運転支援装置および運転支援システム
JP2010146284A (ja) * 2008-12-18 2010-07-01 Mazda Motor Corp 車両用対象物検出装置及び車両用運転支援システム
US20120242799A1 (en) * 2011-03-22 2012-09-27 Fuji Jukogyo Kabushiki Kaisha Vehicle exterior monitoring device and vehicle exterior monitoring method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028056A (ja) * 1999-07-14 2001-01-30 Fuji Heavy Ind Ltd フェールセーフ機能を有するステレオ式車外監視装置
JP3092105B1 (ja) * 1999-07-30 2000-09-25 富士重工業株式会社 フェールセーフ機能を有する車外監視装置
JP4953498B2 (ja) 2000-07-12 2012-06-13 富士重工業株式会社 フェールセーフ機能を有する車外監視装置
JP4055656B2 (ja) * 2003-05-30 2008-03-05 トヨタ自動車株式会社 衝突予測装置
EP1696669B1 (en) * 2005-02-24 2013-07-03 Aisin Seiki Kabushiki Kaisha Vehicle surrounding monitoring device
JP5234894B2 (ja) * 2007-06-28 2013-07-10 富士重工業株式会社 ステレオ画像処理装置
WO2011058876A1 (ja) * 2009-11-13 2011-05-19 富士フイルム株式会社 測距装置、測距方法、測距プログラムおよび測距システムならびに撮像装置
JP5508205B2 (ja) * 2010-09-27 2014-05-28 富士重工業株式会社 車両の運転支援装置
JP5600332B2 (ja) * 2012-03-29 2014-10-01 富士重工業株式会社 運転支援装置
JP6198389B2 (ja) * 2012-12-19 2017-09-20 キヤノン株式会社 画像処理装置、画像処理方法、及びコンピュータプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001041741A (ja) * 1999-07-30 2001-02-16 Fuji Heavy Ind Ltd ステレオ式車外監視装置
JP2009069119A (ja) * 2007-09-18 2009-04-02 Mazda Motor Corp 車両用路面状態推定装置
JP2009237938A (ja) * 2008-03-27 2009-10-15 Fuji Heavy Ind Ltd 運転支援装置および運転支援システム
JP2010146284A (ja) * 2008-12-18 2010-07-01 Mazda Motor Corp 車両用対象物検出装置及び車両用運転支援システム
US20120242799A1 (en) * 2011-03-22 2012-09-27 Fuji Jukogyo Kabushiki Kaisha Vehicle exterior monitoring device and vehicle exterior monitoring method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107097790A (zh) * 2016-02-19 2017-08-29 罗伯特·博世有限公司 用于阐明车辆的车辆周围环境的方法和设备以及车辆
CN108780609A (zh) * 2016-03-01 2018-11-09 松下知识产权经营株式会社 判定装置和判定方法
CN108334073A (zh) * 2017-01-18 2018-07-27 百度(美国)有限责任公司 使用制动灯保持自动驾驶车辆与跟随车辆之间的距离的方法
US10940795B2 (en) 2017-01-18 2021-03-09 Baidu Usa Llc Method for keeping distance between an autonomous driving vehicle and a following vehicle using a braking light
CN110007301A (zh) * 2017-12-13 2019-07-12 本田技研工业株式会社 物体识别装置、物体识别方法以及车辆
CN110007301B (zh) * 2017-12-13 2023-02-28 本田技研工业株式会社 物体识别装置、物体识别方法以及车辆
CN110053625A (zh) * 2018-01-19 2019-07-26 本田技研工业株式会社 距离计算装置和车辆控制装置
CN112020461A (zh) * 2018-04-27 2020-12-01 图森有限公司 用于确定汽车到车道距离的系统和方法
US11727811B2 (en) 2018-04-27 2023-08-15 Tusimple, Inc. System and method for determining car to lane distance
CN112020461B (zh) * 2018-04-27 2024-02-27 图森有限公司 用于确定汽车到车道距离的系统和方法

Also Published As

Publication number Publication date
US9676333B2 (en) 2017-06-13
JP2015088048A (ja) 2015-05-07
JP5893601B2 (ja) 2016-03-23
DE102014115017B4 (de) 2020-01-02
US20150116462A1 (en) 2015-04-30
DE102014115017A1 (de) 2015-04-30
CN104590258B (zh) 2017-08-11

Similar Documents

Publication Publication Date Title
CN104590258A (zh) 车辆控制系统
CN107782727B (zh) 基于融合的湿路面检测
CN107415945B (zh) 用于评估车道换道的自动驱动系统及其使用方法
US9643617B2 (en) Friction coefficient estimation from camera and wheel speed data
JP6462328B2 (ja) 走行制御システム
CN103359113B (zh) 车辆用驾驶辅助装置
CN102562327B (zh) 车辆的怠速停止控制装置
CN102653272B (zh) 车辆的驾驶辅助装置
CN102470832B (zh) 车辆驾驶辅助装置和车辆驾驶辅助方法
CN104276084B (zh) 车辆驾驶辅助控制装置
CN106971620B (zh) 车辆控制系统和控制方法
US10183659B2 (en) Vehicle underside impact avoidance
JP4937933B2 (ja) 車外監視装置
CN105263768A (zh) 车辆控制系统
CN103359112A (zh) 车辆的驾驶辅助装置
CN103718214A (zh) 移动体检测装置和移动体检测方法
CN113453969A (zh) 用于保护车辆的方法
JP6169949B2 (ja) 画像処理装置
CN102419912B (zh) 车辆的驾驶支援装置
JP5129657B2 (ja) 車両用衝突回避支援装置
JP6185367B2 (ja) 運転支援装置
KR101453654B1 (ko) 자동차 안전을 위한 노면 상태 인식 시스템 및 그 방법
JP6274820B2 (ja) 車両制御システム
CN111402627B (zh) 一种基于车联网的多工况换道安全预警系统及预警方法
CN202641689U (zh) 车外监视装置及具有该车外监视装置的行驶控制装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Tokyo, Japan

Applicant after: Subaru Co.

Address before: Tokyo, Japan

Applicant before: Fuji Heavy Industries, Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant