CN103797530A - 车辆周围监测装置 - Google Patents

车辆周围监测装置 Download PDF

Info

Publication number
CN103797530A
CN103797530A CN201280044711.8A CN201280044711A CN103797530A CN 103797530 A CN103797530 A CN 103797530A CN 201280044711 A CN201280044711 A CN 201280044711A CN 103797530 A CN103797530 A CN 103797530A
Authority
CN
China
Prior art keywords
vehicle
monitoring target
target thing
boundary line
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201280044711.8A
Other languages
English (en)
Other versions
CN103797530B (zh
Inventor
高津户泉
长冈伸治
相村诚
松田幸大
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anzher Software Co
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of CN103797530A publication Critical patent/CN103797530A/zh
Application granted granted Critical
Publication of CN103797530B publication Critical patent/CN103797530B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/31Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing stereoscopic vision
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/106Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

车辆周围监测装置(10、210)具有:第2显示部(28),其通过各标识(86、136、157、290、292、294)的显示的有无,将是否存在所述监测对象物(110、160)这一信息可视化。在从拍摄图像(72、134、262、270、272、272a、272b)中至少检测出了一个监测对象物(110、160)时,评价对于所述车辆(12)而言的所述监测对象物(110、160)的注意度,对应于所述注意度评价部(44、250)所评价的所述注意度的不同,所述第2显示部(28)以不同的显示方式显示所述标识(86、136、157、290、292、294)。

Description

车辆周围监测装置
技术领域
本发明涉及一种对车辆周围的监视对象物进行检测并进行简化显示的车辆周围监测装置。
背景技术
作为车辆周围监测装置,现有技术中公知有如下一种装置,即,由红外线摄像头(照相机)得到车辆前方的图像,使该图像显示在位于驾驶席前方的显示器上,并且,使从该图像中检测出的对应于行人的图像部位被突出显示(例如,参照日本发明专利公开公报特开2009-67214号的图5)。
另外,还公知有如下一种装置,即,在显示器所显示的图像中,突出显示行人的图像部位,并且,在平视显示器(HUD)上显示能够使观察者知晓行人的存在的图符(icon)。在日本发明专利公开公报特开2004-364112号中公开有如下内容,即,在判断为在红外线摄像头的拍摄图像中存在行人(对应的图像)时,在HUD上显示表示行人的图符(参照其图6、0036~0038段)。
另外,作为检测行人的技术而言,还存在有如下一种技术,例如,从2值化图像信息中简单地选定行人的候选项(可能是行人的内容),使用灰度图像信息来判断是否为行人,如此,能够同时兼顾处理速度与判断精度(参照日本发明专利公开公报特开2003-284057号的摘要)。
发明内容
如上所述,在日本发明专利公开公报特开2004-364112号中,在HUD是显示能够使观察者知晓行人的存在的图符。然而,在对用户进行更加适当的提醒注意(处理)方面,还具有改进的余地。
有鉴于此,作出了本发明,本发明的目的在于,提供一种能够对用户进行适当的提醒其注意的车辆周围监测装置。
本发明涉及的车辆周围监测装置,其根据配备在车辆上的拍摄装置输出的拍摄信号检测位于所述车辆的周围的监测对象物,其包括:第1显示部,其显示所述拍摄信号所表示的拍摄图像;第2显示部,其用于显示多个标识,并且使多个标识分别与构成所述第1显示部所显示的所述拍摄图像的多个子区域相对应地被显示,通过各标识的显示的有无,将所述拍摄图像的多个子区域内是否存在所述监测对象物这一信息可视化;注意度评价部,在从所述拍摄图像中至少检测出了一个所述监测对象物时,所述注意度评价部评价对于所述车辆而言的所述监测对象物的注意度(对监测对象物的注意程度)。对应于所述注意度评价部所评价的所述注意度的不同,所述第2显示部以不同的显示方式显示所述标识。
采用本发明的车辆周围监测装置,在从拍摄图像中至少检测出了一个监测对象物时,对应针对车辆而言的监测对象物注意度的不同,以不同的显示方式显示(表示监测对象物的)标识。因此,能够以视觉化的形式向用户报知各监测对象物的注意等级的不同,进行适当的注意提醒。
所述注意度可以为:所述车辆的乘员通过观察所显示的所述标识从而确认所述监测对象物的位置时的误认可能性,在判定为所述误认可能性较高时,所述第2显示部可以同时或者交替显示多个所述标识,并且使所述标识与监测对象物的至少一部分所存在的所述子区域以及与此相邻的所述子区域相对应地被显示。因此,对监测对象物的存在进行突出显示,能够针对用户进行适当的提醒注意。
可以在所述监测对象物存在于所述多个子区域的边界线上时,所述注意度评价部判定为所述误认可能性较高。
也可以在所述监测对象物处于跨越所述多个子区域的边界线前后时,所述注意度评价部判定为所述误认可能性较高。
也可以在所述监测对象物接触所述车辆的可能性较高时,所述注意度评价部判定为所述注意度较高。
所述注意度可以为所述监测对象物与所述车辆发生接触的接触可能性,在从2个以上的所述子区域中分别检测到了所述监测对象物时,所述注意度评价部分别评价各所述检测对象物的所述接触可能性,对应于所述接触可能性的不同,所述第2显示部以不同的显示方式分别显示所述标识。因而,能够向用户报知多个监测对象物的注意等级的不同,实现行驶辅助,提高了便利性。
所述第2显示部可以使所述接触可能性被评价为较高的至少一个所述监测对象物所对应的所述标识,相比于其余的监测对象物所对应的所述标识在视觉上被突出显示。从而,能够向驾驶员报知多个监测对象物中的注意等级相对较高的监测对象物的存在,提高了便利性。
所述注意度评价部可以至少根据所述拍摄信号对所述车辆的驾驶员是否容易发现所述监测对象物这一事项进行判断,根据该判断结果评价所述接触可能性。从而,在评价中考虑了驾驶员角度的评价,提高了危险度(注意度)评价的精确度。
所述注意度评价部可以至少根据所述拍摄信号对所述监测对象物是否认识到所述车辆的存在这一事项进行判断,根据该判断结果评价所述接触可能性。从而,在评价中考虑到了监测对象物角度的评价,提高了危险度(注意度)评价的精确度。
所述注意度评价部可以对所述车辆的轨迹进行预测,根据该预测结果评价所述接触可能性。从而,在评价中考虑了车辆的轨迹预测,提高了危险度(注意度)评价的精确度。
所述注意度评价部对所述监测对象物的移动方向进行预测,根据该预测结果评价所述接触可能性。从而,在评价中,考虑了监测对象物的移动预测,提高了危险度(注意度)评价的精确度。
所述拍摄装置对所述车辆的前方进行拍摄的拍摄范围内包括:包含所述车辆的行进方向的中央区域范围、位于中央区域范围左侧的左侧区域范围以及位于中央区域范围右侧的右侧区域范围,所述多个子区域可以由对应于所述中央区域范围的中央区域、对应于所述左侧区域范围的左侧区域、对应于所述右侧区域范围的右侧区域构成。因此,能够将存在于车辆的行进方向上并且有可能与车辆发生接触的检测对象物区分为存在于行进方向(行进路线)的左侧与右侧的监测对象物,进行提醒注意。
所述车辆周围监测装置可以还包括区域选定部,该区域选定部确定:从所述拍摄图像中搜索到的、作为所述监测对象物的图像部分的对象物图像部分是属于(对应于)所述多个子区域中的哪个,在所述对象物图像部分位于所述中央区域与所述左侧区域的边界线上、或者、位于所述中央区域与所述右侧区域的边界线上时,所述区域选定部可以确定对象物图像部分属于所述中央区域。
一般而言,相比与存在于左侧区域范围与右侧区域范围中的监测对象物,驾驶员会增大对包含车辆行进方向(行进路线)的中央区域范围内的监测对象物的注意力。在对象物图像部分跨越中央区域与左侧或右侧区域、位于中央区域的边界线上时,检测为(判断、确定为)对象物图像部分不是属于左侧区域或右侧区域,而是属于中央区域,从而使操作者给予与完全包含在中央区域中的监测对象物同等的注意力。
车辆周围监测装置可以还包括:转向方向检测传感器,其检测所述车辆的转向方向;边界线设定部,在所述转向方向检测传感器检测到所述车辆左转向时,所述边界线设定部使所述中央区域与所述右侧区域的边界线向所述右侧区域一侧移动,在所述转向方向检测传感器检测到所述车辆右转向时,所述边界线设定部使所述中央区域与所述左侧区域的边界线向所述左侧区域一侧移动。
与车辆行驶在直线道路时相比,在车辆行驶在弯曲道路上时,存在于道路端部附近的监测对象物与车辆间在水平方向上的间隔具有扩大的倾向。对应于此现象,边界设定部在车辆左转向时,使中央区域与右侧区域的边界线向右侧区域一侧移动在右转向时,使中央区域与左侧区域的边界线向左侧区域一侧移动。从而,使存在于道路端部附近的监测对象物的图像部分属于上述中央区域,由第2显示部的显示促使驾驶员注意该监测对象物。
车辆周围监测装置可以还包括车速传感器,其检测所述车辆的车速;边界线设定部,与所述车速传感器所检测到的车速为低速时相比,在所述车速传感器所检测到的车速为高速时,所述边界线设定部使所述中央区域与所述左侧区域的边界线向所述左侧区域一侧移动,并且,使所述中央区域与所述右侧区域的边界线向所述右侧区域一侧移动。
与低速行驶相比,在车辆处于高速行驶时,车辆接近位于前方的监测对象物的时间较短,因而,需要使驾驶员增大对该监测对象物的注意力。在本发明中,在高速行驶时,边界线设定部中央区域与左侧区域的边界线向左侧区域一侧移动,并且,使中央区域与右侧区域的边界线向右侧区域一侧移动,从而,使在低速行驶时在第2显示部上属于左侧区域或者右侧区域被显示的对象物图像部分,在高速行驶时属于第2显示部的中央区域地被显示。因此,在高速行驶时,能够尽早提醒驾驶员注意接近车辆的监测对象物。
附图说明
图1为第1实施方式中的车辆周围监测装置的结构框图;
图2为组装有图1车辆周围监测装置的车辆的斜视示意图;
图3为从驾驶员的角度对图2的车辆进行观察时得到的附图;
图4为表示通用监测器的显示画面的一例的附图;
图5为表示MID(Multi-Information Display,多功能信息显示器)的显示画面的一例的附图;
图6为表示通用监测器与MID的显示的关系的附图;
图7为表示图1的车辆周围监测装置的大致动作的流程图;
图8为表示,人处于较远位置时车辆与人的位置关系、通用监测器上的灰度图像的一例以及MID上的图符图像的一例的附图;
图9为表示,人处于较近位置时车辆与人的位置关系、通用监测器26上的灰度图像的一例以及MID上的图符图像的一例的附图;
图10为表示,车速较低时(低速行驶时)车辆与人的位置关系、通用监测器上的灰度图像的一例以及MID上的图符图像的一例的附图;
图11为表示,车速较高时(高速行驶时)车辆与人的位置关系、通用监测器上的灰度图像的一例以及MID上的图符图像的一例的附图;
图12为表示通用检测器与MID的显示的关系的另一附图;
图13A与图13B为表示车辆与生物体的位置关系、通用监测器的拍摄图像的一例以及MID的图符图像的一例的附图;
图14为根据车辆的转向对拍摄图像进行划分处理的流程图;
图15A~图15C为转向时的划分处理的效果的说明图;
图16为根据车速对拍摄图像进行划分处理的流程图;
图17A与图17B为根据车速进行的划分处理的效果的说明图;
图18所示为用于说明车辆周围监测装置的动作的流程图;
图19A为通用检测器的主视图;
图19B为MID的主视图;
图20为用于说明图18所示的车辆周围监测装置的动作的流程图;
图21A与图21B为由红外线摄像头进行拍摄而得到的第1图像的例示图;
图22为表示第1显示区域内的第1位置与第2显示区域内的第2位置的对应关系的示意性说明图;
图23为通用监测器与MID分别对有关图21A所示的第1图像的信息进行显示时的图像的例示图;
图24为对图20中的步骤S37的具体内容进行说明的详细流程图;
图25A~图25C根据监测对象物的移动方向评价危险度的方法的例示示意性说明图;
图26A与图26B为根据车辆的预测轨迹评价危险度的方法的例示示意性说明图;
图27为通用监测器与MID分别显示有关图21B所示的第1图像的信息时的图像的例示图。
具体实施方式
下面参照附图对本发明的车辆周围监视装置的较佳实施方式进行说明。具体而言,参照图1~图11对第1实施方式进行说明,参照图12~图17B对第1实施方式的变形例进行说明,参照图18~图27对第2实施方式进行说明。
A.第1实施方式
【1.结构】
(1-1.整体结构)
图1为第1实施方式中的车辆周围监测装置10的结构框图;图2为组装有车辆周围监测装置10的车辆12的斜视示意图;图3为从驾驶员的角度对车辆12进行观察时得到的附图。另外,图3中所示情况为,车辆12行驶在规定车辆必需靠右通行的国家的道路上,并且,车辆12为左舵(方向盘)车辆。对于右舵车辆而言也可以采用相同的结构。
如图1以及图2所示,车辆周围监测装置10具有:左右一对红外线摄像头(照相机)16L、16R、车速传感器18、偏航角速度传感器20(转向方向检测传感器)、电控装置(下面,称为ECU22)、扬声器24、通用监测器26(第1显示部)、MID28(Multi-InformationDisplay、多功能信息显示器;第2显示部)。
(1-2.红外线摄像头16L、16R)
红外线摄像头16L、16R是对车辆12的周围进行拍摄的拍摄装置,作为拍摄机构发挥其作用。在本实施方式中,设置两个红外线摄像头16L、16R而构成立体摄像头。红外线摄像头16L、16R具有被拍摄体的温度越高则输出信号等级越高(辉度增大)的特性。
如图2所示,红外线摄像头16L、16R配置在车辆12的前保险杠部,并且两个红外线摄像头16L、16R相对于车辆12的车宽方向中心部大致对称配置,它们的光轴相互平行,且二者距离路面的高度被固定为相等。
(1-3.车速传感器18以及偏航角速度传感器20)
车速传感器18检测出车辆12的车速V(km/h),将其输出给ECU22。偏航角速度传感器20检测出车辆12的偏航角速度Yr(°/sec),将其输出给ECU22。
(1-4.ECU22)
ECU22是控制车辆周围监测装置10的单元,如图1所示,其具有输入输出部30、运算部32以及存储部34。
红外线摄像头16L、16R、车速传感器18以及偏航角速度传感器20的各输出信号通过输入输出部被提供给ECU22。另外,由ECU22输出的输出信号通过输入输出部发送给扬声器24、通用监测器26以及MID28。输入输出部30具有将输入的模拟信号变换为数字信号的未示出的A/D变换电路。
运算部32根据来自于红外线摄像头16L、16R、车速传感器18以及偏航角速度传感器20的信号进行计算,并根据计算结果生成针对扬声器24、通用监测器26以及MID28的信号。
如图1所示,运算部32具有:2值化功能(部)40、生物体提取功能42、注意度评价功能44(注意度评价部)、扬声器控制功能45、通用监测器控制功能46以及MID控制功能48。这些功能40、42、44、45、46、48是通过执行存储部34中存储的程序来实现的。或者,该程序也可以通过未示出的无线通信装置(功能手机、智能手机等)由外部提供。
2值化功能40将红外线摄像头16L、16R中一方(本实施方式中为左侧的红外线摄像头16L)所取得的灰度图像72(图4)二值化,而生成2值化图像。生物体提取功能42使用灰度图像72以及上述2值化图像提取出这些图像中的人与动物等生物体(监测对象物,有时也仅称为对象物)。在检测出了至少一个生物体时,注意度评价功能44评价出对于车辆12而言的生物体注意度(应当被注意的程度)。扬声器控制功能45对扬声器24进行控制,使扬声器24进行发出警报音等动作。通用监测器控制功能46对通用监测器26进行控制,使通用监测器26进行显示灰度图像72等动作。
MID控制功能48对MID28进行控制,例如使MID28显示相应的标识(mark)(例如图符(下面成为“生物体图符”)等)以表示人以及动物等生物体。如图1所示,MID控制功能48具有边界线设定功能50(边界线设定部)、子区域选定功能52(区域选定部)以及图符显示功能54。关于这些功能50、52、64的详细内容,将在后面叙述。
存储部34由用于存储变换为数字信号的拍摄图像信号与各种计算处理所需的暂时性数据等的RAM(Random Access Memory)、以及、用于存储执行程序、表格或图表等的ROM(Read Only Memory)等构成。
(1-5.扬声器24)
扬声器24根据来自于ECU22的指令输出(发出)警报音等。扬声器24设置在仪表板(dash board)60(图3)上(不过,在图3中并没有表示出扬声器24)。可以将音响装置或者导航装置中设置的扬声器作为扬声器24使用。
(1-6.通用监测器26)
通用监测器26能够显示彩色图像或者黑白图像,例如,其具有液晶显示屏、有机EL(Electro-Luminescence,电致发光)显示屏或者无机EL显示屏。如图2以及图3所示,通用监测器26配置在仪表板60上的规定部位,具体而言,是配置在操作柄64的配置位置的右侧部位。
图4为表示通用监测器26的显示画面的一例的附图。在图4中,于通用监测器26的显示区域(下面也称为“第1显示区域70”或者“显示区域70”)显示有由左侧的红外线摄像头16L所拍摄到的灰度图像72。
在灰度图像72中可以进行由通用监测器46所生成的突出显示。即,如图4所示,在提取出人与动物等的生物体的图像部分(对象物图像部分。下面也称为“生物体对应部分74”)显示有突出显示框76。或者,也可以是对生物体对应部分74着色。或者,同时进行突出显示框76的显示以及生物体对应部分74的着色。或者,也可以用其他方式来实现突出显示。
另外,通用监测器26可以不是显示来自于左侧的红外线摄像头16L的灰度图像72,而是显示来自于右侧的红外线摄像头16R的灰度图像72。另外,通用监测器26可以是,除了显示来自于左侧的红外线摄像头16L以及右侧的红外线摄像头16R的灰度图像72之外,还能够同时或者切换显示其他的图像,例如导航用的各种图像(道路地图、服务信息等)、动画内容等。各图像的切换显示例如可以通过按压规定的按钮或者通过预先设定切换条件来实现。
(1-7.MID28)
MID28为显示车辆12行驶时的附带信息(相关信息)而将其可视化的简易显示装置(图符显示装置),是比通用监测器26(特别是其显示屏)结构简单、成本低廉的显示模块。例如,可以将图像解析度比通用监测器26低的显示屏(例如,非交错式扫描(noninterlace)型的显示屏)用作MID28。
如图2以及图3所示,MID28设置在位于仪表盘62上侧附近的仪表板60的部位(或者仪表盘62内)。MID28配置在作为乘员的驾驶员能够透过操作柄64上的间隙(空间)观察MID28的位置。从而,驾驶员在保持脸部朝向车辆12的前方的状态下即可观察MID28。
图5为表示MID28的显示画面的一例的附图。在图5中,于MID28的显示区域(下面也称为“第2显示区域80”或者“显示区域80”)上显示有与灰度图像72对应的、包含有各种图符的图像(下面称为“图符图像82)。
例如,如图5所示,在显示区域80的下侧显示有表示车辆12的行进方向的道路的道路图符84。道路图符84由3条线即从左向右依次排列的线84L、84C、84R构成。在显示区域80中,线84L、84R之间的间隔越位于表示远方位置的上侧越小。即,通过道路图符84的显示,能够使驾驶员认识从驾驶席观察前方的直线道路时看到的道路形状。
另外,如图5所示,可以在显示区域80的上部显示表示存在于车辆12的周围的行人的人体图符86。在本实施方式中,可以在显示区域80中的3处位置显示人体图符86(即,左侧部、中央部以及右侧部)(参见图6、图8等)。
另外,也可以代替人体图符86,而显示表示其他生物体的附图(例如,表示动物的动物图符)。
另外,作为显示上述各种图符(道路图符84、人体图符86以及上述动物图符)的代替,MID28可以显示有关车辆12的燃料消耗、当前时刻、仪表盘62的信息等。各信息(图像)的切换例如可以通过按压规定的按钮或者预先设定切换条件来实现。
【2.通用监测器26以及MID28的显示的关系】
图6为表示通用监测器26以及MID28的显示的关系的附图。如图6所示,在本实施方式中,将灰度图像72在车宽方向是划分为3个区域(下面称为第1子区域90L、90C、90R,统称为第1子区域90)。在下面的说明中,各第1子区域90间的边界线(下面称为第1边界线92L、92R,统称为第1边界线92)是并不包含在实际的灰度图像72中的假想的线,并且是固定不变的。另外,在实际的处理中,可以不是使用第1子区域90的位置信息,而是仅使用第1边界线92的位置信息。第1边界线92可以像MID28上的道路图符84一样,形成为模拟行车线的形状(日文片假名“ハ”形)。
另外,如图6所示,将图符图像82在车宽方向是划分为3个区域(下面称为第2子区域100L、100C、100R,统称为第2子区域100)。各第2子区域100间的边界线(下面称为第2边界线102L、102R,统称为第2边界线102)是并不包含在实际的图符图像82中的假想的线,并且是固定不变的。第2边界线102L、102R分别被对应于第1边界线92L、92R。与第1边界线92相同,第2边界线102可以像MID28上的道路图符84一样,形成为模拟行车线的形状(日文片假名“ハ”形)。
在本实施方式中,判断出(判定、确定)灰度图像72中的、生物体对应部分74所属的第1子区域90(下面称为第1生物体存在子区域),在MID28上的图符图像82的第2子区域100中的与第1生物体存在子区域对应的部分(下面称为第2生物体存在子区域)显示生物体图符(人体图符86、上述动物图符等)。换言之,即,通过MID28上的各图符(人体图符86等)的显示的有无,并且这些图符分别对应于构成通用监测器26所显示的灰度图像72的多个第1子区域90,从而,将灰度图像72的各第1子区域90内的监视对象物(生物体)的存在与否信息(即,表示灰度图像72的各第1子区域90内是否存在监视对象物的信息)可视化。另外,在规定的情况下,将所显示的生物体图符的数量从1增加到2(具体讲在后面叙述)。
【3.车辆周围监测装置10的动作】
图7为表示车辆周围监测装置10的大致动作的流程图。在步骤S1中,红外线摄像头16L、16R对车辆12的周围进行拍摄。在步骤S2中,ECU22将来自于红外线摄像头16L、16R的信号进行A/D变换,取得灰度图像72。在步骤S3中,ECU22执行2值化处理。在2值化处理中,将灰度图像72二值化而取得2值化图像(未示出)。
在步骤S4中,ECU22从所取得的2值化图像以及灰度图像72中提取出(得到)生物体对应部分74。由于生物体比其周围的温度高,因而,在2值化图像以及灰度图像72中,对应于生物体的部分(生物体对应部分74)呈现高辉度。因而,可以通过在2值化图像以及灰度图像72中搜索辉度在规定的阈值以上的像素的区域,从而能够提取到生物体对应部分74。
另外,之所以使用2值化图像以及灰度图像72这二者来进行上述处理,是因为,使用2值化图像能够简单地确定生物体的存在,之后,使用灰度图像72能够得到有关生物体的详细的信息。作为这样的处理,例如可以采用日本发明专利公开公报特开2003-284057号中记载的方式。另外,也可以仅使用2值化图像以及灰度图像72这二者中的一方来提取生物体对应部分74。
在步骤S5中,ECU22使突出了生物体对应部分74的灰度图像72显示在通用监测器26上。如上所述,突出显示例如可以是进行突出显示框76的显示(图4)以及生物体对应部分74的着色中的至少一方。
在步骤S6中,ECU22在灰度图像72或者2值化图像中设定第1边界线92(图6),确定第1子区域90。这里,设定第1边界线92使图像沿着横向被3等分。
在步骤S7中,ECU22判定(确定)生物体对应部分74所属的第1子区域90(第1生物体存在子区域)。这里,会有如下情况,即,在生物体对应部分74位于第1边界线92上时,将隔着该第1边界线92的两个第1子区域90判定为生物体对应部分74所属的第1子区域90。
图8~图11为用于说明生物体对应部分74所属的第1子区域90(第1生物体存在子区域)的确定方法的附图。即,图8为表示,人110处于较远位置时车辆12与人110的位置关系、通用监测器26上的灰度图像72的一例以及MID28上的图符图像82的一例的附图;图9为表示,人110处于较近位置时车辆12与人110的位置关系、通用监测器26上的灰度图像72的一例以及MID28上的图符图像82的一例的附图;图10为表示,车速V较低时(低速行驶时)车辆12与人110的位置关系、通用监测器26上的灰度图像72的一例以及MID28上的图符图像82的一例的附图;图11为表示,车速V较高时(高速行驶时)车辆12与人110的位置关系、通用监测器26上的灰度图像72的一例以及MID28上的图符图像82的一例的附图。在图8~图11中,“α”表示红外线摄像头16L的图像视角(angle of field)。
如图8所示,在人110处于较远位置并且人110(生物体对应部分74)处于第1边界线92L上时,MID28是所显示的生物体图符(人体图符86)仅有1处。另一方面,如图9所示,在人110处于较近位置并且人110(人体对应部分74)处于第1边界线92L上时,MID28是所显示的生物体图符(人体图符86)有两处。从而,能够向驾驶员突出地报知人110(的存在)。
如图10所示,在车速V较低并且人110(生物体对应部分74)处于第1边界线92L上时,MID28上显示的生物体图符(人体图符86)仅有1处。另一方面,如图11所示,在车速V较高并且人110(生物体对应部分74)处于第1边界线92L上时,MID28上显示的生物体图符有两处。从而,能够向驾驶员突出地报知人110(的存在)。另外,在图11所示的例子中,同时显示多个生物体图符,然而,也可以交替显示多个生物体图符(人体图符86等)。
在步骤S8中,ECU22判定(确定)与第1生物体存在子区域对应的第2子区域100(第2生物体存在子区域)。
在步骤S9中,ECU22使步骤S8中判定的第2生物体存在子区域上显示表示生物体的生物体图符(人体图符86等)。另外,在车辆12与生物体之间的接触可能性较高时,可以由扬声器24发出警告音。
【4.补充说明】
在上述实施方式中,根据当前时刻(本次的计算周期)的生物体对应部分74所处的位置来判定生物体对应部分74是否位于第1边界线92上,然而,该判定方法并不限于此。例如,也可以根据人110(生物体对应部分74)的移动矢量或者在灰度图像72是的位置,将人110(生物体对应部分74)将要移动到的可能性较高的第1子区域90确定为第1生物体存在子区域。从而,能够更加精确地对驾驶员进行注意提醒(即,提醒驾驶员注意)。
在使用移动矢量进行判定时,例如,如果生物体对应部分74存在于中央的第1子区域90C中、移动矢量的方向朝向左侧,那么,选择位于中央的第1子区域90C以及位于左侧的第1子区域90L(作为第1生物体存在子区域)。另外,如果生物体对应部分74存在于中央的第1子区域90C中、移动矢量的方向朝向右侧,那么,选择位于中央的第1子区域90C以及位于右侧的第1子区域90R(作为第1生物体存在子区域)。
在使用在灰度图像72上的位置进行判定时,例如,如果生物体对应部分74存在于中央的第1子区域90C中的左侧部分,那么,选择位于中央的第1子区域90C以及位于左侧的第1子区域90L(作为第1生物体存在子区域)。另外,如果生物体对应部分74存在于中央的第1子区域90C中的右侧部分,那么,选择位于中央的第1子区域90C以及位于右侧的第1子区域90R(作为第1生物体存在子区域)。
“移动矢量或者灰度图像72上的位置”也可以用于,上述的使用第1边界线92进行的处理以及上述的与车辆12接触的可能性较高的处理中所使用的生物体对应部分74的位置的修正。例如,可以在生物体对应部分74的移动矢量的方向朝向左侧时,使用将生物体对应部分74所存在的位置(当前位置)向左移动规定的像素数而得到的坐标,来判定生物体对应部分74是否位于第1边界线92上。
【5.效果】
如上所述,在从灰度图像72中的第1子区域90中至少检测到1个生物体(包括人110、动物160的监测对象物)时,由注意度评价功能44来评价对于车辆12而言的生物体注意度,MID28根据由注意度评价功能44所评价得出的注意度(的高低)使标识的显示形态不同而进行显示。因此,能够可视性地向用户报知各监测对象物的注意等级的不同,进行适当的注意提醒。
根据上述第1实施方式的说明,“注意度”是车辆12的乘员通过观察所显示的标识来确认人110等的监测对象物的位置时的误认可能性,在判定为该误认可能性较高时,在MID28上同时显示多个生物体图符(人体图符86),并且使其与监测对象物的至少一部分所存在的第1子区域90以及与此相邻的区域90相对应。
此处,“误认可能性较高”例如包括如下情况:(1)生物体对应部分74位于第1边界线92上时;(2)生物体对应部分74处于跨越第1边界线92的时刻的前后;(3)人110与车辆12接触的可能性较高(例如,人110位于车辆12的近处或者车速V较高)时。
B.第1实施方式的变形例
下面对车辆周围监测装置10的动作的变形例进行说明。与第1实施方式相比,在边界设定功能50的动作(图7所示的步骤S6中的处理)这一点上存在不同。下面,参照图12~图17B进行详细说明。另外,在本变形例中,设想为车辆12行驶在规定全部车辆必需靠左通行的国家的道路上的情况。
【1.第1实施方式的划分动作】
在图7的步骤S6中,ECU22将作为灰度图像的拍摄图像134划分为3个子区域,即,与红外线摄像头16R对车辆12(参照图13A)前方进行拍摄的拍摄范围内的、包含车辆12的行进前方的中央区域范围对应的中央区域、与该中央区域范围的左侧区域范围对应的左侧区域、与该中央区域范围的右侧区域范围对应的右侧区域。参照图12对这3个子区域的具体的划分方式进行说明。在本图中,设想为车辆12的前方存在的生物体为动物160(参照图13A等)。
拍摄图像134中的、与车辆12的前方的拍摄范围内的包含车辆12的行进方向(行进路线)的中央区域范围对应的中央区域154C、与位于中央区域范围左侧的左侧区域范围对应的左侧区域154L、与位于中央区域范围右侧的右侧区域范围对应的右侧区域154R这3个子区域,由位于中央区域154C左右两侧的左侧边界线151L与右侧边界线151R划分。图12中所示的针对拍摄图像134的划分表示的是初始设定中的划分,该初始设定的划分是将拍摄图像134在左右方向是3等分的划分。
左侧边界线151L与右侧边界线151R是用于图符图像144的生成处理的数据信息,并不在通用监测器26所实际显示的拍摄图像134中显示。生成拍摄图像134的各数据是构成拍摄图像134的各像素的辉度数据。构成对象物图像的像素群是属于左侧区域154L、中央区域154C还是右侧区域154R的判断,是根据各像素群的各像素是属于左侧区域154L、中央区域154C还是右侧区域154R来进行的。
参照图13A与图13B对图12中的左侧边界线151L、右侧边界线151R与红外线摄像头16R的左右视野范围的关系进行说明。拍摄图像134的左右两端,由界定红外线摄像头16R的左右视野角α的左右方向范围的左侧界定线161L与右侧界定线161R决定。即,仅有存在于左侧界定线161L与右侧界定线161R内侧的物体被红外线摄像头16R拍摄到,从而变换为拍摄图像134。存在于左侧界定线161L与右侧界定线161R外侧的物体不会包含在拍摄图像134中。
中央视野角β被定义在左右视野角α的内侧,其左右两侧由中左侧界定线166L与中右侧界定线166R界定。中左侧界定线166L与中右侧界定线166R规定了拍摄图像134的左侧边界线151L与右侧边界线151R。即,与位于中央视野角β内的物体对应的图像部分被显示在拍摄图像134的中央区域154C。
图12中的下部表示有3个左右并排的图符图像144,这3个图符图像144中的情况从左至右是动物图符157相对于道路图符145位于左侧、中央、右侧。在图符图像144中,道路图符145位与动物图符157的位置关系是,道路图符145位于下侧,动物图符157位于上侧。道路图符145由位于中央的线以及位于左右两侧的线共计3条线构成,对应于从驾驶席向车辆前方进行观察时的情况,道路图符145构成为,越位于表示远方位置的上侧,左右两侧的线之间的间隔越小。
在左起第1个图符图像144中,动物图符157显示在左侧位置,并且位于道路图符145的本车前方方向行驶行车线(如上所述,本变形例中是左侧通行)即左侧线的左侧。在左起第2个图符图像144中,动物图符157显示在中央位置,并且位于道路图符145的中央线的延长线上。在左起第3个图符图像144中,动物图符157显示在右侧位置,并且位于道路图符145的本车后方方向行驶行车线即右侧线的右侧。
在拍摄图像134上的动物图像部分149(动物图像部分)分别属于左侧区域154L、中央区域154C与右侧区域154R时,MID28上分别显示图12下部的3个图符图像144。
另外,在车辆12的前方存在多个对象物时,在图符图像144中,针对这多个对象物,对应于各监测对象物在车宽方向上的位置显示多个动物图符157。另外,在多个生物体图像部分属于同一个区域时,MID28上可以在于该区域对应的位置上仅显示1个生物体图符。
下面参照图13A与图13B说明,在如图12中的上部所示地将拍摄图像134划分为左侧区域154L、中央区域154C、右侧区域154R时、从车辆12到作为生物体的动物160的距离与该动物160的动物图像部分149在拍摄图像134中所属的区域的关系。
在图13A与图13B中,设想为动物160在现实中存在于道路131的左侧边缘的左方外侧。如图13A所示,在动物160距离车辆12充分远时,动物160位于中央视野角β的内侧。另外,即使动物160的位置不发生变化,但在车辆12靠近动物160时,如图13B所示,动物160位于中央视野角β的外侧。
即,存在生物体距离车辆12越远则生物体图符在MID28中越靠近中央位置的倾向。对于存在于应该提醒注意的距离内的生物体而言,生物体越靠近远方,在车辆12实际靠近该生物体时该生物体的位置越不确定,因而,在MID28的重要位置显示生物体图符,能够促使驾驶员注意。
另外,生物体距离车辆12越远,拍摄图像134上的生物体图像部分的尺寸越小,因而,对于拍摄图像134是的生物体图像部分的尺寸不足规定的阈值的生物体而言,其生物体图像部分不会被提取出,对于到车辆12的距离在规定距离以上的生物体而言,即使其存在于中央视野角β的内侧,MID28的图符图像144中也不会显示其生物体图符。另外,从车辆12到生物体的距离根据红外线摄像头16R、16L相对于生物体的视差来算出。
在驾驶员观察MID28时,如果MID28的图符图像144内显示有动物图符157,那么驾驶员即可知晓前方存在动物160。并且,关于动物160在车辆12的车宽方向上的位置,驾驶员不必将视线从MID28移动到通用监测器28上,能够根据MID28上所显示的动物图符167相对于道路图符145在左右方向上的位置,判断出动物160是位于车辆前方的中央区域范围、左侧区域范围还是右侧区域范围。
与生物体位于包含车辆12的行进方向的中央区域范围两侧的左侧区域范围或右侧区域范围的情况相比,在生物体位于中央区域范围时,生物体与车辆12接触的可能性较高,因而,驾驶员能够认识到,与生物体图符在图符图像144中位于左侧位置或右侧位置(图12下部的左起第1个或第3个图符图像144)的情况相比,在生物体图符位于中央位置时(图12下部的左起第2个图符图像144),应该增大注意力。
第1实施方式中的“区域划分”是作为初始设定划分的3等分划分。不过,可以对此进行各种改进。
【2.第1改进例】
图14为根据车辆12的转向对以动物图符157在图符图像144中的左右方向位置为主要考虑对象的区域划分进行调整时的处理的流程图。另外,并不一定使初始设定划分为3等分的划分。也可以使“初始设定划分”为,中央区域154C比左侧区域154L与右侧区域154R宽度大或者宽度小。
在步骤S11中,ECU22对作为通用监测器26用图像的拍摄图像134进行初始设定划分。即,将左右视野角α(的范围)3等分为左侧、中央以及右侧的角度划分区域,将拍摄图像134划分为,由左侧边界线151L与右侧边界线151R在左右方向上3等分的左侧区域154L、中央区域154C以及右侧区域154R。
在步骤S12中,ECU12判断车辆12是否处于右转向中,在车辆12是处于右转向时,进入步骤S13,不是右转向时,跳过步骤S13,进入步骤S14。车辆12当前是处于直行、右转向还是左转向可以根据偏航角速度传感器20的输出信号进行判断。
在步骤S13中,ECU22使拍摄图像134中的左侧边界线151L向左移动规定量。下面参照图15A~图15C对根据车辆12的转向方向使左侧边界线151L与右侧边界线151R移动的理由。
在图15A~图15C中,设想为动物160存在于道路131上并且位于道路131的右向弯道部分内的左侧边缘附近,图中表示出了针对该动物160的、通用监测器26上的拍摄图像134以及MID28上的图符图像144的显示形态。
在图15A中,车辆12行驶在进入道路图像部分140(参照图12)的右向弯道部分之前的直行道路上。在车辆12直行时,拍摄图像134的划分被设定在初始设定划分。另一方面,动物160存在于左右视野角α的中心线附近,位于中央视野角β内。从而,在拍摄图像134中,动物图像部分149被显示在中央区域154C中,在图符图像144中,动物图符157被显示在中央位置。
图15B与图15C用于说明,车辆12进入动物160所存在的、道路图像部分140的右向弯道部分且处于右转向时拍摄图像134与图符图像144的显示形态。图15B为拍摄图像134中的区域划分维持在初始设定划分而没有被变更时的显示形态,图15C为拍摄图像134中的区域划分由初始设定划分被变更后的显示形态。
与车辆12行驶在直线道路时相比,在车辆12行驶在弯曲道路上时,存在于道路131端部附近的对象物与车辆12之间的间隔,具有扩大的倾向。因而,如图15B所示,车辆12处于右转向时,拍摄图像134的区域划分如果像图15A中那样维持在直行时的初始设定划分的话,尽管实际上动物160存在于道路131上,但是动物图像部分会超出中左侧界定线166的左侧。从而导致,在拍摄图像134中,动物160的动物图像部分149属于左侧区域154L,在图符图像144中,动物160被作为位于道路131之外的对象物由位于左侧位置的动物图符157表示,与动物160相对于道路130的现实位置不一致。
因而,在左转向时,执行步骤S13中的处理,从而,如图15C所示,使中左侧界定线166L向作为转向方向外侧的左侧转动q的角度,使动物160在车辆12的左右方向位于中左侧界定线166L的内侧。从而,在拍摄图像134上,左侧边界线151L被向左移动尺寸Q,虽然动物图像部分149在拍摄图像134上的位置没有改变,然而,在图符图像144中,动物160被作为位于道路131上的对象物的动物图符157显示在左侧位置。如此,在车辆转向时,也能够使驾驶员正确地认识动物160在车宽方向上相对于道路131的位置。
返回图14的说明,在步骤S14中,判断车辆12是否处于左转向中,如果是处于左转向中,进入步骤S15,如果不是处于左转向中,结束转向对应划分处理。因而,在车辆12直行时,拍摄图像134按照初始设定划分被划分为左侧区域154L、中央区域154C、右侧区域154R。在步骤S15中,使拍摄图像134中的右侧边界线151R向右移动规定量。
另外,在图15A~图15C中,对车辆12右转向时使左侧边界线151L向左移动进行了说明,然而,在步骤S15中,在车辆12左转向时使右侧边界线11R向右移动的意义也是意义的。
【3.第2改进例】
图16为根据车速V对以人体图符136在图符图像144中的左右方向位置为主要考虑对象的区域划分进行调整时的处理的流程图。
在步骤S21中,ECU22对作为通用监测器26用的图像的拍摄图像134进行初始设定划分。另外,由于与上述第1改进例(图14中的步骤S11)相同,因而省略了说明。
在步骤S22中,ECU22判断车速V是否处于阈值以上,在处于阈值以上时,进入步骤S23,在不到阈值时,结束车速对应划分处理。在步骤S23中,ECU22使左侧边界线151L以及右侧边界线151R向左右方向外侧移动。
参照图17A与图17B对此时的图符图像144的具体显示形态进行说明。此处,图16所示的阈值(参照步骤S22)例如设定为60[km/h]。图17A所示的30[km/h]为车速V小于阈值(低车速时)的一例,图17B所示的70[km/h]为车速V在阈值以上(高车速时)的一例。
在本图中,设想为,人110存在于车辆12的前方的道路131的左外侧并且位于道路131的附近。图17A中的中央视野角β1为初始设定划分时的中央视野角β的值,中央视野角β左右两侧的中左侧界定线166L与中右侧界定线166R为将左右视野角α(的范围)3等分的直线。因而,β1=α/3。与此相对,图17B中的视野角β2相对于初始设定划分时的中央视野角β1增大时的中央视野角β的值,即,β2>β1。
低车速(图17A)时的左侧边界线151L与右侧边界线151R设定在对应于初始设定划分时的中央视野角β1的位置。左侧边界线151L与右侧边界线151R之间的尺寸,对应于中央视野角β1,根据通用监测器26上的拍摄图像134上的尺寸进行换算,为a。此时,在拍摄图像134中,人体图像部分(对象物图像部分)属于左侧区域154,因而,在图符图像144中,人体图符136被显示在左侧位置。
另外,高车速时(图17B)时的左侧边界线151L与右侧边界线151R之间的尺寸,对应于中央视野角β,根据通用监测器26上的拍摄图像134上的尺寸进行换算,为b(b>a)。从而,在拍摄图像134中,人体图像部分133属于中央区域154C,因而,在图符图像144中,人体图符136被显示在中央位置。
在车辆12高速行驶时,与低速行驶时相比,车辆12到靠近前方的对象物时的时间较短,因此,需要使驾驶员增大对该对象物的注意力。在高速行驶时,在步骤S23中,使中央区域154C与左侧区域154L之间的左侧边界线151L以及中央区域154C与右侧区域154R之间的右侧边界线151R,分别向左侧区域154L与右侧区域154R一侧移动。从而,在低速行驶时于MID28上被作为属于左侧区域154L或者右侧区域154R的对象显示的人体图像部分133等的生物体图像部分,在高速行驶时于MID28中被作为属于中央区域154C的对象显示。因此,在高速行驶时,使开始对驾驶员进行提醒注意时的从车辆12到生物体的距离增大,从而能够防止注意提醒的延迟。在图17A与图17B的车速对应划分处理中,划分存在a与b两级,然而,也可以根据车速V进行3级以上的切换,或者,使左侧边界线151L与右侧边界线151R之间的尺寸根据车速V连续地改变。
【4.补充说明】
如上所述,通过对“区域划分”进行改进,从而能够以对应于当前时刻的运行(工作)状况的适当的方法来使驾驶员集中注意力。另外,上述的变形例可以适用于第1实施方式,也可以适用于下述的第2实施方式。
C.第2实施方式
下面对第2实施方式的车辆周围监测装置210进行说明。
【1.结构】
图18为第2实施方式中的车辆周围监测装置210的结构框图。车辆周围监测装置210除了具有红外线摄像头16R、16L、车速传感器18、偏航角速度传感器20、扬声器24、通用监测器26、MID28(参照图1的车辆周围监测装置10)之外,还具有制动传感器19以及图像处理单元214。制动传感器19检测出驾驶员对制动踏板的操作量(下面称为制动操作量Br),将其输出给图像处理单元214。
控制车辆周围监测装置210的动作的图像处理单元214具有未示出A/D变换电路、CPU214c(中央处理器)、存储部214m以及未示出的输出电路,其中,A/D变换电路将所输入的模拟信号变换为数字信号;CPU214c执行各种处理;存储部214m用于存储图像处理中所需的各种数据;输出电路分别输出扬声器24的驱动信号、通用监测器26以及MID28的显示信号。
CPU214c发挥作为对象物检测部240、位置计算部242(具体而言,包括第1位置计算部244、第2位置计算部245以及实际位置计算部248)、注意度评价部250(具体而言,包括单独评价部252以及比较评价部254)以及显示标识确定部256的作用。
图19A为通用监测器26的主视图,图19B为MID28的主视图。
在图19A所示的通用监测器26的大致整个面部上设置横向尺寸较长的矩形的第1显示区域260。在本图中表示了,将基于红外线摄像头16L输出的拍摄信号的第1图像262显示在第1显示区域260内时的状态。
在图19B所示的MID28的大致整个面部上设置横向尺寸较长的矩形的第2显示区域264。在本图中表示了,将从第1图像262中仅提取出规定的特征部位并进行适当变形而得到的第2图像显示在第2显示区域264内时的情况。作为具体的例子,在第2显示区域264的下部显示道路图符268。道路图符268由3条线即从左至由依次排列的线267L、267C、267R构成。
另外,车辆周围监测装置210配备在车辆12上的配备形态与第1实施方式(参照图2与图3)相同,因而省略了详细的说明。第2实施方式的车辆周围监测装置201基本上是具有如上的结构。
【2.车辆周围监测装置210的动作】
下面按照图20所示的流程,并适当参照其他附图,对该车辆周围监测装置210的动作进行说明。
首先,在步骤S31中,图像处理单元214使用红外线摄像头16R、16L对处于行驶中的车辆12的周围进行拍摄,从而得到当前时刻的拍摄信号。例如,在拍摄间隔为约33ms时,红外线摄像头16R(16L)连续或者间隔性地输出1秒30帧的拍摄信号。
之后,在步骤S32中,图像处理单元214将红外线摄像头16R、16L这二者中一方(本实施方式中位红外线摄像头16L)的拍摄信号发送给通用监测器26一侧。并且,通用监测器26在其第1显示区域260(参照图19A)内显示当前时刻的第1图像270(或者272)。另外,通用监测器26根据通过未示出的操作部进行的操作,除了显示第1图像270之外,还能够显示其他各种图像。在显示其他的图像(映像)时,省略本步骤。
图21A所示的第1图像270表示的是,在路面区域Rd内(现实中为路面上)存在作为对象物图像部分的人体部位H1(现实中存在1个人)的状态。另外,图21B所示的第1图像272表示的是,路面区域Rd内存在的人体部位H1,并且,在路面区域Rd的边缘部(现实中为路肩(road shoulder))存在作为对象物图像部分的人体部位H2(现实中存在的另一个人)的状态。
之后,在步骤S33中,对象物检测部240从拍摄信号所表示的图像区域中检测出监测对象物。作为检测对象物的例子,可以是人,除此之外,还可以是各种动物(具体例如鹿、马、羊、狗、猫等步入动物、鸟类等)、人造物(具体例如电线杆、护栏、墙壁等)等。另外,作为检测算法,可以采用公知的方法,最好是根据监测对象物的种类选择适当的方法。
之后,在步骤S34中,第1位置计算部244计算出在第1显示区域260内的各监测对象物的位置或者存在范围(下面称为第1位置)。通用监测器26的显示图像解析度较高时,能够高精度地确定监测对象物的位置。
之后,在步骤S35中,第2位置计算部246计算出在第2显示区域264内的各监测对象物的位置(下面称为第2位置)。下面参照图22,对在第1显示区域260内的第1位置与在第2显示区域内的第2位置的对应关系进行说明。
如图22所示,通用监测器26上的第1显示区域260被均等地分为3个子区域,即,从左至右依次为左侧区域274、中央区域276、右侧区域278。MID28上的第2显示区域264被定义出3个位置,即,从左至右依次为左侧位置284、中央位置286以及右侧位置288。并且,使左侧区域274对应于左侧位置284,中央区域276对应于中央位置286、右侧区域278对应于右侧位置288。
另外,关于第1显示区域260的划分,并不限于图22所示的例子,可以采用其他多种方式。例如,划分的数量也可以是2或者4以上,可以使中央区域276的尺寸比左侧区域274与右侧区域278大(或者小)。另外,不仅限于在左右方向上划分第1显示区域260,也可以结合上下方向上的划分。另外,也可以将第1显示区域260划分成模拟行车线的形状(即,日文片假名“ハ”形)。
之后,在步骤S36中,对象物检测部240根据步骤S33的检测结果判断是否检测到了多个监测对象物。在检测出的检测对象物的数量为0或者1个时,在步骤S38中,图像处理单元214将有关第2图像(参照图19B)或者第2图像289(参照图23)的显示信号发送至MID28一侧。并且,MID28在其第2显示区域264内显示当前时刻的第2图像289。
在显示第2图像289(参照图23)之前,显示标识确定部256确定要显示在MID28上的标识的显示形态(例如,形状、色彩等)。在图21A所示的第1图像270中,检测到人体部位H1位于第1显示区域260中的中央区域276(参照图22)中,因而,显示标识确定部256确定:将人体图符配置在中央位置286(参照图22)并且为通常的显示颜色(例如,白色)。
从而,如图23所示,在第2显示区域264的大致中央显示白色的人体图符290。作为所显示的标识,使用模拟检测对象物形状的图符,从而能够使驾驶员通过观察立即掌握该检测对象物的种类。例如,在检测对象物为动物时,可以使用动物图符。如此,第2图像289相当于将检测对象物的存在与否信息(种类、存在与否以及数量)可视化的图像。
另外,使各标识分别显示在与3个子区域(左侧区域274、中央区域276以及右侧区域278)的配置方向一致的位置(左侧位置284、中央位置286以及右侧位置288),从而能够直观地掌握检测对象物的存在与否以及其位置。
之后,在步骤S39中,图像处理单元214判断车辆12与检测对象物是否有接触的可能性。在判断为没有接触的可能性时,返回步骤S31,之后,依次重复进行步骤S31~S38。
另外,在判断为有接触的可能性时,在步骤S40中,车辆周围监测装置210例如通过扬声器24发出警报音,从而将表示有接触的可能性的信息提供给驾驶员。从而,能够促使驾驶员采取避免接触的操作。
【3.步骤S37的动作说明】
返回图20中的步骤S36的说明,在检测出的监测对象物的数量为2以上时,暂时进入步骤S37。例如,如图21B所示,设想为在中央区域276与右侧区域278(参照图22)中各存在一个监测对象物。
在本实施方式中,注意度评价部250评价监测对象物接触到车辆12的接触可能性(下面也称为危险度)。下面,参照图24所示的流程图对步骤S37中的危险度的评价方法进行详细的说明。
首先,在步骤S51中,注意度评价部250指定一个未评价的监测对象物。针对在此指定的监测对象物,单独评价部252在考虑了多种状态的基础上(经过后述的步骤S52~S57),评价在当前时刻的危险度。
之后,在步骤S52中,单独评价部252根据监测对象物与车辆12的位置关系评价车辆12接触监测对象物的危险度。在评价之前,实际位置计算部248根据来自于红外线摄像头16R、16L的两个拍摄信号,使用三角测量法等公知的方法,计算出监测对象物(例如,对应于人体部位H1的人体)的实际位置以及与车辆12之间的实际距离。并且,在监测对象物与车辆12之间的距离较短时,单独评价部252将接触监测对象物的危险度评价得较高。另外,在与车辆12之间的距离较长时,将接触监测对象物的危险度评价得较低。
之后,在步骤S53中,单独评价部252根据监测对象物的移动方向评价接触该监测对象物的危险度。
图25A~图25C为根据监测对象物的移动方向来评价危险度的方法的例示示意说明图。设想为,存在于道路上的第1行人要横穿该道路,并且,第2行人沿着路肩行走。即,图25A(第1图像272)所示的人体部位H1,随着时间的流逝,换言之,即在向图25B(第1图像272a)、图25C(第1图像272b)转变时,向箭头MV1的方向进行相对移动。另外,图25A中所示的人体部位H2,随着时间的流逝(即,向图25B、图25C转变时),向箭头MV2的方向进行相对移动。即,MV1表示第1行人的移动矢量(单位时间内的移动量),MV2表示第2行人的移动矢量(单位时间内的移动量)。
单独评价部252根据移动矢量(具体而言,为矢量的方向)评价接触监测对象物的危险度。例如,人体部位H1的移动矢量MV1大致平行于第1图像272的水平方向,因而,单独评价部252推定人体部位H1为横穿道路中的行人,将接触监测对象物的危险度评价得较高。另一方面,人体部位H2的移动矢量MV2相对于第1图像272的水平方向倾斜规定角度以上,因而,单独评价部252推定人体部位H2不是横穿道路中的行人,将接触监测对象物的危险度评价得较低。
之后,在步骤S54中,单独评价部252根据车辆12的预测轨迹来评价接触监测对象物的危险度。
如图26A与图26B所示,在同一第1图像272上分别具有沿着车辆12的行驶方向(箭头方向)的、作为点划线的假想线P1与P2。该假想线P1、P2表示车辆12的预测轨迹。
在图26A所示的情况中,从预测轨迹P1到人体部位H1的距离比从预测轨迹P1到人体部位H2的距离短。因而,单独评价部252预测为:如果维持该行驶状态则有可能接触到第1行人(人体部位H1),将接触监测对象物的危险度评价得较高。另一方面,单独评价部252推测为:即使维持该行驶状态也没有接触第2行人(人体部位H2)的可能性,将接触监测对象物的危险度评价得较低。
在图26B所示的情况中,从预测轨迹P2到人体部位H1的距离比从预测轨迹P2到人体部位H2的距离长。因而,单独评价部252预测为:如果维持该行驶状态则有可能接触到第2行人(人体部位H2),将接触监测对象物的危险度评价得较高。另一方面,单独评价部252推测为:即使维持该行驶状态也没有接触第1行人(人体部位H1)的可能性,将接触监测对象物的危险度评价得较低。
之后,在步骤S55中,单独评价部252根据驾驶员对监测对象物的发现难易性来评价接触该监测对象物的危险度。具体而言,预先想象对于驾驶员而言发现监测对象物应当会较困难的状态,在这样的状态下,不论驾驶员实际上是否发现了监测对象物,单独评价部252都将危险度评价得较高。例如,在检测部位的尺寸较小时、移动量(移动矢量)较小时、检测部位的形状异于通常情况时等等。另外,作为检测部位的形状属于通常情况的具体例子,可以想象出步行时的情况、奔跑时的情况、站立停止时的情况等。另外,作为检测部位的形状异于通常情况的具体例子,可以想象出蹲着的情况、躺卧的情况等。
另外,在监测对象物的颜色与其背景色的色差较小时,例如,在行人在夜间穿着无颜色、低亮度的衣服时,对于驾驶员而言是难以发现监测对象物的。在由红外线摄像头16R、16L等取得的灰度图像上,能够根据二者的辉度差进行判别。在由彩色摄像头(照相机)取得的彩色图像上,能够根据二者在CIERGB、CIELAB等颜色空间(表色系)上的色差进行判别。
之后,在步骤S56中,单独评价部252根据监测对象物对车辆12的存在的认识性来评价接触该监测对象物的危险度。具体而言,预先想象对于监测对象物而言应该不会认识到车辆12的存在的状态(情况),在此状态时,不论监测对象物是否认识到了车辆12的存在,单独评价部252都将危险度评价得较高。例如,通过检测出监测对象物的姿势(例如,在对象物为人时,检测出脸的朝向),能够推定车辆12是否进入到了监测对象物的视野中。此时,按照监测对象物相对于车辆12是处于背对、侧对、正对的顺序提高危险度即可。
另外,根据头部在2值图像上的辉度(白像素的存在比率)能够精确地检测出脸的朝向。这是因为,存在如下事实特征,即,在人体面向车辆12一侧时,脸部的皮肤(白像素)的面积相对较大,在人体背对车辆12时,头发(黑像素)的面积相对较大。同样地,也能够推定出除了正对、背对之外的中间状态(侧对、斜侧对)。
另外,可以推定检测对象物的状况判断能力以及/或者监测对象物的举动预测性,使其反映在危险性的评价中。例如,对于判定属于人体的监测对象物而言,进一步根据检测部位的形状与举动等来判别是否属于老人(或小孩),在判断为“是”时,评价为较高的危险度。
之后,在步骤S57中,单独评价部252对步骤S51中所指定的检测对象物的危险度进行综合评价。危险度可以由数值与等级中的任一方式来表示,并不限于数据形式。另外,可以自由改变步骤S52~S56中所评价、计算出的各评价值的比重(加权)。例如,原则上,根据监测对象物与车辆12的位置关系(参照步骤S52)来评价危险度,如果存在多个危险度较高的监测对象物,也可以结合考虑其他的评价项目(参照步骤S53~S56)。
采用步骤S53的方式,结合考虑对监测对象物的移动预测(来进行危险度评价),能够提高危险度评价的准确度。另外,采用步骤S54的方式,结合考虑车辆12的预测轨迹,能够提高危险度评价的准确度。采用步骤S55的方式,增加了驾驶员角度的评价,能够提高危险度评价的准确度。另外,采用步骤S65的方式,增量了监测对象物角度的评价,能够提高危险度评价的准确度。另外,关于步骤S53~S56的评价,可以使用第1图像272或其他的输入信息,例如车速V、制动操作量Br、偏航角速度Yr、GPS(Global PositioningSystem)或者从测距机构取得的距离信息等。
之后,在步骤S58中,注意度评价部250判断关于各监测对象物的评价是否全部完成。在判断为“完成”时,返回步骤S51,然后依次重复步骤S51~S57,直至全部的评价完成。另外,在判断为“完成”时,进入之后的步骤(S59)。
最后,在步骤S59中,比较评价部254从多个监测对象物中选择至少1个危险度等级较高的监测对象物。该选择结果可以是仅仅1个,也可以是2个以上。本实施方式中,2个监测对象物(人体部位H1、H2)中的人体部位H1被选择。
如上,步骤S37结束。并且,在MID28的第2显示区域264(参照图19B)内显示当前时刻的第2图像291(步骤S38)。
在显示第2图像291之前,显示标识确定部256确定要显示在MID28上的标识的显示形态。在图21B所示的第2图像272中,由于检测到人体部位H1位于第1显示区域260中的中央区域276(参照图22)内,因而,显示标识确定部256确定:将人体图符配置在中央位置286(参照图22)。另外,检测到人体部位H2为与第1显示区域260中的右侧区域278(参照图22)内,因而,显示标识确定部256确定,将人体图符配置在右侧位置288(参照图22)。另外,由于由比较评价部254将人体部位H1的危险度评价得更高,因而,显示标识确定部256使,将要配置在中央位置286的人体图符以比通常醒目的颜色显示(例如红色),使将要配置在右侧位置288的其余人体图符以通常的颜色显示(例如白色)。
从而,如图27所示,在第2显示区域264的大致中央显示红色的人体图符292,在右侧(右侧部)显示白色的人体图符294。驾驶员在观察MID28时,视线会向在视觉上被突出显示的红色的人体图符292集中。并且,根据人体图符292与第1显示区域260的相对位置关系,能够使驾驶员提高对第1图像272的中央区域及车辆12的前方正面的警戒意识。即,能够将多个监测对象物中注意等级相对较高的监测对象物的存在报知给驾驶员。
另外,作为使人体图符292、294的显示形态不同的方法,如上所述,并不限于使人体图符294以比通常醒目的形态显示,还可以采用使另一方的人体图符292以比通常情况不醒目的形态显示的方法或者组合这两种方法的方法。另外,显示形态除了上述的颜色显示之外,还包括形状(例如尺寸)的改变与增强视觉效果(例如,闪烁显示、振动显示等),只要是能够使多个标识具有相对性的视觉差即可,没有特别限制。
【4.效果】
采用第2实施方式,在从2个以上的子区域(例如,中央区域276与右侧区域278)中分别检测到监测对象物(人体部分H1、H2)时,MID28根据注意度评价部250所评价的危险度(的高低)使人体图符292、294的显示形态(显示方式)不同而进行显示。从而,能够将多个监测对象物的注意等级的差异(不同)报知给驾驶员,便于进行行驶辅助。这里,危险度(注意度)是监测对象物能够接触车辆12的接触可能性。
D.变形例
另外,本发明并不限于上述第1与第2实施方式,不言而喻,可以根据本说明书的记载获得其他种种结构。例如,可以采用如下的结构。
【1.配备对象】
在上述实施方式中,车辆12为四轮车(参照图2),然而,配备车辆周围监测装置10、210的车辆12并不限于此,例如,也可以配备在二轮车(包括自行车)、三轮车或者六轮车上。
在上述实施方式中,将车辆周围监测装置10、210配备在车辆12上,然而,只要是监测周围的监测对象物,将其报知给用户的装置,也可以配备在其他的移动体上。作为该移动体而言,例如可以是船舶与飞机等。
【2.拍摄机构】
在上述实施方式中,作为对车辆12的周围进行拍摄的拍摄机构,使用的是2个红外线摄像头16L、16R,然而,只要是能够对车辆12的周围进行拍摄的机构即可,并不限于红外线摄像头16L、16R。例如,拍摄机构可以是复眼式的(立体摄像头),也可以是单眼式的(1个摄像头)。另外,可以代替红外线摄像头,而使用利用可见光区域波长的光的摄像头(彩色摄像头),或者二者兼用。
【3.通用监测器26(第1显示部)与MID28(第2显示部)】
在上述实施方式中,作为显示来自于红外线摄像头16L的灰度图像72的机构,使用的是通用监测器26,然而,并不限于此,只要是能够显示拍摄机构所拍摄到的图像的机构即可。另外,在上述实施方式中,在通用监测器28所显示的灰度图像72上显示突出显示框76,然而,也可以不进行突出显示,直接将来自于红外线摄像头16L的灰度图像显示在通用监测器28上。
在上述实施方式中,作为显示生物体图符(标识)的机构而言,将以非交错式扫描方式进行动作的、比较具有通用性的显示装置用作MID28,然而,并不限于此,可以代替MID28,使用并列显示多个(例如3个)仅表示生物体图符的标记(indicator)的机构。或者,代替MID28,使用日本发明专利公开公报特开2004-364112号的图2中所示的平视显示器(HUD)。
在上述实施方式中,使用了通用监测器26与MID28这二者,然而,也可以仅使用MID28。此时,红外线摄像头16L所取得的灰度图像72用于显示在MID28上。

Claims (15)

1.一种车辆周围监测装置(10、210),其根据配备在车辆(12)上的拍摄装置(16R、16L)输出的拍摄信号检测位于所述车辆(12)的周围的监测对象物(110、160),其特征在于,
包括:
第1显示部(26),其显示所述拍摄信号所表示的拍摄图像(72、134、262、270、272、272a、272b);
第2显示部(28),其用于显示多个标识(86、136、157、290、292、294),并且使多个标识(86、136、157、290、292、294)分别与构成所述第1显示部(26)所显示的所述拍摄图像(72、134、262、270、272、272a、272b)的多个子区域(90R、90C、90L、154R、154C、154L、274、276、278)相对应地被显示,通过各标识(86、136、157、290、292、294)的显示的有无,将所述拍摄图像(72、134、262、270、272、272a、272b)的多个子区域(90R、90C、90L、154R、154C、154L、274、276、278)内是否存在所述监测对象物(110、160)这一信息可视化;
注意度评价部(44、250),在从所述拍摄图像(72、134、262、270、272、272a、272b)中至少检测出了一个所述监测对象物(110、160)时,所述注意度评价部(44、250)评价对于所述车辆(12)而言的所述监测对象物(110、160)的注意度,
对应于所述注意度评价部(44、250)所评价的所述注意度的不同,所述第2显示部(28)以不同的显示方式显示所述标识(86、136、157、290、292、294)。
2.根据权利要求1所述的车辆周围监测装置(10),其特征在于,
所述注意度为:所述车辆(12)的乘员通过观察所显示的所述标识(86、136、157)从而确认所述监测对象物(110、160)的位置时的误认可能性,
在判定为所述误认可能性较高时,所述第2显示部(28)同时或者交替显示多个所述标识(86、136、157),并且使所述标识(86、136、157)与监测对象物(110、160)的至少一部分所存在的所述子区域(90R、90C、90L、154R、154C、154L)以及与此相邻的所述子区域(90R、90C、90L、154R、154C、154L)相对应地被显示。
3.根据权利要求2所述的车辆周围监测装置(10),其特征在于,
在所述监测对象物(110、160)存在于所述多个子区域(90R、90C、90L、154R、154C、154L)的边界线(92R、92L、151R、151L)上时,所述注意度评价部(44)判定为所述误认可能性较高。
4.根据权利要求2所述的车辆周围监测装置(10),其特征在于,
在所述监测对象物(110、160)处于跨越所述多个子区域(90R、90C、90L、154R、154C、154L)的边界线(92R、92L、151R、151L)前后时,所述注意度评价部(44)判定为所述误认可能性较高。
5.根据权利要求2所述的车辆周围监测装置(10),其特征在于,
在所述监测对象物(110、160)接触所述车辆(12)的可能性较高时,所述注意度评价部(44)判定为所述注意度较高。
6.根据权利要求1所述的车辆周围监测装置(210),其特征在于,
所述注意度为所述监测对象物(110、160)与所述车辆(12)发生接触的接触可能性,
在从2个以上的所述子区域(274、276、278)中分别检测到了所述监测对象物(110、160)时,所述注意度评价部(250)分别评价各所述检测对象物(110、160)的所述接触可能性,
对应于所述接触可能性的不同,所述第2显示部(28)以不同的显示方式分别显示所述标识(290、292、294)。
7.根据权利要求6所述的车辆周围监测装置(210),其特征在于,
所述第2显示部(28)使所述接触可能性被评价为较高的至少一个所述监测对象物(110、160)所对应的所述标识(292),相比于其余的监测对象物(110、160)所对应的所述标识(290、294)在视觉上被突出显示。
8.根据权利要求6所述的车辆周围监测装置(210),其特征在于,
所述注意度评价部(250)至少根据所述拍摄信号对所述车辆(12)的驾驶员是否容易发现所述监测对象物(110、160)这一事项进行判断,根据该判断结果评价所述接触可能性。
9.根据权利要求6所述的车辆周围监测装置(210),其特征在于,
所述注意度评价部(250)至少根据所述拍摄信号对所述监测对象物(110、160)是否认识到所述车辆(12)的存在这一事项进行判断,根据该判断结果评价所述接触可能性。
10.根据权利要求6所述的车辆周围监测装置(210),其特征在于,
所述注意度评价部(250)对所述车辆(12)的轨迹进行预测,根据该预测结果评价所述接触可能性。
11.根据权利要求6所述的车辆周围监测装置(210),其特征在于,
所述注意度评价部(250)对所述监测对象物(110、160)的移动方向进行预测,根据该预测结果评价所述接触可能性。
12.根据权利要求1所述的车辆周围监测装置(10、210),其特征在于,
所述拍摄装置(16R、16L)对所述车辆(12)的前方进行拍摄的拍摄范围内包括:包含所述车辆(12)的行进方向的中央区域范围、位于中央区域范围左侧的左侧区域范围以及位于中央区域范围右侧的右侧区域范围,
所述多个子区域(90R、90C、90L、154R、154C、154L、274、276、278)由对应于所述中央区域范围的中央区域(90C、154C、276)、对应于所述左侧区域范围的左侧区域(90L、154L、274)、对应于所述右侧区域范围的右侧区域(90R、154R、278)构成。
13.根据权利要求12所述的车辆周围监测装置(10、210),其特征在于,
还包括区域选定部(52、242),该区域选定部(52、242)确定:从所述拍摄图像(72、134、262、270、272、272a、272b)中搜索到的、作为所述监测对象物(110、160)的图像部分的对象物图像部分(74、133、149、H1、H2)是属于所述多个子区域(90R、90C、90L、154R、154C、154L、274、276、278)中的哪个,
在所述对象物图像部分(74、133、149、H1、H2)位于所述中央区域(90C、154C、276)与所述左侧区域(90L、154L、274)的边界线(92L、151L)上、或者、位于所述中央区域(90C、154C、276)与所述右侧区域(90R、154R、278)的边界线(92R、151R)上时,所述区域选定部(52、242)确定对象物图像部分(74、133、149、H1、H2)属于所述中央区域(90C、154C、276)。
14.根据权利要求12所述的车辆周围监测装置(10),其特征在于,
还包括:
转向方向检测传感器(20),其检测所述车辆(12)的转向方向;
边界线设定部(50),在所述转向方向检测传感器(20)检测到所述车辆(12)左转向时,所述边界线设定部(50)使所述中央区域(90C、154C)与所述右侧区域(90R、154R)的边界线(92R、151R)向所述右侧区域(90R、154R)一侧移动,在所述转向方向检测传感器(20)检测到所述车辆(12)右转向时,所述边界线设定部(50)使所述中央区域(90C、154C)与所述左侧区域(90L、154L)的边界线(92L、151L)向所述左侧区域(90L、154L)一侧移动。
15.根据权利要求12所述的车辆周围监测装置(10、210),其特征在于,
还包括:
车速传感器(18),其检测所述车辆(12)的车速(V);
边界线设定部(50),与所述车速传感器(18)所检测到的车速(V)为低速时相比,在所述车速传感器(18)所检测到的车速(V)为高速时,所述边界线设定部(50)使所述中央区域(90C、154C)与所述左侧区域(90L、154L)的边界线(92L、151L)向所述左侧区域(90L、154L)一侧移动,并且,使所述中央区域(90C、154C)与所述右侧区域(90R、154R)的边界线(92R、151R)向所述右侧区域(90R、154R)一侧移动。
CN201280044711.8A 2011-09-21 2012-09-21 车辆周围监测装置 Active CN103797530B (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
JP2011-206620 2011-09-21
JP2011206620 2011-09-21
JP2011224528 2011-10-12
JP2011-224528 2011-10-12
JP2011-238600 2011-10-31
JP2011238600 2011-10-31
PCT/JP2012/074229 WO2013042767A1 (ja) 2011-09-21 2012-09-21 車両周辺監視装置

Publications (2)

Publication Number Publication Date
CN103797530A true CN103797530A (zh) 2014-05-14
CN103797530B CN103797530B (zh) 2015-09-09

Family

ID=47914527

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280044711.8A Active CN103797530B (zh) 2011-09-21 2012-09-21 车辆周围监测装置

Country Status (5)

Country Link
US (1) US20140226015A1 (zh)
EP (1) EP2759999B1 (zh)
JP (1) JP5616531B2 (zh)
CN (1) CN103797530B (zh)
WO (1) WO2013042767A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108140325A (zh) * 2015-10-16 2018-06-08 株式会社电装 显示控制装置以及车辆控制装置
CN108216023A (zh) * 2016-12-15 2018-06-29 丰田自动车株式会社 车辆用注意提醒装置以及注意提醒方法
CN108604413A (zh) * 2016-01-19 2018-09-28 日产自动车株式会社 显示装置的控制方法及显示装置
CN110505577A (zh) * 2018-05-17 2019-11-26 株式会社小糸制作所 传感器数据生成装置

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10703299B2 (en) * 2010-04-19 2020-07-07 SMR Patents S.à.r.l. Rear view mirror simulation
EP2711912A4 (en) * 2011-09-28 2015-04-22 Honda Motor Co Ltd BIOMETRIC DEVICE
JP6440115B2 (ja) * 2014-03-06 2018-12-19 パナソニックIpマネジメント株式会社 表示制御装置、表示制御方法、および表示制御プログラム
JP2016001464A (ja) 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法
JP6550881B2 (ja) * 2014-07-14 2019-07-31 株式会社リコー 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
US9409519B2 (en) * 2014-08-27 2016-08-09 Toyota Jidosha Kabushiki Kaisha Generating spatial information for a heads-up display
US10131276B2 (en) * 2014-09-30 2018-11-20 Subaru Corporation Vehicle sightline guidance apparatus
JP6518497B2 (ja) * 2014-09-30 2019-05-22 株式会社Subaru 車両の視線誘導装置
EP3007099B1 (en) * 2014-10-10 2022-12-07 Continental Autonomous Mobility Germany GmbH Image recognition system for a vehicle and corresponding method
US9588340B2 (en) 2015-03-03 2017-03-07 Honda Motor Co., Ltd. Pedestrian intersection alert system and method thereof
US9847022B2 (en) * 2015-07-22 2017-12-19 Ace/Avant Concrete Construction Co., Inc. Vehicle detection system and method
US10140870B1 (en) 2015-09-30 2018-11-27 Waymo Llc Occupant facing vehicle display
CN105216715A (zh) * 2015-10-13 2016-01-06 湖南七迪视觉科技有限公司 一种汽车驾驶员视觉辅助增强系统
JP6493196B2 (ja) 2015-12-17 2019-04-03 株式会社デンソー 制御装置、制御方法
US11019315B2 (en) 2016-06-20 2021-05-25 Panasonic Intellectual Property Management Co., Ltd. Video display system
JP6793193B2 (ja) * 2016-06-29 2020-12-02 京セラ株式会社 物体検出表示装置、移動体及び物体検出表示方法
JP6353881B2 (ja) * 2016-08-25 2018-07-04 株式会社Subaru 車両の表示装置
JP7092688B2 (ja) 2017-02-17 2022-06-28 住友重機械工業株式会社 作業機械用周辺監視システム
JP7244221B2 (ja) * 2018-06-14 2023-03-22 フォルシアクラリオン・エレクトロニクス株式会社 物体認識装置
JP2020145564A (ja) * 2019-03-05 2020-09-10 株式会社デンソーテン 画像処理装置および画像処理方法
DE102019117689A1 (de) * 2019-07-01 2021-01-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Steuereinheit zur Darstellung einer Verkehrssituation durch Ausblenden von Verkehrsteilnehmer-Symbolen
CN112428989B (zh) * 2020-10-30 2022-03-11 惠州华阳通用电子有限公司 一种车辆控制方法
CN115553780B (zh) * 2022-12-06 2023-03-21 深圳市心流科技有限公司 注意力评估方法、设备及存储介质
CN115581457B (zh) * 2022-12-13 2023-05-12 深圳市心流科技有限公司 注意力评估方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1373720A (zh) * 1999-09-20 2002-10-09 松下电器产业株式会社 驾驶提醒装置
CN1572597A (zh) * 2003-05-30 2005-02-02 丰田自动车株式会社 冲撞预测装置
CN101151171A (zh) * 2005-09-26 2008-03-26 丰田自动车株式会社 汽车周围信息输出系统和用于输出汽车周围信息的方法
JP2009098956A (ja) * 2007-10-17 2009-05-07 Mazda Motor Corp 車両用運転支援装置
CN102187376A (zh) * 2008-10-15 2011-09-14 奥托里夫Asp股份有限公司 包括用于探测即将到来的碰撞的确认传感器的传感器系统

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001114048A (ja) * 1999-10-20 2001-04-24 Matsushita Electric Ind Co Ltd 車載運転支援情報表示装置
JP4060159B2 (ja) 2002-01-18 2008-03-12 本田技研工業株式会社 車両周辺監視装置
JP4176558B2 (ja) 2003-06-06 2008-11-05 本田技研工業株式会社 車両周辺表示装置
JP4650079B2 (ja) * 2004-11-30 2011-03-16 日産自動車株式会社 物体検出装置、および方法
JP4744995B2 (ja) * 2005-09-08 2011-08-10 クラリオン株式会社 車両用障害物検出装置
JP4528283B2 (ja) * 2006-06-05 2010-08-18 本田技研工業株式会社 車両周辺監視装置
JP4946228B2 (ja) * 2006-07-18 2012-06-06 トヨタ自動車株式会社 車載用歩行者検出装置
JP4900146B2 (ja) 2007-09-12 2012-03-21 トヨタ自動車株式会社 障害物検知装置
JP2010044561A (ja) * 2008-08-12 2010-02-25 Panasonic Corp 乗物搭載用監視装置
US8704653B2 (en) * 2009-04-02 2014-04-22 GM Global Technology Operations LLC Enhanced road vision on full windshield head-up display
JP2010247621A (ja) * 2009-04-14 2010-11-04 Stanley Electric Co Ltd 自動車の運転支援システム
JP2011087006A (ja) * 2009-10-13 2011-04-28 Denso Corp 車両用表示装置
JP4952765B2 (ja) * 2009-10-21 2012-06-13 トヨタ自動車株式会社 車両用夜間視界支援装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1373720A (zh) * 1999-09-20 2002-10-09 松下电器产业株式会社 驾驶提醒装置
CN1572597A (zh) * 2003-05-30 2005-02-02 丰田自动车株式会社 冲撞预测装置
CN101151171A (zh) * 2005-09-26 2008-03-26 丰田自动车株式会社 汽车周围信息输出系统和用于输出汽车周围信息的方法
JP2009098956A (ja) * 2007-10-17 2009-05-07 Mazda Motor Corp 車両用運転支援装置
CN102187376A (zh) * 2008-10-15 2011-09-14 奥托里夫Asp股份有限公司 包括用于探测即将到来的碰撞的确认传感器的传感器系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108140325A (zh) * 2015-10-16 2018-06-08 株式会社电装 显示控制装置以及车辆控制装置
CN108604413A (zh) * 2016-01-19 2018-09-28 日产自动车株式会社 显示装置的控制方法及显示装置
CN108216023A (zh) * 2016-12-15 2018-06-29 丰田自动车株式会社 车辆用注意提醒装置以及注意提醒方法
CN110505577A (zh) * 2018-05-17 2019-11-26 株式会社小糸制作所 传感器数据生成装置
CN110505577B (zh) * 2018-05-17 2021-07-23 株式会社小糸制作所 传感器数据生成装置
US11508074B2 (en) 2018-05-17 2022-11-22 Koito Manufacturing Co., Ltd. Sensor data generating device

Also Published As

Publication number Publication date
US20140226015A1 (en) 2014-08-14
JPWO2013042767A1 (ja) 2015-03-26
EP2759999B1 (en) 2016-07-27
WO2013042767A1 (ja) 2013-03-28
JP5616531B2 (ja) 2014-10-29
EP2759999A4 (en) 2015-04-15
EP2759999A1 (en) 2014-07-30
CN103797530B (zh) 2015-09-09

Similar Documents

Publication Publication Date Title
CN103797530B (zh) 车辆周围监测装置
US10589752B2 (en) Display system, display method, and storage medium
US10198950B2 (en) Parking support method and parking support device
CN106415693B (zh) 车辆用认知通知装置、车辆用认知通知系统
JP2018195301A (ja) 制御装置及び制御方法
US10899365B2 (en) Parking support information display method and parking support device
CN108140311B (zh) 停车辅助信息的显示方法及停车辅助装置
JP6648411B2 (ja) 処理装置、処理システム、処理プログラム及び処理方法
US20200398743A1 (en) Method and apparatus for learning how to notify pedestrians
CN102476619B (zh) 用于检测机动车周围环境的方法
CN202686359U (zh) 狭窄道路检测装置
US20170330463A1 (en) Driving support apparatus and driving support method
CN108140319A (zh) 停车辅助方法及停车辅助装置
JP7039940B2 (ja) 車両制御装置
KR20120127830A (ko) 차량용 단말을 위한 사용자 인터페이스 방법 및 장치
WO2012131871A1 (ja) 情報表示装置、制御方法、プログラム、及び記憶媒体
CN107054218A (zh) 标识信息显示装置和方法
CN109841088A (zh) 车辆驾驶辅助系统及方法
JP5898539B2 (ja) 車両走行支援システム
JP2013004021A (ja) 衝突危険度判定装置
JP5577609B2 (ja) 運転支援装置
JP5192007B2 (ja) 車両の周辺監視装置
WO2018212090A1 (ja) 制御装置及び制御方法
JP4823753B2 (ja) 車両の周辺監視装置
US11623654B2 (en) Systems and methods of assisting vehicle navigation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20210510

Address after: Sweden Wajiada

Patentee after: Vennell Sweden

Address before: Tokyo, Japan

Patentee before: HONDA MOTOR Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220829

Address after: Linkping

Patentee after: Anzher software Co.

Address before: Sweden Wajiada

Patentee before: Vennell Sweden

TR01 Transfer of patent right