CN104508723B - 图像处理装置 - Google Patents

图像处理装置 Download PDF

Info

Publication number
CN104508723B
CN104508723B CN201380039597.4A CN201380039597A CN104508723B CN 104508723 B CN104508723 B CN 104508723B CN 201380039597 A CN201380039597 A CN 201380039597A CN 104508723 B CN104508723 B CN 104508723B
Authority
CN
China
Prior art keywords
mentioned
nebulousurine
detection
sun
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201380039597.4A
Other languages
English (en)
Other versions
CN104508723A (zh
Inventor
清原将裕
中村克行
竹村雅幸
入江耕太
早川泰久
深田修
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Nissan Motor Co Ltd filed Critical Clarion Co Ltd
Publication of CN104508723A publication Critical patent/CN104508723A/zh
Application granted granted Critical
Publication of CN104508723B publication Critical patent/CN104508723B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明的图像处理装置具备:图像取得部,其取得摄像机摄影车辆外而输出的摄影图像;太阳判定部,其计算至少包含太阳的高度的太阳的位置,判定太阳的高度在预定高度以下;白浊检测部,其检测摄像机的镜头表面发生了白浊;车辆检测部,其根据摄影图像的第一图像区域的图像信息,检测与车辆不同的其他车辆;控制部,其在通过白浊检测部检测出至少第一图像区域发生白浊的情况下,在太阳判定部判定为太阳的高度在预定高度以下时,抑制车辆检测部对其他车辆的检测。

Description

图像处理装置
技术领域
本发明涉及一种图像处理装置。
背景技术
以前,已知通过车载用的摄像装置摄影车辆周边而根据摄影图像推定太阳、其他车的车头灯等的光源位置的技术。例如,在专利文献1中,公开了能够通过亮度变化推定单元推定太阳或车头灯的亮度变化的车辆用图像处理装置。
现有技术文献
专利文献1:日本特开2010-086266号公报
发明内容
发明要解决的问题
在现有技术中,存在以下的问题,即在太阳光入射到白浊的镜头的情况下,周围车辆的检测等图像识别处理的精度降低。
用于解决问题的手段
本发明的第一形式的图像处理装置具备:图像取得部,其取得摄像机摄影车辆外而输出的摄影图像;太阳判定部,其计算至少包含太阳的高度的太阳的位置,判定太阳的高度为预定高度以下的情况;白浊检测部,其检测摄像机的镜头表面发生了白浊;车辆检测部,其根据摄影图像的第一图像区域的图像信息,检测与车辆不同的其他车辆;控制部,其在通过白浊检测部检测出至少第一图像区域发生白浊的情况下,在太阳判定部判定为太阳的高度在预定高度以下时,抑制车辆检测部对其他车辆的检测。
本发明的第二形式,优选在第一形式的图像处理装置中,车辆检测部具有与其他车辆的检测灵敏度有关的预定阈值,控制部在镜头表面中的与以太阳的位置为中心的图像范围对应的范围发生了白浊时,与镜头表面的该范围不白浊时相比,通过变更阈值而抑制其他车辆的检测灵敏度。
本发明的第三形式,优选在第一形式的图像处理装置中,太阳判定部根据日期时间、车辆所位于的纬度和经度、车辆的方向来计算太阳的位置。
本发明的第四形式,优选在第一形式的图像处理装置中,太阳判定部通过对摄影图像进行图像处理来计算太阳的位置。
本发明的第五形式,优选在第四形式的图像处理装置中,摄像机至少摄影车辆外的路面,太阳判定部从摄影图像中提取因路面反射造成的高亮度区域,根据高亮度区域的重心的位置来计算太阳的位置。
本发明的第六形式,优选在第二形式的图像处理装置中,控制部根据以太阳的位置为中心的图像范围的亮度梯度,检测镜头表面中的与该图像范围对应的范围发生了白浊。
本发明的第七形式,优选在第一形式的图像处理装置中,在摄影图像中设定白浊检测区域,白浊检测部针对白浊检测区域计算边沿强度的直方图,根据使用直方图计算的边沿强度的平均值,检测摄像机镜头白浊的区域。
本发明的第八形式,优选在第七形式的图像处理装置中,摄像机至少摄影车辆外的路面,在设置在路面上的白线的消失点的近旁设置多个白浊检测区域,白浊检测部针对各个白浊检测区域计算边沿强度的直方图,根据使用各个直方图计算的边沿强度的平均值,检测摄像机镜头发生白浊的区域。
本发明的第九形式,优选在第七形式的图像处理装置中,摄像机至少摄影车辆外的路面,在白浊检测区域中包含在设置于路面上的白线的消失点的近旁即摄影图像的中央的上侧的位置设定的第一白浊检测区域、以比第一白浊检测区域向下方扩展的方式设定在消失点的近旁的第二白浊检测区域,白浊检测部在白天使用第一白浊检测区域检测摄像机镜头发生白浊的区域,在夜间使用第二白浊检测区域检测摄像机镜头发生白浊的区域。
本发明的第十个形式,优选在第一~第九的任意一个形式的图像处理装置中,还具备:报告控制部,其使预定的报告部报告控制部抑制了车辆检测部对其他车辆的检测的情况。
本发明的第十一形式,优选在第二形式的图像处理装置中,白浊检测部在摄像机的镜头表面的白浊程度超过第一白浊程度时,检测摄像机的镜头表面发生白浊,车辆检测部在摄像机的镜头表面为不白浊的第二白浊程度时将阈值设定为第一阈值,在摄像机的镜头表面的白浊程度超过第一白浊程度时将阈值设定为比第一阈值大的第二阈值,在第二白浊程度和第一白浊程度之间设置将阈值设定为比第一阈值和第二阈值的任意一个都小的第三阈值的第三白浊程度。
发明效果
根据本发明,在太阳光入射到摄影图像的情况下,图像识别处理的精度也不降低。
附图说明
图1是表示本发明的第一实施方式的车载用车辆识别装置的结构的框图。
图2是表示摄像机的摄影区域和遮光区域的图。
图3是表示摄像机的安装位置的例子的图。
图4是本发明的第一实施方式的车载用车辆识别装置所具备的控制部为了实现BSW而具备的各功能部的框图。
图5是用于说明对位部的处理的概要的图,(a)是表示车辆的移动状态的平面图,(b)是表示对位的概要的图像。
图6是表示车辆的行驶状态的平面图。
图7是表示立体物检测部的差分波形的生成的情况的概要图。
图8是表示通过立体物检测部分割的小区域的图。
图9是表示通过立体物检测部生成的直方图的一个例子的图。
图10是表示立体物检测部的加权的图。
图11是与车辆检测部有关的流程图。
图12是与车辆检测部有关的流程图。
图13是表示通过白浊检测部设定的白浊检测区域的一个例子的图。
图14是与白浊检测部有关的流程图。
图15是表示通过太阳判定部计算的太阳的位置和通过太阳判定部设定的太阳范围的图。
图16是与太阳判定部有关的流程图。
图17是与BSW控制部设定的第一阈值α的设定值有关的表的一个例子。
图18是表示BSW控制部进行的路面反射的有无判定的概要的图。
图19是与BSW控制部有关的流程图。
图20是与报告控制部有关的流程图。
图21是表示本发明的第二实施方式的车载用车辆识别装置的结构的框图。
图22是本发明的第二实施方式的车载用车辆识别装置所具备的控制部为了实现BSW而具备的各功能部的框图。
图23是表示本车辆的行驶状态的图,(a)是表示检测区域等的位置关系的平面图,(b)是表示实际空间中的检测区域等的位置关系的图。
图24是用于说明亮度计算部的动作的图,(a)是表示俯视图像中的关注线、参照线、关注点以及参照点的位置关系的图,(b)是表示实际空间中的关注线、参照线、关注点以及参照点的位置关系的图。
图25是用于说明亮度计算部的详细动作的图,(a)是表示俯视图像中的检测区域的图,(b)是表示俯视图像中的关注线、参照线、关注点以及参照点的位置关系的图。
图26是表示边沿线和边沿线上的亮度分布的图,(a)是表示在检测区域中存在立体物(车辆)时的亮度分布的图,(b)是表示在检测区域中不存在立体物时的亮度分布的图。
图27是与第二车辆检测部有关的流程图。
图28是与第二车辆检测部有关的流程图。
图29是与第二太阳判定部有关的流程图。
图30是表示第二太阳判定部进行的太阳位置的计算的概要的图。
图31是与第二BSW控制部有关的流程图。
图32是与第二BSW控制部设定的阈值θ的设定值有关的表的一个例子。
用33是表示白浊程度和阈值的等级之间的关系的图。
具体实施方式
(第一实施方式)
图1是表示本发明的第一实施方式的车载用车辆识别装置100的结构的框图。图1所示的车载用车辆识别装置100被安装在车辆中使用,具备安装有遮光板1a的摄像机1、控制部2、警报输出部3、动作状态报告部4、外部装置控制部5和存储部6。
摄像机1朝向车辆的后方设置,每隔预定的时间间隔摄影包含车辆后方的路面的摄影区域内的图像。在该摄像机1中例如使用CCD、CMOS等摄像元件。将通过摄像机1取得的摄影图像从摄像机1输出到控制部2。
为了对朝向摄像机1的摄影镜头前进的光的一部分进行遮光而在摄像机1中安装有遮光板1a。图2是表示摄像机1的摄影区域和遮光区域的图,表示从横方向看摄像机1的情况。如图2所示,通过用遮光板1a遮挡(mask)摄像机1的摄影区域中上侧的一部分,而形成遮光区域。摄像机1在该遮光区域以外的摄影区域中摄影包含车辆后方的路面的图像。在此,摄像机1的摄影区域(视场角)被设定得比较广使得能够针对左右方向在充分广的范围内摄影车辆后方的路面,如果这样则除了路面以外,例如来自天空、背景等的不必要的光也入射到摄像机1。因此,为了遮蔽这样的向摄像机1的不必要的入射光,通过遮光板1a设置遮光区域。
图3是表示摄像机1的安装位置的例子的图。在本车辆的后方部分,在车体20上设置有号牌21。在该号牌21的正上的位置朝向斜下地安装有摄像机1,在其上设置有遮光板1a。此外,此处所示的安装位置只不过是一个例子,因此也可以将摄像机1安装在其他位置。只要能够在适当的范围内摄影车辆后方的路面,则可以任意地确定摄像机1的安装位置。
控制部2通过执行存储在存储部6中的程序,使用来自摄像机1的摄影图像进行预定的图像处理,进行与该处理结果对应的各种控制。通过该控制部2进行的控制,在车载用车辆识别装置100中,例如实现被称为LDW(Lane Departure Warning:车道偏离警报)、BSW(Blind Spot Warning:盲点警报)、MOD(Moving Object Detection:运动目标检测)、PED(Pedestrian Detection:行人检测)、RSR(Road Sign Recognition:交通标志识别)、IMD(Image Diagnosis:图像诊断)的各种功能。LDW是以下的功能,即通过从摄影图像中检测路面的白线(车道边界线、车辆外侧线等),而在本车辆要从正在行驶的车道偏离时输出警报。MOD是以下的功能,即通过从摄影图像中检测移动物,在后退时等向驾驶者通知本车辆的周围存在移动物。PED是以下的功能,即通过从摄影图像中检测人物形状,而向驾驶者通知本车前进路径上存在步行者。RSR是以下的功能,即从摄影图像中识别道路上的交通标志,例如在超过速度限制标志的速度的情况下,向驾驶者进行警告。IMD是诊断是否通过摄像机1正确地摄影了摄影图像的功能。BSW是以下的功能,即通过从摄影图像中检测正在道路上行驶的其他车辆,而在变更车道时等向驾驶者警告存在有可能与本车辆冲撞的车辆。
警报输出部3是用于向车辆的驾驶者输出警报灯、警报蜂鸣器等的警报的部分。警报灯例如设置在车辆的前柱(front pillar)的两侧。通过控制部2控制该警报输出部3的动作。例如,在上述LDW中判断为本车辆要从正在行驶的车道脱离的情况、在BSW中检测出有可能与本车辆冲撞的车辆的情况下,根据控制部2的控制从警报输出部3输出警报。
动作状态报告部4是用于向车辆的驾驶者报告车载用车辆识别装置100的动作状态的部分。例如,在不满足预定的动作条件而车载用车辆识别装置100处于非动作状态的情况下,通过控制部2的控制,使作为动作状态报告部4而设置在车辆的驾驶席附近的灯点亮。由此,向驾驶者报告车载用车辆识别装置100是非动作状态。
外部装置控制部5根据来自控制部2的控制来控制外部装置。
接着,说明在车载用车辆识别装置100中控制部2进行的BSW控制。在摄像机1的摄影区域内存在太阳那样的强光源的情况下,在摄影图像中的该光源的位置近旁对比度降低。进而,在摄像机1的摄影镜头附着污垢而发生白浊的情况下,摄影图像整体的对比度进一步降低。在摄影图像整体的对比度降低了的状态下,BSW中的其他车辆等的检测精度恶化。控制部2在摄影区域中存在太阳时,根据摄像机1的摄影镜头的镜头表面的白浊的位置、程度,控制BSW的动作。
图4是与BSW有关的控制部2的控制框图。如图4所示那样,控制部2具备图像取得部31、BSW部32、白浊检测部33、太阳判定部34和BSW控制部35。
(图像取得部31)
图像取得部31在每个预定时间从摄像机1取得摄影图像的图像信息。图像取得部31取得的摄影图像的图像信息至少被输出到BSW部32和白浊检测部33。在图4中,图像取得部31还向BSW控制部35输出摄影图像的图像信息。
(BSW部32)
BSW部32具备车辆检测部41和报告控制部42。车辆检测部41具备视点变换部411、对位部412、立体物检测部413。
(视点变换部411)
视点变换部411将图像取得部31取得的摄影图像的图像信息视点变换为俯视的状态的俯视图像数据。俯视的状态是指从上空例如从朝向铅垂下方而向下看的虚拟摄像机的视点看的状态。例如可以如日本特开2008-219063号公报所记载的那样执行该视点变换。将摄像图像数据视点变换为俯视图像数据是因为:根据通过向俯视图像数据的视点变换而将立体物所特有的铅垂边沿变换为通过特定的定点的直线群这样的原理,如果利用它则能够识别平面物和立体物。
(对位部412)
对位部412依次地输入通过视点变换部411的视点变换所得的俯视图像数据,使输入的不同时刻的俯视图像数据的位置对准。图5是用于说明对位部412的处理的概要的图,图5(a)是表示本车辆V的移动状态的平面图,图5(b)是表示对位的概要的图像。
如图5(a)所示,假设当前时刻的本车辆V位于V1,一时刻前的本车辆V位于V2。另外,假设其他车辆VX位于本车辆V的后侧方向而处于与本车辆V并行的状态,当前时刻的其他车辆VX位于V3,一时刻前的其他车辆VX位于V4。进而,假设本车辆V在一时刻中移动了距离d。此外,一时刻前既可以是指相对于当前时刻为预先确定的时间(例如一个控制周期)的过去的时刻,也可以是任意时间的过去的时刻。
在这样的状态下,当前时刻的俯视图像PBt如图5(b)所示那样。在该俯视图像PBt中,对于在路面上描绘的白线为矩形,为比较准确的平面视的状态,但对于位于位置V3的其他车辆VX的位置发生了倾倒。另外,对于一时刻前的俯视图像PBt-1也同样,对于在路面上描绘的白线为矩形状,为比较准确的平面视图的状态,但对于位于位置V4的其他车辆VX的位置发生了倾倒。这是因为:立体物的铅垂边沿(除了严谨含义上的铅垂边沿以外,还包含在三维空间中从路面竖立的边沿)由于向俯视图像数据的视点变换处理而表现为沿着倾倒方向的直线群,而与此相对,路面上的平面图像不包含铅垂边沿,因此即使进行视点变换也不产生这样的倾倒。
对位部412在数据上执行上述那样的俯视图像PBt、PBt-1的对位。这时,对位部412使一时刻前的俯视图像PBt-1偏移而使其位置与当前时刻的俯视图像PBt一致。图5(b)的左侧的图像和中央的图像表示偏移了移动距离d’后的状态。该偏移量d’是与图5(a)所示的本车辆V的实际的移动距离d对应的俯视图像数据上的移动量,根据来自车速传感器的信号、从一时刻前到当前时刻的时间而决定。
另外,在对位后,对位部412取得俯视图像PBt、PBt-1的差分,生成差分图像PDt的数据。在此,差分图像PDt的像素值既可以是对俯视图像PBt、PBt-1的像素值的差取绝对值而取得的值,也可以为了对应照度环境的变化,而在该绝对值超过预定的阈值p时设为“1”,在没有超过时设为“0”。图5(b)的右侧的图像是差分图像PDt。可以预先设定该阈值p。
(立体物检测部413)
图4的立体物检测部413根据图5(b)所示的差分图像PDt的数据,检测立体物。在立体物检测部413检测出的立体物中,包含在本车辆V变更车道时有可能接触的其他车辆。立体物检测部413也针对实际空间上的立体物的移动距离进行计算。立体物检测部413使用立体物的每个时间的移动距离计算立体物的移动速度。另外,立体物检测部413使用立体物的移动速度判断该立体物是否是车辆。
立体物检测部413首先生成差分波形。在生成差分波形时,立体物检测部413在差分图像PDt中设定检测区域。图6是表示检测区域的一个例子的图。在图6中,在本车辆V的后方的左侧和右侧图示出矩形状的检测区域A1、A2。在图6的检测区域A1、A2中,将其他车辆检测为在本车辆V所行驶的车道的相邻车道中行驶的立体物。
在图6中,在与本车辆V行驶的车道相邻的左右的车道中设置检测区域A1、A2。立体物检测部413既可以根据相对于本车辆V的相对位置来设定检测区域A1、A2,也可以利用现有的白线识别技术等将白线的位置设定为基准。
另外,立体物检测部413将所设定的检测区域A1、A2在本车辆V侧的边(沿着行驶方向的边)识别为接地线L1、L2。一般,接地线表示立体物与地面接触的线,但在本实施方式中,不是与地面接触的线,而如上述那样设定。此外,在该情况下,在经验上本实施方式的接地线和本来的根据其他车辆VX的位置求出的接地线之间的差也不过大,实用上没有问题。
图7是表示立体物检测部413的差分波形的生成的情况的概要图。如图7所示,立体物检测部413根据通过对位部412计算出的差分图像PDt(例如图5(b)的右图)中的相当于检测区域A1、A2的部分,生成差分波形DWt。这时,立体物检测部413沿着立体物由于视点变换而倾倒的方向,生成差分波形DWt。此外,在图7所示的例子中,为了方便而只使用检测区域A1进行说明,但对于检测区域A2也通过同样的步骤生成差分波形DWt。
立体物检测部413在差分图像PDt的数据上定义立体物倾倒的方向上的线La。然后,立体物检测部413在线La上计数表示预定的差分的差分像素DP的个数。在此,在差分图像PDt的像素值是对俯视图像PBt、PBt-1的像素值的差取绝对值而取得的值情况下,表示预定的差分的差分像素DP是超过预定的阈值的像素,在用“0”、“1”表现差分图像PDt的像素值的情况下,表示预定的差分的差分像素DP是表示“1”的像素。
立体物检测部413在计数了差分像素DP的个数后,求出线La和接地线(例如接地线L1)的交点CP。然后,立体物检测部413使交点CP与计数个数对应起来,根据交点CP的位置决定横轴位置、即图7右图的上下方向轴上的位置,并且根据计数个数决定纵轴位置、即图7右图的左右方向轴上的位置,描绘为交点CP处的计数个数。
以下同样地,立体物检测部413定义立体物倾倒的方向上的线Lb、Lc…,计数差分像素DP的个数,根据各交点CP的位置决定横轴位置,根据计数个数(差分像素DP的个数)决定纵轴位置并描绘。立体物检测部413依次地重复进行上述处理而使其根据度数来分布,由此如图7右图所示那样生成差分波形DWt。
此外,如图7左图所示,立体物倾倒的方向上的线La和线Lb与检测区域A1重叠的距离不同。因此,如果假设检测区域A1被差分像素DP填满,则与线Lb上相比,线La上的差分像素DP的个数多。因此,立体物检测部413在根据差分像素DP的计数个数决定纵轴位置的情况下,根据立体物倾倒的方向上的线La、Lb与检测区域A1重叠的距离来进行标准化。如果列举具体例子,则在图7左图中,线La上的差分像素DP有6个,线Lb上的差分像素DP有5个。因此,在图7中根据计数个数决定纵轴位置时,立体物检测部413将计数个数除以重叠距离等来进行标准化。由此,如差分波形DWt所示那样,与立体物倾倒的方向上的线La、Lb对应的差分波形DWt的值大致相同。
在生成差分波形DWt后,立体物检测部413通过与一时刻前的差分波形DWt-1的对比,计算移动距离。即,立体物检测部413根据差分波形DWt、DWt-1的时间变化计算移动距离。
详细地说明,首先立体物检测部413将差分波形DWt分割为多个小区域DWt1~DWtn(n是2以上的任意的整数)。图8是表示通过立体物检测部413分割而得的小区域DWt1~DWtn的图。例如如图8所示,以使小区域DWt-1~DWtn相互重叠的方式来进行分割。在图8中,小区域DWt1和小区域DWt2重叠,小区域DWt2和小区域DWt3重叠。
接着,立体物检测部413对每个小区域DWt1~DWtn计算偏移量。偏移量是指差分波形的横轴方向(图8的上下方向)的移动量,根据一时刻前的差分波形DWt-1和当前时刻的差分波形DWt之间的差(横轴方向的距离)来计算。具体地说,立体物检测部413对每个小区域DWt1~DWtn通过如下这样的处理计算偏移量。首先,立体物检测部413对每个小区域DWt1~DWtn,使一时刻前的差分波形DWt-1在横轴方向上移动,搜索与当前时刻的差分波形DWt的误差最小的位置(横轴方向的位置)。接着,立体物检测部413对每个小区域DWt1~DWtn,计算该误差为最小的位置和差分波形DWt-1的原来的位置之间的横轴方向的移动量,将该移动量作为偏移量。
接着,立体物检测部413将对每个小区域DWt1~DWtn计算出的偏移量生成直方图,根据该直方图计算立体物的移动距离。图9是表示偏移量的直方图的一个例子的图。如图9所示,偏移量产生若干的波动,因此立体物检测部413将包含离散的偏移量生成直方图,根据该直方图计算立体物的移动距离。
立体物检测部413根据偏移量的直方图的极大值,计算立体物的移动距离。例如在图9的例子中,直方图的极大值是移动距离τ*。立体物检测部413根据该移动距离τ*和来自本车辆V所具备的车速传感器的信号,计算立体物的绝对移动距离。
此外,在生成直方图时,立体物检测部413也可以对多个小区域DWt1~DWtn的每个进行加权,根据权重对每个小区域DWt1~DWtn求出的偏移量进行计数并生成直方图。图10是表示立体物检测部413的加权的图。
如图10所示,小区域DWm(m是1以上、n-1以下的整数)是平坦的。立体物检测部413针对这样的小区域DWm减小权重。这是因为:对于平坦的小区域DWm,没有特征而在计算偏移量时误差增大的可能性高。另一方面,小区域DWm+k(k是n-m以下的整数)具有丰富的起伏。立体物检测部413针对这样的小区域DWm+k增大权重。这是因为:对于具有丰富的起伏的小区域DWm+k,有特征而能够准确地计算偏移量的可能性高。通过这样进行加权,能够提高立体物的移动距离的计算精度。
(车辆检测部41)
图11和图12是与控制部2执行的车辆检测部41的处理有关的流程图。在图11的步骤S100中,根据图像取得部31取得的摄影图像的图像信息,由视点变换部411生成俯视图像数据。在步骤S110中,对位部412使俯视图像PBt和一时刻前的俯视图像PBt-1对位。在步骤S120中,立体物检测部413生成差分图像PDt。在步骤S130中,立体物检测部413根据差分图像PDt的数据、一时刻前的差分图像PDt-1的数据,生成差分波形DWt。
在步骤S140中,立体物检测部413判定差分波形DWt的峰值是否为第一阈值α以上。通过后述的BSW控制部35的控制来设定该第一阈值α。车辆检测部41的处理在步骤S140进行肯定判定的情况下前进到图12的步骤S150,在步骤S140进行否定判定的情况下前进到图12的步骤S230。
在图12的步骤S150中,如使用图7说明的那样,立体物检测部413将差分波形DWt分割为多个小区域DWt1~DWtn。在步骤S160中,如使用图9说明的那样,立体物检测部413对每个小区域DWt1~DWtn进行加权。在步骤S170中,立体物检测部413计算每个小区域DWt1~DWtn的偏移量。在步骤S180中,立体物检测部413生成每个小区域DWt1~DWtn的偏移量的直方图。在步骤S190中,立体物检测部413根据在步骤S180中生成的直方图,计算立体物相对于本车辆V的移动距离即相对移动距离。在步骤S200中,立体物检测部413根据在步骤S190中计算出的相对移动距离计算立体物的绝对移动速度。立体物检测部413对相对移动距离进行时间微分来计算相对移动速度,并且加上通过本车辆的车速传感器等检测出的本车速,计算绝对移动速度。
在步骤S210中,立体物检测部413判定是否是立体物的绝对移动速度为γkm/h以上、并且立体物相对于本车辆V的相对移动速度为δ1km/h以上、δ2km/h以下。例如,立体物检测部413判定是否是立体物的绝对移动速度为20km/h以上、并且立体物相对于本车辆V的相对移动速度为-20km/h以上、+40km/h以下。车辆检测部41的处理在步骤S210进行肯定判定的情况下前进到步骤S220,在步骤S210进行否定判定的情况下前进到步骤S230。
在步骤S220中,立体物检测部413判断为立体物是其他车辆VX。在步骤S230中,立体物检测部413判断为不存在其他车辆。然后,控制部2结束图11和图12所示的处理。
(白浊检测部33)
图4的白浊检测部33检测摄像机1的摄影镜头的白浊。白浊检测部33针对摄像机1的摄影图像设定白浊检测区域,对每个该白浊检测区域生成边沿强度的直方图。然后,白浊检测部33在该直方图的平均值为预定值以下时,判定为摄像机1的摄影镜头发生了白浊。
图13是示例白浊检测区域的图。在图13中,示例了白浊检测区域51、52、53。在摄影图像50中,将白浊检测区域51、52、53设定在白线54和白线55相交的消失点56的近旁。
白浊检测区域52和53具有相互左右对称的形状,被设定在左右对称的位置。白浊检测区域52和53分别与立体物检测部413设定的检测区域A1和A2对应,在检测与检测区域A1和A2对应的镜头表面发生白浊时使用。在隔着白浊检测区域51的位置设定白浊检测区域52和53。白浊检测区域52和53比白浊检测区域51向下方扩展,能够检测本车辆V的近旁的边沿,因此适合于夜间检测镜头表面的白浊。
白浊检测区域51具有左右对称的形状,被设定在摄影图像中的中央的上侧、遮光部57的下侧。白浊检测区域51具有与白浊检测区域52重叠的区域和与白浊检测区域53重叠的区域。在检测与立体物检测部413设定的检测区域A1对应的镜头表面、或与检测区域A2对应的镜头表面的白浊中使用白浊检测区域51。对于白浊检测区域51中的图像,即使在本车辆V正在行驶时相对变化也少,因此检测精度稳定。此外,白浊检测区域51能够检测本车辆V的远方的边沿,因此适合于白天检测镜头表面的白浊。
通过这样设定白浊检测区域,白浊检测部33能够至少检测出与立体物检测部413设定的检测区域A1和A2对应的摄影镜头的镜头表面发生白浊。
图14是与白浊检测部33的处理有关的流程图。向白浊检测部33输入由图像取得部31取得的摄影图像的图像信息。例如,输入图13的摄影图像50的图像信息。在图14的步骤S300中,控制部2使用公知的边沿检测处理,生成与该摄影图像对应的边沿检测图像。
在步骤S301中,控制部2针对在步骤S300中生成的边沿检测图像中与白浊检测区域51对应的区域,生成与包含在该区域中的边沿的边沿强度有关的直方图H1。在步骤S302中,控制部2针对在步骤S300中生成的边沿检测图像中的与白浊检测区域52对应的区域,生成与包含在该区域中的边沿的边沿强度有关的直方图H2。在步骤S303中,控制部2针对在步骤S300中生成的边沿检测图像中的与白浊检测区域53对应的区域,生成与包含在该区域中的边沿的边沿强度有关的直方图H3。此外,关于步骤S301、步骤S302、步骤S303的顺序,也可以按照任意的顺序执行。
在步骤S304中,控制部2计算直方图H1的平均值E1、直方图H2的平均值E2、直方图H3的平均值E3。在步骤S305中,控制部2判定是否是平均值E1为预定的阈值ε1以上、并且平均值E2为预定的阈值ε2以上、并且平均值E3为预定的阈值ε3以上。控制部2在步骤S305进行否定判定的情况下使图14的处理前进到步骤S307,在步骤S305进行肯定判定的情况下使图14的处理前进到步骤S306。此外,也可以将在步骤S305中进行的判定设为在白天进行白浊检测的情况下和在夜间白浊检测的情况下不同。例如,在白天进行白浊检测的情况下,控制部2判定平均值E1是否为预定阈值ε1以上即可。另外,在夜间进行白浊检测的情况下,控制部2可以判定是否是平均值E2为预定的阈值ε2以上、并且平均值E3为预定的阈值ε3以上。即,可以在白天使用白浊检测区域51进行白浊检测,在夜间使用白浊检测区域52和53进行白浊检测。
在步骤S306中,控制部2判断为摄像机1的摄影镜头没有发生白浊。另一方面,在步骤S307中,控制部2判断为摄像机1的摄影镜头的镜头表面中的至少与检测区域A1或A2对应的镜头表面发生白浊。
(太阳判定部34)
图4的太阳判定部34计算太阳的位置,判定太阳光是否入射到摄像机1的摄影区域。太阳判定部34计算的太阳的位置至少包含太阳的高度。太阳判定部34例如根据日期时间信息、存在本车辆V的本车位置的纬度来计算太阳的高度。另外,太阳判定部34进而计算太阳的方位作为与太阳的位置有关的信息。例如可以根据日期时间信息、本车位置的纬度和经度、本车辆V的方向来计算太阳的方向。
太阳判定部34将以计算出的太阳的高度和方位为中心的预定的范围设定为太阳的范围。图15是表示太阳范围的图。图15在摄影图像50上示例出与由太阳判定部34计算出的太阳的高度和方位对应的位置60、与该位置60对应的太阳范围61的一个例子。
太阳判定部34判定太阳范围的一部分是否与摄影区域重叠。即,判定是否是太阳的高度为预定高度以下、并且太阳的方位在预定范围内。例如根据本车辆V的车体的方向(摄像机1的光轴方向)、摄像机1的角度等设定预定高度和预定范围。此外,太阳判定部34在不计算太阳的方位的情况下,通过判定太阳的高度是否为预定高度以下,来判定太阳范围的一部分是否与摄影区域重叠。
图16是与太阳判定部34的处理有关的流程图。在步骤S400中,控制部2计算太阳的位置。在步骤S401中,控制部2根据在步骤S400中计算出的太阳的位置设定太阳范围。
在步骤S402中,控制部2判定太阳范围的一部分是否与摄影区域重叠。即,判定是否是太阳的高度为预定高度以下、并且太阳的方位在预定范围内。控制部2在步骤S402进行肯定判定的情况下使图16的处理前进到步骤S403,在步骤S402进行否定判定的情况下使图16的处理前进到步骤S404。
在步骤S403中,太阳判定部34判断为太阳光入射到摄像机1的摄影区域。在步骤S404中,太阳判定部34判断为太阳光不入射到摄像机1的摄影区域。在步骤S403或步骤S404的处理结束后,控制部2前进到步骤S400的处理。
(BSW控制部35)
图4的BSW控制部35根据白浊检测部33的检测结果、太阳判定部34的判定结果、从图像取得部31输入的摄影图像,设定第一阈值α,由此控制BSW部32。图17是与由BSW控制部35设定的第一阈值α有关的设定值表的一个例子。可以将图17的设定值表作为查找表存储在存储部6中。在该情况下,BSW控制部35根据白浊检测部33的检测结果、太阳判定部34的判定结果,参照存储在存储部6中的查找表,设定第一阈值α。
在图17中,作为用于设定第一阈值α的参数,存在路面反射的有无。BSW控制部35根据从图像取得部31输入的摄影图像判断路面反射的有无。
图18是用于说明路面反射的有无的判断的图。在图18中,图示出具有高亮度区域81的摄影图像80。BSW控制部35在高亮度区域的像素数为预定像素数以上,该高亮度区域的重心位于图18中用虚线表示的上限线82和下限线83之间时,判定为该高亮度区域是路面反射。
路面反射的太阳光出现在摄影图像中的位置随着太阳高度变高而成为图18下侧的位置。另外,如果太阳的高度为预定高度Q1以上,则路面反射的太阳光不入射到摄像机1的摄影镜头。另外,如果太阳的高度为预定高度Q2以下,则路面反射的太阳光的亮度变低,成为能够忽略对摄影图像的影响的程度。根据通过实验等导出的该预定高度Q2设定上限线82,根据基于事件等导出的该预定高度Q1设定下限线83。以后,将被上限线82和下限线83夹着的区域称为反射日光区域。
在图17中,对第一阈值α进行等级标记。对于不是等级标记的实际的第一阈值α的设定值,等级越大则设定越大的值,并且等级10为最大。在车载用车辆识别装置100的设计阶段,预先决定与各等级相当的第一阈值α的设定值。此外,图17只不过是一个例子,等级的最大也可以不是等级10。
在通过BSW控制部35将第一阈值α设定为与最大等级(例如图17的等级10)对应的设定值的情况下,图11的步骤S140的判定始终进行否定判定。换言之,在将第一阈值α设定为最大等级的期间,与从图像取得部31输入的摄像图像无关地,车辆检测部41输出不存在其他车辆这样的检测结果。因此,报告控制部42在将第一阈值α设定为最大等级的期间,不使警报输出部3向驾驶者报告存在有可能与本车辆冲撞的车辆。BSW控制部35通过这样将第一阈值α设定为最大等级,来抑制BSW的功能。
BSW控制部35在图17的No.7和No.8的状况下,将第一阈值α设定为等级10(最大等级)。在太阳光入射到摄像机1的摄影区域的情况下,摄像机1的摄影图像整体的对比度降低。另外,在摄像机1的摄影镜头发生白浊时,摄像机1的摄影图像整体的对比度进一步降低。由此,BSW部32中的其他车辆等的检测精度有可能恶化。BSW控制部35通过抑制这样的状况下的BSW部32的报告,来抑制其他车辆的误检测,不使图像识别处理的精度降低。
另外,BSW控制部35在No.3的状况下,将第一阈值α设定得比No.1的状况低。另外,BSW控制部35在No.5的状况下,也将第一阈值α设定得比No.1的状况低。进而,BSW控制部35在No.4的状况下,将第一阈值α设定得比No.2的状况低。另外,BSW控制部35在No.6的状况下,也将第一阈值α设定得比No.2的状况低。这样在摄像机1的摄影图像整体的对比度降低的主要原因只是直射日光和摄影镜头的白浊的任意一方的情况下,BSW控制部35通过将第一阈值α设定得低,而提高其他车辆的检测灵敏度,与因对比度的降低造成的差分波形的峰值的降低对应,而设定为高精度地进行其他车辆的检测。
图19是与BSW控制部35的处理有关的流程图。在步骤S500中,控制部2取得太阳判定部34的判定结果。即,取得与图6的步骤S403或步骤S404的判断有关的信息。
在步骤S501中,控制部2取得白浊检测部33的检测结果。即,从白浊检测部33取得与图14的步骤S306或步骤S307的判断有关的信息。
在步骤S502中,控制部2从由图像取得部31输入的摄影图像中提取高亮度(例如亮度为256灰度等级中的190以上)的像素。在步骤S503中,控制部2提取在步骤S502中提取的像素连结起来的像素块(图像区域)中的预定像素数以上的图像区域。
在步骤S504中,控制部2判断在步骤S503中提取出的图像区域中是否存在重心位于反射日光区域内的图像区域。控制部2针对在步骤S503中提取出的图像区域的各个图像区域计算重心。接着,判定它们的重心是否在反射日光区域的内侧。然后,判断在步骤S503中提取出的图像区域中是否至少存在一个重心位于反射日光区域的内侧的图像区域。
在步骤S505中,控制部2判定在步骤S500和步骤S501中取得的信息和步骤S504的判断结果是否为预定时间上地连续地相同。控制部2在步骤S505进行肯定判定的情况下使图19的处理前进到步骤S506,在步骤S505进行否定判定的情况下使图19的处理前进到步骤S500。
在步骤S506中,控制部2根据图17的表,设定BSW部32的第一阈值α,然后使图19的处理前进到步骤S500。
(报告控制部42)
报告控制部42在变更车道时等,在图12的步骤S220中立体物检测部413判断为立体物是其他车辆VX时,控制警报输出部3,向驾驶者报告存在有可能与本车辆冲撞的车辆。另一方面,报告控制部42在图12的步骤S230中立体物检测部413判断为不存在其他车辆时,不向驾驶者进行这样的报告。
图20是与报告控制部42有关的流程图。在步骤S1000中,控制部2判定BSW是否被抑制。例如,判定第一阈值α是否被设定为等级10。控制部2在步骤S1000进行了肯定判定的情况下使处理前进到步骤S1001,在步骤S1000进行了否定判定的情况下使处理前进到步骤S1002。
在步骤S1001中,控制部2经由动作状态报告部4(例如本车辆V的仪表)报告是BSW被抑制警报灯的点亮和警报音的输出被抑制的状态。
在步骤S1002中,控制部2通过立体物检测部413判定是否检测出其他车辆VX。控制部2在步骤S1002进行了肯定判定的情况下使处理前进到步骤S1003,在步骤S1002进行了否定判定的情况下使处理前进到步骤S1000。
在步骤S1003中,控制部2使警报输出部3中的设置在通过立体物检测部413检测出其他车辆的方向的前柱的警报灯点亮。
在步骤S1004中,控制部2判定本车辆V的方向指示器中的在通过立体物检测部413检测出其他车辆VX的方向上存在的本车辆V的方向指示器是否正在闪烁。使用图1所图示的CAN通信取得方向指示器的闪烁状态即可。控制部2在步骤S1004进行了肯定判定的情况下使处理前进到步骤S1005,在步骤S1004进行了否定判定的情况下使处理前进到步骤S1000。
在步骤S1005中,控制部2使得从警报输出部3的警报蜂鸣器输出警报音。
根据以上说明的第一实施方式具有如下的作用效果。
车载用车辆识别装置100的控制部2具备图像取得部31、太阳判定部34、白浊检测部33、车辆检测部41、BSW控制部35。
图像取得部31取得摄像机1摄影车辆外而输出的摄影图像。
太阳判定部34计算至少包含太阳的高度的太阳的位置(图16的步骤S400),至少判定该太阳的高度是否为预定高度以下(图16的步骤S402)。
白浊检测部33检测摄像机1的摄影镜头的镜头表面中的至少与检测区域A1和A2对应的镜头表面发生白浊(图14的步骤S307)。
车辆检测部41从与检测区域A1和A2对应的摄影图像的图像区域中检测其他车辆(图12的步骤S220)。
BSW控制部35在通过白浊检测部33检测出至少与检测区域A1和A2对应的镜头表面发生白浊的情况下,在太阳判定部34判定为太阳的高度为预定高度以下的情况下,至少将第一阈值α调整为最大等级,由此抑制车辆检测部41对其他车辆的检测(图19的步骤S506、图17的No.7和No.8)。
由此,在车载用车辆识别装置100中,在太阳光入射到摄影图像的情况下,图像识别处理的降低也不降低。
(第二实施方式)
说明本发明的第二实施方式。图21是表示本发明的第二实施方式的车载用车辆识别装置200的结构的框图。图21所示的车载用车辆识别装置200只在控制部2变化为控制部7这一点上与第一实施方式的车载用车辆识别装置100不同。在图21所示的车载用车辆识别装置200的结构中,对于与车载用车辆识别装置100相同的结构,省略其说明。
控制部7与控制部2同样地,通过执行存储在存储部6中的程序,使用来自摄像机1的摄影图像进行预定的图像处理,进行与其处理结果对应的各种控制。通过该控制部7进行的控制,在车载用车辆识别装置200中,例如实现被称为LDW、BSW、MOD、PED、RSR、IMD的各种功能。
图22是与BSW有关的控制部7的控制框图。如图22所图示的那样,控制部7具备图像取得部31、第二BSW部62、白浊检测部33、第二太阳判定部64、第二BSW控制部65。对于与图4所示的控制框图相同的结构,附加相同的符号并省略其说明。
第二BSW部62具备第二车辆检测部71、报告控制部42。第二车辆检测部71具备视点变换部411、亮度差计算部712、边沿线检测部713和第二立体物检测部714。
图23(a)和(b)是图示第二BSW部62进行立体物的检测的检测区域的图。图23(a)表示平面图,图23(b)表示本车辆V的后侧方的实际空间上的立体图。图23(a)所示的检测区域A3、A4在平面视图(俯视的状态)中为梯形状,根据距离d1~d4决定这些检测区域A3、A4的位置、大小以及形状。通过第二立体物检测部714设定这些检测区域A3和A4来代替检测区域A1和A2。
距离d1是从本车辆V到接地线L1、L2的距离。根据从本车辆V到白线W的距离d11、从白线W到预测为其他车辆VX行驶的位置的距离d12,决定距离d1。例如,距离d1是距离d11和距离d12的和。其他车辆VX行驶的道路上的位置和本车辆V行驶的道路上的位置被大致决定,因此距离d11和距离d12被大致固定地决定,距离d1也被大致固定地决定。此外,控制部7也可以通过公知的白线识别等技术识别白线W相对于本车辆V的位置,根据识别出的白线W的位置决定距离d11。
距离d2是从本车辆V的后端部向车辆前进方向的反方向延伸的距离。决定该距离d2使得检测区域A3、A4至少容纳在摄像机1的视角a内。特别在图23(a)中,将距离d2设定得与划分为视角a的范围相接。
距离d3是表示检测区域A3、A4在车辆前进方向上的长度的距离。根据成为检测对象的立体物的大小决定该距离d3。例如将距离d3设定为包含其他车辆VX的长度。
距离d4如图23(b)所示,是表示被设定为在实际空间中包含其他车辆VX等的轮胎的高度的距离。距离d4在俯视图像中为图23(a)所示那样的长度。此外,距离d4也可以为在俯视图像中不包含进一步与左右的相邻车道相邻的车道(即从车辆V行驶的车道相邻2个车道的车道)的长度。这是因为:如果包含从本车辆V的车道相邻2个车道的车道,则无法区别其他车辆VX存在于本车辆V正在行驶的车道即本车道的左右的相邻车道,还是其他车辆VX存在于相邻2个车道的车道。
如以上那样,决定距离d1~d4,由此决定检测区域A3、A4的位置、大小、以及形状。具体地说明,根据距离d1决定成为梯形的检测区域A3、A4的上边b1的位置,根据距离d2决定上边b1的起点位置C1。根据距离d3决定上边b1的终点位置C2。根据从摄像机1向起点位置C1延伸的直线L3,决定成为梯形的检测区域A3、A4的侧边b2。同样,根据从摄像机1向终点位置C2延伸的直线L4决定成为梯形的检测区域A3、A4的侧边b3。根据距离d4决定成为梯形的检测区域A3、A4的下边b4的位置。这样,被各边b1~b4围住的区域成为检测区域A3、A4。该检测区域A3、A4如图23(b)所示在本车辆V的后侧方的实际空间上成为正方形(长方形)。
(亮度差计算部712)
亮度差计算部712为了检测包含在俯视图像中的立体物的边沿,针对通过视点变换部411进行了视点变换后的俯视图像数据,进行亮度差的计算。亮度差计算部712针对实际空间中的沿着在铅垂方向上延伸的铅垂虚拟线的多个位置的每个,计算各该位置的近旁的2个像素之间的亮度差。亮度差计算部712可以通过只设定实际空间中在铅垂方向上延伸的1条铅垂虚拟线的方法、设定2条铅垂虚拟线的方法的任意一个来计算亮度差。
说明设定2条铅垂虚拟线的具体方法。亮度差计算部712针对进行了视点变换后的俯视图像,设定与实际空间中在铅垂方向上延伸的线段对应的第一铅垂虚拟线、不同于第一铅垂虚拟线且与实际空间中在铅垂方向上延伸的线段对应的第二铅垂虚拟线。亮度差计算部712沿着第一铅垂虚拟线和第二铅垂虚拟线连续地求出第一铅垂虚拟线上的点和第二铅垂虚拟线上的点之间的亮度差。以下,详细说明该亮度差计算部712的动作。
图24(a)和(b)是表示第一铅垂虚拟线和第二铅垂虚拟线的一个例子的图。在图24(a)中,图示出亮度差计算部712设定的第一铅垂虚拟线La(以下称为关注线La)、第二铅垂虚拟线Lr(以下称为参照线Lr)。关注线La和参照线Lr是在实际空间中在铅垂方向上延伸的线段,通过检测区域A3。将参照线Lr设定在实际空间中的从关注线La离开预定距离的位置。此外,与在实际空间中在铅垂方向上延伸的线段对应的线是指在俯视图像中从摄像机1的位置Ps以放射状扩展的线。该以射状扩展的线是沿着在变换为俯视时立体物倾倒的方向的线。
亮度差计算部712在关注线La上设定关注点Pa(第一铅垂虚拟线上的点)。另外,亮度差计算部712在参照线Lr上设定参照点Pr(第二铅垂虚拟线上的点)。这些关注线La、关注点Pa、参照线Lr、参照点Pr在实际空间上成为图24(b)所示的关系。如从图24(b)可知的那样,关注线La和参照线Lr是在实际空间中在铅垂方向延伸的线,关注点Pa和参照点Pr是在实际空间上设定在大致相同的高度上的点。此外,关注点Pa和参照点Pr并不一定必须是严谨地相同的高度,允许将关注点Pa和参照点Pr看作为相同的高度的程度的误差。
亮度差计算部712求出关注点Pa和参照点Pr之间的亮度差。如果假设关注点Pa和参照点Pr之间的亮度差大,则认为在关注点Pa和参照点Pr之间存在边沿。因此,图22所示的边沿线检测部713根据关注点Pa和参照点Pr之间亮度差检测边沿线。
更详细地说明该点。图25是表示亮度差计算部712的详细动作的图,图25(a)表示俯视的状态的俯视图像,图25(b)是放大了图25(a)所示的俯视图像的一部分B1的图。此外,在图25(a)和(b)中,只图示检测区域A3进行说明,但对于检测区域A4也通过同样的步骤计算亮度差。
在摄像机1摄像所得的摄像图像内映出其他车辆VX的情况下,如图25(a)所示,在俯视图像内的检测区域A3中出现其他车辆VX。如在图25(b)中表示图25(a)中的区域B1的放大图那样,假设在俯视图像上,在其他车辆VX的轮胎的橡胶部分上设定了关注线La。在该状态下,亮度差计算部712首先设定参照线Lr。在实际空间中的从关注线La离开预定的距离的位置,沿着铅垂方向设定参照线Lr。具体地说,在本实施方式的摄像机1中,在实际空间中的从关注线La离开10cm的位置设定参照线Lr。由此,在俯视图像上,将参照线Lr例如设定在从其他车辆VX的轮胎的橡胶离开10cm左右的其他车辆VX的轮胎的车轮上。
接着,亮度差计算部712在关注线La上设定多个关注点Pa1~PaN。在图25(b)中,为了说明的方便,设定了6个关注点Pa1~Pa6(以下,在表示任意的点的情况下,简称为关注点Pai)。此外,设定在关注线La上的关注点Pa的个数可以是任意的。在以下的说明中,说明为在关注线La上设定了N个关注点Pa。
接着,亮度差计算部712设定各参照点Pr1~PrN使得在实际空间上与各关注点Pa1~PaN成为相同的高度。然后,亮度差计算部712计算相同高度之间的关注点Pa和参照点Pr之间的亮度差。由此,亮度差计算部712对实际空间中沿着在铅垂方向上延伸的铅垂虚拟线的多个位置(1~N)的每个位置计算2个像素的亮度差。亮度差计算部712例如在第一关注点Pa1和第一参照点Pr1之间计算亮度差,在第二关注点Pa2和第二参照点Pr2之间计算亮度差。由此,亮度差计算部712沿着关注线La和参照线Lr连续地求出亮度差。即,亮度差计算部712依次求出第三~第N关注点Pa3~PaN和第三~第N参照点Pr3~PrN之间的亮度差。
亮度差计算部712一边在检测区域A3内挪动关注线La,一边重复执行上述参照线Lr的设定、关注点Pa和参照点Pr的设定、亮度差的计算这样的处理。即,亮度差计算部712针对关注线La和参照线Lr的各个,一边在实际空间中在接地线L1的延伸方向上使位置变化相同距离,一边重复执行上述处理。亮度差计算部712例如将在上次处理中成为了参照线Lr的线设定为关注线La,针对该关注线La设定参照线Lr,依次求出亮度差。
(边沿线检测部713)
图22的边沿检测部713根据通过亮度差计算部712计算出的连续的亮度差检测边沿线。例如,在图25(b)所示的情况下,第一关注点Pa1和第一参照点Pr位于相同的轮胎部分,因此亮度差小。另一方面,第二~第六关注点Pa2~Pa6位于轮胎的橡胶部分,第二~第六参照点Pr2~Pr6位于轮胎的车轮部分。因此,第二~第六关注点Pa2~Pa6和第二~第六参照点Pr2~Pr6之间的亮度差变大。因此,边沿检测部713能够检测出在亮度差大的第二~第六关注点Pa2~Pa6和第二~第六参照点Pr2~Pr6之间存在边沿线。
具体地说,边沿检测部713在检测边沿线时,首先依照下述的公式(1),根据第i个关注点Pai(坐标(xi,yi))和第i个参照点Pri(坐标(xi’,yi’))之间的亮度差,对第i个关注点Pai附加属性。
[公式1]
在I(xi,yi)>I(xi’,yi’)+t时,
s(xi,yi)=1
在I(xi,yi)<I(xi’,yi’)-t时,
s(xi,yi)=-1
在上述以外时,
s(xi,yi)=0
在上述公式1中,t表示阈值,I(xi,yi)表示第i个关注点Pai的亮度值,I(xi’,yi’)表示第i个参照点Pri的亮度值。根据上述公式1,在关注点Pai的亮度值比在参照点Pri加上阈值t所得的亮度值高的情况下,该关注点Pai的属性s(xi,yi)为“1”。另一方面,在关注点Pai的亮度值比参照点Pri减去阈值t所得的亮度值低的情况下,该关注点Pai的属性s(xi,yi)为“-1”。在关注点Pai的亮度值和参照点Pri的亮度值是除此以外的关系的情况下,关注点Pai的属性s(xi,yi)为“0”。该阈值t既可以为预先设定的预定的值,也可以由第二BSW控制部65设定。
接着,边沿线检测部713基于下述公式2,根据沿着关注线La的属性s的连续性c(xi,yi),判定关注线La是否是边沿线。
[公式2]
在s(xi,yi)=s(xi+1,yi+1)时(并且除了0=0以外),
c(xi,yi)=1
在上述以外时,
c(xi,yi)=0
在关注点Pai的属性s(xi,yi)和相邻的关注点Pai+1的属性s(xi+1,yi+1)相同的情况下,连续性c(xi,yi)为“1”。在关注点Pai的属性s(xi,yi)和相邻的关注点Pai+1的属性s(xi+1,yi+1)不相同的情况下,连续性c(xi,yi)为“0”。
接着,边沿线检测部713针对关注线La上的全部关注点Pa的连续性c求出总和。边沿线检测部713通过将求出的连续性c的总和除以关注点Pa的个数N来对连续性c进行标准化。边沿线检测部713在标准化后的值超过阈值θ的情况下,将关注线La判断为边沿线。此外,阈值θ是预先通过实验等设定的值。通过第二BSW控制部65设定阈值θ。
即,边沿线检测部713根据下述公式3判断关注线La是否是边沿线。然后,边沿线检测部713针对在检测区域A3上描绘出的全部关注线La判断是否是边沿线。
[公式3]
Σc(xi,yi)/N>θ
(第二立体物检测部714)
图22的第二立体物检测部714根据通过边沿线检测部713检测出的边沿线的量检测立体物。如上述那样,控制部7检测实际空间中在铅垂方向上延伸的边沿线。检测出在铅垂方向上延伸的许多边沿线就是在检测区域A3、A4中存在立体物的可能性高。因此,第二立体物检测部714根据通过边沿线检测部713检测出的边沿线的量检测立体物。进而,第二立体物检测部714在检测立体物之前,判定通过边沿线检测部713检测出的边沿线是否正确。第二立体物检测部714判定边沿线上的俯视图像的沿着边沿线的亮度变化是否大于预定的阈值。在边沿线上的俯视图像的亮度变化大于阈值的情况下,判断为由于误判定而检测出该边沿线。另一方面,在边沿线上的俯视图像的亮度变化不大于阈值的情况下,判定为该边沿线是正确的。此外,该阈值是通过实验等预先设定的值。
图26是表示边沿线的亮度分布的图,图26(a)表示在检测区域A3中存在作为立体物的其他车辆VX的情况下的边沿线和亮度分布,图26(b)表示在检测区域A3中不存在立体物的情况下的边沿线和亮度分布。
如图26(a)所示,假设判断为在俯视图像中设定在其他车辆VX的轮胎橡胶部分的关注线La是边沿线。在该情况下,关注线La上的俯视图像的亮度变化平缓。这是通过将由摄像机1摄像所得的图像被视点变换为俯视图像,其他车辆VX的轮胎在俯视图像内拉长的情况。另一方面,如图26(b)所示,假设误判定为俯视图像中设定在描绘于路面上的“50”这样的白色文字部分的关注线La是边沿线。在该情况下,关注线La上的俯视图像的亮度变化的起伏大。这是因为在边沿线上白色文字中的亮度高的部分和路面等亮度低的部分混合在一起。
第二立体物检测部714根据以上那样的关注线La上的亮度分布的区别,判定边沿线是否是由于错误判定而检测出的。第二立体物检测部714在沿着边沿线的亮度变化比预定的阈值大的情况下,判定为由于误判定而检测出该边沿线。然后,在立体物的检测时不使用该边沿线。由此,抑制将路面上的“50”这样的白色文字、路边的杂草等判定为边沿线而导致立体物的检测精度降低的情况。
具体地说,第二立体物检测部714根据下述公式4、5的任意一个计算边沿线的亮度变化。该边沿线的亮度变化相当于实际空间中的铅垂方向的评价值。下述公式4根据关注线La上的第i个亮度值I(xi,yi)和相邻的第i+1个亮度值I(xi+1,yi+1)之间的差分的平方的合计值来评价亮度分布。下述公式5根据关注线La上的第i个亮度值I(xi,yi)和相邻的第i+1个亮度值I(xi+1,yi+1)之间的差分的绝对值的合计值来评价亮度分布。
[公式4]
相当铅垂方向的评价值=Σ[{I(xi,yi)-I(xi+1,yi+1)}2]
[公式5]
相当铅垂方向的评价值=Σ|I(xi,yi)-I(xi+1,yi+1)|
此外,并不限于公式5,也可以如下述公式6那样,使用阈值t2对相邻的亮度值的属性b进行二值化,针对全部关注点Pa计算该二值化后的属性b的总和。
[公式6]
相当铅垂方向的评价值=Σb(xi,yi)
其中,在|I(xi,yi)-I(xi+1,yi+1)|>t2时,
b(xi,yi)=1
在上述以外时,
b(xi,yi)=0
在关注点Pai的亮度值和相邻点Pai+1的亮度值之间的亮度差的绝对值大于阈值t2的情况下,该关注点Pa(xi,yi)的属性b(xi,yi)为“1”。在是除此以外的关系的情况下,关注点Pai的属性b(xi,yi)为“0”。为了判定关注线La不在相同的立体物上,而通过实验等预先设定了该阈值t2。然后,第二立体物检测部714计算与关注线La上的全部关注点Pa相关的属性b的总和,求出相当铅垂方向的评价值,判定边沿线是否正确。
(第二车辆检测部71)
图27和图28是与控制部7执行的第二车辆检测部71有关的流程图。此外,在图27和图28中,为了方便而说明以检测区域A3为对象的处理,但对于检测区域A4也执行同样的处理。
在步骤S600中,根据图像取得部31取得的摄影图像的图像信息,视点变换部411生成俯视图像数据。
在步骤S601中,亮度差计算部712在检测区域A3上设定关注线La。这时,亮度差计算部712将与实际空间中在铅垂方向上延伸的线相当的线设定为关注线La。
在步骤S602中,亮度差计算部712在检测区域A3上设定参照线Lr。这时,亮度差计算部712将与实际空间中在铅垂方向上延伸的线段相当,并且在实际空间中与关注线La离开预定距离的线设定为参照线Lr。
在步骤S603中,亮度差计算部712在关注线La上设定多个关注点Pa。这时,亮度差计算部712设定在边沿线检测部713的边沿检测时不成为问题的程度的个数的关注点Pa。
在步骤S604中,亮度差计算部712设定参照点Pr使得在实际空间中关注点Pa和参照点Pr为大致相同的高度。由此,关注点Pa和参照点Pr排列在大致等级方向上,容易检测出在实际空间上在铅垂方向上延伸的边沿线。
在步骤S605中,亮度差计算部712计算在实际空间上高度相同的关注点Pa和参照点Pr之间的亮度差。
在步骤S606中,边沿线检测部713依照上述公式1,计算各关注点Pa的属性s。
在步骤S607中,边沿线检测部713依照上述公式2,计算各关注点Pa的属性s的连续性c。
在步骤S608中,边沿线检测部713依照上述公式3,判定对连续性c的总和进行标准化所得的值是否大于阈值θ。在边沿线检测部713判断为标准化后的值大于阈值θ的情况下(S608:是),前进到步骤S609的处理。在步骤S609中,边沿线检测部713将该关注线La检测为边沿线,使处理前进到步骤S610。在边沿线检测部713判断为标准化后的值不大于阈值θ的情况下(S608:否),不将该关注线La检测为边沿线而使处理前进到步骤S610。可以通过第二BSW控制部65设定该阈值θ。
在步骤S610中,第二车辆检测部71判断是否针对能够在检测区域A3上设定的全部关注线La执行了上述步骤S601~步骤S609的处理。第二车辆检测部71在判断为没有对全部的关注线La进行了上述处理的情况下(S610:否),使处理前进到步骤S601,新设定关注线La而重复进行到步骤S610为止的处理。另一方面,第二车辆检测部71在判断为对全部的关注线La进行了上述处理的情况下(S610:是),使处理前进到图28的步骤S611。
在图28的步骤S611中,第二立体物检测部714针对在图27的步骤S609中检测出的各边沿线,依照上述公式4、5、6的任意一个公式,计算沿着该边沿线的亮度变化。
在步骤S612中,第二立体物检测部714排除在步骤S611中计算出的边沿线中的亮度变化大于预定的阈值的边沿线。即,将亮度变化大的边沿线判定为不是正确的边沿线,在立体物的检测时不使用边沿线。这是为了如上述那样抑制将包含在检测区域A3中的路面上的文字、路边的杂草等检测为边沿线的情况。因此,预定的阈值为预先通过实验等求出的根据由于路面上的文字、路边的杂草等产生的亮度变化而设定的值。
在步骤S613中,第二立体物检测部714判断边沿线的量是否为第二阈值β以上。此外,该第二阈值β既可以预先通过实验等求出而设定,也可以由第二BSW控制部65设定。例如,第二BSW控制部65在将四轮车设定为检测对象的立体物的情况下,预先通过实验等根据在检测区域A3内出现的四轮车的边沿线的个数,设定该第二阈值β。第二立体物检测部714在判定为边沿线的量为第二阈值β以上的情况下(S613:是),使处理前进到步骤S614。另一方面,第二立体物检测部714在判定为边沿线的量不为第二阈值β以上的情况下(S613:否),判断为在检测区域A3内不存在立体物,结束图28的处理。在步骤S614中,第二立体物检测部714检测出在检测区域A3内存在立体物,结束图28的处理。对于检测出的立体物,既可以判断为是在本车辆V行驶的车道的相邻的相邻车道上行驶的其他车辆VX,也可以考虑到本车辆V相对于检测出的立体物的相对速度来判断是否是在相邻车道上行驶的其他车辆VX。
(第二太阳判定部64)
向图22的第二太阳判定部64输入由图像取得部31取得的摄影图像的图像信息。第二太阳判定部64从摄影图像中检测因路面反射的太阳光造成的高亮度区域,根据该检测范围推定太阳的位置,判定太阳光是否入射到摄影区域内。
图29是与第二太阳判定部64有关的流程图。在步骤S700中,控制部7从自图像取得部31输入的摄影图像中提取高亮度(例如亮度为256灰度等级中的190以上)的像素。在步骤S701中,控制部7提取在步骤S700中提取出的像素连结起来的像素块(图像区域)中的预定像素数以上的图像区域。
在步骤S702中,控制部7计算在步骤S701中提取出的图像区域的重心。在步骤S703中,控制部7判定在步骤S702中计算出的重心中的至少一个是否存在于反射日光区域的范围内。控制部7在步骤S703进行了肯定判定时使处理前进到步骤S704,在步骤S703进行了否定判定时使处理前进到步骤S705。
在步骤S704中,控制部7根据在步骤S702中计算出的重心在反射日光区域的范围内的高亮度区域的重心的位置,计算太阳的位置。
使用图30说明太阳的位置的计算方法。在图30中,图示出包含高亮度区域81的摄影图像80。在摄影图像80中,用虚线图示出规定反射日光区域的上限线82和下限线83。对于图30的高亮度区域81,其重心84存在于反射日光区域的内侧。控制部7根据将该重心84和摄影图像80的下边中央85连接起来的线段86的方向计算太阳的方位。另外,根据摄影图像80的上下方向的重心84的位置,计算太阳的高度。
在重心84位于反射日光区域时,以太阳的位置87为中心的太阳范围88至少其一部分与摄影图像80重叠。即,来自位置87的太阳的太阳光入射到摄像机1的摄影区域。此外,重心84在摄影图像80的上下方向上的位置越是位于摄影图像80的上侧,计算出的太阳的高度越低。
在图29的步骤S705中,控制部7判断为太阳光入射到摄像机1的摄影区域。在步骤S706中,控制部7判断为太阳光不入射到摄像机1的摄影区域。即,判断为太阳范围与摄影图像不重叠。
(第二BSW控制部65)
图22的第二BSW控制部65根据从图像取得部31输入的摄像图像、白浊检测部33的检测结果、第二太阳判定部64的判定结果通过设定阈值θ,由此控制第二BSW部62。
图31是第二BSW控制部65的流程图。在步骤S800中,控制部7取得第二太阳判定部64的判定结果。即,取得与图29的步骤S705或步骤S706的判断有关的信息。在步骤S801中,控制部7取得白浊检测部33的检测结果。即,从白浊检测部33取得与图14的步骤S306或步骤S307的判断有关的信息。
在步骤S802中,控制部7判定在步骤S800和步骤S801中取得的信息是否连续预定时间以上地相同。控制部7在步骤S802进行了肯定判定的情况下使图31的处理前进到步骤S803,在步骤S802进行了否定判定的情况下使图31的处理前进到步骤S800。
在步骤S803中,控制部7根据图32的表,设定第二BSW部62的阈值θ,然后使图31的处理前进到步骤S800。
图32是与第二BSW控制部65设定的阈值θ有关的设定值表的一个例子。可以将图32的设定值表作为查找表存储在存储部6中。在该情况下,第二BSW控制部65根据白浊检测部33的检测结果、第二太阳判定部64的判定结果,参照存储在存储部6中的查找表设定阈值θ。
第二太阳判定部64根据路面反射的高亮度区域推定太阳的位置,因此前提是有路面反射。因此,在图32中省略了路面反射的参数。另外,在图32中,对阈值θ进行了等级标记。对于不是等级标记的实际的阈值θ的设定值,等级越大则设定越大的值,等级10为最大。在车载用车辆识别装置200的设计阶段,预先决定与各等级相当的阈值θ的设定值。此外,图32只不过是一个例子,最大的等级也可以不是等级10。
第二BSW控制部65在图32的No.12的状况下,将阈值θ设定为等级10(最大等级)。在太阳光入射到摄像机1的摄影区域的情况下,摄像机1的摄影图像整体的对比度降低。另外,在摄像机1的摄影镜头发生白浊时,摄像机1的摄影图像整体的对比度进一步降低。由此,第二BSW部62中的其他车辆等的检测精度有可能恶化。第二BSW控制部65通过抑制这样的状况下的第二BSW部62的报告,来抑制其他车辆的误检测,不使图像识别处理的精度降低。
另外,第二BSW控制部65在No.10的状况下,将阈值θ设定得比No.9的状况低。同样,在No.11的状况下,也将阈值θ设定得比No.9的状况低。这样在摄像机1的摄影图像整体的对比度降低的主要原因只是直射日光和摄影镜头的白浊的任意一方的情况下,第二BSW控制部65通过将阈值θ设定得低,来提高其他车辆的检测灵敏度,与因对比度的降低造成的差分波形的峰值的降低对应,设定为高精度地进行其他车辆的检测。
(白浊检测部33的补充)
将第二立体物检测部714设定的检测区域A3和A4设定在与第一实施方式的立体物检测部413设定的检测区域A1和A2实质上相同的位置。因此,白浊检测部33检测出至少与检测区域A1或A2对应的镜头表面发生白浊的情况和检测出至少与检测区域A3或A4对应的镜头表面发生白浊的情况实质上相同。即,白浊检测部33能够检测出至少与检测区域A3或A4对应的镜头表面发生白浊的情况。
(报告控制部42的补充)
报告控制部42在第二实施方式中也进行图20所示的流程图的处理。第二实施方式的报告控制部42在进行图20的步骤S1000的处理的情况下,判定阈值θ是否被设定为等级10(最大值),由此判定是否通过第二BSW控制部65抑制了BSW。
根据以上说明的第二实施方式,起到以下的作用效果。
车载用车辆识别装置200的控制部7具备图像取得部31、第二太阳判定部64、白浊检测部33、第二车辆检测部71、第二BSW控制部65。
图像取得部31取得摄像机1摄影车辆外而输出的摄影图像。
第二太阳判定部64根据高亮度区域81的重心的位置,至少计算太阳的高度(图29的步骤S704),判定高亮度区域81的重心84的位置是否存在于反射日光区域中。通过上限线82和下限线83预定反射日光区域,在重心84位于下限线83以上时,表示太阳的高度为预定高度以下。
白浊检测部33检测摄像机1的摄影镜头的镜头表面中的至少与检测区域A3和A4对应的镜头表面发生白浊的情况(白浊检测部33的补充)。
第二车辆检测部71从与检测区域A3和A4对应的摄影图像的图像区域中检测其他车辆(图28的步骤S614)。
第二BSW控制部65在通过白浊检测部33检测出至少与检测区域A3和A4对应的镜头表面发生白浊的情况下,在第二太阳判定部64判定为太阳的高度为预定高度以下的情况下,至少将阈值θ调整为最大等级,由此抑制第二车辆检测部71对其他车辆的检测(图31的步骤S803、图32的No.12)。
由此,在车载用车辆识别装置200中,在太阳光入射到摄影图像的情况下,图像识别处理的精度也不降低。
可以如以下这样变形地执行以上说明的实施方式。
(变形例子1)实施方式的组合
也可以在控制部2和7中具备BSW部32和第二BSW部62的双方。在该情况下,例如在立体物检测部413和第二立体物检测部714的双方检测出其他车辆VX的情况下设为检测出其他车辆VX即可。另外,这时,在该控制部中,既可以具备BSW控制部35和第二BSW控制部65的双方,也可以使用BSW控制部35和第二BSW控制部65的任意一方设定第一阈值α和阈值θ的双方。在BSW控制部35设定阈值θ的情况下,将图17的第一阈值α的设定等级读为阈值θ的设定等级即可。同样,在第二BSW控制部65设定第一阈值α的情况下,将图32的阈值θ的设定等级读为第一阈值α的设定等级即可。
控制部2也可以具备第二BSW部62来代替BSW部32。在该情况下,控制部2具备第二太阳判定部64来代替太阳判定部34,BSW控制部35设定阈值θ来代替第一阈值α。在BSW控制部35设定阈值θ的情况下,将图17的第一阈值α的设定等级读为阈值θ的设定等级即可。
控制部7也可以具备BSW部32来代替第二BSW部62。在该情况下,控制部7也可以具备太阳判定部34来代替第二太阳判定部64,第二BSW控制部65设定第一阈值α来代替阈值θ。在第二BSW控制部65设定第一阈值α的情况下,将图32的阈值θ的设定等级读为第一阈值α的设定等级即可。
BSW控制部35和第二BSW控制部65也可以设定第一阈值α、阈值θ以外的阈值。例如,可以设定图28的步骤S613的第二阈值β。另外,也可以设定白浊检测部33的阈值ε1、ε2、ε3。在BSW控制部35设定第一阈值α以外的阈值的情况下,将图17的第一阈值α的设定等级读为该阈值的设定等级即可。同样,在第二BSW控制部65设定阈值θ以外的阈值的情况下,将图32的阈值θ的设定等级读为该阈值的设定等级即可。
控制部2和7也可以具备太阳判定部34和第二太阳判定部64的双方。
除此以外,只要不损害发明的特征,也可以任意地组合第一实施方式的结构和第二实施方式的结构来执行。
(变形例子2)基于白浊程度的阈值变化
在上述实施方式中,白浊检测部33根据是否检测出白浊来改变阈值,但也可以对摄像机1的摄影镜头的白浊程度进行数值化,根据表示该白浊程度的数值改变阈值。例如,可以根据直方图H1的平均值E1、直方图H2的平均值E2、直方图H3的平均值E3计算白浊程度。
图33是表示太阳判定部34判断为太阳光入射到摄像机1的摄影区域的情况下的白浊程度和阈值之间的关系的概要图。图33的纵轴表示第一阈值α等阈值的等级,横轴表示白浊程度。在白浊程度是C2时,摄像机1的摄影镜头未发生白浊。在白浊程度为C1以上时,成为图17的No.8的状况,通过BSW控制部35等将阈值设定为最大等级。在白浊程度为C3以上、C1以下时,将阈值设定得比白浊程度为C2时和白浊程度为C1时都低。由此,在白浊判定部33判定为至少与检测区域A1或A2对应的镜头表面发生白浊之前,能够试着保持其他车辆VX的检测精度。
(变形例子3)与太阳范围有关的白浊检测
BSW控制部35也可以在太阳范围发生白浊时,将阈值设定为更高等级。同样,第二BSW控制部65也可以在太阳范围发生白浊时,将阈值设定为更高等级。根据太阳范围内的亮度梯度判定太阳范围是发生白浊即可。透过摄像机1的摄影镜头的镜头表面中发生白浊的部分的光通过成为白浊的原因的附着物而扩散,因此与白浊部位对应的每个像素的亮度的差减小,亮度梯度减小。BSW控制部35和第二BSW控制部65在亮度梯度为预定值以下时判定为太阳范围发生白浊即可。
以上说明的实施方式、变形例子只不过是示例,只要不损害发明的特征,则本发明并不限于这些内容。另外,只要不损害发明的特征,则也可以组合以上说明的实施方式、变形例子来执行。
将以下的优先权基础申请的公开内容作为引用文献组入于此。
日本专利申请2012年第167602号(2012年7月27日申请)
附图标记说明
1:摄像机;2:控制部;3:警报输出部;4:动作状态报告部;5:外部装置控制部;6:存储部;7:控制部;31:图像取得部;32:BSW部;33:白浊检测部;34:太阳判定部;35:BSW控制部;41:车辆检测部;42:报告控制部;51:白浊检测区域;52:白浊检测区域;53:白浊检测区域;62:第二BSW部;64:第二太阳判定部;65:第二BSW控制部;71:第二车辆检测部;81:高亮度区域;82:上限线;83:下限线;84:重心;88:太阳范围;100:车载用车辆识别装置;200:车载用车辆识别装置;411:视点变换部;412:对位部;413:立体物检测部;712:亮度差计算部;713:边沿线检测部;714:第二立体物检测部。

Claims (11)

1.一种图像处理装置,其特征在于,具备:
图像取得部,其取得摄像机摄影车辆外而输出的摄影图像;
太阳判定部,其计算至少包含太阳的高度的太阳的位置,判定上述太阳的高度为预定高度以下;
白浊检测部,其检测上述摄像机的镜头表面发生了白浊;
车辆检测部,其根据上述摄影图像的第一图像区域的图像信息,检测与上述车辆不同的其他车辆;
控制部,其在通过上述白浊检测部检测出至少上述第一图像区域发生了白浊的情况下,在上述太阳判定部判定为上述太阳的高度为上述预定高度以下时,抑制上述车辆检测部对上述其他车辆的检测。
2.根据权利要求1所述的图像处理装置,其特征在于,
上述车辆检测部具有与用于检测上述其他车辆的检测灵敏度有关的预定的阈值,
上述控制部在上述镜头表面中的与以上述太阳的位置为中心的图像范围对应的范围发生了白浊时,与上述镜头表面的该范围没有发生白浊时相比,通过变更上述阈值来抑制用于检测上述其他车辆的检测灵敏度。
3.根据权利要求1所述的图像处理装置,其特征在于,
上述太阳判定部根据日期时间、上述车辆所位于的纬度和经度、上述车辆的方向来计算上述太阳的位置。
4.根据权利要求1所述的图像处理装置,其特征在于,
上述太阳判定部通过对上述摄影图像进行图像处理来计算上述太阳的位置。
5.根据权利要求4所述的图像处理装置,其特征在于,
上述摄像机至少摄影上述车辆外的路面,
上述太阳判定部从上述摄影图像中提取因路面反射造成的高亮度区域,根据上述高亮度区域的重心的位置来计算上述太阳的位置。
6.根据权利要求2所述的图像处理装置,其特征在于,
上述控制部根据以上述太阳的位置为中心的图像范围的亮度梯度,检测上述镜头表面中与该图像范围对应的范围发生了白浊。
7.根据权利要求1所述的图像处理装置,其特征在于,
在上述摄影图像中设定白浊检测区域,
上述白浊检测部针对上述白浊检测区域计算边缘强度的直方图,根据使用上述直方图计算的上述边缘强度的平均值,检测上述摄像机镜头发生了白浊的区域。
8.根据权利要求7所述的图像处理装置,其特征在于,
上述摄像机至少摄影上述车辆外的路面,
在设置在上述路面上的白线的消失点的近旁设定多个上述白浊检测区域,
上述白浊检测部针对各个上述白浊检测区域计算边缘强度的直方图,根据使用各个上述直方图计算的上述边缘强度的平均值,检测上述摄像机镜头发生了白浊的区域。
9.根据权利要求7所述的图像处理装置,其特征在于,
上述摄像机至少摄影上述车辆外的路面,
在上述白浊检测区域中包含在设置于上述路面上的白线的消失点的近旁即上述摄影图像的中央的上侧的位置设定的第一白浊检测区域、以比上述第一白浊检测区域向下方扩展的方式设定在上述消失点的近旁的第二白浊检测区域,
上述白浊检测部在白天使用上述第一白浊检测区域检测上述摄像机镜头发生白浊的区域,在夜间使用上述第二白浊检测区域检测上述摄像机镜头发生白浊的区域。
10.根据权利要求1~9的任意一项所述的图像处理装置,其特征在于,
还具备:报告控制部,其使预定的报告部报告上述控制部抑制了上述车辆检测部对上述其他车辆的检测。
11.根据权利要求2所述的图像处理装置,其特征在于,
上述白浊检测部在上述摄像机的镜头表面的白浊程度超过第一白浊程度时,检测上述摄像机的镜头表面发生了白浊,
上述车辆检测部在上述摄像机的镜头表面没有发生白浊的第二白浊程度时将上述阈值设定为第一阈值,在上述摄像机的镜头表面的白浊程度超过了上述第一白浊程度时将上述阈值设定为比上述第一阈值大的第二阈值,在上述第二白浊程度和上述第一白浊程度之间设置将上述阈值设定为比上述第一阈值和上述第二阈值的任意一个都小的第三阈值的第三白浊程度。
CN201380039597.4A 2012-07-27 2013-07-22 图像处理装置 Active CN104508723B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012-167602 2012-07-27
JP2012167602 2012-07-27
PCT/JP2013/069785 WO2014017434A1 (ja) 2012-07-27 2013-07-22 画像処理装置

Publications (2)

Publication Number Publication Date
CN104508723A CN104508723A (zh) 2015-04-08
CN104508723B true CN104508723B (zh) 2016-10-12

Family

ID=49997245

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380039597.4A Active CN104508723B (zh) 2012-07-27 2013-07-22 图像处理装置

Country Status (5)

Country Link
US (1) US9721169B2 (zh)
EP (1) EP2879111A4 (zh)
JP (1) JP6254084B2 (zh)
CN (1) CN104508723B (zh)
WO (1) WO2014017434A1 (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5747482B2 (ja) * 2010-03-26 2015-07-15 日産自動車株式会社 車両用環境認識装置
JP6174975B2 (ja) * 2013-11-14 2017-08-02 クラリオン株式会社 周囲環境認識装置
KR20150106719A (ko) * 2014-03-12 2015-09-22 삼성전자주식회사 전자 장치의 촬영 위치 안내 방법 및 이를 이용한 전자 장치
DE102014109062A1 (de) * 2014-06-27 2015-12-31 Connaught Electronics Ltd. Verfahren zum Verfolgen eines sich einem Kraftfahrzeug nähernden Zielfahrzeugs mittels eines Kamerasystems des Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
US9718405B1 (en) 2015-03-23 2017-08-01 Rosco, Inc. Collision avoidance and/or pedestrian detection system
US9904146B2 (en) * 2015-10-29 2018-02-27 GM Global Technology Operations LLC Camera with positionable light shade
JP6658054B2 (ja) * 2016-02-16 2020-03-04 トヨタ車体株式会社 車体部品の施工部位判定システム及び施工部位判定方法
US10462380B2 (en) * 2016-06-13 2019-10-29 Aptiv Technologies Limited Camera system with light-shield
JP6938903B2 (ja) * 2016-12-14 2021-09-22 株式会社デンソー 車両における衝突回避装置および衝突回避方法
CN110023712A (zh) * 2017-02-28 2019-07-16 松下知识产权经营株式会社 位移计测装置以及位移计测方法
JP6922297B2 (ja) * 2017-03-21 2021-08-18 三菱自動車工業株式会社 運転支援システム
JP6686988B2 (ja) * 2017-08-28 2020-04-22 株式会社Soken 映像出力装置及び映像生成プログラム
US11257375B2 (en) * 2018-12-31 2022-02-22 Ficosa Adas, S.L.U. Method and system for detecting objects in a vehicle blind spot
JP7371419B2 (ja) * 2019-09-30 2023-10-31 株式会社アイシン 運転支援システムおよび運転支援プログラム
JP2021106305A (ja) * 2019-12-26 2021-07-26 日本電気株式会社 データ圧縮装置、モデル生成装置、データ圧縮方法、モデル生成方法及びコンピュータプログラム
JP2022142510A (ja) * 2021-03-16 2022-09-30 パナソニックIpマネジメント株式会社 車両用周辺警戒装置および車両用周辺警戒方法
JP2022155838A (ja) * 2021-03-31 2022-10-14 本田技研工業株式会社 車両制御装置、経路生成装置、車両制御方法、経路生成方法、およびプログラム
EP4099100A1 (fr) 2021-06-02 2022-12-07 The Swatch Group Research and Development Ltd Mouvement horloger muni d'un oscillateur comprenant un spiral piezoelectrique
CN113726983B (zh) * 2021-07-12 2022-07-12 北京邮电大学 一种基于时间,定位,镜头角度,入射光强和色温的太阳光眩光抑制的方法和装置
EP4130890B1 (fr) 2021-08-04 2024-03-27 The Swatch Group Research and Development Ltd Mouvement horloger muni d'un oscillateur comprenant un spiral piézoélectrique

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255430A (ja) * 2002-02-28 2003-09-10 Toshiba Corp 映像診断装置、車載型映像監視装置の映像診断システム
JP2005073296A (ja) * 2004-10-27 2005-03-17 Mitsubishi Electric Corp 車両用カメラの露光制御装置
CN101844545A (zh) * 2009-03-25 2010-09-29 株式会社电装 车辆周边显示装置和用于车辆周边图像的方法
CN102036016A (zh) * 2010-12-03 2011-04-27 杭州海康威视系统技术有限公司 视频检测方法及其系统
CN102288165A (zh) * 2010-06-21 2011-12-21 日产自动车株式会社 移动距离检测装置和移动距离检测方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004075105A2 (en) * 2003-02-20 2004-09-02 Intelligent Mechatronic Systems Inc. Adaptive visual occupant detection and classification system
JP2008219063A (ja) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2010086266A (ja) 2008-09-30 2010-04-15 Mazda Motor Corp 車両用画像処理装置
US8564502B2 (en) * 2009-04-02 2013-10-22 GM Global Technology Operations LLC Distortion and perspective correction of vector projection display
US8704653B2 (en) * 2009-04-02 2014-04-22 GM Global Technology Operations LLC Enhanced road vision on full windshield head-up display
US8212874B2 (en) * 2009-10-23 2012-07-03 GM Global Technology Operations LLC Automatic camera calibration using GPS and solar tracking
JP2012118929A (ja) * 2010-12-03 2012-06-21 Fujitsu Ten Ltd 外部環境判定装置及び外部環境判定プログラム
JP5310760B2 (ja) * 2011-03-04 2013-10-09 トヨタ自動車株式会社 接近車両検出装置
JP5892876B2 (ja) * 2011-07-28 2016-03-23 クラリオン株式会社 車載用環境認識装置
EP2741271B8 (en) 2011-08-02 2019-09-11 Nissan Motor Co., Ltd Object detector and object detection method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255430A (ja) * 2002-02-28 2003-09-10 Toshiba Corp 映像診断装置、車載型映像監視装置の映像診断システム
JP2005073296A (ja) * 2004-10-27 2005-03-17 Mitsubishi Electric Corp 車両用カメラの露光制御装置
CN101844545A (zh) * 2009-03-25 2010-09-29 株式会社电装 车辆周边显示装置和用于车辆周边图像的方法
CN102288165A (zh) * 2010-06-21 2011-12-21 日产自动车株式会社 移动距离检测装置和移动距离检测方法
CN102036016A (zh) * 2010-12-03 2011-04-27 杭州海康威视系统技术有限公司 视频检测方法及其系统

Also Published As

Publication number Publication date
JP6254084B2 (ja) 2017-12-27
JPWO2014017434A1 (ja) 2016-07-11
EP2879111A1 (en) 2015-06-03
US9721169B2 (en) 2017-08-01
US20150220793A1 (en) 2015-08-06
WO2014017434A1 (ja) 2014-01-30
EP2879111A4 (en) 2016-10-19
CN104508723A (zh) 2015-04-08

Similar Documents

Publication Publication Date Title
CN104508723B (zh) 图像处理装置
US20220250610A1 (en) Vehicular automated parking system
CN104509090B (zh) 车载用图像识别装置
EP2549457B1 (en) Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system
CN104509101B (zh) 三维物体检测装置和三维物体检测方法
CN104106105B (zh) 立体物检测装置
CN104246821B (zh) 三维物体检测装置和三维物体检测方法
CN104012081B (zh) 三维物体检测装置
CN104115188B (zh) 立体物检测装置
CN104509100B (zh) 三维物体检测装置以及三维物体检测方法
CN104509102A (zh) 三维物体检测装置和异物检测装置
US10922817B2 (en) Perception device for obstacle detection and tracking and a perception method for obstacle detection and tracking
CN104685866A (zh) 三维物体检测装置以及三维物体检测方法
JP4670805B2 (ja) 運転支援装置、及びプログラム
CN107449440A (zh) 行车提示信息的显示方法及显示装置
CN104509099B (zh) 三维物体检测装置以及三维物体检测方法
CN102685516A (zh) 立体视觉主动安全辅助驾驶方法
CN105574552A (zh) 一种基于单目视觉的车辆测距与碰撞预警方法
CN104115186A (zh) 立体物检测装置
CN104508727A (zh) 三维物体检测装置和三维物体检测方法
CN104115203B (zh) 立体物检测装置
CN104115204B (zh) 立体物检测装置
CN103718214A (zh) 移动体检测装置和移动体检测方法
JP7042185B2 (ja) 距離算出装置
US20110280495A1 (en) Multi-Function Summing Machine

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: Saitama Prefecture, Japan

Patentee after: Faurecia Gele Electronics Co.,Ltd.

Patentee after: NISSAN MOTOR Co.,Ltd.

Address before: Saitama Prefecture, Japan

Patentee before: CLARION Co.,Ltd.

Patentee before: NISSAN MOTOR Co.,Ltd.

CP01 Change in the name or title of a patent holder
TR01 Transfer of patent right

Effective date of registration: 20230626

Address after: Kanagawa

Patentee after: NISSAN MOTOR Co.,Ltd.

Address before: Saitama Prefecture, Japan

Patentee before: Faurecia Gele Electronics Co.,Ltd.

Patentee before: NISSAN MOTOR Co.,Ltd.

TR01 Transfer of patent right