CN104508728B - 三维物体检测装置 - Google Patents

三维物体检测装置 Download PDF

Info

Publication number
CN104508728B
CN104508728B CN201380040037.0A CN201380040037A CN104508728B CN 104508728 B CN104508728 B CN 104508728B CN 201380040037 A CN201380040037 A CN 201380040037A CN 104508728 B CN104508728 B CN 104508728B
Authority
CN
China
Prior art keywords
dimensional body
mentioned
surveyed area
vehicle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201380040037.0A
Other languages
English (en)
Other versions
CN104508728A (zh
Inventor
早川泰久
深田修
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Publication of CN104508728A publication Critical patent/CN104508728A/zh
Application granted granted Critical
Publication of CN104508728B publication Critical patent/CN104508728B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

具备:一个摄像机(10),其搭载于车辆,拍摄车辆后方;三维物体检测部(33、37),其基于摄像机(10)的图像信息检测存在于车辆后方的右侧检测区域(A1)或左侧检测区域(A2)的三维物体;三维物体判断部(34),其判断由三维物体检测部(33、37)检测出的三维物体是否为存在于右侧检测区域(A1)或左侧检测区域(A2)的其它车辆(VX);高亮度区域判断部(38),其检测左右的检测区域(A1、A2)中的包含规定的高亮度区域的第一检测区域(A1、A2);以及控制部(39),其抑制基于所检测出的第一检测区域(A1、A2)的图像信息检测出其它车辆,维持或促进基于除第一检测区域(A1、A2)以外的第二检测区域(A1、A2)的图像信息检测出其它车辆。

Description

三维物体检测装置
技术领域
本发明涉及一种三维物体检测装置。
本申请要求2012年7月27日申请的日本专利申请的特愿2012-166516的优先权,针对文献参照中引用的指定国,上述申请记载的内容作为参照引用入本申请中,并作为本申请的记载的一部分。
背景技术
已知如下一种障碍物检测装置(参照专利文献1):对拍摄车辆周围得到的图像进行俯视变换,使用时间上不同的两个俯视变换图像的差分来检测障碍物。
专利文献1:日本特开2008-227646号公报
发明内容
发明要解决的问题
在使用拍摄车辆后方得到的图像将行驶于与本车辆的行驶车道相邻的邻近车道的其它车辆检测为障碍物时,当关于被太阳等的强光照射的亮环境的区域以及本车辆或其它车辆等物体的影子处的暗环境的区域以相同的条件执行三维物体的检测处理时,存在虽然能够在亮环境和暗环境的一方中提高三维物体的检测精度但是在另一方的环境中三维物体的检测精度下降这样的问题。
即,在照射至检测区域的太阳光在路面上发生反射的亮环境中,存在太阳光等强光在路面上反射而形成的反射像(虚像)的亮度超过用于检测三维物体的亮度的阈值而被错误检测为三维物体的情况。另一方面,在照射的太阳光等光被其它车辆等遮挡而成的暗环境中,存在如下情况:摄像图像的亮度变低,实际存在的其它车辆的像(实像)的亮度不超过用于检测三维物体的亮度的阈值而错误检测为不是三维物体。
本发明要解决的课题在于提供一种在形成亮环境的检测区域和暗环境的检测区域的状况中防止将在亮环境的检测区域形成的太阳光等强光所产生的反射像(虚像)错误检测为行驶于与本车辆的行驶车道相邻的邻近车道的其它车辆的像(实像)并高精度地检测行驶于邻近车道的其它车辆的三维物体检测装置。
用于解决问题的方案
本发明通过以下技术解决上述课题:来抑制根据右侧检测区域或左侧检测区域中的包含高亮度区域的第一检测区域的图像信息将三维物体判断为是其它车辆,维持或促进根据除第一检测区域以外的第二检测区域的图像信息将三维物体判断为是其它车辆。
发明的效果
根据本发明,在右侧检测区域与左侧检测区域中明亮度不同的环境的情况下,关于亮环境的第一检测区域,能够防止将太阳光的反射像(虚像)错误检测为行驶于与本车辆的行驶车道相邻的邻近车道的其它车辆的像(实像),并且关于相对而言是暗环境的第二检测区域,能够防止将实际存在于邻近车道的其它车辆的像(实像)错误检测为不是其它车辆。其结果,能够提供一种高精度地检测行驶于与本车辆的行驶车道相邻的邻近车道的其它车辆的三维物体检测装置。
附图说明
图1是应用了本发明的三维物体检测装置的一个实施方式所涉及的车辆的概要结构图。
图2是表示图1的车辆的行驶状态的俯视图。
图3是表示图1的计算机的详细内容的框图。
图4是用于说明图3的对位部的处理概要的图,(a)是表示车辆的移动状态的俯视图,(b)是表示对位的概要的图像。
图5是表示图3的三维物体检测部生成差分波形的情形的概要图。
图6是表示通过图3的三维物体检测部分割出的小区域的图。
图7是表示由图3的三维物体检测部得到的直方图的一例的图。
图8是表示图3的三维物体检测部的加权的图。
图9是表示图3的拖影检测部的处理以及基于该处理计算差分波形的处理的图。
图10是表示由图3的三维物体检测部得到的直方图的另一例的图。
图11是表示由图3的视点变换部、对位部、拖影检测部以及三维物体检测部执行的利用差分波形信息的三维物体检测方法的流程图(之一)。
图12是表示由图3的视点变换部、对位部、拖影检测部以及三维物体检测部执行的利用差分波形信息的三维物体检测方法的流程图(之二)。
图13是表示图1的车辆的行驶状态的图(基于边缘信息的三维物体检测),(a)是表示检测区域等的位置关系的俯视图,(b)是表示实际空间中的检测区域等的位置关系的立体图。
图14是用于说明图3的亮度差计算部的动作的图,(a)是表示鸟瞰视点图像中的关注线、参照线、关注点以及参照点的位置关系的图,(b)是表示实际空间中的关注线、参照线、关注点以及参照点的位置关系的图。
图15是用于说明图3的亮度差计算部的详细动作的图,(a)是表示鸟瞰视点图像中的检测区域的图,(b)是表示鸟瞰视点图像中的关注线、参照线、关注点以及参照点的位置关系的图。
图16是表示边缘线和边缘线上的亮度分布的图,(a)是表示在检测区域存在三维物体(车辆)时的亮度分布的图,(b)是表示在检测区域不存在三维物体时的亮度分布的图。
图17是表示由图3的视点变换部、亮度差计算部、边缘线检测部以及三维物体检测部执行的利用边缘信息的三维物体检测方法的流程图(之一)。
图18是表示由图3的视点变换部、亮度差计算部、边缘线检测部以及三维物体检测部执行的利用边缘信息的三维物体检测方法的流程图(之二)。
图19是表示用于说明边缘检测动作的图像例的图。
图20A是用于说明在太阳光照射检测区域的情况下形成的高亮度区域的图。
图20B是用于说明在太阳光照射检测区域并在检测区域存在其它车辆的情况下形成的高亮度区域和低亮度区域的图。
图21是表示本实施方式的三维物体检测装置的控制过程的流程图。
图22是表示高亮度区域与阈值之间的关系的一例的图。
具体实施方式
图1是应用了本发明的三维物体检测装置1的一个实施方式所涉及的车辆的概要结构图,本例的三维物体检测装置1是将本车辆V的驾驶员在驾驶过程中应予以注意的其它车辆、例如本车辆V在车道变更时有可能接触的其它车辆检测为障碍物的装置。特别地,本例的三维物体检测装置1检测行驶于与本车辆所行驶的车道相邻的邻近车道(以下还简称为邻近车道)的其它车辆。另外,本例的三维物体检测装置1能够计算所检测出的其它车辆的移动距离、移动速度。因此,以下说明的一例表示将三维物体检测装置1搭载于本车辆V并检测在本车辆周围检测的三维物体中的行驶于与本车辆V所行驶的车道相邻的邻近车道的其它车辆的例子。如该图所示,本例的三维物体检测装置1具备摄像机10、车速传感器20、计算机30以及位置检测装置50。
摄像机10如图1所示那样在本车辆V后方的高度h的地方以光轴相对于水平向下形成角度θ的方式安装于本车辆V。摄像机10从该位置拍摄本车辆V的周围环境中的规定区域。在本实施方式中,为了检测本车辆V后方的三维物体而设置的摄像机1是一个,但是也能够为了其它的用途而设置例如用于获取车辆周围的图像的其它的摄像机。车速传感器20用于检测本车辆V的行驶速度,并根据例如由检测车轮转速的车轮速度传感器检测出的车轮速度来计算车速。计算机30检测车辆后方的三维物体,并且在本例中关于该三维物体计算移动距离和移动速度。位置检测装置50检测本车辆V的行驶位置。
图2是表示图1的本车辆V的行驶状态的俯视图。如该图所示,摄像机10以规定的视角a拍摄车辆后方侧。此时,摄像机10的视角a被设定为除了能够拍摄到本车辆V所行驶的车道以外还能够拍摄到该车道左右的车道的视角。能够拍摄的区域包含在本车辆V的后方与本车辆V的行驶车道左右相邻的邻近车道上的检测对象区域A1、A2。此外,本实施方式中的车辆后方不只包含车辆的正后方,还包含车辆的正后方侧的侧方。所拍摄的车辆后方的区域与摄像机10的视角相应地设定。虽然是一例,但是在设为将沿着车长方向的车辆的正后方设为零度的情况下,设定成所拍摄的车辆后方的区域包含从正后方向左右0度~90度、优选为0度~70度等的区域。
图3是表示图1的计算机30的详细内容的框图。此外,在图3中,为了明确连接关系,还图示了摄像机10、车速传感器20以及位置检测装置50。
如图3所示,计算机30具备视点变换部31、对位部32、三维物体检测部33、三维物体判断部34、高亮度区域判断部38、控制部39以及拖影检测部40。本实施方式的计算部30是与利用差分波形信息检测三维物体的检测模块有关的结构。本实施方式的计算部30也能够设为与利用边缘信息检测三维物体的检测模块有关的结构。该情况能够将图3所示的结构中的由对位部32以及三维物体检测部33构成的模块结构A替换为用虚线包围的由亮度差计算部35、边缘线检测部36以及三维物体检测部37构成的模块结构B来构成。当然也能够具备模块结构A和模块结构B两方,能够利用差分波形信息进行三维物体的检测,并且也利用边缘信息进行三维物体的检测。在具备模块结构A和模块结构B的情况下,例如能够与明亮度等环境因素相应地使模块结构A和模块结构B中的某一个进行动作。以下,关于各结构进行说明。
<利用差分波形信息检测三维物体>
本实施方式的三维物体检测装置1根据由拍摄车辆后方的单眼的摄像机1获得的图像信息来检测存在于车辆后方的右侧检测区域或左侧检测区域的三维物体。
视点变换部31输入由摄像机10拍摄得到的规定区域的摄像图像数据,将所输入的摄像图像数据视点变换为鸟瞰视点状态的鸟瞰视点图像数据。鸟瞰视点状态是指从上空、例如从铅垂向下俯视的虚拟摄像机的视点观看的状态。能够例如日本特开2008-219063号公报所记载的那样执行该视点变换。将摄像图像数据视点变换为鸟瞰视点图像数据是因为基于如下原理能够识别平面物体和三维物体,该原理为三维物体所特有的铅垂边缘通过视点变换为鸟瞰视点图像数据而被变换为通过特定的定点的直线群。此外,在后述的利用边缘信息检测三维物体过程中也使用视点变换部31的图像变换处理的结果。
对位部32依次输入由视点变换部31的视点变换得到的鸟瞰视点图像数据,并对所输入的不同时刻的鸟瞰视点图像数据的位置进行对位。图4是用于说明对位部32的处理概要的图,(a)是表示本车辆V的移动状态的俯视图,(b)是表示对位的概要的图像。
如图4的(a)所示,设为当前时刻的本车辆V位于V1,前一时刻的本车辆V位于V2。另外,设为其它车辆VX位于本车辆V的后侧方向并与本车辆V处于并列行驶状态,当前时刻的其它车辆VX位于V3,前一时刻的其它车辆VX位于V4。并且,设为本车辆V在一时刻移动了距离d。此外,前一时刻可以是从当前时刻起相隔预先决定时间(例如一个控制周期)的过去时刻,也可以是相隔任意时间的过去时刻。
在这样的状态中,当前时刻的鸟瞰视点图像PBt如图4的(b)所示那样。在该鸟瞰视点图像PBt中,描绘在路面上的白线为矩形状,是比较准确地以俯视观察所形成的状态,但是处于位置V3的其它车辆VX的位置发生倾倒。另外,前一时刻的鸟瞰视点图像PBt-1也同样地,描绘在路面上的白线为矩形状,是比较准确地以俯视观察所形成的状态,但是处于位置V4的其它车辆VX发生倾倒。如已经记述的那样,是因为三维物体的铅垂边缘(除了严格意义上的铅垂边缘以外还包含在三维空间中从路面立起的边缘)通过变换为鸟瞰视点图像数据的视点变换处理而表现为沿着倾倒方向的直线群,与此相对地路面上的平面图像不包含铅垂边缘,因此即使进行视点变换也不会产生那样的倾倒。
对位部32在数据上执行如上所述的鸟瞰视点图像PBt、PBt-1的对位。此时,对位部32使前一时刻的鸟瞰视点图像PBt-1偏移来使位置与当前时刻的鸟瞰视点图像PBt相一致。图4的(b)的左侧的图像和中央的图像表示偏移了移动距离d’后的状态。该偏移量d’是与图4的(a)所示的本车辆V的实际的移动距离d对应的鸟瞰视点图像数据上的移动量,是根据来自车速传感器20的信号和从前一时刻至当前时刻的时间而决定的。
另外,在对位之后,对位部32取鸟瞰视点图像PBt、PBt-1的差分,生成差分图像PDt的数据。在此,差分图像PDt的像素值可以是将鸟瞰视点图像PBt、PBt-1的像素值之差绝对值化得到的像素值,也可以为了对应照度环境的变化而在该绝对值超过规定的阈值p时设为“1”,在不超过规定的阈值p时设为“0”。图4的(b)的右侧的图像是差分图像PDt。该阈值p能够预先设定。
返回图3,三维物体检测部33根据图4的(b)所示的差分图像PDt的数据来检测三维物体。此时,本例的三维物体检测部33还计算在实际空间中的三维物体的移动距离。在三维物体的检测以及移动距离的计算时,三维物体检测部33首先生成差分波形。此外,在三维物体的移动速度的计算中使用三维物体的每单位时间的移动距离。而且,三维物体的移动速度能够在判断三维物体是否为车辆时使用。
在生成差分波形时,本实施方式的三维物体检测部33在差分图像PDt中设定检测区域。本例的三维物体检测装置1将本车辆V的驾驶员予以注意的其它车辆、特别是在本车辆V进行车道变更时有可能接触的行驶于与本车辆V所行驶的车道相邻的车道的其它车辆作为检测对象物进行检测。因此,在根据图像信息检测三维物体的本例中,在由摄像机1得到的图像中的本车辆V的右侧和左侧设定两个检测区域。具体地说,在本实施方式中,如图2所示那样在本车辆V后方的左侧和右侧设定矩形状的检测区域A1、A2。在该检测区域A1、A2中检测出的其它车辆被检测为行驶于与本车辆V所行驶的车道相邻的邻近车道的障碍物。此外,这样的检测区域A1、A2可以根据相对于本车辆V的相对位置进行设定,也可以将白线的位置作为基准进行设定。在以白线的位置为基准进行设定的情况下,移动距离检测装置1例如优选利用已有的白线识别技术等。
另外,三维物体检测部33将所设定的检测区域A1、A2的在本车辆V侧的边(沿着行驶方向的边)识别为触地线L1、L2(图2)。通常,触地线是指三维物体接触地面的线,但是在本实施方式中不是接触地面的线而是如上述那样进行设定。此外,在这种情况下,从经验上看本实施方式所涉及的触地线与本来基于其它车辆VX的位置求出的触地线之差也不会过大,从而在实际使用上没有问题。
图5是表示图3所示的三维物体检测部33生成差分波形的情形的概要图。如图5所示,三维物体检测部33根据由对位部32计算出的差分图像PDt(图4的(b)的右图)中的相当于检测区域A1、A2的部分来生成差分波形DWt。此时,三维物体检测部33沿着通过视点变换而三维物体倾倒的方向生成差分波形DWt。此外,在图5所示的例子中,为了方便仅使用检测区域A1进行说明,但是关于检测区域A2,也以相同的过程生成差分波形DWt
具体地说,三维物体检测部33在差分图像DWt的数据上定义三维物体倾倒的方向上的线La。然后,三维物体检测部33对线La上示出规定的差分的差分像素DP的个数进行计数。在此,在差分图像DWt的像素值是将鸟瞰视点图像PBt、PBt-1的像素值之差绝对值化得到的像素值的情况下,示出规定的差分的差分像素DP是超过规定的阈值的像素,在差分图像DWt的像素值用“0”、“1”表现的情况下,示出规定的差分的差分像素DP是表示“1”的像素。
三维物体检测部33在对差分像素DP的个数进行计数之后,求出线La与触地线L1的交点CP。然后,三维物体检测部33将交点CP与计数数进行对应,根据交点CP的位置来决定横轴位置、即在图5的右图的上下方向轴的位置,并且根据计数数决定纵轴位置、即在图5的右图的左右方向轴的位置,绘制出交点CP的计数数。
以下同样地,三维物体检测部33对三维物体倾倒的方向上的线Lb、Lc···进行定义,来对差分像素DP的个数进行计数,根据各交点CP的位置决定横轴位置、基于计数数(差分像素DP的个数)决定纵轴位置进行绘制。三维物体检测部33依次重复上述内容进行频数分布化来如图5右图所示那样生成差分波形DWt
此外,如图5左图所示,三维物体倾倒的方向上的线La和线Lb与检测区域A1相重叠的距离不同。因此,当假设检测区域A1被差分像素DP填满时,线La上的差分像素DP的个数多于线Lb上的差分像素DP的个数。因此,三维物体检测部33在基于差分像素DP的计数数决定纵轴位置的情况下,根据三维物体倾倒的方向上的线La、Lb与检测区域A1相重叠的距离来进行标准化。当列举具体例时,在图5左图中,在线La上有6个差分像素DP,在线Lb上有5个差分像素DP。因此,在图5中基于计数数决定纵轴位置时,三维物体检测部33将计数数除以重叠距离等来进行标准化。由此,如差分波形DWt所示那样,与三维物体倾倒的方向上的线La、Lb对应的差分波形DWt的值大致相同。
在生成差分波形DWt之后,三维物体检测部33通过与前一时刻的差分波形DWt-1的对比来计算移动距离。即,三维物体检测部33基于差分波形DWt、DWt-1的时间变化来计算移动距离。
详细地说,三维物体检测部33如图6所示那样将差分波形DWt分割成多个小区域DWt1~DWtn(n为2以上的任意整数)。图6是表示由三维物体检测部33分割出的小区域DWt1~DWtn的图。小区域DWt1~DWtn例如图6所示那样以相互重叠的方式进行分割。例如小区域DWt1与小区域DWt2重叠,小区域DWt2与小区域DWt3重叠。
接着,三维物体检测部33按各小区域DWt1~DWtn求出偏移量(差分波形的横轴方向(图6的上下方向)的移动量)。在此,根据前一时刻的差分波形DWt-1与当前时刻的差分波形DWt之差(横轴方向的距离)来求出偏移量。此时,三维物体检测部33按各小区域DWt1~DWtn,在使前一时刻的差分波形DWt-1沿横轴方向移动时,判断出与当前时刻的差分波形DWt的误差最小的位置(横轴方向的位置),求出差分波形DWt-1的原来的位置与误差最小的位置的在横轴方向上的移动量来作为偏移量。然后,三维物体检测部33对按各小区域DWt1~DWtn求出的偏移量进行计数来制作直方图。
图7是表示由三维物体检测部33得到的直方图的一例的图。如图7所示,各小区域DWt1~DWtn与前一时刻的差分波形DWt-1的误差最小的移动量即偏移量稍微产生偏差。因此,三维物体检测部33将包含偏差的偏移量制作成直方图,基于直方图计算移动距离。此时,三维物体检测部33根据直方图的极大值计算三维物体的移动距离。即,在图7所示的例子中,三维物体检测部33将表示直方图的极大值的偏移量计算为移动距离τ*。此外,该移动距离τ*是其它车辆VX相对于本车辆V的相对移动距离。因此,三维物体检测部33在计算绝对移动距离的情况下,根据所得到的移动距离τ*和来自车速传感器20的信号来计算绝对移动距离。
此外,在制作成直方图时,三维物体检测部33也可以针对多个小区域DWt1~DWtn中的每一个进行加权,与权重相应地对按各小区域DWt1~DWtn求出的偏移量进行计数来制作直方图。图8是表示三维物体检测部33的加权的图。
如图8所示,小区域DWm(m为1以上、n-1以下的整数)是平坦的。即,小区域DWm的示出规定的差分的像素数的计数的最大值与最小值之差小。三维物体检测部33针对这样的小区域DWm将权重减小。这是因为关于平坦的小区域DWm没有特征,从而在计算偏移量时误差变大的可能性高。
另一方面,小区域DWm+k(k为n-m以下的整数)有大量的起伏。即,小区域DWm的示出规定的差分的像素数的计数数的最大值与最小值之差大。三维物体检测部33针对这样的小区域DWm将权重增大。这是因为关于有很多起伏的小区域DWm+k具有特征,从而能够正确地进行偏移量的计算的可能性高。通过像这样进行加权,能够提高移动距离的计算精度。
此外,为了提高移动距离的计算精度,在上述实施方式中,将差分波形DWt分割成了多个小区域DWt1~DWtn,但是在移动距离的计算精度要求不那么高的情况下,也可以不分割成小区域DWt1~DWtn。在这种情况下,三维物体检测部33根据差分波形DWt与差分波形DWt-1的误差变为最小时的差分波形DWt的偏移量来计算移动距离。即,求前一时刻的差分波形DWt-1与当前时刻的差分波形DWt的偏移量的方法不限定于上述内容。
返回图3,计算机30具备拖影检测部40。拖影检测部40根据由摄像机10拍摄得到的摄像图像的数据来检测拖影的产生区域。此外,由于拖影是在CCD图像传感器等中产生的过曝光现象,因此如果采用使用了不产生这样的拖影的CMOS图像传感器等的摄像机10,则也可以省略拖影检测部40。
图9是用于说明拖影检测部40的处理以及基于该处理的差分波形DWt的计算处理的图像图。首先,设为对拖影检测部40输入了存在拖影S的摄像图像P的数据。此时,拖影检测部40根据摄像图像P检测拖影S。拖影S的检测方法多种多样,例如在一般的CCD(Charge-CoupledDevice:电荷耦合器件)摄像机的情况下,从光源仅向图像下方向产生拖影S。因此,在本实施方式中,检索从图像下侧向图像上方具有规定值以上的亮度值且在纵方向上连续的区域,将其确定为拖影S的产生区域。
另外,拖影检测部40生成关于拖影S的产生部分将像素值设为“1”,将除此以外的部分设为“0”的拖影图像SP的数据。在生成后,拖影检测部40将拖影图像SP的数据发送到视点变换部31。另外,输入了拖影图像SP的数据的视点变换部31将该数据视点变换为鸟瞰视点的状态。由此,视点变换部31生成拖影鸟瞰视点图像SBt的数据。在生成后,视点变换部31将拖影鸟瞰视点图像SBt的数据发送到对位部33。另外,视点变换部31还将前一时刻的拖影鸟瞰视点图像SBt-1的数据发送到对位部33。
对位部32在数据上执行拖影鸟瞰视点图像SBt、SBt-1的对位。关于具体的对位,与在数据上执行鸟瞰视点图像PBt、PBt-1的对位的情况相同。另外,在对位后,对位部32关于各拖影鸟瞰视点图像SBt、SBt-1的拖影S的产生区域取逻辑或。由此,对位部32生成掩模图像MP的数据。在生成后,对位部32将掩模图像MP的数据发送到三维物体检测部33。
三维物体检测部33关于掩模图像MP中的相当于拖影S的产生区域的部分,将频数分布的计数数设为零。即,在生成了如图9所示那样的差分波形DWt的情况下,三维物体检测部33将拖影S的计数数SC设为零,生成校正后的差分波形DWt’。
此外,在本实施方式中,三维物体检测部33求出车辆V(摄像机10)的移动速度,根据求出的移动速度求出关于静止物体的偏移量。在求出静止物体的偏移量之后,三维物体检测部33忽略直方图的极大值中的相当于静止物体的偏移量之后计算三维物体的移动距离。
图10是表示由三维物体检测部33得到的直方图的另一例的图。在摄像机10的视角内除了其它车辆VX以外还存在静止物体的情况下,在得到的直方图中出现两个极大值τ1、τ2。在这种情况下,两个极大值τ1、τ2中的某一方是静止物体的偏移量。因此,三维物体检测部33根据移动速度求出关于静止物体的偏移量,忽略相当于该偏移量的极大值,采用剩下的一方的极大值计算三维物体的移动距离。
此外,在即使忽略了相当于静止物体的偏移量也存在多个极大值的情况下,设想在摄像机10的视角内存在多辆其它车辆VX。但是,在检测区域A1、A2内存在多辆其它车辆VX的情形是非常少见的。因此,三维物体检测部33中止移动距离的计算。
接着,说明基于差分波形信息的三维物体检测过程。图11和图12是表示本实施方式的三维物体检测过程的流程图。如图11所示,首先,计算机30输入由摄像机10得到的摄像图像P的数据,由拖影检测部40生成拖影图像SP(S1)。接着,视点变换部31根据来自摄像机10的摄像图像P的数据生成鸟瞰视点图像PBt的数据,并且根据拖影图像SP的数据生成拖影鸟瞰视点图像SBt的数据(S2)。
然后,对位部33将鸟瞰视点图像PBt的数据和前一时刻的鸟瞰视点图像PBt-1的数据进行对位,并且将拖影鸟瞰视点图像SBt的数据和前一时刻的拖影鸟瞰视点图像SBt-1的数据进行对位(S3)。在该对位之后,对位部33生成差分图像PDt的数据,并且生成掩模图像MP的数据(S4)。之后,三维物体检测部33根据差分图像PDt的数据和前一时刻的差分图像PDt-1的数据生成差分波形DWt(S5)。在生成差分波形DWt之后,三维物体检测部33将差分波形DWt中的相当于拖影S的产生区域的计数数设为零,从而抑制拖影S所产生的影响(S6)。
之后,三维物体检测部33判断差分波形DWt的峰值是否为第一阈值α以上(S7)。该第一阈值α是预先设定的,也能够按照图3所示的控制部39的控制命令进行变更,稍后记述其详细内容。在此,在差分波形DWt的峰值不为第一阈值α以上的情况下、即几乎不存在差分的情况下,认为在摄像图像P内不存在三维物体。因此,在判断为差分波形DWt的峰值不为第一阈值α以上的情况下(S7:“否”),三维物体检测部33判断为不存在三维物体,从而不存在作为障碍物的其它车辆(图12:S16)。然后,结束图11和图12所示的处理。
另一方面,在判断为差分波形DWt的峰值为第一阈值α以上的情况下(S7:“是”),三维物体检测部33判断为存在三维物体,将差分波形DWt分割成多个小区域DWt1~DWtn(S8)。接着,三维物体检测部33针对各小区域DWt1~DWtn进行加权(S9)。之后,三维物体检测部33计算各小区域DWt1~DWtn的偏移量(S10),考虑权重生成直方图(S11)。
然后,三维物体检测部33基于直方图计算三维物体相对于本车辆V的移动距离、即相对移动距离(S12)。接着,三维物体检测部33根据相对移动距离计算三维物体的绝对移动速度(S13)。此时,三维物体检测部33对相对移动距离进行时间微分来计算相对移动速度,并且加上由车速传感器20检测出的本车速度来计算绝对移动速度。
之后,三维物体检测部33判断三维物体的绝对移动速度是否为10km/h以上且三维物体相对于本车辆V的相对移动速度是否为+60km/h以下(S14)。在满足双方的情况下(S14:“是”),三维物体检测部33判断为三维物体是其它车辆VX(S15)。然后,结束图11和图12所示的处理。另一方面,在有任一方不满足的情况下(S14:“否”),三维物体检测部33判断为不存在其它车辆(S16)。然后,结束图11和图12所示的处理。
此外,在本实施方式中,将本车辆V的后侧方设为检测区域A1、A2,检测本车辆V在行驶过程中应予以注意的行驶于与本车辆的行驶车道相邻的邻近车道的其它车辆VX,特别是,重点在于在本车辆V进行车道变更的情况下是否有接触的可能性。这是为了在本车辆V进行车道变更的情况下,判断是否有可能接触到行驶于与本车辆的行驶车道相邻的邻近车道的其它车辆VX。因此,执行了步骤S14的处理。即,当以使本实施方式的系统在高速公路上工作的情形为前提时,在三维物体的速度小于10km/h的情况下,即使存在其它车辆VX,在进行车道变更时由于位于距本车辆V很远的后方,因此很少会成为问题。同样地,在三维物体相对于本车辆V的相对移动速度超过+60km/h的情况下(即,三维物体相对于本车辆V的速度以大于60km/h的速度移动的情况下),在进行车道变更时,由于在本车辆V的前方移动,因此很少会成为问题。因此,在步骤S14中,也可以说判断出了在进行车道变更时成为问题的其它车辆VX。
另外,通过在步骤S14中判断三维物体的绝对移动速度是否为10km/h以上且三维物体相对于本车辆V的相对移动速度是否为+60km/h以下,由此存在以下的效果。例如,根据摄像机10的安装误差,有可能存在将静止物体的绝对移动速度检测出是数km/h的情况。因此,通过判断是否为10km/h以上,能够减少将静止物体判断为是其它车辆VX的可能性。另外,有可能由于噪声而导致将三维物体相对于本车辆V的相对速度检测为超过+60km/h的速度。因此,通过判断相对速度是否为+60km/h以下,能够减少因噪声引起的错误检测的可能性。
并且也可以是,代替步骤S14的处理,而判断绝对移动速度不为负、不为0km/h。另外,在本实施方式中,重点在于本车辆V在进行车道变更的情况下是否有接触的可能性,因此在步骤S15中检测出其它车辆VX的情况下,可以向本车辆的驾驶员发出警告音,或者通过规定的显示装置进行相当于警告的显示。
这样,根据本例的基于差分波形信息的三维物体的检测过程,沿着通过视点变换而三维物体倾倒的方向,对在差分图像PDt的数据上示出规定的差分的像素数进行计数来进行频数分布化,由此生成差分波形DWt。在此,在差分图像PDt的数据上示出规定的差分的像素是指在不同时刻的图像中存在变化的像素,换言之,可以说是存在三维物体的部分。因此,在存在三维物体的部分,通过沿着三维物体倾倒的方向对像素数进行计数并进行频数分布化,由此生成差分波形DWt。特别地,由于沿着三维物体倾倒的方向对像素数进行计数,因此根据针对三维物体来说在高度方向上的信息来生成差分波形DWt。然后,根据包含高度方向的信息的差分波形DWt的时间变化来计算三维物体的移动距离。因此,与仅着眼于1个点的移动的情况相比,时间变化前的检测部分和时间变化后的检测部分由于包含高度方向的信息进行确定,因此容易得到三维物体中相同的部分,从而根据相同部分的时间变化来计算移动距离,能够提高移动距离的计算精度。
另外,关于差分波形DWt中的相当于拖影S的产生区域的部分,将频数分布的计数数设为零。由此,去除差分波形DWt中的由拖影S产生的波形部位,从而能够防止将拖影S错误识别为三维物体的情形。
另外,根据在不同的时刻生成的差分波形DWt的误差最小时的差分波形DWt的偏移量来计算三维物体的移动距离。因此,根据波形这样的一维的信息的偏移量来计算移动距离,从而能够在计算移动距离时抑制计算成本。
另外,将在不同时刻生成的差分波形DWt分割成多个小区域DWt1~DWtn。通过像这样分割成多个小区域DWt1~DWtn,由此得到多个表示三维物体的各个部分的波形。另外,针对各小区域DWt1~DWtn求出各个波形的误差最小时的偏移量,对针对各小区域DWt1~DWtn求出的偏移量进行计数来制作直方图,由此计算三维物体的移动距离。因此,针对三维物体的各个部分求出偏移量,并根据多个偏移量求出移动距离,从而能够提高移动距离的计算精度。
另外,针对多个小区域DWt1~DWtn中的每一个进行加权,与权重相应地对针对各小区域DWt1~DWtn求出的偏移量进行计数来制作直方图。因此,关于特征性的区域将权重增大,关于非特征性的区域将权重减小,由此能够更适当地计算移动距离。因而,能够进一步提高移动距离的计算精度。
另外,关于差分波形DWt的各小区域DWt1~DWtn,示出规定的差分的像素数的计数的最大值与最小值之差越大,则使权重越大。因此,越是最大值与最小值之差大的特征性的起伏区域则权重越大,关于起伏小的平坦的区域,权重变小。在此,就形状来说,与平坦的区域相比,起伏大的区域更容易正确地求出偏移量,因此通过越是最大值与最小值之差大的区域则使权重越大,由此能够进一步提高移动距离的计算精度。
另外,根据对针对各小区域DWt1~DWtn求出的偏移量进行计数得到的直方图的极大值,计算三维物体的移动距离。因此,即使偏移量产生偏差,也能够根据其极大值来计算正确性更高的移动距离。
另外,求出关于静止物体的偏移量,并忽略该偏移量,因此能够防止由于静止物体而导致三维物体的移动距离的计算精度下降的情形。另外,在忽略了相当于静止物体的偏移量之后,如果存在多个极大值,则中止三维物体的移动距离的计算。因此,能够防止如存在多个极大值那样的错误地计算移动距离的情形。
此外,在上述实施方式中,根据来自车速传感器20的信号判断本车辆V的车速,但是不限于此,也可以根据不同时刻的多个图像来估计速度。在这种情况下,不需要车速传感器,能够实现结构的简单化。
另外,在上述实施方式中,将拍摄到的当前时刻的图像和前一时刻的图像变换为鸟瞰图,对变换后的鸟瞰图进行对位之后生成差分图像PDt,对所生成的差分图像PDt沿着倾倒方向(将拍摄到的图像变换为鸟瞰图时的三维物体的倾倒方向)进行评价来生成差分波形DWt,但是不限定于此。例如也可以仅将前一时刻的图像变换为鸟瞰图,对变换得到的鸟瞰图进行对位之后再次变换为与所拍摄的图像相当的图像,用该图像和当前时刻的图像生成差分图像,对所生成的差分图像沿着相当于倾倒方向的方向(即,将倾倒方向变换为摄像图像上的方向所得到的方向)进行评价来生成差分波形DWt。即,对当前时刻的图像和前一时刻的图像进行对位,根据进行对位后的两个图像的差分生成差分图像PDt,只要能够沿着将差分图像PDt变换为鸟瞰图时的三维物体的倾倒方向进行评价,也可以不必明确地生成鸟瞰图。
<基于边缘信息检测三维物体>
接着,说明能够代替图3所示的三维物体的检测模块A而进行动作的三维物体的检测模块B。三维物体的检测模块B由亮度差计算部35、边缘线检测部36以及三维物体检测部37构成,利用边缘信息检测三维物体。图13是表示图3的摄像机10的摄像范围等的图,图13的(a)是俯视图,图13的(b)表示本车辆V后侧方的实际空间中的立体图。如图13的(a)所示,摄像机10形成为规定的视角a,从本车辆V拍摄包含于该规定的视角a中的后侧方。摄像机10的视角a与图2所示的情况同样地被设定成在摄像机10的摄像范围内、除了包含本车辆V所行驶的车道以外还包含相邻的车道。
本例的检测区域A1、A2在俯视图(鸟瞰视点的状态)中形成为梯形状,这些检测区域A1、A2的位置、大小以及形状根据距离d1~d4决定。此外,该图所示的例子的检测区域A1、A2不限于梯形状,也可以是如图2所示那样在鸟瞰视点的状态下为矩形等其它的形状。
在此,距离d1是从本车辆V到触地线L1、L2的距离。触地线L1、L2是指存在于与本车辆V所行驶的车道相邻的车道的三维物体接触地面的线。在本实施方式中,目的是检测在本车辆V的后侧方行驶于与本车辆V的车道相邻的左右车道的其它车辆VX等(包含二轮车等)。因此,能够事先根据本车辆V至白线W的距离d11和从白线W至预测为其它车辆VX所行驶的位置的距离d12,大致固定地决定作为其它车辆VX的触地线L1、L2的位置的距离d1。
另外,关于距离d1,不限于决定为固定的值,也可以设为可变。在这种情况下,计算机30通过白线识别等技术来识别白线W相对于本车辆V的位置,根据识别出的白线W的位置来决定距离d11。由此,使用所决定的距离d11以可变的方式设定距离d1。在以下的本实施方式中,由于其它车辆VX行驶的位置(距白线W的距离d12)和本车辆V行驶的位置(距白线W的距离d11)大致固定,因此设为距离d1被决定为固定的值。
距离d2是从本车辆V的后端部沿车辆行进方向延伸的距离。以检测区域A1、A2至少收容在摄像机10的视角a内的方式决定该距离d2。特别地,在本实施方式中,距离d2被设定为与由视角a划分的范围相连。距离d3是表示检测区域A1、A2的在车辆行进方向上的长度的距离。该距离d3根据作为检测对象的三维物体的大小决定。在本实施方式中,由于检测对象是其它车辆VX等,因此距离d3被设定为包含其它车辆VX的长度。
距离d4是如图13的(b)所示那样表示被设定成在实际空间中包含其它车辆VX等的轮胎的高度的距离。距离d4在鸟瞰视点图像中设为图13的(a)所示的长度。此外,距离d4也能够设为不包含鸟瞰视点图像中相比于左右的邻近车道的下一邻近车道(即,隔一车道的邻近车道)的长度。这是因为如果包含与本车辆V的车道隔一车道的邻近车道,则无法区分是在作为本车辆V所行使的车道的本车道的左右邻近车道内存在其它车辆VX、还是在隔一车道的邻近车道内存在其它车辆VX。
如以上那样决定距离d1~距离d4,由此决定检测区域A1、A2的位置、大小以及形状。具体地说,根据距离d1,决定形成梯形的检测区域A1、A2的上边b1的位置。根据距离d2,决定上边b1的起点位置C1。根据距离d3,决定上边b1的终点位置C2。根据从摄像机10向起点位置C1延伸的直线L3,决定形成梯形的检测区域A1、A2的侧边b2。同样地,根据从摄像机10向终点位置C2延伸的直线L4,决定形成梯形的检测区域A1、A2的侧边b3。根据距离d4,决定形成梯形的检测区域A1、A2的下边b4的位置。这样,由各边b1~b4包围的区域设为检测区域A1、A2。该检测区域A1、A2如图13的(b)所示那样在本车辆V后侧方的实际空间中形成为正方形(长方形)。
返回图3,视点变换部31输入由摄像机10拍摄得到的规定区域的摄像图像数据。视点变换部31针对所输入的摄像图像数据进行视点变换处理来形成为鸟瞰视点状态的鸟瞰视点图像数据。鸟瞰视点状态是指从上空、例如从铅垂向下(或者稍微斜向下)俯视的虚拟摄像机的视点观看的状态。例如能够通过日本特开2008-219063号公报所记载的技术来实现该视点变换处理。
亮度差计算部35为了检测鸟瞰视点图像中包含的三维物体的边缘,而针对由视点变换部31进行视点变换得到的鸟瞰视点图像数据进行亮度差的计算。亮度差计算部35针对沿着在实际空间中的铅垂方向上延伸的铅垂虚拟线的多个位置中的每个位置计算该各位置附近的两个像素间的亮度差。亮度差计算部35能够通过仅设定一条在实际空间中的铅垂方向上延伸的铅垂虚拟线的方法以及设定两条铅垂虚拟线的方法中的任一个方法来计算亮度差。
针对设定两条铅垂虚拟线的具体方法进行说明。亮度差计算部35针对进行视点变换得到的鸟瞰视点图像来设定与实际空间中在铅垂方向延伸的线段相当的第一铅垂虚拟线以及与第一铅垂虚拟线不同并与实际空间中在铅垂方向延伸的线段相当的第二铅垂虚拟线。亮度差计算部35沿着第一铅垂虚拟线和第二铅垂虚拟线连续地求出第一铅垂虚拟线上的点与第二铅垂虚拟线上的点的亮度差。以下,详细说明该亮度差计算部35的动作。
亮度差计算部35如图14的(a)所示那样设定与实际空间中在铅垂方向延伸的线段相当且通过检测区域A1的第一铅垂虚拟线La(以下称为关注线La)。另外,亮度差计算部35设定与关注线La不同并与实际空间中在铅垂方向延伸的线段相当且通过检测区域A1的第二铅垂虚拟线Lr(以下称为参照线Lr)。在此,参照线Lr被设置于距离关注线La分离实际空间中的规定距离的位置处。此外,与实际空间中在铅垂方向延伸的线段相当的线是指在鸟瞰视点图像中从摄像机10的位置Ps起呈放射状扩展的线。该呈放射状扩展的线是沿着在变换为鸟瞰视点时三维物体倾倒的方向的线。
亮度差计算部35在关注线La上设定关注点Pa(第一铅垂虚拟线上的点)。另外,亮度差计算部35在参照线Lr上设定参照点Pr(第二铅垂虚拟线上的点)。这些关注线La、关注点Pa、参照线Lr、参照点Pr在实际空间中形成图14的(b)所示的关系。如从图14的(b)显而易见地,关注线La和参照线Lr是在实际空间中在铅垂方向延伸的线,关注点Pa和参照点Pr是在实际空间中被设定为大致相同的高度的点。此外,关注点Pa和参照点Pr并不一定需要是严格上的相同的高度,关注点Pa和参照点Pr被视为相同高度的程度的误差是允许的。
亮度差计算部35求出关注点Pa与参照点Pr的亮度差。假设关注点Pa与参照点Pr的亮度差大时,认为在关注点Pa与参照点Pr之间存在边缘。因此,图3所示的边缘线检测部36根据关注点Pa与参照点Pr的亮度差来检测边缘线。
更详细地说明该点。图15是表示亮度差计算部35的详细动作的图,图15的(a)表示鸟瞰视点状态的鸟瞰视点图像,图15的(b)是将图15的(a)所示的鸟瞰视点图像的一部分B1放大后的图。此外,关于图15,仅图示检测区域A1进行说明,关于检测区域A2,也以相同的过程计算亮度差。
在摄像机10拍摄到的摄像图像内拍摄有其它车辆VX的情况下,如图15的(a)所示那样,在鸟瞰视点图像内的检测区域A1出现其它车辆VX。如图15的(b)示出图15的(a)中的区域B1的放大图那样,设为在鸟瞰视点图像上,在其它车辆VX的轮胎的橡胶部分上设定了关注线La。在该状态中,亮度差计算部35首先设定参照线Lr。参照线Lr被设定在实际空间中沿铅垂方向距关注线La规定的距离的位置处。具体地说,在本实施方式所涉及的三维物体检测装置1中,参照线Lr被设定在实际空间中与关注线La相距10cm的位置处。由此,参照线Lr在鸟瞰视点图像上例如被设定在与其它车辆VX的轮胎的橡胶相距相当于10cm的距离的其它车辆VX的轮胎的轮辋(wheel)上。
接着,亮度差计算部35在关注线La上设定多个关注点Pa1~PaN。在图15的(b)中,为了便于说明,设定了六个关注点Pa1~Pa6(以下,在表示任意的点的情况下,仅称为关注点Pai)。此外,在关注线La上设定的关注点Pa的个数可以是任意的。在以下的说明中,设为在关注线La上设定了N个关注点Pa进行说明。
接着,亮度差计算部35将各参照点Pr1~PrN设定成在实际空间中与各关注点Pa1~PaN相同的高度。而且,亮度差计算部35计算相同高度的关注点Pa与参照点Pr的亮度差。由此,亮度差计算部35针对沿着在实际空间中的铅垂方向上延伸的铅垂虚拟线的多个位置(1~N)中的每个位置计算两个像素间的亮度差。亮度差计算部35例如计算第一关注点Pa1与第一参照点Pr1之间的亮度差,计算第二关注点Pa2与第二参照点Pr2之间的亮度差。由此,亮度差计算部35沿着关注线La和参照线Lr连续地求出亮度差。即,亮度差计算部35依次求出第三~第N关注点Pa3~PaN与第三~第N参照点Pr3~PrN的亮度差。
亮度差计算部35在检测区域A1内移动关注线La的同时重复执行上述的参照线Lr的设定、关注点Pa和参照点Pr的设定、亮度差的计算这样的处理。即,亮度差计算部35在实际空间中沿触地线L1的延伸方向以相同的距离改变关注线La和参照线Lr各自的位置的同时重复执行上述的处理。亮度差计算部35例如将在前次处理中成为参照线Lr的线设定为关注线La,针对该关注线La设定参照线Lr,依次求出亮度差。
返回图3,边缘线检测部36根据由亮度差计算部35计算出的连续的亮度差来检测边缘线。例如在图15的(b)所示的情况下,第一关注点Pa1和第一参照点Pr1位于相同的轮胎部分,因此亮度差小。另一方面,第二关注点~第六关注点Pa2~Pa6位于轮胎的橡胶部分,第二参照点~第六参照点Pr2~Pr6位于轮胎的轮辋部分。因而,第二关注点~第六关注点Pa2~Pa6与第二参照点~第六参照点Pr2~Pr6的亮度差变大。因此,边缘线检测部36能够检测出在亮度差大的第二关注点~第六关注点Pa2~Pa6与第二参照点~第六参照点Pr2~Pr6之间存在边缘线。
具体地说,边缘线检测部36在检测边缘线时,首先依照下述的数式1,根据第i个关注点Pai(坐标(xi,yi))与第i个参照点Pri(坐标(xi’,yi’))的亮度差来对第i个关注点Pai赋予属性。
[数1]
I(xi,yi)>I(xi’,yi’)+t时
s(xi,yi)=1
I(xi,yi)<l(xi’,yi’)-t时
s(xi,yi)=-1
在上述以外的情况时
s(xi,yi)=0
在上述数式1中,t表示阈值,I(xi,yi)表示第i个关注点Pai的亮度值,I(xi’,yi’)表示第i个参照点Pri的亮度值。根据上述数式1,在关注点Pai的亮度值高于参照点Pri加上阈值t得到的亮度值的情况下,该关注点Pai的属性s(xi,yi)为‘1’。另一方面,在关注点Pai的亮度值低于从参照点Pri减去阈值t得到的亮度值的情况下,该关注点Pai的属性s(xi,yi)为‘-1’。在关注点Pai的亮度值与参照点Pri的亮度值为除此以外的关系的情况下,关注点Pai的属性s(xi,yi)为‘0’。该阈值t可以预先设定,也能够按照图3所示的控制部39发出的控制命令进行变更,稍后记述其详细内容。
接着,边缘线检测部36基于下述数式2,根据沿着关注线La的属性s的连续性c(xi,yi)判断关注线La是否为边缘线。
[数2]
s(xi,yi)=s(xi+1,yi+1)时(且除了0=0),
c(xi,yi)=1
在上述以外的情况时,
c(xi,yi)=0
在关注点Pai的属性s(xi,yi)与相邻的关注点Pai+1的属性s(xi+1,yi+1)相同的情况下,连续性c(xi,yi)为‘1’。在关注点Pai的属性s(xi,yi)与相邻的关注点Pai+1的属性s(xi+1,yi+1)不同的情况下,连续性c(xi,yi)为‘0’。
接着,边缘线检测部36关于关注线La上的全部关注点Pa的连续性c求出总和。边缘线检测部36通过将求出的连续性c的总和除以关注点Pa的个数N,来对连续性c进行标准化。边缘线检测部36在进行了标准化的值超过阈值θ的情况下,将关注线La判断为边缘线。此外,阈值θ是预先通过实验等设定的值。阈值θ能够预先设定。
即,边缘线检测部36基于下述数式3判断关注线La是否为边缘线。而且,边缘线检测部36关于描绘在检测区域A1上的全部关注线La判断是否为边缘线。
[数3]
∑c(xi,yi)/N>θ
返回图3,三维物体检测部37根据由边缘线检测部36检测出的边缘线的量来检测三维物体。如上述那样,本实施方式所涉及的三维物体检测装置1检测在实际空间中在铅垂方向延伸的边缘线。检测出很多的在铅垂方向延伸的边缘线就是在检测区域A1、A2存在三维物体的可能性高。因此,三维物体检测部37根据由边缘线检测部36检测出的边缘线的量来检测三维物体。并且,三维物体检测部37在检测三维物体之前,判断由边缘线检测部36检测出的边缘线是否为正确的边缘线。三维物体检测部37判断沿着边缘线上的鸟瞰视点图像的边缘线的亮度变化是否大于规定的阈值。在边缘线上的鸟瞰视点图像的亮度变化大于阈值的情况下,判断为该边缘线是由于错误判断而检测出的。另一方面,在边缘线上的鸟瞰视点图像的亮度变化不大于阈值的情况下,判断为该边缘线是正确的边缘线。此外,该阈值是通过实验等预先设定的值。
图16是表示边缘线的亮度分布的图,图16的(a)表示在检测区域A1内存在作为三维物体的其它车辆VX时的边缘线和亮度分布,图16的(b)表示在检测区域A1内不存在三维物体时的边缘线和亮度分布。
如图16的(a)所示,设为判断为在鸟瞰视点图像中设定于其它车辆VX的轮胎橡胶部分的关注线La是边缘线。在这种情况下,关注线La上的鸟瞰视点图像的亮度变化平缓。这是由于由摄像机10拍摄到的图像被视点变换为鸟瞰视点图像,由此其它车辆VX的轮胎在鸟瞰视点图像内被拉长。另一方面,如图16的(b)所示,设为鸟瞰视点图像中被设定在描绘于路面上的“50”这样的白色文字部分上的关注线La被错误判断为是边缘线。在这种情况下,关注线La上的鸟瞰视点图像的亮度变化为起伏大的变化。这是因为在边缘线上混杂有白色文字中的亮度高的部分和路面等的亮度低的部分。
根据如以上那样的关注线La上的亮度分布的差异,三维物体检测部37判断边缘线是否为由于错误判断而检测出的。三维物体检测部37在沿着边缘线的亮度变化大于规定的阈值的情况下,判断为该边缘线是由于错误判断而检测出的。而且,在检测三维物体时不使用该边缘线。由此,抑制路面上的“50”这样的白色文字、路肩的杂草等被判断为边缘线,从而抑制三维物体的检测精度下降。
具体地说,三维物体检测部37通过下述数式4、数式5中的任一个来计算边缘线的亮度变化。该边缘线的亮度变化相当于实际空间中的铅垂方向的评价值。下述数式4通过关注线La上的第i个亮度值I(xi,yi)与相邻的第i+1个亮度值I(xi+1,yi+1)的差分的平方的合计值来评价亮度分布。下述数式5通过关注线La上的第i个亮度值I(xi,yi)和相邻的第i+1个亮度值I(xi+1,yi+1)的差分的绝对值的合计值来评价亮度分布。
[数4]
铅垂对应方向的评价值=∑[{I(xi,yi)-I(xi+1,yi+1)}2]
[数5]
铅垂对应方向的评价值=∑|I(xi,yi)-I(xi+1,yi+1)|
此外,不限于数式5,也可以如下述数式6那样,利用阈值t2将相邻的亮度值的属性b进行二值化,来将该二值化得到的属性b关于全部的关注点Pa进行总和。
[数6]
铅垂对应方向的评价值=∑b(xi,yi)
其中,|I(xi,yi)-I(xi+1,yi+1)|>t2时,
b(xi,yi)=1
在上述以外的情况时,
b(xi,yi)=0
在关注点Pai的亮度值与参照点Pri的亮度值的亮度差的绝对值大于阈值t2的情况下,该关注点Pa(xi,yi)的属性b(xi,yi)为‘1’。在除此以外的关系的情况下,关注点Pai的属性b(xi,yi)为‘0’。该阈值t2是为了判断关注线La不在相同的三维物体上而通过实验等预先设定的。而且,三维物体检测部37将关于关注线La上的全部关注点Pa的属性b进行总和来求出铅垂对应方向的评价值,判断边缘线是否为正确的边缘线。
接着,关于本实施方式所涉及的利用边缘信息的三维物体检测方法进行说明。图17和图18是表示本实施方式所涉及的三维物体检测方法的详细内容的流程图。此外,在图17和图18中,为了方便,说明以检测区域A1为对象的处理,但是关于检测区域A2,也执行相同的处理。
如图17所示,首先,在步骤S21中,摄像机10拍摄由视角a和安装位置所确定的规定区域。接着,视点变换部31在步骤S22中输入在步骤S21中由摄像机10拍摄得到的摄像图像数据,进行视点变换来生成鸟瞰视点图像数据。
接着,在步骤S23中,亮度差计算部35在检测区域A1上设定关注线La。此时,亮度差计算部35将与在实际空间中在铅垂方向延伸的线相当的线设定为关注线La。接着,在步骤S24中,亮度差计算部35在检测区域A1上设定参照线Lr。此时,亮度差计算部35将相当于在实际空间中在铅垂方向延伸的线段且与关注线La在实际空间中相距规定距离的线设定为参照线Lr。
接着,在步骤S25中,亮度差计算部35在关注线La上设定多个关注点Pa。此时,亮度差计算部35设定在边缘线检测部36检测边缘时不会成为问题的程度的个数的关注点Pa。另外,在步骤S26中,亮度差计算部35将参照点Pr设定成在实际空间中关注点Pa和参照点Pr处于大致相同的高度。由此,关注点Pa和参照点Pr在大致水平方向上排列,容易检测在实际空间中在铅垂方向上延伸的边缘线。
接着,在步骤S27中,亮度差计算部35计算在实际空间中处于相同高度的关注点Pa与参照点Pr的亮度差。接着,边缘线检测部36依照上述的数式1计算各关注点Pa的属性s。接着,在步骤S28中,边缘线检测部36依照上述的数式2计算各关注点Pa的属性s的连续性c。接着,在步骤S29中,边缘线检测部36依照上述数式3,判断将连续性c的总和标准化得到的值是否大于阈值θ。在判断为标准化得到的值大于阈值θ的情况下(S29:“是”),在步骤S30中,边缘线检测部36将该关注线La检测为边缘线。然后,处理转移到步骤S31。在判断为标准化得到的值不大于阈值θ的情况下(S29:“否”),边缘线检测部36不将该关注线La检测为边缘线,处理转移到步骤S31。该阈值θ能够预先设定,但是也能够与控制部39的控制命令相应地进行变更。
在步骤S31中,计算机30判断是否关于检测区域A1上可设定的全部关注线La执行了上述的步骤S23~步骤S30的处理。在判断为尚未关于全部的关注线La进行上述处理的情况下(S31:“否”),将处理返回步骤S23,重新设定关注线La,并重复进行步骤S31为止的处理。另一方面,在判断为关于全部的关注线La进行了上述处理的情况下(S31:“是”),处理转移到图18的步骤S32。
在图18的步骤S32中,三维物体检测部37关于在图17的步骤S30中检测出的各边缘线计算沿着该边缘线的亮度变化。三维物体检测部37依照上述数式4、数式5、数式6中的任一个来计算边缘线的亮度变化。接着,在步骤S33中,三维物体检测部37去除边缘线中的亮度变化大于规定的阈值的边缘线。即,判断为亮度变化大的边缘线不是正确的边缘线,在检测三维物体时不使用该边缘线。如上述那样这是为了抑制检测区域A1中包含的路面上的文字、路肩的杂草等被检测为边缘线的情形。因而,规定的阈值是指预先通过实验等求出的根据由于路面上的文字、路肩的杂草等而产生的亮度变化设定的值。
接着,在步骤S34中,三维物体检测部37判断边缘线的量是否为第二阈值β以上。此外,该第二阈值β预先通过实验等求出而设定,也能够按照图3所示的控制部39发出的控制命令进行变更,稍后记述其详细内容。例如在设定四轮车作为检测对象的三维物体的情况下,预先通过实验等根据在检测区域A1内出现的四轮车的边缘线的个数来设定该第二阈值β。在判断为边缘线的量为第二阈值β以上的情况下(S34:“是”),在步骤S35中,三维物体检测部37检测为在检测区域A1内存在三维物体。另一方面,在判断为边缘线的量不为第二阈值β以上的情况下(S34:“否”),三维物体检测部37判断为在检测区域A1内不存在三维物体。之后,图17和图18所示的处理结束。也可以判断为所检测出的三维物体是行驶于与本车辆V所行驶的车道相邻的邻近车道的其它车辆VX,也可以考虑所检测出的三维物体相对于本车辆V的相对速度来判断是否为行驶于邻近车道的其它车辆VX。该第二阈值β能够预先设定,也能够与控制部39的控制命令相应地进行变更。
如上所述,根据本实施方式的利用边缘信息的三维物体的检测方法,为了检测存在于检测区域A1、A2的三维物体,而针对鸟瞰视点图像设定作为在实际空间中在铅垂方向延伸的线段的铅垂虚拟线。而且,能够针对沿着铅垂虚拟线的多个位置中的每个位置计算该各位置附近的两个像素的亮度差,根据该亮度差的连续性来判断有无三维物体。
具体地说,针对鸟瞰视点图像中的检测区域A1、A2设定相当于在实际空间中在铅垂方向上延伸的线段的关注线La和与关注线La不同的参照线Lr。然后,沿着关注线La和参照线Lr连续地求出关注线La上的关注点Pa与参照线Lr上的参照点Pr的亮度差。这样,通过连续地求出点之间的亮度差,来求出关注线La与参照线Lr的亮度差。在关注线La与参照线Lr的亮度差高的情况下,在关注线La的设定部分存在三维物体的边缘的可能性高。由此,能够根据连续的亮度差检测三维物体。特别地,为了进行在实际空间中在铅垂方向延伸的铅垂虚拟线之间的亮度比较,即使通过变换为鸟瞰视点图像而三维物体与距路面的高度相应地被拉长,也不会影响三维物体的检测处理。因而,根据本例的方法,能够提高三维物体的检测精度。
另外,在本例中,求出铅垂虚拟线附近的大致相同高度的两个点的亮度差。具体地说,根据在实际空间中处于大致相同高度的关注线La上的关注点Pa和参照线Lr上的参照点Pr求出亮度差,因此能够明确地检测出存在有在铅垂方向延伸的边缘的情况下的亮度差。
并且,在本例中,根据关注线La上的关注点Pa与参照线Lr上的参照点Pr的亮度差来对关注点Pa赋予属性,根据沿着关注线La的属性的连续性c来判断该关注线La是否为边缘线,因此能够将亮度高的区域与亮度低的区域的边界检测为边缘线,从而能够按照人的自然的感觉进行边缘检测。详细地说明该效果。图19是表示对边缘线检测部36的处理进行说明的图像例的图。该图像例是表示亮度高的区域和亮度低的区域反复的条纹图案的第一条纹图案101与表示亮度低的区域和亮度高的区域反复的条纹图案的第二条纹图案102相邻的图像。另外,该图像例为第一条纹图案101的亮度高的区域与第二条纹图案102的亮度低的区域相邻,并且第一条纹图案101的亮度低的区域与第二条纹图案102的亮度高的区域相邻。位于该第一条纹图案101与第二条纹图案102的边界的部位103根据人的感觉而倾向于不认为是边缘。
与此相对地,由于亮度低的区域与亮度高的区域相邻,因此如果仅依据亮度差检测边缘,则导致该部位103被识别为边缘。但是,边缘线检测部36除了部位103处的亮度差以外,仅在该亮度差的属性存在连续性的情况下将部位103判断为边缘线,因此边缘线检测部36能够抑制将以人的感觉不识别为边缘线的部位103识别为边缘线的错误判断,从而能够按照人的感觉进行边缘检测。
并且,在本例中,在由边缘线检测部36检测出的边缘线的亮度变化大于规定的阈值的情况下,判断为该边缘线是由于错误判断而检测出的边缘线。在将由摄像机10获取到的摄像图像变换为鸟瞰视点图像的情况下,存在该摄像图像中包含的三维物体以被拉长的状态出现在鸟瞰视点图像中的倾向。例如上述那样在其它车辆VX的轮胎被拉长的情况下,由于轮胎这一个部位被拉长,因此形成被拉长的方向上的鸟瞰视点图像的亮度变化小的倾向。对于此,如果将描绘在路面上的文字等错误判断为边缘线,则在鸟瞰视点图像中混合包含文字部分这样的亮度高的区域和路面部分这样的亮度低的区域。在这种情况下,在鸟瞰视点图像中,被拉长的方向的亮度变化有变大的倾向。因而,通过如本例那样判断沿着边缘线的鸟瞰视点图像的亮度变化,能够识别出由于错误判断而检测出的边缘线,从而能够提高三维物体的检测精度。
<三维物体的最终判断>
返回图3,本例的三维物体检测装置1具备上述的两个三维物体检测部33(或三维物体检测部37)、三维物体判断部34、高亮度区域判断部38以及控制部39。三维物体判断部34基于三维物体检测部33(或三维物体检测部37)的检测结果,最终判断所检测出的三维物体是否为在检测区域A1、A2的其它车辆VX。高亮度区域判断部38判断包含高亮度区域的各检测区域A1、A2中的哪一方的检测区域。在判断为在各检测区域A1、A2中的某一方包含高亮度区域的情况下,控制部39根据该检测区域A1、A2的图像信息来抑制所检测的三维物体被判断为是其它车辆VX。
具体地说,控制部39输出对构成计算机30的各部(包括控制部39)进行控制的控制命令以抑制所检测的三维物体被判断为是存在于检测区域A1、A2的其它车辆V。例如,控制部39为了抑制三维物体检测部33(或三维物体检测部37)得出存在三维物体这样的检测结果、或者三维物体判断部34得出最终判断为三维物体是其它车辆VX的判断结果,而生成用于调整在检测、判断中使用的阈值、输出值的控制指令并发送到三维物体检测部33(或三维物体检测部37)或者三维物体判断部34。
另外,控制部39生成使三维物体的检测处理或三维物体是否为其它车辆VX的判断中止的控制指令、不检测三维物体或输出三维物体不是其它车辆VX的意思的结果的控制指令并发送到三维物体检测部33(或三维物体检测部37)或者三维物体判断部34。
本实施方式的三维物体检测部33按照控制部39的控制命令来调整阈值或输出值、在严格的基准下进行三维物体的检测、输出不检测三维物体的意思的检测结果、或者将三维物体检测处理本身中止。同样地,三维物体判断部38按照控制部39的控制命令调整阈值或输出值、在严格的基准下进行所检测出的三维物体是否为其它车辆VX的判断、输出三维物体不是其它车辆VX的意思的判断、或者将三维物体判断处理本身中止。在由高亮度区域判断部38检测出作为右侧检测区域或左侧检测区域A1、A2中的某一方的、包含满足规定的基准的高亮度区域的第一检测区域A1、A2的情况下,进行上述控制处理。
图20A和图20B是用于说明形成于检测区域A1、A2的高亮度区域的图。
在图20A所示的状况中,当来自太阳SU等光源的强光SUL照射入检测区域A1并在路面发生反射时,在路面的检测区域A1内形成高亮度区域L1。由于高亮度区域L1的反射光大量入射至本车辆V的摄像机10的镜头,因此在该状态下拍摄得到的图像信息中包含与高亮度区域L1对应的信息。另一方面,当太阳SU等的强光SUL照射向检测区域A2并发生反射时,在检测区域A2内也同样地形成高亮度区域,但是该反射光不会大量入射至本车辆V的摄像机10的镜头,因此在检测区域A2不形成与检测区域A1的高亮度区域L1相当的高亮度区域。这样,在太阳光SUL等强光从本车辆V的侧方(除前方和后方以外的方向)照射向检测区域A1、A2的状况中,在检测区域A1、A2的某一方的检测区域形成高亮度区域L而成为相对较亮的环境,在另一方的检测区域未形成高亮度区域L而成为相对较暗的环境。
由于太阳光等强光反射的反射光也是强光,因此在区域L1周围产生规定量以上的亮度差,形成所谓的图像处理技术上的边缘。只要不存在太阳西下等来自光源的光被什么遮挡、本车辆V的行进方向发生变化这样的状况变化,就能够在本车辆V的检测区域A1、A2上持续地观察到区域L1的反射像。区域L1的反射像的边缘(亮度差为规定值以上的像素或像素群)倾向于沿着视点变换为鸟瞰视点图像时三维物体倾倒的方向出现,在这种情况下,导致区域L1的反射像(虚像)被判断为具备三维物体的像(实像)的特征。并且,由于在检测区域A1、A2上持续地观察到区域L1的反射像,因此倾向于检测出稳定的移动速度且与本车辆V的相对速度也变为小的值。在这种情况下,存在区域L1的反射像(虚像)被判断为具备其它车辆VX的像(实像)的特征的情况。
另外,在图20B所示的状况中,在检测区域A1、A2分别存在其它车辆VX,来自太阳SU等光源的强光照射向检测区域A1、A2。在这种情况下,太阳光SUL在存在于图中右侧的检测区域A2的其它车辆VX的右侧面发生反射而在区域L2形成高亮度区域,另一方面,在存在于图中左侧的检测区域A1的其它车辆VX的右侧面乃至后方发生反射,在其它车辆VX的左侧面形成影子而在区域D1形成低亮度区域。当由本车辆V的摄像机10拍摄检测区域A1、A2时,在检测区域A2包含由于反射像(虚像)所产生的高亮度区域L2,在检测区域A1包含由于其它车辆VX的影子所产生的低亮度区域D1。这样,在太阳光SUL等强光从本车辆V的侧方(除前方和后方以外的方向)照射向检测区域A1、A2并在各检测区域A1、A2分别存在其它车辆VX的状况中,检测区域A1、A2的某一方的检测区域包含高亮度区域L而成为亮的环境,在另一方的检测区域不包含高亮度区域而成为暗的环境。
在该图20B所示的状况中,当太阳光照射向其它车辆VX的右侧面(车身)时,在检测区域A2产生强的反射光。由于该反射光而检测区域A2的摄像图像的亮度整体变高,因此有时将不与其它车辆VX的特征对应的部分的差分波形信息、边缘信息的值输出得大、或者不会清晰地输出与其它车辆VX的特征对应的部分的差分波形信息、边缘信息的特征。另一方面,当太阳光等照射其它车辆VX的从右侧面至向后方时,由于太阳光等被遮挡而检测区域A1的亮度整体变低,因此有时将与其它车辆VX的特征对应的部分的差分波形信息、边缘信息的值输出得低、或者不会清晰地输出与其它车辆VX的特征对应的部分的差分波形信息、边缘信息的特征。
另外,在本发明所涉及的三维物体检测装置1中,有时为了进行三维物体的检测控制而一样地(不识别检测区域A1、A2地)变更三维物体检测处理中使用的阈值。例如在镜头上附着异物而模糊的情况下,存在为了促进三维物体检测而进行降低阈值的控制使得即使是模糊的该镜头也能够检测三维物体的情况,但是当像这样在各控制中一样地降低阈值时,在包含高亮度区域的亮环境的检测区域A1、A2,有时上述的太阳光等的反射像的像素值或根据该像素值计算出的值超过了阈值。也就是说,有时将上述的区域L1的反射像(虚像)错误检测为三维物体、其它车辆VX的像(实像)。另一方面,在不包含高亮度区域或包含低亮度区域的暗环境的检测区域A1、A2中,有时实际存在的其它车辆VX的像(实像)的像素值或根据该像素值计算出的值不超过阈值。也就是说,有时将实际存在的其它车辆VX的像(实像)错误检测为平面物体、静止物体的像或虚像。在本例中,使用光源是太阳、照射向检测区域A1、A2的强光是太阳光的例子进行说明,但是形成高亮度区域的光不被特别地限定,也可以是其它车辆VX的车头灯、设置在道路附近的探照灯(searchlight)、工程用等的照明灯等。
因此,在本实施方式的三维物体检测装置1中,检测包含高亮度区域的第一检测区域,抑制根据该第一检测区域的图像信息将检测出的三维物体判断为是其它车辆VX,并且维持或促进根据除第一检测区域以外的第二检测区域的图像信息将检测出的三维物体判断为是其它车辆VX。
接着,说明判断第一检测区域的高亮度区域判断部38。本实施方式的高亮度区域判断部38将作为右侧检测区域或左侧检测区域A1、A2中的某一方的、包含满足规定的基准的高亮度区域的一方的检测区域A1、A2判断为第一检测区域,将除第一检测区域以外的检测区域判断为第二检测区域。
判断高亮度区域时的“规定的基准“不特别地限定,但是本实施方式的高亮度区域判断部38将右侧检测区域和左侧检测区域A1、A2中的、将规定亮度以上的像素包含规定密度(像素密度)以上的区域判断为高亮度区域。由此,能够基于像素的值定量地判断高亮度区域。另外,本实施方式的高亮度区域判断部38能够根据检测区域A1、A2中的亮度值的分布中的规定亮度以上的像素的像素数的占有率、检测区域A1、A2中的亮度值的分布中的在以峰为中心的规定阈值内分布的像素的像素数的占有率、检测区域A1、A2中的亮度值的分布中与定义高亮度区域的分布图进行匹配时的相似度等来定义“规定的基准”。
另外,本实施方式的高亮度区域判断部38根据本车辆V在每个行驶地点的行驶方向和太阳的所在方向判断第一检测区域。具体地说,本实施方式的高亮度区域判断部38检测本车辆V的行驶方向和行驶地点,以可访问的方式存储对应关系381,该对应关系381是将包含高亮度区域的第一检测区域的左右标识符(用于识别右侧检测区域A1和左侧检测区域A2的附加信息)与本车辆V的行驶方向和太阳的所在方向之间的关系预先进行对应而得到的对应关系。另外,高亮度区域判断部38根据所检测出的本车辆V的行驶地点和将各地点处的太阳所在的方向对应于时刻得到的历法信息391,来以规定周期求出行驶地点处的太阳的所在方向。而且,高亮度区域判断部38基于行驶地点处的太阳的所在方向和本车辆V的行驶方向,参照对应关系381,将右侧检测区域A1和左侧检测区域A2中的某一方判断为包含高亮度区域的第一检测区域。由此,能够根据基于本车辆V与太阳的位置关系的环境来准确地判断包含高亮度区域的第一检测区域A1、A2。
在这种情况下,本实施方式的高亮度区域判断部38优选预先存储在由三维物体检测部33、37在检测区域A1、A2未检测出三维物体的情况下所参照的第一对应关系381(1)和在由三维物体检测部33、37在检测区域A1、A2检测出三维物体的情况下所参照的第二对应关系381(2)。这是因为即使太阳从相同的方向照射检测区域A1、A2,也会由于是否在检测区域A1、A2存在三维物体而形成高亮度区域的检测区域A1、A2不同。例如图20A所示在太阳SU处于西方向的情况下,在检测区域A1、A2不存在三维物体的情况下,包含高亮度区域的第一检测区域是右侧检测区域A1,与此相对地,如图20B所示那样同样地在太阳SU处于西方向的情况下,在检测区域A1、A2存在三维物体的情况下,包含高亮度区域的第一检测区域为左侧检测区域A2。
虽然不特别限定,但是在检测区域A1、A2不存在三维物体的情况下应用的第一对应关系381(1)中,在太阳的所在方向相对于本车辆的行进方向成规定角度(例如沿顺时针100度~170度:图20A所示的角度W1)的情况下,能够将对应关系定义为第一检测区域是右侧检测区域A1、第二检测区域是左侧检测区域A2。同样地,在检测区域A1、A2存在三维物体的情况下应用的第二对应关系381(2)中,在太阳的所在方向相对于本车辆的行进方向成规定角度(例如沿顺时针100度~170度:图20B所示的角度W1)的情况下,能够将对应关系定义为第一检测区域是左侧检测区域A2、第二检测区域是左侧检测区域A1。由此,能够与状况相应地准确地判断包含高亮度区域的检测区域A1、A2。此外,太阳的所在方向相对于本车辆的行进方向例如沿逆时针方向成100度~170度(图20A、图20B所示的角度W2)的情况也相同。
本实施方式的高亮度区域判断部38在获取到三维物体检测部33、37没有检测出三维物体的意思的检测结果的情况下,参照第一对应关系381(1),在获取到三维物体检测部33、37检测出三维物体的意思的检测结果的情况下,参照第二对应关系381(2),通过上述方法判断第一检测区域A1、A2。
另外,本实施方式的高亮度区域判断部38仅在太阳的高度小于规定高度的情况下,进行上述的参照对应关系381的第一检测区域的判断处理。虽然不特别限定,但是在太阳的高度为规定高度以下、例如65度以下、40度以下、或者20度以下的情况下,如日本的西照那样向检测区域A1、A2照射的光变强,可以说是容易形成高亮度区域的环境。具体地说,高亮度区域判断部38检测本车辆V的行驶地点和行驶时刻,参照将各地点处的太阳的高度与时刻进行对应得到的历法信息391,在所检测出的本车辆V的行驶地点处的太阳所在的高度为规定高度以下的情况下,参照对应关系381判断高亮度区域。在这种情况下,也可以在太阳的高度为规定值以下的时刻内(日出时刻、日落时刻)的情况下,参照对应关系381判断高亮度区域。这样,在本实施方式中,由于在太阳的高度低而容易形成高亮度区域的环境中进行使用对应关系381的第一检测区域的判断处理,因此能够降低处理成本并提高第一检测区域的检测精度。
顺便提及,通过具备搭载于本车辆V的GPS(GlobalPositioningSystem:全球定位系统)的位置检测装置50检测在本判断中使用的本车辆V的行驶地点。位置检测装置50能够使用搭载于本车辆V的导航装置的设备。能够基于检测位置随着时间的变化来检测行驶方向。另外,将各地点处的太阳所在的方向与时刻进行对应得到的历法信息能够预先存储到控制部39。
高亮度区域判断部38向控制部39输出判断为第一检测区域的右侧检测区域A1或左侧检测区域A2的左右标识符。左右标识符是用于指定第一检测区域的信息。
接着,说明控制部39。本实施方式的控制部39通过高亮度区域判断部38进行“右侧检测区域A1和左侧检测区域A2中的某一方包含满足规定的基准的高亮度区域”的判断,在获取到第一检测区域的左右标识符的情况下,生成在三维物体检测部33、37、三维物体判断部34中执行的控制命令。
本实施方式的控制部39抑制基于所判断出的包含高亮度区域的第一检测区域A1、A2的图像信息将所检测出的三维物体判断为是其它车辆VX,并且维持或促进基于右侧检测区域A1和左侧检测区域A2中的除第一检测区域以外的第二检测区域的图像信息将所检测出的三维物体判断为是其它车辆VX。
本实施方式的控制命令是如下命令:用于控制各部分的动作,使得抑制根据第一检测区域A1、A2的图像信息检测出三维物体、将所检测的三维物体判断为是其它车辆VX,维持或促进根据第二检测区域A1、A2的图像信息检测出三维物体将所检测的三维物体判断为是其它车辆VX。这是为了防止基于包含高亮度区域的检测区域A1、A2的图像错误检测出其它车辆VX。本实施方式的计算机30是电子计算机,因此可以将针对三维物体检测处理、三维物体判断处理的控制命令预先嵌入到各处理的程序中,也可以在执行时发送。本实施方式的控制命令可以是使将基于第一检测区域的图像信息而检测出的三维物体判断为其它车辆的处理中止、或者针对将所检测出的三维物体判断为不是其它车辆的结果的命令,也可以是使基于根据第一检测区域的图像信息而生成的差分波形信息来检测三维物体时的灵敏度降低的命令、对基于根据第一检测区域的图像信息而生成的边缘信息来检测三维物体时的灵敏度进行调整的命令。
另外,在本实施方式中,进一步缩小作为控制对象的图像信息的范围,不是抑制基于第一检测区域整体而是抑制基于与第一检测区域中所包含的高亮度区域对应的图像信息将所检测出的三维物体判断为是其它车辆VX。这样,能够仅关于与太阳光的反射像对应的图像信息调整检测灵敏度来进行检测抑制控制,因此关于不受太阳光影响的部分,能够以通常的检测灵敏度进行其它车辆VX的检测,因此能够提高对其它车辆VX的检测精度。
下面,说明控制部39所输出的各控制命令。
首先,说明基于差分波形信息检测三维物体的情况下的控制命令。如之前记述的那样,三维物体检测部33基于差分波形信息和第一阈值α检测三维物体。然后,在由高亮度区域判断部38判断出第一检测区域的情况下,本实施方式的控制部39向三维物体检测部33输出将在对第一检测区域的图像信息或第一检测区域内的高亮度区域的图像信息进行处理时应用的第一阈值α提高的控制命令。第一阈值α是指在图11的步骤S7中用于判断差分波形DWt的峰的第一阈值α(参照图5)。另外,控制部39向三维物体检测部33输出将在对第二检测区域的图像信息进行处理时应用的第一阈值α维持为相同的值或降低的控制命令。另外,控制部39能够向三维物体检测部33输出将与差分波形信息中的像素值的差分有关的阈值p提高的控制命令。
控制部39在判断出第一检测区域的情况下,判断为在检测区域A1、A2内形成的高亮度区域的像有可能被检测为表示三维物体的存在的信息。当在该状态下以一样的检测灵敏度检测三维物体时,尽管在第一检测区域A1、A2不存在其它车辆VX,但有时会将太阳光等强光反射的高亮度区域错误检测为行驶于检测区域A1、A2的其它车辆VX的像。因此,控制部39将第一阈值α或与生成差分波形信息时的像素值的差分有关的阈值p变高使得关于第一检测区域不容易检测出三维物体。这样,通过仅关于第一检测区域的图像信息的处理将判断的阈值变高、关于第二检测区域的图像信息的处理维持判断的阈值或将阈值变低,由此能够防止将在第一检测区域形成的高亮度区域的像错误检测为行驶于相邻的车道的其它车辆VX,并且在没有形成高亮度区域的第二检测区域也能够通过适当的阈值进行对其它车辆VX的检测。
另外,在由高亮度区域判断部38检测出第一检测区域A1、A2的情况下,本实施方式的控制部39能够向三维物体检测部33输出如下控制命令:使在第一检测区域A1、A2的鸟瞰视点图像的差分图像上对示出规定的差分的像素数进行计数并进行频数分布化得到的值输出得低,使在第一检测区域A1、A2的鸟瞰视点图像的差分图像上对示出规定的差分的像素数进行计数并进行频数分布化得到的值相同或输出得高。在鸟瞰视点图像的差分图像上对示出规定的差分的像素数进行计数并进行频数分布化得到的值是指在图11的步骤S5中生成的差分波形DWt的纵轴的值。控制部39当接收到第一检测区域A1、A2的判断结果时,由于判断为在检测区域A1、A2形成有高亮度区域,因此将差分波形DWt进行频数分布化得到的值变低使得根据该第一检测区域的图像信息不容易检测出三维物体。这样,通过降低基于第一检测区域A1、A2的图像信息的输出值、维持或提高基于第一检测区域A1、A2的图像信息的输出值,由此能够针对每个检测区域调整检测灵敏度。因此,能够防止将第一检测区域A1、A2的高亮度区域的像错误检测为是其它车辆VX,并防止将第二检测区域A1、A2的三维物体的像错误检测为不是三维物体。
接着,说明基于边缘信息检测三维物体的情况下的控制命令。当由高亮度区域判断部38判断出第一检测区域A1、A2时,本实施方式的控制部39向三维物体检测部37输出如下控制命令:基于第一检测区域A1、A2的图像信息将与在检测边缘信息时所使用的亮度有关的规定阈值提高、基于第二检测区域A1、A2的图像信息将与在检测边缘信息时所使用的亮度有关的规定阈值维持或降低。与在检测边缘信息时所使用的亮度有关的规定阈值是指图17的步骤S29中的用于判断对各关注点Pa的属性的连续性c的总和进行标准化得到的值的阈值θ、或者图18的步骤34中的用于评价边缘线的量的第二阈值β。控制部39能够向三维物体检测部33输出如下控制命令:基于第一检测区域A1、A2的图像信息使用于对在检测边缘线时所使用的阈值θ或边缘线的量进行评价的第二阈值β变高,基于第二检测区域A1、A2的图像信息使检测边缘线时所使用的阈值θ或者用于对边缘线的量进行评价的第二阈值β维持或变低。这样,通过仅关于第一检测区域将判断的阈值变高、关于第二检测区域将判断的阈值维持或变低,能够防止将形成在第一检测区域A1、A2的高亮度区域的像错误检测为其它车辆VX,并在没有形成高亮度区域的第二检测区域中也能够根据适当的阈值进行对其它车辆VX的检测。
另外,在由高亮度区域判断部38判断出第一检测区域A1、A2的情况下,本实施方式的控制部39向三维物体检测部37输出如下控制命令:将从第一检测区域A1、A2检测出的边缘信息的量输出得低,将从第二检测区域A1、A2检测出的边缘信息的量维持为相同的值或输出得高。检测出的边缘信息的量是指图17的步骤S29中的对各关注点Pa的属性的连续性c的总和进行标准化得到的值、或者图18的步骤34中的边缘线的量。当检测出第一检测区域A1、A2时,控制部39使对第一检测区域A1、A2的图像信息的各关注点Pa的属性的连续性c的总和进行标准化得到的值或边缘线的量变低、使对第二检测区域A1、A2的图像信息的各关注点Pa的属性的连续性c的总和进行标准化得到的值或边缘线的量维持或变高。这样,通过使基于第一检测区域A1、A2的图像信息的输出值降低、使基于第一检测区域A1、A2的图像信息的输出值维持或提高,由此能够针对每个检测区域调整检测灵敏度,因此能够防止将第一检测区域A1、A2的高亮度区域的像错误检测为是其它车辆VX,并防止将第二检测区域A1、A2的三维物体的像错误检测为不是三维物体。
本实施方式的三维物体检测装置1将基于第一检测区域A1、A2的三维物体检测处理的阈值提高或者将输出值降低,并且将基于第二检测区域A1、A2的三维物体检测处理的阈值降低或者将输出值提高,由此关于亮环境的第一检测区域A1、A2,能够防止将太阳光等强光的反射像(虚像)错误检测为是行驶于与本车辆的行驶车道相邻的邻近车道的其它车辆的像(实像),并且关于暗环境的第二检测区域A1、A2,能够防止将实际存在于邻近车道的其它车辆的像(实像)错误检测为不是其它车辆。
另外,本实施方式的三维物体检测装置1将基于第一检测区域A1、A2的三维物体检测处理的阈值提高或者将输出值降低,并且将基于第二检测区域A1、A2的三维物体检测处理的阈值降低或者将输出值提高,由此关于因其它车辆VX等的车身反射的光而检测出的亮度变高的第一检测区域A1、A2,能够将输出得高的三维物体的反射光(实像)正确地检测为是行驶于与本车辆的行驶车道相邻的邻近车道的其它车辆的像(实像),并且关于因其它车辆VX等的车身遮挡光而检测出的亮度变低的第二检测区域A1、A2,能够将输出得低的三维物体的反射光(实像)正确地检测为是实际存在于邻近车道的其它车辆的像(实像)。
下面,根据图21说明本实施方式的三维物体检测装置1的控制过程。
首先,在图21所示的步骤S41中,高亮度区域判断部38检测包含高亮度区域的第一检测区域A1、A2,将其判断为第一检测区域A1、A2。高亮度区域判断部38基于检测区域A1、A2的图像信息检测满足规定的基准的高亮度区域,在左右的检测区域A1、A2中的某一方包含该高亮度区域的情况下,将包含高亮度区域的检测区域A1、A2检测并判断为第一检测区域A1、A2。在判断为右侧检测区域A1是第一检测区域的情况下,左侧检测区域A2为第二检测区域。
在步骤S42中,在检测出第一检测区域A1、A2、即输出了第一检测区域A1、A2的判断结果的情况下,进入步骤S51,在未检测出第一检测区域A1、A2、即输出了未检测出第一检测区域A1、A2的意思的判断结果的情况下,进入步骤S43。
在步骤S51中,为了抑制由三维物体检测部33、37检测出三维物体或由三维物体判断部37判断为三维物体是其它车辆,控制部39将在各处理中使用的各阈值变得高于初始值、标准值及其它设定值(使得不容易进行检测),或者将与各阈值进行比较的输出值变得低于初始值、标准值及其它设定值(使得不容易进行检测)。此外,在控制部39进行促进处理的情况下,促进处理成为抑制处理和判断的控制。
具体的处理内容如下。
在差分波形信息为规定的第一阈值α以上时利用差分波形信息检测三维物体的三维物体检测部33检测出检测三维物体的情况下,控制部39生成将第一阈值α变高使得不容易检测出三维物体的控制命令,将该控制命令输出到三维物体检测部33。
同样地,在差分波形信息为规定的第一阈值α以上时三维物体检测部33检测出三维物体的情况下,控制部39生成将在鸟瞰视点图像的差分图像上对示出规定的差分的像素数进行计数并进行频数分布化得到的值变低并输出的控制命令,经该控制命令输出到三维物体检测部38。
另外,在利用差分波形信息检测三维物体的三维物体检测部33抽出表示阈值p以上的像素值的像素数作为示出规定的差分的像素数的情况下,控制部39生成将阈值p变高使得不容易检测出三维物体的控制命令,将该控制命令输出到三维物体检测手部38。
同样地,在三维物体检测部33抽出表示阈值p以上的像素值的像素数作为示出规定的差分的像素数的情况下,控制部39生成将沿着在视点变换为鸟瞰视点图像时三维物体倾倒的方向在差分图像上抽出的像素数变低并输出的控制命令,将该控制命令输出到三维物体检测部38。
在利用边缘信息检测三维物体的三维物体检测部37基于表示规定阈值t以上的亮度差的像素抽出边缘线的情况下,控制部39生成将规定阈值t变高使得不容易检测出三维物体的控制命令,将该控制命令输出到三维物体检测部37。
同样地,在利用边缘信息检测三维物体的三维物体检测部37基于表示规定阈值t以上的亮度差的像素抽出边缘线的情况下,控制部39生成将像素的亮度值变低并输出的控制命令,将该控制命令输出到三维物体检测部37。
在利用边缘信息检测三维物体的三维物体检测部37基于边缘信息中包含的具有阈值θ以上的长度的边缘线检测三维物体的情况下,控制部39生成将阈值θ变高使得不容易检测出三维物体的控制命令,将该控制命令输出到三维物体检测部37。
同样地,在利用边缘信息检测三维物体的三维物体检测部37基于边缘信息中包含的具有阈值θ以上的长度的边缘线检测三维物体的情况下,控制部39生成将所检测出的边缘信息的边缘线的长度的值变低并输出的控制命令,将该控制命令输出到三维物体检测部37。
在利用边缘信息检测三维物体的三维物体检测部37基于边缘信息中包含的规定长度以上的边缘线、例如具有阈值θ以上的长度的边缘线的条数是否为第二阈值β以上的判断来检测三维物体的情况下,控制部39生成将第二阈值β变高使得不容易检测出三维物体的控制命令,并将该控制命令输出到三维物体检测部37。
在利用边缘信息检测三维物体的三维物体检测部37基于边缘信息中所包含的规定长度以上的边缘线、例如具有阈值θ以上的长度的边缘线的条数是否为第二阈值β以上的判断来检测三维物体的情况下,控制部39生成将所检测出的规定长度以上的边缘线条数输出得低的控制命令,并将该控制命令输出到三维物体检测部37。
另外,在所检测出的三维物体的移动速度为预先设定的规定速度以上时三维物体判断部34将该三维物体判断为是其它车辆的情况下,控制部39生成使将三维物体判断为是其它车辆时的作为下限的规定速度变高使得不容易检测出三维物体的控制命令,并将该控制命令输出到三维物体判断部34。
同样地,在所检测出的三维物体的移动速度为预先设定的规定速度以上时三维物体判断部34将该三维物体判断为是其它车辆的情况下,控制部39生成使与将三维物体判断为是其它车辆时的作为下限的规定速度进行比较的三维物体的移动速度变低并输出的控制命令,并将该控制命令输出到三维物体判断部34。
另外,在所检测出的三维物体的移动速度小于预先设定的规定速度时三维物体判断部34将该三维物体判断为是其它车辆的情况下,控制部39生成使将三维物体判断为是其它车辆时的作为上限的规定速度变低的控制命令,并将该控制命令输出到三维物体判断部34。
同样地,在所检测出的三维物体的移动速度小于预先设定的规定速度时三维物体判断部34将该三维物体判断为是其它车辆的情况下,控制部39生成使与将三维物体判断为是其它车辆时的作为上限的规定速度进行比较的三维物体的移动速度变高的控制命令,并将该控制命令输出到三维物体判断部34。
此外,在此,“移动速度”包含三维物体的绝对速度以及三维物体相对于本车辆的相对速度。可以根据三维物体的相对速度计算三维物体的绝对速度,也可以根据三维物体的绝对速度计算三维物体的相对速度。
顺便提及,第一阈值α是在图11的步骤S7中用于判断差分波形DWt的峰的阈值。阈值p是用于抽出具有规定的像素值的像素的阈值。规定阈值t是用于抽出具有规定的亮度差的像素或边缘成分的阈值。阈值θ是对图17的步骤S29中的将各关注点Pa的属性的连续性c的总和进行标准化得到的值(边缘的长度)进行判断的阈值,第二阈值β是图18的步骤34中的对边缘线的量(条数)进行评价的阈值。这样,通过将判断的阈值变高,来调整检测灵敏度使得不容易检测出行驶于本车辆V的行驶车道附近的其它车辆VX,因此能够防止对其它车辆VX的错误检测。
本实施方式的控制部39向三维物体检测部33输出使在鸟瞰视点图像的差分图像上对示出规定的差分的像素数进行计数并进行频数分布化得到的值输出得低的控制命令。在鸟瞰视点图像的差分图像上对示出规定的差分的像素数进行计数并进行频数分布化得到的值是指在图11的步骤S5中生成的差分波形DWt的纵轴的值。另外,本实施方式的控制部39向三维物体检测部37输出将所检测出的边缘信息输出得低的控制命令。所检测出的边缘信息除了是图17的步骤S29中的对各关注点Pa的属性的连续性c的总和进行标准化得到的值即边缘线的长度以外,还是图18的步骤34中的边缘线的量。控制部39使对各关注点Pa的属性的连续性c的总和进行标准化得到的值或边缘线的量变低使得在下一次的处理中不容易检测出三维物体。这样,能够通过降低输出值来调整检测灵敏度使得不容易检测出行驶于本车辆V的行驶车道附近的其它车辆VX,因此能够防止对行驶于相邻的车道的其它车辆VX的错误检测。
如以上那样,本实施方式的控制部39将各阈值(第一阈值α、阈值θ、第二阈值β)变高和/或将输出值变低使得抑制根据第一检测区域A1、A2的图像信息将所检测出的三维物体判断为是其它车辆VX。该处理的对象可以是第一检测区域整体的图像信息,也可以设为第一检测区域整体的图像信息中的与高亮度区域对应的图像区域。另外,高亮度区域的亮度(最大亮度、平均亮度、标准偏差亮度)等越大,将各阈值(第一阈值α、阈值θ、第二阈值β)变得越高。
图22示出该亮度值与各阈值的关系的一例。高亮度区域的亮度越高,由于照射的太阳光等强光的反射而产生的虚像的边缘等容易明确地出现。通过像这样与高亮度区域的亮度相应地调整各阈值,在高亮度区域的亮度高的情况下,能够较强地抑制其它车辆检测,维持三维物体检测的精度。
在该步骤S51中,控制部39基于第二检测区域A1、A2的图像信息将各阈值(第一阈值α、阈值θ、第二阈值β)维持为相同的值或变低、和/或将输出值维持为相同的值或变高,使得所检测出的三维物体被判断为是其它车辆VX。本处理的对象是第二检测区域整体的图像信息。在步骤S51中,设定了阈值后就进入步骤S43。
另外也可以是,在步骤S42中检测出第一检测区域A1、A2、即在判断为产生了高亮度区域的情况下,进入步骤S47,遮蔽(从处理对象中排除)该高亮度区域的图像信息,并进入步骤S43。另外也可以是,在步骤S42中检测出第一检测区域A1、A2并输出了第一检测区域A1、A2的判断结果的情况下,进入步骤S48,中止本次进行的三维物体的检测处理。
三维物体检测装置1在接下来的步骤S43中,进行三维物体的检测处理。依照由上述的三维物体检测部33利用图11、图12的差分波形信息的处理、或者由三维物体检测部37利用图17、图18的边缘信息的处理进行该三维物体的检测处理。然后,在步骤44中由该三维物体检测部33、37在检测区域A1、A2中检测出三维物体的情况下进入步骤S45,判断为所检测出的三维物体是其它车辆VX。另一方面,在由三维物体检测部33、37在检测区域A1、A2没有检测出三维物体的情况下进入步骤S47,判断为在检测区域A1、A2不存在其它车辆VX。
如以上那样构成并发挥作用的本发明的本实施方式的三维物体检测装置1起到下面的效果。
(1)本实施方式的三维物体检测装置1在右侧检测区域A1和左侧检测区域A2中明亮度不同的环境的情况下,关于亮环境的第一检测区域A1、A2,能够防止将太阳光等强光的反射像(虚像)错误检测为是行驶于与本车辆的行驶车道相邻的邻近车道的其它车辆的像(实像),并且关于暗环境的第二检测区域A1、A2能够防止将实际存在于邻近车道的其它车辆的像(实像)错误检测为不是其它车辆。
另外,本实施方式的三维物体检测装置1在右侧检测区域A1和左侧检测区域A2中由于三维物体的存在而形成明亮度不同的环境的情况下,关于因其它车辆VX等的车身反射的光而检测的亮度变高的第一检测区域A1、A2能够将输出得高的三维物体的反射光(实像)正确地检测为是行驶于与本车辆的行驶车道相邻的邻近车道的其它车辆的像(实像),并且关于因其它车辆VX等车身遮挡光而检测的亮度变低的第二检测区域A1、A2能够将输出得低的三维物体的反射光(实像)正确地检测为是实际存在于邻近车道的其它车辆的像(实像)。
其结果,能够提供高精度地检测行驶于与本车辆的行驶车道相邻的邻近车道的其它车辆的三维物体检测装置。无论是在基于差分波形信息检测其它车辆VX的情况下还是在基于边缘信息检测其它车辆VX的情况下都同样地起到该效果。
(2)根据本实施方式的三维物体检测装置1,能够基于第一检测区域A1、A2的图像信息的像素的值定量地检测包含高亮度区域的第一检测区域A1、A2。
(3)根据本实施方式的三维物体检测装置1,能够根据基于本车辆V与太阳的位置关系的状况,检测包含高亮度区域的第一检测区域A1、A2。
(4)根据本实施方式的三维物体检测装置1,通过准备未检测出三维物体的情况下的第一对应关系和检测出三维物体的情况下的第二对应关系,能够根据基于本车辆V与太阳的位置关系的状况,准确地检测并判断包含高亮度区域的第一检测区域A1、A2。
(5)根据本实施方式的三维物体检测装置1,在太阳的高度小于规定高度的情况下,进行参照了对应关系381的第一检测区域的检测、判断处理,因此在太阳的高度低而向检测区域A1、A2照射的光强的情况下(在日本西照照射的情况下),进行利用对应关系381的第一检测区域的判断处理,因此能够降低处理成本并提高第一检测区域的检测精度。
(6)根据本实施方式的三维物体检测装置1,通过抑制基于与第一检测区域中所包含的高亮度区域对应的图像信息将所检测出的三维物体判断为是其它车辆VX,能够进一步缩小作为控制对象的图像信息的范围,因此关于不受太阳光等强光影响的部分,能够以通常的检测灵敏度进行对其它车辆VX的检测,因此能够提高对其它车辆VX的检测精度。
(7)根据本实施方式的三维物体检测装置1,在检测出第一检测区域A1、A2的情况下,通过将第一阈值α变高,能够调整检测灵敏度使得不容易检测出行驶于本车辆V的行驶车道附近的其它车辆VX,因此能够防止将形成在第一检测区域A1、A2的高亮度区域的像错误检测为是行驶于相邻的车道的其它车辆VX。
(8)根据本实施方式的三维物体检测装置1,在检测并判断出第一检测区域A1、A2的情况下,通过使生成差分波形信息时的输出值降低,能够调整检测灵敏度使得不容易检测出行驶于本车辆V的行驶车道附近的其它车辆VX,因此能够防止将第一检测区域A1、A2中所包含的高亮度区域的像错误检测为是行驶于相邻的车道的其它车辆VX。
(9)根据本实施方式的三维物体检测装置1,在检测并判断出第一检测区域A1、A2的情况下,通过将生成边缘信息时的判断的阈值变高,能够调整检测灵敏度使得不容易检测出行驶于本车辆V的行驶车道附近的其它车辆VX,因此能够防止将第一检测区域A1、A2中所包含的高亮度区域的像错误检测为是行驶于相邻的车道的其它车辆VX。
(10)根据本实施方式的三维物体检测装置1,在检测并判断出第一检测区域A1、A2的情况下,通过将生成边缘信息时的输出值降低,能够调整检测灵敏度使得不容易检测出行驶于本车辆V的行驶车道附近的其它车辆VX,因此能够防止将第一检测区域A1、A2中所包含的高亮度区域的像错误检测为是行驶于相邻的车道的其它车辆VX。
此外,在本实施方式的三维物体的检测方法中也能够获得与上述的三维物体检测装置1相同的作用和相同的效果。
上述摄像机10相当于本发明所涉及的摄像单元,上述视点变换部31相当于本发明所涉及的图像变换单元,上述对位部32和三维物体检测部33相当于本发明所涉及的三维物体检测单元,上述亮度差计算部35、边缘线检测部36以及三维物体检测部37相当于本发明所涉及的三维物体检测单元,上述三维物体判断部34相当于三维物体判断单元,上述高亮度区域判断部38相当于高亮度区域判断单元,上述控制部39相当于控制单元。
本实施方式中的对位部21将不同时刻的鸟瞰视点图像的位置以鸟瞰视点进行对位,得到该对位后的鸟瞰视点图像,但是能够以与检测对象的类型、所要求的检测精度相应的精度进行该“对位”处理。可以是以同一时刻和同一位置为基准进行对位的严格的对位处理,也可以是掌握各鸟瞰视点图像的坐标这样的程度的缓和的对位处理。
附图标记说明
1:三维物体检测装置;10:摄像机;20:车速传感器;30:计算机;31:视点变换部;32:对位部;33、37:三维物体检测部;34:三维物体判断部;35:亮度差计算部;36:边缘检测部;38:高亮度区域判断部;39:控制部;40:拖影检测部;50:位置检测装置;a:视角;A1、A2:检测区域;CP:交点;DP:差分像素;DWt、DWt’:差分波形;DWt1~DWm、DWm+k~DWtn:小区域;L1、L2:触地线;La、Lb:三维物体倾倒的方向上的线;P:摄像图像;PBt:鸟瞰视点图像;PDt:差分图像;MP:掩模图像;S:拖影;SP:拖影图像;SBt:拖影鸟瞰视点图像;V:本车辆;VX:其它车辆。

Claims (13)

1.一种三维物体检测装置,其具备:
摄像单元,其拍摄包含车辆后方的右侧检测区域和左侧检测区域的区域;
三维物体检测单元,其基于由上述摄像单元获取到的图像,检测三维物体;
高亮度区域判断单元,其将上述右侧检测区域或上述左侧检测区域中的、包含满足规定的基准的高亮度区域的某一方判断为第一检测区域;以及控制单元,其抑制上述第一检测区域中的上述三维物体的检测,维持或促进作为上述右侧检测区域或上述左侧检测区域中的另一方的第二检测区域中的上述三维物体的检测。
2.根据权利要求1所述的三维物体检测装置,其特征在于,还具备:
图像变换单元,其将由上述摄像单元获得的图像视点变换为鸟瞰视点图像;以及
三维物体判断单元,其判断由上述三维物体检测单元检测出的三维物体是否为其它车辆,
其中,上述三维物体检测单元将由上述图像变换单元获得的不同时刻的鸟瞰视点图像的位置以鸟瞰视点进行对位,在该对位后的鸟瞰视点图像的差分图像上,沿着视点变换为上述鸟瞰视点图像时三维物体倾倒的方向对在上述差分图像上亮度差示出规定的差分的像素数进行计数并进行频数分布化,由此生成差分波形信息,根据该差分波形信息检测三维物体,
上述控制单元抑制根据所检测出的上述第一检测区域的图像信息检测出上述三维物体、或者将该三维物体判断为是上述其它车辆,维持或促进根据上述右侧检测区域或上述左侧检测区域中的除上述第一检测区域以外的第二检测区域的图像信息检测出上述三维物体、或者将该三维物体判断为是上述其它车辆。
3.根据权利要求1所述的三维物体检测装置,其特征在于,还具备:
图像变换单元,其将由上述摄像单元获得的图像视点变换为鸟瞰视点图像;以及
三维物体判断单元,其判断由上述三维物体检测单元检测出的三维物体是否为其它车辆,
其中,上述三维物体检测单元在由上述图像变换单元获得的鸟瞰视点图像上,沿着在视点变换为鸟瞰视点图像时三维物体倾倒的方向检测包含相邻的图像区域的亮度差为规定差分以上的像素的边缘成分,根据从该边缘成分导出的边缘信息检测三维物体,
上述控制单元抑制根据所检测出的上述第一检测区域的图像信息检测出上述三维物体、或者将该三维物体判断为是上述其它车辆,维持或促进根据上述右侧检测区域或上述左侧检测区域中的除上述第一检测区域以外的第二检测区域的图像信息检测出上述三维物体、或者将该三维物体判断为是上述其它车辆。
4.根据权利要求1~3中的任一项所述的三维物体检测装置,其特征在于,
上述高亮度区域判断单元将上述右侧检测区域或上述左侧检测区域中的包含高亮度区域的检测区域检测为第一检测区域,该高亮度区域将规定亮度以上的像素包含规定密度以上。
5.根据权利要求1~3中的任一项所述的三维物体检测装置,其特征在于,
上述高亮度区域判断单元从上述车辆侧获取该车辆的行驶方向和行驶地点,
参照将被预测出包含高亮度区域的第一检测区域的左右标识符预先与上述车辆的行驶方向和太阳的所在方向之间的关系对应而得到的对应关系,
根据基于获取到的上述行驶地点和将各地点处的太阳所在的方向与时刻对应而得到的历法信息求出的上述行驶地点处的太阳的所在方向以及上述检测出的上述车辆在上述行驶地点处的上述行驶方向,来判断上述右侧检测区域或上述左侧检测区域中的包含高亮度区域的第一检测区域。
6.根据权利要求5所述的三维物体检测装置,其特征在于,
上述对应关系包含由上述三维物体检测单元没有检测出三维物体的情况下的第一对应关系和由上述三维物体检测单元检测出三维物体的情况下的第二对应关系,
上述高亮度区域判断单元在获取到上述三维物体检测单元没有检测出三维物体的意思的检测结果的情况下,参照上述第一对应关系来判断上述第一检测区域,在获取到上述三维物体检测单元检测出三维物体的意思的检测结果的情况下,参照上述第二对应关系来判断上述第一检测区域。
7.根据权利要求5所述的三维物体检测装置,其特征在于,
上述高亮度区域判断单元检测上述车辆的行驶地点和行驶时刻,参照将各地点处的太阳的高度与时刻对应而得到的历法信息,在上述检测出的上述车辆的上述行驶地点处的太阳所在的高度小于规定高度的情况下,参照上述对应关系判断高亮度区域。
8.根据权利要求2所述的三维物体检测装置,其特征在于,
上述三维物体检测单元根据上述差分波形信息和第一阈值α检测三维物体,
在由上述高亮度区域判断单元判断出上述第一检测区域的情况下,上述控制单元向上述三维物体检测单元输出如下控制命令:将进行基于与上述第一检测区域对应的图像信息的三维物体检测处理时的上述第一阈值α变高使得不容易检测出上述三维物体,将进行基于与上述第二检测区域对应的图像信息的三维物体检测处理时的上述第一阈值α变低使得容易检测出上述三维物体或维持相同的值。
9.根据权利要求2所述的三维物体检测装置,其特征在于,
在由上述高亮度区域判断单元判断出上述第一检测区域的情况下,上述控制单元向上述三维物体检测单元输出如下控制命令:将在基于与上述第一检测区域对应的图像信息的三维物体检测处理中对在上述鸟瞰视点图像的差分图像上示出规定的差分的像素数进行计数并进行频数分布化得到的值变低并输出,将在基于与上述第二检测区域对应的图像信息的三维物体检测处理中对在上述鸟瞰视点图像的差分图像上示出规定的差分的像素数进行计数并进行频数分布化得到的值变高并输出或以相同的值输出。
10.根据权利要求3所述的三维物体检测装置,其特征在于,
上述三维物体检测单元根据上述边缘信息和第二阈值β检测三维物体,
在由上述高亮度区域判断单元判断出上述第一检测区域的情况下,上述控制单元向上述三维物体检测单元输出如下控制命令:将进行基于与上述第一检测区域对应的图像信息的三维物体检测处理时的上述第二阈值β变高使得不容易检测出上述三维物体,将进行基于与上述第二检测区域对应的图像信息的三维物体检测处理时的上述第二阈值β变低使得容易检测出上述三维物体或维持相同的值。
11.根据权利要求3所述的三维物体检测装置,其特征在于,
在由上述高亮度区域判断单元判断出上述第一检测区域的情况下,上述控制单元向上述三维物体检测单元输出如下控制命令:将在基于与上述第一检测区域对应的图像信息的三维物体检测处理中检测出的边缘信息的量变低并输出,将在基于与上述第二检测区域对应的图像信息的三维物体检测处理中检测出的边缘信息的量输出得高或以相同的值输出。
12.根据权利要求1所述的三维物体检测装置,其特征在于,
上述控制单元抑制根据与上述第一检测区域中的上述高亮度区域对应的图像信息将所检测出的上述三维物体判断为是其它车辆。
13.根据权利要求2或3所述的三维物体检测装置,其特征在于,
上述控制单元抑制根据与上述第一检测区域中的上述高亮度区域对应的图像信息将所检测出的上述三维物体判断为是上述其它车辆。
CN201380040037.0A 2012-07-27 2013-07-24 三维物体检测装置 Active CN104508728B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012166516 2012-07-27
JP2012-166516 2012-07-27
PCT/JP2013/070010 WO2014017521A1 (ja) 2012-07-27 2013-07-24 立体物検出装置

Publications (2)

Publication Number Publication Date
CN104508728A CN104508728A (zh) 2015-04-08
CN104508728B true CN104508728B (zh) 2016-06-15

Family

ID=49997330

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380040037.0A Active CN104508728B (zh) 2012-07-27 2013-07-24 三维物体检测装置

Country Status (10)

Country Link
US (1) US9349059B2 (zh)
EP (1) EP2879115B1 (zh)
JP (1) JP5874831B2 (zh)
CN (1) CN104508728B (zh)
BR (1) BR112015001861B1 (zh)
IN (1) IN2015KN00339A (zh)
MX (1) MX341888B (zh)
MY (1) MY156198A (zh)
RU (1) RU2571367C1 (zh)
WO (1) WO2014017521A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103080976B (zh) * 2010-08-19 2015-08-05 日产自动车株式会社 三维物体检测装置和三维物体检测方法
CN107206901B (zh) * 2015-02-20 2019-06-14 Jvc 建伍株式会社 车辆用显示装置
JP6631796B2 (ja) * 2016-05-31 2020-01-15 パナソニックIpマネジメント株式会社 移動物体検出装置、プログラムおよび記録媒体
JP6779365B2 (ja) * 2017-03-30 2020-11-04 三菱電機株式会社 物体検出装置及び車両
JP6548312B2 (ja) * 2017-09-19 2019-07-24 株式会社Subaru 画像処理装置
CN110775049A (zh) * 2018-07-27 2020-02-11 上海汽车集团股份有限公司 一种泊车系统及泊车控制方法
JP7327992B2 (ja) 2019-05-10 2023-08-16 フォルシアクラリオン・エレクトロニクス株式会社 立体物検出装置、及び立体物検出方法
CN114730526A (zh) * 2019-11-28 2022-07-08 三菱电机株式会社 物体识别装置、物体识别方法及物体识别程序

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
US6891563B2 (en) * 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
EP1199225B1 (en) * 2000-05-12 2009-07-15 Kabushiki Kaisha Toyota Jidoshokki Vehicle backing support apparatus
RU2370817C2 (ru) * 2004-07-29 2009-10-20 Самсунг Электроникс Ко., Лтд. Система и способ отслеживания объекта
JP4270183B2 (ja) * 2005-08-22 2009-05-27 トヨタ自動車株式会社 白線検出装置
JP2008219063A (ja) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2008227646A (ja) 2007-03-09 2008-09-25 Clarion Co Ltd 障害物検知装置
EP3594853A3 (en) * 2007-05-03 2020-04-08 Sony Deutschland GmbH Method for detecting moving objects in a blind spot region of a vehicle and blind spot detection device
JP5108605B2 (ja) * 2008-04-23 2012-12-26 三洋電機株式会社 運転支援システム及び車両
US8605947B2 (en) * 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
US8208022B2 (en) * 2008-06-05 2012-06-26 Lg Electronics Inc. Apparatus and method for removing blooming of camera image
RU2388010C1 (ru) * 2008-08-28 2010-04-27 Государственное унитарное предприятие "Конструкторское бюро приборостроения" Система сопровождения подвижных объектов
JP4876118B2 (ja) 2008-12-08 2012-02-15 日立オートモティブシステムズ株式会社 立体物出現検知装置
JP5035284B2 (ja) * 2009-03-25 2012-09-26 株式会社日本自動車部品総合研究所 車両周辺表示装置
JP2010256995A (ja) * 2009-04-21 2010-11-11 Daihatsu Motor Co Ltd 物体認識装置
US20120147188A1 (en) * 2009-09-03 2012-06-14 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
JP4970516B2 (ja) * 2009-09-30 2012-07-11 日立オートモティブシステムズ株式会社 周囲確認支援装置
JP5035643B2 (ja) * 2010-03-18 2012-09-26 アイシン精機株式会社 画像表示装置
JP5251927B2 (ja) 2010-06-21 2013-07-31 日産自動車株式会社 移動距離検出装置及び移動距離検出方法
CN103080976B (zh) * 2010-08-19 2015-08-05 日产自动车株式会社 三维物体检测装置和三维物体检测方法
JP5682304B2 (ja) * 2010-12-27 2015-03-11 トヨタ自動車株式会社 画像提供装置
JP5370413B2 (ja) * 2011-06-06 2013-12-18 株式会社デンソー 認識対象検出装置
JP5892876B2 (ja) * 2011-07-28 2016-03-23 クラリオン株式会社 車載用環境認識装置

Also Published As

Publication number Publication date
IN2015KN00339A (zh) 2015-07-10
WO2014017521A1 (ja) 2014-01-30
MX341888B (es) 2016-09-07
EP2879115A1 (en) 2015-06-03
MX2015001230A (es) 2015-04-10
MY156198A (en) 2016-01-20
BR112015001861A2 (pt) 2019-12-31
JPWO2014017521A1 (ja) 2016-07-11
BR112015001861B1 (pt) 2022-05-31
EP2879115A4 (en) 2015-12-23
EP2879115B1 (en) 2018-09-05
US9349059B2 (en) 2016-05-24
RU2571367C1 (ru) 2015-12-20
JP5874831B2 (ja) 2016-03-02
US20150125031A1 (en) 2015-05-07
CN104508728A (zh) 2015-04-08

Similar Documents

Publication Publication Date Title
CN104508728B (zh) 三维物体检测装置
Song et al. Lane detection and classification for forward collision warning system based on stereo vision
US11318928B2 (en) Vehicular automated parking system
CN108496178B (zh) 用于估计未来路径的系统和方法
CN104508723B (zh) 图像处理装置
CN103797529B (zh) 三维物体检测装置
CN104509100B (zh) 三维物体检测装置以及三维物体检测方法
CN104246821B (zh) 三维物体检测装置和三维物体检测方法
CN104509102A (zh) 三维物体检测装置和异物检测装置
CN104509101A (zh) 三维物体检测装置和三维物体检测方法
CN104508727B (zh) 三维物体检测装置和三维物体检测方法
US20180225529A1 (en) Hazard detection from a camera in a scene with moving shadows
CN104012081B (zh) 三维物体检测装置
CN104509099B (zh) 三维物体检测装置以及三维物体检测方法
CN104508722A (zh) 车载用周围环境识别装置
CN104508726A (zh) 三维物体检测装置和三维物体检测方法
CN104685866A (zh) 三维物体检测装置以及三维物体检测方法
KR20200060194A (ko) 차선들의 깊이값을 예측하는 방법, 3차원 차선들을 출력하는 방법 및 그 장치
JP7135665B2 (ja) 車両制御システム、車両の制御方法及びコンピュータプログラム
CN112115889B (zh) 基于视觉的智能车运动目标检测方法
KR101568745B1 (ko) 적외선 영상 기반의 차량 보조 장치 및 방법
JP5783319B2 (ja) 立体物検出装置及び立体物検出方法
JP3762406B2 (ja) 車輌用走行案内装置
Jakob et al. Camera-based on-road detections for the visually impaired
JP5668891B2 (ja) 立体物検出装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant