CN103455812B - 目标识别系统和目标识别方法 - Google Patents

目标识别系统和目标识别方法 Download PDF

Info

Publication number
CN103455812B
CN103455812B CN201310213718.4A CN201310213718A CN103455812B CN 103455812 B CN103455812 B CN 103455812B CN 201310213718 A CN201310213718 A CN 201310213718A CN 103455812 B CN103455812 B CN 103455812B
Authority
CN
China
Prior art keywords
identification
region
target
image
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310213718.4A
Other languages
English (en)
Other versions
CN103455812A (zh
Inventor
关海克
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of CN103455812A publication Critical patent/CN103455812A/zh
Application granted granted Critical
Publication of CN103455812B publication Critical patent/CN103455812B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种目标识别系统(200)和目标识别方法,可操作地与捕获目标识别系统(200)前方的区域的图像成像设备(101)相连接,用于识别一个或多个识别目标(A,C,E),目标识别系统包括:识别区域检测器(204),用于从捕获的图像中检测多个识别区域(601,602,603);识别加权单元(205),用于加权识别目标图像存在于通过识别区域检测器(204)检测的每个识别区域(601,602,603)中的可能性;以及目标识别处理器(206),用于基于分配给各个识别区域(601,602,603)的识别加权来识别特定识别区域(601)中的一个或多个识别目标(A,C,E)。

Description

目标识别系统和目标识别方法
技术领域
本发明涉及一种安装在车辆中用于识别一个或多个识别目标的目标识别系统,以及由该目标识别系统执行的识别方法。
背景技术
目前,基于在车辆前方区域捕获的图像来识别障碍的车载识别系统已经广泛地应用于驾驶员支持系统,例如自适应巡航控制(Adaptive Cruise Control,ACC),以减轻驾驶员的负担。
驾驶员支持系统提供各种功能,包括:用于警告驾驶员采取正确动作以防止碰撞或减轻碰撞影响的制动控制和报警功能、用于维持车辆之间的最小安全距离的行驶速度调节功能、以及用于防止车辆偏离到另一条车道的防止偏离功能。
在日本专利JP-2008-146549-A中,公开了通过基于由成像设备捕获的车辆前方区域的图像来识别目标来试图减轻车辆驾驶员的负担的驾驶员支持系统。为了识别显示在捕获的图像中的目标,要从捕获的图像中检测目标的色彩和空间频率。通过对检测到的空间频率积分生成空间频率分布,来检测空间频率的特性。之后,通过将检测到的目标色彩和空间频率特性与预定的目标色彩和空间频率特性相比较来识别识别目标。
为了实现驾驶员支持系统,必须精确地识别车辆的路线上的障碍。然而,上述的驾驶员支持系统中,捕获的图像可能包括与识别目标相似的物体的图像。系统执行相同的预定识别处理,来将相似的物体的图像的色彩和空间频率特征与识别目标的色彩和空间频率特征相比较。因此,与识别目标相似的物体的图像可能被误认为识别目标的图像,这使得驾驶员支持系统难以像预期那样的运行。
发明内容
在本披露的一个示例性实施例中,提供了一种目标识别系统,可操作地与捕获目标识别系统前方的区域的图像的成像设备相连接,以识别一个或多个识别目标。所述目标识别系统包括识别区域检测器、识别加权单元和目标识别处理器:识别区域检测器从所述捕获的图像中检测多个识别区域。识别加权单元加权识别目标的图像存在于通过所述识别区域检测器检测到的每个识别区域中的可能性。目标识别处理器基于分配给所述各个识别区域的识别加权来识别特定识别区域中的所述一个或多个识别目标。
在本披露的另一个方面,提供了一种由上述目标识别系统执行的目标识别方法。
附图说明
当结合附图参考以下的具体实施方式时,将会很容易地获得同时也会变得更好地理解本披露的更完整的理解及其很多附加的效果,其中:
图1是表示包含根据本披露的目标识别系统的车载控制系统的示意图;
图2是表示图1所示的成像单元和图像分析单元的结构的图示;
图3是表示从与光传输方向正交的方向上观看图2所示的光滤波器的示意透视图;
图4是目标识别系统的结构的框图;
图5是由目标识别系统执行的目标识别处理的流程图;
图6是立体图像的一个例子;
图7是图1所示的立体照相机中的测距的基本原理图;
图8是包括识别目标区域的多个矩形候选集的捕获图像;
图9A是包括多个矩形块的图像;
图9B是表示在视差上的频率值分布的图形;
图9C是表示检测的路面区域的图像;
图10是表示识别加权的设置表格的一个例子的表格;
图11是表示识别加权的设置表格的一个例子的表格;
图12示出了包括多个矩形块的图像;
图13A-13D示出了在矩形块中的特征图案的例子;
图14是表示目标识别处理器的结构的图示;
图15是包括权重识别区域、路面区域和识别目标区域的矩形候选集的图像的一个例子;
图16是包括权重识别区域、路面区域和识别目标区域的矩形候选集的图像的另一个例子;以及
图17是表示立体照相机系统的硬件结构的框图。
具体实施方式
在描述图中示出的优选实施例的过程中,为了清楚的目的采用了特定术语。但是,本专利说明书的披露不试图限于所选择的特定术语,且需要理解的是,每个特定元素包括所有的具有相同功能、以相似方式操作和实现相似结果的技术等价物。现在参考附图,其中贯穿几个视图中的相似的参考数字表示相同的或相应的部件,特别对于图1至图17,描述了根据本披露的示例性实施例的目标识别系统。
首先,车载控制系统包括作为车载系统的目标识别系统。需要注意的是,根据本披露的目标识别系统不限于车载控制系统,因此,例如,目标识别系统可以用于基于捕获的图像来检测目标的目标检测设备。
图1是表示包括根据本披露的目标识别系统200的车载控制系统106的示意图。车载控制系统106根据目标的识别来控制如小汽车之类的车辆100中的各种设备,其中目标的识别是使用由安装在车辆100中的成像单元101获取的车辆100前方路面的捕获图像来实现的。
在图1中,车载控制系统106包括成像单元101、图像分析单元102和车辆行驶控制单元104。成像单元101作为捕获设备,用于捕获在行进方向上的车辆100前方区域的图像。例如,成像单元101设置在接近车辆100的后视镜处,后视镜接近于挡风玻璃103处。各种数据,如,由成像单元101获取的捕获数据被输入到作为图像处理器的图像分析单元102。图像分析单元102分析从成像单元101发送的数据,计算车辆100前方的另一车辆的位置、方向和距离,并且检测作为车道边界的分界线。当检测到另一车辆(前方车辆、迎面而来的车辆)时,基于亮度图像将另一车辆识别为在路面上的识别目标。
另外,图像分析单元102的计算结果被发送至车辆行驶控制单元104。车辆行驶控制单元104基于识别目标的检测执行行驶支持控制以报告警告并控制车辆100的转向和制动,其中,识别目标例如是其他车辆和行人。车辆行驶控制单元104提供各种功能,包括:用于警告驾驶员执行正确动作以防止碰撞或减轻碰撞影响的制动控制和报警功能、以及用于通过使用如刹车和方向盘之类的控制设备来维持车辆之间的最小安全距离的行驶速度调节功能。
图2是表示成像单元101和图像分析单元102的结构的图示。成像单元101是立体照相机系统,包括两个照相机110A和110B,这两个照相机110A和110B具有相似的结构。照相机110A和110B分别包括捕捉透镜111A和111B、光滤波器112A和112B、以及图像传感器113A和113B,图像捕获元件在图像传感器113A和113B上成二维排列。成像单元101输出亮度数据。
此外,成像单元101包括由现场可编程门阵列(FPGA)组成的处理硬件单元120。处理硬件单元120包括视差计算器121,用于计算在捕获的图像之间的相应部分的视差,以基于成像单元110A和110B分别输出的亮度图像数据获取视差数据。在本文中,当由成像设备110A和110B中的一个成像设备获取的一个捕获图像是参考图像、而由成像设备110A和110B中的另一个成像设备获取的另一个捕获图像是比较图像时,计算特定区域的视差作为与在参考图像中的特定图像区域相关的、在比较图像中的特定图像区域的位置偏差。使用三角基本原理,可以基于计算的视差计算从立体照相机系统到与捕获的图像区域中的特定图像区域对应的相同目标的距离。
图像分析单元102包括存储器130和微处理器(MPU)140。存储器130存储成像单元101输出的亮度图像数据和视差图像数据。MPU140安装执行识别处理来识别目标并控制视差计算的软件。
图3是从与光传输方向正交的方向上观看的光滤波器112A和112B以及图像传感器113A和113B的示意透视图。每个图像传感器113A和113B由如电荷耦合器件(CCD)和互补金属氧化物半导体(CMOS)组成,且图像捕捉元件(光接收元件)由光电二极管113a形成。光电二极管113a呈二维排列,用于图像传感器113A和113B中的每个成像像素。为了提高聚焦效率,微透镜113b设置在光电二极管113a的入射侧。通过由引线接合法结合的印刷线路板(PWB)连接图像传感器113A和113B,形成传感器基底114A和114B。
以下结合图4描述由成像单元101和图像分析单元102(目标识别系统200)执行的目标识别处理。图4是表示根据本实施例的目标识别系统200的结构的框图。在图4中,目标识别系统200包括立体图像输入单元201,亮度图像输入单元202、视差图像计算器203、路面区域检测器204、识别加权单元205、识别目标候选检测器209、目标识别处理器206、识别目标候选辞典207和目标识别结果输出单元208。
亮度图像输入单元202接收来自立体图像输入单元201的立体图像的右侧图像或左侧图像的亮度图像。输入的立体图像和亮度图像存储在立体照相机系统101的存储器130中。视差图像计算器203计算捕获目标的视差(视差图像),即,右侧图像与左侧图像之间聚焦位置的差异。路面区域检测器204,用作识别区域检测器,通过使用由视差图像计算器203计算的视差图像从捕获的图像检测路面区域。识别加权单元205将识别加权分给各区域,如路面区域或路面区域之外的其余区域,其中,路面区域之外的其余区域例如是人行道区域、路边分隔带区域或背景区域。例如,当识别目标是另一车辆时,识别加权单元205将识别加权1分配给路面区域,将识别加权0分配给其余区域(其他区域)。识别目标候选检测器209从亮度图像输入单元202输入的亮度图像中获取识别目标区域的候选集。
之后,目标识别处理器206执行识别处理,以从特定图像区域的识别目标区域的候选集中识别识别目标,在该特定图像区域中,识别加权单元205加权了识别目标的图像存在于由识别目标检测器209提取的识别目标区域的候选集中的大的可能性。识别目标候选辞典207由如支持向量机(SVM)之类的机器学习方法生成,并且预先生成目标识别的图像采样学习数据。识别目标候选辞典207被生成用于各个识别目标。目标识别处理器206执行识别处理。目标识别处理器206使用识别目标候选辞典207来识别识别目标。目标识别结果输出单元208输出识别目标的识别结果。
以下结合图5来描述目标识别系统200的操作流程。图5是示出由目标识别系统200执行的目标识别处理的流程图。在步骤S101,将立体图像从立体照相机101输入至立体图像输入单元101(参见图4)。图6是立体图像的一个例子。立体图像中的相同主题在右侧图像和左侧图像中位于不同的成像位置上。
之后,在步骤S102,亮度图像输入单元202输出右侧图像或左侧图像的亮度图像。输入的立体图像和亮度图像被存储在立体照相机系统的存储器516中。
在步骤S103,识别目标候选检测器209基于存储在立体照相机系统的存储器中的亮度图像,识别存在识别目标的识别目标区域的候选集。
随着这些处理,在步骤S104,视差图像计算器203利用从立体图像输入单元201输入的立体图像来计算视差,其中,视差是在立体图像的对象中右侧图像和左侧图像的图像形成位置之间的差异。更具体地,使用块匹配方法,基于由左侧图像透镜111A和右侧图像透镜111B形成的右侧图像和左侧图像之间的相同区域,来计算视差被作为像素值处理的视差图像。
块匹配方法是将右侧图像和左侧图像划分为多个块并基于多个块来计算视差的方法,在多个块中,右侧图像和左侧图像之间的相似度是最大的并且右侧图像和左侧图像之间的块是匹配的。例如,将具有1280×960像素的图像划分为5×5像素大小的多个块。之后,利用各个块计算视差。块尺寸的最佳值可以通过经验来调整设置。
在图7所示的一个例子中,△1和△2表示从图像中心位置到右侧图像和左侧图像的实际图像位置的距离,实际图像位置显示为捕获的目标中的点O。因此,可以通过将距离△1和距离△2相加来获得视差△(△=△1+△2)。从而,视差图像在对应的像素位置上具有视差。
在步骤S105,路面区域检测器204(图4)利用由视差图像计算器203获取的视差图像来生成图9B所示的水平线视差直方图。水平线视差直方图是表示通过对包含在图9A所示的视差图像的单个水平线中的视差积分而获得的直方图。也就是说,图9B的图形表示在视差上的频率分布H(△,y)。在图9A中,水平轴表示视差△,垂直轴表示视差图像。水平线视差直方图的各个像素的值与在视差图像的高度“y”上的单条线的直方图值H(△,y)相对应。当存在路面区域时,由于全部视差像素聚集在相同的视差△y,因此离路面高度y处的信号水平线上的视差直方图H具有很大的值。
在路面区域中,各个视差图像的水平线在图9B的水平线视差直方图上是不变的,而视差逐渐变化,并且直方图值H(△,y)排列在水平线视差直方图的直线上。在检测到水平线视差直方图的直线上排列的像素之后,在图9A所示的视差图像中找到(映射处理)位于星光线上的像素。也就是说,通过使水平线视差直方图的直线上排列的像素与视差图像的路面图像上的像素相关,能够识别路面区域301的边界。
当识别了路面区域301上的点之后,通过在各个点之间执行插值处理,可以检测到类似于图9C所示的整个路面区域302。更具体地,路面区域检测器204对水平线视差直方图上的每条线获取视差的视差分布信息。之后,利用最小二乘法和霍夫变换法,路面区域检测器204通过近似处理将线视差信息的像素分布转换为近似直线数据。
获取的图9B的近似直线具有梯度,在与视差图像的较低的部分对应的水平线视差直方图中,该梯度的视差随着位置在图像中的上移而变小。也就是说,图9B的曲线表示位于近似直线上或接近近似直线的像素(在视差图像中的像素)以几乎相同的距离存在于视差图像的各条线中并且具有最高的占用率,并且这些像素显示了捕获目标的位置随着曲线位置的上升而变得不断地远离车辆100。
即,位于水平线视差直方图中的近似直线上或接近近似直线的像素表示路面区域301的边界。因此,通过识别位于水平线视差直方图中的近似直线上或接近近似直线的像素,可以检测整个路面区域302。
需要注意的是,虽然利用上述方法可以精确地执行路面区域的检测,但是,也可以通过从亮度图像识别路边分隔带(side strip)和分割线(dividing line)、以及识别存在连续路边分隔带和连续分割线的区域来检测路面区域。
由于立体图像输入单元201捕获车辆100前方的图像,因此在类似于图9C所示的视差图像的内容中,路面区域在图像的较低区域是最大的部分,且随着图像的上升,路面区域的视差会变小。另外,在相同的水平线上,构成路面区域的像素具有几乎相同的视差。因此,通过视差图像计算器203输出的各个水平线的视差分布信息来识别的、分布在水平线视差直方图的近似直线上或接近于该近似直线的像素(分布)与构成路面区域的像素的特征相关。因而,可以精确地假定,分布在图9B所示的近似直线上或接近于该近似直线的像素是构成路面区域的像素。
如上所述,路面区域检测器204识别显示了被显示的路面区域的图像,并将由识别的图像像素占据的图像区域检测作为路面区域。之后,当检测路面区域时,在步骤S106,路面区域检测器204还基于车辆路面区域检测车辆路面之外的其余图像区域,如人行道和路边分隔带。
在步骤S107,识别加权单元205将识别加权分配给路面区域和其余区域,其余区域例如是人行道、路边和基于前方背景的背景区域。即,识别加权单元205加权识别目标的图像存在于由路面区域检测器204检测的各个识别区域中的可能性。在本实施例中,如图10所示,当识别出如路面上的车辆和行人之类的识别目标的图像时,将识别加权1分配给路面,并将识别加权0分给路面区域之外的其余图像区域。虽然识别加权0和1如上所述的进行分配,但可选的,小数识别加权也可以如图11所示的进行分配。识别的参数可以根据识别加权的大小进行调整。
当识别加权非0时(步骤S108,是),在步骤S109,目标识别处理器206基于由识别加权单元205提供的分给检测到的区域的识别加权,利用识别目标候选辞典207从识别目标区域候选集识别一个或多个识别目标。之后,在步骤S110,识别结果输出单元208输出识别处理结果。
在本文中,以下描述根据本披露的识别识别目标的具体的识别处理。首先,为了识别识别目标,如图12所示,与捕获的图像中的目标图像相关联地设置矩形块或方形块。通过矩形的左上角坐标(Xs,Ys)和右下角坐标(Xe,Ye)确定捕获的图像中的矩形块的位置和尺寸。之后,利用大矩形块1扫描捕获的图像,并提取目标图像使得矩形块1的尺寸几乎与目标的尺寸相匹配,并将矩形块1设置用于提取的目标图像。
在设置矩形块1之后,利用小矩形块2扫描捕获的图像,之后提取目标图像使得矩形块2的尺寸几乎与小目标的尺寸相匹配,且将矩形块2设置用于提取的小目标图像。因此,矩形块被设置用于相应的目标图像。矩形块与识别目标区域的候选集相关联。
之后,目标识别处理器206利用识别目标候选辞典207识别识别目标。在本文中,以下描述用于识别目的识别目标的识别目标候选辞典207。
如图13所示,基于仅由白色像素组成的矩形范围401和仅由黑色像素组成的矩形范围402,目标识别处理器206计算在评估目标的矩形块中的特征量,其中,矩形范围402由包含在图13所示的矩形块100中的阴影部分表示。目标识别处理器206计算在评估目标矩形块中的像素和矩形范围401的白色像素之间的、以及在评估目标矩形块中的像素和矩形范围402的黑色像素值之间的差异,从而,在总和上该差异被设置为矩形块400中的特征量h(x)。
图13所示的特征图案几乎全部覆盖了任何目标的特征。在特征图案A中,矩形范围401和矩形范围402左右相邻放置,这两个范围都放置在矩形块400的中心的左上。在特征图案B中,矩形范围401和矩形范围402上下相邻放置,这两个范围都放置在矩形块400的中心的左上。在特征图案C中,矩形范围402位于两个矩形范围401之间,这两个范围都放置在矩形块400的中心的上方。在特征图案D中,矩形范围401和矩形范围402对角放置,这两个范围都放置在矩形块400的中心的左侧。
之后,利用类似于公式1所示的评估函数,基于类似于公式1所示的评估函数计算在识别目标区域的候选集中的评估权重值f(x)。通过计算在矩形块t(1到T,T表示用于评价的图案的数量)中的全部像素T的特征量ht(x),通过乘以附加于每个矩形块的权重系数αt来计算权重评估值f(x)。
在本文中,通过收集用于识别目标的图像的学习数据和通过利用该学习数据来获得特征量ht(x)和权重系数αt。通过计算上述特征图案A到D的权重评估值,识别目标候选辞典207基于计算的权重评估值保存成对的特征图案和权重系数αt
本文中,目标识别处理器206包括多个层级500-1到500-n(n为自然整数)。在层级500-1到500-n的各个层级中,目标是利用由公式(1)表示的评估函数的权重评估值来评估的。
在层级500-1到500-n的各个层级中,使用每个识别目标的唯一特征图案或每个识别目标的多个特征图案、以及与特征图案相关的权重系数,基于公式(1)执行评估。通常,层级从500-1变化到500-n,使用图案的数量会逐渐增加。因此,识别速度会变得越来越快。例如,当矩形块小于在层级500-1中预先设置的门限范围时,确定目的识别目标不在该矩形块中。之后,无需评估该矩形块,该块被作为非目标块500-1处理。对各个层级500-2到500-n(n为自然整数)执行类似的确定过程。最后层级500-n中的识别目标为非识别目标的矩形块,不被确定为存在目的识别目标的图像的矩形块。
当计算特征量时,额外地乘以识别加权。因此,当将识别加权1分配给路面区域且将识别加权0分配给其他区域时,即,当路面区域之外的全部区域的权重系数为0时,对路面区域执行识别过程,而对路面区域之外的区域不执行识别过程。或者,可以分配与小数识别加权对应的权重系数,并对各个区域设置不同的权重系数。在此情况下,即使当目的识别目标存在于设置的权重系数是小数值的各个区域和设置的权重系数较大的区域中时,权重系数小的区域中的权重评估值也小,确定不是识别目标的图像。
因此,在权重系数小的区域中的识别目标的识别结果差,且可以排除与识别目标相似的物体图像,因此减少了错误识别的发生。
图15是包括基于捕获图像中的检测到的识别区域设置的识别目标区域的候选集的例子的图像。在图15中,被粗线围绕的矩形块表示识别目标区域的候选集。在本实施例中,识别加权单元605最大地加权由路面区域检测器204检测到的识别区域601、602和603中的路面区域603,以检测其他车辆。由于识别目标区域A、C和E的候选集位于分配了识别加权1的路面区域601中,因此执行识别处理。由于识别目标区域B、D和F的候选集位于分配了识别加权0的非识别区域602中,因此不执行识别处理。
如上所述,目标识别处理器206对不存在识别目标的区域不执行识别处理。目标识别处理器206可以从识别目标中排除可能存在与识别目标相似的物体的图像的识别目标区域的候选集。因此,相比于对全部识别目标区域的候选集执行识别处理的系统,可以减少错误识别并且可以缩短处理时间。
以下描述根据第一变形的目标识别系统1中的另一识别处理。如图15所示,当检测到路面区域601时,识别加权单元205加权识别目标的图像存在于由路面区域检测器204检测的每个识别区域601、602和603中的可能性。例如,为了识别行人的图像,基于路面区域601检测人行道和路边603,将检测到的人行道和路边隔离带603作为优先识别区域,并且识别加权单元205将识别加权1分配给人行道和路边603。也就是说,识别加权单元205最大地加权由路面区域检测器204检测到的识别区域601、602和603中的人行道和路边603。
利用该设置,系统可以将行人跑入车道的现象警告驾驶员。因此,通过根据预期用途对识别目标设置识别加权,可以以与预期用途对应的更高的精确度执行识别处理。
以下描述根据第二变形的目标识别系统200中的另一识别处理。如图16所示,当检测到路面区域601时,识别加权单元205加权识别目标图像存在于由路面区域检测器204检测到的每个识别区域604、605和606中的可能性。例如,接近于驾驶员前侧区域的区域是驾驶员可能与另一车辆和行人碰撞的区域,该区域被当作优先识别区域。为了设置该优先级,如图16所示,将离驾驶员预定距离内的范围设置为优先识别区域。即,将接近于驾驶员的优先识别区域604的识别加权设置为比远离车辆100的识别区域的识别加权更大。也就是说,识别加权单元205最大地加权在由路面区域检测器204检测到的识别区域内的离车辆100特定距离内的预定路面范围。因此,可以在车辆可能与车辆和行人碰撞的近前方路面中以更高的精确度识别识别目标。
以下结合图17描述用于识别识别目标的车载立体照相机系统的硬件配置。图17是表示立体照相机系统的硬件结构的一个例子的框图。在图17中,将从物体反射的光通过立体照相机中的成像透镜701和702(112A和112B)输入至与图像传感器112A和112B对应的互补金属氧化物半导体(CMOS)703和704(参见图4)。CMOS703和704将在捕获图像上形成的光图像转换为用于作为模拟图像数据输出的电子信号。接着,信号处理器114A和114B包括:相关双采样(CDS)电路705和706、模-数(A/D)转换器707和708、以及图像处理电路709和710。每个处理硬件单元120和MPU140包括:中央处理器(CPU)711、同步动态随机访问存储器(DRAM)712、压缩扩展电路713、只读存储器(ROM)716、随机访问存储器(RAM)717和定时信号生成器电路718。CDS电路705和706移除从CMOS703和704输出的模拟图像数据的噪声,并由A/D转换器707和708将噪声移除后的图像数据转换为数字信号,以输出至图像处理电路709和710。
利用暂时保存的图像数据的SDRAM712,图像处理电路709和710执行各种图像处理,例如亮度-色调(YcrCb)转换、白平衡控制处理、对比度校正处理和边缘强化处理。在图像处理过程中,图像信息的阴影可以在白平衡处理中调整,图像信息的对比度可以在对比度校正处理中调整,图像信息的锐度可以在边缘强化处理中调整,以及图像信息的色彩可以在色彩转换处理中调整。
另外,将执行了信号处理和图像处理的图像信息经由压缩扩展电路713存储在存储卡714中。压缩扩展电路713压缩从图像处理电路709和710输出的图像信息并且扩展从存储卡714读出的图像信息,以将压缩和扩展的信息输出到图像处理电路。CMOS703和704、CDS电路705和706以及A/D转换器707和708的定时由CPU711经由生成定时信号的定时信号生成器电路718来控制。而且,CPU711还控制图像处理电路709和710、压缩扩展电路713和存储卡714。
在立体照相机系统中,CPU711根据目标识别程序执行各种计算。CPU711安装专用于存储图像处理程序的ROM716和可读存储器RAM717,可读存储器包括用于各种处理的工作区域和各种数据存储区域。ROM716和RAM717通过总线719连接。利用该配置,立体照相机由模块配置组成,该模块配置包括处理功能,用于执行在车载立体照相机系统中执行的视差计算、利用亮度图像检测识别目标区域的候选集、执行目标识别功能来消除识别目标区域的候选集的错误检测。作为实际硬件配置,CPU711从ROM716读出图像处理程序,将各个处理加载在主存储器中以及输出目标识别结果。
另外,识别识别目标的方法是由用于执行识别目标的目标识别程序来执行的。目标识别程序可以使计算机执行用于从捕获的图像中检测多个识别区域的识别区域检测处理、用于加权识别目标的图像存在于由识别区域检测器检测到的各个识别区域中的可能性的识别加权处理、以及用于基于分配给各个识别区域的识别加权来识别特定识别区域中的一个或多个识别目标的目标识别处理。利用该配置,如上所述,可以防止错误识别的发生。
这里,本披露的发明除了上述的目标识别系统和目标识别方法之外,还可以提供执行上述方法的计算机可读程序。由根据本实施例的目标识别系统执行计算机程序可以通过作为可安装格式或可执行格式的文件记录在计算机可读记录介质如CD-ROM、FD、CD-R和DVD中来提供。
可选的,由依据本实施例的目标识别系统执行的计算机程序可以通过预定的传输设备经由传输介质如电话线、专用网络、互联网和其他通信系统下载来提供。这里,当传送该程序时,应通过该传输介质传送该计算机程序的至少一部分。也就是说,并非所有构成该计算机程序的数据都应同时存在于该通信介质(信号)中。该通信介质(信号)可以由构成该计算机程序的计算机数据信号的载波来实现。从预定传输设备传送该计算机程序的通信方法可以包含传送构成该计算机程序的数据的连续传输处理和间歇传输处理。
根据上述教导许多附加的修改和变化也是可能的。因而需要理解的是,在所附权利要求的范围内,可以与本文具体描述不同的方式来实施本发明说明书的披露。

Claims (10)

1.一种安装在车辆中的目标识别系统,可操作地与捕获目标识别系统前方的区域的图像的成像设备相连接,以识别一个或多个识别目标,所述目标识别系统包括:
识别区域检测器,用于从所捕获的图像中检测多个识别区域;
识别加权单元,用于加权识别目标的图像存在于通过所述识别区域检测器检测到的每个识别区域中的可能性;以及
目标识别处理器,用于基于分配给各个识别区域的识别加权来识别特定识别区域中的所述一个或多个识别目标;
其中,所述识别加权单元分配与所述识别加权对应的权重系数,并对所述各个识别区域设置不同的权重系数;
对于接近搭载摄像设备的所述车辆的第一识别区域,设定第一识别加权;对于相对于所述第一识别区域而远离所述车辆的第二识别区域,设定比所述第一识别加权低的第二识别加权。
2.根据权利要求1所述的目标识别系统,其中,所述成像设备具有立体成像设备,用于捕获包括两个图像的立体图像,
所述目标识别系统还包括视差计算器,用于从所述立体图像中的两个图像中计算所述捕获的图像的视差,
其中,所述识别区域检测器从所述立体图像中的一个图像的亮度图像中或者从具有与由所述视差计算器计算的视差相对应的像素值的视差图像中检测多个识别区域。
3.根据权利要求2所述的目标识别系统,其中,所述识别区域检测器基于在所述捕获的图像中的各个高度处的频率分布,利用由所述视差计算器计算的所述捕获的图像的视差来对所述多个识别区域进行分类。
4.根据权利要求1至3中任一项所述的目标识别系统,其中,所述识别加权单元最大地加权由所述识别区域检测器检测到的识别区域中的路面区域。
5.根据权利要求1至3中任一项所述的目标识别系统,其中,所述识别加权单元最大地加权由所述识别区域检测器检测到的识别区域中的人行道和路边区域。
6.根据权利要求1至3中任一项所述的目标识别系统,其中,所述识别加权单元最大地加权由所述识别区域检测器检测到的识别区域中的离所述目标识别系统特定距离内的路面的预定范围。
7.根据权利要求1至3中任一项所述的目标识别系统,还包括:
目标候选检测器,用于基于所述捕获的图像的亮度检测识别目标区域的候选集,
其中,所述目标识别处理器基于所述识别区域的加权,从由所述识别区域检测器检测到的特定识别区域中的由所述目标候选检测器检测到的识别目标区域的候选集中识别所述一个或多个识别目标。
8.一种由安装在车辆中的目标识别系统执行的目标识别方法,所述目标识别系统可操作地与捕获目标识别系统前方的区域的立体图像的成像设备相连接,以识别一个或多个识别目标,
所述目标识别方法包括以下步骤:
从所捕获的图像中检测多个识别区域;
加权识别目标的图像存在于每个识别区域中的可能性;
基于分配给各个识别区域的识别加权来识别特定识别区域中的所述一个或多个识别目标;
其中,分配与所述识别加权对应的权重系数,并对所述各个识别区域设置不同的权重系数;
对于接近搭载摄像设备的所述车辆的第一识别区域,设定第一识别加权;对于相对于所述第一识别区域而远离所述车辆的第二识别区域,设定比所述第一识别加权低的第二识别加权。
9.根据权利要求8所述的目标识别方法,还包括:
捕获包括两个图像的立体图像,
从所述立体图像中的两个图像中计算所述捕获的图像的视差,
其中,从所述立体图像中的一个图像的亮度图像中或者从具有与所述视差相对应的像素值的视差图像中检测多个识别区域。
10.根据权利要求8或9所述的目标识别方法,还包括:
基于所述捕获的图像的亮度检测识别目标区域的候选集,
其中,基于分配给各个识别区域的识别加权,从特定识别区域中的识别目标区域的候选集中识别所述一个或多个识别目标。
CN201310213718.4A 2012-06-01 2013-05-31 目标识别系统和目标识别方法 Active CN103455812B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012-126412 2012-06-01
JP2012126412 2012-06-01
JP2013-077228 2013-04-02
JP2013077228 2013-04-02

Publications (2)

Publication Number Publication Date
CN103455812A CN103455812A (zh) 2013-12-18
CN103455812B true CN103455812B (zh) 2017-12-01

Family

ID=48578798

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310213718.4A Active CN103455812B (zh) 2012-06-01 2013-05-31 目标识别系统和目标识别方法

Country Status (4)

Country Link
US (1) US8965052B2 (zh)
EP (1) EP2669845A3 (zh)
JP (1) JP6156733B2 (zh)
CN (1) CN103455812B (zh)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9347900B2 (en) 2011-10-14 2016-05-24 Pacific Biosciences Of California, Inc. Real-time redox sequencing
JP2014115978A (ja) 2012-11-19 2014-06-26 Ricoh Co Ltd 移動物体認識装置及びこれを用いた報知装置及びその移動物体認識装置に用いる移動物体認識用プログラム及び移動物体認識装置を備えた移動体
JP6344638B2 (ja) 2013-03-06 2018-06-20 株式会社リコー 物体検出装置、移動体機器制御システム及び物体検出用プログラム
WO2014206406A1 (de) * 2013-06-26 2014-12-31 Conti Temic Microelectronic Gmbh Spiegelersatzvorrichtung und fahrzeug
DE102013214368A1 (de) 2013-07-23 2015-01-29 Application Solutions (Electronics and Vision) Ltd. Verfahren und Vorrichtung zur Wiedergabe eines seitlichen und/oder rückwärtigen Umgebungsbereichs eines Fahrzeugs
JP6151150B2 (ja) * 2013-10-07 2017-06-21 日立オートモティブシステムズ株式会社 物体検出装置及びそれを用いた車両
JP6540009B2 (ja) * 2013-12-27 2019-07-10 株式会社リコー 画像処理装置、画像処理方法、プログラム、画像処理システム
CN106573588B (zh) * 2014-08-21 2019-01-25 三菱电机株式会社 驾驶辅助装置、驾驶辅助方法和程序
KR102310286B1 (ko) * 2014-11-07 2021-10-07 현대모비스 주식회사 특정물체 감지 장치 및 특정물체 감지 방법
JP6459443B2 (ja) 2014-11-28 2019-01-30 株式会社リコー 検知装置、検知システム、検知方法及びプログラム
JP2016140030A (ja) 2015-01-29 2016-08-04 株式会社リコー 画像処理装置、撮像装置、及び画像処理プログラム
JP6156400B2 (ja) * 2015-02-09 2017-07-05 トヨタ自動車株式会社 走行路面検出装置及び走行路面検出方法
US9916508B2 (en) 2015-03-12 2018-03-13 Toyota Jidosha Kabushiki Kaisha Detecting roadway objects in real-time images
JP2016206774A (ja) * 2015-04-17 2016-12-08 トヨタ自動車株式会社 立体物検出装置及び立体物検出方法
JP6233345B2 (ja) * 2015-04-17 2017-11-22 トヨタ自動車株式会社 路面勾配検出装置
JP6350374B2 (ja) * 2015-04-17 2018-07-04 トヨタ自動車株式会社 路面検出装置
WO2016199244A1 (ja) * 2015-06-10 2016-12-15 株式会社日立製作所 物体認識装置及び物体認識システム
JP6618767B2 (ja) * 2015-10-27 2019-12-11 株式会社デンソーテン 画像処理装置および画像処理方法
JP6728634B2 (ja) 2015-11-04 2020-07-22 株式会社リコー 検知装置、検知方法及びプログラム
DE112015007054B4 (de) 2015-11-20 2019-11-28 Mitsubishi Electric Corp. Fahrunterstützungsvorrichtung, fahrunterstützungssystem, fahrunterstützungsverfahren und fahrunterstützungsprogramm
CN105740802A (zh) * 2016-01-28 2016-07-06 北京中科慧眼科技有限公司 基于视差图的障碍物检测方法和装置及汽车驾驶辅助系统
BR112018013472A2 (pt) * 2016-01-29 2018-12-04 Nissan Motor Co., Ltd. método de controle de deslocamento de veículo e dispositivo de controle de deslocamento de veículo
JP6601679B2 (ja) 2016-03-01 2019-11-06 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
JP6671033B2 (ja) * 2016-03-29 2020-03-25 パナソニックIpマネジメント株式会社 車両状況判定装置、車両状況判定方法、および車両状況判定プログラム
US9805276B2 (en) * 2016-03-31 2017-10-31 Toyota Jidosha Kabushiki Kaisha Generating real-time driver familiarity index for fine-grained dynamic road scenes
US10963706B2 (en) 2018-01-13 2021-03-30 Toyota Jidosha Kabushiki Kaisha Distributable representation learning for associating observations from multiple vehicles
US10586118B2 (en) * 2018-01-13 2020-03-10 Toyota Jidosha Kabushiki Kaisha Localizing traffic situation using multi-vehicle collaboration
US10916135B2 (en) 2018-01-13 2021-02-09 Toyota Jidosha Kabushiki Kaisha Similarity learning and association between observations of multiple connected vehicles
US11281926B2 (en) * 2018-06-04 2022-03-22 Denso Corporation Feature extraction method and apparatus
US10495476B1 (en) 2018-09-27 2019-12-03 Phiar Technologies, Inc. Augmented reality navigation systems and methods
US11448518B2 (en) * 2018-09-27 2022-09-20 Phiar Technologies, Inc. Augmented reality navigational overlay
CN109166261B (zh) * 2018-10-11 2022-06-07 平安科技(深圳)有限公司 基于图像识别的图像处理方法、装置、设备及存储介质
CN110597266A (zh) * 2019-09-26 2019-12-20 青岛蚂蚁机器人有限责任公司 基于二维码的机器人路径动态规划方法
JP7395913B2 (ja) * 2019-09-30 2023-12-12 株式会社アイシン 物体検知装置
JP7306957B2 (ja) 2019-10-23 2023-07-11 株式会社アルバック 搬送装置、および、真空処理装置
JP7408358B2 (ja) 2019-11-18 2024-01-05 キヤノン株式会社 情報処理装置、プログラム、記憶媒体、および、情報処理方法
CN111891061B (zh) * 2020-07-09 2021-07-30 广州亚美智造科技有限公司 车辆碰撞检测方法、装置和计算机设备

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3114668B2 (ja) * 1997-10-03 2000-12-04 日本電気株式会社 物体検出・背景除去方法、装置およびプログラムを記録した記録媒体
JP4100823B2 (ja) * 1999-05-27 2008-06-11 本田技研工業株式会社 物体判定装置
GB2409028A (en) * 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
GB2409030A (en) * 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
US7324687B2 (en) * 2004-06-28 2008-01-29 Microsoft Corporation Color segmentation-based stereo 3D reconstruction system and process
JP3935499B2 (ja) * 2004-07-26 2007-06-20 松下電器産業株式会社 画像処理方法、画像処理装置および画像処理プログラム
US8108119B2 (en) * 2006-04-21 2012-01-31 Sri International Apparatus and method for object detection and tracking and roadway awareness using stereo cameras
JP4670805B2 (ja) 2006-12-13 2011-04-13 株式会社豊田中央研究所 運転支援装置、及びプログラム
JP5181602B2 (ja) * 2007-09-28 2013-04-10 コニカミノルタホールディングス株式会社 物体検出装置
JP2009187066A (ja) * 2008-02-01 2009-08-20 Toyota Motor Corp 画像認識装置、及び移動体制御装置
US8311281B2 (en) * 2008-04-09 2012-11-13 Nec Corporation Object detection apparatus
CN201210353Y (zh) * 2008-04-10 2009-03-18 上海宝康电子控制工程有限公司 一种车辆自动记录系统
KR20110021195A (ko) * 2009-08-25 2011-03-04 삼성전자주식회사 동영상에서 중요 정보를 검출하는 방법 및 그 장치
JP5401344B2 (ja) * 2010-01-28 2014-01-29 日立オートモティブシステムズ株式会社 車両用外界認識装置
JP2012093100A (ja) * 2010-10-25 2012-05-17 Panasonic Corp 車高計測装置
TWI452540B (zh) * 2010-12-09 2014-09-11 Ind Tech Res Inst 影像式之交通參數偵測系統與方法及電腦程式產品
JP5895448B2 (ja) 2011-10-27 2016-03-30 株式会社リコー 車両認識装置、車両認識方法、プログラム
WO2014076769A1 (ja) * 2012-11-13 2014-05-22 株式会社東芝 検出装置、方法及びプログラム

Also Published As

Publication number Publication date
CN103455812A (zh) 2013-12-18
JP6156733B2 (ja) 2017-07-05
EP2669845A3 (en) 2014-11-19
US20130322692A1 (en) 2013-12-05
US8965052B2 (en) 2015-02-24
EP2669845A2 (en) 2013-12-04
JP2014211855A (ja) 2014-11-13

Similar Documents

Publication Publication Date Title
CN103455812B (zh) 目标识别系统和目标识别方法
CN103448650B (zh) 目标识别系统和目标识别方法
JP6376429B2 (ja) 対象地点到達検知装置、対象地点到達検知用プログラム、移動体機器制御システム及び移動体
JP6344638B2 (ja) 物体検出装置、移動体機器制御システム及び物体検出用プログラム
JP4876080B2 (ja) 環境認識装置
JP6270102B2 (ja) 移動面境界線認識装置、これを用いた移動体機器制御システム、移動面境界線認識方法及び移動面境界線認識用プログラム
JP6950170B2 (ja) 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム
JP2014006882A (ja) 路面傾斜認識装置、路面傾斜認識方法及び路面傾斜認識用プログラム
WO2005086080A1 (en) Method and apparatus for detecting a presence
JP2009176087A (ja) 車両用環境認識装置
JP6753134B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及び画像処理プログラム
JP2013250907A (ja) 視差算出装置、視差算出方法及び視差算出用プログラム
JP6816401B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2014006885A (ja) 段差認識装置、段差認識方法及び段差認識用プログラム
WO2014002692A1 (ja) ステレオカメラ
CN110717445A (zh) 一种用于自动驾驶的前车距离跟踪系统与方法
JP6907513B2 (ja) 情報処理装置、撮像装置、機器制御システム、情報処理方法およびプログラム
JP6733302B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2014026396A (ja) 移動面境界線認識装置、移動面境界線認識装置を備えた移動体、移動面境界線認識方法及び移動面境界線認識用プログラム
CN108460348A (zh) 基于三维模型的道路目标检测方法
JP5587852B2 (ja) 画像処理装置及び画像処理方法
JP7052265B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
KR101289386B1 (ko) 스테레오 비전 기반의 장애물체 검출 및 분리 방법과 이를 실행하는 장치
JP7062904B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム
JP6943092B2 (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant