CN107341454B - 一种场景中障碍物的检测方法及装置、电子设备 - Google Patents

一种场景中障碍物的检测方法及装置、电子设备 Download PDF

Info

Publication number
CN107341454B
CN107341454B CN201710473002.6A CN201710473002A CN107341454B CN 107341454 B CN107341454 B CN 107341454B CN 201710473002 A CN201710473002 A CN 201710473002A CN 107341454 B CN107341454 B CN 107341454B
Authority
CN
China
Prior art keywords
image
disparity map
obstacle
straight line
parallax
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710473002.6A
Other languages
English (en)
Other versions
CN107341454A (zh
Inventor
仲维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hisense Group Co Ltd
Original Assignee
Hisense Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hisense Group Co Ltd filed Critical Hisense Group Co Ltd
Priority to CN201710473002.6A priority Critical patent/CN107341454B/zh
Publication of CN107341454A publication Critical patent/CN107341454A/zh
Application granted granted Critical
Publication of CN107341454B publication Critical patent/CN107341454B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本公开揭示了一种场景中障碍物的检测方法及装置、电子设备、计算机可读存储介质,该方法包括:获取场景双目图像,根据双目图像生成视差图像,根据视差图像生成U‑视差图和V‑视差图;分别对U‑视差图和V‑视差图中灰度值非0的像素点进行直线拟合;根据所拟合的直线,在U‑视差图中探测横向直线和在V‑视差图中探测纵向直线;根据横向直线与纵向直线在视差图像中的对应区域,确定候选障碍物区域;根据候选障碍物区域在双目图像中的对应位置,得到候选障碍物区域的图像特征;将候选障碍物区域的图像特征与预存储的障碍物图像特征进行比对,确定场景中的障碍物。本公开提供的技术方案,提高了障碍物检测成功率,降低了误差,提高了检测精度。

Description

一种场景中障碍物的检测方法及装置、电子设备
技术领域
本公开涉及车辆安全驾驶技术领域,特别涉及一种场景中障碍物的检测方法及装置、电子设备、计算机可读存储介质。
背景技术
随着城市化的发展和汽车的普及,交通运输问题越来越严重。交通事故的主要原因包括超速行驶、占道行驶、疲劳驾驶、酒后驾驶等原因。而碰撞是交通事故的主要表现形式,其中大部分是车—车碰撞和人—车碰撞。根据交通部门的统计,中国交通事故的致死率27.3%,大大高于其它发达国家。
智能车辆的出现为提高车辆行驶安全,减少交通事故提供了可能。在智能车辆的研究中,导航技术是实现其真正智能化的关键技术。为了更好地适应复杂环境下的导航,自主避障的功能就显得尤为重要,避障功能是代表车辆智能化的不可或缺的关键性能指标,也是智能车辆安全行驶的重要保障。
基于视觉的车辆在行驶环境中感知障碍物信息可使用单目、双目以及多目视觉,其中双目视觉应用比较广泛。双目视觉是从安装在车辆前方的左右摄像头同时观察前方道路信息,以获取在不同视角下的图像,然后通过三角测量原理计算图像像素间的视差,其中,与参考视差差异较大的像素将被分类为障碍物像素,由此获得障碍物的形状和位置。上述方式进行障碍物的检测依赖于参考视差进行判定,对于与参考视差接近的障碍物像素无法进行判定,由此障碍物检测的准确性不高。
发明内容
为了解决相关技术中存在的障碍物检测准确率不高的问题,本公开提供了一种场景中障碍物的检测方法。
一方面,本公开提供了一种场景中障碍物的检测方法,该方法包括:
获取同一场景双目图像,根据所述双目图像生成视差图像,根据所述视差图像生成U-视差图和V-视差图;
分别对所述U-视差图和V-视差图中灰度值非0的像素点进行直线拟合;
根据所拟合的直线,在所述U-视差图中探测具有同一视差值的横向直线和在所述V-视差图中探测具有同一视差值的纵向直线;
根据所述横向直线与纵向直线在所述视差图像中的对应区域,确定所述视差图像中的候选障碍物区域;
根据所述候选障碍物区域在所述双目图像中的对应位置,得到所述候选障碍物区域的图像特征;
将所述候选障碍物区域的图像特征与预存储的障碍物图像特征进行比对,确定所述场景中的障碍物。
在一种实施例中,在分别对所述U-视差图和V-视差图中灰度值非0的像素点进行直线拟合之前,所述方法还包括:
分别对所述U-视差图和V-视差图进行降噪平滑处理;
将经过所述降噪平滑处理后的U-视差图和V-视差图进行二值化处理。
在一种实施例中,所述分别对所述U-视差图和V-视差图中灰度值非0的像素点进行直线拟合,包括:
分别对二值化处理后的U-视差图和二值化处理后的V-视差图,利用直线拟合算法对灰度值为255的各点进行直线拟合,提取出若干条直线。
在一种实施例中,所述根据所述横向直线与纵向直线在所述视差图像中的对应区域,确定所述视差图像中的候选障碍物区域,包括:
从所述U-视差图中获取所述横向直线的每个像素点的坐标,从所述V-视差图中获取所述纵向直线的每个像素点的坐标;
根据所述横向直线的每个像素点的坐标以及所述纵向直线的每个像素点的坐标确定所述视差图像中候选障碍物区域的每个像素点的位置坐标。
在一种实施例中,所述根据候选障碍物区域在所述双目图像中的对应位置,得到所述候选障碍物区域的图像特征,包括:
根据视差图像与双目图像的像素对应关系,确定所述视差图像中的候选障碍物区域在所述双目图像中的对应位置;
获取所述候选障碍物区域在所述双目图像中对应位置的图像特征。
另一方面,本公开还提供了一种场景中障碍物的检测装置,该装置包括:
视差图获取模块,用于获取同一场景的双目图像,根据所述双目图像生成视差图像,根据所述视差图像生成U-视差图和V-视差图;
直线拟合模块,用于分别对所述U-视差图和V-视差图中灰度值非0的像素点进行直线拟合;
直线提取模块,用于根据所拟合的直线,在所述U-视差图中探测具有同一视差值的横向直线和在所述V-视差图中探测具有同一视差值的纵向直线;
候选区域确定模块,用于根据所述横向直线与纵向直线在所述视差图像中的对应区域,确定所述视差图像中的候选障碍物区域;
特征获取模块,用于根据所述候选障碍物区域在所述双目图像中的对应位置,得到所述候选障碍物区域的图像特征,
障碍物判定模块,用于将所述候选障碍物区域的图像特征与预存储的障碍物图像特征进行比对,确定所述场景中的障碍物。
在一种实施例中,所述候选区域确定模块包括:
坐标获取单元,用于从所述U-视差图中获取所述横向直线的每个像素点的坐标,从所述V-视差图中获取所述纵向直线的每个像素点的坐标;
障碍区域确定单元,用于根据所述横向直线的每个像素点的坐标以及所述纵向直线的每个像素点的坐标确定所述视差图像中候选障碍物区域的每个像素点的位置坐标。
在一种实施例中,所述特征获取模块包括:
位置关系确定单元,用于根据视差图像与双目图像的像素对应关系,确定所述视差图像中的候选障碍物区域在所述双目图像中的对应位置;
特征获取单元,用于获取所述候选障碍物区域在所述双目图像中对应位置的图像特征。
再一方面,本公开还提供了一种电子设备,所述电子设备包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行上述任意一种场景中障碍物的检测方法。
此外,本公开还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序可由处理器执行完成上述任意一种场景中障碍物的检测方法。
本公开的实施例提供的技术方案可以包括以下有益效果:
本公开示例性实施例提供的技术方案,通过对U-视差图和V-视差图中灰度值非0的像素点进行直线拟合,在U-视差图中探测横向直线和在V-视差图中探测纵向直线,根据横向直线与纵向直线在视差图像中的对应区域,确定候选障碍物区域,并根据候选障碍物区域的图像特征,对障碍物进行判定。该方案结合视差图像和图像特征的综合校验,提高了障碍物检测成功率,降低了误差,提高了检测精度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并于说明书一起用于解释本发明的原理。
图1是根据本公开所涉及的实施环境的示意图;
图2是根据一示例性实施例示出的一种装置的框图;
图3是根据一示例性实施例示出的一种场景中障碍物的检测方法的流程图;
图4和图5分别是左右摄像头拍摄的二维图像示意图;
图6是将图4和图5的二维图像合成视差图像的效果示意图;
图7、图8、图9是根据一示例性实施例示出的进行立体匹配处理的原理图;
图10和图11分别是V-视差图和U-视差图;
图12、图13分别是V-视差图中拟合的直线和U-视差图中拟合的直线示意图;
图14、图15分别是V-视差图中的纵向直线和U-视差图中的横向直线示意图;
图16是根据图14中的纵向直线和图15中的横向直线确定的候选障碍物区域示意图;
图17是图3对应实施例步骤350的细节的流程示意图;
图18是根据一示例性实施例示出的一种场景中障碍物的检测装置的框图;
图19是图18对应实施例的候选区域确定模块的细节框图;
图20是图18对应实施例的特征获取模块的细节框图。
具体实施方式
这里将详细地对示例性实施例执行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
图1是根据本公开所涉及的实施环境的示意图。该实施环境包括:双目摄像头110和车载终端120。
双目摄像头110与车载终端120之间的关联方式,包括硬件的网络关联方式和/或协议,以及二者之间往来的数据关联方式。具体的,双目摄像头110可以安装在车辆的车头,面向车辆行驶方向,实时采集车辆行驶方向的二维图像。也可以安装在车辆的两侧或车辆的车尾,实时采集车辆周围的二维图像。双目摄像头110包括一左、一右两个摄像头,左右两个摄像头平行等高,同时采集车辆前的二维图像,并将采集的二维图像发送至该车载终端120。车载终端120根据双目摄像头110采集的二维图像,并采用本公开提供的场景中障碍物的检测方法实现图像采集区域的障碍物检测。
图2是根据一示例性实施例示出的一种装置200的框图。例如,装置200可以是图1所示实施环境中的车载终端120。
参照图2,装置200可以包括以下一个或多个组件:处理组件202,存储器204,电源组件206,多媒体组件208,音频组件210,传感器组件214以及通信组件216。
处理组件202通常控制装置200的整体操作,诸如与显示,电话呼叫,数据通信,相机操作以及记录操作相关联的操作等。处理组件202可以包括一个或多个处理器218来执行指令,以完成下述的方法的全部或部分步骤。此外,处理组件202可以包括一个或多个模块,便于处理组件202和其他组件之间的交互。例如,处理组件202可以包括多媒体模块,以方便多媒体组件208和处理组件202之间的交互。
存储器204被配置为存储各种类型的数据以支持在装置200的操作。这些数据的示例包括用于在装置200上操作的任何应用程序或方法的指令。存储器204可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(Static RandomAccess Memory,简称SRAM),电可擦除可编程只读存储器(Electrically ErasableProgrammable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(ErasableProgrammable Read Only Memory,简称EPROM),可编程只读存储器(Programmable Red-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。存储器204中还存储有一个或多个模块,该一个或多个模块被配置成由该一个或多个处理器218执行,以完成下述图3、图17任一所示方法中的全部或者部分步骤。
电源组件206为装置200的各种组件提供电力。电源组件206可以包括电源管理系统,一个或多个电源,及其他与为装置200生成、管理和分配电力相关联的组件。
多媒体组件208包括在所述装置200和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(Liquid Crystal Display,简称LCD)和触摸面板。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。屏幕还可以包括有机电致发光显示器(Organic Light Emitting Display,简称OLED)。
音频组件210被配置为输出和/或输入音频信号。例如,音频组件210包括一个麦克风(Microphone,简称MIC),当装置200处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器204或经由通信组件216发送。在一些实施例中,音频组件210还包括一个扬声器,用于输出音频信号。
传感器组件214包括一个或多个传感器,用于为装置200提供各个方面的状态评估。例如,传感器组件214可以检测到装置200的打开/关闭状态,组件的相对定位,传感器组件214还可以检测装置200或装置200一个组件的位置改变以及装置200的温度变化。在一些实施例中,该传感器组件214还可以包括磁传感器,压力传感器或温度传感器。
通信组件216被配置为便于装置200和其他设备之间有线或无线方式的通信。装置200可以接入基于通信标准的无线网络,如WiFi(WIreless-Fidelity,无线保真)。在一个示例性实施例中,通信组件216经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件216还包括近场通信(Near FieldCommunication,简称NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RadioFrequency Identification,简称RFID)技术,红外数据协会(Infrared DataAssociation,简称IrDA)技术,超宽带(Ultra Wideband,简称UWB)技术,蓝牙技术和其他技术来实现。
在示例性实施例中,装置200可以被一个或多个应用专用集成电路(ApplicationSpecific Integrated Circuit,简称ASIC)、数字信号处理器、数字信号处理设备、可编程逻辑器件、现场可编程门阵列、控制器、微控制器、微处理器或其他电子元件实现,用于执行下述方法。
图3是根据一示例性实施例示出的一种场景中障碍物的检测方法的流程图。该场景中障碍物的检测方法的适用范围和执行主体,例如,该方法用于图1所示实施环境的车载终端120。如图3所示,该检测方法,可以由车载终端120执行,可以包括以下步骤。
在步骤310中,获取同一场景的双目图像,根据所述双目图像生成视差图像,根据所述视差图像生成U-视差图和V-视差图;
具体的,可以由双目摄像头110进行同一场景的二维图像的采集,双目摄像头110可以安装在车辆的车头、车尾或两侧,实现车辆周围的障碍物检测。双目摄像头110包括一左一右平行等高的两个摄像头,左右摄像头同时进行二维图像的采集。如图4和图5所示,为双目摄像头110的左、右两个摄像头分别采集的同一场景的二维图像。车载终端中可以设置图像处理引擎,由图像处理引擎将双目摄像头采集的双目图像生成视差图像,即三维立体图像。视差,是指从相隔一定距离的两个点上观察同一个目标所产生的方向差异。当利用例如双目摄像头110拍摄同一个目标的左右两幅图像时,该目标的视差可以理解为该目标在左图像中的横坐标与在右图像中的横坐标之间的差。
图像处理引擎可有CPU,DSP,GPU,FPGA或专用ASIC来实现。该图像处理引擎的输入为双目摄像头分别采集的二维图像,输出为大小与二维图像相同的三维立体图像,如图6所示。三维立体图像的灰度值对应为立体匹配合成后的二维图像像素点的视差值。
其中,图像处理引擎生成视差图像的具体过程如下:可以将左摄像头采集的二维图像作为基准图像,将右摄像头采集的二维图像作为比较图像,当然也可以,将右摄像头采集的二维图像作为基准图像,将左摄像头采集的二维图像作为比较图像。之后针对比较图像和基准图像进行立体匹配处理。
具体的,首先针对比较图像,遍历需要进行立体匹配的中心像素点,并在该中心像素点周围建立固定大小(W x H)的窗口,如图7所示,作为该中心像素点与基准图像进行立体匹配时的最小计算单位。针对选定的比较图像的像素中心点,将相应的窗口映射在同Y坐标的基准图像上,如图8所示。从左到右的顺序遍历同Y轴的基准图像的窗口中心像素点,运用SAD(Sum of Absolute Difference对应像素差的绝对值)算法或SSD(Sum of SquaredDifference对应像素差的平方和)算法进行差异cost(值)计算,并保存相应计算结果,如图9所示。在SAD或SSD计算时,与比较图像差异cost最小的窗口中心像素点将被作为该选定像素中心点的匹配点,比较图像的选定像素中心点与基准图像的匹配点之间的位移差(x坐标之差)即为如图9所示的最小视差d’,其相应的深度信息则为在三维图像中,该基准图像像素中心点的对应距离。
具体的,通过遍历比较图像中的所有像素中心点,将计算出尺寸与基准图像相同的三维立体图像,即视差图像。基准图像的各像素点所对应的视差值,则将保存为三维立体图像的各像素点的灰度值。基准图像中的点的坐标可以表示为(x,y),其中x为横坐标,y为纵坐标。在通过转换该基准图像而获得的二维视差图像中,与点(x,y)对应的点的坐标可以表示为(u,v),其中u为横坐标,v为纵坐标,并且u=x,v=y。视差图像中每个点处的灰度值为该点处的视差,用d表示。可替换地,可以将视差图中的点表示为(u,v,d)以便同时反映点的坐标和视差,所以视差图像也可以成为三维立体图像。
需要说明的是,V-视差图(V-Disparity-MAP,纵向视差直方图)和U-视差图(U-Disparity-MAP,横向视差直方图)可以从前面得到的视差图像中导出。V-视差图可以视为视差图像的侧视图,其横坐标轴为d轴,纵坐标轴为v轴,其上的点可表示为(d,v),并且点(d,v)的灰度值(亮度值)是对应视差图像的纵坐标为v的行中视差等于d的点的数量,因此,可以通过统计该数量或者使用本领域公知的其他方法来从视差图像导出V-视差图。如图10所示为基于图6的视差图像导出的V-视差图。U-视差图可以视为视差图像的俯视图,其横坐标轴为u轴,纵坐标轴为d轴,其上的点可表示为(u,d),并且点(u,d)的灰度值(亮度值)是对应视差图像的横坐标为u的列中视差等于d的点的数量,因此,可以通过统计该数量或者使用本领域公知的其他方法来从视差图像导出U-视差图。如图11所示为基于图6的视差图像导出的U-视差图。
在步骤320中,分别对所述U-视差图和V-视差图中灰度值非0的像素点进行直线拟合;
需要说明的是,U-视差图和V-视差图中每个点的灰度值表示视差值为d的点的个数。如果某点的灰度值为0表示视差值为d的点的个数是0,该点为暗点(亮度为0)。在进行直线拟合时,将U-视差图和V-视差图中的亮点(灰度值非0也就是视差值为d的点的个数非0)进行直线拟合。具体的,在U-视差图和V-视差图上,可以利用最小二乘法或霍夫变换算法对亮点进行直线拟合,拟合出若干条直线。如图12和图13所示,分别在V-视差图和U-视差图上进行直线拟合,可以拟合出较多的直线。
可选的,在步骤320分别对所述U-视差图和V-视差图中灰度值非0的像素点进行直线拟合之前,本公开提供的场景中障碍物的检测方法还包括以下步骤:
对所述U-视差图和V-视差图进行降噪平滑处理;
将经过所述降噪平滑处理后的U-视差图和V-视差图进行二值化处理。
具体的,可以对U-视差图和V-视差图进行基于高斯滤波的降噪平滑处理,减少和消除U-视差图和V-视差图中的噪声,以改善图像质量。对U-视差图和V-视差图进行降噪平滑处理后,再对降噪平滑处理后的U-视差图和V-视差图进行二值化处理。二值化是指将图像上的像素点的灰度值设置为0或255,也就是将整个图像呈现出明显的只有黑和白的视觉效果。本公开实施例中可以将U-视差图和V-视差图中灰度值(视差值为d的点的个数)大于预设值的像素点灰度值设置为255,也就是白色。将U-视差图和V-视差图中灰度值(视差值为d的点的个数)不大于预设值的像素点灰度值设置为0,也就是黑色。从而U-视差图和V-视差图呈现只有黑白的视觉效果,如图10和图11所示。
可选的,步骤320分别对所述U-视差图和V-视差图中灰度值非0的像素点进行直线拟合,具体包括:
分别对二值化处理后的U-视差图和二值化处理后的V-视差图,利用直线拟合算法对灰度值为255的各点进行直线拟合,提取出若干条直线。
需要说明的是,在二值化处理后的U-视差图和V-视差图中,仅剩下灰度值为255的白点和灰度值为0的黑点,之后,利用最小二乘法或霍夫变换算法对灰度值为255的白点进行直线拟合,得到若干条直线。
在步骤330中,根据所拟合的直线,在所述U-视差图中探测具有同一视差值的横向直线和在所述V-视差图中探测具有同一视差值的纵向直线;
具体的,在U-视差图中探测具有同一Y坐标的横向直线,由于U-视差图的横坐标为u,纵坐标为d,所以同一Y坐标的横向直线为同一视差值的横向直线。在V-视差图中探测具有同一X坐标的纵向直线,由于V-视差图的横坐标为d,纵坐标为v,所以同一X坐标的纵向直线也就是同一视差值的纵向直线。如图14所示为V-视差图中的纵向直线,如图15所示为U-视差图中的横向直线。
在步骤340中,根据所述横向直线与纵向直线在所述视差图像中的对应区域,确定所述视差图像中的候选障碍物区域;
需要说明的是,对于视差图像中的障碍物区域而言,在U-视差图和V-视差图中可以同时提取到该障碍物区域对应的直线。例如,如图16所示,V-视差图中纵向直线与U-视差图中的横向直线,都对应二维灰度图像的汽车区域,该汽车区域被选定为候选障碍物区域。
其中,步骤340具体包括:
在步骤341中,从所述U-视差图中获取所述横向直线的每个像素点的坐标,从所述V-视差图中获取所述纵向直线的每个像素点的坐标;
需要解释的是,由于U-视差图的横坐标为u,纵坐标为d,所以可以很容易从U-视差图中得到横向直线的每个像素点的坐标(u,d)。由于V-视差图的纵坐标为v,横坐标为d,所以可以很容易从V-视差图中得到纵向直线的每个像素点的坐标(d,v)。
在步骤342中,根据所述横向直线的每个像素点的坐标以及所述纵向直线的每个像素点的坐标确定所述视差图像中候选障碍物区域的每个像素点的位置坐标。
需要解释的是,由于U-视差图的横坐标为u和V-视差图的纵坐标为v就是视差图像中的横坐标为u和纵坐标v,假设障碍物区域的像素点坐标为(u,v,d),那么必然在横向直线中存在像素点的坐标为(u,d)且纵向直线中存在像素点的坐标为(v,d)。因此,根据步骤341得到的横向直线的每个像素点的坐标(u,d)以及纵向直线的每个像素点的坐标(d,v),可以得到存在像素点(u,v,d)属于候选障碍物区域的像素点坐标。
在步骤350中,根据所述候选障碍物区域在所述双目图像中的对应位置,得到所述候选障碍物区域的图像特征;
其中,如图17所示,步骤350具体包括以下步骤:
在步骤351中,根据视差图像与双目图像的像素对应关系,确定所述视差图像中的候选障碍物区域在所述双目图像中的对应位置;
需要说明的是,由于视差图像与双目图像的尺寸相同,像素点位置对应,所以根据候选障碍物区域在视差图像中的位置,可以得到双目图像中候选障碍物区域的对应位置。
在步骤352中,获取所述候选障碍物区域在所述双目图像中对应位置的图像特征;
其中,该图像特征可以是灰度值特征或色彩值特征,该图像特征还可以包括候选障碍物区域的三维物理信息(X、Y、Z坐标信息以及长宽高信息)。该图像特征可以基于SIFT等算法进行提取,也可以采用其他现有的方法进行提取,对此不作限定。
在步骤360中,将所述候选障碍物区域的图像特征与预存储的障碍物图像特征进行比对,确定所述场景中的障碍物。
具体的,将所述候选障碍物区域的图像特征与预存储的障碍物图像特征进行比对,可以确定候选障碍物区域的障碍物类型,如车辆、行人、树木,实现场景中的障碍物检测。
候选障碍物区域的图像特征可以与事先训练得到的障碍物样本库中的障碍物图像特征进行比对。障碍物样本库中事先已经存储了已知的障碍物及其对应的图像特征。因此,通过将候选障碍物区域的图像特征与障碍物样本库中的障碍物图像特征进行比对,可以确定候选障碍物区域的障碍物类型,比如是车辆、行人还是树木,进一步判断候选障碍物区域是否是真的障碍物,从而实现场景中障碍物的检测。该障碍物样本库与传统基于二维图像训练得到的基于特征向量的神经网络相比,增加了障碍物的三维物理信息,因此将大幅提升障碍物检测率。
可选的,可以在检测出障碍物之后,进一步对障碍物进行识别,具体的,可以根据双目图像中障碍物区域的灰度值和色彩值特征信息,进一步对障碍物进行识别,例如当障碍物是车辆时,进一步识别车辆的型号等,提升双目摄像头的障碍物检测及识别算法精度,进一步提升车辆安全驾驶的稳定性与可靠性。
可选的,在检测出障碍物之后,可以由车载终端120的嵌入式微处理器根据视差图像中障碍物区域的视差值,得到车辆与障碍物的实时相对距离。需要解释的是,假设障碍物区域的平均视差为d,已知左右摄像头之间的距离为b,焦距为f,那么障碍物与车辆的距离为Z=b*f/d,Z就是车辆与该障碍物的相对距离。根据指定时间间隔内相对距离的变化,可以得到车辆与障碍物相对速度。由此,根据车辆与障碍物的相对距离以及相对速度变化,可以估计出车辆与障碍物发生碰撞的时间。当该时间小于风险阈值时,认为车辆可能马上就要与障碍物发生碰撞,风险较大,需要进行预警,从而车载终端的预警终端发出警报信号,以实现预警的功能。
随着现代社会的智能化发展,政府,社会团体/联盟以及消费者对汽车安全性的要求越来越高,汽车的自动/辅助驾驶也已成为近年来汽车厂商及互联网等高科技公司竞相追逐的技术热点。在此背景下,基于GPS,地图,超声波,雷达,单摄像头,双摄像头等多种传感器的汽车自动/辅助驾驶方案应运而生。其中,基于GPS和地图进行车道线检测易受地形及天气干扰、精度欠缺;基于单摄像头检测的计算量大;基于超声波检测距离精度低下;基于雷达检测成本昂贵。
现有方案中多采用多传感器集成的方式进行汽车的碰撞预警或安全控制,系统构成相对复杂且成本昂贵,很难被实际采用。现有被采用的实际解决方案中,仍多以基于摄像头的图像方案为主。其中,基于单摄像头的图像处理方案,先针对二维图像进行物体的检测识别,后根据其在图像中所占的像素大小,按照事先标定的物体大小和距离关系,根据近大远小的方式预估距离信息,因此误差较大,存在着行人/车辆的检测及识别率低下,未经标定的障碍物无法准确检测,检测距离的精度低下等技术缺陷。
本公开示例性实施例提供的技术方案,通过对U-视差图和V-视差图中灰度值非0的像素点进行直线拟合,在U-视差图中探测横向直线在V-视差图中探测纵向直线,根据横向直线与纵向直线在视差图像中的对应区域,确定候选障碍物区域,并根据候选障碍物区域的图像特征,对障碍物进行判定。该方案结合视差图像和图像特征的综合校验,提高了障碍物检测成功率,降低了误差,提高了检测精度。
下述为本公开装置实施例,可以用于执行本公开上述车载终端120执行的场景中障碍物的检测方法实施例。对于本公开装置实施例中未披露的细节,请参照本公开场景中障碍物的检测方法实施例。
图18是根据一示例性实施例示出的一种场景中障碍物的检测装置的框图,该场景中障碍物的检测装置可以用于图1所示实施环境的车载终端120中,执行图3、图17任一所示的场景中障碍物的检测方法的全部或者部分步骤。如图18所示,该检测装置包括但不限于:视差图获取模块1010、直线拟合模块1020、直线提取模块1030、候选区域确定模块1040、特征获取模块1050以及障碍物判定模块1060。
视差图获取模块1010,用于获取同一场景的双目图像,根据所述双目图像生成视差图像,根据所述视差图像生成U-视差图和V-视差图;
直线拟合模块1020,用于分别对所述U-视差图和V-视差图中灰度值非0的像素点进行直线拟合;
直线提取模块1030,用于根据所拟合的直线,在所述U-视差图中探测具有同一视差值的横向直线和在所述V-视差图中探测具有同一视差值的纵向直线;
候选区域确定模块1040,用于根据所述横向直线与纵向直线在所述视差图像中的对应区域,确定所述视差图像中的候选障碍物区域;
特征获取模块1050,用于根据所述候选障碍物区域在所述双目图像中的对应位置,得到所述候选障碍物区域的图像特征,
障碍物判定模块1060,用于将所述候选障碍物区域的图像特征与预存储的障碍物图像特征进行比对,确定所述场景中的障碍物。
上述装置中各个模块的功能和作用的实现过程具体详见上述场景中障碍物的检测方法中对应步骤的实现过程,在此不再赘述。
视差图获取模块1010比如可以是图2中的某一个物理结构通信组件216。
直线拟合模块1020、直线提取模块1030、候选区域确定模块1040、特征获取模块1050以及障碍物判定模块1060也可以是功能模块,用于执行上述场景中障碍物的检测方法中的对应步骤。可以理解,这些模块可以通过硬件、软件、或二者结合来实现。当以硬件方式实现时,这些模块可以实施为一个或多个硬件模块,例如一个或多个专用集成电路。当以软件方式实现时,这些模块可以实施为在一个或多个处理器上执行的一个或多个计算机程序,例如图2的处理器218所执行的存储在存储器204中的程序。
可选的,上述实施例中的装置还可以包括但不限于:
预处理模块,用于分别对所述U-视差图和V-视差图进行降噪平滑处理;
二值化模块,用于将经过所述降噪平滑处理后的U-视差图和V-视差图进行二值化处理。
可选的,所述直线拟合模块1020包括:
直线拟合单元,用于分别对二值化处理后的U-视差图和二值化处理后的V-视差图,利用直线拟合算法对灰度值为255的各点进行直线拟合,提取出若干条直线。
可选的,如图19所示,所述候选区域确定模块1040包括但不限于:
坐标获取单元1041,用于从所述U-视差图中获取所述横向直线的每个像素点的坐标,从所述V-视差图中获取所述纵向直线的每个像素点的坐标;
障碍区域确定单元1042,用于根据所述横向直线的每个像素点的坐标以及所述纵向直线的每个像素点的坐标确定所述视差图像中候选障碍物区域的每个像素点的位置坐标。
可选的,如图20所示,所述特征获取模块1050包括但不限于:
位置关系确定单元1051,用于根据视差图像与双目图像的像素对应关系,确定所述视差图像中的候选障碍物区域在所述双目图像中的对应位置;
特征获取单元1052,用于获取所述候选障碍物区域在所述双目图像中对应位置的图像特征。
可选的,本公开还提供一种电子设备,该电子设备可以用于图1所示实施环境的车载终端120中,执行图3、图17任一所示的场景中障碍物的检测方法的全部或者部分步骤。所述电子设备包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行上述示例性实施例所述的场景中障碍物的检测方法。
该实施例中的装置的处理器执行操作的具体方式已经在有关该场景中障碍物的检测方法的实施例中执行了详细描述,此处将不做详细阐述说明。
在示例性实施例中,还提供了一种存储介质,该存储介质为计算机可读存储介质,例如可以为包括指令的临时性和非临时性计算机可读存储介质。该存储介质存储有计算机程序,所述计算机程序可由装置200的处理器218执行以完成上述场景中障碍物的检测方法。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围执行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (10)

1.一种场景中障碍物的检测方法,其特征在于,包括:
获取同一场景双目图像,根据所述双目图像生成视差图像,根据所述视差图像生成U-视差图和V-视差图;
分别对所述U-视差图和V-视差图中灰度值非0的像素点进行直线拟合;
根据所拟合的直线,在所述U-视差图中探测具有同一视差值的横向直线和在所述V-视差图中探测具有同一视差值的纵向直线;
根据所述横向直线与纵向直线在所述视差图像中的对应区域,确定所述视差图像中的候选障碍物区域;
根据所述候选障碍物区域在所述双目图像中的对应位置,得到所述候选障碍物区域的图像特征;
将所述候选障碍物区域的图像特征与预存储的障碍物图像特征进行比对,确定所述场景中的障碍物。
2.根据权利要求1所述的方法,其特征在于,在分别对所述U-视差图和V-视差图中灰度值非0的像素点进行直线拟合之前,所述方法还包括:
分别对所述U-视差图和V-视差图进行降噪平滑处理;
将经过所述降噪平滑处理后的U-视差图和V-视差图进行二值化处理。
3.根据权利要求2所述的方法,其特征在于,所述分别对所述U-视差图和V-视差图中灰度值非0的像素点进行直线拟合,包括:
分别对二值化处理后的U-视差图和二值化处理后的V-视差图,利用直线拟合算法对灰度值为255的各点进行直线拟合,提取出若干条直线。
4.根据权利要求1所述的方法,其特征在于,所述根据所述横向直线与纵向直线在所述视差图像中的对应区域,确定所述视差图像中的候选障碍物区域,包括:
从所述U-视差图中获取所述横向直线的每个像素点的坐标,从所述V-视差图中获取所述纵向直线的每个像素点的坐标;
根据所述横向直线的每个像素点的坐标以及所述纵向直线的每个像素点的坐标确定所述视差图像中候选障碍物区域的每个像素点的位置坐标。
5.根据权利要求1所述的方法,其特征在于,所述根据候选障碍物区域在所述双目图像中的对应位置,得到所述候选障碍物区域的图像特征,包括:
根据视差图像与双目图像的像素对应关系,确定所述视差图像中的候选障碍物区域在所述双目图像中的对应位置;
获取所述候选障碍物区域在所述双目图像中对应位置的图像特征。
6.一种场景中障碍物的检测装置,其特征在于,包括:
视差图获取模块,用于获取同一场景的双目图像,根据所述双目图像生成视差图像,根据所述视差图像生成U-视差图和V-视差图;
直线拟合模块,用于分别对所述U-视差图和V-视差图中灰度值非0的像素点进行直线拟合;
直线提取模块,用于根据所拟合的直线,在所述U-视差图中探测具有同一视差值的横向直线和在所述V-视差图中探测具有同一视差值的纵向直线;
候选区域确定模块,用于根据所述横向直线与纵向直线在所述视差图像中的对应区域,确定所述视差图像中的候选障碍物区域;
特征获取模块,用于根据所述候选障碍物区域在所述双目图像中的对应位置,得到所述候选障碍物区域的图像特征;
障碍物判定模块,用于将所述候选障碍物区域的图像特征与预存储的障碍物图像特征进行比对,确定所述场景中的障碍物。
7.根据权利要求6所述的装置,其特征在于,所述候选区域确定模块包括:
坐标获取单元,用于从所述U-视差图中获取所述横向直线的每个像素点的坐标,从所述V-视差图中获取所述纵向直线的每个像素点的坐标;
障碍区域确定单元,用于根据所述横向直线的每个像素点的坐标以及所述纵向直线的每个像素点的坐标确定所述视差图像中候选障碍物区域的每个像素点的位置坐标。
8.根据权利要求6所述的装置,其特征在于,所述特征获取模块包括:
位置关系确定单元,用于根据视差图像与双目图像的像素对应关系,确定所述视差图像中的候选障碍物区域在所述双目图像中的对应位置;
特征获取单元,用于获取所述候选障碍物区域在所述双目图像中对应位置的图像特征。
9.一种电子设备,其特征在于,所述电子设备包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行权利要求1-5任意一项所述的场景中障碍物的检测方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序可由处理器执行完成权利要求1-5任意一项所述的场景中障碍物的检测方法。
CN201710473002.6A 2017-06-21 2017-06-21 一种场景中障碍物的检测方法及装置、电子设备 Active CN107341454B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710473002.6A CN107341454B (zh) 2017-06-21 2017-06-21 一种场景中障碍物的检测方法及装置、电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710473002.6A CN107341454B (zh) 2017-06-21 2017-06-21 一种场景中障碍物的检测方法及装置、电子设备

Publications (2)

Publication Number Publication Date
CN107341454A CN107341454A (zh) 2017-11-10
CN107341454B true CN107341454B (zh) 2019-12-27

Family

ID=60220813

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710473002.6A Active CN107341454B (zh) 2017-06-21 2017-06-21 一种场景中障碍物的检测方法及装置、电子设备

Country Status (1)

Country Link
CN (1) CN107341454B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019113966A1 (zh) * 2017-12-15 2019-06-20 深圳市道通智能航空技术有限公司 一种避障方法、装置和无人机
CN108399360B (zh) * 2018-01-22 2021-12-24 海信集团有限公司 一种连续型障碍物检测方法、装置及终端
CN108416306B (zh) * 2018-03-12 2020-12-25 海信集团有限公司 连续型障碍物检测方法、装置、设备和存储介质
CN108389228B (zh) * 2018-03-12 2021-04-20 海信集团有限公司 地面检测方法、装置及设备
CN108446622A (zh) * 2018-03-14 2018-08-24 海信集团有限公司 目标物体的检测跟踪方法及装置、终端
CN108573215B (zh) * 2018-03-16 2021-08-03 海信集团有限公司 道路反光区域检测方法、装置和终端
CN110378168B (zh) * 2018-04-12 2023-05-30 海信集团有限公司 多类型障碍物融合的方法、装置及终端
CN108665448B (zh) * 2018-04-27 2022-05-13 武汉理工大学 一种基于双目视觉的障碍物检测方法
CN108921852B (zh) * 2018-06-01 2021-05-07 大连理工大学 基于视差与平面拟合的双分支室外非结构化地形分割网络
CN110598505B (zh) * 2018-06-12 2023-05-02 海信集团有限公司 障碍物悬空状态判断方法、装置及终端
CN110633600B (zh) * 2018-06-21 2023-04-25 海信集团有限公司 一种障碍物检测方法及装置
CN110807347B (zh) * 2018-08-06 2023-07-25 海信集团有限公司 障碍物检测方法、装置及终端
CN109740484A (zh) * 2018-12-27 2019-05-10 斑马网络技术有限公司 道路障碍物识别的方法、装置及系统
CN111382591B (zh) * 2018-12-27 2023-09-29 海信集团有限公司 一种双目相机测距校正方法及车载设备
CN111609836A (zh) * 2019-02-26 2020-09-01 上海太昂科技有限公司 基于深度视觉的坡度识别方法、系统、介质、终端、及装置
CN111898396A (zh) * 2019-05-06 2020-11-06 北京四维图新科技股份有限公司 障碍物检测方法和装置
CN111191538B (zh) * 2019-12-20 2022-11-18 北京中科慧眼科技有限公司 基于双目相机的障碍物跟踪方法、装置、系统和存储介质
CN111104933B (zh) * 2020-03-20 2020-07-17 深圳飞科机器人有限公司 地图处理方法、移动机器人及计算机可读存储介质
CN112733653A (zh) * 2020-12-30 2021-04-30 智车优行科技(北京)有限公司 目标检测方法和装置、计算机可读存储介质、电子设备
CN112767276A (zh) * 2021-01-26 2021-05-07 深圳瑞为智能科技有限公司 一种基于上下双目设备图像的立体匹配方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103052968A (zh) * 2010-08-03 2013-04-17 松下电器产业株式会社 物体检测装置、物体检测方法及程序
CN103390269A (zh) * 2012-05-11 2013-11-13 株式会社理光 连续型道路分割物检测方法和装置
CN103489175A (zh) * 2012-06-13 2014-01-01 株式会社理光 路面检测方法和装置
CN106650708A (zh) * 2017-01-19 2017-05-10 南京航空航天大学 一种自动驾驶障碍物视觉检测方法与系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103052968A (zh) * 2010-08-03 2013-04-17 松下电器产业株式会社 物体检测装置、物体检测方法及程序
CN103390269A (zh) * 2012-05-11 2013-11-13 株式会社理光 连续型道路分割物检测方法和装置
CN103489175A (zh) * 2012-06-13 2014-01-01 株式会社理光 路面检测方法和装置
CN106650708A (zh) * 2017-01-19 2017-05-10 南京航空航天大学 一种自动驾驶障碍物视觉检测方法与系统

Also Published As

Publication number Publication date
CN107341454A (zh) 2017-11-10

Similar Documents

Publication Publication Date Title
CN107341454B (zh) 一种场景中障碍物的检测方法及装置、电子设备
CN107392103B (zh) 路面车道线的检测方法及装置、电子设备
CN110430401B (zh) 车辆盲区预警方法、预警装置、mec平台和存储介质
CN107358168B (zh) 一种车辆可行驶区域的检测方法及装置、车载电子设备
CN109478324B (zh) 图像处理装置、外界识别装置
CN102997900B (zh) 外界识别方法、装置以及车辆系统
KR102058001B1 (ko) 차선 보정 시스템, 차선 보정 장치 및 이의 차선 보정 방법
JP2019096072A (ja) 物体検出装置、物体検出方法およびプログラム
CN105620489A (zh) 驾驶辅助系统及车辆实时预警提醒方法
CN107977654B (zh) 一种道路区域检测方法、装置及终端
CN104508722A (zh) 车载用周围环境识别装置
CN112172663A (zh) 一种基于开车门的危险报警方法及相关设备
CN106326866B (zh) 车辆碰撞的预警方法及装置
KR101406316B1 (ko) 차선 인식 장치 및 그 방법
CN111222441A (zh) 基于车路协同的点云目标检测和盲区目标检测方法及系统
KR101721442B1 (ko) 차량용 블랙박스 후방카메라를 이용한 측후방 충돌방지 시스템 및 충돌방지방법
CN111332306A (zh) 一种基于机器视觉的交通道路感知辅助驾驶预警装置
CN107356916B (zh) 车距检测方法及装置、电子设备、计算机可读存储介质
JP2009186301A (ja) 車両用物体検出装置
CN112800989A (zh) 一种检测斑马线的方法及装置
JP2014026519A (ja) 車載レーンマーカ認識装置
CN113257036A (zh) 一种车辆碰撞预警方法、装置、设备和存储介质
CN107844749B (zh) 路面检测方法及装置、电子设备、存储介质
CN110727269A (zh) 车辆控制方法及相关产品
CN116563801A (zh) 交通事故检测方法、装置、电子设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant