CN116543368A - 一种室内环境用图像处理方法及免碰撞系统 - Google Patents

一种室内环境用图像处理方法及免碰撞系统 Download PDF

Info

Publication number
CN116543368A
CN116543368A CN202310501957.3A CN202310501957A CN116543368A CN 116543368 A CN116543368 A CN 116543368A CN 202310501957 A CN202310501957 A CN 202310501957A CN 116543368 A CN116543368 A CN 116543368A
Authority
CN
China
Prior art keywords
target
feature point
image
pixel
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310501957.3A
Other languages
English (en)
Inventor
陆亚洲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan University
Original Assignee
Henan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Henan University filed Critical Henan University
Priority to CN202310501957.3A priority Critical patent/CN116543368A/zh
Publication of CN116543368A publication Critical patent/CN116543368A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/467Encoded features or binary features, e.g. local binary patterns [LBP]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及图像数据处理技术领域,具体涉及一种室内环境用图像处理方法及免碰撞系统,该方法包括:获取目标车辆对应的两帧初始室内环境图像;对每帧初始室内环境图像进行环境光线提取处理,得到初始室内环境图像对应的参考图像;基于每帧初始室内环境图像对应的参考图像,以及初始室内环境图像中的每个像素点对应的预设滑窗和预设卷积窗口,对初始室内环境图像中的每个像素点进行自适应反射干扰消除处理,得到像素点对应的目标灰度值;将每帧初始室内环境图像中的每个像素点对应的灰度值,更新为像素点对应的目标灰度值。本发明通过对两帧初始室内环境图像进行图像处理,提高了图像质量和交通的安全性。

Description

一种室内环境用图像处理方法及免碰撞系统
技术领域
本发明涉及图像数据处理技术领域,具体涉及一种室内环境用图像处理方法及免碰撞系统。
背景技术
室内停车场所(如,地下停车场)的室内环境往往比较昏暗,并且在地下停车场内GPS(Global Positioning System,全球定位系统)往往无法正确定位,导致在地下停车场内容易发生碰撞事故。为了减少室内碰撞事故的发生,往往需要采用免碰撞系统,对车辆进行免碰撞提示。目前比较常见的免碰撞系统是摄像头免碰撞系统,主要包括:通过免碰撞系统,对采集的图像进行免碰撞物体分析,并根据分析结果,对车辆进行免碰撞提示,其中,免碰撞物体可以是需要车辆避免碰撞的物体。例如,免碰撞物体可以是但不限于:需要该车辆避免碰撞的车辆、人和柱子。免碰撞提示可以是对司机进行避开免碰撞物体的提示。
然而,当采用上述方式时,经常会存在如下技术问题:
由于室内光线和车灯的影响,往往导致采集的图像的质量较差,因此直接通过免碰撞系统,对采集的图像进行免碰撞物体分析,往往导致分析结果的准确度较低,从而导致交通的安全性较低。
发明内容
本发明的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本发明的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
为了解决交通安全性较低的技术问题,本发明提出了一种室内环境用图像处理方法及免碰撞系统。
第一方面,本发明提供了一种室内环境用图像处理方法,该方法包括:
获取目标车辆对应的两帧初始室内环境图像;
对每帧初始室内环境图像进行环境光线提取处理,得到所述初始室内环境图像对应的参考图像;
基于每帧初始室内环境图像对应的参考图像,以及所述初始室内环境图像中的每个像素点对应的预设滑窗和预设卷积窗口,对所述初始室内环境图像中的每个像素点进行自适应反射干扰消除处理,得到所述像素点对应的目标灰度值;
将每帧初始室内环境图像中的每个像素点对应的灰度值,更新为所述像素点对应的目标灰度值,得到所述初始室内环境图像对应的目标环境图像。
进一步地,所述对每帧初始室内环境图像进行环境光线提取处理,得到所述初始室内环境图像对应的参考图像,包括:
对所述初始室内环境图像进行去高频处理,得到低频分量图像;
对低频分量图像进行平滑,得到所述初始室内环境图像对应的参考图像。
进一步地,所述对所述初始室内环境图像中的每个像素点进行自适应反射干扰消除处理,得到所述像素点对应的目标灰度值,包括:
对所述像素点对应的预设卷积窗口中的各个像素点对应的灰度值的累加和进行负相关映射,得到第一灰度值;
将所述像素点对应的预设卷积窗口中的每个像素点对应的灰度值与第一灰度值的乘积,确定为预设卷积窗口中的每个像素点对应的参考权重,得到参考权重集合;
将参考权重集合中的每个参考权重与所述像素点对应的预设滑窗中的每个像素点对应的灰度值的乘积,确定为第一指标,得到第一指标集合;
将第一指标集合中的各个第一指标的累加和,确定为所述像素点对应的目标灰度值。
进一步地,所述方法还包括:
对得到的每个目标环境图像进行特征点检测处理,得到所述目标环境图像包括的目标特征点集合;
根据得到的两个目标特征点集合,对得到的两个目标环境图像进行光流匹配处理,得到匹配光流场;
根据所述匹配光流场,对得到的两个目标环境图像中的像素点进行分组,得到每个目标环境图像对应的像素点组集合,并对像素点组集合中的每个像素点组进行重要程度分析处理,得到所述像素点组对应的重要等级;
根据每个目标环境图像对应的像素点组集合中的各个像素点组对应的重要等级,对所述目标环境图像中的像素点组进行自适应编码,得到所述目标环境图像对应的目标编码集合;
根据目标环境图像对应的目标编码集合,对得到的两个目标环境图像进行压缩。
进一步地,所述根据得到的两个目标特征点集合,对得到的两个目标环境图像进行光流匹配处理,得到匹配光流场,包括:
根据得到的两个目标特征点集合对应的采集时间,将这两个目标特征点集合分别确定为第一目标特征点集合和第二目标特征点集合;
对于所述第一目标特征点集合中的每个第一目标特征点和所述第二目标特征点集合中的每个第二目标特征点,根据所述第一目标特征点对应的预设窗口和所述第二目标特征点对应的预设窗口,确定所述第一目标特征点与所述第二目标特征点之间的目标差异指标;
对于所述第一目标特征点集合中的每个第一目标特征点,从所述第二目标特征点集合中筛选出与所述第一目标特征点之间的目标差异指标最小的第二目标特征点,作为所述第一目标特征点对应的第三目标特征点;
当所述第一目标特征点集合中的第一目标特征点与该第一目标特征点对应的第三目标特征点之间的目标差异指标小于或等于预先设置的差异阈值时,将该第一目标特征点与该第一目标特征点对应的第三目标特征点,确定为相互匹配的两个匹配特征点;
将所述第一目标特征点集合中的匹配特征点,组合为一个匹配特征点集合,并将所述第二目标特征点集合中的匹配特征点,组合为另一个匹配特征点集合,得到两个匹配特征点集合;
将得到的两个匹配特征点集合之间的光流场,确定为匹配光流场。
进一步地,所述根据所述第一目标特征点对应的预设窗口和所述第二目标特征点对应的预设窗口,确定所述第一目标特征点与所述第二目标特征点之间的目标差异指标,包括:
将所述第一目标特征点所在的目标环境图像对应的参考图像,确定为第一参考图像,并将所述第二目标特征点所在的目标环境图像对应的参考图像,确定为第二参考图像;
将所述第一参考图像中与所述第一目标特征点相同位置处的像素点,确定为第一参考特征点,并将所述第二参考图像中与所述第二目标特征点相同位置处的像素点,确定为第二参考特征点;
将所述第一目标特征点和第一参考特征点对应的预设窗口中相同位置处的像素点对应的灰度值,组合为第一坐标,得到第一坐标序列,并将所述第二目标特征点和第二参考特征点对应的预设窗口中相同位置处的像素点对应的灰度值,组合为第二坐标,得到第二坐标序列;
将第一坐标序列和第二坐标序列中相同位置处的坐标之间的欧式距离,确定为第一距离,得到第一距离序列;
将第一距离序列中所有第一距离的均值,确定为第一差异指标;
对第一差异指标进行归一化,得到所述第一目标特征点与所述第二目标特征点之间的目标差异指标。
进一步地,所述根据所述匹配光流场,对得到的两个目标环境图像中的像素点进行分组,得到每个目标环境图像对应的像素点组集合,包括:
对所述匹配光流场中的各个速度矢量进行聚类,得到聚类簇集合;
将所述聚类簇集合中的每个聚类簇中的各个速度矢量对应的匹配特征点,确定为运动特征点,得到所述聚类簇对应的运动特征点组;
对每个聚类簇对应的运动特征点组中的运动特征点进行分组,得到所述聚类簇对应的第一运动特征点组和第二运动特征点组,其中,第一运动特征点组中的运动特征点均位于第一目标环境图像,第二运动特征点组均位于第二目标环境图像,第一目标环境图像和第二目标环境图像是得到的两个目标环境图像;
将第一目标环境图像中的每个第一运动特征点组对应的最小外接矩形内的像素点,组合为像素点组,并将第一目标环境图像中除了各个第一运动特征点组对应的最小外接矩形内的像素点之外的像素点,组合为像素点组,得到第一目标环境图像对应的像素点组集合;
将第二目标环境图像中的每个第二运动特征点组对应的最小外接矩形内的像素点,组合为像素点组,并将第二目标环境图像中除了各个第二运动特征点组对应的最小外接矩形内的像素点之外的像素点,组合为像素点组,得到第二目标环境图像对应的像素点组集合。
进一步地,所述对像素点组集合中的每个像素点组进行重要程度分析处理,得到所述像素点组对应的重要等级,包括:
将所述像素点组所在的区域输入预先训练完成的重要程度判别网络,得到所述像素点组对应的重要等级;
所述重要程度判别网络的训练过程,包括:
构建重要程度判别网络;
获取目标区域集合和所述目标区域集合中的每个目标区域对应的重要等级;
根据所述目标区域集合和所述目标区域集合中的各个目标区域对应的重要等级,对构建的重要程度判别网络进行训练,得到训练完成的重要程度判别网络。
进一步地,所述根据每个目标环境图像对应的像素点组集合中的各个像素点组对应的重要等级,对所述目标环境图像中的像素点组进行自适应编码,包括:
根据所述目标环境图像对应的像素点组集合中的各个像素点组对应的重要等级,对像素点组集合中的每个像素点组进行霍夫曼编码,得到所述像素点组对应的目标编码。
第二方面,本发明提供了一种免碰撞系统,包括处理器和存储器,上述处理器用于处理存储在上述存储器中的指令以实现上述的一种室内环境用图像处理方法。
本发明具有如下有益效果:
本发明的一种室内环境用图像处理方法,通过对初始室内环境图像进行图像处理,提高了图像质量和交通的安全性。首先,由于初始室内环境图像往往包含了目标车辆行驶附近的室内环境信息,因此获取初始室内环境图像,可以便于后续对目标车辆附近行驶环境进行免碰撞物体分析,并且获取目标车辆对应的两帧初始室内环境图像,可以便于后续分析免碰撞物体的运行轨迹,可以便于后续对目标车辆进行免碰撞提示。其中,免碰撞物体可以是需要车辆避免碰撞的物体。例如,免碰撞物体可以是但不限于:需要该车辆避免碰撞的车辆、人和柱子。免碰撞提示可以是对司机进行避开免碰撞物体的提示。接着,对每帧初始室内环境图像进行环境光线提取处理,可以得到表征环境光线强弱的参考图像。然后,基于参考图像,以及初始室内环境图像中的每个像素点对应的预设滑窗和预设卷积窗口,对初始室内环境图像中的像素点进行自适应反射干扰消除处理,在一定程度上可以消除初始室内环境图像中的像素点由于光线强弱引起的反射干扰,从而可以提高初始室内环境图像的质量,进而可以提高后续对两个目标环境图像进行光流匹配处理的准确性,从而可以便于后续进行免碰撞物体分析。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明的一种室内环境用图像处理方法的流程图;
图2为本发明可以包括的一些步骤的流程图;
图3为根据本发明的第一参考特征点和第一目标特征点的位置示意图;
图4为根据本发明的光流匹配示意图;
图5为根据本发明的编码过程示意图。
其中,附图标记包括:初始室内环境图像301、目标环境图像302、参考图像303、第一目标特征点304和第一参考特征点305。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的技术方案的具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一个实施例。此外,一个或多个实施例中的特定特征、结构或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
本发明提供了一种室内环境用图像处理方法,该方法包括以下步骤:
获取目标车辆对应的两帧初始室内环境图像;
对每帧初始室内环境图像进行环境光线提取处理,得到初始室内环境图像对应的参考图像;
基于每帧初始室内环境图像对应的参考图像,以及初始室内环境图像中的每个像素点对应的预设滑窗和预设卷积窗口,对初始室内环境图像中的每个像素点进行自适应反射干扰消除处理,得到像素点对应的目标灰度值;
将每帧初始室内环境图像中的每个像素点对应的灰度值,更新为像素点对应的目标灰度值,得到初始室内环境图像对应的目标环境图像。
下面对上述各个步骤进行详细展开:
参考图1,示出了本发明的一种室内环境用图像处理方法的一些实施例的流程。该室内环境用图像处理方法,包括以下步骤:
步骤S1,获取目标车辆对应的两帧初始室内环境图像。
在一些实施例中,可以获取目标车辆对应的两帧初始室内环境图像。
其中,目标车辆可以是室内停车场所内待进行环境障碍检测的车辆。室内停车场所可以是室内可以停车的场所。例如,室内停车场所可以是地下停车场。环境障碍检测可以用于检测目标车辆附近是否存在与目标车辆有碰撞风险的免碰撞物体。免碰撞物体可以是需要车辆避免碰撞的物体。例如,免碰撞物体可以是但不限于:需要该车辆避免碰撞的车辆、人和柱子。参考图像可以是去除前景信息的初始室内环境图像。两帧初始室内环境图像可以是对两帧车辆环境图像进行预处理后得到的两帧图像。两帧车辆环境图像可以是通过安装在目标车辆上的摄像头拍摄的目标车辆附近环境的两帧图像。比如,两帧车辆环境图像可以是通过安装在目标车辆上的摄像头拍摄的视频中相邻的两帧图像。预处理可以包括但不限于:灰度化处理、补光处理和对比度增强处理。
需要说明的是,由于初始室内环境图像往往包含了目标车辆行驶附近的室内环境信息,因此获取初始室内环境图像,可以便于后续对目标车辆附近行驶环境进行免碰撞物体分析,并且获取目标车辆对应的两帧初始室内环境图像,可以便于后续分析免碰撞物体的运行轨迹,可以便于后续对目标车辆进行免碰撞提示。其中,免碰撞提示可以是对司机进行避开免碰撞物体的提示。
作为示例,本步骤可以包括以下步骤:
第一步,通过安装在目标车辆上的摄像头,采集两帧车辆环境图像。
其中,采集这两帧车辆环境图像之间的时间间隔可以是预先设置的时间间隔。例如,采集这两帧车辆环境图像之间的时间间隔可以是秒。
第二步,对每帧车辆环境图像进行预处理,得到初始室内环境图像。
例如,对每帧车辆环境图像进行预处理,得到初始室内环境图像可以包括以下子步骤:
第一子步骤,对车辆环境图像进行灰度化处理,得到灰度图像。
比如,可以采用灰度化算法,对对车辆环境图像进行灰度化处理,得到灰度图像。其中,灰度化算法可以是但不限于:最大值法、平均值法和加权平均值法。
第二子步骤,对灰度图像进行补光处理,得到补光图像。
比如,可以采用PS(Adobe Photoshop,图像处理软件)技术,对灰度图像进行补光处理,得到补光图像。
第三子步骤,对补光图像进行对比度增强处理,得到初始室内环境图像。
比如,可以通过直方图均衡化算法,对补光图像进行对比度增强处理,得到初始室内环境图像。
步骤S2,对每帧初始室内环境图像进行环境光线提取处理,得到初始室内环境图像对应的参考图像。
在一些实施例中,可以对每帧初始室内环境图像进行环境光线提取处理,得到初始室内环境图像对应的参考图像。
需要说明的是,对每帧初始室内环境图像进行环境光线提取处理,可以得到表征环境光线强弱的参考图像,可以便于后续对初始室内环境图像中的像素点进行自适应反射干扰消除处理,以去除初始室内环境图像中由于光线强弱引起的反射干扰。
作为示例,本步骤可以包括以下步骤:
第一步,对上述初始室内环境图像进行去高频处理,得到低频分量图像。
例如,利用低通滤波,对初始室内环境图像进行去高频处理,得到低频分量图像。
其中,进行去高频处理的滤波截止频率可以是预先设置的。例如,滤波截止频率可以设置的尽可能小,比如可以设置为5赫兹。
第二步,对低频分量图像进行平滑,得到上述初始室内环境图像对应的参考图像。
例如,可以采用最小值滤波,对低频分量图像进行平滑,将前景信息几乎完全去除的同时还可以抑制部分反光高亮区域,仅留下模糊的光暗背景图像,作为初始室内环境图像的环境光线的参考图像。参考图像上几乎没有任何前景特征信息,因此参考图像中的像素点对应的灰度值可以表征背景环境光线的强弱。其中,采用最小值滤波时的滤波窗口可以是11×11的窗口。由于物体在室内运动时,光线变化对光流场影响很大,因此得到表征环境光线强弱的参考图像,可以便于后续对初始室内环境图像中的像素点进行自适应反射干扰消除处理。
步骤S3,基于每帧初始室内环境图像对应的参考图像,以及初始室内环境图像中的每个像素点对应的预设滑窗和预设卷积窗口,对初始室内环境图像中的每个像素点进行自适应反射干扰消除处理,得到像素点对应的目标灰度值。
在一些实施例中,可以基于每帧初始室内环境图像对应的参考图像,以及上述初始室内环境图像中的每个像素点对应的预设滑窗和预设卷积窗口,对上述初始室内环境图像中的每个像素点进行自适应反射干扰消除处理,得到上述像素点对应的目标灰度值。
其中,预设滑窗可以是预先设置的滑窗。预设卷积窗口可以是预先设置的卷积窗口。预设滑窗和预设卷积窗口的尺寸可以相同。例如,预设滑窗可以是5×5的滑窗。预设卷积窗口可以是5×5的卷积窗口。上述像素点可以位于预设滑窗的中心,即像素点位于该像素点对应的预设滑窗的中心。参考图像中与上述像素点相同位置处的像素点可以位于预设卷积窗口的中心,此时的参考图像可以是上述像素点所在的初始室内环境图像对应的参考图像。
需要说明的是,基于参考图像,对初始室内环境图像中的像素点进行自适应反射干扰消除处理,在一定程度上可以消除初始室内环境图像中的反射干扰,从而可以提高初始室内环境图像的质量,进而可以便于后续进行免碰撞物体分析。
作为示例,本步骤可以包括以下步骤:
第一步,对上述像素点对应的预设卷积窗口中的各个像素点对应的灰度值的累加和进行负相关映射,得到第一灰度值。
其中,像素点对应的灰度值可以是该像素点的灰度值。
第二步,将上述像素点对应的预设卷积窗口中的每个像素点对应的灰度值与第一灰度值的乘积,确定为预设卷积窗口中的每个像素点对应的参考权重,得到参考权重集合。
第三步,将参考权重集合中的每个参考权重与上述像素点对应的预设滑窗中的每个像素点对应的灰度值的乘积,确定为第一指标,得到第一指标集合。
比如,可以将每个参考权重与上述像素点对应的预设滑窗中的每个像素点对应的灰度值的乘积,确定为一个第一指标,得到每个参考权重对应的子第一指标集合,最终得到第一指标集合。其中,参考权重对应的子第一指标集合可以包括:该参考权重与上述像素点对应的预设滑窗中的各个像素点对应的灰度值的乘积,确定的多个第一指标。第一指标集合可以包括:参考权重集合中所有参考权重对应的子第一指标集合。
第四步,将第一指标集合中的各个第一指标的累加和,确定为上述像素点对应的目标灰度值。
例如,确定像素点对应的目标灰度值对应的公式可以为:
其中,是第i帧初始室内环境图像中第k个像素点对应的目标灰度值。Q是预设滑窗或预设卷积窗口中像素点的数量,若预设滑窗和预设卷积窗口的尺寸为5×5,则Q可以为25。/>是第i帧初始室内环境图像中第k个像素点对应的预设卷积窗口中的第r个像素点对应的灰度值。/>是第i帧初始室内环境图像中第k个像素点对应的预设滑窗中的第n个像素点对应的灰度值。γ1是预先设置的大于0的因子,主要为了防止分母为0,如γ1可以为0.01。i是初始室内环境图像的帧号。k是第i帧初始室内环境图像中像素点的序号。r是预设卷积窗口中像素点的序号。n是预设滑窗中像素点的序号。/>是第i帧初始室内环境图像中第k个像素点对应的第一灰度值。/>是第i帧初始室内环境图像中第k个像素点对应的预设卷积窗口中的第r个像素点对应的参考权重。/>是第k个像素点对应的预设卷积窗口中的第r个像素点与第k个像素点对应的预设滑窗中的第n个像素点之间的第一指标。/>可以实现对/>的负相关映射。
需要说明的是,若两帧初始室内环境图像中的物体始终处于一个光线环境稳定的区域,则光流场的稀疏度不会发生较大变化,而若两帧初始室内环境图像中的物体处于灰度变化区域,那么其光流场则将更为稀疏。但现有提出相邻像素点的梯度变量一致的观点来获取光流匹配结果,该观点需要假设动态目标物体上所有像素点的灰度值随着光线变化而线性变化,且所有像素点的变化系数需要统一。但该假设往往并不成立,因为环境光变化最大的干扰问题在于,物体由于不同的颜色和材质对光的反射作用往往不同,同样的光照强度变化,对不同颜色不同材质的物体对应的灰度值变化往往也存在差异。比如,车窗和车身,在光线发生变化时,两者灰度变化值往往并不相等。因此对初始室内环境图像进行自适应反射干扰消除处理,在一定程度上可以将同一物体由于不同颜色和材质导致的反射干扰消除,可以便于后续进行光流匹配处理。具体地,将作为卷积权重,对初始室内环境图像进行卷积,获取新的像素点灰度值,卷积后的图像(目标环境图像)可以使光线环境再次突出,削弱因为物体由于颜色和材质的不同而导致的灰度值变化差异。若像素区域未受到光线环境变化的影响,即光线环境稳定不变,则卷积值为均值,因此不会对其产生影响。仅会对环境光线变化区域的灰度值进行矫正。
步骤S4,将每帧初始室内环境图像中的每个像素点对应的灰度值,更新为像素点对应的目标灰度值,得到初始室内环境图像对应的目标环境图像。
在一些实施例中,可以将每帧初始室内环境图像中的每个像素点对应的灰度值,更新为像素点对应的目标灰度值,得到初始室内环境图像对应的目标环境图像。
作为示例,可以将上述初始室内环境图像中的每个像素点对应的灰度值,替换为上述像素点对应的目标灰度值,得到上述初始室内环境图像对应的目标环境图像。
参考图2,本发明还可以包括以下步骤:
步骤S5,对得到的每个目标环境图像进行特征点检测处理,得到目标环境图像包括的目标特征点集合。
在一些实施例中,可以对得到的每个目标环境图像进行特征点检测处理,得到上述目标环境图像包括的目标特征点集合。
其中,目标特征点集合中的目标特征点可以是目标环境图像中的角点。
需要说明的是,对目标环境图像进行特征点检测处理,可以便于后续基于目标特征点集合,对得到的两个目标环境图像进行光流匹配处理。
作为示例,可以通过角点检测算法,对目标环境图像进行角点检测,将角点检测得到的角点,确定为目标特征点。其中,角点检测算法可以是但不限于:Shi-Tomasi角点检测算法、Harris角点检测算法和opencv角点检测算法。
步骤S6,根据得到的两个目标特征点集合,对得到的两个目标环境图像进行光流匹配处理,得到匹配光流场。
在一些实施例中,可以根据得到的两个目标特征点集合,对得到的两个目标环境图像进行光流匹配处理,得到匹配光流场。
需要说明的是,基于目标特征点集合,对两个目标环境图像进行光流匹配处理,可以得到更加精确的匹配光流场,可以便于后续精确分析免碰撞物体的运行轨迹。
作为示例,本步骤可以包括以下步骤:
第一步,根据得到的两个目标特征点集合对应的采集时间,将这两个目标特征点集合分别确定为第一目标特征点集合和第二目标特征点集合。
其中,目标特征点集合对应的采集时间可以是该目标特征点集合对应的车辆环境图像的采集时间。目标特征点集合对应的车辆环境图像可以是该目标特征点集合所在的目标环境图像对应的车辆环境图像。目标环境图像对应的车辆环境图像可以是参与确定该目标环境图像的车辆环境图像。
例如,可以将得到的两个目标特征点集合中采集时间较早的目标特征点集合中的目标特征点,确定为第一目标特征点,得到第一目标特征点集合,并将采集时间较晚的目标特征点集合中的目标特征点,确定为第二目标特征点,得到第二目标特征点集合。
第二步,对于上述第一目标特征点集合中的每个第一目标特征点和上述第二目标特征点集合中的每个第二目标特征点,根据上述第一目标特征点对应的预设窗口和上述第二目标特征点对应的预设窗口,确定上述第一目标特征点与上述第二目标特征点之间的目标差异指标。
例如,根据上述第一目标特征点对应的预设窗口和上述第二目标特征点对应的预设窗口,确定上述第一目标特征点与上述第二目标特征点之间的目标差异指标可以包括以下子步骤:
第一子步骤,将上述第一目标特征点所在的目标环境图像对应的参考图像,确定为第一参考图像,并将上述第二目标特征点所在的目标环境图像对应的参考图像,确定为第二参考图像。
其中,目标环境图像对应的参考图像可以是参与确定该目标环境图像的参考图像。
第二子步骤,将上述第一参考图像中与上述第一目标特征点相同位置处的像素点,确定为第一参考特征点,并将上述第二参考图像中与上述第二目标特征点相同位置处的像素点,确定为第二参考特征点。
比如,如图3所示,目标环境图像302可以是初始室内环境图像301对应的目标环境图像。参考图像303可以是初始室内环境图像301对应的参考图像。第一参考特征点305可以是参考图像303中与第一目标特征点304相同位置处的像素点。
第三子步骤,将上述第一目标特征点和第一参考特征点对应的预设窗口中相同位置处的像素点对应的灰度值,组合为第一坐标,得到第一坐标序列,并将上述第二目标特征点和第二参考特征点对应的预设窗口中相同位置处的像素点对应的灰度值,组合为第二坐标,得到第二坐标序列。
比如,首先可以按照从左至右,并且从上至下的顺序,对第一目标特征点对应的预设窗口中的各个像素点进行排序,并将得到的像素点序列,作为第一目标像素点序列。接着,可以按照从左至右,并且从上至下的顺序,对第一参考特征点对应的预设窗口中的各个像素点进行排序,并将得到的像素点序列,作为第二目标像素点序列。然后,将第一目标像素点序列和第二目标像素点序列中相同位置处的像素点对应的灰度值,组合为第一坐标,得到第一坐标序列。其中,第一坐标包括的横坐标可以是第一目标像素点对应的灰度值。第一坐标包括的纵坐标可以是第二目标像素点对应的灰度值。
继续,可以按照从左至右,并且从上至下的顺序,对第二目标特征点对应的预设窗口中的各个像素点进行排序,并将得到的像素点序列,作为第三目标像素点序列。再者,可以按照从左至右,并且从上至下的顺序,对第二参考特征点对应的预设窗口中的各个像素点进行排序,并将得到的像素点序列,作为第四目标像素点序列。最后,将第三目标像素点序列和第四目标像素点序列中相同位置处的像素点对应的灰度值,组合为第二坐标,得到第二坐标序列。其中,第二坐标包括的横坐标可以是第三目标像素点对应的灰度值。第二坐标包括的纵坐标可以是第四目标像素点对应的灰度值。
第四子步骤,将第一坐标序列和第二坐标序列中相同位置处的坐标之间的欧式距离,确定为第一距离,得到第一距离序列。
第五子步骤,将第一距离序列中所有第一距离的均值,确定为第一差异指标。
比如,确定第一目标特征点与第二目标特征点之间的第一差异指标对应的公式可以为:
其中,MSEab是第一目标特征点集合中第a个第一目标特征点与第二目标特征点集合中第b个第二目标特征点之间的第一差异指标。Q是预设滑窗中像素点的数量,若预设滑窗的尺寸为5×5,则Q可以为25。gan是第a个第一目标特征点对应的预设窗口中第n个像素点对应的灰度值。Gan是第a个第一目标特征点对应的第一参考特征点对应的预设窗口中第n个像素点对应的灰度值。gbn是第b个第二目标特征点对应的预设窗口中第n个像素点对应的灰度值。Gbn是第b个第二目标特征点对应的第二参考特征点对应的预设窗口中第n个像素点对应的灰度值。(gan,Gan)是第一坐标序列中第n个第一坐标。(gbn,Gbn)是第二坐标序列中第n个第二坐标。是第n个第一坐标与第n个第二坐标之间的欧式距离,即为第一距离序列中的第n个第一距离。a是第一目标特征点集合中第一目标特征点的序号。b是第二目标特征点集合中第二目标特征点的序号。n是预设滑窗中像素点的序号。由于第一坐标序列和第二坐标序列中元素的数量与预设滑窗中像素点的数量相等,并且第一坐标序列和第二坐标序列中的元素可以由对应的预设滑窗中对应位置处的像素点对应的灰度值组成,因此n还可以是第一坐标序列中第一坐标的序号。
需要说明的是,可以表征第a个第一目标特征点与第b个第二目标特征点对应的预设滑窗中相同位置处的像素点在对应的参考图像之间的环境光差异,以及第a个第一目标特征点与第b个第二目标特征点对应的预设滑窗中相同位置处的像素点在对应的目标环境图像之间的灰度差异。可以表征第a个第一目标特征点与第b个第二目标特征点在对应的参考图像之间的环境光差异,以及第a个第一目标特征点与第b个第二目标特征点在对应的目标环境图像之间的灰度差异。因此,当第一差异指标越小时,往往说明第a个第一目标特征点与第b个第二目标特征点越可能相互匹配,往往说明第a个第一目标特征点与第b个第二目标特征点越可能是同一个物体对应的像素点。
第六子步骤,对第一差异指标进行归一化,得到上述第一目标特征点与上述第二目标特征点之间的目标差异指标。
第三步,对于上述第一目标特征点集合中的每个第一目标特征点,从上述第二目标特征点集合中筛选出与上述第一目标特征点之间的目标差异指标最小的第二目标特征点,作为上述第一目标特征点对应的第三目标特征点。
第四步,当上述第一目标特征点集合中的第一目标特征点与该第一目标特征点对应的第三目标特征点之间的目标差异指标小于或等于预先设置的差异阈值时,将该第一目标特征点与该第一目标特征点对应的第三目标特征点,确定为相互匹配的两个匹配特征点。
其中,差异阈值可以是预先设置的认为第一目标特征点与第三目标特征点是相同物体的相同位置对应的目标特征点时,最大的目标差异指标。例如,差异阈值可以是0.2。
比如,当上述第一目标特征点集合中的第一目标特征点与该第一目标特征点对应的第三目标特征点之间的目标差异指标小于或等于差异阈值时,可以将该第一目标特征点确定为匹配特征点,将该第一目标特征点对应的第三目标特征点,确定为匹配特征点,得到的这两个匹配特征点相互匹配。
第五步,将上述第一目标特征点集合中的匹配特征点,组合为一个匹配特征点集合,并将上述第二目标特征点集合中的匹配特征点,组合为另一个匹配特征点集合,得到两个匹配特征点集合。
第六步,将得到的两个匹配特征点集合之间的光流场,确定为匹配光流场。
例如,首先可以从得到的两个匹配特征点集合中筛选出相互匹配的匹配特征点,将筛选出的每两个相互匹配的匹配特征点,组成一个匹配特征点组,得到匹配特征点组集合。接着,可以将匹配特征点组集合中的每个匹配特征点组中的两个匹配特征点之间的速度,确定为组成匹配光流场的速度矢量。其中,匹配特征点组集合中的匹配特征点组可以与组成匹配光流场的速度矢量一一对应。即匹配光流场中的每个速度矢量对应两个匹配特征点。
比如,确定匹配特征点组中的两个匹配特征点之间的速度的方式可以为:将这两个匹配特征点移动至目标坐标系下,并将在该坐标系下这两个匹配特征点之间的欧式距离对应的数值,确定为这两个匹配特征点之间的速度大小,连接这两个匹配特征点,并将这两个匹配特征点采集时间较早的匹配特征点指向采集时间较晚的匹配特征点的连线方向,确定为这两个匹配特征点之间的速度方向。其中,匹配特征点的采集时间可以是匹配特征点所在的目标环境图像对应的车辆环境图像的采集时间。目标坐标系可以是以目标环境图像的左上角为原点,以目标环境图像的宽所在的方向为横轴,以目标环境图像的高所在的方向为纵轴的坐标系。
需要说明的是,当运动速度较慢时,连续帧的图像中环境光变化基本是渐变的,因此进行光流的跟踪时一般不会中断,但当运动物体处于环境光变化剧烈的区域时,很可能出现光流极为稀疏且失真的问题,中断光流跟踪或出现较大误差,导致光流场混乱。对于相邻帧的图像光线环境变化导致光流稀疏问题,尽可能使光流矢量集中在相同、相近的背景光下,收敛其匹配范围,往往可使相同背景光线部分的光流场更为密集且更准确。对于相邻帧的图像而言,环境光线相同的区域光流匹配结果往往更为可信,环境光变化剧烈的区域光流匹配结果往往不可信,因此提高前者光流场的稠密度,让背景环境相近且匹配的像素点之间形成光流,暗区域和暗区域匹配,亮区域和亮区域匹配,使光流矢量集中在相同的环境光内,因为当环境光亮暗差异较大的区域之间进行光流匹配,既损耗特征点且光流匹配结果准确性较差。收敛起匹配范围后尽管运动物体处于光暗变化剧烈的区域内光流变得更为稀疏,但是处于同环境光下区域内的光流却变得更为密集,且准确度高,即使通过局部的光流场也可得到准确的光流矢量,保持稳定的光流跟踪。在光线亮暗变化剧烈区域的像素点,其匹配结果极不稳定,光流场稀疏且混乱。本发明的目的是将光流矢量集中在同环境光区域,如图4所示,使两帧图像中的亮暗变化剧烈区域的光流矢量几乎很稀疏,但同暗区域(两帧图像中均为暗区域的区域)和同亮区域(两帧图像中均为亮区域的区域)的光流矢量变得更为密集且光流匹配准确度高。
现有光流法假设相邻两帧中运动像素点的亮度是恒定的,然而运动像素点在动态变化过程中往往并不可能全程保持亮度恒定,且在地下停车场的室内环境中,多个方向的车灯和安装的高度较高的照明光源等,往往导致不同区域的亮度本就相差较大。在光线环境较差的图像中,图像细节丢失较多,因此所得光流场一般为稀疏光流(速度),当运动物体所处环境光变化时,光流矢量(速度)依然比较稀疏且欠缺准确性。因此本发明对得到的两个目标环境图像进行光流匹配处理,可以在一定程度上改善这种问题。
步骤S7,根据匹配光流场,对得到的两个目标环境图像中的像素点进行分组,得到每个目标环境图像对应的像素点组集合,并对像素点组集合中的每个像素点组进行重要程度分析处理,得到像素点组对应的重要等级。
在一些实施例中,可以根据上述匹配光流场,对得到的两个目标环境图像中的像素点进行分组,得到每个目标环境图像对应的像素点组集合,并对像素点组集合中的每个像素点组进行重要程度分析处理,得到上述像素点组对应的重要等级。
需要说明的是,对目标环境图像中的每个像素点组进行重要程度分析处理,可以提高像素点组对应的重要等级确定的准确度,可以便于后续对目标环境图像中的像素点组进行自适应编码,可以避免将重要信息编码为容易丢失的编码信息,可以减少重要信息的丢失,从而可以提高交通的安全性。
作为示例,本步骤可以包括以下步骤:
第一步,对上述匹配光流场中的各个速度矢量进行聚类,得到聚类簇集合。
例如,对上述匹配光流场中的各个速度矢量进行聚类,得到聚类簇集合可以包括以下子步骤:
第一子步骤,确定匹配光流场中任意两个速度矢量之间的目标距离。
比如,可以将任意两个速度矢量对应的匹配特征点移动至目标坐标系下,并在该坐标系下,将第一匹配特征点与第二匹配特征点之间的欧式距离,确定为第一欧式距离,将第三匹配特征点与第四匹配特征点之间的欧式距离,确定为第二欧式距离,并将第一欧式距离与第二欧式距离的均值,确定为这两个速度矢量之间的目标距离。其中,第一匹配特征点与第三匹配特征点可以是同一个速度矢量对应的两个匹配特征点。第二匹配特征点与第四匹配特征点可以是同一个速度矢量对应的两个匹配特征点。第一匹配特征点与第二匹配特征点可以是同一帧目标环境图像中的像素点。第三匹配特征点与第四匹配特征点可以是同一帧目标环境图像中的像素点。
第二子步骤,基于速度矢量与速度矢量之间的目标距离,对匹配光流场中的各个速度矢量进行聚类,得到聚类簇集合。
其中,聚类簇集合中的聚类簇可以是由同一个物体对应的速度矢量组成的簇。
比如,对于匹配光流场中任意两个速度矢量,若这两个速度矢量的方向之间的夹角小于或等于预先设置的夹角阈值、这两个速度矢量对应的速率的差值的绝对值小于或等于预先设置的差别阈值,并且这两个速度矢量之间的目标距离小于或等于预先设置的距离阈值,则将这两个速度矢量聚到同一个聚类簇。其中,夹角阈值可以是预先设置的认为两个速度矢量对应的匹配特征点是同一个物体对应的像素点时,这两个速度矢量的方向之间最大的夹角。如,夹角阈值可以是1°。差别阈值可以是预先设置的认为两个速度矢量对应的匹配特征点是同一个物体对应的像素点时,这两个速度矢量对应的速率最大的差值绝对值。如,差别阈值可以是0.05。距离阈值可以是预先设置的认为两个速度矢量对应的匹配特征点是同一个物体对应的像素点时,最大的目标距离。如,距离阈值可以是1。
第二步,将上述聚类簇集合中的每个聚类簇中的各个速度矢量对应的匹配特征点,确定为运动特征点,得到上述聚类簇对应的运动特征点组。
其中,聚类簇对应的运动特征点组可以由该聚类簇中的各个速度矢量对应的匹配特征点组成。聚类簇对应的运动特征点组中运动特征点的数量可以等于该聚类簇中速度矢量的数量的2倍。
第三步,对每个聚类簇对应的运动特征点组中的运动特征点进行分组,得到上述聚类簇对应的第一运动特征点组和第二运动特征点组。
其中,第一运动特征点组中的运动特征点可以均位于第一目标环境图像。第二运动特征点组可以均位于第二目标环境图像。第一目标环境图像和第二目标环境图像可以是得到的两个目标环境图像。聚类簇对应的第一运动特征点组和第二运动特征点组对应的物体可以相同。
第四步,将第一目标环境图像中的每个第一运动特征点组对应的最小外接矩形内的像素点,组合为像素点组,并将第一目标环境图像中除了各个第一运动特征点组对应的最小外接矩形内的像素点之外的像素点,组合为像素点组,得到第一目标环境图像对应的像素点组集合。
其中,运动特征点组对应的最小外接矩形可以是运动特征点组中所有的运动特征点的最小外接矩形。运动特征点组对应的最小外接矩形中的各个像素点可以是同一个物体对应的像素点。
第五步,将第二目标环境图像中的每个第二运动特征点组对应的最小外接矩形内的像素点,组合为像素点组,并将第二目标环境图像中除了各个第二运动特征点组对应的最小外接矩形内的像素点之外的像素点,组合为像素点组,得到第二目标环境图像对应的像素点组集合。
第六步,将上述像素点组所在的区域输入预先训练完成的重要程度判别网络,得到上述像素点组对应的重要等级。
其中,重要程度判别网络可以用于判断图像区域的重要等级。重要程度判别网络可以是卷积神经网络。
例如,重要程度判别网络的训练过程可以包括以下子步骤:
第一子步骤,构建重要程度判别网络。
比如,可以构建卷积神经网络,作为训练前的重要程度判别网络。
第二子步骤,获取目标区域集合和上述目标区域集合中的每个目标区域对应的重要等级。
其中,目标区域集合中的目标区域可以是在室内停车场中,由安装在车辆上的摄像头拍摄的物体所在的区域。物体可以是但不限于:车辆、人、柱子和地面。目标区域对应的重要等级可以是根据实际情况为目标区域设置的重要等级。
比如,若目标区域集合包括:车辆所在的目标区域、人所在的目标区域、柱子所在的目标区域和地面所在的目标区域,则可以将人所在的目标区域对应的重要等级设置为一等级,代表最高等级,将车辆所在的目标区域对应的重要等级设置为二等级,代表第二高等级,将柱子所在的目标区域对应的重要等级设置为三等级,代表第三高等级,将地面所在的目标区域对应的重要等级设置为四等级,代表第四高等级。
第三子步骤,根据上述目标区域集合和上述目标区域集合中的各个目标区域对应的重要等级,对构建的重要程度判别网络进行训练,得到训练完成的重要程度判别网络。
比如,可以将目标区域集合作为重要程度判别网络的训练集,将目标区域对应的重要等级作为重要程度判别网络的训练标签,对构建的重要程度判别网络进行训练,得到训练完成的重要程度判别网络。
步骤S8,根据每个目标环境图像对应的像素点组集合中的各个像素点组对应的重要等级,对目标环境图像中的像素点组进行自适应编码,得到目标环境图像对应的目标编码集合。
在一些实施例中,可以根据每个目标环境图像对应的像素点组集合中的各个像素点组对应的重要等级,对上述目标环境图像中的像素点组进行自适应编码,得到上述目标环境图像对应的目标编码集合。
其中,目标编码可以是像素点组的编码。
需要说明的是,基于各个像素点组对应的重要等级,对目标环境图像中的像素点组进行自适应编码,可以避免将重要信息编码为容易丢失的编码信息,可以减少重要信息的丢失,从而可以提高交通的安全性。
作为示例,可以根据上述目标环境图像对应的像素点组集合中的各个像素点组对应的重要等级,对像素点组集合中的每个像素点组进行霍夫曼编码,得到上述像素点组对应的目标编码。
例如,若像素点组集合包括6个像素点组,并且这6个像素点组对应的重要等级可以如表1所示。
表1
序号 1 2 3 4 5
重要等级 一等级 二等级 一等级 四等级 三等级
由表1可以看出,像素点组集合中的第1个像素点组对应的重要等级为一等级,第2个像素点组对应的重要等级为二等级,第3个像素点组对应的重要等级为一等级,第4个像素点组对应的重要等级为四等级,第5个像素点组对应的重要等级为三等级。对这些像素点组进行霍夫曼编码时的编码过程图可以如图5所示。由图5可知,重要等级为一等级的第1个像素点组对应的目标编码可以是0,重要等级为二等级的第2个像素点组对应的目标编码可以是110,重要等级为一等级的第3个像素点组对应的目标编码可以是10,重要等级为四等级的第4个像素点组对应的目标编码可以是11110,重要等级为三等级的第5个像素点组对应的目标编码可以是1110。
又如,根据上述目标环境图像对应的像素点组集合中的各个像素点组对应的重要等级,对像素点组集合中的每个像素点组进行霍夫曼编码可以包括以下子步骤:
第一子步骤,根据上述目标环境图像对应的像素点组集合中的各个像素点组对应的重要等级,将像素点组集合中的像素点组分为两类,分别作为有效信息类和低效信息类。
其中,有效信息类中的像素点组对应的物体可以是免碰撞物体。低效信息类中的像素点组对应的物体可以是不需要该车辆避免碰撞的物体,例如,图像中拍摄到的地面。
比如,可以将重要等级最低的像素点组,划分为低效信息类,并将重要等级不是最低的像素点组,划分为有效信息类。
第二子步骤,可以为有效信息类中的像素点按照冗余度共同分配0.5的传输权重,并为低效信息类中的像素点按照冗余度共同分配0.5的传输权重,并按照传输权重对所有像素点进行排序,从传输权重最低的两个像素类型向上构建霍夫曼树,得到像素点组对应的目标编码。其中,像素点组对应的目标编码可以包括该像素点组中的各个像素点对应的编码。后续还可以根据目标环境图像对应的目标编码集合,对得到的两个目标环境图像进行传输,并将得到的两个目标环境图像传输至免碰撞系统,用于免碰撞物体分析。
需要说明的是,由于有效信息类中的像素点数量往往低于其余像素点数量,因此按此分配比例,可以使有效信息类中的像素点获得更高的传输权重,并且按照传输权重对所有像素点进行排序,从传输权重最低的两个像素类型向上构建霍夫曼树,获取每个像素点组的编码结果,使传输权重越高,编码长度越短,反之传输权重越低编码长度越长。
步骤S9,根据目标环境图像对应的目标编码集合,对得到的两个目标环境图像进行压缩。
在一些实施例中,可以根据目标环境图像对应的目标编码集合,对得到的两个目标环境图像进行压缩。
需要说明的是,基于目标编码集合,对得到的两个目标环境图像进行压缩,可以在压缩过程中减少重要信息的丢失。因此,本发明得到了质量较高的目标环境图像,并且对目标环境图像中的像素点组进行自适应编码,可以减少重要信息的丢失,从而可以提高交通的安全性。
作为示例,可以根据目标环境图像对应的目标编码集合,对目标环境图像进行压缩。
基于与上述方法实施例相同的发明构思,本发明提供了一种免碰撞系统,该系统包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,上述计算机程序被处理器执行时实现一种室内环境用图像处理方法的步骤。
需要说明的是,一种免碰撞系统可以是软件系统,可以实现一种室内环境用图像处理方法的步骤,具体可以为:可以采用步骤S1的方法,实现获取目标车辆对应的两帧初始室内环境图像。可以采用步骤S2的方法,实现对每帧初始室内环境图像进行环境光线提取处理,得到初始室内环境图像对应的参考图像。可以采用步骤S3的方法,实现基于每帧初始室内环境图像对应的参考图像,以及初始室内环境图像中的每个像素点对应的预设滑窗和预设卷积窗口,对初始室内环境图像中的每个像素点进行自适应反射干扰消除处理,得到像素点对应的目标灰度值。可以采用步骤S4的方法,实现将每帧初始室内环境图像中的每个像素点对应的灰度值,更新为像素点对应的目标灰度值,得到初始室内环境图像对应的目标环境图像。可以步骤S5至步骤S9的方法,实现对得到的两个目标环境图像进行压缩,具体可以包括:可以采用步骤S5的方法,实现对得到的每个目标环境图像进行特征点检测处理,得到上述目标环境图像包括的目标特征点集合。可以采用步骤S6的方法,实现根据得到的两个目标特征点集合,对得到的两个目标环境图像进行光流匹配处理,得到匹配光流场。可以采用步骤S7的方法,实现根据上述匹配光流场,对得到的两个目标环境图像中的像素点进行分组,得到每个目标环境图像对应的像素点组集合,并对像素点组集合中的每个像素点组进行重要程度分析处理,得到上述像素点组对应的重要等级。可以采用步骤S8的方法,实现根据每个目标环境图像对应的像素点组集合中的各个像素点组对应的重要等级,对上述目标环境图像中的像素点组进行自适应编码,得到上述目标环境图像对应的目标编码集合。可以采用步骤S9的方法,实现根据目标环境图像对应的目标编码集合,对得到的两个目标环境图像进行压缩。可以根据存储的这两个目标环境图像,确定目标环境提示信息,将上述目标环境提示信息发送至目标终端,用于免碰撞提示。
其中,目标环境提示信息可以是基于这两个目标环境图像,得到的关于目标车辆附近环境的提示信息。例如,目标环境提示信息可以是“10米处有行人,请小心驾驶”。
作为示例,首先,可以将目标环境图像对应的像素点组集合中的每个像素点组所在的区域输入预先训练完成的目标识别网络,确定上述像素点组对应的种类。其中,像素点组对应的种类可以是但不限于:车辆、人、柱子和地面。目标识别网络可以用于识别图像区域的种类。例如,目标识别网络可以是卷积神经网络。接着,可以根据目标环境图像对应的像素点组集合中的各个像素点组对应的种类,从像素点组集合中筛选出目标像素点组。其中,目标像素点组可以是由需要避免碰撞物体对应的像素点组成的组。例如,目标像素点组可以是种类为人的像素点组。最后,可以通过毫米波雷达,测量目标车辆与目标像素点组对应的物体之间的距离,并生成目标环境提示信息。其中,目标环境提示信息可以包括:目标像素点组对应的种类、以及目标车辆与目标像素点组对应的物体之间的距离。
可选地,目标识别网络的训练过程可以包括以下步骤:
第一步,构建目标识别网络。
比如,可以构建卷积神经网络,作为训练前的目标识别网络。
第二步,获取目标区域集合和上述目标区域集合中的每个目标区域对应的种类。
其中,目标区域集合中的目标区域可以是在室内停车场中拍摄的物体所在的区域。物体可以是但不限于:车辆、人、柱子和地面。目标区域对应的种类可以是目标区域对应的物体的种类。
第三步,根据上述目标区域集合和上述目标区域集合中的各个目标区域对应的种类,对构建的目标识别网络进行训练,得到训练完成的目标识别网络。
比如,可以将目标区域集合作为目标识别网络的训练集,将目标区域对应的种类作为目标识别网络的训练标签,对构建的目标识别网络进行训练,得到训练完成的目标识别网络。
可选地,针对这两个目标环境图像可得免碰撞物体的速度,并识别免碰撞物体的种类,通过毫米波雷达的点阵数据可以得到目标车辆与其之间的距离,并提示司机,以便于司机做出最优的免碰撞方案。
实际情况中,为了更加准确的判断免碰撞物体的运动情况,也可以将大于2帧的目标环境图像进行压缩,以便于后续将目标环境图像传输至可以进行免碰撞物体分析的模块,以更加准确的分析免碰撞物体的运动情况。
综上,首先由于初始室内环境图像往往包含了目标车辆行驶附近的室内环境信息,因此获取初始室内环境图像,可以便于后续对目标车辆附近行驶环境进行免碰撞物体分析,并且获取目标车辆对应的两帧初始室内环境图像,可以便于后续分析免碰撞物体的运行轨迹,可以便于后续对目标车辆进行免碰撞提示。然后,对每帧初始室内环境图像进行除去前景处理,可以得到表征环境光线强弱的参考图像,可以便于后续对初始室内环境图像进行自适应反射干扰消除处理,以去除初始室内环境图像中由于光线强弱引起的反射干扰。接着,基于参考图像,对初始室内环境图像进行自适应反射干扰消除处理,在一定程度上可以消除初始室内环境图像中的反射干扰,从而可以提高初始室内环境图像的质量,进而可以便于后续进行免碰撞物体分析。继续,对目标环境图像进行特征点检测处理,可以便于后续基于目标特征点集合,对得到的两个目标环境图像进行光流匹配处理。之后,基于目标特征点集合,对两个目标环境图像进行光流匹配处理,可以得到更加精确的匹配光流场,可以便于后续精确分析免碰撞物体的运行轨迹。而后,对目标环境图像中的每个像素点组进行重要程度分析处理,可以提高像素点组对应的重要等级确定的准确度,可以便于后续对目标环境图像中的像素点组进行自适应编码,可以避免将重要信息编码为容易丢失的编码信息,可以减少重要信息的丢失,从而可以提高交通的安全性。再者,基于各个像素点组对应的重要等级,对目标环境图像中的像素点组进行自适应编码,可以避免将重要信息编码为容易丢失的编码信息,可以减少重要信息的丢失,从而可以提高交通的安全性。最后,基于目标编码集合,对得到的两个目标环境图像进行压缩,可以在压缩过程中减少重要信息的丢失。因此,本发明得到了质量较高的目标环境图像,并且对目标环境图像中的像素点组进行自适应编码,可以减少重要信息的丢失,从而可以提高交通的安全性。
需要说明的是,一种免碰撞系统可以是硬件系统,可以包括用于采集初始室内环境图像的摄像头和数据处理模块,其中,数据处理模块可以用于实现一种室内环境用图像处理方法的步骤。用于采集初始室内环境图像的摄像头可以与数据处理模块相连接。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种室内环境用图像处理方法,其特征在于,包括以下步骤:
获取目标车辆对应的两帧初始室内环境图像;
对每帧初始室内环境图像进行环境光线提取处理,得到所述初始室内环境图像对应的参考图像;
基于每帧初始室内环境图像对应的参考图像,以及所述初始室内环境图像中的每个像素点对应的预设滑窗和预设卷积窗口,对所述初始室内环境图像中的每个像素点进行自适应反射干扰消除处理,得到所述像素点对应的目标灰度值;
将每帧初始室内环境图像中的每个像素点对应的灰度值,更新为所述像素点对应的目标灰度值,得到所述初始室内环境图像对应的目标环境图像。
2.根据权利要求1所述的一种室内环境用图像处理方法,其特征在于,所述对每帧初始室内环境图像进行环境光线提取处理,得到所述初始室内环境图像对应的参考图像,包括:
对所述初始室内环境图像进行去高频处理,得到低频分量图像;
对低频分量图像进行平滑,得到所述初始室内环境图像对应的参考图像。
3.根据权利要求1所述的一种室内环境用图像处理方法,其特征在于,所述对所述初始室内环境图像中的每个像素点进行自适应反射干扰消除处理,得到所述像素点对应的目标灰度值,包括:
对所述像素点对应的预设卷积窗口中的各个像素点对应的灰度值的累加和进行负相关映射,得到第一灰度值;
将所述像素点对应的预设卷积窗口中的每个像素点对应的灰度值与第一灰度值的乘积,确定为预设卷积窗口中的每个像素点对应的参考权重,得到参考权重集合;
将参考权重集合中的每个参考权重与所述像素点对应的预设滑窗中的每个像素点对应的灰度值的乘积,确定为第一指标,得到第一指标集合;
将第一指标集合中的各个第一指标的累加和,确定为所述像素点对应的目标灰度值。
4.根据权利要求1所述的一种室内环境用图像处理方法,其特征在于,所述方法还包括:
对得到的每个目标环境图像进行特征点检测处理,得到所述目标环境图像包括的目标特征点集合;
根据得到的两个目标特征点集合,对得到的两个目标环境图像进行光流匹配处理,得到匹配光流场;
根据所述匹配光流场,对得到的两个目标环境图像中的像素点进行分组,得到每个目标环境图像对应的像素点组集合,并对像素点组集合中的每个像素点组进行重要程度分析处理,得到所述像素点组对应的重要等级;
根据每个目标环境图像对应的像素点组集合中的各个像素点组对应的重要等级,对所述目标环境图像中的像素点组进行自适应编码,得到所述目标环境图像对应的目标编码集合;
根据目标环境图像对应的目标编码集合,对得到的两个目标环境图像进行压缩。
5.根据权利要求4所述的一种室内环境用图像处理方法,其特征在于,所述根据得到的两个目标特征点集合,对得到的两个目标环境图像进行光流匹配处理,得到匹配光流场,包括:
根据得到的两个目标特征点集合对应的采集时间,将这两个目标特征点集合分别确定为第一目标特征点集合和第二目标特征点集合;
对于所述第一目标特征点集合中的每个第一目标特征点和所述第二目标特征点集合中的每个第二目标特征点,根据所述第一目标特征点对应的预设窗口和所述第二目标特征点对应的预设窗口,确定所述第一目标特征点与所述第二目标特征点之间的目标差异指标;
对于所述第一目标特征点集合中的每个第一目标特征点,从所述第二目标特征点集合中筛选出与所述第一目标特征点之间的目标差异指标最小的第二目标特征点,作为所述第一目标特征点对应的第三目标特征点;
当所述第一目标特征点集合中的第一目标特征点与该第一目标特征点对应的第三目标特征点之间的目标差异指标小于或等于预先设置的差异阈值时,将该第一目标特征点与该第一目标特征点对应的第三目标特征点,确定为相互匹配的两个匹配特征点;
将所述第一目标特征点集合中的匹配特征点,组合为一个匹配特征点集合,并将所述第二目标特征点集合中的匹配特征点,组合为另一个匹配特征点集合,得到两个匹配特征点集合;
将得到的两个匹配特征点集合之间的光流场,确定为匹配光流场。
6.根据权利要求5所述的一种室内环境用图像处理方法,其特征在于,所述根据所述第一目标特征点对应的预设窗口和所述第二目标特征点对应的预设窗口,确定所述第一目标特征点与所述第二目标特征点之间的目标差异指标,包括:
将所述第一目标特征点所在的目标环境图像对应的参考图像,确定为第一参考图像,并将所述第二目标特征点所在的目标环境图像对应的参考图像,确定为第二参考图像;
将所述第一参考图像中与所述第一目标特征点相同位置处的像素点,确定为第一参考特征点,并将所述第二参考图像中与所述第二目标特征点相同位置处的像素点,确定为第二参考特征点;
将所述第一目标特征点和第一参考特征点对应的预设窗口中相同位置处的像素点对应的灰度值,组合为第一坐标,得到第一坐标序列,并将所述第二目标特征点和第二参考特征点对应的预设窗口中相同位置处的像素点对应的灰度值,组合为第二坐标,得到第二坐标序列;
将第一坐标序列和第二坐标序列中相同位置处的坐标之间的欧式距离,确定为第一距离,得到第一距离序列;
将第一距离序列中所有第一距离的均值,确定为第一差异指标;
对第一差异指标进行归一化,得到所述第一目标特征点与所述第二目标特征点之间的目标差异指标。
7.根据权利要求5所述的一种室内环境用图像处理方法,其特征在于,所述根据所述匹配光流场,对得到的两个目标环境图像中的像素点进行分组,得到每个目标环境图像对应的像素点组集合,包括:
对所述匹配光流场中的各个速度矢量进行聚类,得到聚类簇集合;
将所述聚类簇集合中的每个聚类簇中的各个速度矢量对应的匹配特征点,确定为运动特征点,得到所述聚类簇对应的运动特征点组;
对每个聚类簇对应的运动特征点组中的运动特征点进行分组,得到所述聚类簇对应的第一运动特征点组和第二运动特征点组,其中,第一运动特征点组中的运动特征点均位于第一目标环境图像,第二运动特征点组均位于第二目标环境图像,第一目标环境图像和第二目标环境图像是得到的两个目标环境图像;
将第一目标环境图像中的每个第一运动特征点组对应的最小外接矩形内的像素点,组合为像素点组,并将第一目标环境图像中除了各个第一运动特征点组对应的最小外接矩形内的像素点之外的像素点,组合为像素点组,得到第一目标环境图像对应的像素点组集合;
将第二目标环境图像中的每个第二运动特征点组对应的最小外接矩形内的像素点,组合为像素点组,并将第二目标环境图像中除了各个第二运动特征点组对应的最小外接矩形内的像素点之外的像素点,组合为像素点组,得到第二目标环境图像对应的像素点组集合。
8.根据权利要求4所述的一种室内环境用图像处理方法,其特征在于,所述对像素点组集合中的每个像素点组进行重要程度分析处理,得到所述像素点组对应的重要等级,包括:
将所述像素点组所在的区域输入预先训练完成的重要程度判别网络,得到所述像素点组对应的重要等级;
所述重要程度判别网络的训练过程,包括:
构建重要程度判别网络;
获取目标区域集合和所述目标区域集合中的每个目标区域对应的重要等级;
根据所述目标区域集合和所述目标区域集合中的各个目标区域对应的重要等级,对构建的重要程度判别网络进行训练,得到训练完成的重要程度判别网络。
9.根据权利要求4所述的一种室内环境用图像处理方法,其特征在于,所述根据每个目标环境图像对应的像素点组集合中的各个像素点组对应的重要等级,对所述目标环境图像中的像素点组进行自适应编码,包括:
根据所述目标环境图像对应的像素点组集合中的各个像素点组对应的重要等级,对像素点组集合中的每个像素点组进行霍夫曼编码,得到所述像素点组对应的目标编码。
10.一种免碰撞系统,其特征在于,包括处理器和存储器,所述处理器用于处理存储在所述存储器中的指令以实现权利要求1-9中任一项所述的一种室内环境用图像处理方法。
CN202310501957.3A 2023-05-05 2023-05-05 一种室内环境用图像处理方法及免碰撞系统 Pending CN116543368A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310501957.3A CN116543368A (zh) 2023-05-05 2023-05-05 一种室内环境用图像处理方法及免碰撞系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310501957.3A CN116543368A (zh) 2023-05-05 2023-05-05 一种室内环境用图像处理方法及免碰撞系统

Publications (1)

Publication Number Publication Date
CN116543368A true CN116543368A (zh) 2023-08-04

Family

ID=87442987

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310501957.3A Pending CN116543368A (zh) 2023-05-05 2023-05-05 一种室内环境用图像处理方法及免碰撞系统

Country Status (1)

Country Link
CN (1) CN116543368A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116774590A (zh) * 2023-08-17 2023-09-19 山东金彭新能源科技有限公司 一种影响干扰用自适应调控方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116774590A (zh) * 2023-08-17 2023-09-19 山东金彭新能源科技有限公司 一种影响干扰用自适应调控方法及系统
CN116774590B (zh) * 2023-08-17 2023-11-07 山东金彭新能源科技有限公司 一种影响干扰用自适应调控方法及系统

Similar Documents

Publication Publication Date Title
CN111274976B (zh) 基于视觉与激光雷达多层次融合的车道检测方法及系统
CN111460926B (zh) 一种融合多目标跟踪线索的视频行人检测方法
CN110119726B (zh) 一种基于YOLOv3模型的车辆品牌多角度识别方法
CN111814621A (zh) 一种基于注意力机制的多尺度车辆行人检测方法及装置
CN106022243B (zh) 一种基于图像处理的机动车道车辆逆行识别方法
CN101996410A (zh) 动态背景下的运动目标检测方法及系统
CN109255326B (zh) 一种基于多维信息特征融合的交通场景烟雾智能检测方法
CN111881832A (zh) 车道目标检测方法、装置、设备及计算机可读存储介质
CN116188328A (zh) 基于物联网的停车场感应灯联动系统
Shujuan et al. Real-time vehicle detection using Haar-SURF mixed features and gentle AdaBoost classifier
CN112560717B (zh) 一种基于深度学习的车道线检测方法
CN108898132A (zh) 一种基于形状上下文描述的太赫兹图像危险品识别方法
CN105046218A (zh) 一种基于串并行处理的多特征交通视频烟雾检测方法
CN116543368A (zh) 一种室内环境用图像处理方法及免碰撞系统
CN111209858A (zh) 一种基于深度卷积神经网络的实时车牌检测方法
CN108932449B (zh) 一种基于聚类的条码二值化方法及系统
CN114299002A (zh) 一种路面抛洒异常行为智能检测系统与方法
CN112084890A (zh) 基于gmm和cqfl的多尺度识别交通信号标志的方法
CN102902951A (zh) 高清视频监控图像的车辆目标定位、事件检测系统及方法
CN112528917A (zh) 斑马线区域识别方法、装置、电子设备和存储介质
CN112613392A (zh) 基于语义分割的车道线检测方法、装置、系统及存储介质
CN115376108A (zh) 一种复杂天气下障碍物检测方法及装置
CN117314793B (zh) 基于bim模型的建筑施工数据采集方法
CN116934762B (zh) 锂电池极片表面缺陷的检测系统及方法
CN116311212B (zh) 基于高速摄像机实现运动状态下的船号识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination