CN116188328A - 基于物联网的停车场感应灯联动系统 - Google Patents

基于物联网的停车场感应灯联动系统 Download PDF

Info

Publication number
CN116188328A
CN116188328A CN202310443563.7A CN202310443563A CN116188328A CN 116188328 A CN116188328 A CN 116188328A CN 202310443563 A CN202310443563 A CN 202310443563A CN 116188328 A CN116188328 A CN 116188328A
Authority
CN
China
Prior art keywords
pixel point
gray
value
corner
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310443563.7A
Other languages
English (en)
Other versions
CN116188328B (zh
Inventor
黄冲帆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Yinhe Communication Technology Co ltd
Original Assignee
Shenzhen Yinhe Communication Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Yinhe Communication Technology Co ltd filed Critical Shenzhen Yinhe Communication Technology Co ltd
Priority to CN202310443563.7A priority Critical patent/CN116188328B/zh
Publication of CN116188328A publication Critical patent/CN116188328A/zh
Application granted granted Critical
Publication of CN116188328B publication Critical patent/CN116188328B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • G06T2207/20028Bilateral filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及停车场感应灯联动技术领域,具体涉及基于物联网的停车场感应灯联动系统。该系统包括存储器和处理器,所述处理器执行所述存储器存储的计算机程序,以实现如下步骤:获取停车场的监控影像中每帧灰度图像中的静态区域和动态区域;根据静态区域各像素点对应的窗口内像素点对应的差分值和位置分布,得到空域滤波器系数;根据各像素点对应的窗口内像素点的灰度分布,得到值域滤波器系数,确定静态区域像素点的目标灰度值;根据动态区域各目标角点组中角点的灰度分布,确定动态区域像素点的目标灰度值,进而获得目标灰度图像;基于目标灰度图像调动停车场感应灯。本发明提高了停车场监控图像的去噪效果以及感应灯的联动灵活性。

Description

基于物联网的停车场感应灯联动系统
技术领域
本发明涉及停车场感应灯联动技术领域,具体涉及基于物联网的停车场感应灯联动系统。
背景技术
停车场感应灯通常是指通过感应器控制的停车场照明系统。它们通过安装在车位周围的感应器感知车辆或其他物体的存在,然后自动开启或关闭灯光,以便车主和员工能够更方便地使用和管理停车场,同时也可以节省能源。这种感应灯一般会根据不同的需求和环境来安装,比如在室内停车场、室外停车场、球场、商场、公路服务区等场所。
但现有感应灯几乎都是独立工作,只有当感应范围内出现运动目标时才会亮。而在停车场中安装感应灯,无论汽车还是行人都会由于感应灯的独立工作模式而导致视线范围受限,极不便利且存在安全风险。现有利用感应器确定运动目标,并利用通信模块与周边其他感应灯进行联动,提升用户体验。这一过程需要感应器准确识别动态物体,目前应用最广泛、识别简单、成本最低的感应器仍是监控摄影机或红外摄像机,其均为图形传感器,其数据采集过程不可避免会产生大量噪声,传统的图像滤波方法无法自适应地对监控图像进行去噪,使得监控图像的去噪效果较差,进而会因为噪声干扰问题而无法准确识别运动物体,导致感应灯响应迟缓且信息获取残缺,极大限制了感应灯的联动灵活性。
发明内容
为了解决现有方法对监控图像进行去噪时存在的去噪效果较差的问题,本发明的目的在于提供基于物联网的停车场感应灯联动系统,所采用的技术方案具体如下:
本发明提供了一种基于物联网的停车场感应灯联动系统,包括存储器和处理器,所述处理器执行所述存储器存储的计算机程序,以实现如下步骤:
获取停车场的监控影像,所述监控影像中包含不少于两帧监控区域的灰度图像;获取每相邻两帧灰度图像对应的差分图像,基于所述差分图像确定每帧灰度图像中的静态区域和动态区域;
以静态区域内各像素点为中心,构建各像素点对应的窗口;根据各像素点对应的窗口内像素点对应的差分值和位置分布,得到静态区域中各像素点对应的窗口内各像素点的空域滤波器系数;根据各像素点对应的窗口内像素点的灰度分布,得到静态区域中各像素点对应的窗口内各像素点的值域滤波器系数;基于所述空域滤波器系数和所述值域滤波器系数,确定静态区域各像素点对应的目标灰度值;
对动态区域进行角点检测获得各角点,基于角点的位置分布和灰度分布,构建目标函数,基于所述目标函数获得各目标角点组;根据各目标角点组中角点的灰度分布,确定动态区域各像素点对应的目标灰度值;
基于所述静态区域各像素点对应的目标灰度值和所述动态区域各像素点对应的目标灰度值,获得目标灰度图像;基于所述目标灰度图像调动停车场感应灯。
优选的,所述根据各像素点对应的窗口内像素点对应的差分值和位置分布,得到静态区域中各像素点对应的窗口内各像素点的空域滤波器系数,包括:
将静态区域中任一像素点记为中心像素点;
根据中心像素点对应的窗口内像素点对应的差分值,得到中心像素点对应的窗口内各像素点的噪声干扰程度;
将所述中心像素点与其对应的窗口内所有像素点之间的距离的方差,记为距离方差;分别根据所述中心像素点与其对应的窗口内各像素点的位置分布,获得所述中心像素点与其对应的窗口内各像素点之间的位置差异;将所述位置差异与所述距离方差的比值记为第一比值;
根据所述第一比值和对应的噪声干扰程度,得到中心像素点对应的窗口内各像素点的空域滤波器系数,所述第一比值和所述噪声干扰程度均与所述空域滤波器系数呈负相关关系。
优选的,根据中心像素点对应的窗口内像素点对应的差分值,得到中心像素点对应的窗口内各像素点的噪声干扰程度,包括:
根据中心像素点对应的窗口内各像素点对应的差分值,分别计算中心像素点对应的窗口内所有像素点对应的差分值的方差以及中心像素点对应的窗口内所有像素点对应的差分值的均值;将预设调整参数与所述差分值的方差的和值记为第一特征指标;
分别计算中心像素点对应的窗口内各像素点对应的差分值与所述均值之间的差值的平方;将所述平方与所述第一特征指标的比值,确定为中心像素点对应的窗口内对应像素点的噪声干扰程度。
优选的,根据各像素点对应的窗口内像素点的灰度分布,得到静态区域中各像素点对应的窗口内各像素点的值域滤波器系数,包括:
将所述中心像素点的灰度值与其对应的窗口内各像素点的灰度值之间的差值的平方,记为第一平方;将所述中心像素点对应的窗口内所有像素点的灰度值的方差记为灰度方差;将所述灰度方差与预设调整参数的和值记为第二特征指标;将所述第一平方与所述第二特征指标的比值记为第二比值;
根据所述第二比值和对应的噪声干扰程度,得到中心像素点对应的窗口内各像素点的值域滤波器系数,所述第二比值和所述噪声干扰程度均与所述值域滤波器系数呈负相关关系。
优选的,基于所述空域滤波器系数和所述值域滤波器系数,确定静态区域各像素点对应的目标灰度值,包括:
将中心像素点对应的窗口内除中心像素点外其他各像素点的空域滤波器系数和值域滤波器系数的乘积,记为第一乘积;将所述第一乘积与对应像素点的灰度值的乘积记为第一灰度指标;将中心像素点对应的窗口内除中心像素点外其他所有像素点对应的第一灰度指标的和值确定为中心像素点对应的目标灰度值。
优选的,所述基于角点的位置分布和灰度分布,构建目标函数,包括:
获取各角点对应的边缘夹角和梯度方向,所述边缘夹角为角点所在边缘位置与其相邻两个边缘像素点形成的夹角;将各角点所在的八邻域内除动态区域外的像素点记为第一像素点,计算各角点与其八邻域内所有第一像素点之间的梯度方向的差值的绝对值的均值,将所述均值记为各角点对应的平均灰度差异;
将相邻两帧灰度图像中的两个角点对应的边缘夹角之间的差异的归一化值记为角度差异指标,将相邻两帧灰度图像中的两个角点对应的平均灰度差异之间的差异的归一化值记为方向差异指标;
将相邻两帧灰度图像中前一帧灰度图像中的角点映射到后一帧灰度图像中,获得各角点的映射点;获取由映射点指向后一帧灰度图像中的各角点的方向,将所述方向与水平向右方向之间的夹角记为前一帧灰度图像中各角点对应的运动角度;将前一帧灰度图像中各角点对应的所有运动角度的均方差记为第一均方差;统计前一帧灰度图像中的角点与后一帧灰度图像中的角点构成的角点组的数量;
根据所述角度差异指标、所述方向差异指标、所述第一均方差和所述角点组的数量,构建目标函数,所述角度差异指标、所述方向差异指标和所述第一均方差均与目标函数值呈正相关关系,所述角点组的数量与目标函数值呈负相关关系。
优选的,所述基于所述目标函数获得各目标角点组,包括:将目标函数取最小值时对应的每个角点组作为一个目标角点组;所述角点组是由不同帧灰度图像中静态区域的角点构成。
优选的,所述根据各目标角点组中角点的灰度分布,确定动态区域各像素点对应的目标灰度值,包括:
对于任一目标角点组:计算目标角点组中每两个相邻角点的灰度值的差值的绝对值,将所述绝对值与两个相邻角点中前一个角点的灰度值的比值,确定为对应两个角点的灰度差异程度;将目标角点组中所有每两个相邻角点的灰度差异程度的均值记为目标角点组对应的第一均值;每个目标角点组中的角点是按照灰度图像获取的先后顺序进行排列的;
计算所有目标角点组对应的第一均值的均方差;将预设常数与所述均方差的差值确定为动态区域双边滤波器的调节系数;
以动态区域内各像素点为中心,构建各像素点对应的窗口;将动态区域内各像素点对应的窗口内各像素点的空域滤波器系数和值域滤波器系数的乘积,记为第二乘积;将所述第二乘积与对应像素点的灰度值的乘积记为第二灰度指标;计算动态区域内各像素点对应的窗口内所有像素点对应的第二灰度指标的和值,将所述和值与所述调节系数的乘积确定为动态区域内对应像素点对应的目标灰度值。
优选的,所述基于所述差分图像确定每帧灰度图像中的静态区域和动态区域,包括:
对所述差分图像进行傅里叶变换以及中心平移,获得频谱图像;对所述频谱图像进行阈值分割获得所述差分图像中的低频区域;
对所述低频区域进行密度聚类,将密度最大的聚类簇作为特征区域;将特征区域在对应灰度图像中所对应的区域作为动态区域,将灰度图像中除动态区域外的区域作为静态区域。
优选的,所述基于所述静态区域各像素点对应的目标灰度值和所述动态区域各像素点对应的目标灰度值,获得目标灰度图像,包括:将监控区域的灰度图像中像素点的灰度值用对应的目标灰度值替换,将替换完成后获得的图像作为目标灰度图像。
本发明至少具有如下有益效果:
本发明考虑到停车场感应灯所用感应器信息在获取时频繁受到噪声干扰,导致感应灯反应迟钝、联动灵活性较差,本发明首先对获取的停车场的监控影像中每一帧灰度图像进行划分,获得静态区域和动态区域;然后结合静态区域的特征,确定了静态区域中每个像素点对应的窗口内每个像素点的空域滤波器系数以及值域滤波器系数,进而获得了静态区域中每个像素点对应的目标灰度值,结合动态区域角点的位置分布和灰度分布确定了目标角点组,进而获得了动态区域每个像素点对应的目标灰度值,也即分别对灰度图像中的静态区域和动态区域进行自适应平滑,考虑到滤波系数会使得滤波结果产生失真的问题,因此本发明分别对静态区域和动态区域滤波过程中的滤波器参数进行调节,获取可信度更高、更好的平滑效果,使滤波所保留的边缘信息可以为后续运动轨迹的检测提供更稠密的光流矢量,运动目标的运动轨迹的识别结果更准确、更高效,进而大幅提高了感应器的环境检测性能,以及感应灯的联动效率和联动灵活性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明实施例所提供的基于物联网的停车场感应灯联动系统所执行的方法的流程图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的基于物联网的停车场感应灯联动系统进行详细说明如下。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的基于物联网的停车场感应灯联动系统的具体方案。
基于物联网的停车场感应灯联动系统实施例:
本实施例所针对的具体场景为:停车场的监控影像是由连续多帧监控图像构成的,监控图像在采集的过程中,不可避免地会受到噪声干扰,导致采集到的监控图像中存在大量的噪声,使得根据监控图像无法准确识别运动物体,导致感应灯响应迟缓且信息获取残缺,极大限制了感应灯的联动灵活性,本实施例对采集到的监控图像进行分析,划分静态区域和动态区域,根据静态区域每个像素点的噪声干扰程度以及动态区域连续帧稳定特征点的波动特点,分别对静态区域和动态区域的双边滤波器进行调节,获取可信度更高的平滑效果,使双边滤波所保留的边缘信息可以为后续运动轨迹检测提供更准确、更高效的运动轨迹识别效果,进而大幅提高感应器的环境检测性能以及感应灯的联动效率和联动灵活性。
本实施例提出了基于物联网的停车场感应灯联动系统,该系统以实现如图1所示的步骤,具体步骤如下:
步骤S1,获取停车场的监控影像,所述监控影像中包含不少于两帧监控区域的灰度图像;获取每相邻两帧灰度图像对应的差分图像,基于所述差分图像确定每帧灰度图像中的静态区域和动态区域。
本实施例首先获取停车场的监控影像,监控影像是由多帧监控图像构成的,为了节省算力,对获取到的监控影像进行灰度化处理,因此监控影像中包含连续多帧监控区域的灰度图像。图像灰度化处理为现有技术,此处不再过多赘述。需要说明的是:本实施例获取到的监控区域的灰度图像为含有噪声的灰度图像,后续将对这些灰度图像进行去噪处理,以提高运动轨迹的识别效果,进而提高感应器的环境检测性能以及感应灯的联动效率和联动灵活性。闭路电视监控帧数一般为每秒20-25帧左右,监控影像中灰度图像的帧数由监控影像的时长和图像的采集频率确定,在具体应用中,实施者可根据具体情况设置监控影像的时长和图像的采集频率。
本实施例获取每相邻两帧灰度图像对应的差分图像,也即分别计算相邻两帧灰度图像中相同位置像素点的灰度值的差值的绝对值,获得差分图像,每相邻两帧灰度图像对应一张灰度图像。差分图像的获取方法为现有技术,此处不再过多赘述。差分图像上每个位置的差分值为相邻帧灰度图像在对应位置存在的灰度差异值。灰度图像存在噪声时无法直接获取动态目标区域,灰度差异值可能为动态目标由于运动产生的,也可能是由于叠加在每个像素位置上的噪声程度不同产生的。
本实施例接下来将以监控影像中相邻两帧灰度图像为例进行说明,对于监控影像中其它灰度图像均可采用本实施例提供的方法进行处理。由于两张灰度图像上的噪声均为随机离散分布,实际背景未发生变化,仅有动态目标发生了变化,因此存在如下情况:
当相邻帧灰度图像背景区域进行差分、且噪声较弱时,差分结果接近0;
当相邻帧灰度图像背景区域进行差分、且噪声较强时,差分结果较大且离散;
当相邻帧灰度图像动态区域进行差分、且无论噪声强弱时,差分结果均为一个较低频的区域。这是因为动态目标上像素点发生移动,运动前和运动后的局部区域之间存在一个低频的运动虚影,因此差分图像中存在动态目标的区域差分结果能量最大,即无论噪声差异大或小,都会得到一个相对于其他静态区域而言差分值较大且聚集的区域,此时获得的差分图像呈现一个全局像素点混乱、离散的状态,而实际动态区域会比其它区域能量更高,因此从频谱图像中能够获取低频信息。
具体的,对差分图像进行傅里叶变换,并中心平移得到频谱图像,将频谱图像作为空域图像,以频谱亮度作为灰度值,采用大津阈值分割算法对频谱图像进行分割,得到高频区域和低频区域,高频区域为低亮度区域,低频区域为高亮度区域。根据频谱图像中低频区域的分割结果,生成低通滤波器,然后得到滤波后的差分图像,本实施例为了获取能量最高、最集中的区域,将高频信息去除,以便从剩余低频信息中筛选动态区域。
滤波后的差分图像中仅有低频信息,差分图像中动态区域为能量最高、最集中的区域,采用密度聚类DBSCAN算法对滤波后的差分图像中的低频区域的像素点进行聚类,本实施例设置搜索半径参数为3,密度参数为0.7,在具体应用中,实施者可根据具体情况进行设置,该聚类算法的特点在于不需要指定类数,并且可以最大程度趋近于实际动态区域的形状,运行算法即可在差分图像的低频图像上获取多个不同的聚簇结果,将密度最大的聚类簇即为差分图像上的特征区域,特征区域在灰度图像中所对应的区域即为动态区域,从差分图像上记录动态区域的位置坐标、范围。然后在两个相邻帧灰度图像上还原动态区域,动态区域内像素点从前一帧至下一帧中发生运动。需要说明的是,若密度最大的聚类簇的数量不为1,则将所有密度最大的聚类簇均作为特征区域,获取每个特征区域在灰度图像中对应的区域,也即动态区域。
将灰度图像中除动态区域外的区域作为静态区域,对每帧灰度图像进行了划分,获取了每帧灰度图像中的动态区域和静态区域。本实施例划分静态区域和动态区域的目的在于,在平滑噪声过程中需要对静态区域和动态区域分别进行处理,不同区域的处理方法不同。
步骤S2,以静态区域内各像素点为中心,构建各像素点对应的窗口;根据各像素点对应的窗口内像素点对应的差分值和位置分布,得到静态区域中各像素点对应的窗口内各像素点的空域滤波器系数;根据各像素点对应的窗口内像素点的灰度分布,得到静态区域中各像素点对应的窗口内各像素点的值域滤波器系数;基于所述空域滤波器系数和所述值域滤波器系数,确定静态区域各像素点对应的目标灰度值。
本实施例将采用对高斯噪声滤除效果较好的双边滤波器对灰度图像进行去噪处理。双边滤波器是基于两个相似性平衡的滤波器来进行滤波的,一个为空间域滤波器,另一个为灰度值域滤波器。对于空间域滤波器,滤波器系数与像素点之间的距离有关,距离越远,系数越小;距离越近,系数越大。对于灰度值域滤波器,滤波器系数是基于像素值之间的相似性确定的,即与中心像素灰度值相近的像素的滤波系数较大。考虑到无论是空间域滤波器还是灰度值域滤波器,在噪声含量较高情况下所选取的滤波器系数均存在失真问题,因为相距较近或灰度相近的邻域像素点,无法确定其上叠加的噪声强弱,因此根据邻域像素点所得的滤波器系数并不能保证可信度,且对于相邻帧灰度图像单独进行滤波时,由于噪声不同导致各自的平滑结果会存在差异,因此基于像素差异进行滤波处理获取的效果不佳。本实施例将在传统双边滤波基础上增加一个调节过程,以提高滤波效果。对于相邻帧灰度图像而言,噪声差异较大的像素点,一旦参与中心像素点的平滑,则使中心像素点失真的概率较大,因此其滤波系数应当调小,但由于平滑过程是局部加权,因此差分值还需要转换为相对值,进而来评估噪声局部干扰程度大小。考虑到滤波窗口内每个像素点与滤波窗口内所有像素点的平均差分值之间的差异越大,相邻帧灰度图像上对应位置上的噪点差异越大,也即对应位置的噪声干扰越大,对应位置的噪声越难被平滑掉。基于此,本实施例将根据各像素点对应的窗口内各像素点对应的差分值,确定各像素点对应的窗口内各像素点的噪声干扰程度。
具体的,分别以静态区域内各像素点为中心,构建预设大小的窗口,并作为中心点对应的窗口;本实施例中预设大小为5*5,在具体应用中,实施者可根据具体情况进行设置,例如可以为7*7。将静态区域中任一像素点记为中心像素点;根据中心像素点对应的窗口内各像素点对应的差分值,分别计算中心像素点对应的窗口内所有像素点对应的差分值的方差以及中心像素点对应的窗口内所有像素点对应的差分值的均值;将预设调整参数与所述差分值的方差的和值记为第一特征指标;分别计算中心像素点对应的窗口内各像素点对应的差分值与所述均值之间的差值的平方;将所述平方与所述第一特征指标的比值,确定为中心像素点对应的窗口内对应像素点的噪声干扰程度。对于静态区域中第o个像素点对应的窗口内的第i个像素点,其对应的噪声干扰程度的具体表达式为:
Figure SMS_1
其中,
Figure SMS_2
为静态区域中第o个像素点对应的窗口内的第i个像素点的噪声干扰程 度,L为窗口的长度或宽度,
Figure SMS_3
为第o个像素点对应的窗口内像素点的数量,
Figure SMS_4
为第i个像素 点对应的差分值,
Figure SMS_5
为静态区域中第o个像素点对应的窗口内所有像素点对应的差分值的均 值,
Figure SMS_6
为预设调整参数。
引入预设调整参数是为了防止分母为0,本实施例中
Figure SMS_7
的值为0.01,在具体应用中, 实施者可根据具体情况进行设置。
Figure SMS_8
表示第o个像素点对应的窗口内所有像素点对应的差分 值的均值,
Figure SMS_9
表示第o个像素点对应的窗口内所有像素点对应的差分值的方 差,
Figure SMS_10
表示第一特征指标。第i个像素点对应的差分值越大,代表相邻帧 灰度图像上该像素位置上的噪点差异越大,说明该位置的噪声干扰越大,该位置的噪声越 难被平滑掉。当第o个像素点对应的窗口内的第i个像素点对应的差分值与第o个像素点对 应的窗口内所有像素点的平均差分值之间的差异越大时,说明第i个像素点受到的噪声干 扰程度越大。当第o个像素点对应的窗口内的第i个像素点对应的差分值越接近第o个像素 点对应的窗口内所有像素点的平均差分值时,说明第i个像素点受到的噪声干扰程度越小。
采用上述方法,本实施例获得了静态区域中第o个像素点对应的窗口内的第i个像素点的噪声干扰程度,考虑到噪声干扰程度越小,在采用双边滤波器进行滤波时,对应的空域滤波器系数越应当调大;第i个像素点与中心像素点之间的距离越近,在采用双边滤波器进行滤波时,第i个像素点的空域滤波器系数越应当调大。噪声干扰程度越小,在采用双边滤波器进行滤波时,对应的值域滤波器系数越应当调大;第i个像素点与中心像素点之间的灰度差异越小,在采用双边滤波器进行滤波时,第i个像素点的值域滤波器系数越应当调大。基于此,本实施例将结合滤波窗口内像素点与中心像素点之间的距离、滤波窗口内像素点与中心像素点的灰度差异情况以及滤波窗口内像素点的噪声干扰程度,确定中心像素点对应的窗口内各像素点的空域滤波器系数和值域滤波器系数。
具体的,将中心像素点与其对应的窗口内所有像素点之间的距离的方差,记为距离方差;分别根据中心像素点与其对应的窗口内各像素点的位置分布,获得中心像素点与其对应的窗口内各像素点之间的位置差异;将所述位置差异与所述距离方差的比值记为第一比值;根据所述第一比值和对应的噪声干扰程度,得到中心像素点对应的窗口内各像素点的空域滤波器系数,所述第一比值和所述噪声干扰程度均与所述空域滤波器系数呈负相关关系。将所述中心像素点的灰度值与其对应的窗口内各像素点的灰度值之间的差值的平方,记为第一平方;将所述中心像素点对应的窗口内所有像素点的灰度值的方差记为灰度方差;将所述灰度方差与预设调整参数的和值记为第二特征指标;将所述第一平方与所述第二特征指标的比值记为第二比值;根据所述第二比值和对应的噪声干扰程度,得到中心像素点对应的窗口内各像素点的值域滤波器系数,所述第二比值和所述噪声干扰程度均与所述值域滤波器系数呈负相关关系。负相关关系表示因变量会随着自变量的增大而减小,因变量会随着自变量的减小而增大,可以为相减关系、相除关系等,由实际应用进行确定。作为一个实施方式,给出空域滤波器系数和值域滤波器系数的计算公式,其中,静态区域中第o个像素点对应的窗口内的第i个像素点的空域滤波器系数和值域滤波器系数的具体计算公式为:
Figure SMS_11
Figure SMS_12
其中,
Figure SMS_15
为静态区域中第o个像素点对应的窗口内的第i个像素点的空域滤波器 系数,
Figure SMS_18
为静态区域中第o个像素点对应的窗口内的第i个像素点的噪声干扰程度,
Figure SMS_22
为 静态区域中第o个像素点对应的窗口内的第i个像素点的横坐标,
Figure SMS_13
为静态区域中第o个像 素点对应的窗口内的第i个像素点的纵坐标,
Figure SMS_17
为静态区域中第o个像素点的横坐标,
Figure SMS_21
为 静态区域中第o个像素点的纵坐标,
Figure SMS_24
为静态区域中第o个像素点对应的窗口内所有像素点 的灰度值的方差,
Figure SMS_16
为以自然常数为底数的指数函数,
Figure SMS_20
为静态区域中第o个像素点 对应的窗口内的第i个像素点的值域滤波器系数,
Figure SMS_23
为静态区域中第o个像素点对应的窗口 内的第i个像素点的灰度值,
Figure SMS_25
为静态区域中第o个像素点的灰度值,
Figure SMS_14
为静态区域中第o个 像素点对应的窗口内所有像素点的灰度值的方差,
Figure SMS_19
为预设调整参数。
引入预设调整参数是为了防止分母为0。
Figure SMS_26
表示静态区域 中第o个像素点与其对应的窗口内第i个像素点之间的位置差异;
Figure SMS_29
表示距离方差,也即为 高斯核的sigma参数;
Figure SMS_32
表示第一比值。当第i个像素点与中心像素点之间的 距离越近、第i个像素点的噪声干扰程度越小时,第i个像素点的空域滤波器系数越应当调 大;当第i个像素点与中心像素点之间的距离越远、第i个像素点的噪声干扰程度越大时,第 i个像素点的空域滤波器系数越应当调小。
Figure SMS_28
表示第一平方,
Figure SMS_30
能够反映第 i个像素点与中心像素点的灰度差异;
Figure SMS_34
表示灰度方差,
Figure SMS_35
表示第二特征指标,
Figure SMS_27
表示第二比值。当第i个像素点与中心像素点之间的灰度差异越小、第i个像素点的噪声干 扰程度越小时,第i个像素点的值域滤波器系数越应当调大;当第i个像素点与中心像素点 之间的灰度差异越大、第i个像素点的噪声干扰程度越大时,第i个像素点的值域滤波器系 数越应当调小。需要说明的是,由于
Figure SMS_31
表示中心像素点与其对应的窗口内所有像素点之间 的距离的方差,本实施例设置的窗口大小为5*5,因此
Figure SMS_33
的值不会为0。
采用上述方法,能够获得静态区域中第o个像素点对应的窗口内每个像素点的空域滤波器系数和值域滤波器系数,接下来本实施例将结合第o个像素点对应的窗口内每个像素点的空域滤波器系数和值域滤波器系数,确定第o个像素点对应的目标灰度值。
具体的,将中心像素点对应的窗口内除中心像素点外其他各像素点的空域滤波器系数和值域滤波器系数的乘积,记为第一乘积;将所述第一乘积与对应像素点的灰度值的乘积记为第一灰度指标;将中心像素点对应的窗口内除中心像素点外其他所有像素点对应的第一灰度指标的和值确定为中心像素点对应的目标灰度值。静态区域中第o个像素点对应的目标灰度值的具体计算公式为:
Figure SMS_36
其中,
Figure SMS_37
为静态区域中第o个像素点对应的目标灰度值,L为窗口的长度或宽度,
Figure SMS_38
为第o个像素点对应的窗口内像素点的数量,
Figure SMS_39
为第o个像素点对应的窗口内除中心像 素点外其它像素点的数量,
Figure SMS_40
为静态区域中第o个像素点对应的窗口内的第i个像素点的 空域滤波器系数,
Figure SMS_41
为静态区域中第o个像素点对应的窗口内的第i个像素点的值域滤波 器系数,
Figure SMS_42
为静态区域中第o个像素点对应的窗口内的第i个像素点的灰度值。
Figure SMS_43
表示第一乘积,
Figure SMS_44
表示第一灰度指标,将第一乘积作为窗 口内除中心像素点外其它像素点灰度值的加权系数,基于窗口内除中心像素点外其它像素 点的灰度值和对应的加权系数,获得静态区域中第o个像素点对应的目标灰度值。
至此,采用本实施例提供的方法,能够获得灰度图像中静态区域内每个像素点对应的目标灰度值。
步骤S3,对动态区域进行角点检测获得各角点,基于角点的位置分布和灰度分布,构建目标函数,基于所述目标函数获得各目标角点组;根据各目标角点组中角点的灰度分布,确定动态区域各像素点对应的目标灰度值。
接下来本实施例将对灰度图像中的静态区域进行分析,获得静态区域每个像素点对应的目标灰度值。
具体的,本实施例需要从连续变化的连续帧灰度图像动态区域中筛选显著、稳定性较好的角点,作为特征点,构建目标函数,满足目标函数的一组角点,即为稳定性较好的角点。首先对灰度图像中静态区域进行Harris角点检测,获取静态区域的角点,角点即为动态区域中比较稳定的特征点,这部分特征点的抗噪能力较强,在灰度图像中噪声不会被掩盖,接下来本实施例将基于特征点的波动情况评估动态区域的噪声干扰,进而调节滤波结果。首先采用sobel算子获取动态区域中每个角点的梯度方向,将每个角点所在的八邻域内除动态区域外的像素点记为第一像素点,统计每个第一像素点的梯度方向,分别计算角点与其八邻域内每个第一像素点之间的梯度方向的差值的绝对值,然后计算角点与其八邻域内所有第一像素点之间的梯度方向的差值的绝对值的均值,并将该均值记为角点对应的平均灰度差异;sobel算子为现有技术,此处不再过多赘述;然后获取动态区域中每个角点对应的边缘夹角,所述边缘夹角为角点所在边缘位置与其相邻两个边缘像素点形成的夹角;将相邻两帧灰度图像中的两个角点对应的边缘夹角之间的差异的归一化值记为角度差异指标,将相邻两帧灰度图像中的两个角点对应的平均灰度差异之间的差异的归一化值记为方向差异指标;将相邻两帧灰度图像中前一帧灰度图像中的角点映射到后一帧灰度图像中,获得各角点的映射点;获取由映射点指向后一帧灰度图像中的各角点的方向,将所述方向与水平向右方向之间的夹角记为前一帧灰度图像中各角点对应的运动角度;将前一帧灰度图像中各角点对应的所有运动角度的均方差记为第一均方差;统计前一帧灰度图像中各角点与后一帧灰度图像中的角点构成的角点组的数量;根据所述角度差异指标、所述方向差异指标、所述第一均方差和角点组的数量,构建目标函数,所述角度差异指标、所述方向差异指标和所述第一均方差均与目标函数值呈正相关关系,所述角点组的数量与目标函数值呈负相关关系。负相关关系表示因变量会随着自变量的增大而减小,因变量会随着自变量的减小而增大,可以为相减关系、相除关系等,由实际应用进行确定。作为一个实施方式,给出目标函数的具体表达式,目标函数的具体表达式为:
Figure SMS_45
其中,T为目标函数,
Figure SMS_48
为相邻两帧灰度图像中前一帧灰度图像中第a个角点对应 的边缘夹角,
Figure SMS_50
为相邻两帧灰度图像中后一帧灰度图像中第b个角点对应的边缘夹角,
Figure SMS_54
为相邻两帧灰度图像中前一帧灰度图像中第a个角点对应的平均灰度差异,
Figure SMS_47
为相邻两帧 灰度图像中后一帧灰度图像中第b个角点对应的平均灰度差异,
Figure SMS_49
为由相邻两帧灰度图像 中前一帧灰度图像中第a个角点的映射点指向后一帧灰度图像中第b个角点的方向,
Figure SMS_53
Figure SMS_55
与水平向右方向之间的夹角,
Figure SMS_46
Figure SMS_51
与水平向右方向之间的夹角的正弦值,
Figure SMS_52
为相邻两帧灰度图像中前一帧灰度图像中第a个角点的映射点指向后一帧灰度 图像中各角点的方向与水平向右方向之间的夹角的正弦值的均方差,
Figure SMS_56
为前一帧灰度图像 中的角点与后一帧灰度图像中的角点构成的角点组的数量,E为相邻两帧灰度图像中前一 帧灰度图像中目标角点的数量,R为相邻两帧灰度图像中后一帧灰度图像中目标角点的数 量,e为自然常数,‖ ‖为欧几里得范数,| |为取绝对值符号。
Figure SMS_57
表示相邻两帧灰度图像中前一帧灰度图像中第a个角点对应的边缘夹 角与后一帧灰度图像中第b个角点对应的边缘夹角之间的差异,
Figure SMS_60
表示角度差异指 标,
Figure SMS_64
表示相邻两帧灰度图像中前一帧灰度图像中第a个角点与后一帧灰度图像 中第b个角点对应的平均灰度差异之间的差异,
Figure SMS_58
表示方向差异指标,
Figure SMS_62
表 示第一均方差。
Figure SMS_65
用于衡量两个角点的相似度,
Figure SMS_67
的值越小,说明两个角点的相似度越高。为了避免陷入局部最优出现光流方向不一致的问 题,本实施例加入两个惩罚项,第一个惩罚项为
Figure SMS_59
,该均方差越小越好,若多组目标 角点对应的方向与水平正方向之间的夹角的正弦值均方差较大,则目标函数不会收敛,同 时为了避免局部最优导致匹配角点组稀疏,加入了第二个惩罚项
Figure SMS_61
,前一帧灰度图像中的 角点与后一帧灰度图像中的角点构成的角点组的数量越多,
Figure SMS_63
的值越小;否则,
Figure SMS_66
的值 会越大,目标函数无法收敛。
本实施例将目标函数取最小值时对应的角点记为目标角点,目标角点为稳定性较好的角点,将目标函数取最小值时对应的每个角点组作为一个目标角点组,同一个目标角点组中的不同角点来自于不同帧的灰度图像。
稳定性较好的角点可以代表动态区域具有抗噪能力的部分像素点,也是原像素信息保留较好的像素点,这部分像素点在连续帧灰度图像中不容易被噪声掩盖,因此本实施例将结合这部分角点在连续帧灰度图像上的平均波动情况,获取双边滤波器的调节系数。
具体的,对于任一目标角点组:计算目标角点组中每两个相邻角点的灰度值的差值的绝对值,将所述绝对值与两个相邻角点中前一个角点的灰度值的比值,确定为对应两个角点的灰度差异程度;将目标角点组中所有每两个相邻角点的灰度差异程度的均值记为目标角点组对应的第一均值;每个目标角点组中的角点是按照灰度图像获取的先后顺序进行排列的;计算所有目标角点组对应的第一均值的均方差;将预设常数与所述均方差的差值确定为动态区域双边滤波器的调节系数;以动态区域内各像素点为中心,构建各像素点对应的窗口;将动态区域内各像素点对应的窗口内各像素点的空域滤波器系数和值域滤波器系数的乘积,记为第二乘积;将所述第二乘积与对应像素点的灰度值的乘积记为第二灰度指标;计算动态区域内各像素点对应的窗口内所有像素点对应的第二灰度指标的和值,将所述和值与所述调节系数的乘积确定为动态区域内对应像素点对应的目标灰度值。动态区域中第s个像素点对应的目标灰度值的具体表达式为:
Figure SMS_68
其中,
Figure SMS_69
为动态区域内第s个像素点对应的目标灰度值,L为窗口的长度或宽度,
Figure SMS_70
为第s个像素点对应的窗口内像素点的数量,
Figure SMS_71
为第s个像素点对应的窗口内除中心像 素点外其它像素点的数量,
Figure SMS_72
为动态区域内第s个像素点对应的窗口内的第j个像素点的 空域滤波器系数,
Figure SMS_73
为动态区域内第s个像素点对应的窗口内的第j个像素点的值域滤波 器系数,
Figure SMS_74
为动态区域内第s个像素点对应的窗口内的第j个像素点的灰度值,
Figure SMS_75
为所有目 标角点组中所有每两个相邻角点的灰度差异程度的均值的均方差。
由于调节某一帧灰度图像对应的双边滤波系数时,是根据该帧灰度图像与其之后 连续多帧灰度图像进行确定的,因此计算连续多帧灰度图像内所有相邻帧灰度图像的平均 灰度差异程度的均方差,反映这部分像素点在连续帧灰度图像中的平均波动情况,由于噪 声是叠加在原始像素点上的,因此对于滤波加权过程的调节应当是向下调节,本实施例中 的预设常数为1,本实施例以
Figure SMS_76
作为动态区域双边滤波器的调节系数。
Figure SMS_77
为动态区域内第s个像素点对应的滤波窗口内像素点灰度值加权后 得到滤波后的灰度值。由于动态区域像素点不存在噪声干扰程度的值,因此空域滤波系数
Figure SMS_78
和值域滤波系数
Figure SMS_79
为默认双边滤波所得的系数,将默认双边滤波器输出值再乘以调 节系数,得到最终动态区域第s个像素点对应的目标灰度值。
采用上述方法,能够获得每帧灰度图像中动态区域内所有像素点对应的目标灰度值。
步骤S4,基于所述静态区域各像素点对应的目标灰度值和所述动态区域各像素点对应的目标灰度值,获得目标灰度图像;基于所述目标灰度图像调动停车场感应灯。
本实施例已经获得了每帧灰度图像中静态区域每个像素点对应的目标灰度值以及动态区域每个像素点对应的目标灰度值,将监控区域的灰度图像中像素点的灰度值用其对应的目标灰度值替换,将替换完成后获得的图像作为目标灰度图像,目标灰度图像为去噪后的图像,其呈现的效果更清晰,本实施例对静态区域和动态区域分别进行滤波器调节后,滤波器输出值更为可信,且动态区域根据稳定角点连续帧波动情况调节滤波器,可以对当前帧与后续连续帧之间建立关联,且双边滤波对边缘的保留效果更好,特征信息几乎集中在边缘部分,处理后即可获取更准确、更稠密的运动光流,使运动目标的运动识别、跟踪更为准确。
采用本实施例提供的方法对停车场的监控影像中的每一帧灰度图像进行去噪处理,获得对应的目标灰度图像,基于目标灰度图像对停车场内运动目标的运动轨迹进行准确地识别;基于连续多帧图像对运动目标的运动轨迹进行识别的方法为现有技术,本实施例不再过多赘述。以影像监控或红外图像监控等作为感应器时,图像信息获取更准确,物体运动轨迹获取更加迅速,大大提高了感应灯之间的联动灵活性。当识别动态目标时,对应位置的感应灯响应,并根据运动目标在连续帧灰度图像中的运动方向,联动其运动方向上的感应灯同时响应,优化了视觉限制,并且可以通过感应灯或者广播对车辆、行人的视觉死角来车、来人进行提醒和警报,提高了感应器的环境检测性能以及感应灯的联动效率和联动灵活性。
本实施例考虑到停车场感应灯所用感应器信息在获取时频繁受到噪声干扰,导致感应灯反应迟钝、联动灵活性较差,本实施例首先对获取的停车场的监控影像中每一帧灰度图像进行划分,获得静态区域和动态区域;然后结合静态区域的特征,确定了静态区域中每个像素点对应的窗口内每个像素点的空域滤波器系数以及值域滤波器系数,进而获得了静态区域中每个像素点对应的目标灰度值,结合动态区域角点的位置分布和灰度分布确定了目标角点组,进而获得了动态区域每个像素点对应的目标灰度值,也即分别对灰度图像中的静态区域和动态区域进行自适应平滑,考虑到滤波系数会使得滤波结果产生失真的问题,因此本实施例分别对静态区域和动态区域滤波过程中的滤波器参数进行调节,获取可信度更高、更好的平滑效果,使滤波所保留的边缘信息可以为后续运动轨迹的检测提供更稠密的光流矢量,运动目标的运动轨迹的识别结果更准确、更高效,进而大幅提高了感应器的环境检测性能,以及感应灯的联动效率和联动灵活性。

Claims (10)

1.一种基于物联网的停车场感应灯联动系统,包括存储器和处理器,其特征在于,所述处理器执行所述存储器存储的计算机程序,以实现如下步骤:
获取停车场的监控影像,所述监控影像中包含不少于两帧监控区域的灰度图像;获取每相邻两帧灰度图像对应的差分图像,基于所述差分图像确定每帧灰度图像中的静态区域和动态区域;
以静态区域内各像素点为中心,构建各像素点对应的窗口;根据各像素点对应的窗口内像素点对应的差分值和位置分布,得到静态区域中各像素点对应的窗口内各像素点的空域滤波器系数;根据各像素点对应的窗口内像素点的灰度分布,得到静态区域中各像素点对应的窗口内各像素点的值域滤波器系数;基于所述空域滤波器系数和所述值域滤波器系数,确定静态区域各像素点对应的目标灰度值;
对动态区域进行角点检测获得各角点,基于角点的位置分布和灰度分布,构建目标函数,基于所述目标函数获得各目标角点组;根据各目标角点组中角点的灰度分布,确定动态区域各像素点对应的目标灰度值;
基于所述静态区域各像素点对应的目标灰度值和所述动态区域各像素点对应的目标灰度值,获得目标灰度图像;基于所述目标灰度图像调动停车场感应灯。
2.根据权利要求1所述的基于物联网的停车场感应灯联动系统,其特征在于,所述根据各像素点对应的窗口内像素点对应的差分值和位置分布,得到静态区域中各像素点对应的窗口内各像素点的空域滤波器系数,包括:
将静态区域中任一像素点记为中心像素点;
根据中心像素点对应的窗口内像素点对应的差分值,得到中心像素点对应的窗口内各像素点的噪声干扰程度;
将所述中心像素点与其对应的窗口内所有像素点之间的距离的方差,记为距离方差;分别根据所述中心像素点与其对应的窗口内各像素点的位置分布,获得所述中心像素点与其对应的窗口内各像素点之间的位置差异;将所述位置差异与所述距离方差的比值记为第一比值;
根据所述第一比值和对应的噪声干扰程度,得到中心像素点对应的窗口内各像素点的空域滤波器系数,所述第一比值和所述噪声干扰程度均与所述空域滤波器系数呈负相关关系。
3.根据权利要求2所述的基于物联网的停车场感应灯联动系统,其特征在于,根据中心像素点对应的窗口内像素点对应的差分值,得到中心像素点对应的窗口内各像素点的噪声干扰程度,包括:
根据中心像素点对应的窗口内各像素点对应的差分值,分别计算中心像素点对应的窗口内所有像素点对应的差分值的方差以及中心像素点对应的窗口内所有像素点对应的差分值的均值;将预设调整参数与所述差分值的方差的和值记为第一特征指标;
分别计算中心像素点对应的窗口内各像素点对应的差分值与所述均值之间的差值的平方;将所述平方与所述第一特征指标的比值,确定为中心像素点对应的窗口内对应像素点的噪声干扰程度。
4.根据权利要求2所述的基于物联网的停车场感应灯联动系统,其特征在于,根据各像素点对应的窗口内像素点的灰度分布,得到静态区域中各像素点对应的窗口内各像素点的值域滤波器系数,包括:
将所述中心像素点的灰度值与其对应的窗口内各像素点的灰度值之间的差值的平方,记为第一平方;将所述中心像素点对应的窗口内所有像素点的灰度值的方差记为灰度方差;将所述灰度方差与预设调整参数的和值记为第二特征指标;将所述第一平方与所述第二特征指标的比值记为第二比值;
根据所述第二比值和对应的噪声干扰程度,得到中心像素点对应的窗口内各像素点的值域滤波器系数,所述第二比值和所述噪声干扰程度均与所述值域滤波器系数呈负相关关系。
5.根据权利要求2所述的基于物联网的停车场感应灯联动系统,其特征在于,基于所述空域滤波器系数和所述值域滤波器系数,确定静态区域各像素点对应的目标灰度值,包括:
将中心像素点对应的窗口内除中心像素点外其他各像素点的空域滤波器系数和值域滤波器系数的乘积,记为第一乘积;将所述第一乘积与对应像素点的灰度值的乘积记为第一灰度指标;将中心像素点对应的窗口内除中心像素点外其他所有像素点对应的第一灰度指标的和值确定为中心像素点对应的目标灰度值。
6.根据权利要求1所述的基于物联网的停车场感应灯联动系统,其特征在于,所述基于角点的位置分布和灰度分布,构建目标函数,包括:
获取各角点对应的边缘夹角和梯度方向,所述边缘夹角为角点所在边缘位置与其相邻两个边缘像素点形成的夹角;将各角点所在的八邻域内除动态区域外的像素点记为第一像素点,计算各角点与其八邻域内所有第一像素点之间的梯度方向的差值的绝对值的均值,将所述均值记为各角点对应的平均灰度差异;
将相邻两帧灰度图像中的两个角点对应的边缘夹角之间的差异的归一化值记为角度差异指标,将相邻两帧灰度图像中的两个角点对应的平均灰度差异之间的差异的归一化值记为方向差异指标;
将相邻两帧灰度图像中前一帧灰度图像中的角点映射到后一帧灰度图像中,获得各角点的映射点;获取由映射点指向后一帧灰度图像中的各角点的方向,将所述方向与水平向右方向之间的夹角记为前一帧灰度图像中各角点对应的运动角度;将前一帧灰度图像中各角点对应的所有运动角度的均方差记为第一均方差;统计前一帧灰度图像中的角点与后一帧灰度图像中的角点构成的角点组的数量;
根据所述角度差异指标、所述方向差异指标、所述第一均方差和所述角点组的数量,构建目标函数,所述角度差异指标、所述方向差异指标和所述第一均方差均与目标函数值呈正相关关系,所述角点组的数量与目标函数值呈负相关关系。
7.根据权利要求1所述的基于物联网的停车场感应灯联动系统,其特征在于,所述基于所述目标函数获得各目标角点组,包括:将目标函数取最小值时对应的每个角点组作为一个目标角点组;所述角点组是由不同帧灰度图像中静态区域的角点构成。
8.根据权利要求1所述的基于物联网的停车场感应灯联动系统,其特征在于,所述根据各目标角点组中角点的灰度分布,确定动态区域各像素点对应的目标灰度值,包括:
对于任一目标角点组:计算目标角点组中每两个相邻角点的灰度值的差值的绝对值,将所述绝对值与两个相邻角点中前一个角点的灰度值的比值,确定为对应两个角点的灰度差异程度;将目标角点组中所有每两个相邻角点的灰度差异程度的均值记为目标角点组对应的第一均值;每个目标角点组中的角点是按照灰度图像获取的先后顺序进行排列的;
计算所有目标角点组对应的第一均值的均方差;将预设常数与所述均方差的差值确定为动态区域双边滤波器的调节系数;
以动态区域内各像素点为中心,构建各像素点对应的窗口;将动态区域内各像素点对应的窗口内各像素点的空域滤波器系数和值域滤波器系数的乘积,记为第二乘积;将所述第二乘积与对应像素点的灰度值的乘积记为第二灰度指标;计算动态区域内各像素点对应的窗口内所有像素点对应的第二灰度指标的和值,将所述和值与所述调节系数的乘积确定为动态区域内对应像素点对应的目标灰度值。
9.根据权利要求1所述的基于物联网的停车场感应灯联动系统,其特征在于,所述基于所述差分图像确定每帧灰度图像中的静态区域和动态区域,包括:
对所述差分图像进行傅里叶变换以及中心平移,获得频谱图像;对所述频谱图像进行阈值分割获得所述差分图像中的低频区域;
对所述低频区域进行密度聚类,将密度最大的聚类簇作为特征区域;将特征区域在对应灰度图像中所对应的区域作为动态区域,将灰度图像中除动态区域外的区域作为静态区域。
10.根据权利要求1所述的基于物联网的停车场感应灯联动系统,其特征在于,所述基于所述静态区域各像素点对应的目标灰度值和所述动态区域各像素点对应的目标灰度值,获得目标灰度图像,包括:将监控区域的灰度图像中像素点的灰度值用对应的目标灰度值替换,将替换完成后获得的图像作为目标灰度图像。
CN202310443563.7A 2023-04-24 2023-04-24 基于物联网的停车场感应灯联动系统 Active CN116188328B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310443563.7A CN116188328B (zh) 2023-04-24 2023-04-24 基于物联网的停车场感应灯联动系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310443563.7A CN116188328B (zh) 2023-04-24 2023-04-24 基于物联网的停车场感应灯联动系统

Publications (2)

Publication Number Publication Date
CN116188328A true CN116188328A (zh) 2023-05-30
CN116188328B CN116188328B (zh) 2023-06-27

Family

ID=86452450

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310443563.7A Active CN116188328B (zh) 2023-04-24 2023-04-24 基于物联网的停车场感应灯联动系统

Country Status (1)

Country Link
CN (1) CN116188328B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116612390A (zh) * 2023-07-21 2023-08-18 山东鑫邦建设集团有限公司 一种建筑工程用的信息管理系统
CN116863253A (zh) * 2023-09-05 2023-10-10 光谷技术有限公司 基于大数据分析的运维风险预警方法
CN117197783A (zh) * 2023-11-07 2023-12-08 深圳捷渡科技有限公司 基于智能感知的行车记录仪数据分析系统
CN117237240A (zh) * 2023-11-15 2023-12-15 湖南蚁为软件有限公司 基于数据特征的数据智能采集方法及系统
CN117615088A (zh) * 2024-01-22 2024-02-27 沈阳市锦拓电子工程有限公司 一种安全监控的视频数据高效存储方法
CN118014887B (zh) * 2024-04-10 2024-06-04 佰鸟纵横科技(天津)有限公司 一种基于物联网的智能折叠房屋远程监控方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103517528A (zh) * 2013-10-11 2014-01-15 李锡文 基于独立安装led感应灯的自由式群控系统及控制方法
WO2016119745A1 (zh) * 2015-01-29 2016-08-04 乐视网信息技术(北京)股份有限公司 一种视频去噪方法及装置
KR20180124314A (ko) * 2017-05-11 2018-11-21 (주) 텔트론 스마트 센서등
CN110378928A (zh) * 2019-04-29 2019-10-25 北京佳讯飞鸿电气股份有限公司 一种动静匹配的目标检测与跟踪方法
CN111369584A (zh) * 2020-03-07 2020-07-03 候丽 一种应用于城市智慧路灯的运动物体检测方法
CN113902694A (zh) * 2021-09-28 2022-01-07 中国电子科技集团公司第二十七研究所 一种基于动静结合的目标检测方法
CN114782499A (zh) * 2022-04-28 2022-07-22 杭州电子科技大学 一种基于光流和视图几何约束的图像静态区域提取方法及装置
US20220270345A1 (en) * 2019-11-12 2022-08-25 Guangdong Oppo Mobile Telecommunications Corp., Ltd Subject detection method and apparatus, electronic device, and computer-readable storage medium
CN115968077A (zh) * 2023-01-12 2023-04-14 深圳中环安信科技有限公司 一种基于运行数据的智慧社区灯光使用推荐方法和装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103517528A (zh) * 2013-10-11 2014-01-15 李锡文 基于独立安装led感应灯的自由式群控系统及控制方法
WO2016119745A1 (zh) * 2015-01-29 2016-08-04 乐视网信息技术(北京)股份有限公司 一种视频去噪方法及装置
KR20180124314A (ko) * 2017-05-11 2018-11-21 (주) 텔트론 스마트 센서등
CN110378928A (zh) * 2019-04-29 2019-10-25 北京佳讯飞鸿电气股份有限公司 一种动静匹配的目标检测与跟踪方法
US20220270345A1 (en) * 2019-11-12 2022-08-25 Guangdong Oppo Mobile Telecommunications Corp., Ltd Subject detection method and apparatus, electronic device, and computer-readable storage medium
CN111369584A (zh) * 2020-03-07 2020-07-03 候丽 一种应用于城市智慧路灯的运动物体检测方法
CN113902694A (zh) * 2021-09-28 2022-01-07 中国电子科技集团公司第二十七研究所 一种基于动静结合的目标检测方法
CN114782499A (zh) * 2022-04-28 2022-07-22 杭州电子科技大学 一种基于光流和视图几何约束的图像静态区域提取方法及装置
CN115968077A (zh) * 2023-01-12 2023-04-14 深圳中环安信科技有限公司 一种基于运行数据的智慧社区灯光使用推荐方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
闫爱云 等: "视频运动目标提取的实现", 《东北大学学报(自然科学版)》, vol. 32, no. 11, pages 1558 - 1561 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116612390A (zh) * 2023-07-21 2023-08-18 山东鑫邦建设集团有限公司 一种建筑工程用的信息管理系统
CN116612390B (zh) * 2023-07-21 2023-10-03 山东鑫邦建设集团有限公司 一种建筑工程用的信息管理系统
CN116863253A (zh) * 2023-09-05 2023-10-10 光谷技术有限公司 基于大数据分析的运维风险预警方法
CN116863253B (zh) * 2023-09-05 2023-11-17 光谷技术有限公司 基于大数据分析的运维风险预警方法
CN117197783A (zh) * 2023-11-07 2023-12-08 深圳捷渡科技有限公司 基于智能感知的行车记录仪数据分析系统
CN117197783B (zh) * 2023-11-07 2024-01-23 深圳捷渡科技有限公司 基于智能感知的行车记录仪数据分析系统
CN117237240A (zh) * 2023-11-15 2023-12-15 湖南蚁为软件有限公司 基于数据特征的数据智能采集方法及系统
CN117237240B (zh) * 2023-11-15 2024-02-02 湖南蚁为软件有限公司 基于数据特征的数据智能采集方法及系统
CN117615088A (zh) * 2024-01-22 2024-02-27 沈阳市锦拓电子工程有限公司 一种安全监控的视频数据高效存储方法
CN117615088B (zh) * 2024-01-22 2024-04-05 沈阳市锦拓电子工程有限公司 一种安全监控的视频数据高效存储方法
CN118014887B (zh) * 2024-04-10 2024-06-04 佰鸟纵横科技(天津)有限公司 一种基于物联网的智能折叠房屋远程监控方法

Also Published As

Publication number Publication date
CN116188328B (zh) 2023-06-27

Similar Documents

Publication Publication Date Title
CN116188328B (zh) 基于物联网的停车场感应灯联动系统
CN109035188B (zh) 一种基于目标特征驱动的智能图像融合方法
CN106846289B (zh) 一种红外光强与偏振图像融合方法
CN111079556A (zh) 一种多时相无人机视频图像变化区域检测及分类方法
KR100612858B1 (ko) 로봇을 이용하여 사람을 추적하는 방법 및 장치
CN105493141B (zh) 非结构化道路边界检测
CN110400267A (zh) 一种基于巡检图像的预处理方法
CN106778551B (zh) 一种高速路段及城市道路车道线识别方法
CN108710910A (zh) 一种基于卷积神经网络的目标识别方法及系统
CN108765336A (zh) 基于暗亮原色先验与自适应参数优化的图像去雾方法
CN105046218B (zh) 一种基于串并行处理的多特征交通视频烟雾检测方法
Wang et al. Low-illumination image enhancement for night-time UAV pedestrian detection
CN110119726A (zh) 一种基于YOLOv3模型的车辆品牌多角度识别方法
Naufal et al. Preprocessed mask RCNN for parking space detection in smart parking systems
CN109255326A (zh) 一种基于多维信息特征融合的交通场景烟雾智能检测方法
CN113177467A (zh) 火焰识别方法及系统、装置、介质
CN111161222A (zh) 一种基于视觉显著性的印刷辊筒缺陷检测方法
Jiang et al. Shadow Detection based on Colour Segmentation and Estimated Illumination.
Chen et al. Attention-based hierarchical fusion of visible and infrared images
CN116934762B (zh) 锂电池极片表面缺陷的检测系统及方法
CN114140373A (zh) 一种基于LabVIEW深度学习的开关缺陷检测方法
Zhang et al. Infrared small dim target detection based on region proposal
CN116543368A (zh) 一种室内环境用图像处理方法及免碰撞系统
CN115968077A (zh) 一种基于运行数据的智慧社区灯光使用推荐方法和装置
CN115690402A (zh) 一种基于梯度角点综合检测的occ图像识别解码方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant