CN109410250B - 一种基于视觉图像的车辆进站识别方法及终端 - Google Patents

一种基于视觉图像的车辆进站识别方法及终端 Download PDF

Info

Publication number
CN109410250B
CN109410250B CN201811346580.4A CN201811346580A CN109410250B CN 109410250 B CN109410250 B CN 109410250B CN 201811346580 A CN201811346580 A CN 201811346580A CN 109410250 B CN109410250 B CN 109410250B
Authority
CN
China
Prior art keywords
image
processing
target
target object
carrying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811346580.4A
Other languages
English (en)
Other versions
CN109410250A (zh
Inventor
刘垚
付丽
谭诗干
李嘉庆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Tongye Technology Co ltd
Original Assignee
Shenzhen Tongye Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Tongye Technology Co ltd filed Critical Shenzhen Tongye Technology Co ltd
Priority to CN201811346580.4A priority Critical patent/CN109410250B/zh
Publication of CN109410250A publication Critical patent/CN109410250A/zh
Application granted granted Critical
Publication of CN109410250B publication Critical patent/CN109410250B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种基于视觉图像的车辆进站识别方法及终端,其方法包括以下步骤:通过安装于站台上的摄像头进行图像采集;将采集到的图像进行预处理后,提取目标物体,得到目标图像;根据所述目标图像,将后续采集的图像进行目标物体跟踪处理,并对目标跟踪处理后的图像进行目标物体运动状态分析处理,得出目标物体的运动状态。本发明用于对现代有轨电车进站后的运动状态检测,能有效解决车辆进站的可靠识别和定位问题,从而确保车辆进站后及出站前自动准确的进行充电控制。

Description

一种基于视觉图像的车辆进站识别方法及终端
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于视觉图像的车辆进站识别方法及终端。
背景技术
利用超级电容作为储能元件的现代有轨电车已逐步在各大城市发展起来,相比动力电池,超级电容具有寿命长、功率密度高及充电速度快等优点,车辆进站后可利用乘客上下车的时间迅速完成充电,有效减少单次充电时间。与此同时,相比动力电池,超级电容也存在能量密度低、续航里程短等缺点,现代有轨电车需在沿线各站台布置充电设备。考虑到充电频繁、充电时间短,现代有轨电车一般均采用滑轨接触的方式充电,即在车辆顶端安装受电弓,在站台安装充电设备及充电轨。
因此,现代有轨电车驶入站台后,必须先进行车辆的位置状态检测,确保车辆受电弓与站台充电轨可靠接触后,才能进行充电,而在车辆驶出站台时,需确保车辆受电弓与站台充电轨脱离前停止充电,以避免因车辆受电弓与站台充电轨接触不好而造成拉弧进而造成损坏。及时可靠的识别,能够让站台充电设备在最短时间内对车辆进行充电,使车辆在停靠时间内获得更多的电量。
由此所述,在车辆进站时及出站前,如何快速识别及判定车辆位置状态,是现在有轨电车能够自动准确地进行充电控制的关键技术点之一。
目前在轨道交通领域,关于车辆进站的位置状态检测,现有技术主要有以下几种方法:
1、地面/轨道感应的方法。此方法为传统检测方法之一,其不足处为:
a)需在地面预埋检测装置;
b)车辆需配置对应的互感装置。
以上两点造成施工复杂,不易维护,成本较高。
2、红外/超声波检测的方法。此方法不足处为:
a)检测位置精度较低、可靠性低;
b)易受天气变化或其它特定物体影响,造成误检测。
3、射频标签检测的方法。此方法需在车辆上安装射频卡电子标签,在站台安装射频信号接收装置,其不足处为:
a)因射频卡电子标签电量不足或读卡器接收信号异常等因素,导致站台充电设备无法及时有效检测到车辆进站,或在车辆进站后对车辆位置判断不准,难以安全充电;
b)车辆快速越站运行时,无法进行有效识别,易造成误充电。
发明内容
本发明所要解决的技术问题是:本发明提供了一种基于视觉图像的车辆进站识别方法及终端,用于对现代有轨电车进站后的运动状态检测,能有效解决车辆进站的可靠识别和定位问题,从而确保车辆进站后及出站前自动准确的进行充电控制。
为了解决上述技术问题,本发明提供了一种基于视觉图像的车辆进站识别方法,包括以下步骤:
S1:通过安装于站台上的摄像头进行图像采集;
S2:将采集到的图像进行预处理后,提取目标物体,得到目标图像;
S3:根据所述目标图像,将后续采集的图像进行目标物体跟踪处理,并对目标跟踪处理后的图像进行目标物体运动状态分析处理,得出目标物体的运动状态。
本发明还提供一种基于视觉图像的车辆进站识别终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
S1:通过安装于站台上的摄像头进行图像采集;
S2:将采集到的图像进行预处理后,提取目标物体,得到目标图像;
S3:根据所述目标图像,将后续采集的图像进行目标物体跟踪处理,并对目标跟踪处理后的图像进行目标物体运动状态分析处理,得出目标物体的运动状态。
本发明的有益效果为:
本发明提供的一种基于视觉图像的车辆进站识别方法及终端,通过站台上的摄像头采集图像,将采集的图像进行预处理后,提取目标物体(车辆);根据提取的目标物体,对后续采集的图像进行目标物体跟踪处理后,进行目标物体运动状态分析处理,得出目标物体的运动状态。通过上述方法,只需要在站台特定位置安装摄像头等主要部件,简单可靠,简化了安装施工过程;通过图像识别处理算法,智能分析,能可靠的识别车辆以及区分其他非预期物体,上述的检测过程,不受气温、天气环境因素的影响;通过分析得到的目标物体的动态状态,能够杜绝越站误充电,以及快速移动时的大电流充电,避免产生拉弧等危害现象;本发明基于图像识别的方法,以及物体运动的分析判定,对于车辆大型物体来说,相对辨识度高,图像处理算法的复杂度低(如相比车牌识别),对摄像头分辨率以及处理器的运算能力要求较低,易于实现推广。
附图说明
图1为根据本发明实施例的一种基于视觉图像的车辆进站识别方法的主要步骤示意图;
图2为根据本发明实施例的一种基于视觉图像的车辆进站识别终端的结构示意图;
标号说明:
1、存储器;2、处理器。
具体实施方式
为详细说明本发明的技术内容、所实现目的及效果,以下结合实施方式并配合附图详予说明。
本发明最关键的构思为:通过站台上的摄像头采集图像,将采集的图像进行预处理后,提取目标物体;根据提取的目标物体,对后续采集的图像进行目标物体跟踪处理后,进行目标物体运动状态分析处理,得出目标物体的运动状态。
请参照图1,本发明提供了一种基于视觉图像的车辆进站识别方法,包括以下步骤:
S1:通过安装于站台上的摄像头进行图像采集;
S2:将采集到的图像进行预处理后,提取目标物体,得到目标图像;
S3:根据所述目标图像,将后续采集的图像进行目标物体跟踪处理,并对目标跟踪处理后的图像进行目标物体运动状态分析处理,得出目标物体的运动状态。
从上述描述可知,本发明提供的一种基于视觉图像的车辆进站识别方法,通过站台上的摄像头采集图像,将采集的图像进行预处理后,提取目标物体(车辆);根据提取的目标物体,对后续采集的图像进行目标物体跟踪处理后,进行目标物体运动状态分析处理,得出目标物体的运动状态。通过上述方法,只需要在站台特定位置安装摄像头等主要部件,简单可靠,简化了安装施工过程;通过图像识别处理算法,智能分析,能可靠的识别车辆以及区分其他非预期物体,上述的检测过程,不受气温、天气环境因素的影响;通过分析得到的目标物体的动态状态,能够杜绝越站误充电,以及快速移动时的大电流充电,避免产生拉弧等危害现象;本发明基于图像识别的方法,以及物体运动的分析判定,对于车辆大型物体来说,相对辨识度高,图像处理算法的复杂度低(如相比车牌识别),对摄像头分辨率以及处理器的运算能力要求较低,易于实现推广。
进一步,所述S2具体为:
将采集到的彩色图像,通过预设第一公式进行灰度化处理;
所述第一公式为:
f(x,y)=0.229R(x,y)+0.587G(x,y)+0.114B(x,y);
其中,所述f(x,y)表示彩色图像的像素点(x,y)经过灰度化处理得到的像素值,,R(x,y)表示所述彩色图像的像素点(x,y)的红颜色分量,G(x,y)表示所述彩色图像的像素点(x,y)的绿颜色分量,B(x,y)表示所述彩色图像的像素点(x,y)的蓝颜色分量;
将灰度化处理后的图像,通过预设的第二公式进行中值滤波处理;
所述第二公式为:
g(x,y)=Med{f(x,y)}=Med{f(x+r),(y+s),(r,s)∈A};
其中,g(x,y)表示灰度化处理后的图像的像素点(x,y)经过中值滤波处理得到的像素值;Med表示中值滤波函数,A表示中值滤波算法的窗口,r表示预设第一值,s表示预设第二值;
将中值滤波处理后的图像进行图像增强处理;
将图像增强处理后的图像,通过预设第三公式进行图像边缘检测;
所述第三公式为:
H(x,y)=G(x,y)*I(x,y)=G(y)*(G(x)*I(x,y));
其中,H(x,y)表示图像增强处理后的图像的像素点(x,y)经过图像边缘检测处理得到的像素值;I(x,y)表示中值滤波处理后的图像的像素点(x,y)经过图像增强处理得到的像素值;G表示高斯滤波函数,G(x,y)表示对增强处理后的图像的像素点(x,y)进行高斯滤波运算;G(x)表示G(x,y)在x方向的分量,G(y)表示G(x,y)在y方向的分量;
将边缘检测后的两帧连续图像通过帧间差分法,提取目标物体,得到目标图像。
通过上述方法,能够对车辆进站的图像进行快速处理,得到目标图像,上述图像处理方法,适用于站台上有轨电车的快速提取,其环境变化相对单一,有利于提高图像的处理效率。
进一步的,将中值滤波处理后的图像进行图像增强处理,具体为:
将中值滤波处理后的图像通过直方图均衡化处理后,再经过对比度增强处理,得到图像增强处理后的图像。
从上述描述可知,通过上述方法,能够有效地对图像进行增强处理,以提高后续目标提取的效率。
进一步的,所述S3具体为:
根据所述目标图像,将后续采集的多张图像分别通过Kalman滤波和图像边缘方向直方图相结合的方法进行目标物体跟踪处理;
将目标跟踪处理后的多张图像中的轨迹点采用三次样条插值方法进行处理后,通过曲线拟合方法进行运动轨迹拟合,得到拟合曲线;
根据所述拟合曲线,分析目标物体的运动状态。
从上述描述可知,通过上述方法,能够快速有效的得到目标物体对应的运动轨迹,从而分析目标物体的运动状态。
进一步的,所述S3之后还包括:
根据目标物体的运动状态,判断是否对车辆进行充电。
其中,站台充电设备根据所述目标物体的运动状态的分析结果进行控制,如目标物理处于有效范围、慢行(车辆的行驶速度小于预设速度阈值,该速度阈值可实际处理情况确定)时可以启动充电或限制功率充电;如目标物体处于站内正中位置、且静止时,可进行全功率充电;如目标物体处于出站运动状态时,停止充电。本发明通过及时有效的识别,使站台充电设备在最短的时间内开始对车辆进行充电,让车辆在停靠时间内获得更多的电量。
请参照图2,本发明还提供一种基于视觉图像的车辆进站识别终端,包括存储器1、处理器2及存储在存储器1上并可在处理器2上运行的计算机程序,所述处理器2执行所述计算机程序时实现以下步骤:
S1:通过安装于站台上的摄像头进行图像采集;
S2:将采集到的图像进行预处理后,提取目标物体,得到目标图像;
S3:根据所述目标图像,将后续采集的图像进行目标物体跟踪处理,并对目标跟踪处理后的图像进行目标物体运动状态分析处理,得出目标物体的运动状态。
进一步的,所述的一种基于视觉图像的车辆进站识别终端,所述S2具体为:
将采集到的彩色图像,通过预设第一公式进行灰度化处理;
所述第一公式为:
f(x,y)=0.229R(x,y)+0.587G(x,y)+0.114B(x,y);
其中,所述f(x,y)表示彩色图像的像素点(x,y)经过灰度化处理得到的像素值,,R(x,y)表示所述彩色图像的像素点(x,y)的红颜色分量,G(x,y)表示所述彩色图像的像素点(x,y)的绿颜色分量,B(x,y)表示所述彩色图像的像素点(x,y)的蓝颜色分量;
将灰度化处理后的图像,通过预设的第二公式进行中值滤波处理;
所述第二公式为:
g(x,y)=Med{f(x,y)}=Med{f(x+r),(y+s),(r,s)∈A};
其中,g(x,y)表示灰度化处理后的图像的像素点(x,y)经过中值滤波处理得到的像素值;Med表示中值滤波函数,A表示中值滤波算法的窗口,r表示预设第一值,s表示预设第二值;
将中值滤波处理后的图像进行图像增强处理;
将图像增强处理后的图像,通过预设第三公式进行图像边缘检测;
所述第三公式为:
H(x,y)=G(x,y)*I(x,y)=G(y)*(G(x)*I(x,y));
其中,H(x,y)表示图像增强处理后的图像的像素点(x,y)经过图像边缘检测处理得到的像素值;I(x,y)表示中值滤波处理后的图像的像素点(x,y)经过图像增强处理得到的像素值;G表示高斯滤波函数,G(x,y)表示对增强处理后的图像的像素点(x,y)进行高斯滤波运算;G(x)表示G(x,y)在x方向的分量,G(y)表示G(x,y)在y方向的分量;
将边缘检测后的两帧连续图像通过帧间差分法,提取目标物体,得到目标图像。
进一步的,所述的一种基于视觉图像的车辆进站识别终端,将中值滤波处理后的图像进行图像增强处理,具体为:
将中值滤波处理后的图像通过直方图均衡化处理后,再经过对比度增强处理,得到图像增强处理后的图像。
进一步的,所述的一种基于视觉图像的车辆进站识别终端,所述S3具体为:
根据所述目标图像,将后续采集的多张图像分别通过Kalman滤波和图像边缘方向直方图相结合的方法进行目标物体跟踪处理;
将目标跟踪处理后的多张图像中的轨迹点采用三次样条插值方法进行处理后,通过曲线拟合方法进行运动轨迹拟合,得到拟合曲线;
根据所述拟合曲线,分析目标物体的运动状态。
进一步的,所述的一种基于视觉图像的车辆进站识别终端,所述S3之后还包括:
根据目标物体的运动状态,判断是否对车辆进行充电。
请参照图1,本发明的实施例一为:
本发明提供的一种基于视觉图像的车辆进站识别方法,包括以下步骤:
S1:通过安装于站台上的摄像头进行图像采集;
S2:将采集到的图像进行预处理后,提取目标物体,得到目标图像;
其中,所述S2具体为:
将采集到的彩色图像,通过预设第一公式进行灰度化处理;
所述第一公式为:
f(x,y)=0.229R(x,y)+0.587G(x,y)+0.114B(x,y);
其中,所述f(x,y)表示彩色图像的像素点(x,y)经过灰度化处理得到的像素值,,R(x,y)表示所述彩色图像的像素点(x,y)的红颜色分量,G(x,y)表示所述彩色图像的像素点(x,y)的绿颜色分量,B(x,y)表示所述彩色图像的像素点(x,y)的蓝颜色分量;
将灰度化处理后的图像,通过预设的第二公式进行中值滤波处理;
所述第二公式为:
g(x,y)=Med{f(x,y)}=Med{f(x+r),(y+s),(r,s)∈A};
其中,g(x,y)表示灰度化处理后的图像的像素点(x,y)经过中值滤波处理得到的像素值;Med表示中值滤波函数,A表示中值滤波算法的窗口(二维模板),r表示预设第一值,s表示预设第二值;第一值和第二值的取值限定在所述中值滤波算法的窗口A中即可;
将中值滤波处理后的图像通过直方图均衡化处理后,再经过对比度增强处理,得到图像增强处理后的图像;
将图像增强处理后的图像,通过预设第三公式进行图像边缘检测;
所述第三公式为:
H(x,y)=G(x,y)*I(x,y)=G(y)*(G(x)*I(x,y));
其中,H(x,y)表示图像增强处理后的图像的像素点(x,y)经过图像边缘检测处理得到的像素值;I(x,y)表示中值滤波处理后的图像的像素点(x,y)经过图像增强处理得到的像素值;G表示高斯滤波函数,G(x,y)表示对增强处理后的图像的像素点(x,y)进行高斯滤波运算;G(x)表示G(x,y)在x方向的分量,G(y)表示G(x,y)在y方向的分量;
其中,
Figure BDA0001863900030000091
输入值为增强处理后的图像的像素点(x,y),即该像素点的横坐标和纵坐标作为高斯滤波函数的输入,调节σ找到合适的σ值。
其中,标准差σ的确定根据实际情况调节,在对图像平滑时,调整σ实际是在调整周围像素对当前像素的影响程度,调大σ即提高了远处像素对中心像素的影响程度,滤波结果也就越平滑。从低通滤波角度考虑,可以对图像做傅里叶变换进行频谱分析,叠加上频域高斯并调节查看效果,找到合适的σ。
将边缘检测后的两帧连续图像通过帧间差分法,提取目标物体,得到目标图像。
其中,将边缘检测后的两帧连续图像通过帧间差分法,提取目标物体,得到目标图像,具体为:
将边缘检测后的两帧连续图像,通过预设第四公式进行目标物体提取,得到目标图像;
所述第四公式为:
Dm(x,y)=|fm(x,y)-fm-1(x,y)|;
其中,Dm(x,y)表示边缘检测后的两帧连续图像对应的像素点(x,y)经过目标提取处理后的像素值,fm(x,y)表示边缘检测后的第m帧图像的像素点(x,y)的像素值、fm-1(x,y)表示边缘检测后的第m-1帧图像的像素点(x,y)的像素值;
S3:根据所述目标图像,将后续采集的图像进行目标物体跟踪处理,并对目标跟踪处理后的图像进行目标物体运动状态分析处理,得出目标物体的运动状态;
其中,所述S3具体为:
S31:根据所述目标图像,将后续采集的多张图像分别通过Kalman滤波和图像边缘方向直方图相结合的方法进行目标物体跟踪处理;
S32:将目标跟踪处理后的多张图像中的轨迹点采用三次样条插值方法进行处理后,通过曲线拟合方法进行运动轨迹拟合,得到拟合曲线;
S33:根据所述拟合曲线,分析目标物体的运动状态。
其中,所述S31具体为:
根据所述目标图像,通过Kalman滤波方法,对后续采集的多张图像进行预测目标物体出现的区域,得到多个目标区域;
采用图像边缘方向直方图方法在每一个目标区域内进行目标物体搜索,得到目标跟踪处理后的多张图像,从而提高所述目标跟踪实时性;
Kalman滤波方法采用的数学模型为:
状态方程:Xi=Ai-1Xi-1+wi-1
观测方程:Zi=HiXi+vi
其中,Xi为i时刻的特征状态向量,Zi为i时刻的观测向量,所述i为采集图像对应的时间,Ai-1为Xi-1的状态转移矩阵,即把i-1时刻所有可能的状态值转移到一个新的范围内(i时刻),这个新的范围代表了系统的状态值可能存在的范围,可以通过已知条件来设立预测函数进一步得到转移矩阵,Hi为状态观测矩阵,Xi-1为状态变换矩阵,wi-1为i-1时刻的随机输入噪声向量,vi为i时刻的观测噪声向量。
其中,Xi的初值即初始状态向量可定义为X0=(x,y,dx,dy)T其中x,y为空间坐标(像素点坐标),为进行Kalman滤波前,上一图像处理步骤的结果,dx,dy为相应方向上的运动速度。实际上并不用精确的初始状态向量,后面时刻的特征状态向量都会在不断地迭代中慢慢收敛;
若系统已确定,则Ai-1、Hi已知,设噪声序列wi-1、vi满足一定条件,则也已知,设Pi
Figure BDA0001863900030000101
的协方差,
Figure BDA0001863900030000102
为i时刻的最优估计值,
Figure BDA0001863900030000103
是Xi
Figure BDA0001863900030000104
的误差协方差矩阵,Qi-1为动态噪声wi-1的协方差矩阵,Ri为动态噪声vi的协方差矩阵。得到Kalman滤波方法计算公式如下:
在i时刻,系统状态预测方程为:
Figure BDA0001863900030000105
其中,Ki为Kalman增益矩阵,如后面第二个公式所述,Ki的值随不同的时刻而改变。
预测值和真实值之间误差协方差矩阵为:
Figure BDA0001863900030000111
可计算出Kalman增益矩阵:
Figure BDA0001863900030000112
最后计算出估计值和真实值之间的误差协方差矩阵:
Figure BDA0001863900030000113
为之后递推做准备。
通过不断地迭代实时地预测出目标可能出现的区域。
图像边缘方向直方图方法的定义为:
Ej=P[O(p)=j],j=1,2,…m
其中,p为图像边缘点,Ej为图像边缘点中具有边缘方向j的所有点的比重,P[]表示的为边缘点中具有边缘方向j的所有点的比重,O(p)为图像中边缘点的方向值,方向值是角度,数值是因为将边缘方向量化值进行直方图统计并归一化,m表示m个不同的方向(m个不同的角度),区域即为具有边缘方向j的所有点。
用于目标搜索的边缘方向直方图方法采用的数学模型为:
Figure BDA0001863900030000114
Figure BDA0001863900030000115
其中,k代表一个各向同性的核心函数,使得离物体中心近的点有较大的权重,而离中心远的点有较小的权重,n代表跟踪窗口中的总像素数,m表示边缘方向直方图中的方向维数,β表示归一化参数,h表示2-D搜索窗的大小。
结合Kalman滤波和图像边缘方向直方图特征进行运动目标搜索,可大大减少目标搜索时间,提高目标检测追踪的实时性。
S4:根据目标物体的运动状态,判断是否对车辆进行充电;
其中,站台充电设备根据所述目标物体的运动状态的分析结果进行控制,如目标物理处于有效范围、慢行(车辆的行驶速度小于预设速度阈值,该速度阈值可实际处理情况确定)时可以启动充电或限制功率充电;如目标物体处于站内正中位置、且静止时,可进行全功率充电;如目标物体处于出站运动状态时,停止充电。
请参照图2,本发明的实施例二为:
本发明提供的一种VR软件外设的扩展控制终端,包括存储器1、处理器2及存储在存储器1上并可在处理器2上运行的计算机程序,所述处理器2执行所述计算机程序时实现以下步骤:
S1:通过安装于站台上的摄像头进行图像采集;
S2:将采集到的图像进行预处理后,提取目标物体,得到目标图像;
其中,所述S2具体为:
将采集到的彩色图像,通过预设第一公式进行灰度化处理;
所述第一公式为:
f(x,y)=0.229R(x,y)+0.587G(x,y)+0.114B(x,y);
其中,所述f(x,y)表示彩色图像的像素点(x,y)经过灰度化处理得到的像素值,,R(x,y)表示所述彩色图像的像素点(x,y)的红颜色分量,G(x,y)表示所述彩色图像的像素点(x,y)的绿颜色分量,B(x,y)表示所述彩色图像的像素点(x,y)的蓝颜色分量;
将灰度化处理后的图像,通过预设的第二公式进行中值滤波处理;
所述第二公式为:
g(x,y)=Med{f(x,y)}=Med{f(x+r),(y+s),(r,s)∈A};
其中,g(x,y)表示灰度化处理后的图像的像素点(x,y)经过中值滤波处理得到的像素值;Med表示中值滤波函数,A表示中值滤波算法的窗口(二维模板),r表示预设第一值,s表示预设第二值;第一值和第二值的取值限定在所述中值滤波算法的窗口A中即可;
将中值滤波处理后的图像通过直方图均衡化处理后,再经过对比度增强处理,得到图像增强处理后的图像;
将图像增强处理后的图像,通过预设第三公式进行图像边缘检测;
所述第三公式为:
H(x,y)=G(x,y)*I(x,y)=G(y)*(G(x)*I(x,y));
其中,H(x,y)表示图像增强处理后的图像的像素点(x,y)经过图像边缘检测处理得到的像素值;I(x,y)表示中值滤波处理后的图像的像素点(x,y)经过图像增强处理得到的像素值;G表示高斯滤波函数,G(x,y)表示对增强处理后的图像的像素点(x,y)进行高斯滤波运算;G(x)表示G(x,y)在x方向的分量,G(y)表示G(x,y)在y方向的分量;
其中,
Figure BDA0001863900030000131
输入值为增强处理后的图像的像素点(x,y),即该像素点的横坐标和纵坐标作为高斯滤波函数的输入,调节σ找到合适的σ值。
其中,标准差σ的确定根据实际情况调节,在对图像平滑时,调整σ实际是在调整周围像素对当前像素的影响程度,调大σ即提高了远处像素对中心像素的影响程度,滤波结果也就越平滑。从低通滤波角度考虑,可以对图像做傅里叶变换进行频谱分析,叠加上频域高斯并调节查看效果,找到合适的σ。
将边缘检测后的两帧连续图像通过帧间差分法,提取目标物体,得到目标图像。
其中,将边缘检测后的两帧连续图像通过帧间差分法,提取目标物体,得到目标图像,具体为:
将边缘检测后的两帧连续图像,通过预设第四公式进行目标物体提取,得到目标图像;
所述第四公式为:
Dm(x,y)=|fm(x,y)-fm-1(x,y)|;
其中,Dm(x,y)表示边缘检测后的两帧连续图像对应的像素点(x,y)经过目标提取处理后的像素值,fm(x,y)表示边缘检测后的第m帧图像的像素点(x,y)的像素值、fm-1(x,y)表示边缘检测后的第m-1帧图像的像素点(x,y)的像素值;
S3:根据所述目标图像,将后续采集的图像进行目标物体跟踪处理,并对目标跟踪处理后的图像进行目标物体运动状态分析处理,得出目标物体的运动状态;
其中,所述S3具体为:
S31:根据所述目标图像,将后续采集的多张图像分别通过Kalman滤波和图像边缘方向直方图相结合的方法进行目标物体跟踪处理;
S32:将目标跟踪处理后的多张图像中的轨迹点采用三次样条插值方法进行处理后,通过曲线拟合方法进行运动轨迹拟合,得到拟合曲线;
S33:根据所述拟合曲线,分析目标物体的运动状态。
其中,所述S31具体为:
根据所述目标图像,通过Kalman滤波方法,对后续采集的多张图像进行预测目标物体出现的区域,得到多个目标区域;
采用图像边缘方向直方图方法在每一个目标区域内进行目标物体搜索,得到目标跟踪处理后的多张图像,从而提高所述目标跟踪实时性;
Kalman滤波方法采用的数学模型为:
状态方程:Xi=Ai-1Xi-1+wi-1
观测方程:Zi=HiXi+vi
其中,Xi为i时刻的特征状态向量,Zi为i时刻的观测向量,所述i为采集图像对应的时间,Ai-1为Xi-1的状态转移矩阵,即把i-1时刻所有可能的状态值转移到一个新的范围内(i时刻),这个新的范围代表了系统的状态值可能存在的范围,可以通过已知条件来设立预测函数进一步得到转移矩阵,Hi为状态观测矩阵,Xi-1为状态变换矩阵,wi-1为i-1时刻的随机输入噪声向量,vi为i时刻的观测噪声向量。
其中,Xi的初值即初始状态向量可定义为X0=(x,y,dx,dy)T其中x,y为空间坐标(像素点坐标),为进行Kalman滤波前,上一图像处理步骤的结果,dx,dy为相应方向上的运动速度。实际上并不用精确的初始状态向量,后面时刻的特征状态向量都会在不断地迭代中慢慢收敛;
若系统已确定,则Ai-1、Hi已知,设噪声序列wi-1、vi满足一定条件,则也已知,设Pi
Figure BDA0001863900030000141
的协方差,
Figure BDA0001863900030000142
为i时刻的最优估计值,
Figure BDA0001863900030000143
是Xi
Figure BDA0001863900030000144
的误差协方差矩阵,Qi-1为动态噪声wi-1的协方差矩阵,Ri为动态噪声vi的协方差矩阵。得到Kalman滤波方法计算公式如下:
在i时刻,系统状态预测方程为:
Figure BDA0001863900030000151
其中,Ki为Kalman增益矩阵,如后面第二个公式所述,Ki的值随不同的时刻而改变。
预测值和真实值之间误差协方差矩阵为:
Figure BDA0001863900030000152
可计算出Kalman增益矩阵:
Figure BDA0001863900030000153
最后计算出估计值和真实值之间的误差协方差矩阵:
Figure BDA0001863900030000154
为之后递推做准备。
通过不断地迭代实时地预测出目标可能出现的区域。
图像边缘方向直方图方法的定义为:
Ej=P[O(p)=j],j=1,2,…m
其中,p为图像边缘点,Ej为图像边缘点中具有边缘方向j的所有点的比重,P[]表示的为边缘点中具有边缘方向j的所有点的比重,O(p)为图像中边缘点的方向值,方向值是角度,数值是因为将边缘方向量化值进行直方图统计并归一化,m表示m个不同的方向(m个不同的角度),区域即为具有边缘方向j的所有点。
用于目标搜索的边缘方向直方图方法采用的数学模型为:
Figure BDA0001863900030000155
Figure BDA0001863900030000156
其中,k代表一个各向同性的核心函数,使得离物体中心近的点有较大的权重,而离中心远的点有较小的权重,n代表跟踪窗口中的总像素数,m表示边缘方向直方图中的方向维数,β表示归一化参数,h表示2-D搜索窗的大小。
结合Kalman滤波和图像边缘方向直方图特征进行运动目标搜索,可大大减少目标搜索时间,提高目标检测追踪的实时性。
S4:根据目标物体的运动状态,判断是否对车辆进行充电;
其中,站台充电设备根据所述目标物体的运动状态的分析结果进行控制,如目标物理处于有效范围、慢行(车辆的行驶速度小于预设速度阈值,该速度阈值可实际处理情况确定)时可以启动充电或限制功率充电;如目标物体处于站内正中位置、且静止时,可进行全功率充电;如目标物体处于出站运动状态时,停止充电。
本发明的实施例三为:
1、视频图像采集
通过安装于站台的摄像头对站台及轨道状态进行采集。所述摄像头安装于站台上方(需要进行防水处理,若该摄像头具有防水功能),具体安装位置可定一定范围,即摄像头采集范围包含,车辆移动过程中,即将进站时车头端状态及车辆出站时的尾端轮廓状态。
2、图像预处理
对所述采集后的视频图像进行预处理,以便于图像处理过程中,目标(即车辆)的识别提取,所述图像预处理包含以下4部分:
a)彩色图像灰度化
所述摄像头采集的所述视频图像是由红(R)、绿(G)、蓝(B)三个分量组成的彩色图像,将采集到的彩色图像进行灰度化处理,彩色图像灰度化数学模型为:
f(x,y)=0.229R(x,y)+0.587G(x,y)+0.114B(x,y);
其中,所述f(x,y)表示彩色图像的像素点(x,y)经过灰度化处理得到的像素值,,R(x,y)表示所述彩色图像的像素点(x,y)的红颜色分量,G(x,y)表示所述彩色图像的像素点(x,y)的绿颜色分量,B(x,y)表示所述彩色图像的像素点(x,y)的蓝颜色分量;
b)图像去噪
采集的视频图像会受外界因素及转化存储过程中其它因素的影响,因此,需对所述灰度化处理后的图像进行图像去噪处理,以改善图像信噪比。
较好的,采用二维中值滤波对所述灰度化后的图像进行去噪处理,所述图像去噪处理的数学模型为:
g(x,y)=Med{f(x,y)}=Med{f(x+r),(y+s),(r,s)∈A};
其中,g(x,y)表示灰度化处理后的图像的像素点(x,y)经过中值滤波处理得到的像素值;Med表示中值滤波函数,A表示中值滤波算法的窗口,r表示预设第一值,s表示预设第二值;第一值和第二值的取值限定在所述中值滤波算法的窗口A中即可。
c)图像增强
所述图像去噪后的图像需进行图像增强处理,较好的,所述图像增强处理结合图像直方图均衡化和对比度增强对图像进行增强处理,即先对所述图像去噪处理后的图像进行直方图均衡化处理,再对所述直方图均衡化处理后的图像进行图像的对比度增强。
d)图像边缘检测
所述图像增强处理后的图像需进行图像边缘检测,通过边缘检测可去除所述图像增强处理后图像中不感兴趣的部分。
较好的,采用Canny边缘检测算子对图像进行所述图像边缘检测。通过数学模型:
H(x,y)=G(x,y)*I(x,y)=G(y)*(G(x)*I(x,y));
进行所述图像边缘检测。
其中,H(x,y)为所述图像边缘检测处理后的图像,G(x,y)为二维高斯滤波函数,I(x,y)为所述图像增强后的图像,G(x)为x方向分量,G(y)表示y方向分量;其中,
Figure BDA0001863900030000171
输入值为增强处理后的图像的像素点(x,y),即该像素点的横坐标和纵坐标作为高斯滤波函数的输入,调节σ找到合适的σ值;标准差σ的确定根据实际情况调节,在对图像平滑时,调整σ实际是在调整周围像素对当前像素的影响程度,调大σ即提高了远处像素对中心像素的影响程度,滤波结果也就越平滑。从低通滤波角度考虑,可以对图像做傅里叶变换进行频谱分析,叠加上频域高斯并调节查看效果,找到合适的σ。
3、提取目标
对所述图像预处理后的图像进行目标(即车辆)提取处理,所述目标提取处理即提取目标。所述目标提取处理的具体工作原理如图2所示。
较好的,采用帧间差分法来进行所述目标提取处理。所述目标提取处理数学模型为:
Dm(x,y)=|fm(x,y)-fm-1(x,y)|;
其中,Dm(x,y)为目标提取处理后的图像,fm(x,y)、fm-1(x,y)分别为经所述图像预处理后的连续图像。
通过所述目标提取处理后的图像与设定阈值比较,得出目标(即车辆)Rm(x,y)暂定状态。
4、目标跟踪
为便于更好地获得目标(即车辆)的实时状态,经所述目标提取后的图像进行目标跟踪处理。
较好的,采用Kalman滤波和图像边缘方向直方图相结合的方法进行所述目标跟踪。通过Kalman滤波方法对目标下一个可能出现位置进行预测,得出一个较小预测范围,在此范围内使用图像边缘方向直方图特征进行目标搜索,提高所述目标跟踪实时性。
Kalman滤波数学模型为:
状态方程:Xi=Ai-1Xi-1+wi-1
观测方程:Zi=HiXi+vi
其中,Xi为i时刻的特征状态向量,Zi为i时刻的观测向量,所述i为采集图像对应的时间,Ai-1为Xi-1的状态转移矩阵,即把i-1时刻所有可能的状态值转移到一个新的范围内(i时刻),这个新的范围代表了系统的状态值可能存在的范围,可以通过已知条件来设立预测函数进一步得到转移矩阵,Hi为状态观测矩阵,Xi-1为状态变换矩阵,wi-1为i-1时刻的随机输入噪声向量,vi为i时刻的观测噪声向量。
其中,Xi的初值即初始状态向量可定义为X0=(x,y,dx,dy)T其中x,y为空间坐标(像素点坐标),为进行Kalman滤波前,上一图像处理步骤的结果,dx,dy为相应方向上的运动速度。实际上并不用精确的初始状态向量,后面时刻的特征状态向量都会在不断地迭代中慢慢收敛;
若系统已确定,则Ai-1、Hi已知,设噪声序列wi-1、vi满足一定条件,则也已知,设Pi
Figure BDA0001863900030000191
的协方差,
Figure BDA0001863900030000192
为i时刻的最优估计值,
Figure BDA0001863900030000193
是Xi
Figure BDA0001863900030000194
的误差协方差矩阵,Qi-1为动态噪声wi-1的协方差矩阵,Ri为动态噪声vi的协方差矩阵。得到Kalman滤波方法计算公式如下:
在i时刻,系统状态预测方程为:
Figure BDA0001863900030000195
其中,Ki为Kalman增益矩阵,如后面第二个公式所述,Ki的值随不同的时刻而改变。
预测值和真实值之间误差协方差矩阵为:
Figure BDA0001863900030000196
可计算出Kalman增益矩阵:
Figure BDA0001863900030000197
最后计算出估计值和真实值之间的误差协方差矩阵:
Figure BDA0001863900030000198
为之后递推做准备。
通过不断地迭代实时地预测出目标可能出现的区域。
图像边缘方向直方图数学模型为:
Ej=P[O(p)=j],j=1,2,…m;
其中,Ej为图像中具有边缘方向O(p)的所有边缘点所占比例,p为图像中的边缘点,P[]表示的为边缘点中具有边缘方向j的所有点的比重,O(p)为图像中边缘点的方向值,方向值是角度,数值是因为将边缘方向量化值进行直方图统计并归一化,m表示m个不同的方向(m个不同的角度),区域即为具有边缘方向j的所有点。
用于目标搜索的边缘方向直方图方法采用的数学模型为:
Figure BDA0001863900030000199
Figure BDA0001863900030000201
其中,k代表一个各向同性的核心函数,使得离物体中心近的点有较大的权重,而离中心远的点有较小的权重,n代表跟踪窗口中的总像素数,m表示边缘方向直方图中的方向维数,β表示归一化参数,h表示2-D搜索窗的大小。
结合Kalman滤波和图像边缘方向直方图特征进行运动目标搜索,可大大减少目标搜索时间,提高目标检测追踪的实时性。
5、目标分析
对所述目标跟踪处理后的图像进行目标分析,以得出目标的实时状态。
较好的,采用三次样条函数插值算法结合曲线拟合的方法对目标进行分析。即先对所述目标跟踪处理后的轨迹点进行三次样条插值方法进行处理,再使用曲线拟合方法进行运动轨迹拟合,进而分析出目标的运动状态。
所述目标分析后的状态可分为进站、有效范围、慢行、正中位置、站内静止、出站。
6、充电设备控制
站台充电设备根据所述目标分析结果进行控制,如目标状态处于有效范围、慢行时可以启动充电或限制功率充电;如目标状态处于正中位置、站内静止时,可进行全功率充电;如目标状态处于出站时,停止充电。
综上所述,本发明提供的一种基于视觉图像的车辆进站识别方法及终端,通过站台上的摄像头采集图像,将采集的图像进行预处理后,提取目标物体(车辆);根据提取的目标物体,对后续采集的图像进行目标物体跟踪处理后,进行目标物体运动状态分析处理,得出目标物体的运动状态。通过上述方法,只需要在站台特定位置安装摄像头等主要部件,简单可靠,简化了安装施工过程;通过图像识别处理算法,智能分析,能可靠的识别车辆以及区分其他非预期物体,上述的检测过程,不受气温、天气环境因素的影响;通过分析得到的目标物体的动态状态,能够杜绝越站误充电,以及快速移动时的大电流充电,避免产生拉弧等危害现象;本发明基于图像识别的方法,以及物体运动的分析判定,对于车辆大型物体来说,相对辨识度高,图像处理算法的复杂度低(如相比车牌识别),对摄像头分辨率以及处理器的运算能力要求较低,易于实现推广。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等同变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (6)

1.一种基于视觉图像的车辆进站识别方法,其特征在于,包括以下步骤:
S1:通过安装于站台上的摄像头进行图像采集;
S2:将采集到的图像进行预处理后,提取目标物体,得到目标图像;
S3:根据所述目标图像,将后续采集的图像进行目标物体跟踪处理,并对目标跟踪处理后的图像进行目标物体运动状态分析处理,得出目标物体的运动状态;
所述S2具体为:
将采集到的彩色图像,通过预设第一公式进行灰度化处理;
所述第一公式为:
f(x,y)=0.229R(x,y)+0.587G(x,y)+0.114B(x,y);
其中,所述f(x,y)表示彩色图像的像素点(x,y)经过灰度化处理得到的像素值,R(x,y)表示所述彩色图像的像素点(x,y)的红颜色分量,G(x,y)表示所述彩色图像的像素点(x,y)的绿颜色分量,B(x,y)表示所述彩色图像的像素点(x,y)的蓝颜色分量;
将灰度化处理后的图像,通过预设的第二公式进行中值滤波处理;
所述第二公式为:
g(x,y)=Med{f(x,y)}=Med{f(x+r),(y+s),(r,s)∈A};
其中,g(x,y)表示灰度化处理后的图像的像素点(x,y)经过中值滤波处理得到的像素值;Med表示中值滤波函数,A表示中值滤波算法的窗口,r表示预设第一值,s表示预设第二值;
将中值滤波处理后的图像进行图像增强处理;
将图像增强处理后的图像,通过预设第三公式进行图像边缘检测;
所述第三公式为:
H(x,y)=G(x,y)*I(x,y)=G(y)*(G(x)*I(x,y));
其中,H(x,y)表示图像增强处理后的图像的像素点(x,y)经过图像边缘检测处理得到的像素值;I(x,y)表示中值滤波处理后的图像的像素点(x,y)经过图像增强处理得到的像素值;G表示高斯滤波函数,G(x,y)表示对增强处理后的图像的像素点(x,y)进行高斯滤波运算;G(x)表示G(x,y)在x方向的分量,G(y)表示G(x,y)在y方向的分量;
将边缘检测后的两帧连续图像通过帧间差分法,提取目标物体,得到目标图像;
所述S3具体为:
S31:根据所述目标图像,将后续采集的多张图像分别通过Kalman滤波和图像边缘方向直方图相结合的方法进行目标物体跟踪处理;
S32:将目标跟踪处理后的多张图像中的轨迹点采用三次样条插值方法进行处理后,通过曲线拟合方法进行运动轨迹拟合,得到拟合曲线;
S33:根据所述拟合曲线,分析目标物体的运动状态;
其中,所述S31具体为:
根据所述目标图像,通过Kalman滤波方法,对后续采集的多张图像进行预测目标物体出现的区域,得到多个目标区域;
采用图像边缘方向直方图方法在每一个目标区域内进行目标物体搜索,得到目标跟踪处理后的多张图像;
边缘方向直方图方法采用的数学模型为:
Figure FDA0002827362010000021
其中,k代表一个各向同性的核心函数,使得离物体中心近的点有较大的权重,而离中心远的点有较小的权重,n代表跟踪窗口中的总像素数,m表示边缘方向直方图中的方向维数,β表示归一化参数,h表示2-D搜索窗的大小。
2.根据权利要求1所述的一种基于视觉图像的车辆进站识别方法,其特征在于,将中值滤波处理后的图像进行图像增强处理,具体为:
将中值滤波处理后的图像通过直方图均衡化处理后,再经过对比度增强处理,得到图像增强处理后的图像。
3.根据权利要求1所述的一种基于视觉图像的车辆进站识别方法,其特征在于,所述S3之后还包括:
根据目标物体的运动状态,判断是否对车辆进行充电。
4.一种基于视觉图像的车辆进站识别终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现以下步骤:
S1:通过安装于站台上的摄像头进行图像采集;
S2:将采集到的图像进行预处理后,提取目标物体,得到目标图像;
S3:根据所述目标图像,将后续采集的图像进行目标物体跟踪处理,并对目标跟踪处理后的图像进行目标物体运动状态分析处理,得出目标物体的运动状态;
所述S2具体为:
将采集到的彩色图像,通过预设第一公式进行灰度化处理;
所述第一公式为:
f(x,y)=0.229R(x,y)+0.587G(x,y)+0.114B(x,y);
其中,所述f(x,y)表示彩色图像的像素点(x,y)经过灰度化处理得到的像素值,R(x,y)表示所述彩色图像的像素点(x,y)的红颜色分量,G(x,y)表示所述彩色,
图像的像素点(x,y)的绿颜色分量,B(x,y)表示所述彩色图像的像素点(x,y)的蓝颜色分量;
将灰度化处理后的图像,通过预设的第二公式进行中值滤波处理;
所述第二公式为:
g(x,y)=Med{f(x,y)}=Med{f(x+r),(y+s),(r,s)∈A};
其中,g(x,y)表示灰度化处理后的图像的像素点(x,y)经过中值滤波处理得到的像素值;Med表示中值滤波函数,A表示中值滤波算法的窗口,r表示预设第一值,s表示预设第二值;
将中值滤波处理后的图像进行图像增强处理;
将图像增强处理后的图像,通过预设第三公式进行图像边缘检测;
所述第三公式为:
H(x,y)=G(x,y)*I(x,y)=G(y)*(G(x)*I(x,y));
其中,H(x,y)表示图像增强处理后的图像的像素点(x,y)经过图像边缘检测处理得到的像素值;I(x,y)表示中值滤波处理后的图像的像素点(x,y)经过图像增强处理得到的像素值;G表示高斯滤波函数,G(x,y)表示对增强处理后的图像的像素点(x,y)进行高斯滤波运算;G(x)表示G(x,y)在x方向的分量,G(y)表示G(x,y)在y方向的分量;
将边缘检测后的两帧连续图像通过帧间差分法,提取目标物体,得到目标图像;
所述S3具体为:
S31:根据所述目标图像,将后续采集的多张图像分别通过Kalman滤波和图像边缘方向直方图相结合的方法进行目标物体跟踪处理;
S32:将目标跟踪处理后的多张图像中的轨迹点采用三次样条插值方法进行处理后,通过曲线拟合方法进行运动轨迹拟合,得到拟合曲线;
S33:根据所述拟合曲线,分析目标物体的运动状态;
其中,所述S31具体为:
根据所述目标图像,通过Kalman滤波方法,对后续采集的多张图像进行预测目标物体出现的区域,得到多个目标区域;
采用图像边缘方向直方图方法在每一个目标区域内进行目标物体搜索,得到目标跟踪处理后的多张图像;
边缘方向直方图方法采用的数学模型为:
Figure FDA0002827362010000041
Figure FDA0002827362010000042
其中,k代表一个各向同性的核心函数,使得离物体中心近的点有较大的权重,而离中心远的点有较小的权重,n代表跟踪窗口中的总像素数,m表示边缘方向直方图中的方向维数,β表示归一化参数,h表示2-D搜索窗的大小。
5.根据权利要求4所述的一种基于视觉图像的车辆进站识别终端,其特征在于,将中值滤波处理后的图像进行图像增强处理,具体为:
将中值滤波处理后的图像通过直方图均衡化处理后,再经过对比度增强处理,得到图像增强处理后的图像。
6.根据权利要求4所述的一种基于视觉图像的车辆进站识别终端,其特征在于,所述S3之后还包括:
根据目标物体的运动状态,判断是否对车辆进行充电。
CN201811346580.4A 2018-11-13 2018-11-13 一种基于视觉图像的车辆进站识别方法及终端 Active CN109410250B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811346580.4A CN109410250B (zh) 2018-11-13 2018-11-13 一种基于视觉图像的车辆进站识别方法及终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811346580.4A CN109410250B (zh) 2018-11-13 2018-11-13 一种基于视觉图像的车辆进站识别方法及终端

Publications (2)

Publication Number Publication Date
CN109410250A CN109410250A (zh) 2019-03-01
CN109410250B true CN109410250B (zh) 2021-04-13

Family

ID=65473179

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811346580.4A Active CN109410250B (zh) 2018-11-13 2018-11-13 一种基于视觉图像的车辆进站识别方法及终端

Country Status (1)

Country Link
CN (1) CN109410250B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110264651A (zh) * 2019-05-07 2019-09-20 平安科技(深圳)有限公司 列车站台行人越线监测方法、装置、终端及存储介质
CN113792575A (zh) * 2021-07-23 2021-12-14 浙江大学绍兴微电子研究中心 一种基于计算机视觉的地下交通工具进出站检测系统及方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2206926T3 (es) * 1998-05-12 2004-05-16 Mark Christopher Tonkin Sistema de representacion visual y dispositivo para determinar una distancia para vehiculos automoviles.
US6225945B1 (en) * 1999-09-22 2001-05-01 Trimble Navigation Limited GPS receiver using coarse orbital parameters for achieving a fast time to first fix
CN1897015A (zh) * 2006-05-18 2007-01-17 王海燕 基于机器视觉的车辆检测和跟踪方法及系统
CN105279767B (zh) * 2014-12-26 2019-01-18 天津光电高斯通信工程技术股份有限公司 火车到站状态的识别方法

Also Published As

Publication number Publication date
CN109410250A (zh) 2019-03-01

Similar Documents

Publication Publication Date Title
Banić et al. Intelligent machine vision based railway infrastructure inspection and monitoring using UAV
CN108564814B (zh) 一种基于图像的停车场车位检测方法及装置
CN104504897B (zh) 一种基于轨迹数据的交叉口交通流特性分析及车辆运动预测方法
CN109684996B (zh) 基于视频的实时车辆进出识别方法
CN102768804B (zh) 基于视频的交通信息采集方法
WO2017156772A1 (zh) 一种乘客拥挤度的计算方法及其系统
CN110008932B (zh) 一种基于计算机视觉的车辆违章压线检测方法
Chen et al. Moving vehicle detection based on optical flow estimation of edge
CN107588733A (zh) 一种基于图像的受电弓滑板磨耗在线检测装置与方法
CN106204484B (zh) 一种基于光流和局部不变特征的交通目标跟踪方法
CN105809184A (zh) 一种适用于加油站的车辆实时识别跟踪与车位占用判断的方法
CN110197494B (zh) 一种基于单目红外图像的受电弓接触点实时检测算法
CN109410250B (zh) 一种基于视觉图像的车辆进站识别方法及终端
CN104036523A (zh) 一种基于SURF特征的改进Mean Shift的目标跟踪方法
CN104680133B (zh) 一种违规车让人行为实时检测方法
Yang et al. Vision-based crane tracking for understanding construction activity
CN111915558B (zh) 一种高压输电线销钉状态检测方法
CN103049788A (zh) 基于计算机视觉的待过行人数目的检测系统及方法
Premachandra et al. Image based automatic road surface crack detection for achieving smooth driving on deformed roads
Wang et al. License plate location algorithm based on edge detection and morphology
CN106951820B (zh) 基于环形模板和椭圆拟合的客流统计方法
CN117197700B (zh) 智能化无人巡检接触网缺陷识别系统
Wang et al. Real-time vehicle classification based on eigenface
Wang et al. An improved hough transform method for detecting forward vehicle and lane in road
Dinh et al. Image segmentation based on histogram of depth and an application in driver distraction detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Liu Yao

Inventor after: Fu Li

Inventor after: Tan Shigan

Inventor after: Li Jiaqing

Inventor before: Liu Yao

Inventor before: Tan Shigan

Inventor before: Li Jiaqing

Inventor before: Fu Li

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant