CN107368786B - 一种基于机器视觉的乘客越过扶手带检测方法 - Google Patents

一种基于机器视觉的乘客越过扶手带检测方法 Download PDF

Info

Publication number
CN107368786B
CN107368786B CN201710455856.1A CN201710455856A CN107368786B CN 107368786 B CN107368786 B CN 107368786B CN 201710455856 A CN201710455856 A CN 201710455856A CN 107368786 B CN107368786 B CN 107368786B
Authority
CN
China
Prior art keywords
area
image
handrail belt
foreground
handrail
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710455856.1A
Other languages
English (en)
Other versions
CN107368786A (zh
Inventor
田联房
余陆斌
杜启亮
黎浩正
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201710455856.1A priority Critical patent/CN107368786B/zh
Publication of CN107368786A publication Critical patent/CN107368786A/zh
Application granted granted Critical
Publication of CN107368786B publication Critical patent/CN107368786B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于机器视觉的乘客越过扶手带检测方法,包括步骤:1)视频图像采集及感兴趣区域(ROI区域)选取;2)利用CodeBook算法建立视频的背景模型,并进行背景差分;3)对得到的前景进行图像处理;4)通过扶手带的灰度直方图模板判断前景是否是乘客;5)利用camshift算法跟踪前景中属于人体的部分;6)计算属于人体对应前景的面积大小,中心点坐标;7)通过扶手带上、外侧前景面积的比例,以及它们中心点位置的关系分析是否有乘客越过扶手带。通过本发明方法可以有效提高手扶电梯的安全质量,避免了突发事件后的情况进一步恶化,把手扶电梯上有乘客攀爬扶手带后的损伤降到最低。

Description

一种基于机器视觉的乘客越过扶手带检测方法
技术领域
本发明涉及图像模式识别及电梯生产的技术领域,尤其是指一种基于机器视觉的乘客越过扶手带检测方法。
背景技术
随着经济的增长,手扶电梯的使用已经越来越频繁,而随之而来的手扶电梯上的安全事故也越来越多。一旦乘客翻越电梯扶手带或者趴伏在扶手带上,手扶电梯不能及时地反应与应对,而是机械地维持同一种工作模式,从而造成异常情况的放大及恶化。而在每个手扶电梯旁都设置应急工作人员监控手扶电梯及乘客的状态是不可能的。因此,能让手扶电梯在异常情况发生时,自动地调整工作模式就显得非常重要。采用视频监控图像对手扶电梯上的乘客行为进行分析处理,当出现异常情况时,能快速反应,自动让手扶电梯切换工作模式,这样能大大降低手扶电梯上的安全事故,使异常情况的危害降到最低。
手扶电梯的智能监控系统通过实时获取手扶电梯上的视频图像,并通过分析该视频图像来判断手扶电梯上乘客是否翻越扶手带,当出现异常情况时能及时把异常情况反馈给手扶电梯控制器,手扶电梯控制器能根据不同的异常状态对手扶电梯的工作模式进行调整。该系统包括图像采集、图像分析、图像处理、模式分类、异常情况识别、异常情况报警(手扶电梯视频监控系统示意图见附图一)。目前,针对手扶电梯的视频监控及自动控制的研究比较少,因此,需加快手扶电梯视频监控系统的研发,降低手扶电梯安全事故出现的概率。
发明内容
本发明的目的在于克服现有技术的不足,提供了一种基于机器视觉的乘客越过扶手带检测方法,可以实时监控手扶电梯上乘客是否越过扶手带。
为实现上述目的,本发明所提供的技术方案为:一种基于机器视觉的乘客越过扶手带检测方法,通过检测分析自动扶梯扶手带上、外侧前景的运动情况来判断是否有乘客越过扶手带,包括以下步骤:
1)视频图像采集及感兴趣区域(ROI区域)选取;
2)利用CodeBook算法建立视频的背景模型,并进行背景差分;
3)对得到的前景进行图像处理;
4)通过扶手带的灰度直方图模板判断前景是否是乘客;
5)利用camshift算法跟踪前景中属于人体的部分;
6)计算属于人体对应前景的面积大小,中心点坐标;
7)通过扶手带上、外侧前景面积的比例,以及它们中心点位置的关系分析是否有乘客越过扶手带。
在步骤1)中,采用摄像头进行图像采集,摄像头安装在手扶电梯运动方向的斜上方,其视角要求覆盖整个手扶电梯载客区,并且保证待检测的扶手带竖直处于视频中间;感兴趣区域(ROI区域)覆盖了扶手带外侧部分以及扶手带。
在步骤2)中,获得原始视频后利用CodeBook算法建立背景模型,并利用背景差分提取得到前景,包括以下步骤:
2.1)背景建模
CodeBook算法为当前图像的每一个像素建立一个码本CodeBook结构,简称CB,每个CodeBook结构又由多个码字CodeWord组成,CodeWord简称CW;
CB和CW的形式如下:
CB={CW1,CW2,…CWn,t}
CW={lHigh,lLow,max,min,t_last,stale}
其中n为一个CB中所包含的CW的数目,t为CB更新的次数;CW是一个6元组,其中lHigh和lLow作为更新时的学习上下界,max和min记录当前像素的最大值和最小值;t_last为最近一次更新的时刻,stale为自上一次更新后到现在的时间;
依次为一组序列图像中的每一个像素都建立CB,即完成了背景建模过程;
2.2)背景差分
使用CodeBook算法检测运动目标的流程如下:
①选择一帧到多帧使用更新算法建立CodeBook背景模型;
②使用CodeBook算法检测前景(运动目标);
③间隔一定时间使用更新算法更新CodeBook模型,并对CodeBook进行时间滤波;
④若检测继续,转②,否则结束。
在步骤3)中,对背景差分之后得到的前景图像进行图像处理,包括以下步骤:
3.1)二值化
首先将得到的前景图像灰度化,设定初始阈值为t,图像的大小为M×N,图像中像素的灰度值小于阈值的像素个数记为N1,它们的平均灰度为μ1,像素灰度大于阈值的像素个数记作N2,它们的平均灰度为μ2,所有像素平均灰度为μ,类间方差为g,则有:
Figure GDA0002237216210000031
N1+N2=M×N
ω12=1
μ=μ1×ω12×ω2
g=ω1×(μ-μ1)22×(μ-μ2)2=ω1×ω2×(μ12)2
遍历阈值t的所有取值,每取一个t都计算类间方差g;使类间方差最大的t即为最终选定的二值化阈值;获得阈值t后,将图像中灰度值小于等于t的所有像素点灰度值置为0,将图像中灰度值大于t的所有像素点灰度值置为255,即完成了二值化过程,前景图像转化为二值图像,此图像中白色像素点代表前景,黑色像素点代表背景;
3.2)中值滤波去噪声
在对待处理图像中的某一点进行中值滤波时,首先将邻域内的像素分类排序,确定其中值,生成一个矩形的中值滤波器,并使中值滤波器在待处理图像上滑动,将滤波器中的像素值置换为对应的中值,在滤波器滑动完整幅图像后即完成了中值滤波的操作;
3.3)形态学处理
在得到二值图像之后,选取一个矩形的结构元素,结构元素中的所有像素点的灰度值均为255;
先对二值图像做一次腐蚀操作,具体操作如下:
使结构元素在二值图像上逐点移动,如果结构元素中所有点的灰度值与它在二值图中对应的所有像素点相同,则该点为白色,否则为黑色;
再对做了一次腐蚀操作的二值图像做两次膨胀操作,具体操作如下:
使结构元素在二值图像上逐点移动,如果结构元素中有一个及以上点的灰度值与它在二值图中对应像素点相同,该点为白色,否则为黑色;
3.4)前景分析
在做完形态学处理之后的二值图像中,进行轮廓检测;将得到的轮廓保存在向量组中,从序号为0的轮廓开始访问,若轮廓的长度c小于轮廓尺度阈值q,则将该轮廓从向量组中删除,若轮廓的长度c大于等于阈值q,则用Douglas-Peucker算法对轮廓数据压缩;
其中轮廓尺度阈值q的选取规则如下:首先选定尺度参数p,然后计算得到待检测图像的宽度w和长度l,则q:
依次处理完轮廓序列中的所有轮廓后,将新的轮廓序列绘制出来并填充,即完成了前景分析和净化。
在步骤4)中,分别选取图像中扶手带上的区域、扶手带上提取到的前景,对比这两幅图像的灰度直方图;若它们的灰度直方图匹配,则可以认为此处的前景不属于人体,而是被误检后的结果;若不匹配,则可以认为此处的前景属于扶梯上的乘客;具体步骤如下:
首先统计图像中所有像素点的灰度信息,将灰度范围按如下方式分割:
range=bin1∪bin2∪…∪binn=15
其中range表示所有灰度范围,bini(i=1,2,…,15)代表将所有灰度范围等分成15个灰度区间,i为区间序号;
然后统计掉入每一个bini的像素数目采用这一方法来统计上面的数字矩阵,将x轴设为灰度范围,y轴设为像素数目,得到灰度分布直方图;
分别对扶手带上的区域、扶手带上提取到的前景做以上操作即可获得对应的灰度分布直方图;
在得到两个直方图H1和H2后,利用以下标准来衡量直方图之间的相似度:
Figure GDA0002237216210000052
其中I是图像中的点,
Figure GDA0002237216210000053
为图像所有点像素值的均值,Hk(I)为图像中的点I处的像素值,k=1,2为两幅图像的编号;
计算得到的值越大,相似度越大;当相似度小于预先设定的阈值εhistogram时,即认定两者的灰度直方图不匹配,此时检测到的前景是扶梯上的乘客。
在步骤5)中,利用camshift算法跟踪属于人体的部分包括以下过程:
①初始化搜索窗;
②计算搜索窗的颜色概率分布(反向投影);
③运行meanshift算法,获得搜索窗更新后的大小和位置;
④在下一帧视频图像中用③中的值重新初始化搜索窗的大小和位置,再跳转到②继续进行;
其中步骤③中搜索窗更新大小调整遵循如下规则:
为了保证图像的大小,为了跟踪窗口尽可能的小,以便在跟踪的时候让窗口尽可能地不让无关物体进入,因此采用像素最大值(即255)来代替平均灰度值;同时为了防止因跟踪窗口的尺寸太小而导致算法收敛到局部最大值,将窗口宽度设置为s,由于人体的形状外轮廓比例为长度大于宽度,因此长度l设置为宽度固定倍数,即l=αs,α为倍数。
在步骤6)中利用二值图像统计前景中属于人体部分的面积和重心;
首先找到对应图像,依次记录所有点的坐标信息,如下:
(xi,yi)
其中i为图像中像素点的序号,范围是从1到N的整数,N为图像中像素点的总个数,x为像素点的横坐标,y为像素点的纵坐标;
图像的面积S为:
Figure GDA0002237216210000061
其中ρ(x,y)是某点(x,y)处的面积密度,dσ是面积微元,x为该点的横坐标,y为该点的纵坐标;
在此处可等价为:
图像的重心坐标为:
Figure GDA0002237216210000072
其中
Figure GDA0002237216210000073
为重心的横坐标,
Figure GDA0002237216210000074
为重心的纵坐标;
在此处可等价为:
Figure GDA0002237216210000075
面积的单位为:像素;
分别寻找扶手带外侧人体图像和扶手带上人体图像的重心坐标记为:
Figure GDA0002237216210000076
其中
Figure GDA0002237216210000078
是扶手带外侧人体图像重心的横坐标,
Figure GDA0002237216210000079
是扶手带外侧人体图像重心的纵坐标;
Figure GDA00022372162100000710
是扶手带上人体图像重心的横坐标,
Figure GDA00022372162100000711
是扶手带上人体图像重心的纵坐标;
分别求取扶手带外侧人体图像和扶手带上人体图像的面积记为:areaout和areain
在步骤7)中,乘客的行为包括:正常使用扶手带搭乘、不使用扶手带搭乘、乘客趴伏在扶手带上、乘客将身体一部分伸出扶手带,具体的判断方法如下:
(1)正常行为一:正常使用扶手带搭乘
乘客搭乘扶梯,并正常扶着扶手带时,存在两种情况:
情况一:乘客将手完全置于扶手带上,没有露出扶手带;此时位于扶手带外侧部分的面积areaout小于预定值,对应的重心也不存在;为了区别前景与噪声,在扶手带上部分的面积areain需要大于预定值,即:
a、areaout<Tharea,areain≥Tharea
b、
其中阈值Tharea表征将前景判定为人体而非噪声的最小面积;
其中
Figure GDA0002237216210000082
是扶手带外侧人体图像重心的横坐标,
Figure GDA0002237216210000083
是扶手带外侧人体图像重心的纵坐标;
Figure GDA0002237216210000084
是扶手带上人体图像重心的横坐标,
Figure GDA0002237216210000085
是扶手带上人体图像重心的纵坐标;
情况二:乘客手扶在扶手带上且有一小部分露出扶手带外侧;此时位于扶手带外侧部分的面积areaout与在扶手带上部分的面积areain之比小于预定值,为了区别前景与噪声,两者的面积也必须大于预定值;同时两部分的重心坐标也需要小于预定值,即:
a、areaout/areain≤εnormal
b、areaout≥Tharea,areain≥Tharea
c、
Figure GDA0002237216210000086
其中阈值εnormal表征两者面积比例正常范围的最大值,阈值Thdistance表征两部分重心允许间隔的最大距离;
(2)正常行为二:不使用扶手带搭乘
乘客搭乘扶梯,不使用扶着扶手带时,位于扶手带外侧部分的面积areaout与在扶手带上部分的面积areain都是小于预定值,同时两部分的重心坐标也不存在,即:
a、areaout<Tharea,areain<Tharea
b、
Figure GDA0002237216210000091
(3)异常行为一:乘客趴伏在扶手带上
乘客搭乘扶梯,若乘客趴伏在扶手带上,则位于扶手带外侧部分的面积areaout小于预定值,在扶手带上部分的面积areain比较大,大于正常范围。同时外侧部分的重心坐标也不存在,即:
a、areaout<Tharea,areain≥εover
b、
Figure GDA0002237216210000092
其中阈值εover表征在扶手带上部分的面积正常范围的最大值。
(4)异常行为二:乘客将身体一部分伸出扶手带
乘客搭乘扶梯,若乘客将身体一部分伸出扶手带,则位于扶手带外侧部分的面积areaout与在扶手带上部分的面积areain之比大于预设值。同时两部分的重心坐标也存在一定的关系,即:
a、εnormal<areaout/areain
b、areaout≥Tharea,areain≥Tharea
c、
Figure GDA0002237216210000093
本发明与现有技术相比,具有如下优点与有益效果:
乘客若是在搭乘扶梯时东张西望,身体部分很容易卡在电梯与顶部的交错处,甚至从扶梯上跌落,极其容易受伤,通过本发明方法可以快速检测到扶梯在运行时是否存在乘客翻越扶手带的情况,若存在异常情况可以向控制室发出警报信号,能有效提高手扶电梯的安全质量,避免了突发事件后的情况进一步恶化,把手扶电梯上有乘客攀爬扶手带后的损伤降到最低。
附图说明
图1为本发明方法流程图。
图2为摄像头的安装位置示意图。
图3为视频监控原始图像(正常搭乘)。
图4为视频监控原始图像(乘客越过扶手带)。
图5为感兴趣区域选取图。
图6a为CodeBook检测效果图(正常搭乘)。
图6b为CodeBook检测效果图(乘客越过扶手带)。
图7a为图像处理后的效果图(正常搭乘)。
图7b为图像处理后的效果图(乘客越过扶手带)。
图8a为图像处理后的ROI效果图(正常搭乘)。
图8b为图像处理后的ROI效果图(乘客越过扶手带)。
图9为翻越的人体跟踪效果图。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
如图1所示,本实施例所述的基于机器视觉的乘客越过扶手带检测方法,主要是通过检测分析自动扶梯扶手带上、外侧前景的运动情况来判断是否有乘客越过扶手带。在本方法中,感兴趣区域为扶手带以及扶手带外侧20-30厘米,因此,摄像头应该扶手带正上方,其具体情况如下:
1)视频图像采集及感兴趣区域(ROI区域)选取
采用摄像头进行图像采集,摄像头安装在手扶电梯高层楼层板扶手带对应的上方,其视角要求覆盖整个手扶电梯扶手带区域,并且保证待检测的扶手带竖直处于视频中间,安装位置参见图2。采用的摄像头具体为PAL制式的标清摄像头,其像素为640*480,每秒钟采集30帧图像数据,摄像头拍摄到的图像参见图3和图4。感兴趣区域(ROI区域)覆盖了扶手带外侧部分以及扶手带,扶手带外侧20-30厘米为ROI1,用白色线条。扶手带上为ROI2,用红色线条标出,参见图5。
2)利用CodeBook算法建立视频的背景模型,并进行背景差分
在取得了原始视频后,需要对视频建立背景模型,并利用背景差分提取得到前景。
2.1)背景建模
CodeBook算法为当前图像的每一个像素建立一个码本CodeBook结构,简称CB,每个CodeBook结构又由多个码字CodeWord组成,CodeWord简称CW;
CB和CW的形式如下:
CB={CW1,CW2,…CWn,t}
CW={lHigh,lLow,max,min,t_last,stale}
其中n为一个CB中所包含的CW的数目,t为CB更新的次数。CW是一个6元组,其中lHigh和lLow作为更新时的学习上下界,max和min记录当前像素的最大值和最小值;t_last为最近一次更新的时刻,stale为自上一次更新后到现在的时间;
依次为一组序列图像中的每一个像素都建立CB,即完成了背景建模过程;
2.2)背景差分
使用CodeBook算法检测运动目标的流程如下:
①选择一帧到多帧使用更新算法建立CodeBook背景模型;
②使用CodeBook算法检测前景(运动目标);
③间隔一定时间使用更新算法更新CodeBook模型,并对CodeBook进行时间滤波;
④若检测继续,转②,否则结束。
通过背景建模能提取到扶梯上运动的前景,为分析计算人体对应前景打下基础,效果参见图6a和图6b。
3)对得到的前景进行图像处理
在得到前景图像后,需要做二值化,去噪声,形态学处理等一系列操作来优化图像。
3.1)二值化
首先将得到的前景图像灰度化,设定初始阈值为t,图像的长为M,宽为N,图像中像素的灰度值小于阈值的像素个数记为N1,它们的平均灰度为μ1,像素灰度大于阈值的像素个数记作N2,它们的平均灰度为μ2,所有像素平均灰度为μ,类间方差为g,则有:
Figure GDA0002237216210000121
Figure GDA0002237216210000122
N1+N2=M×N
ω12=1
μ=μ1×ω12×ω2
g=ω1×(μ-μ1)22×(μ-μ2)2=ω1×ω2×(μ12)2
遍历阈值t的所有取值(使t从0递增至255),每取一个t都计算类间方差g。使类间方差最大的t即为最终选定的二值化阈值。获得阈值t后,将图像中灰度值小于等于t的所有像素点灰度值置为0,将图像中灰度值大于t的所有像素点灰度值置为255,即完成了二值化过程,前景图像转化为二值图像,此图像中白色像素点代表前景,黑色像素点代表背景;
3.2)中值滤波去噪声
在对待处理图像中的某一点进行中值滤波时,首先将邻域内的像素分类排序,确定其中值,生成一个矩形的中值滤波器,并使中值滤波器在待处理图像上滑动,将滤波器中的像素值置换为对应的中值,在滤波器滑动完整幅图像后即完成了中值滤波的操作;
3.3)形态学处理
在得到二值图像之后,选取一个矩形的结构元素,其中的所有像素点的灰度值均为255;
先对二值图像做一次腐蚀操作,具体操作如下:
使结构元素在二值图像上逐点移动,如果结构元素中所有点的灰度值与它在二值图中对应的所有像素点相同,则该点为白色,否则为黑色;
再对做了一次腐蚀操作的二值图像做两次膨胀操作,具体操作如下:
使结构元素在二值图像上逐点移动,如果结构元素中有一个及以上点的灰度值与它在二值图中对应像素点相同,该点为白色,否则为黑色;
3.4)前景分析
在做完形态学处理之后的二值图像中,进行轮廓检测。将得到的轮廓保存在向量组中,从序号为0的轮廓开始访问,若轮廓的长度c小于轮廓尺度阈值q,则将该轮廓从向量组中删除,若轮廓的长度c大于等于阈值q,则用Douglas-Peucker算法对轮廓数据压缩;
其中轮廓尺度阈值q的选取规则如下:首先选定尺度参数p,然后计算得到待检测图像的宽度w和长度l,则q:
Figure GDA0002237216210000141
依次处理完轮廓序列中的所有轮廓后,将新的轮廓序列绘制出来并填充,即完成了前景分析和净化。
通过一系列的处理能净化扶梯上运动的前景,为计算人体图像的面积和重心打下基础,效果参见图7a和图7b。
本实施例中,结构元素的尺寸选为3*3,尺度参数p选为4时能取得较好的处理效果。
4)通过扶手带的灰度直方图模板判断前景是否是乘客
本发明利用灰度直方图是否匹配来判断扶手带上提取到的前景是否属于人体。
分别选取图像中扶手带上的区域、扶手带上提取到的前景,对比这两幅图像的灰度直方图。若它们的灰度直方图匹配,则可以认为此处的前景不属于人体,而是被误检后的结果;若不匹配,则可以认为此处的前景属于扶梯上的乘客。
首先统计图像中所有像素点的灰度信息,将灰度范围按如下方式分割:
range=bin1∪bin2∪…∪binn=15
[0,255]=[0,15]∪[16,31]∪…∪[240,255]
其中range表示所有灰度范围,bini(i=1,2,…,15)代表将所有灰度范围等分成15个灰度区间,i为区间序号;
然后统计掉入每一个范围bini的像素数目,利用这一方法来统计上面的数字矩阵,将x轴设为灰度范围,y轴设为像素数目,可以得到灰度分布直方图。
分别统计扶手带上的区域、扶手带上提取到的前景的灰度信息,计算得到对应的灰度分布直方图。
在得到两个直方图H1和H2后,利用以下标准来衡量直方图之间的相似度:
Figure GDA0002237216210000151
其中I是图像中的点,
Figure GDA0002237216210000152
为图像所有点像素值的均值,Hk(I)为图像中的点I处的像素值,k=1,2为两幅图像的编号;
计算得到的值越大,相似度越大;当相似度小于预先设定的相似阈值εhistogram时,即认定两者的灰度直方图不匹配,此时检测到的前景是扶梯上的乘客。
本实施例中,相似阈值εhistogram选为0.8时能取得较好的判别效果。
5)利用camshift算法跟踪前景中属于人体的部分
本发明利用camshift算法跟踪利用灰度直方图判断的前景中属于人体的部分。
①初始化搜索窗;
②计算搜索窗的颜色概率分布(反向投影);
③运行meanshift算法,获得搜索窗更新后的大小和位置;
④在下一帧视频图像中用③中的值重新初始化搜索窗的大小和位置,再跳转到②继续进行。
其中步骤③中搜索窗更新大小调整遵循如下规则:
为了保证图像的大小,为了跟踪窗口尽可能的小,以便在跟踪的时候让窗口尽可能地不让无关物体进入,因此采用像素最大值(即255)来代替平均灰度值。同时为了防止因跟踪窗口的尺寸太小而导致算法收敛到局部最大值,将窗口宽度设置为s,由于人体的形状外轮廓比例为长度大于宽度,因此长度大小可以设置为宽度固定倍数,即l=αs。
本实施例中,宽度选为α选为1.6,即l=1.6s能取得较好的跟踪效果。
6)计算属于人体对应前景的面积大小,中心点坐标
利用二值图像统计前景中属于人体部分的面积和重心。
首先找到对应图像,依次记录所有点的坐标信息,如下:
(xi,yi)
其中i为图像中像素点的序号,范围是从1到N的整数,N为图像中像素点的总个数,x为像素点的横坐标,y为像素点的纵坐标;
图像的面积S为:
Figure GDA0002237216210000161
其中ρ(x,y)是某点(x,y)处的面积密度,dσ是面积微元,x为该点的横坐标,y为该点的纵坐标;
在此处可等价为:
Figure GDA0002237216210000162
图像的重心坐标为:
Figure GDA0002237216210000163
其中
Figure GDA0002237216210000164
为重心的横坐标,
Figure GDA0002237216210000165
为重心的纵坐标;
在此处可等价为:
Figure GDA0002237216210000166
面积的单位为:像素。
分别寻找扶手带外侧人体图像和扶手带上人体图像的重心坐标记为:
Figure GDA0002237216210000167
其中是扶手带外侧人体图像重心的横坐标,
Figure GDA00022372162100001610
是扶手带外侧人体图像重心的纵坐标;是扶手带上人体图像重心的横坐标,
Figure GDA00022372162100001612
是扶手带上人体图像重心的纵坐标;
分别求取扶手带外侧人体图像和扶手带上人体图像的面积记为:areaout和areain
图8a和图8b为扶梯上有无人的前景检测结果。
7)通过扶手带上、外侧前景面积的比例,以及它们中心点位置的关系分析是否有乘客越过扶手带。
乘客的行为包括:正常使用扶手带搭乘、不使用扶手带搭乘、乘客趴伏在扶手带上、乘客将身体一部分伸出扶手带,具体的判断方法如下:
(1)正常行为一:正常使用扶手带搭乘
乘客搭乘扶梯,并正常扶着扶手带时,存在两种情况:
情况一:乘客将手完全置于扶手带上,没有露出扶手带。此时位于扶手带外侧部分的面积areaout小于预定值,对应的重心也不存在。为了区别前景与噪声,在扶手带上部分的面积areain需要大于预定值,即:
a、areaout<Tharea,areain≥Tharea
b、
其中阈值Tharea表征将前景判定为人体而非噪声的最小面积;
其中
Figure GDA0002237216210000172
是扶手带外侧人体图像重心的横坐标,
Figure GDA0002237216210000173
是扶手带外侧人体图像重心的纵坐标;
Figure GDA0002237216210000174
是扶手带上人体图像重心的横坐标,
Figure GDA0002237216210000175
是扶手带上人体图像重心的纵坐标;
情况二:乘客手扶在扶手带上且有一小部分露出扶手带外侧。此时位于扶手带外侧部分的面积areaout与在扶手带上部分的面积areain之比小于预定值,为了区别前景与噪声,两者的面积也必须大于预定值。同时两部分的重心坐标也需要小于预定值,即:
a、areaout/areain≤εnormal
b、areaout≥Tharea,areain≥Tharea
c、
Figure GDA0002237216210000181
其中阈值εnormal表征两者面积比例正常范围的最大值,阈值Thdistance表征两部分重心允许间隔的最大距离。
(2)正常行为二:不使用扶手带搭乘
乘客搭乘扶梯,不使用扶着扶手带时,位于扶手带外侧部分的面积areaout与在扶手带上部分的面积areain都小于预定值,同时两部分的重心坐标也不存在,即:
a、areaout<Tharea,areain<Tharea
b、
Figure GDA0002237216210000182
(3)异常行为一:乘客趴伏在扶手带上
乘客搭乘扶梯,若乘客趴伏在扶手带上,则位于扶手带外侧部分的面积areaout小于预定值,在扶手带上部分的面积areain比较大,大于正常范围。同时外侧部分的重心坐标也不存在,即:
a、areaout<Tharea,areain≥Thover
b、
Figure GDA0002237216210000183
其中阈值Thover表征在扶手带上部分的面积正常范围的最大值。
(4)异常行为二:乘客将身体一部分伸出扶手带
乘客搭乘扶梯,若乘客将身体一部分伸出扶手带,则位于扶手带外侧部分的面积areaout与在扶手带上部分的面积areain之比大于预设值。同时两部分的重心坐标也存在一定的关系,即:
a、εnormal<areaout/areain
b、areaout≥Tharea,areain≥Tharea
c、
本实施例中,通过反复实验以下参数能取得较好的识别效果,此时:Tharea=35,εnormal=0.1,Thdistance=100,Thover=200。
图9为当有人翻越扶手带时的最终检测效果。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。

Claims (7)

1.一种基于机器视觉的乘客越过扶手带检测方法,其特征在于:通过检测分析自动扶梯扶手带上、扶手带外侧前景的运动情况来判断是否有乘客越过扶手带,包括以下步骤:
1)视频图像采集及感兴趣区域选取;
2)获得原始视频后利用CodeBook算法建立背景模型,并利用背景差分提取得到前景,包括以下步骤:
2.1)背景建模
CodeBook算法为当前图像的每一个像素建立一个码本CodeBook结构,简称CB,每个CodeBook结构又由多个码字CodeWord组成,CodeWord简称CW;
CB和CW的形式如下:
CB={CW1,CW2,…CWn,t}
CW={lHigh,lLow,max,min,t_last,stale}
其中n为一个CB中所包含的CW的数目,t为CB更新的次数;CW是一个6元组,其中lHigh和lLow作为更新时的学习上下界,max和min记录当前像素的最大值和最小值;t_last为最近一次更新的时刻,stale为自上一次更新后到现在的时间;
依次为一组序列图像中的每一个像素都建立CB,便完成背景建模过程;
2.2)背景差分
使用CodeBook算法检测运动目标的流程如下:
①选择一帧到多帧使用更新算法建立CodeBook背景模型;
②使用CodeBook算法检测前景;
③间隔设定时间使用更新算法更新CodeBook背景模型,并对CodeBook进行时间滤波;
④若检测继续,转②,否则结束;
3)对得到的前景进行图像处理;
4)通过扶手带的灰度直方图模板判断前景是否是乘客;
5)利用camshift算法跟踪前景中属于人体的部分;
6)分析计算属于人体对应前景的面积大小,中心点坐标;
7)通过扶手带内、外侧前景面积的比例,以及它们中心点位置的关系分析是否有乘客越过扶手带。
2.根据权利要求1所述的一种基于机器视觉的乘客越过扶手带检测方法,其特征在于:在步骤1)中,采用摄像头进行图像采集,摄像头安装在手扶电梯运动方向的斜上方,其视角要求覆盖整个手扶电梯载客区,并且保证待检测的扶手带竖直处于视频中间;感兴趣区域覆盖扶手带外侧部分以及扶手带。
3.根据权利要求1所述的一种基于机器视觉的乘客越过扶手带检测方法,其特征在于:在步骤3)中,对背景差分之后得到的前景图像进行图像处理,包括以下步骤:
3.1)二值化
首先将得到的前景图像灰度化,设定初始阈值为t,图像的长为M,宽为N,图像中像素的灰度值小于阈值的像素个数记为N1,它们的平均灰度为μ1,像素灰度大于阈值的像素个数记作N2,它们的平均灰度为μ2,所有像素平均灰度为μ,类间方差为g,则有:
Figure FDA0002257302430000021
Figure FDA0002257302430000022
N1+N2=M×N
ω12=1
μ=μ1×ω12×ω2
g=ω1×(μ-μ1)22×(μ-μ2)2=ω1×ω2×(μ12)2
遍历阈值t的所有取值,每取一个t都计算类间方差g;使类间方差最大的t即为最终选定的二值化阈值;获得阈值t后,将图像中灰度值小于或等于t的所有像素点灰度值置为0,将图像中灰度值大于t的所有像素点灰度值置为255,即完成了二值化过程,前景图像转化为二值图像,此图像中白色像素点代表前景,黑色像素点代表背景;
3.2)中值滤波去噪声
在对待处理图像中的某一点进行中值滤波时,首先将邻域内的像素分类排序,确定其中值,生成一个矩形的中值滤波器,并使中值滤波器在待处理图像上滑动,将滤波器中的像素值置换为对应的中值,在滤波器滑动完整幅图像后即完成了中值滤波的操作;
3.3)形态学处理
在得到二值图像之后,选取一个矩形的结构元素,结构元素中的所有像素点的灰度值均为255;
先对二值图像做一次腐蚀操作,具体操作如下:
使结构元素在二值图像上逐点移动,如果结构元素中所有点的灰度值与它在二值图中对应的所有像素点相同,则该点为白色,否则为黑色;
再对做了一次腐蚀操作的二值图像做两次膨胀操作,具体操作如下:
使结构元素在二值图像上逐点移动,如果结构元素中有一个及以上点的灰度值与它在二值图中对应像素点相同,则该点为白色,否则为黑色;
3.4)前景分析
在做完形态学处理之后的二值图像中,进行轮廓检测;将得到的轮廓保存在向量组中,从序号为0的轮廓开始访问,若轮廓的长度c小于轮廓尺度阈值q,则将该轮廓从向量组中删除,若轮廓的长度c大于或等于阈值q,则用Douglas-Peucker算法对轮廓数据压缩;
其中阈值q的选取规则如下:首先根据实际场景选定尺度参数p,然后计算得到待检测图像的宽度w和长度l,则q:
Figure FDA0002257302430000041
依次处理完轮廓序列中的所有轮廓后,将新的轮廓序列绘制出来并填充,便完成前景分析和净化。
4.根据权利要求1所述的一种基于机器视觉的乘客越过扶手带检测方法,其特征在于:在步骤4)中,分别选取图像中扶手带上的区域、扶手带上提取到的前景,对比这两幅图像的灰度直方图;若它们的灰度直方图匹配,则认为此处的前景不属于人体,而是被误检后的结果;若不匹配,则认为此处的前景属于扶梯上的乘客;具体步骤如下:
首先统计图像中所有像素点的灰度信息,将灰度范围按如下方式分割:
range=bin1∪bin2∪…∪bin15
其中range表示所有灰度范围,bini代表将所有灰度范围等分成15个灰度区间,i为区间序号,i=1,2,…,15;
然后统计掉入每一个区间bini的像素数目,利用这一方法来统计上面的数字矩阵,将x轴设为灰度范围,y轴设为像素数目,得到灰度分布直方图;
分别统计扶手带上的区域、扶手带上提取到的前景的灰度信息,计算得到对应的灰度分布直方图;
在得到两个直方图H1和H2后,利用以下标准来衡量直方图之间的相似度:
其中I是图像中的点,
Figure FDA0002257302430000052
为图像所有点像素值的均值,Hk(I)为图像中的点I处的像素值,k=1,2为两幅图像的编号;
计算得到的值越大,相似度越大;当相似度小于预先设定的阈值εhistogram时,即认定两者的灰度直方图不匹配,此时检测到的前景是扶梯上的乘客。
5.根据权利要求1所述的一种基于机器视觉的乘客越过扶手带检测方法,其特征在于:在步骤5)中,利用camshift算法跟踪属于人体的部分包括以下步骤:
①初始化搜索窗;
②计算搜索窗的颜色概率分布;
③运行meanshift算法,获得搜索窗更新后的大小和位置;
④在下一帧视频图像中用③中的值重新初始化搜索窗的大小和位置,再跳转到②继续进行;
其中步骤③中搜索窗更新大小调整遵循如下规则:
为了保证图像的大小,为了跟踪窗口尽可能的小,以便在跟踪的时候让窗口尽可能地不让无关物体进入,因此采用像素最大值来代替平均灰度值;同时为了防止因跟踪窗口的尺寸太小而导致算法收敛到局部最大值,将窗口宽度设置为s,由于人体的形状外轮廓比例的长度大于宽度,因此长度l设置为宽度固定倍数,即l=αs,α为倍数。
6.根据权利要求1所述的一种基于机器视觉的乘客越过扶手带检测方法,其特征在于:在步骤6)中利用二值图像统计前景中属于人体部分的面积和重心;
首先找到对应图像,依次记录所有点的坐标信息,如下:
(xi,yi)
其中i为图像中像素点的序号,范围是从1到N的整数,N为图像中像素点的总个数,x为像素点的横坐标,y为像素点的纵坐标;
图像的面积S为:
其中ρ(x,y)是某点(x,y)处的面积密度,dσ是面积微元,x为该点的横坐标,y为该点的纵坐标;
在此处可等价为:
图像的重心坐标为:
其中
Figure FDA0002257302430000064
为重心的横坐标,
Figure FDA0002257302430000065
为重心的纵坐标;
在此处等价为:
Figure FDA0002257302430000066
面积的单位为:像素;
分别寻找扶手带外侧人体图像和扶手带上人体图像的重心坐标记为:
Figure FDA0002257302430000067
其中
Figure FDA0002257302430000069
是扶手带外侧人体图像重心的横坐标,
Figure FDA00022573024300000610
是扶手带外侧人体图像重心的纵坐标;
Figure FDA00022573024300000611
是扶手带上人体图像重心的横坐标,
Figure FDA00022573024300000612
是扶手带上人体图像重心的纵坐标;
分别求取扶手带外侧人体图像和扶手带上人体图像的面积记为:areaout和areain
7.根据权利要求1所述的一种基于机器视觉的乘客越过扶手带检测方法,其特征在于:在步骤7)中,乘客的行为包括:正常使用扶手带搭乘、不使用扶手带搭乘、乘客趴伏在扶手带上、乘客将身体一部分伸出扶手带,具体的判断方法如下:
(1)正常行为一:正常使用扶手带搭乘
乘客搭乘扶梯,并正常扶着扶手带时,存在两种情况:
情况一:乘客将手完全置于扶手带上,没有露出扶手带;此时位于扶手带外侧部分的面积areaout小于预定值,对应的重心也不存在;为了区别前景与噪声,在扶手带上部分的面积areain需要大于预定值,即:
a、areaout<Tharea,areain≥Tharea
b、
Figure FDA0002257302430000071
其中阈值Tharea表征将前景判定为人体而非噪声的最小面积;
其中
Figure FDA0002257302430000072
是扶手带外侧人体图像重心的横坐标,是扶手带外侧人体图像重心的纵坐标;
Figure FDA0002257302430000074
是扶手带上人体图像重心的横坐标,
Figure FDA0002257302430000075
是扶手带上人体图像重心的纵坐标;
情况二:乘客手扶在扶手带上且有一小部分露出扶手带外侧;此时位于扶手带外侧部分的面积areaout与在扶手带上部分的面积areain之比小于预定值,为了区别前景与噪声,两者的面积也必须大于预定值;同时两部分的重心坐标也需要小于预定值,即:
a、areaout/areain≤εnormal
b、areaout≥Tharea,areain≥Tharea
c、
Figure FDA0002257302430000081
其中阈值εnormal表征两者面积比例正常范围的最大值,阈值Thdistance表征两部分重心允许间隔的最大距离;
(2)正常行为二:不使用扶手带搭乘
乘客搭乘扶梯,不使用扶着扶手带时,位于扶手带外侧部分的面积areaout与在扶手带上部分的面积areain都小于预定值,同时两部分的重心坐标也不存在,即:
a、areaout<Tharea,areain<Tharea
b、
Figure FDA0002257302430000082
(3)异常行为一:乘客趴伏在扶手带上
乘客搭乘扶梯,若乘客趴伏在扶手带上,则位于扶手带外侧部分的面积areaout小于预定值,在扶手带上部分的面积areain大于正常范围,同时外侧部分的重心坐标也不存在,即:
a、areaout<Tharea,areain≥εover
b、
Figure FDA0002257302430000083
其中阈值εover表征在扶手带上部分的面积正常范围的最大值;
(4)异常行为二:乘客将身体一部分伸出扶手带
乘客搭乘扶梯,若乘客将身体一部分伸出扶手带,则位于扶手带外侧部分的面积areaout与在扶手带上部分的面积areain之比大于预设值,同时两部分的重心坐标也存在以下关系:
a、εnormal<areaout/areain
b、areaout≥Tharea,areain≥Tharea
c、
Figure FDA0002257302430000091
CN201710455856.1A 2017-06-16 2017-06-16 一种基于机器视觉的乘客越过扶手带检测方法 Active CN107368786B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710455856.1A CN107368786B (zh) 2017-06-16 2017-06-16 一种基于机器视觉的乘客越过扶手带检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710455856.1A CN107368786B (zh) 2017-06-16 2017-06-16 一种基于机器视觉的乘客越过扶手带检测方法

Publications (2)

Publication Number Publication Date
CN107368786A CN107368786A (zh) 2017-11-21
CN107368786B true CN107368786B (zh) 2020-02-18

Family

ID=60305265

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710455856.1A Active CN107368786B (zh) 2017-06-16 2017-06-16 一种基于机器视觉的乘客越过扶手带检测方法

Country Status (1)

Country Link
CN (1) CN107368786B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108198208B (zh) * 2017-12-27 2021-08-24 浩云科技股份有限公司 一种基于目标跟踪的移动侦测方法
CN108921086A (zh) * 2018-06-29 2018-11-30 Oppo广东移动通信有限公司 图像处理方法和装置、存储介质、电子设备
CN110009650B (zh) * 2018-12-20 2021-06-29 浙江新再灵科技股份有限公司 一种扶梯扶手边界区域越界检测方法与系统
CN110942582A (zh) * 2019-12-23 2020-03-31 福建省特种设备检验研究院 基于机器视觉的扶手带人员异常行为的监测报警方法
CN112520548B (zh) * 2020-11-01 2022-01-25 圣凯诺服饰有限公司 基于数量检测的危情判断系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102360422A (zh) * 2011-10-19 2012-02-22 湖南德顺电子科技有限公司 基于视频分析的暴力行为检测方法
CN105035887A (zh) * 2015-07-03 2015-11-11 穆国栋 一种基于计算机视觉检测的智能电梯主控系统
CN106127148A (zh) * 2016-06-21 2016-11-16 华南理工大学 一种基于机器视觉的手扶电梯乘客异常行为检测算法
CN205793042U (zh) * 2016-06-02 2016-12-07 华南理工大学 一种扶梯智能监控系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102360422A (zh) * 2011-10-19 2012-02-22 湖南德顺电子科技有限公司 基于视频分析的暴力行为检测方法
CN105035887A (zh) * 2015-07-03 2015-11-11 穆国栋 一种基于计算机视觉检测的智能电梯主控系统
CN205793042U (zh) * 2016-06-02 2016-12-07 华南理工大学 一种扶梯智能监控系统
CN106127148A (zh) * 2016-06-21 2016-11-16 华南理工大学 一种基于机器视觉的手扶电梯乘客异常行为检测算法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
An improved background modeling algorithm based on the codebook model;Zhu Bin 等;《29th Chinese Control And Decision Conference (CCDC)》;20170530;第3998-4003页 *
基于全景视觉的自动扶梯节能及智能监控系统;杨冠宝;《中国优秀硕士学位论文全文数据库信息科技辑》;20120615;正文9页第2段-59页倒数第2段 *
基于计算机视觉的自动扶梯辅助管理系统的设计;冯秋轶;《科技前沿》;20120825;第29页 *

Also Published As

Publication number Publication date
CN107368786A (zh) 2017-11-21

Similar Documents

Publication Publication Date Title
CN107368786B (zh) 一种基于机器视觉的乘客越过扶手带检测方法
CN109522793B (zh) 基于机器视觉的多人异常行为检测与识别方法
CN106127148B (zh) 一种基于机器视觉的手扶电梯乘客异常行为检测方法
JP6549797B2 (ja) 通行人の頭部識別方法及びシステム
CN104166861B (zh) 一种行人检测方法
CN105404847B (zh) 一种遗留物实时检测方法
CN111275910B (zh) 一种基于高斯混合模型的扶梯越界行为检测方法及系统
CN110378179B (zh) 基于红外热成像的地铁逃票行为检测方法及系统
CN107292913B (zh) 一种基于视频的多阶段摔倒检测方法
CN106210634A (zh) 一种智慧金睛识别人员倒地报警方法和装置
CN107085714A (zh) 一种基于视频的森林火灾检测方法
CN111259718B (zh) 一种基于高斯混合模型的扶梯滞留检测方法及系统
CN110310275B (zh) 一种基于图像处理的链式传送带缺陷检测方法
CN109409289A (zh) 一种电力作业安全监督机器人安全作业识别方法及系统
CN110633671A (zh) 基于深度图像的公交车客流实时统计方法
KR101030257B1 (ko) 카메라의 영상을 이용한 보행자 계수 방법 및 장치
CN111091110A (zh) 一种基于人工智能的反光背心穿戴识别方法
CN106570440A (zh) 基于图像分析的人数统计方法和人数统计装置
CN111582084B (zh) 基于弱监督学习的空基视角下的铁轨异物检测方法及系统
CN106951820B (zh) 基于环形模板和椭圆拟合的客流统计方法
CN117876971B (zh) 基于机器视觉的建筑施工安全监测及预警方法
CN112001299A (zh) 一种隧道车指器和照明灯故障识别方法
CN113673614B (zh) 基于机器视觉的地铁隧道异物入侵检测装置及方法
CN111274872B (zh) 基于模板匹配的视频监控动态不规则多监管区域判别方法
CN111626107A (zh) 一种面向智能家居场景下的人形轮廓分析提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant