CN111583341B - 云台像机移位检测方法 - Google Patents

云台像机移位检测方法 Download PDF

Info

Publication number
CN111583341B
CN111583341B CN202010364127.7A CN202010364127A CN111583341B CN 111583341 B CN111583341 B CN 111583341B CN 202010364127 A CN202010364127 A CN 202010364127A CN 111583341 B CN111583341 B CN 111583341B
Authority
CN
China
Prior art keywords
image
straight line
detection
linear
axis coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010364127.7A
Other languages
English (en)
Other versions
CN111583341A (zh
Inventor
谭中慧
刘俊
杨东烨
袁彬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cosco Shipping Technology Co Ltd
Original Assignee
Cosco Shipping Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cosco Shipping Technology Co Ltd filed Critical Cosco Shipping Technology Co Ltd
Priority to CN202010364127.7A priority Critical patent/CN111583341B/zh
Publication of CN111583341A publication Critical patent/CN111583341A/zh
Application granted granted Critical
Publication of CN111583341B publication Critical patent/CN111583341B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种云台像机移位检测方法,包括步骤:S1:获取视频交通参数和事件检测系统的道路监控视频图像,并利用道路监控视频图像基于YOLOV3的深度学习检测方法进行车道线检测;S2:对车道线检测结果图像进行图像预处理,获得预处理结果图像;S3:对预处理结果图像进行直线检测,获得多个直线段;S4:计算直线段的直线斜率和直线位置,直线位置为直线段在原路监控视频图像中的位置;S5:利用直线斜率和直线位置进行时空域比对,判定视频交通参数和事件检测系统的云台摄像机是否位移。本发明的一种云台像机移位检测方法,以提供视频交通参数和事件检测系统其他算法调用和判定依据,具有较佳的普适性和准确性。

Description

云台像机移位检测方法
技术领域
本发明涉及智能交通技术领域,尤其涉及一种云台像机移位检测方法。
背景技术
随着我国公路交通网络和视频监控技术的快速发展,两者的结合也日益紧密。目前,我国的高速公路规模世界第一,为了缓解巡查压力和不断提高高速公路的信息化水平,视频监控在高速公路的现代化建设中逐步得到重视,诸多道路逐步实现视频监控全程覆盖。海量的视频数据仅仅依靠传统的人力资源轮询、查看和监控已经显得力不从心,不断提高道路道路监控和交通管理的智能化水平是目前智能交通的发展方向。视频交通参数和事件检测系统就是通过先进的计算机模式识别、视频图像处理、人工智能、轨迹跟踪等方法,对前端摄像机视频图像进行实时分析和处理,通过设计好的检测算法自动进行车型、车速、流量、行人闯入、车辆逆行等交通参数和交通事件进行检测的装置。
云台摄像机移位检测作为视频交通检测的重要组成部分,不仅关系到摄像机本身的维护,也关系到其他参数和事件检测的有效性和准确性,是视频交通检测的基础,是智能交通领域研究的热点。
云台主要用Pan/Tilt/Zoom三个参数描述云台全方位(上下、左右)移动及镜头变倍、变焦控制,因此,传统的方式主要利用这三个参数来判断云台是否移动。但只有少部分云台向外提供这三个参数,同时,云台在这三个参数不变的情况下,由于机械磨损等原因,还存在漂移现象。因此该方式普适性和准确性较差。
发明内容
针对上述现有技术中的不足,本发明提供一种云台像机移位检测方法,以提供视频交通参数和事件检测系统其他算法调用和判定依据,具有较佳的普适性和准确性。
为了实现上述目的,本发明提供一种云台像机移位检测方法,包括步骤:
S1:获取一视频交通参数和事件检测系统的道路监控视频图像,并利用所述道路监控视频图像基于YOLOV3的深度学习检测方法进行车道线检测,获得车道线检测结果图像;
S2:对所述车道线检测结果图像进行图像预处理,获得预处理结果图像;
S3:对所述预处理结果图像进行直线检测,获得多个直线段;
S4:计算所述直线段的直线斜率和直线位置,所述直线位置为所述直线段在原所述路监控视频图像中的位置;
S5:利用所述直线斜率和所述直线位置进行时空域比对,判定所述视频交通参数和事件检测系统的云台摄像机是否位移。
优选地,所述S1步骤进一步包括步骤:
S11:样本收集步骤,从所述视频交通参数和事件检测系统的道路监控视频中截取多张彩色图片作为所述道路监控视频图像并形成一样本集,所述样本集包括一训练集和一测试集,所述训练集和所述测试集分别包括多张所述道路监控视频图像;
S12:打标步骤,用专用工具对所述训练集的所有所述路监控视频图像进行打标,用矩形框框选多个检测目标,并对所述检测目标加上标记,所述检测目标包括车道线,所述标记包括所述检测目标的种类和关联位置信息;
S13:训练步骤,利用所述训练集和基于DARKNET的YOLOV3训练框架进行训练,生成所述检测目标的目标权重文件;
S14:检测步骤,利用训练生成的所述目标权重文件,向YOLOV3提供的C++调用接口输入待检测目标图像,获得车道线检测结果图像和多个矩形框向量集,所述车道线检测结果图像包括多个框有所述检测目标的所述矩形框,所述矩形框向量集为该矩形框的向量集。
优选地,所述训练集包括的所述道路监控视频图像的个数大于1000;所述测试集包括的所述道路监控视频图像的个数大于10。
优选地,所述S2步骤进一步包括步骤:
S21:将所述车道线检测结果图像转换为灰度图像;
S22:对所述灰度图像进行边缘检测,提取所述矩形框区域的图像并作为所述预处理结果图像输出。
优选地,所述S21步骤中,利用一灰度值转换公式将所述车道线检测结果图像转换为灰度图像,所述灰度值转换公式为:
Yi=0.299×Ri+0.587×Gi+0.114×Bi (1);
其中,Yi表示第i个像素点对应的灰度值,Ri表示该像素的红色分量,Gi表示该像素的绿色分量,Bi表示该像素的蓝色分量。
优选地,所述S22步骤中,利用开源机器视觉库OPENCV的CANNY检测接口函数对所述灰度图像进行边缘检测。
优选地,所述S3步骤中,每一所述直线段包括两个端点,将个所述直线段的两所述端点按序列保存;所述端点包括起始点和结束点。
优选地,所述S3步骤中,利用OPENCV的直线检测函数提取所述直线段。
优选地,所述S4步骤中,根据公式(2)计算获得所述直线位置:
Figure BDA0002476127190000031
其中,X、Y分别依次表示所述直线段在原所述路监控视频图像中的X轴坐标和Y轴坐标;x0、y0分别依次表示所述直线段对应的所述矩形框相对原所述路监控视频图像的X轴坐标和Y轴坐标;xi、yi分别依次表示所述直线段的所述端点相对所述矩形框的X轴坐标和Y轴坐标。
优选地,所述S5步骤进一步包括步骤:
S51:利用公式(3)计算各帧所述待检测目标图像中前一帧和后一帧的图像中同一所述直线段的距离D:
Figure BDA0002476127190000032
其中,x1、y1分别依次表示前一帧图像的所述直线段的起始点的X轴坐标和Y轴坐标;x2、y2分别依次表示前一帧图像的所述直线段的结束点的X轴坐标和Y轴坐标;x3、y3分别依次表示后一帧图像的所述直线段的起始点的X轴坐标和Y轴坐标;x4、y4分别依次表示后一帧图像的所述直线段的结束点的X轴坐标和Y轴坐标;
S52:利用公式(4)计算各帧所述待检测目标图像中前一帧和后一帧的图像中同一所述直线段的斜率差Δk:
Δk=|k1-k2| (4);
其中,k1表示前一帧图像的所述直线段的所述直线斜率;k2表示后一帧图像的所述直线段的所述直线斜率;
S53:利用公式(5)判断所述云台摄像机是否位移:
Figure BDA0002476127190000041
其中,P(D,k)表示判定函数,th1表示距离差阈值,th2表示斜率差阈值;当P(D,k)=0时,表示所述云台摄像机未移位;当P(D,k)=1时,表示所述云台摄像机移位。
本发明由于采用了以上技术方案,使其具有以下有益效果:
1、检测效果好;基于深度学习的车道线检测方法,是一种高度智能、多特征多层次训练的目标整体识别方法,具有很高的检测准确性,并且能够随着样本集的逐步扩充不断提升训练质量,提高检测精度。
2、不需要任何标定,具有普适性;本方法通过对实时图像的车道线进行检测,并计算直线段的位置和斜率,然后在时间序列上对两个参数进行比较运算,即可判断云台摄像机是否移位。方法全程不需要任何标定,适用于任何场景摄像机,具有很好的普适性。
附图说明
图1为本发明实施例的云台像机移位检测方法的原理流程示意图。
具体实施方式
下面根据附图1,给出本发明的较佳实施例,并予以详细描述,使能更好地理解本发明的功能、特点。
请参阅图1,本发明实施例的一种云台像机移位检测方法,包括步骤:
S1:获取一视频交通参数和事件检测系统的道路监控视频图像,并利用道路监控视频图像基于YOLOV3的深度学习检测方法进行车道线检测,获得车道线检测结果图像。
其中,S1步骤进一步包括步骤:
S11:样本收集步骤,从视频交通参数和事件检测系统的道路监控视频中截取多张彩色图片作为道路监控视频图像并形成一样本集,样本集包括一训练集和一测试集,训练集和测试集分别包括多张道路监控视频图像;
样本集、训练集和测试集满足公式:
Figure BDA0002476127190000051
其中,P表示样本集,
Figure BDA0002476127190000052
表示训练集,为了保证训练过程所需的样本充足性要求,训练集样本数n>1000为宜,/>
Figure BDA0002476127190000053
为测试集,测试样本以满足测试要求即可,建议大于10张;
S12:打标步骤,用专用工具对训练集的所有路监控视频图像进行打标,用矩形框框选多个检测目标,用以确定目标在原始图像中的位置,并对检测目标加上标记,检测目标包括车道线,标记包括检测目标的种类和关联位置信息,用于后续程序训练过程中,从标定文件中读取图片和图片中检测目标的种类、关联位置信息等信息;
Figure BDA0002476127190000054
其中,l(p)表示标定函数,O(p)表示输出函数,on表示图片p中第n个标定目标的种类,fn1、fn2、fn3和fn4分别表示第n个目标对应矩形框的左上和右下脚坐标位置;
S13:训练步骤,利用训练集和基于DARKNET的YOLOV3训练框架进行训练,生成检测目标的目标权重文件;
S14:检测步骤,利用训练生成的目标权重文件,向YOLOV3提供的C++调用接口输入待检测目标图像,获得车道线检测结果图像和多个矩形框向量集,车道线检测结果图像包括多个框有检测目标的矩形框,矩形框向量集为该矩形框的向量集。
Figure BDA0002476127190000061
其中,D(p,W)表示YOLOV3调用接口,p表示输入的原始彩色图片,W表示训练得到的权重文件,on表示第n个目标的种类,xn、yn、wn和hn分别表示第n个目标的横向、纵向坐标位置,宽度和高度。
S2:对车道线检测结果图像进行图像预处理,获得预处理结果图像;图像预处理主要包括RGB彩色3通道图像到Y通道灰度图像的转换及目标区域边缘检测。
其中,S2步骤进一步包括步骤:
S21:将车道线检测结果图像转换为灰度图像;
S21步骤中,彩色图像转Y通道图像的目的是为后续的边缘检测提供输入图像源,利用一灰度值转换公式将车道线检测结果图像转换为灰度图像,灰度值转换公式为:
Yi=0.299×Ri+0.587×Gi+0.114×Bi (1);
其中,Yi表示第i个像素点对应的灰度值,Ri表示该像素的红色分量,Gi表示该像素的绿色分量,Bi表示该像素的蓝色分量。
S22:对灰度图像进行边缘检测,提取矩形框区域的图像并作为预处理结果图像输出。
S22步骤中,利用开源机器视觉库OPENCV的CANNY检测接口函数对灰度图像进行边缘检测。
目标区域边缘检测是指在Y通道图像中,根据深度学习目标检测的结果,提取矩形目标区域的图像,并进行边缘检测,得到仅含边缘轮廓的输出图像。CANNY检测在图像去噪、轮廓线提取等方面有着较好的效果,直接利用开源机器视觉库OPENCV提供的CANNY检测接口函数。
F(ps)=cvCanny(ps,pd,th3,th4,3)
其中,cvCanny(ps,pd,th1,th2,3)为边缘检测函数F(ps)的具体实现,ps为原图像,pd为边缘检测结果图像,th3和th4分别为边缘检测下阈值和上阈值,小阈值用来控制边缘连接,大的阈值用来控制强边缘的初始分割。
S3:对预处理结果图像进行直线检测,获得多个直线段。
S3步骤中,每一直线段包括两个端点,将个直线段的两端点按序列保存;端点包括起始点和结束点。
本实施例中,利用OPENCV的直线检测函数提取直线段。
直线检测就是将边缘检测结果图像作为输入图像,从中提取出直线段的处理过程。
利用OPENCV提供的直线检测函数进行目标直线提取,这是一种利用Hough变换在二值图像中寻找直线的方法。其函数原型为:
F(img)=cvLine(img,store,m,rho,theta,th,p1,p2)
其中,F(img)为检测输出,img为输入图像,即边缘检测结果图像,store为临时开辟的内存空间,m为Hough变换变量,rho为以像素为单位的距离精度,theta为以弧度为单位的角度精度。p1为最小线段长度参数,p2为直线最大间隔参数,即当一条直线上两条碎线之间小于该间隔时,合并成一条直线。
S4:计算直线段的直线斜率和直线位置,直线位置为直线段在原路监控视频图像中的位置。
斜率及位置计算,是指对检测到的每条直线段计算其斜率,并计算该直线段在整幅图像中的位置,为云台摄像机是否移位提供判定依据。
从直线检测结果中提取一条直线段的首末点坐标p1(x1,y1)和p2(x2,y2),直线段斜率k计算公式如下:
k=|y2-y1|/|x2-x1|。
直线段的位置计算就是将上述检测出的每一条直线段映射到原始图像,以确定每条直线段在原始图像中的位置。
S4步骤中,根据公式(2)计算获得直线位置:
Figure BDA0002476127190000071
其中,X、Y分别依次表示直线段在原路监控视频图像中的X轴坐标和Y轴坐标;x0、y0分别依次表示直线段对应的矩形框相对原路监控视频图像的X轴坐标和Y轴坐标;xi、yi分别依次表示直线段的端点相对矩形框的X轴坐标和Y轴坐标。
S5:利用直线斜率和直线位置进行时空域比对,判定视频交通参数和事件检测系统的云台摄像机是否位移。
时空域比对是指在时间序列上,对每帧检测得到的直线的位置、斜率进行比较,进而最终判定云台摄像机是否移位。
S5步骤进一步包括步骤:
S51:利用公式(3)计算各帧待检测目标图像中前一帧和后一帧的图像中同一直线段的距离D:
Figure BDA0002476127190000081
其中,x1、y1分别依次表示前一帧图像的直线段的起始点的X轴坐标和Y轴坐标;x2、y2分别依次表示前一帧图像的直线段的结束点的X轴坐标和Y轴坐标;x3、y3分别依次表示后一帧图像的直线段的起始点的X轴坐标和Y轴坐标;x4、y4分别依次表示后一帧图像的直线段的结束点的X轴坐标和Y轴坐标;
S52:利用公式(4)计算各帧待检测目标图像中前一帧和后一帧的图像中同一直线段的斜率差Δk:
Δk=|k1-k2| (4);
其中,k1表示前一帧图像的直线段的直线斜率;k2表示后一帧图像的直线段的直线斜率;
S53:利用公式(5)判断云台摄像机是否位移:
Figure BDA0002476127190000082
其中,P(D,k)表示判定函数,th1表示距离差阈值,th2表示斜率差阈值;当P(D,k)=0时,表示云台摄像机未移位;当P(D,k)=1时,表示云台摄像机移位。
以上结合附图实施例对本发明进行了详细说明,本领域中普通技术人员可根据上述说明对本发明做出种种变化例。因而,实施例中的某些细节不应构成对本发明的限定,本发明将以所附权利要求书界定的范围作为本发明的保护范围。

Claims (8)

1.一种云台像机移位检测方法,包括步骤:
S1:获取一视频交通参数和事件检测系统的道路监控视频图像,并利用所述道路监控视频图像基于YOLOV3的深度学习检测方法进行车道线检测,获得车道线检测结果图像;
S2:对所述车道线检测结果图像进行图像预处理,获得预处理结果图像;
S3:对所述预处理结果图像进行直线检测,获得多个直线段;
S4:计算所述直线段的直线斜率和直线位置,所述直线位置为所述直线段在原所述路监控视频图像中的位置;
S5:利用所述直线斜率和所述直线位置进行时空域比对,判定所述视频交通参数和事件检测系统的云台摄像机是否位移;
所述S4步骤中,根据公式(2)计算获得所述直线位置:
Figure FDA0004126617860000011
其中,X、Y分别依次表示所述直线段在原所述路监控视频图像中的X轴坐标和Y轴坐标;x0、y0分别依次表示所述直线段对应的所述矩形框相对原所述路监控视频图像的X轴坐标和Y轴坐标;xi、yi分别依次表示所述直线段的所述端点相对所述矩形框的X轴坐标和Y轴坐标;
所述S5步骤进一步包括步骤:
S51:利用公式(3)计算各帧所述待检测目标图像中前一帧和后一帧的图像中同一所述直线段的距离D:
Figure FDA0004126617860000012
其中,x1、y1分别依次表示前一帧图像的所述直线段的起始点的X轴坐标和Y轴坐标;x2、y2分别依次表示前一帧图像的所述直线段的结束点的X轴坐标和Y轴坐标;x3、y3分别依次表示后一帧图像的所述直线段的起始点的X轴坐标和Y轴坐标;x4、y4分别依次表示后一帧图像的所述直线段的结束点的X轴坐标和Y轴坐标;
S52:利用公式(4)计算各帧所述待检测目标图像中前一帧和后一帧的图像中同一所述直线段的斜率差Δk:
Δk=|k1-k2|(4);
其中,k1表示前一帧图像的所述直线段的所述直线斜率;k2表示后一帧图像的所述直线段的所述直线斜率;
S53:利用公式(5)判断所述云台摄像机是否位移:
Figure FDA0004126617860000021
其中,P(D,k)表示判定函数,th1表示距离差阈值,t2表示斜率差阈值;当P(D,k)=0时,表示所述云台摄像机未移位;当P(D,k)=1时,表示所述云台摄像机移位。
2.根据权利要求1所述的云台像机移位检测方法,其特征在于,所述S1步骤进一步包括步骤:
S11:样本收集步骤,从所述视频交通参数和事件检测系统的道路监控视频中截取多张彩色图片作为所述道路监控视频图像并形成一样本集,所述样本集包括一训练集和一测试集,所述训练集和所述测试集分别包括多张所述道路监控视频图像;
S12:打标步骤,用专用工具对所述训练集的所有所述路监控视频图像进行打标,用矩形框框选多个检测目标,并对所述检测目标加上标记,所述检测目标包括车道线,所述标记包括所述检测目标的种类和关联位置信息;
S13:训练步骤,利用所述训练集和基于DARKNET的YOLOV3训练框架进行训练,生成所述检测目标的目标权重文件;
S14:检测步骤,利用训练生成的所述目标权重文件,向YOLOV3提供的C++调用接口输入待检测目标图像,获得车道线检测结果图像和多个矩形框向量集,所述车道线检测结果图像包括多个框有所述检测目标的所述矩形框,所述矩形框向量集为该矩形框的向量集。
3.根据权利要求2所述的云台像机移位检测方法,其特征在于,所述训练集包括的所述道路监控视频图像的个数大于1000;所述测试集包括的所述道路监控视频图像的个数大于10。
4.根据权利要求2所述的云台像机移位检测方法,其特征在于,所述S2步骤进一步包括步骤:
S21:将所述车道线检测结果图像转换为灰度图像;
S22:对所述灰度图像进行边缘检测,提取所述矩形框区域的图像并作为所述预处理结果图像输出。
5.根据权利要求4所述的云台像机移位检测方法,其特征在于,所述S21步骤中,利用一灰度值转换公式将所述车道线检测结果图像转换为灰度图像,所述灰度值转换公式为:
Yi=0.299×Ri+0.587×Gi+0.114×Bi(1);
其中,Yi表示第i个像素点对应的灰度值,Ri表示该像素的红色分量,Gi表示该像素的绿色分量,Bi表示该像素的蓝色分量。
6.根据权利要求4所述的云台像机移位检测方法,其特征在于,所述S22步骤中,利用开源机器视觉库OPENCV的CANNY检测接口函数对所述灰度图像进行边缘检测。
7.根据权利要求6所述的云台像机移位检测方法,其特征在于,所述S3步骤中,每一所述直线段包括两个端点,将个所述直线段的两所述端点按序列保存;所述端点包括起始点和结束点。
8.根据权利要求7所述的云台像机移位检测方法,其特征在于,所述S3步骤中,利用OPENCV的直线检测函数提取所述直线段。
CN202010364127.7A 2020-04-30 2020-04-30 云台像机移位检测方法 Active CN111583341B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010364127.7A CN111583341B (zh) 2020-04-30 2020-04-30 云台像机移位检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010364127.7A CN111583341B (zh) 2020-04-30 2020-04-30 云台像机移位检测方法

Publications (2)

Publication Number Publication Date
CN111583341A CN111583341A (zh) 2020-08-25
CN111583341B true CN111583341B (zh) 2023-05-23

Family

ID=72126436

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010364127.7A Active CN111583341B (zh) 2020-04-30 2020-04-30 云台像机移位检测方法

Country Status (1)

Country Link
CN (1) CN111583341B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114566052B (zh) * 2022-04-27 2022-08-12 华南理工大学 一种基于车流方向判别高速公路车流监控设备转动的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740809A (zh) * 2016-01-28 2016-07-06 东南大学 一种基于机载摄像机的高速公路车道线检测方法
CN106529493A (zh) * 2016-11-22 2017-03-22 北京联合大学 一种基于透视图的鲁棒性多车道线检测方法
EP3506156A1 (en) * 2017-12-29 2019-07-03 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for detecting lane line, and medium
WO2020048027A1 (zh) * 2018-09-06 2020-03-12 惠州市德赛西威汽车电子股份有限公司 一种基于动态感兴趣区域的鲁棒性车道线检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105740809A (zh) * 2016-01-28 2016-07-06 东南大学 一种基于机载摄像机的高速公路车道线检测方法
CN106529493A (zh) * 2016-11-22 2017-03-22 北京联合大学 一种基于透视图的鲁棒性多车道线检测方法
EP3506156A1 (en) * 2017-12-29 2019-07-03 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for detecting lane line, and medium
WO2020048027A1 (zh) * 2018-09-06 2020-03-12 惠州市德赛西威汽车电子股份有限公司 一种基于动态感兴趣区域的鲁棒性车道线检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
胡永 ; .基于视频的公路交通事件检测算法研究.现代信息科技.2019,(07),全文. *

Also Published As

Publication number Publication date
CN111583341A (zh) 2020-08-25

Similar Documents

Publication Publication Date Title
US10970566B2 (en) Lane line detection method and apparatus
KR101403876B1 (ko) 차량 번호판 인식 방법과 그 장치
TWI409718B (zh) 移動中車輛之車牌定位方法
CN107424142B (zh) 一种基于图像显著性检测的焊缝识别方法
CN110033431B (zh) 钢桥表面锈蚀区域检测的非接触式检测装置及检测方法
CN111325769B (zh) 一种目标对象检测方法及装置
CN106683073B (zh) 一种车牌的检测方法及摄像机和服务器
CN104978567B (zh) 基于场景分类的车辆检测方法
CN105279772B (zh) 一种红外序列图像的可跟踪性判别方法
CN112330593A (zh) 基于深度学习网络的建筑物表面裂缝检测方法
CN108509950B (zh) 基于概率特征加权融合的铁路接触网支柱号牌检测识别法
CN113052170B (zh) 一种无约束场景下的小目标车牌识别方法
CN111695373A (zh) 斑马线的定位方法、系统、介质及设备
CN112184644A (zh) 一种基于多光照强度的气密性气泡检测方法及装置
CN108961262B (zh) 一种复杂场景下的条码定位方法
CN110689003A (zh) 低照度成像车牌识别方法、系统、计算机设备及存储介质
Su et al. A new local-main-gradient-orientation HOG and contour differences based algorithm for object classification
CN115841633A (zh) 一种电力塔和电力线关联矫正的电力塔和电力线检测方法
CN109165592B (zh) 一种基于pico算法的实时可旋转的人脸检测方法
CN111583341B (zh) 云台像机移位检测方法
CN112053407B (zh) 一种交通执法影像中基于ai技术的车道线自动检测方法
CN109359513B (zh) 一种基于边缘检测和颜色匹配的异常检测方法
CN116758421A (zh) 一种基于弱监督学习的遥感图像有向目标检测方法
Hommos et al. Hd Qatari ANPR system
CN106951831B (zh) 一种基于深度摄像机的行人检测跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant