CN117177069B - 一种基于onvif协议的摄像头自动追踪方法及系统 - Google Patents
一种基于onvif协议的摄像头自动追踪方法及系统 Download PDFInfo
- Publication number
- CN117177069B CN117177069B CN202311442891.1A CN202311442891A CN117177069B CN 117177069 B CN117177069 B CN 117177069B CN 202311442891 A CN202311442891 A CN 202311442891A CN 117177069 B CN117177069 B CN 117177069B
- Authority
- CN
- China
- Prior art keywords
- camera
- value
- identification
- current frame
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000013519 translation Methods 0.000 claims abstract description 40
- 238000013135 deep learning Methods 0.000 claims abstract description 7
- 238000004590 computer program Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 abstract description 13
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000010223 real-time analysis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Landscapes
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本发明适用于视觉追踪领域,提供了一种基于ONVIF协议的摄像头自动追踪方法及系统,一种基于ONVIF协议的摄像头自动追踪方法,所述方法包括:获取摄像头实时拍摄的当前帧图片;根据识别模型识别所述当前帧图片,得到识别信息;所述识别模型是基于深度学习的图像识别模型,所述识别信息包括帧图的像素宽、高和识别框坐标;计算所述识别信息,得到摄像头转向位置;基于ONVIF协议,根据所述摄像头转向位置得到摄像头平移参数、倾斜参数和缩放参数;根据摄像头平移参数、倾斜参数和缩放参数控制所述摄像头转动。相比现有摄像头跟踪流程更为简洁,程序所占性能更低,过程无需与服务端的进行数据交互,具有较高的即时性,即时性可随着识别模型识别性能进行调整。
Description
技术领域
本申请属于视觉追踪领域,尤其涉及一种基于ONVIF协议的摄像头自动追踪方法。
背景技术
在湿地生态领域,高清摄像头在湿地动物监测和湿地保护领域有着广泛应用,对保护区的安全和生物多样性监测有着重大意义,高清摄像头的应用也让湿地工作人员在无需去现场的情况下即可实时全面地掌握保护区的各种情况和变化。
现有技术中,在部分场景下普遍使用摄像头自带的追踪功能,一般形式是根据目标对象的照片在指定视频中进行搜索,在摄像头视频库中去搜集目标对象出现的频段,确定位置并串联轨迹。
但是摄像头中传统的追踪功能只能识别到人,且使用场景限制大,拍摄范围有限,不能适应大范围目标对象的活动和及时跟踪违法活动。
发明内容
本申请实施例的目的在于提供一种基于ONVIF协议的摄像头自动追踪方法,旨在解决摄像头识别慢,效率低的问题。
本申请实施例是这样实现的,一种基于ONVIF协议的摄像头自动追踪方法,所述方法包括:
获取摄像头实时拍摄的当前帧图片;
根据识别模型识别所述当前帧图片,得到识别信息;所述识别模型是基于深度学习的图像识别模型,所述识别信息包括帧图的像素宽、高和识别框坐标;
计算所述识别信息,得到摄像头转向位置;
基于ONVIF协议,根据所述摄像头转向位置得到摄像头平移参数、倾斜参数和缩放参数;
根据摄像头平移参数、倾斜参数和缩放参数控制所述摄像头转动。
本申请实施例的另一目的在于一种基于ONVIF协议的摄像头自动追踪系统,所述系统包括:
图片获取模块,用于获取摄像头实时拍摄的当前帧图片;
边缘计算模块,用于根据识别模型识别所述当前帧图片,得到识别信息;计算所述识别信息,得到摄像头转向位置;
运算控制模块,用于基于ONVIF协议,根据所述摄像头转向位置得到摄像头平移参数、倾斜参数和缩放参数;根据摄像头平移参数、倾斜参数和缩放参数控制所述摄像头转动。
本申请实施例的另一目的在于一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行所述的基于ONVIF协议的摄像头自动追踪方法的步骤。
本申请实施例的另一目的在于一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行所述的基于ONVIF协议的摄像头自动追踪方法的步骤。
本申请实施例提供的一种基于ONVIF协议的摄像头自动追踪方法,通过识别模型分析当前帧图片的信息,基于ONVIF协议,提供摄像头的旋转信息,使得摄像头具备一定的跟踪能力,当拍摄到目标物体或事件时,可以自动转向和聚焦跟踪,并自动触发警报等相关机制,极大缓解了工作人员配备不足造成巡护的压力,整个跟踪过程更为简洁,程序所占性能更低,过程中无需与服务端进行数据交互。
附图说明
图1为本申请实施例提供的基于ONVIF协议的摄像头自动追踪方法的流程图;
图2为本申请实施例提供的获取摄像头实时拍摄的当前帧图片的流程图;
图3为本申请实施例提供的根据识别模型识别所述当前帧图片,得到识别信息的流程图;
图4为本申请实施例提供的计算所述识别信息,得到摄像头转向位置的流程图;
图5为本申请实施例提供的基于ONVIF协议,根据所述摄像头转向位置得到摄像头平移参数、倾斜参数和缩放参数的流程图;
图6为本申请实施例提供的根据当前帧图调整摄像头缩放值的流程图;
图7为本申请实施例提供的基于ONVIF协议的摄像头自动追踪系统的结构框图;
图8为一个实施例中计算机设备的内部结构框图;
图9为本申请实施例提供的当前帧图中识别信息的示例图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但除非特别说明,这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一xx脚本称为第二xx脚本,且类似地,可将第二xx脚本称为第一xx脚本。
如图1所示,在一个实施例中,提出了一种基于ONVIF协议的摄像头自动追踪方法,具体可以包括以下步骤:
步骤S102,获取摄像头实时拍摄的当前帧图片;
在本实施例中,摄像头获取图像是实时的,当拍摄范围内出现目标时,对目标出现的每帧图片都进行分析,分析过程中,都以当前帧图片为依据,实现对目标的实时分析和跟踪。
步骤S104,根据识别模型识别所述当前帧图片,得到识别信息。
在本实施例中,所述识别模型是基于深度学习的图像识别模型,为现有的成熟技术,这里不作具体限定,当前帧图片需要通过OpenCV的imread接口解析,并将得到RGB图片结构化成数组形式,识别模型识别过程是通过边缘计算实现的,无需将信息发送到总服务端,示例性的,本申请可以为识别模型。
步骤S106,计算所述识别信息,得到摄像头转向位置。
在本实施例中,基于识别信息中识别框坐标信息,计算每个识别框在当前帧图片中所占的权重比例,示例性的,本申请中使用面积权重法,得到当前帧图片中的所有识别框的中心点,所有识别框的中心点很好的反应了图片中目标对象的位置,可以作为摄像头下一帧需要转向的目标位置,这样摄像头下一帧所拍摄的图片很好的跟踪了目标对象。
步骤S108,基于ONVIF协议,根据所述摄像头转向位置得到摄像头平移参数、倾斜参数和缩放参数。
在本实施例中,为了实现将当前帧图片得到的摄像头转向位置转化为对应网络摄像头的ONVIF参数PTZ值(Pan,Tilt,Zoom,平移,倾斜,缩放),使用以下方式实现:根据查询官网信息得到当前使用的网络高清摄像头的设备信息;根据ONVIF协议原理PTZ中Pan和Tilt的取值集合为[-1,1],Zoom的取值集合为[0,1];通过调用ONVIF规范接口“get_ptz”获取当前角度的PTZ值,通过公式计算获取到PTZ中的待转动的三个参数值,通过ONVIF协议控制摄像头转动至计算得到的PTZ位置,即可完成一帧的全部流程。
步骤S110,根据摄像头平移参数、倾斜参数和缩放参数控制所述摄像头转动。
在本实施例中,为了使摄像头具有持续不断的监测跟踪能力,通过摄像头的RTSP地址对摄像头持续不断的取帧,每帧图片都经过前文步骤S102-108的处理过程,进而对摄像头进行控制,以达到自主检测和跟踪能力。
在一个实施例中,如图2所示,步骤S102具体可以包括以下步骤:
步骤S202,连接摄像头,开启ONVIF协议;
步骤S204,根据ONVIF协议,获取摄像头实时拍摄的当前帧图片。
在本实施例中,本申请的摄像头可以为包含ONVIF协议的网络摄像机,网络摄像机图像获取方法有多种,本申请不作具体限制,示例性的,本申请中通过ONVIF协议中的GetSnapshotUri方法获取当前网络摄像机的实时画面帧图,具体的,通过设备发现,得到设备服务地址;使用设备服务地址调用GetCapabilties接口,得到媒体服务地址;使用媒体服务地址调用GetProfiles接口, 得到主次码流的媒体配置信息,其中包含Profile Token;使用Profile Token调用GetSnapshotUri接口,得到主次码图像抓拍的URI地址;根据URI地址,使用HTTP的GET方式获取图片。
在一个实施例中,如图3所示,步骤S104具体可以包括以下步骤:
步骤S302,将所述当前帧图片结构化成数组;
步骤S304,根据识别模型识别所述当前帧图片,得到识别信息。
在本实施例中,当前帧图片需要通过OpenCV的imread接口解析,并将得到RGB图片结构化成数组形式,识别模型识别过程是通过边缘计算实现的,无需将信息发送到总服务端,所述识别信息包括当前帧图片的像素宽、高和识别框坐标,其中识别框可以为多个,识别框坐标为识别框左上角坐标和右下角坐标,当前帧图片中的坐标原点在右上角,示例性的,如图9所示,其中bbox(x1, y1, x2, y2)表示为单个识别框的左上角坐标(x1,y1)和右下角坐标(x2,y2)。
在一个实施例中,如图4所示,步骤S106具体可以包括以下步骤:
步骤S402,基于识别信息,计算所述当前帧图片的中心点位置坐标和所述识别框的中心点位置坐标;
步骤S404,计算所述识别框的面积;
步骤S406,根据面积权重法,将所述识别框的面积加权计算,得到所有识别框的中心点位置坐标;
步骤S408,将所述中心点位置坐标作为摄像头转向位置。
在本实施例中,需要对识别信息进行进一步处理,计算当前帧图片的中心点坐标,计算当前帧图片中每个识别框的中心点位置坐标,同时计算每个识别框的面积,根据面积权重法得到所有识别框的中心点的位置坐标,根据每个识别框的面积进行加权计算,权重与每个识别框区域的面积成正比例关系,较大面积的区域会得到更高的权重,得到的所有识别框的中心点位置也靠近较大面积的识别框,将所有识别框的中心点位置作为摄像头需要转向位置,示例性的,在某一帧图片中,图片的尺寸为1080×1920,以图片左上角为坐标原点,长度方向为纵轴,宽度方向为横轴,图片的中心点为(540,960)有三个识别框,识别框1中心点(100,200),面积为10000,识别框2中心点(200,400)面积为10000,识别框3中心点(400,800),面积为40000,根据面积权重法计算得到三个识别框的中心点(300,633),在拍摄这一帧时,摄像头对准(540,960),下一帧摄像头需要向左上方移动,对准(300,633)坐标。
在一个实施例中,如图5所示,步骤S108具体可以包括以下步骤:
步骤S502,获取摄像头的设备信息;
步骤S504,基于ONVIF协议,确定平移参数的取值集合和倾斜参数的取值集合;
步骤S506,获取摄像头当前的缩放值;
步骤S508,根据第一公式,基于摄像头当前的缩放值和摄像头的设备信息,得到横向平移每像素拍摄角度和纵向倾斜每像素拍摄角度;
步骤S510,根据第二公式,基于横向平移每像素拍摄角度和纵向倾斜每像素拍摄角度以及设备信息,得到横向每像素偏移的平移值和纵向每像素偏移的倾斜值;
步骤S512,根据所述摄像头转向位置,得到横向偏移像素和纵向偏移像素;
步骤S514,将横向每像素偏移的平移值与横向偏移像素相乘得到即将偏移的横向平移值,将纵向每像素偏移的倾斜值与纵向偏移像素相乘得到即将偏移的纵向倾斜值;
步骤S516,将即将偏移的横向平移值与摄像头当前的平移值相加得到摄像头平移参数,将即将偏移的纵向倾斜值与摄像头当前的倾斜值相加得到摄像头倾斜参数。
在本实施例中,摄像头的设备信息,可以通过摄像头设备的官网信息中得到,示例性的,信息包括:水平广角范围(59.0°至1.5°)、垂直广角范围(34.2°至0.9°)、水平拍摄范围(-180°至180°)、垂直拍摄范围(-90°至90°);
根据ONVIF协议原理PTZ(Pan, Tilt, Zoom)中平移(Pan)和倾斜(Tilt)的取值集合为[-1,1],缩放(Zoom)的取值集合为[0,1];通过调用ONVIF规范接口“get_ptz”获取当前摄像头角度的PTZ值,分别为当前缩放(Zoomnow),当前平移(Pannow)和当前倾斜(Tiltnow)。根据当前缩放值通过第一公式,即可算出当前缩放值下对应的横向平移每像素拍摄角度(per_angle_x)和纵向倾斜每像素拍摄角度(per_angle_y);第一公式如下:
per_angle_x = ((1 - now_z) * (max_angle_x - min_angle_x)) + min_angle_x
per_angle_y = ((1 - now_z) * (max_angle_y - min_angle_y)) + min_angle_y
公式中:now_z为当前缩放值;max_angle_x为水平广角最大角度,该实例中为59.0°,max_angle_y为垂直广角最大角度;min_angle_x为水平广角最小角度,该实例中为1.5°,min_angle_y为垂直广角最小角度。
根据摄像头水平拍摄范围为360°,垂直拍摄范围为180°,通过获取到的横向平移每像素角度角度和纵向倾斜每像素拍摄角度使用第二公式即可计算出当前缩放值下横向每像素偏移的平移值(ptz_per_px_x)和纵向每像素偏移倾斜值(ptz_per_px_y),第二公式如下:
ptz_per_px_x = 2 / (frame_width * ( 360 / per_angle_x ))
ptz_per_px_y = 2 / (frame_height * ( 180 / per_angle_y ))
公式中:frame_width为当前帧图片的宽度,frame_height为高度。
根据当前帧图片中心点和当前帧图片中所有识别框的中心点坐标,计算得到所有识别框的中心点相对于当前帧图片中心点的横向偏移像素(relative_x)和纵向偏移像素(relative_y);将横向每像素偏移的平移值与横向偏移像素相乘得到即将偏移的横向平移值,将纵向每像素偏移的倾斜值与纵向偏移像素相乘得到即将偏移的纵向倾斜值;通过以上过程计算得到摄像头需要转向的平移值和倾斜值,摄像头可以自主检测到目标对象的位置并持续自动转向云台进行跟踪。
在一个实施例中,如图6所示,步骤S110具体可以包括以下步骤:
步骤S602,根据识别模型的历时时间,确定摄像头缩放步进值;
步骤S604,根据识别信息,判断识别框是否达到当前帧图片的边界;
步骤S606,若已达到边界,则按缩放步进值缩小摄像头拍摄范围;
步骤S608,若未达到边界,则按缩放步进值放大摄像头拍摄范围。
在本实施例中,为了让摄像头以最佳角度和最佳焦距对目标进行持续监测,可以使摄像头自动放大和缩小焦距以达到更好的拍摄效果,示例性的,缩放过程如下:
根据识别模型识别传入当前帧图片的历时时间,来设置缩放的变化步进值,ONVIF协议中缩放值的取值集合为[0,1],本实施例中步进值设为0.02;根据得到的各个识别框坐标信息,判断当前识别框的四边是否已达到整个图片的边界,如果已达到边界,则将当前摄像头的缩放值减去一个步进值,如果未达到边界,则将当前摄像头的缩放值加上一个步进值,判断缩放值是否超出了缩放值的取值范围,调整摄像头缩放值可以更好的捕捉到目标对象的细节处,同时在缩放时会考虑图片中所有的识别框边界,能呈现多个目标对象。
如图7所示,提高了一种基于ONVIF协议的摄像头自动追踪系统,所述系统包括:
图片获取模块710,用于获取摄像头实时拍摄的当前帧图片;
边缘计算模块720,用于根据识别模型识别所述当前帧图片,得到识别信息;计算所述识别信息,得到摄像头转向位置;
运算控制模块730,用于基于ONVIF协议,根据所述摄像头转向位置得到摄像头平移参数、倾斜参数和缩放参数;根据摄像头平移参数、倾斜参数和缩放参数控制所述摄像头转动。
在本实施例中,基于ONVIF协议的摄像头自动追踪系统各个模块的具体工作方法流程以及技术效果均在前文做了说明,为使摄像头具有持续不断的监测跟踪能力,运算控制模块通过摄像头的RTSP地址对摄像头持续不断的取帧图片,每帧图片都经过前文的处理步骤,进而控制摄像头达到自主检测和跟踪能力;如当前画面中没有识别到鸟,运算控制模块则通过ONVIF协议的ContinuousMove接口使摄像头持续不断的自动转向寻找其他目标进行跟踪拍摄。
图8示出了一个实施例中计算机设备的内部结构图。如图8所示,该计算机设备包括该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、输入装置和显示屏。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现基于ONVIF协议的摄像头自动追踪方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行基于ONVIF协议的摄像头自动追踪方法。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的一种基于ONVIF协议的摄像头自动追踪系统可以实现为一种计算机程序的形式,计算机程序可在如图8所示的计算机设备上运行。计算机设备的存储器中可存储组成该一种基于ONVIF协议的摄像头自动追踪系统的各个程序模块,比如,图8所示的图片获取模块710、边缘计算模块720和运算控制模块730。 各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的一种基于ONVIF协议的摄像头自动追踪方法中的步骤。
在一个实施例中,提出了一种计算机设备,所述计算机设备包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取摄像头实时拍摄的当前帧图片;
根据识别模型识别所述当前帧图片,得到识别信息;所述识别模型是基于深度学习的图像识别模型,所述识别信息包括帧图的像素宽、高和识别框坐标;
计算所述识别信息,得到摄像头转向位置;
基于ONVIF协议,根据所述摄像头转向位置得到摄像头平移参数、倾斜参数和缩放参数;
根据摄像头平移参数、倾斜参数和缩放参数控制所述摄像头转动。
在一个实施例中,提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:
获取摄像头实时拍摄的当前帧图片;
根据识别模型识别所述当前帧图片,得到识别信息;所述识别模型是基于深度学习的图像识别模型,所述识别信息包括帧图的像素宽、高和识别框坐标;
计算所述识别信息,得到摄像头转向位置;
基于ONVIF协议,根据所述摄像头转向位置得到摄像头平移参数、倾斜参数和缩放参数;
根据摄像头平移参数、倾斜参数和缩放参数控制所述摄像头转动。
应该理解的是,虽然本申请各实施例的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于ONVIF协议的摄像头自动追踪方法,其特征在于,所述方法包括:
获取摄像头实时拍摄的当前帧图片;
根据识别模型识别所述当前帧图片,得到识别信息;所述识别模型是基于深度学习的图像识别模型,所述识别信息包括帧图的像素宽、高和识别框坐标;
计算所述识别信息,得到摄像头转向位置;
基于ONVIF协议,根据所述摄像头转向位置得到摄像头平移参数、倾斜参数和缩放参数;
根据所述摄像头平移参数、倾斜参数和缩放参数控制所述摄像头转动;
所述根据识别模型识别所述当前帧图片,得到识别信息,还包括以下步骤:
根据所述识别模型的历时时间,确定所述摄像头缩放步进值;
根据所述识别信息,判断所述识别框是否达到当前帧图片的边界;
若已达到边界,则按缩放步进值缩小摄像头拍摄范围;
若未达到边界,则按缩放步进值放大摄像头拍摄范围。
2.根据权利要求1所述的一种基于ONVIF协议的摄像头自动追踪方法,其特征在于,所述获取摄像头实时拍摄的当前帧图片,包括以下步骤:
连接摄像头,开启ONVIF协议;
根据所述ONVIF协议,获取摄像头实时拍摄的当前帧图片。
3.根据权利要求1所述的一种基于ONVIF协议的摄像头自动追踪方法,其特征在于,所述根据识别模型识别所述当前帧图片,得到识别信息,包括以下步骤:
将所述当前帧图片结构化成数组;
根据所述识别模型识别所述当前帧图片,得到识别信息。
4.根据权利要求1所述的一种基于ONVIF协议的摄像头自动追踪方法,其特征在于,所述计算所述识别信息,得到摄像头转向位置,包括以下步骤:
基于所述识别信息,计算所述当前帧图片的中心点位置坐标和所述识别框的中心点位置坐标;
计算所述识别框的面积;
根据面积权重法,将所述识别框的面积加权计算,得到所有识别框的中心点位置坐标;
将所述所有识别框的中心点位置坐标作为摄像头转向位置。
5.根据权利要求1所述的一种基于ONVIF协议的摄像头自动追踪方法,其特征在于,所述基于ONVIF协议,根据所述摄像头转向位置得到摄像头平移参数、倾斜参数和缩放参数,包括以下步骤:
获取所述摄像头的设备信息;
基于ONVIF协议,确定平移参数的取值集合和倾斜参数的取值集合;
获取所述摄像头当前的缩放值;
根据第一公式,基于所述摄像头当前的缩放值和所述摄像头的设备信息,得到横向平移每像素拍摄角度和纵向倾斜每像素拍摄角度;
根据第二公式,基于所述横向平移每像素拍摄角度和纵向倾斜每像素拍摄角度以及所述设备信息,得到横向每像素偏移的平移值和纵向每像素偏移的倾斜值;
根据所述摄像头转向位置,得到横向偏移像素和纵向偏移像素;
将横向每像素偏移的平移值与横向偏移像素相乘得到即将偏移的横向平移值,将纵向每像素偏移的倾斜值与纵向偏移像素相乘得到即将偏移的纵向倾斜值;
将即将偏移的横向平移值与摄像头当前的平移值相加得到摄像头平移参数,将即将偏移的纵向倾斜值与摄像头当前的倾斜值相加得到摄像头倾斜参数。
6.一种基于ONVIF协议的摄像头自动追踪系统,其特征在于,所述系统包括:
图片获取模块,用于获取摄像头实时拍摄的当前帧图片;
边缘计算模块,用于根据识别模型识别所述当前帧图片,得到识别信息;计算所述识别信息,得到摄像头转向位置;所述识别模型是基于深度学习的图像识别模型,所述识别信息包括帧图的像素宽、高和识别框坐标;
所述根据识别模型识别所述当前帧图片,得到识别信息,还包括以下步骤:
根据所述识别模型的历时时间,确定所述摄像头缩放步进值;
根据所述识别信息,判断所述识别框是否达到当前帧图片的边界;
若已达到边界,则按缩放步进值缩小摄像头拍摄范围;
若未达到边界,则按缩放步进值放大摄像头拍摄范围;
运算控制模块,用于基于ONVIF协议,根据所述摄像头转向位置得到摄像头平移参数、倾斜参数和缩放参数;根据摄像头平移参数、倾斜参数和缩放参数控制所述摄像头转动。
7.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行权利要求1至5中任一项权利要求所述的一种基于ONVIF协议的摄像头自动追踪方法的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行权利要求1至5中任一项权利要求所述的一种基于ONVIF协议的摄像头自动追踪方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311442891.1A CN117177069B (zh) | 2023-11-02 | 2023-11-02 | 一种基于onvif协议的摄像头自动追踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311442891.1A CN117177069B (zh) | 2023-11-02 | 2023-11-02 | 一种基于onvif协议的摄像头自动追踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117177069A CN117177069A (zh) | 2023-12-05 |
CN117177069B true CN117177069B (zh) | 2024-01-30 |
Family
ID=88932038
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311442891.1A Active CN117177069B (zh) | 2023-11-02 | 2023-11-02 | 一种基于onvif协议的摄像头自动追踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117177069B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105791774A (zh) * | 2016-03-31 | 2016-07-20 | 北京工业大学 | 一种基于视频内容分析的监控视频传输方法 |
KR101916093B1 (ko) * | 2018-04-20 | 2018-11-08 | 유한회사 한국케이비에프 | 객체 추적 방법 |
CN112616019A (zh) * | 2020-12-16 | 2021-04-06 | 重庆紫光华山智安科技有限公司 | 目标跟踪方法、装置、云台及存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105554391B (zh) * | 2015-12-31 | 2019-05-14 | 广州广电运通金融电子股份有限公司 | 摄像头的控制方法及装置、金融设备终端 |
US11159734B2 (en) * | 2018-12-06 | 2021-10-26 | Heimavista Inc. | Automatic object tracking system and automatic object tracking method |
-
2023
- 2023-11-02 CN CN202311442891.1A patent/CN117177069B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105791774A (zh) * | 2016-03-31 | 2016-07-20 | 北京工业大学 | 一种基于视频内容分析的监控视频传输方法 |
KR101916093B1 (ko) * | 2018-04-20 | 2018-11-08 | 유한회사 한국케이비에프 | 객체 추적 방법 |
CN112616019A (zh) * | 2020-12-16 | 2021-04-06 | 重庆紫光华山智安科技有限公司 | 目标跟踪方法、装置、云台及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN117177069A (zh) | 2023-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8587655B2 (en) | Directed attention digital video recordation | |
US11790504B2 (en) | Monitoring method and apparatus | |
US9262668B2 (en) | Distant face recognition system | |
US9269245B2 (en) | Region of interest based video synopsis | |
CN110866480A (zh) | 对象的跟踪方法及装置、存储介质、电子装置 | |
US8098290B2 (en) | Multiple camera system for obtaining high resolution images of objects | |
CN111163259A (zh) | 一种图像抓拍方法、监控相机及监控系统 | |
US20040141633A1 (en) | Intruding object detection device using background difference method | |
WO2006137829A2 (en) | Method and system for performing adaptive image acquisition | |
US20200175697A1 (en) | Method and system for tracking object of interest in real-time in multi-camera environment | |
CN109313805A (zh) | 图像处理装置、图像处理系统、图像处理方法和程序 | |
CN109313806A (zh) | 图像处理装置、图像处理系统、图像处理方法和程序 | |
US20180053064A1 (en) | Event searching apparatus and system | |
CN110557603A (zh) | 移动目标的监控方法、装置和可读存储介质 | |
CN112422909A (zh) | 一种基于人工智能的视频行为分析管理系统 | |
CN117576778A (zh) | 基于视频流的厂区异常行为监测方法及系统、电子设备 | |
CN117177069B (zh) | 一种基于onvif协议的摄像头自动追踪方法及系统 | |
CN116431857B (zh) | 一种用于无人场景的视频处理方法和系统 | |
KR100571801B1 (ko) | 디지탈 감시 장치 및 방법 | |
CN110930437B (zh) | 目标跟踪方法和装置 | |
CN110392303B (zh) | 热度图视频的生成方法、装置、设备以及存储介质 | |
KR102080456B1 (ko) | 압축영상에 대한 신택스 기반의 ptz 카메라의 객체 추적 제어 방법 | |
CN116912517A (zh) | 相机视野边界的检测方法及装置 | |
CN116342642A (zh) | 目标跟踪方法、装置、电子设备及可读存储介质 | |
CN116017136A (zh) | 拍摄设备的控制方法和装置、存储介质及电子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |