CN110113560A - 视频智能联动的方法及服务器 - Google Patents

视频智能联动的方法及服务器 Download PDF

Info

Publication number
CN110113560A
CN110113560A CN201810103335.4A CN201810103335A CN110113560A CN 110113560 A CN110113560 A CN 110113560A CN 201810103335 A CN201810103335 A CN 201810103335A CN 110113560 A CN110113560 A CN 110113560A
Authority
CN
China
Prior art keywords
ball machine
gunlock
video image
characteristic point
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810103335.4A
Other languages
English (en)
Other versions
CN110113560B (zh
Inventor
吕阿斌
韩国军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhongxing Flying Mdt Infotech Ltd
Original Assignee
Zhongxing Flying Mdt Infotech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhongxing Flying Mdt Infotech Ltd filed Critical Zhongxing Flying Mdt Infotech Ltd
Priority to CN201810103335.4A priority Critical patent/CN110113560B/zh
Publication of CN110113560A publication Critical patent/CN110113560A/zh
Application granted granted Critical
Publication of CN110113560B publication Critical patent/CN110113560B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例涉及计算机视觉技术领域,公开了一种视频智能联动的方法和服务器。本发明中,提供的视频智能联动的方法,包括:获取枪机和球机之间的坐标转换矩阵;在检测到枪机的监控画面中出现预设的目标对象后,获取在监控画面中目标对象所在的区域;根据区域和坐标转换矩阵,获取球机的动作参数;根据动作参数控制球机追踪目标对象,使得实现智能联动的操作简单、速度快、定位精度高。

Description

视频智能联动的方法及服务器
技术领域
本发明实施例涉及计算机视觉技术领域,特别涉及一种视频智能联动的方法和服务器。
背景技术
目前,视频监控、计算机视觉和模式识别等领域不再仅限于使用一个摄像机设备进行监控、分析、识别和追踪,单个摄像机要通过手工调焦的方式才能获得远距离的目标的清晰图像,缺乏有效的目标联动分析,不能及时和全方位的获取视频中需要监控的目标对象。在获取需要监控的目标对象时,由于枪机设备分辨率以及视场范围的影响,枪机获取的视频图像内容往往不能达到监控目标对象的要求,而球机可以自动调焦距,因此监控中采用枪机和球机相结合的方式也较为广泛。摄像机间的标定以及如何控制球机是智能联动的关键,在现有的视频联动中,常采用两种方法,一种是基于人工操作,当获取目标对象时人工操控球机进行观察;另一种是采用网格法,将枪机平均划分为多个网格,利用球机的预置位功能提前设置好,将预置位对应到各个网格,当目标对象出现在枪机一个网格中时对应到其中的预置位,从而实现联动。
然而,发明人发现现有技术中至少存在如下问题:基于人工操作的方法需要人工监视,往往不及时速度比较慢,操作比较复杂;网格法只能将目标对象定位在球机画面中预先设置的预置位上,因此定位精度不够高。
发明内容
本发明实施方式的目的在于提供一种视频智能联动的方法和服务器,使得实现智能联动的操作简单、速度快、定位精度高。
为解决上述技术问题,本发明的实施方式提供了一种视频智能联动的方法,包括:
获取枪机和球机之间的坐标转换矩阵;
在检测到枪机的监控画面中出现预设的目标对象后,获取在监控画面中目标对象所在的区域;
根据区域和坐标转换矩阵,获取球机的动作参数;
根据动作参数控制球机追踪目标对象。
本发明的实施方式还提供了一种服务器,包括:至少一个处理器;以及,
与至少一个处理器通信连接的存储器;其中,
存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述视频智能联动的方法。
本发明实施方式相对于现有技术而言,通过获取枪机和球机之间的坐标转换矩阵;在检测到枪机的监控画面中出现预设的目标对象后,获取在监控画面中目标对象所在的区域;根据区域和坐标转换矩阵,获取球机的动作参数;根据动作参数控制球机追踪目标对象。获取枪机和球机之间的坐标转换矩阵,有利于枪机和球机之间进行准确的坐标转换。在检测到枪机的监控画面中出现预设的目标对象后,获取在监控画面中目标对象所在的区域,通过预设目标对象使得在检测到枪机中出现预设的目标对象时,触发球机实现与枪机的联动,获取在监控画面中目标对象所在的区域,为实现球机与枪机的联动提供准确的参考对象,有利于联动的准确性。根据区域和坐标转换矩阵,获取球机的动作参数,为球机动作提供了明确的动作参数,使得球机在按动作参数动作后更容易追踪到目标对象,而且由于动作参数根据目标对象所在的区域和坐标转换矩阵获取,有利于对球机进行更精准的定位,球机的动作参数会随着预设的目标对象的移动而及时改变,使得球机在追踪目标对象时准确性和实时性都得到提高。根据动作参数控制球机追踪目标对象,有利于避免因为人工操作带来的追踪不及时、追踪速度慢、操作复杂等问题。综上,本发明实施方式的视频智能联动的方法有利于球机更准确、更快速、更方便的追踪到枪机监控画面中的目标对象,更好的实现枪机与球机之间的视频联动。
另外,动作参数包括水平动作角度和垂直动作角度;根据区域和坐标转换矩阵,获取球机的动作参数,具体包括:根据坐标转换矩阵获取转换坐标,转换坐标为球机坐标系中的第一中心点的坐标在枪机坐标系下的坐标;根据转换坐标和区域的中心点坐标获取中心偏移量;根据中心偏移量获取水平动作角度和垂直动作角度。通过球机坐标系中的第一中心点的坐标在枪机坐标系下的转换坐标和区域的中心点坐标获取中心偏移量,根据中心偏移量获取水平动作角度和垂直动作角度,使得可以准确的获取球机在水平方向上的动作角度和在垂直方向上的动作角度,由于动作角度是根据中心偏移量获取的,因此可以保证追踪的目标对象显示在球机的视场中心,有利于球机对目标对象的准确追踪。
另外,获取枪机和球机之间的坐标转换矩阵,具体包括:获取枪机的第一视频图像和球机的第二视频图像;根据第一视频图像和第二视频图像获取坐标转换矩阵。通过枪机拍摄的第一视频图像和球机拍摄的第二视频图像,有利于准确快速的获取枪机和球机之间的坐标转换矩阵。
另外,对第一视频图像和第二视频图像进行特征点检测,获取满足匹配原则的特征点对,具体包括:根据加速稳健特征SURF算法提取第一视频图像的特征点和第二视频图像的特征点;通过最近邻向量匹配法对第一视频图像的特征点和第二视频图像的特征点进行匹配,获取满足匹配原则的特征点对。采用SURF算法可以快速的提取到稳定性较高的特征点,通过最近邻向量匹配法对提取的特征点进行匹配使得可以找到所有的潜在的匹配的特征点对,从而有利于获取满足匹配原则的特征点对。
另外,根据特征点对获取坐标转换矩阵,具体包括:采用随机抽样一致RANSAC算法,根据特征点对获取坐标转换矩阵。采用RANSAC算法可以从包含大量特征点对的数据中估计出高精度的坐标转换矩阵,使得获取的坐标转换矩阵更加精确,从而有利于枪机与球机实现联动的精准性。
另外,在获取枪机和球机之间的坐标转换矩阵之前,还包括:对球机进行预置位,直至球机与枪机的监控画面的重叠区域达到预设比例。使球机与枪机的监控画面的重叠区域达到预设比例,寻找使重叠区域比例较大的角度进行预置位,使得球机与枪机之间的视频联动更高效。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是根据本发明第一实施方式的视频智能联动的方法的流程示意图;
图2是根据本发明第二实施方式的视频智能联动的方法的流程示意图;
图3是根据本发明第三实施方式的视频智能联动的方法的流程示意图;
图4是根据本发明第四实施方式的服务器的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的各实施方式进行详细的阐述。然而,本领域的普通技术人员可以理解,在本发明各实施方式中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
本发明的第一实施方式涉及一种视频智能联动的方法。本实施方式的核心在于获取枪机和球机之间的坐标转换矩阵;在检测到枪机的监控画面中出现预设的目标对象后,获取在监控画面中目标对象所在的区域;根据区域和坐标转换矩阵,获取球机的动作参数;根据动作参数控制球机追踪目标对象,使得实现智能联动的操作简单、速度快、定位精度高。下面对本实施方式的视频智能联动的方法的实现细节进行具体的说明,以下内容仅为方便理解提供的实现细节,并非实施本方案的必须。
本实施方式中的视频智能联动的方法的流程示意图如图1所示,包括:
步骤101:获取枪机和球机之间的坐标转换矩阵。
具体地说,可以通过服务器获取枪机和球机之间的坐标转换矩阵。服务器可以先获取枪机拍摄的第一视频图像和球机拍摄的第二视频图像,再根据第一视频图像和第二视频图像获取坐标转换矩阵。需要说明的是在实际应用中,服务器可以主动获取第一视频图像和第二视频图像,也可以由枪机将拍摄的第一视频图像发送给服务器,球机将拍摄的第二视频图像发送给服务器,使得服务器通过对第一视频图像和第二视频图像进行分析从而获取坐标转换矩阵。
另外,服务器可以对第一视频图像和第二视频图像进行特征点检测,获取满足匹配原则的特征点对,特征点对包括一个第一视频图像中的特征点和一个第二视频图像中的特征点,根据特征点对获取坐标转换矩阵。比如说,可以根据加速稳健特征SURF算法提取第一视频图像的特征点和所述第二视频图像的特征点,SURF可以处理两幅图像之间发生平移、旋转、仿射变换情况下的匹配问题,利用SURF算法,可以快速地在视频图像中选取具有较高稳定性的特征点。用SURF方法提取第一视频图像和第二视频图像的特征点后,进行特征匹配,常用的方法有:相关系数法、各种相似性度量法、最近邻匹配法等。在特征点有关信息(位置、所在尺度、主方向及特征向量)中,特征向量包含了特征点邻域的信息,由于采用向量的最近邻匹配法就可以找出潜在的特征点对而无需进行额外信息量的计算,因此本实施方式中采用最近邻向量匹配法,设N1、N2分别为第一视频图像和第二视频图像用SURF算法提取的特征点集合,采用欧式距离可以表征两个对应特征点之间的相似性。比如说,N1中的任一特征点n1i,N2中与n1i的欧式距离最小的两个特征点分别为n2j和n2j′,n1i与n2j之间的欧式距离为M1,n1i与n2j′之间的欧式距离为M2,如果M1≤ratio*M2,则认为n1i与n2j为对应的特征点对,遍历第一视频图像中的特征点,找出所有潜在的特征点对,其中比例ratio足够小时才认为这是一个匹配,ratio的具体大小可以由本领域技术人员根据实际需要进行设置,比如说一般ratio可以为0.65,本实施方式中满足预设的匹配原则可以理解为满足ratio足够小的条件。服务器在获取了满足匹配原则的特征点对后,可以根据特征点对获取坐标转换矩阵。
需要说明的是,上述最近邻匹配法得到的特征点对中,虽然比较全面,但也有可能出现误匹配。因此,较佳的,本实施方式中可以采用随机抽样一致RANSAC算法,根据特征点对获取坐标转换矩阵,使得获取的坐标转换矩阵更加准确,RANSAC是根据一组包含异常数据的样本数据集,计算出数据的数学模型参数,得到有效样本数据的算法。RANSAC算法经常用于计算机视觉中,在本实施方式中可以采用RANSAC算法,获取坐标转换矩阵。RANSAC算法的输入通常为一组观测数据和用于解释观测数据的参数化矩阵,通过RANSAC算法输出的结果就是坐标变换矩阵。比如说,在本实施方式中,观测数据可以理解为特征点对,参数化矩阵可以为仿射矩阵,仿射矩阵的模型可用如下的矩阵表示:
对于坐标转换矩阵的求解即对上述仿射矩阵的模型中各个参数的求解,可以根据特征点进行估算,计算符合上述仿射矩阵的模型的一致集,迭代多次,得到最优一致集从而获取坐标转换矩阵。本实施方式中,假设有n对特征点对:(x1,y1)与(x1′,y1′)、(x2,y2)与(x2′,y2′)……(xn,yn)与(xn′,yn′),则可以通过下面的矩阵方程计算出仿射矩阵的模型中的各个参数值,从而获取坐标转换矩阵。
值得一提的是,本实施方式中可以利用奇异值分解,通过迭代的方式,用最小二乘法减小误差,去除无匹配的影响,计算出仿射矩阵中各个参数值,从而获取坐标转换矩阵。
步骤102:在检测到枪机的监控画面中出现预设的目标对象后,获取在监控画面中目标对象所在的区域。
具体地说,服务器在检测到枪机的监控画面中出现预设的目标对象后,获取在监控画面中目标对象所在的区域。预设的目标对象可以由本领域技术人员根据实际的监控需求进行设置,比如说目标对象可以设置为戴黑色帽子的人、具体的车牌号等具有某种特征的人或物,还可以提前预设一个位置,只要出现在这个位置的人或物都可以作为目标对象,出现在银行门口的人或车辆。枪机进行的是全景的监控,目标对象可能在枪机的整个监控画面占据很小的面积,因此,服务器在检测到枪机的监控画面中出现预设的目标对象后获取在监控画面中目标对象所在的区域,从而可以使得球机将目标对象所在的区域进行放大显示,有利于球机对目标对象进行有针对性的追踪。
步骤103:根据区域和坐标转换矩阵,获取球机的动作参数。
具体地说,球机的动作参数可以为水平动作角度和垂直动作角度。服务器可以根据坐标转换矩阵获取球机坐标系中的第一中心点的坐标在枪机坐标系下的转换坐标,根据转换坐标和区域的中心点坐标获取中心偏移量,根据中心偏移量获取水平动作角度和垂直动作角度,球机坐标系下的第一中心点可以理解为球机的监控画面中的中心点。比如说,可以由坐标转换矩阵将球机坐标系下的第一中心点坐标(Ox,Oy)转换到枪机坐标系下的转换坐标通过下面的矩阵方程可以计算得到转换坐标的值:
假设枪机监控画面中的目标对象所在区域的中心点坐标为(x,y),根据转换坐标和区域的中心点坐标获取中心偏移量为(dx,dy),那么可以计算得到dx=x-Ox,dy=y-Oy。根据中心偏移量(dx,dy)获取水平动作角度θp和垂直动作角度θt,比如说,可以通过下面的公式分别计算θp和θt
其中,width和height分别为枪机拍摄的视频图像的长度和宽度,θwidth和θheight分别对应球机转动枪机width和height像素距离的角度(可实验观测得到)。
步骤104:根据动作参数控制球机追踪目标对象。
具体地说,服务器在获取球机的动作参数即水平动作角度和垂直动作角度后,可以控制球机以水平动作角度和垂直动作角度为标准转动,从而可以快速追踪到目标对象。而且由于服务器在获取球机的动作角度时,计算的标准都是各个参照物的中心点,即球机坐标系下的中心点坐标,目标区域的中心点坐标,从而根据中心偏移量获取动作参数,因此,根据动作参数控制球机转动后使得目标对象显示在球机监控的视场中心,有利于对目标对象进行清楚的监控。
与现有技术相比,本发明实施方式,获取枪机和球机之间的坐标转换矩阵,有利于枪机和球机之间进行准确的坐标转换。在检测到枪机的监控画面中出现预设的目标对象后,获取在监控画面中目标对象所在的区域,通过预设目标对象使得在检测到枪机中出现预设的目标对象时,触发球机实现与枪机的联动,获取在监控画面中目标对象所在的区域,为实现球机与枪机的联动提供准确的参考对象,有利于联动的准确性。根据区域和坐标转换矩阵,获取球机的动作参数,为球机动作提供了明确的动作参数,使得球机在按动作参数动作后更容易追踪到目标对象,而且由于动作参数根据目标对象所在的区域和坐标转换矩阵获取,有利于对球机进行更精准的定位,球机的动作参数会随着预设的目标对象的移动而及时改变,使得球机在追踪目标对象时准确性和实时性都得到提高。根据动作参数控制球机追踪目标对象,有利于避免因为人工操作带来的追踪不及时、追踪速度慢、操作复杂等问题。综上,本发明实施方式的视频智能联动的方法有利于球机更准确、更快速、更方便的追踪到枪机监控画面中的目标对象,更好的实现枪机与球机之间的视频联动。
本发明的第二实施方式涉及一种视频智能联动的方法。第二实施方式是第一实施方式的进一步改进,主要改进之处在于:在本发明第二实施方式中,在获取枪机和球机之间的坐标转换矩阵之后,还包括:获取枪机与球机之间的比例系数;根据动作参数控制球机追踪目标对象,具体为:将动作参数和比例系数结合后,控制球机追踪所述目标对象,有利于球机对目标对象的有效追踪。
本实施方式中的视频智能联动的方法的流程示意图如图2所示,包括:
步骤201:获取枪机和球机之间的坐标转换矩阵。
由于本实施方式中步骤201与第一实施方式中步骤101大致相同,因此,为避免重复在此不再赘述。
步骤202:获取枪机与球机之间的比例系数。
具体地说,服务器获取枪机与球机之间的比例系数可以为,根据球机坐标系下的第一中心点获取枪机坐标系下的第二中心点,获取第一特征点到第一中心点的第一距离,第一特征点为特征点对中的第一视频图像中的特征点,获取第二特征点到第二中心点的第二距离,第二特征点为特征点对中的第二视频图像中的特征点,根据第一距离和第二距离获取比例系数。比如说,根据坐标转换矩阵可以计算出球机坐标系下的第一中心点映射到枪机坐标系下的第二中心点,从而能够分别计算特征点对到各自中心点的距离,根据两个距离的比值获取比例系数,由于通常会有多对特征点对,因此可以根据多对特征点对分别求出多个比例系数,再将多个比例系数的平均值作为最终的比例系数,比如比例系数scale可以由以下公式表示:
其中,表示枪机中心(第二中心点)到枪机帧各特征点的距离,为球机中心(第一中心点)到球机帧各特征点的距离。得到比例系数scale后,即可实现球机与枪机精确变比,使得枪机画面中追踪到的目标对象更加清晰具体。
步骤203:在检测到枪机的监控画面中出现预设的目标对象后,获取在监控画面中目标对象所在的区域。
步骤204:根据区域和坐标转换矩阵,获取球机的动作参数。
由于本实施方式中步骤203至步骤204分别与第一实施方式中步骤202至步骤203大致相同,因此,为避免重复,在此不再一一赘述。
步骤205:将动作参数和比例系数结合后,控制球机追踪目标对象。
具体地说,服务器可以先根据动作参数控制球机的转动角度,再结合比例系数调节监控画面的比例大小,也可以先根据比例系数调节监控画面的比例大小,再根据动作参数控制球机的转动角度,当然也可以将动作参数和比例系数结合起来同时控制球机的转动角度和监控画面的比例大小。
与现有技术相比,本发明实施方式,通过获取枪机与球机之间的比例系数,将动作参数和比例系数结合后,控制球机追踪目标对象,使得在控制球机追踪目标对象时,不仅能根据动作参数调节球机的转动角度,还能根据比例系数适当的放大目标对象,即动作参数使得球机准确追踪到目标对象的位置,控制目标对象显示在球机的视场中心,比例系数可以控制球机对目标对象放大显示,使得对目标对象进行更加清楚具体的定位,清晰的监控到目标对象的具体细节,有利于球机对目标对象进行更有效的追踪,从而更好的实现球机与枪机之间的智能联动。
本发明的第三实施方式涉及一种视频智能联动的方法。第三实施方式是第二实施方式的进一步改进,主要改进之处在于:在本发明第三实施方式中,在获取枪机和球机之间的坐标转换矩阵之前,还包括:对球机进行预置位,直至球机与枪机的监控画面的重叠区域达到预设比例,寻找使重叠区域比例较大的角度进行预置位,使得球机与枪机之间的视频联动更高效。
本实施方式中的视频智能联动的方法的流程示意图如图3所示,包括:
步骤301:对球机进行预置位,直至球机与枪机的监控画面的重叠区域达到预设比例。
具体地说,球机启动后可以先对球机进行预置位使得球机自动转到预置位。对于预置位的设定,初次使用时可以在固定云台后,在焦距最小视场最大的设定下,控制球机动作,使得球机的监控画面与枪机的监控画面的重叠区域达到预设比例,记下此时的球机的方位角和俯仰角,并设定为预置位,预设比例可以有本领域技术人员根据实际需求进行设置。可以理解的是,将球机朝向与枪机朝向一致,此时也可认为设定的预置位即为枪机启动时刻的位置。对于不带预置位功能的球机,也可以用软件编程方法实现,初期以大角度偏移来寻找,判断重叠区域比例,达到一定比例后即停止大角度偏移寻找过程。总体来说,整体过程就是大角度置位寻找,小角度修正,最终在球机的监控画面与枪机的监控画面的重叠区域达到预设比例后,记下此时的球机的方位角和俯仰角,并设定为预置位。
步骤302:获取枪机和球机之间的坐标转换矩阵。
步骤303:获取枪机与球机之间的比例系数。
步骤304:在检测到枪机的监控画面中出现预设的目标对象后,获取在监控画面中目标对象所在的区域。
步骤305:根据区域和坐标转换矩阵,获取球机的动作参数。
步骤306:将动作参数和比例系数结合后,控制球机追踪目标对象。
由于本实施方式中步骤302至步骤306分别与第一实施方式中步骤201至步骤205大致相同,因此,为避免重复在此不再赘述。
与现有技术相比,本发明实施方式,通过在获取枪机和球机之间的坐标转换矩阵之前,对球机进行预置位,直至球机与枪机的监控画面的重叠区域达到预设比例。使球机与枪机的监控画面的重叠区域达到预设比例,寻找使重叠区域比例较大的角度进行预置位,使得球机与枪机之间的视频联动更高效。
上面各种方法的步骤划分,只是为了描述清楚,实现时可以合并为一个步骤或者对某些步骤进行拆分,分解为多个步骤,只要包括相同的逻辑关系,都在本专利的保护范围内;对算法中或者流程中添加无关紧要的修改或者引入无关紧要的设计,但不改变其算法和流程的核心设计都在该专利的保护范围内。
本发明第四实施方式涉及一种服务器,如图4所示,包括至少一个处理器401;以及与至少一个处理器401通信连接的存储器402;其中,存储器402存储有可被至少一个处理器401执行的指令,指令被至少一个处理器401执行,以使至少一个处理器401能够执行上述视频智能联动的方法实施例。
其中,存储器402和处理器401采用总线方式连接,总线可以包括任意数量的互联的总线和桥,总线将一个或多个处理器和存储器402的各种电路连接在一起。总线还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路连接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口在总线和收发机之间提供接口。收发机可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器401处理的数据通过天线在无线介质上进行传输,进一步,天线还接收数据并将数据传送给处理器401。
处理器401负责管理总线和通常的处理,还可以提供各种功能,包括定时,外围接口,电压调节、电源管理以及其他控制功能。而存储器402可以被用于存储处理器401在执行操作时所使用的数据。
即,本领域技术人员可以理解,实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域的普通技术人员可以理解,上述各实施方式是实现本发明的具体实施例,而在实际应用中,可以在形式上和细节上对其作各种改变,而不偏离本发明的精神和范围。

Claims (10)

1.一种视频智能联动的方法,其特征在于,包括:
获取枪机和球机之间的坐标转换矩阵;
在检测到所述枪机的监控画面中出现预设的目标对象后,获取在所述监控画面中所述目标对象所在的区域;
根据所述区域和所述坐标转换矩阵,获取所述球机的动作参数;
根据所述动作参数控制所述球机追踪所述目标对象。
2.根据权利要求1所述的视频智能联动的方法,其特征在于,所述动作参数包括水平动作角度和垂直动作角度;所述根据所述区域和所述坐标转换矩阵,获取所述球机的动作参数,具体包括:
根据所述坐标转换矩阵获取转换坐标,所述转换坐标为球机坐标系中的第一中心点的坐标在枪机坐标系下的坐标;
根据所述转换坐标和所述区域的中心点坐标获取中心偏移量;
根据所述中心偏移量获取所述水平动作角度和所述垂直动作角度。
3.根据权利要求1所述的视频智能联动的方法,其特征在于,所述获取枪机和球机之间的坐标转换矩阵,具体包括:
获取所述枪机的第一视频图像和所述球机的第二视频图像;
根据所述第一视频图像和所述第二视频图像获取所述坐标转换矩阵。
4.根据权利要求3所述的视频智能联动的方法,其特征在于,所述根据所述第一视频图像和所述第二视频图像获取所述坐标转换矩阵,具体包括:
对所述第一视频图像和所述第二视频图像进行特征点检测,获取满足匹配原则的特征点对,其中,所述特征点对包括一个第一视频图像中的特征点和一个第二视频图像中的特征点;
根据所述特征点对获取所述坐标转换矩阵。
5.根据权利要求4所述的视频智能联动的方法,其特征在于,所述对所述第一视频图像和所述第二视频图像进行特征点检测,获取满足匹配原则的特征点对,具体包括:
根据加速稳健特征SURF算法提取所述第一视频图像的特征点和所述第二视频图像的特征点;
通过最近邻向量匹配法对所述第一视频图像的特征点和所述第二视频图像的特征点进行匹配,获取满足匹配原则的特征点对。
6.根据权利要求4所述的视频智能联动的方法,其特征在于,所述根据所述特征点对获取所述坐标转换矩阵,具体包括:
采用随机抽样一致RANSAC算法,根据所述特征点对获取所述坐标转换矩阵。
7.根据权利要求4所述的视频智能联动的方法,其特征在于,在所述获取枪机和球机之间的坐标转换矩阵之后,还包括:
获取所述枪机与所述球机之间的比例系数;
所述根据所述动作参数控制所述球机追踪所述目标对象,具体为:
将所述动作参数和所述比例系数结合后,控制所述球机追踪所述目标对象。
8.根据权利要求7所述的视频智能联动的方法,其特征在于,所述获取所述枪机与所述球机之间的比例系数具体包括:
根据球机坐标系下的第一中心点获取枪机坐标系下的第二中心点;
获取第一特征点到所述第一中心点的第一距离,其中,所述第一特征点为所述特征点对中的第一视频图像中的特征点;
获取第二特征点到所述第二中心点的第二距离,其中,所述第二特征点为所述特征点对中的第二视频图像中的特征点;
根据所述第一距离和所述第二距离获取所述比例系数。
9.根据权利要求1所述的视频智能联动的方法,其特征在于,在所述获取枪机和球机之间的坐标转换矩阵之前,还包括:
对所述球机进行预置位,直至所述球机与所述枪机的监控画面的重叠区域达到预设比例。
10.一种服务器,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至9中任一所述的视频智能联动的方法。
CN201810103335.4A 2018-02-01 2018-02-01 视频智能联动的方法及服务器 Active CN110113560B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810103335.4A CN110113560B (zh) 2018-02-01 2018-02-01 视频智能联动的方法及服务器

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810103335.4A CN110113560B (zh) 2018-02-01 2018-02-01 视频智能联动的方法及服务器

Publications (2)

Publication Number Publication Date
CN110113560A true CN110113560A (zh) 2019-08-09
CN110113560B CN110113560B (zh) 2021-06-04

Family

ID=67483617

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810103335.4A Active CN110113560B (zh) 2018-02-01 2018-02-01 视频智能联动的方法及服务器

Country Status (1)

Country Link
CN (1) CN110113560B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110636264A (zh) * 2019-09-23 2019-12-31 天津天地人和企业管理咨询有限公司 一种高空抛物智能检测预警系统及方法
CN110996041A (zh) * 2019-10-15 2020-04-10 安徽清新互联信息科技有限公司 一种图像采集设备的自动巡检方法及系统
CN111565299A (zh) * 2020-05-06 2020-08-21 苏州新舟锐视信息技术科技有限公司 一种车载多个枪机一个球机联动抓拍目标的方法
CN112954274A (zh) * 2021-02-04 2021-06-11 三亚海兰寰宇海洋信息科技有限公司 一种用于船舶的视频抓拍方法及系统
CN113194263A (zh) * 2021-07-01 2021-07-30 中国南方电网有限责任公司超高压输电公司广州局 枪球联动控制方法、装置、计算机设备和存储介质
CN114630047A (zh) * 2022-03-03 2022-06-14 北京佳服信息科技有限公司 一种多球机调用方法、装置、设备及可读存储介质
CN115348385A (zh) * 2022-07-06 2022-11-15 深圳天海宸光科技有限公司 一种枪球联动的足球检测方法及系统

Citations (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060007308A1 (en) * 2004-07-12 2006-01-12 Ide Curtis E Environmentally aware, intelligent surveillance device
US20060152584A1 (en) * 2005-01-11 2006-07-13 Chao-Ming Wang Method for calculating a transform coordinate on a second video of an object having a target coordinate on a first video and related operation process and video surveillance system
US20060203090A1 (en) * 2004-12-04 2006-09-14 Proximex, Corporation Video surveillance using stationary-dynamic camera assemblies for wide-area video surveillance and allow for selective focus-of-attention
CN101033963A (zh) * 2007-04-10 2007-09-12 南京航空航天大学 基于指端标记的视频手指定位系统及其定位方法
CN101883261A (zh) * 2010-05-26 2010-11-10 中国科学院自动化研究所 大范围监控场景下异常目标检测及接力跟踪的方法及系统
CN102103747A (zh) * 2009-12-16 2011-06-22 中国科学院电子学研究所 采用参照物高度的监控摄像机外部参数标定方法
CN102148965A (zh) * 2011-05-09 2011-08-10 上海芯启电子科技有限公司 多目标跟踪特写拍摄视频监控系统
CN102231799A (zh) * 2011-06-29 2011-11-02 上海芯启电子科技有限公司 一种ptz摄像机瞬时光学就位系统及其方法
CN102497543A (zh) * 2012-01-06 2012-06-13 合肥博微安全电子科技有限公司 一种基于dsp的多目标跟踪方法及系统
CN102622732A (zh) * 2012-03-14 2012-08-01 上海大学 一种前扫声纳图像拼接方法
CN103077532A (zh) * 2012-12-24 2013-05-01 天津市亚安科技股份有限公司 一种实时视频目标快速跟踪方法
CN103270540A (zh) * 2010-12-30 2013-08-28 派尔高公司 使用摄像机网络跟踪运动对象
CN103679687A (zh) * 2012-09-18 2014-03-26 杭州海康威视数字技术股份有限公司 一种智能跟踪高速球机的目标跟踪的方法
CN103700140A (zh) * 2014-01-06 2014-04-02 武汉烽火众智数字技术有限责任公司 用于单枪机-多球机联动的空间建模方法
CN104378582A (zh) * 2013-08-16 2015-02-25 北京博思廷科技有限公司 一种基于ptz摄像机巡航的智能视频分析系统及方法
CN104506826A (zh) * 2015-01-13 2015-04-08 中南大学 一种无有效重叠区域的定点定向视频实时拼接装置
US20160191799A1 (en) * 2004-08-06 2016-06-30 Sony Corporation System and method for correlating camera views
US20160196667A1 (en) * 2010-08-31 2016-07-07 Cast Group Of Companies Inc. System and Method for Tracking
US20160292865A1 (en) * 2015-04-02 2016-10-06 Sportvision, Inc. Automated framing and selective discard of parts of high resolution videos of large event space
CN106303410A (zh) * 2016-08-01 2017-01-04 北京工商大学 一种基于全景视频和球机预置位的枪球机联动方法
CN106408551A (zh) * 2016-05-31 2017-02-15 北京格灵深瞳信息技术有限公司 一种监控装置控制的方法及装置

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060007308A1 (en) * 2004-07-12 2006-01-12 Ide Curtis E Environmentally aware, intelligent surveillance device
US20160191799A1 (en) * 2004-08-06 2016-06-30 Sony Corporation System and method for correlating camera views
US20060203090A1 (en) * 2004-12-04 2006-09-14 Proximex, Corporation Video surveillance using stationary-dynamic camera assemblies for wide-area video surveillance and allow for selective focus-of-attention
US20060152584A1 (en) * 2005-01-11 2006-07-13 Chao-Ming Wang Method for calculating a transform coordinate on a second video of an object having a target coordinate on a first video and related operation process and video surveillance system
CN101033963A (zh) * 2007-04-10 2007-09-12 南京航空航天大学 基于指端标记的视频手指定位系统及其定位方法
CN102103747A (zh) * 2009-12-16 2011-06-22 中国科学院电子学研究所 采用参照物高度的监控摄像机外部参数标定方法
CN101883261A (zh) * 2010-05-26 2010-11-10 中国科学院自动化研究所 大范围监控场景下异常目标检测及接力跟踪的方法及系统
US20160196667A1 (en) * 2010-08-31 2016-07-07 Cast Group Of Companies Inc. System and Method for Tracking
CN103270540A (zh) * 2010-12-30 2013-08-28 派尔高公司 使用摄像机网络跟踪运动对象
CN102148965A (zh) * 2011-05-09 2011-08-10 上海芯启电子科技有限公司 多目标跟踪特写拍摄视频监控系统
CN102231799A (zh) * 2011-06-29 2011-11-02 上海芯启电子科技有限公司 一种ptz摄像机瞬时光学就位系统及其方法
CN102497543A (zh) * 2012-01-06 2012-06-13 合肥博微安全电子科技有限公司 一种基于dsp的多目标跟踪方法及系统
CN102622732A (zh) * 2012-03-14 2012-08-01 上海大学 一种前扫声纳图像拼接方法
CN103679687A (zh) * 2012-09-18 2014-03-26 杭州海康威视数字技术股份有限公司 一种智能跟踪高速球机的目标跟踪的方法
US20150229841A1 (en) * 2012-09-18 2015-08-13 Hangzhou Hikvision Digital Technology Co., Ltd. Target tracking method and system for intelligent tracking high speed dome camera
CN103077532A (zh) * 2012-12-24 2013-05-01 天津市亚安科技股份有限公司 一种实时视频目标快速跟踪方法
CN104378582A (zh) * 2013-08-16 2015-02-25 北京博思廷科技有限公司 一种基于ptz摄像机巡航的智能视频分析系统及方法
CN103700140A (zh) * 2014-01-06 2014-04-02 武汉烽火众智数字技术有限责任公司 用于单枪机-多球机联动的空间建模方法
CN104506826A (zh) * 2015-01-13 2015-04-08 中南大学 一种无有效重叠区域的定点定向视频实时拼接装置
US20160292865A1 (en) * 2015-04-02 2016-10-06 Sportvision, Inc. Automated framing and selective discard of parts of high resolution videos of large event space
CN106408551A (zh) * 2016-05-31 2017-02-15 北京格灵深瞳信息技术有限公司 一种监控装置控制的方法及装置
CN106303410A (zh) * 2016-08-01 2017-01-04 北京工商大学 一种基于全景视频和球机预置位的枪球机联动方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
张金鑫: "枪球联动智能跟踪系统的设计", 《中国优秀硕士学位论文全文数据库(电子期刊) 信息科技辑》 *
石皓: "用于全景与PTZ主从摄像机的标定方法研究", 《中国优秀硕士学位论文全文数据库(电子期刊)信息科技辑》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110636264A (zh) * 2019-09-23 2019-12-31 天津天地人和企业管理咨询有限公司 一种高空抛物智能检测预警系统及方法
CN110636264B (zh) * 2019-09-23 2022-05-13 天地伟业技术有限公司 一种高空抛物智能检测预警系统及方法
CN110996041A (zh) * 2019-10-15 2020-04-10 安徽清新互联信息科技有限公司 一种图像采集设备的自动巡检方法及系统
CN111565299A (zh) * 2020-05-06 2020-08-21 苏州新舟锐视信息技术科技有限公司 一种车载多个枪机一个球机联动抓拍目标的方法
CN112954274A (zh) * 2021-02-04 2021-06-11 三亚海兰寰宇海洋信息科技有限公司 一种用于船舶的视频抓拍方法及系统
CN113194263A (zh) * 2021-07-01 2021-07-30 中国南方电网有限责任公司超高压输电公司广州局 枪球联动控制方法、装置、计算机设备和存储介质
CN113194263B (zh) * 2021-07-01 2021-10-22 中国南方电网有限责任公司超高压输电公司广州局 枪球联动控制方法、装置、计算机设备和存储介质
CN114630047A (zh) * 2022-03-03 2022-06-14 北京佳服信息科技有限公司 一种多球机调用方法、装置、设备及可读存储介质
CN114630047B (zh) * 2022-03-03 2024-02-02 北京佳服信息科技有限公司 一种多球机调用方法、装置、设备及可读存储介质
CN115348385A (zh) * 2022-07-06 2022-11-15 深圳天海宸光科技有限公司 一种枪球联动的足球检测方法及系统
CN115348385B (zh) * 2022-07-06 2024-03-01 深圳天海宸光科技有限公司 一种枪球联动的足球检测方法及系统

Also Published As

Publication number Publication date
CN110113560B (zh) 2021-06-04

Similar Documents

Publication Publication Date Title
CN110113560A (zh) 视频智能联动的方法及服务器
EP2956891B1 (en) Segmenting objects in multimedia data
CN103997624B (zh) 重叠域双摄像头目标跟踪系统及方法
CN103854283A (zh) 一种基于在线学习的移动增强现实跟踪注册方法
CN103177241A (zh) 利用视频图像处理技术定位输电线路间隔棒的方法
CN110197185B (zh) 一种基于尺度不变特征变换算法监测桥下空间的方法和系统
CN112561973A (zh) 训练图像配准模型的方法、装置和电子设备
CN105488541A (zh) 增强现实系统中基于机器学习的自然特征点识别方法
Ye et al. An image-based approach for automatic detecting tasseling stage of maize using spatio-temporal saliency
CN108596032B (zh) 一种视频中打架行为检测方法、装置、设备及介质
CN103353941A (zh) 基于视角分类的自然标志物注册方法
CN116097307A (zh) 图像的处理方法及相关设备
CN115690545B (zh) 训练目标跟踪模型和目标跟踪的方法和装置
CN108876672A (zh) 一种远程教育教师自动识别图像优化跟踪方法及系统
CN106934339B (zh) 一种目标跟踪、跟踪目标识别特征的提取方法和装置
CN106778822B (zh) 基于漏斗变换的图像直线检测方法
CN112418112A (zh) 一种果园病虫害监测预警方法及系统
CN115601834A (zh) 基于WiFi信道状态信息的跌倒检测方法
CN115767424A (zh) 一种基于rss与csi融合的视频定位方法
CN106033550B (zh) 目标跟踪方法及装置
CN115249254B (zh) 一种基于ar技术的目标跟踪方法及系统
CN117079197B (zh) 一种智慧工地管理方法及系统
Peng et al. PMCMA: Pattern mining in SAR time series by change matrix analysis
CN117423138B (zh) 基于多分支结构的人体跌倒检测方法、装置及系统
Zhang et al. Research on binocular real-time ranging method in window area

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant