CN111815672A - 动态跟踪控制方法、装置及控制设备 - Google Patents

动态跟踪控制方法、装置及控制设备 Download PDF

Info

Publication number
CN111815672A
CN111815672A CN201910296039.5A CN201910296039A CN111815672A CN 111815672 A CN111815672 A CN 111815672A CN 201910296039 A CN201910296039 A CN 201910296039A CN 111815672 A CN111815672 A CN 111815672A
Authority
CN
China
Prior art keywords
camera
coordinates
picture
coordinate
longitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910296039.5A
Other languages
English (en)
Other versions
CN111815672B (zh
Inventor
汪智凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Uniview Technologies Co Ltd
Original Assignee
Zhejiang Uniview Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Uniview Technologies Co Ltd filed Critical Zhejiang Uniview Technologies Co Ltd
Priority to CN201910296039.5A priority Critical patent/CN111815672B/zh
Publication of CN111815672A publication Critical patent/CN111815672A/zh
Application granted granted Critical
Publication of CN111815672B publication Critical patent/CN111815672B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

本申请实施例提供一种动态跟踪控制方法、装置及控制设备,利用建立的坐标转换模型将智能相机获取的目标对象的相对位置转换为绝对位置信息,并获得视角所对应的经纬度范围包含该绝对位置的跟踪相机。再根据坐标转换模型将目标对象的绝对位置信息转换为相对于跟踪相机的相对位置信息,并控制设备参数变化以使目标对象保持在跟踪相机的拍摄画面的中间位置,从而实现跟踪相机对目标对象的定位跟踪。该动态跟踪控制方案,借助智能相机对目标对象的识别信息,并结合建立的坐标转换模型,实现系统中其他相机的联动功能。改善了现有技术中的需要后台设备进行视频分析处理所造成的处理量大、跟踪滞后的缺陷。

Description

动态跟踪控制方法、装置及控制设备
技术领域
本申请涉及视频监控技术领域,具体而言,涉及一种动态跟踪控制方法、装置及控制设备。
背景技术
在使用监控系统进行目标跟踪时,非智能相机虽然具有远视野、大场景等特点,视野范围较大,但是非智能相机无法实现自动的目标跟踪的功能。为了改善非智能相机无法实现对目标对象的定位跟踪的问题,一般利用后台设备对非智能相机采集的视频进行分析处理,从而检测出其中的目标对象,进而控制非智能相机跟踪到目标对象。这种方式需要后台设备对视频流进行分析处理,处理量大且跟踪滞后。此外,智能相机虽然能够实现目标对象的动态跟踪,但是对目标对象的识别及查找过程处理量大,存在较大的处理负担的问题。
发明内容
本申请提供一种动态跟踪控制方法、装置及控制设备。
本申请实施例提供一种动态跟踪控制方法,应用于控制设备,所述控制设备分别与智能相机及非智能相机通信连接,所述控制设备中预存有所述非智能相机及所述智能相机的视角所对应的经纬度范围,所述方法包括:
接收智能相机识别并发送的目标对象的第一画面坐标,其中,所述第一画面坐标为所述目标对象在所述智能相机的拍摄画面中的坐标;
根据预先建立的所述智能相机的坐标转换模型,获得与所述第一画面坐标对应的经纬度坐标及高度值;
查找预存的所述经纬度范围,获得视角所对应的经纬度范围包含所述经纬度坐标的非智能相机和/或智能相机,作为跟踪相机;
根据预先建立的所述跟踪相机的坐标转换模型,获得与所述经纬度坐标及高度值对应的第二三维坐标,并获得与所述第二三维坐标对应的第二画面坐标,其中,所述第二画面坐标为所述目标对象在所述跟踪相机的拍摄画面中的坐标;
基于预先建立的设备参数与三维坐标系之间的对应关系,根据所述第二画面坐标和所述第二三维坐标获得使所述目标对象处于所述跟踪相机的拍摄画面的中间位置的设备参数。
本申请另一实施例还提供一种动态跟踪控制装置,应用于控制设备,所述控制设备分别与智能相机及非智能相机通信连接,所述控制设备中预存有所述非智能相机及所述智能相机的视角所对应的经纬度范围,所述装置包括:
接收模块,用于接收智能相机识别并发送的目标对象的第一画面坐标,其中,所述第一画面坐标为所述目标对象在所述智能相机的拍摄画面中的坐标;
第一获取模块,用于根据预先建立的所述智能相机的坐标转换模型,获得与所述第一画面坐标对应的经纬度坐标及高度值;
查找模块,用于查找预存的所述经纬度范围,获得视角所对应的经纬度范围包含所述经纬度坐标的非智能相机和/或智能相机,作为跟踪相机;
第二获取模块,用于根据预先建立的所述跟踪相机的坐标转换模型,获得与所述经纬度坐标及高度值对应的第二三维坐标,并获得与所述第二三维坐标对应的第二画面坐标,其中,所述第二画面坐标为所述目标对象在所述跟踪相机的拍摄画面中的坐标;
第三获取模块,用于基于预先建立的设备参数与三维坐标系之间的对应关系,根据所述第二画面坐标和所述第二三维坐标获得使所述目标对象处于所述跟踪相机的拍摄画面的中间位置的设备参数。
本申请另一实施例还提供一种控制设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的方法步骤。
本申请另一实施例还提供一种可读存储介质,该可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述的方法步骤。
本申请实施例提供的动态跟踪控制方法、装置及控制设备,利用建立的坐标转换模型将智能相机获取的目标对象的相对位置转换为绝对位置信息,并获得视角所对应的经纬度范围包含该绝对位置的非智能相机和/或智能相机以作为跟踪相机。再根据坐标转换模型将目标对象的绝对位置信息转换为相对于跟踪相机的相对位置信息,并控制设备参数变化以使目标对象保持在跟踪相机的拍摄画面的中间位置,从而实现跟踪相机对目标对象的定位跟踪。该动态跟踪控制方案,借助智能相机对目标对象的识别信息,并结合建立的坐标转换模型,实现系统中的其他相机的联动功能,使得非智能相机实现对目标对象的动态跟踪,并且其他的智能相机无需自主对目标对象进行识别定位的情况下也能够实现对目标对象的动态跟踪。改善了现有技术中的需要后台设备进行视频分析处理所造成的处理量大、跟踪滞后的缺陷。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的动态跟踪控制方法的应用场景示意图。
图2为本申请实施例提供的控制设备的示意性结构框图。
图3为本申请实施例提供的动态跟踪控制方法的流程图。
图4为本申请实施例提供的动态跟踪控制方法的另一流程图。
图5为本申请实施例提供的画面坐标、三维坐标及经纬度坐标之间的关系示意图。
图6为本申请实施例提供的动态跟踪方法控制的另一流程图。
图7为本申请实施例提供的相机可视的经纬度范围的示意图。
图8为本申请实施例提供的相机可视的经纬度范围的另一示意图。
图9为本申请实施例提供的动态跟踪控制装置的功能模块框图。
图标:100-控制设备;110-处理器;120-存储器;130-动态跟踪控制装置;131-接收模块;132-第一获取模块;133-查找模块;134-第二获取模块;135-第三获取模块;200-智能相机;300-非智能相机。
具体实施方式
在使用监控系统进行目标跟踪时,智能相机虽能实现对目标对象的定位跟踪,但是由于对识别像素要求较高,因此智能相机视野范围一般较小,当目标对象离开智能相机视野范围后,很难确定目标当前在哪个相机的视野范围,容易跟丢。而具有大视野的相机,由于目标像素限制,因此一般为非智能相机,可以借助非智能相机大视野的特点来实现目标对象的查找。但是非智能相机无法实现自动的目标跟踪的功能,而整个监控系统中由于成本的限制以及监控设备的需求量较大,投入使用非智能相机不可避免。并且,若各个智能相机均需自主、独立实现目标对象的识别及查找,存在数量处理量较大、处理负担过重的问题。
基于上述研究发现,本申请提供一种动态跟踪控制方案,通过借助智能相机对目标对象的识别信息,并结合建立的坐标转换模型,得到目标对象相对于非智能相机或系统中其他智能相机的位置信息。无需提升非智能相机的硬件性能的前提下,使非智能相机具有动态跟踪目标对象的功能。从而改善现有技术中的需要后台设备进行视频分析处理所造成的处理量大、跟踪滞后的缺陷。并且,对于系统中的其他智能相机,可以借助于已对目标对象进行识别的智能相机的识别信息,来实现对目标对象的定位,无需自身再进行识别及定位,减轻了处理负担。
下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。
因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
请参阅图1,为本申请实施例提供的一种动态跟踪控制方法的应用场景示意图。该场景包括控制设备100以及多个智能相机200和多个非智能相机300,所述控制设备100通过网络与各所述智能相机200及各非智能相机300通信连接,以进行数据通信或交互。在本实施例中,智能相机200和非智能相机300为具有图像采集功能的终端设备,智能相机200可实现对目标对象的定位跟踪功能,非智能相机300不具备对目标对象的定位跟踪功能。所述控制设备100为交通指挥中心的终端设备,所述控制设备100可接收各智能相机200及非智能相机300发送的数据流并进行分析、处理。所述控制设备100可以是但不限于,计算机、服务器等。
请参阅图2,为本申请实施例提供的一种电子设备的示意性结构框图。在本实施例中,所述电子设备可以为上述的控制设备100,所述控制设备100包括动态跟踪控制装置130、处理器110及存储器120。其中,所述存储器120与所述处理器110之间直接或间接的电性连接,以实现数据的传输或交互。所述动态跟踪控制装置130包括至少一个可以软件或固件的形式存储于所述存储器120中或固化在所述摄像设备100的操作系统中的软件功能模块。所述处理器110用于执行所述存储器120中存储的可执行模块,例如所述动态跟踪控制装置130包括的软件功能模块或计算机程序。
请参阅图3,是本申请实施例提供的一种应用于上述控制设备100的动态跟踪控制方法的流程图。所应说明的是,本申请提供的方法不以图3及以下所述的具体顺序为限制。下面将对图3中示出的各步骤进行详细说明。
步骤310,接收智能相机200识别并发送的目标对象的第一画面坐标,其中,所述第一画面坐标为所述目标对象在所述智能相机200的拍摄画面中的坐标。
本实施例中,在正式进行目标对象的定位跟踪之前,需预先建立整个监控系统中的智能相机200及非智能相机300的坐标信息的转换模型。该转换模型可包括画面坐标、三维坐标及经纬度坐标之间的对应关系,可选地,请参阅图4,可预先通过以下步骤建立坐标转换模型:
步骤410,为待标定相机建立三维坐标系,其中,所述待标定相机为任一智能相机200或任一非智能相机300。
步骤420,获得所述待标定相机的拍摄画面内的标定点的画面坐标。
步骤430,根据所述待标定相机的设备高度值及画面坐标得到所述标定点在所述三维坐标系下的三维坐标。
本实施例中,对于智能相机200或非智能相机300的坐标转换模型的建立方式相同,因此将待建立模型的智能相机200或非智能相机300命名为待标定相机。待标定相机的设备参数,例如相机的俯仰角、水平角、变焦倍数等将影响到相机的拍摄角度、拍摄画面范围以及清晰度等,进而影响到相机拍摄到的画面中各点的三维坐标。因此,可在待标定相机的不同设备参数下为待标定相机建立对应的三维坐标系。
进一步地,获得待标定相机的拍摄画面内的标定点的画面坐标,并结合待标定相机的设备高度值及画面坐标得到标定点在对应三维坐标系下的三维坐标。
应当理解,画面坐标为二维坐标,将画面坐标转换为三维坐标的重点在于获得标定点在对应的三维坐标系中的高度值。本实施例中,借助于待标定相机的参考相机的相关信息将标定点的画面坐标转换为三维坐标。其中,该参考相机为拍摄画面与待标定相机的拍摄画面具有重合点的任一智能相机200或任一非智能相机300,而标定点为待标定相机和参考相机的拍摄画面中的重合点中的任意一点。
获取标定点在参考相机的拍摄画面中的画面坐标,并获取待标定相机的设备高度值以及参考相机的设备高度值。应当理解,待标定相机和参考相机的设备高度值为待标定相机和参考相机在安装固定之后,存储至控制设备100中的。
根据待标定相机的设备高度值、参考相机的设备高度值、标定点在待标定相机的拍摄画面中的画面坐标以及标定点在参考相机的拍摄画面中的画面坐标,得到标定点在对应三维坐标系下的三维坐标。
步骤440,根据所述待标定相机的经纬度坐标,以及该待标定相机的拍摄画面中的设定点的经纬度坐标获得所述标定点的经纬度坐标,其中,所述设定点为已知经纬度坐标的点。
步骤450,根据所述标定点的画面坐标、三维坐标及经纬度坐标之间的关系得到所述坐标转换模型。
本实施例中,在待标定相机安装固定之后,待标定相机本身的经纬度坐标即可确定。可获取待标定相机的拍摄画面中的一设定点的经纬度坐标,其中,该设定点为已知经纬度坐标的点,例如标志性的指示牌、红绿灯等固定不变的具有确定坐标的点。再根据待标定相机的经纬度坐标以及该设定点的经纬度坐标获得标定点的经纬度坐标。
在获得待标定相机的拍摄画面中的标定点的画面坐标、对应三维坐标系下的三维坐标以及其经纬度坐标之后,可根据标定点的画面坐标、三维坐标及经纬度坐标之间的关系得到坐标转换模型。应当理解,对于任一智能相机200或任一非智能相机300,其拍摄画面中的任意一点可为其他的至少一个相机的拍摄画面中的一点的重合点。因此,对于任一智能相机200或任一非智能相机300中的任意一点,可根据上述方式建立其画面坐标、三维坐标及经纬度坐标之间的对应关系,其中,图5中示意性地示出了画面坐标、三维坐标及经纬度坐标之间的关系。
为了便于后续可便捷地确定出可定位跟踪到相应目标对象的非智能相机300和/或智能相机200,可预先计算出各个非智能相机300及智能相机200的视角所对应的经纬度范围并进行存储,后续便于查找。可选地,请参阅图6,可通过以下方式获得各个非智能相机300及智能相机200的视角所对应的经纬度范围:
步骤610,针对任一非智能相机300或智能相机200,获得所述非智能相机300或智能相机200的设备参数可变范围。
步骤620,根据所述设备参数可变范围获得所述非智能相机300或智能相机200的可视起点、可视最远距离及可视角度。
步骤630,根据所述非智能相机300或智能相机200的经纬度值、所述可视起点、可视最远距离及可视角度计算得到所述非智能相机300可视的经纬度范围。
由上述可知,相机的设备参数,例如俯仰角、水平角等将影响到相机的拍摄角度、范围等。而相机(包括非智能相机300或智能相机200)的设备参数主要是影响到相机的可视起点、可视最远距离以及可视角度等拍摄参数。因此,可根据相机的设备参数可变范围获得对应的可视起点、可视最远距离及可视角度。
再根据相机本身的经纬度值、可视起点、可视最远距离及可视角度,并按以下公式计算得到该相机可视的经纬度范围:
Jx=J0+rcosθ
Wx=W0+rcosθ
θ∈(0°,α),r∈(r1,r1+r2)
其中,(Jx,Wx)为可视的经纬度范围,(J0,W0)为所述非智能相机300或智能相机200的经纬度值,r1为可视起点,r1+r2为可视最远距离,α为可视角度。
其中,相机主要分为固定角度的相机以及球机/云台相机。对于固定角度的相机,其可视角度较小,对应的可视经纬度范围如图7中所示。而对于球机或云台相机,其可视角度较大,可达到360度,即α可为360o,对应的可视经纬度范围可如图8所示。
在计算得到各个非智能相机300及智能相机200可视的经纬度范围后,可存储至控制设备100中。
步骤320,根据预先建立的所述智能相机200的坐标转换模型,获得与所述第一画面坐标对应的经纬度坐标及高度值。
在进行实时定位跟踪时,智能相机200可对目标对象进行定位跟踪,并获得目标对象的第一画面坐标,该第一画面坐标即为目标对象在智能相机200的拍摄画面中的坐标值。本实施例中,以目标对象为车辆为例进行说明,车辆在智能相机200的拍摄画面中的画面坐标可以车辆的四个角点表示,例如标记为(a1,b1)、(a2,b2)、(a3,b3)、(a4,b4)。
智能相机200将目标对象的第一画面坐标发送至控制设备100,控制设备100在接收到智能相机200识别并发送的目标对象的第一画面坐标后,将根据上述过程预先建立的对应智能相机200的坐标转换模型,获得与目标对象的第一画面坐标对应的第一三维坐标,例如可记为(X1,Y1,Z1)、(X2,Y2,Z2)、(X3,Y3,Z3)、(X4,Y4,Z4)。进一步地,转换为对应的经纬度坐标及高度值,例如可分别记为(J1,W1)、(J2,W2)、(J3,W3)、(J4,W4),以及(H1,H2,H3,H4)。
由上述可知,不同的设备参数下为相机建立的三维坐标系不同,因此,在建立坐标转换模型时,是基于不同设备参数进行建立的。因此,在根据预先建立的坐标转换模型将目标对象的第一画面坐标转换为对应的经纬度坐标及高度值时,可获得发送目标对象的第一画面坐标的智能相机200的当前设备参数。并获得预先建立的与该智能相机200的当前设备参数对应的三维坐标系,以及在该三维坐标系下该智能相机200的坐标转换模型。进一步地,根据获得的坐标转换模型中的画面坐标、三维坐标以及经纬度坐标之间的对应关系,获得目标对象的第一画面坐标对应的经纬度坐标。并根据第一画面坐标计算得到目标对象的高度值。
本实施例中,目标对象的第一画面坐标包括多个,例如四个或六个等不限。而各个第一画面坐标包括横坐标以及纵坐标,在根据目标对象的第一画面坐标计算得到目标对象的高度值时,具体地,可获得多个第一画面坐标中的最小纵坐标以及最大纵坐标,并根据其最小纵坐标及最大纵坐标计算得到目标对象的高度值。例如,可以是以最小纵坐标作为地面坐标,以最大纵坐标与最小纵坐标之间的差值作为目标对象的高度值,或者是以最大纵坐标和最小纵坐标之间的差值的一半作为目标对象的高度值。
步骤330,查找预存的所述经纬度范围,获得视角所对应的经纬度范围包含所述经纬度坐标的非智能相机300和/或智能相机200,作为跟踪相机。
步骤340,根据预先建立的所述跟踪相机的坐标转换模型,获得与所述经纬度坐标及高度值对应的第二三维坐标,并获得与所述第二三维坐标对应的第二画面坐标,其中,所述第二画面坐标为所述目标对象在所述跟踪相机的拍摄画面中的坐标。
步骤350,基于预先建立的设备参数与三维坐标系之间的对应关系,根据所述第二画面坐标和所述第二三维坐标获得使所述目标对象处于所述跟踪相机的拍摄画面的中间位置的设备参数。
由上述可知,各个相机由于安装的位置、角度等不同,其对应的可视的经纬度范围不同。控制设备100中预存有各个非智能相机300及智能相机200的视角所对应的经纬度范围。可根据目标对象本身的经纬度值,找到有可能拍摄到该目标对象的非智能相机300及智能相机200。可选地,查找预存的各个非智能相机300及智能相机200的视角所对应的经纬度范围,获得视角所对应的经纬度范围包含目标对象的经纬度坐标的非智能相机300和/或智能相机200,以作为跟踪相机。
控制设备100中同样存储有预先建立的跟踪相机的坐标转换模型,如此,可基于跟踪相机的坐标转换模型,获得与目标对象的经纬度坐标及高度值对应的第二三维坐标,记为(X5,Y5,Z5)、(X6,Y6,Z6)、(X7,Y7,Z7)、(X8,Y8,Z8)。其中,该第二三维坐标为目标对象在跟踪相机的三维坐标系下的坐标值。并且,获得与第二三维坐标对应的第二画面坐标,记为(a5,b5)、(a6,b6)、(a7,b7)、(a8,b8)。其中,该第二画面坐标为目标对象在跟踪相机的拍摄画面中的坐标。
可选地,作为一种实施方式,控制设备100在获得视角所对应的经纬度范围包含目标对象的经纬度坐标的非智能相机300和/或智能相机200之后,也可将目标对象的经纬度坐标及高度值发送至获得的非智能相机300和/或智能相机200,通过对应的非智能相机300或智能相机200来实现将目标对象的绝对位置信息转换为相对于本身的相对位置信息的工作。
由上述可知,相机在不同的设备参数下,例如不同的俯仰角、不同水平角下,其拍摄角度、范围等将不同。而非智能相机300本身不具有自动定位跟踪目标对象的功能,为了能够使非智能相机300实现对目标对象的动态跟踪,可通过控制非智能相机300的设备参数的方式,改变非智能相机300的拍摄角度、范围等,从而使非智能相机300跟踪到目标对象。
由上述可知,在不同设备参数下建立的三维坐标系不同,即设备参数与三维坐标系存在对应关系,并且目标对象相对于跟踪相机的第二画面坐标及第二三维坐标存在对应关系。因此,可基于设备参数与三维坐标系之间的对应关系,并根据第二画面坐标和第二三维坐标获得使目标对象处于跟踪相机的拍摄画面的中间位置的设备参数。并控制跟踪相机以实时获得的设备参数工作,从而实现实时地对目标对象的动态跟踪。如此,可通过智能相机200对目标对象的近距离的细节监控,以及非智能相机300在大场景下的广范围的监控,提升视频监控的范围及精度。
通过以上方式,可在无需提升非智能相机300的硬件性能的前提下,使非智能相机300具有动态跟踪目标对象的能力。并且,也无需后台设备通过分析视频或图片流的方式来实现非智能相机300对目标对象的定位跟踪。只需要通过坐标信息的交互及坐标信息的转换即可实现智能相机200和非智能相机300之间对目标对象的位置同步,减少处理负担的同时实现跟踪的实时性。并且,可在某些智能相机200识别到目标对象的情况下,通过联动其他的智能相机200的方式以使其他的智能相机200在无需对目标对象进行自主识别的情况下,定位到目标对象,降低了处理负担。
请参阅图9,本申请另一实施例还提供一种应用于上述控制设备100的动态跟踪控制装置130,所述动态跟踪控制装置130包括接收模块131、第一获取模块132、查找模块133、第二获取模块134以及第三获取模块135。
接收模块131,用于接收智能相机200识别并发送的目标对象的第一画面坐标,其中,所述第一画面坐标为所述目标对象在所述智能相机200的拍摄画面中的坐标。可以理解,该接收模块131可以用于执行上述步骤310,关于该接收模块131的详细实现方式可以参照上述对步骤310有关的内容。
第一获取模块132,用于根据预先建立的所述智能相机200的坐标转换模型,获得与所述第一画面坐标对应的经纬度坐标及高度值。可以理解,该第一获取模块132可以用于执行上述步骤320,关于该第一获取模块132的详细实现方式可以参照上述对步骤320有关的内容。
查找模块133,用于查找预存的所述经纬度范围,获得视角所对应的经纬度范围包含所述经纬度坐标的非智能相机300和/或智能相机200,作为跟踪相机。可以理解,该查找模块133可以用于执行上述步骤330,关于该查找模块133的详细实现方式可以参照上述对步骤330有关的内容。
第二获取模块134,用于根据预先建立的所述跟踪相机的坐标转换模型,获得与所述经纬度坐标及高度值对应的第二三维坐标,并获得与所述第二三维坐标对应的第二画面坐标,其中,所述第二画面坐标为所述目标对象在所述跟踪相机的拍摄画面中的坐标。可以理解,该第二获取模块134可以用于执行上述步骤340,关于该第二获取模块134的详细实现方式可以参照上述对步骤340有关的内容。
第三获取模块135,用于基于预先建立的设备参数与三维坐标系之间的对应关系,根据所述第二画面坐标和所述第二三维坐标获得使所述目标对象处于所述跟踪相机的拍摄画面的中间位置的设备参数。可以理解,该第三获取模块135可以用于执行上述步骤350,关于该第三获取模块135的详细实现方式可以参照上述对步骤350有关的内容。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置的具体工作过程,可以参考前述方法中的对应过程,在此不再过多赘述。
本申请实施例还提供一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器110执行时可实现上述的动态跟踪控制方法。
综上所述,本申请实施例提供的动态跟踪控制方法、装置及控制设备100,利用建立的坐标转换模型将智能相机200获取的目标对象的相对位置转换为绝对位置信息,并获得视角所对应的经纬度范围包含该绝对位置的非智能相机300和/或智能相机200以作为跟踪相机。再根据坐标转换模型将目标对象的绝对位置信息转换为相对于跟踪相机的相对位置信息,并控制设备100参数变化以使目标对象保持在跟踪相机的拍摄画面的中间位置,从而实现跟踪相机对目标对象的定位跟踪。该动态跟踪控制方案,借助智能相机200对目标对象的识别信息,并结合建立的坐标转换模型,实现系统中的其他相机的联动功能,使得非智能相机300实现对目标对象的动态跟踪,并且其他的智能相机200无需自主对目标对象进行识别定位的情况下也能够实现对目标对象的动态跟踪。改善了现有技术中的需要后台设备进行视频分析处理所造成的处理量大、跟踪滞后的缺陷。
在本申请所提供的实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种动态跟踪控制方法,其特征在于,应用于控制设备,所述控制设备分别与智能相机及非智能相机通信连接,所述控制设备中预存有所述非智能相机及所述智能相机的视角所对应的经纬度范围,所述方法包括:
接收智能相机识别并发送的目标对象的第一画面坐标,其中,所述第一画面坐标为所述目标对象在所述智能相机的拍摄画面中的坐标;
根据预先建立的所述智能相机的坐标转换模型,获得与所述第一画面坐标对应的经纬度坐标及高度值;
查找预存的所述经纬度范围,获得视角所对应的经纬度范围包含所述经纬度坐标的非智能相机和/或智能相机,作为跟踪相机;
根据预先建立的所述跟踪相机的坐标转换模型,获得与所述经纬度坐标及高度值对应的第二三维坐标,并获得与所述第二三维坐标对应的第二画面坐标,其中,所述第二画面坐标为所述目标对象在所述跟踪相机的拍摄画面中的坐标;
基于预先建立的设备参数与三维坐标系之间的对应关系,根据所述第二画面坐标和所述第二三维坐标获得使所述目标对象处于所述跟踪相机的拍摄画面的中间位置的设备参数。
2.根据权利要求1所述的动态跟踪控制方法,其特征在于,所述坐标转换模型包括画面坐标、三维坐标及经纬度坐标之间的对应关系,所述方法还包括预先建立所述坐标转换模型的步骤,该步骤包括:
为待标定相机建立三维坐标系,其中,所述待标定相机为任一智能相机或任一非智能相机;
获得所述待标定相机的拍摄画面内的标定点的画面坐标;
根据所述待标定相机的设备高度值及画面坐标得到所述标定点在所述三维坐标系下的三维坐标;
根据所述待标定相机的经纬度坐标,以及该待标定相机的拍摄画面中的设定点的经纬度坐标获得所述标定点的经纬度坐标,其中,所述设定点为已知经纬度坐标的点;
根据所述标定点的画面坐标、三维坐标及经纬度坐标之间的关系得到所述坐标转换模型。
3.根据权利要求2所述的动态跟踪控制方法,其特征在于,所述根据所述待标定相机的设备高度值及画面坐标得到所述标定点在所述三维坐标系下的三维坐标的步骤,包括:
获得所述待标定相机的参考相机,其中,所述参考相机为拍摄画面与所述待标定相机的拍摄画面具有重合点的任一智能相机或任一非智能相机,所述标定点为所述重合点中的任意一点;
获得所述标定点在所述参考相机的拍摄画面中的画面坐标;
根据所述待标定相机的设备高度值、所述参考相机的设备高度值、所述标定点在所述待标定相机的拍摄画面中的画面坐标以及所述标定点在所述参考相机的拍摄画面中的画面坐标,得到所述标定点在所述三维坐标系下的三维坐标。
4.根据权利要求1所述的动态跟踪控制方法,其特征在于,所述方法还包括获得所述非智能相机或智能相机的视角所对应的经纬度范围的步骤,该步骤包括:
针对任一非智能相机或智能相机,获得所述非智能相机或智能相机的设备参数可变范围;
根据所述设备参数可变范围获得所述非智能相机或智能相机的可视起点、可视最远距离及可视角度;
根据所述非智能相机或智能相机的经纬度值、所述可视起点、可视最远距离及可视角度计算得到所述非智能相机或智能相机可视的经纬度范围。
5.根据权利要求4所述的动态跟踪控制方法,其特征在于,所述非智能相机或智能相机可视的经纬度范围按以下公式计算得到:
Jx=J0+rcosθ
Wx=W0+rcosθ
θ∈(0°,α),r∈(r1,r1+r2)
其中,(Jx,Wx)为可视的经纬度范围,(J0,W0)为所述非智能相机或智能相机的经纬度值,r1为可视起点,r1+r2为可视最远距离,α为可视角度。
6.根据权利要求1所述的动态跟踪控制方法,其特征在于,所述根据预先建立的所述智能相机的坐标转换模型,获得与所述第一画面坐标对应的经纬度坐标及高度值的步骤,包括:
获得发送所述第一画面坐标的智能相机的当前设备参数;
获得预先建立的与所述当前设备参数对应的三维坐标系,以及在该三维坐标系下所述智能相机的坐标转换模型;
根据所述坐标转换模型中的画面坐标、三维坐标及经纬度坐标之间的对应关系,获得所述第一画面坐标对应的经纬度坐标,并根据所述第一画面坐标计算得到所述目标对象的高度值。
7.根据权利要求6所述的动态跟踪控制方法,其特征在于,所述第一画面坐标包括多个,各所述第一画面坐标包括横坐标及纵坐标,所述根据所述第一画面坐标计算得到所述目标对象的高度值的步骤,包括:
获得多个第一画面坐标中的最小纵坐标及最大纵坐标;
根据所述最小纵坐标及所述最大纵坐标计算得到所述目标对象的高度值。
8.一种动态跟踪控制装置,其特征在于,应用于控制设备,所述控制设备分别与智能相机及非智能相机通信连接,所述控制设备中预存有所述非智能相机及所述智能相机的视角所对应的经纬度范围,所述装置包括:
接收模块,用于接收智能相机识别并发送的目标对象的第一画面坐标,其中,所述第一画面坐标为所述目标对象在所述智能相机的拍摄画面中的坐标;
第一获取模块,用于根据预先建立的所述智能相机的坐标转换模型,获得与所述第一画面坐标对应的经纬度坐标及高度值;
查找模块,用于查找预存的所述经纬度范围,获得视角所对应的经纬度范围包含所述经纬度坐标的非智能相机和/或智能相机,作为跟踪相机;
第二获取模块,用于根据预先建立的所述跟踪相机的坐标转换模型,获得与所述经纬度坐标及高度值对应的第二三维坐标,并获得与所述第二三维坐标对应的第二画面坐标,其中,所述第二画面坐标为所述目标对象在所述跟踪相机的拍摄画面中的坐标;
第三获取模块,用于基于预先建立的设备参数与三维坐标系之间的对应关系,根据所述第二画面坐标和所述第二三维坐标获得使所述目标对象处于所述跟踪相机的拍摄画面的中间位置的设备参数。
9.一种控制设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1-7任意一项所述的方法步骤。
10.一种可读存储介质,其特征在于,该可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1-7中任意一项所述的方法步骤。
CN201910296039.5A 2019-04-12 2019-04-12 动态跟踪控制方法、装置及控制设备 Active CN111815672B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910296039.5A CN111815672B (zh) 2019-04-12 2019-04-12 动态跟踪控制方法、装置及控制设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910296039.5A CN111815672B (zh) 2019-04-12 2019-04-12 动态跟踪控制方法、装置及控制设备

Publications (2)

Publication Number Publication Date
CN111815672A true CN111815672A (zh) 2020-10-23
CN111815672B CN111815672B (zh) 2023-10-24

Family

ID=72844017

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910296039.5A Active CN111815672B (zh) 2019-04-12 2019-04-12 动态跟踪控制方法、装置及控制设备

Country Status (1)

Country Link
CN (1) CN111815672B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012047A (zh) * 2021-03-26 2021-06-22 广州市赋安电子科技有限公司 动态摄像头坐标映射建立方法、装置及可读存储介质
CN113643368A (zh) * 2021-08-03 2021-11-12 嘉洋智慧安全生产科技发展(北京)有限公司 一种物体之间真实间距的确定方法、装置及电子设备
CN114550362A (zh) * 2022-02-14 2022-05-27 北京声迅电子股份有限公司 一种通行控制方法及装置
WO2022257597A1 (en) * 2021-06-09 2022-12-15 Huawei Technologies Co., Ltd. Method and apparatus for flexible local tracking

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140078263A1 (en) * 2012-09-18 2014-03-20 Samsung Techwin Co., Ltd. Monitoring apparatus and system using 3d information of images and monitoring method using the same
US20140313346A1 (en) * 2013-04-17 2014-10-23 Aver Information Inc. Tracking shooting system and method
CN105072414A (zh) * 2015-08-19 2015-11-18 浙江宇视科技有限公司 一种目标检测和跟踪方法及系统
CN109509233A (zh) * 2018-11-16 2019-03-22 厦门博聪信息技术有限公司 一种基于rfid标签位置信息的ptz摄像机目标跟踪方法、系统及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140078263A1 (en) * 2012-09-18 2014-03-20 Samsung Techwin Co., Ltd. Monitoring apparatus and system using 3d information of images and monitoring method using the same
US20140313346A1 (en) * 2013-04-17 2014-10-23 Aver Information Inc. Tracking shooting system and method
CN105072414A (zh) * 2015-08-19 2015-11-18 浙江宇视科技有限公司 一种目标检测和跟踪方法及系统
CN109509233A (zh) * 2018-11-16 2019-03-22 厦门博聪信息技术有限公司 一种基于rfid标签位置信息的ptz摄像机目标跟踪方法、系统及装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012047A (zh) * 2021-03-26 2021-06-22 广州市赋安电子科技有限公司 动态摄像头坐标映射建立方法、装置及可读存储介质
WO2022257597A1 (en) * 2021-06-09 2022-12-15 Huawei Technologies Co., Ltd. Method and apparatus for flexible local tracking
CN113643368A (zh) * 2021-08-03 2021-11-12 嘉洋智慧安全生产科技发展(北京)有限公司 一种物体之间真实间距的确定方法、装置及电子设备
CN114550362A (zh) * 2022-02-14 2022-05-27 北京声迅电子股份有限公司 一种通行控制方法及装置

Also Published As

Publication number Publication date
CN111815672B (zh) 2023-10-24

Similar Documents

Publication Publication Date Title
CN110674746B (zh) 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质
CN111815672B (zh) 动态跟踪控制方法、装置及控制设备
CN108932051B (zh) 增强现实图像处理方法、装置及存储介质
CN109523471B (zh) 一种地面坐标和广角摄像机画面坐标的转换方法、系统以及装置
US20160055671A1 (en) Techniques for Enhanced Accurate Pose Estimation
JP2011239361A (ja) 繰り返し撮影用arナビゲーション及び差異抽出のシステム、方法及びプログラム
CN110910460B (zh) 一种获取位置信息的方法、装置及标定设备
CN111199560A (zh) 一种视频监控的定位方法及视频监控系统
CN112556685B (zh) 导航路线的显示方法、装置和存储介质及电子设备
CN108344401B (zh) 定位方法、装置及计算机可读存储介质
CN109345599B (zh) 一种地面坐标与ptz摄像机的坐标转换方法及系统
US20150244930A1 (en) Synthetic camera lenses
CN110634138A (zh) 一种基于视觉感知的桥梁变形的监测方法、装置及设备
KR20210095913A (ko) 맵 작성 방법, 장치, 및 시스템, 및 저장 매체
CN113869231B (zh) 一种用于获取目标对象的实时图像信息的方法与设备
CN111327876A (zh) 目标跟踪显示方法、装置、电子设备及机器可读存储介质
CN114943773A (zh) 相机标定方法、装置、设备和存储介质
CN109816628B (zh) 人脸评价方法及相关产品
CN109712249B (zh) 地理要素增强现实方法及装置
CN111161305A (zh) 无人机智能识别追踪方法及系统
CN110991306A (zh) 自适应的宽视场高分辨率智能传感方法和系统
US10540809B2 (en) Methods and apparatus for tracking a light source in an environment surrounding a device
CN113984037A (zh) 一种基于任意方向目标候选框的语义地图构建方法
CN112860946B (zh) 一种视频图像信息转换为地理信息的方法及系统
CN112291478B (zh) 一种高空抛坠物的监测方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant