CN111599018A - 一种目标追踪方法、系统及电子设备和存储介质 - Google Patents

一种目标追踪方法、系统及电子设备和存储介质 Download PDF

Info

Publication number
CN111599018A
CN111599018A CN201910129871.6A CN201910129871A CN111599018A CN 111599018 A CN111599018 A CN 111599018A CN 201910129871 A CN201910129871 A CN 201910129871A CN 111599018 A CN111599018 A CN 111599018A
Authority
CN
China
Prior art keywords
low
target
tracking
point
point camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910129871.6A
Other languages
English (en)
Other versions
CN111599018B (zh
Inventor
刘财响
周人弈
黄军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Uniview Technologies Co Ltd
Original Assignee
Zhejiang Uniview Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Uniview Technologies Co Ltd filed Critical Zhejiang Uniview Technologies Co Ltd
Priority to CN201910129871.6A priority Critical patent/CN111599018B/zh
Publication of CN111599018A publication Critical patent/CN111599018A/zh
Application granted granted Critical
Publication of CN111599018B publication Critical patent/CN111599018B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

本申请公开了一种目标追踪方法、系统及一种电子设备和计算机可读存储介质,该方法包括:确定追踪目标,并确定所述追踪目标对应的低点相机;根据高点相机的AR信息确定所述追踪目标和所述低点相机的三维坐标;根据所述追踪目标和所述低点相机的三维坐标计算所述低点相机的照射角度,并根据所述照射角度调整所述低点相机以便实现对所述追踪目标的追踪。本申请提供的目标追踪方法,相对于现有技术,增加了一个维度的坐标即纵深,优化了AR实景中追踪目标的效果。

Description

一种目标追踪方法、系统及电子设备和存储介质
技术领域
本申请涉及计算机技术领域,更具体地说,涉及一种目标追踪方法、系统及一种电子设备和一种计算机可读存储介质。
背景技术
AR(中文全称:扩增现实或增强现实,英文全称:Augmented Reality)是一种将虚拟内容和真实存在的内容进行实时融合,形成虚拟、现实之间互动的技术。AR实景是虚拟现实的延伸和发展,在虚拟现实的基础上增加了真实环境,从而创造出全新的体验。
随着AR实景技术在安防行业的应用,许多功能有了更好的解决方案,相比传统的实现方式可能更加的直观和便捷。安防行业,针对目标物体的追踪是一个重要的命题,在现有技术中一般采用基于地图九宫格的目标追踪。追踪目标的位置需要提前已知,由于二维空间模型的天然缺陷,仅能计算水平方向角,无法将相机调整至最佳观看角度,追踪效果较差。
因此,如何优化AR实景中追踪目标的效果是本领域技术人员需要解决的技术问题。
发明内容
本申请的目的在于提供一种目标追踪方法、系统及一种电子设备和一种计算机可读存储介质,优化了AR实景中追踪目标的效果。
为实现上述目的,本申请提供了一种目标追踪方法,包括:
确定追踪目标,并确定所述追踪目标对应的低点相机;
根据高点相机的AR信息确定所述追踪目标和所述低点相机的三维坐标;
根据所述追踪目标和所述低点相机的三维坐标计算所述低点相机的照射角度,并根据所述照射角度调整所述低点相机以便实现对所述追踪目标的追踪。
其中,根据所述追踪目标和所述低点相机的三维坐标计算所述低点相机的照射角度之前,还包括:
根据所述追踪目标和所述低点相机的三维坐标判断所述追踪目标与所述低点相机之间是否存在遮挡物;
若否,则执行根据所述追踪目标和所述低点相机的三维坐标计算所述低点相机的照射角度的步骤。
其中,根据所述追踪目标和所述低点相机的三维坐标判断所述追踪目标与所述低点相机之间是否存在遮挡物,包括:
根据所述追踪目标和所述低点相机的三维坐标得到所述追踪目标与所述低点相机形成的直线公式;
在所述追踪目标和所述低点相机之间确定候选障碍物,并确定所述候选障碍物对应的平面区域;
根据所述平面区域的平面公式和所述直线公式计算交点坐标,并判断所述交点是否在所述平面区域内;
若是,则判定所述追踪目标与所述低点相机之间存在遮挡物。
其中,若所述平面区域为矩形,则判断所述交点是否在所述平面区域内,包括:
选择所述矩形的一个顶点为第一目标点,通过坐标转换公式将所述交点坐标转换为二维坐标;其中,所述坐标转换公式为:
x=(P-N)·(A-N);
y=(P-N)·(B-N);
其中,A、B分别为与所述顶点相邻的两个顶点的三维坐标,N为所述第一目标点的三维坐标,(x,y)为转换后的二维坐标;
当0≤x≤(|A-N|)2且0≤y≤(|B-N|)2时,判定所述交点在所述平面区域内。
其中,判定所述追踪目标与所述低点相机之间存在遮挡物之后,还包括:
当所述候选障碍物对应的平面区域内存在透明区域时,判断所述交点是否在所述透明区域内;
若是,则执行根据所述追踪目标和所述低点相机的三维坐标计算所述低点相机的照射角度的步骤。
其中,若所述透明区域为矩形,则判断所述交点是否在所述透明区域内,包括:
选择所述矩形的一个顶点为第二目标点,通过坐标转换公式将所述交点坐标转换为二维坐标;其中,所述坐标转换公式为:
x=(P-M)·(A-M);
y=(P-M)·(B-M);
其中,A、B分别为与所述顶点相邻的两个顶点的三维坐标,M为所述第二目标点的三维坐标,(x,y)为转换后的二维坐标;
当0≤x≤(|A-M|)2且0≤y≤(|B-M|)2时,判定所述交点在所述透明区域内。
其中,所述照射角度包括所述低点相机的水平角和俯仰角。
为实现上述目的,本申请提供了一种目标追踪系统,包括:
第一确定模块,用于确定追踪目标,并确定所述追踪目标对应的低点相机;
第二确定模块,用于根据高点相机的AR信息确定所述追踪目标和所述低点相机的三维坐标;
计算模块,用于根据所述追踪目标和所述低点相机的三维坐标计算所述低点相机的照射角度,并根据所述照射角度调整所述低点相机以便实现对所述追踪目标的追踪。
为实现上述目的,本申请提供了一种电子设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如上述目标追踪方法的步骤。
为实现上述目的,本申请提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述目标追踪方法的步骤。
通过以上方案可知,本申请提供的一种目标追踪方法,包括:确定追踪目标,并确定所述追踪目标对应的低点相机;根据高点相机的AR信息确定所述追踪目标和所述低点相机的三维坐标;根据所述追踪目标和所述低点相机的三维坐标计算所述低点相机的照射角度,并根据所述照射角度调整所述低点相机以便实现对所述追踪目标的追踪。
本申请提供的目标追踪方法,基于AR实景地图构建三维空间坐标系,通过高点相机的AR信息构建纵深,确定追踪目标和低点相机的三维坐标,从而计算低点相机的照射角度,将其调整至合适的照射角度,从而实现目标追踪。相对于现有技术,增加了一个维度的坐标即纵深,优化了AR实景中追踪目标的效果。本申请还公开了一种目标追踪系统及一种电子设备和一种计算机可读存储介质,同样能实现上述技术效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本申请。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
图1为根据一示例性实施例示出的一种目标追踪方法的流程图;
图2为计算水平角的示意图;
图3为计算俯仰角的示意图;
图4为根据一示例性实施例示出的另一种目标追踪方法的流程图;
图5为高点相机的视角下的三维坐标系的示意图;
图6为计算低点相机与追踪目标抽象两点直线与中间障碍物的交点的示意图;
图7为转换后的二维坐标系;
图8为根据一示例性实施例示出的又一种目标追踪方法的流程图;
图9为根据一示例性实施例示出的一种目标追踪系统的结构图;
图10为根据一示例性实施例示出的一种电子设备的结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在现有技术中,由于二维空间模型仅能计算水平方向角,无法将相机调整至最佳观看角度,追踪效果较差。因此,在本申请中,增加了一个维度的坐标即纵深,通过追踪目标和低点相机的三维坐标计算低点相机的照射角度,将其调整至合适的照射角度,优化了AR实景中追踪目标的效果。
本申请实施例公开了一种目标追踪方法,优化了AR实景中追踪目标的效果。
参见图1,根据一示例性实施例示出的一种目标追踪方法的流程图,如图1所示,包括:
S101:确定追踪目标,并确定所述追踪目标对应的低点相机;
在具体实施中,首先确定追踪目标,并确定该追踪目标对应的低点相机。追踪目标的位置确定可以是手动确定,也可以结合GPS(中文全称:全球定位系统,英文全称:GlobalPositioning System)或RFID(中文全称:射频识别,英文全称:Radio FrequencyIdentification)等设备确定。在AR实景中相机位置可以通过人工标定的方式实现,可以包括一个高点相机和多个低点相机,高点相机为高度相对高的相机,用于构建纵深,在下一步骤中确定追踪目标和低点相机的三维坐标,低点相机用于追踪该追踪目标。
需要说明的是,可以对AR实景中的所有低点相机执行本实施例的步骤,当然为了简化流程,也可以将与该追踪目标的距离小于预设值的低点相机执行本实施例的步骤,在此不进行具体限定。
S102:根据高点相机的AR信息确定所述追踪目标和所述低点相机的三维坐标;
在本步骤中,根据高点相机的AR信息构建三维坐标系,并确定低点相机P1和追踪目标P2的三维坐标分别为(x1、y1、z1)和(x2、y2、z2)。
S103:根据所述追踪目标和所述低点相机的三维坐标计算所述低点相机的照射角度,并根据所述照射角度调整所述低点相机以便实现对所述追踪目标的追踪。
在本步骤中,根据上述步骤中得到追踪目标和低点相机的三维坐标计算所述低点相机的照射角度,将该低点相机调整至该照射角度,用户可以选择不同的低点相机以不同角度的查看追踪目标,进而实现对追踪目标的追踪。优选的,所述照射角度包括所述低点相机的水平角和俯仰角。在三维坐标系中,对于水平角∠a如图2所示,计算公式为:
Figure BDA0001974916190000061
对于俯仰角∠b如图3所示,计算公式为:
Figure BDA0001974916190000062
本申请实施例提供的目标追踪方法,基于AR实景地图构建三维空间坐标系,通过高点相机的AR信息构建纵深,确定追踪目标和低点相机的三维坐标,从而计算低点相机的照射角度,将其调整至合适的照射角度,从而实现目标追踪。相对于现有技术,增加了一个维度的坐标即纵深,优化了AR实景中追踪目标的效果。
本申请实施例公开了一种目标追踪方法,相对于上一实施例,本实施例对技术方案作了进一步的说明和优化。具体的:
参见图4,根据一示例性实施例示出的另一种目标追踪方法的流程图,如图4所示,包括:
S201:确定追踪目标,并确定所述追踪目标对应的低点相机;
S202:根据高点相机的AR信息确定所述追踪目标和所述低点相机的三维坐标;
S203:根据所述追踪目标和所述低点相机的三维坐标判断所述追踪目标与所述低点相机之间是否存在遮挡物;若是,则重新选择低点相机并重新进入S202;若否,则进入S204;
在本实施例中,可以通过低点相机与追踪目标抽象两点之间是否存在障碍物来认定该低点相机是否为有效相机,若存在障碍物即使打开实况也没有意义,重新选择低点相机并重新进入S202,反之不存在则进入S204。
优选的,可以通过低点相机与追踪目标抽象两点直线与中间障碍物是否存在交点判断低点相机与追踪目标抽象两点之间是否存在障碍物,若存在交点即认为该相机和追踪目标存在遮挡。即本步骤可以包括:根据所述追踪目标和所述低点相机的三维坐标得到所述追踪目标与所述低点相机形成的直线公式;在所述追踪目标和所述低点相机之间确定候选障碍物,并确定所述候选障碍物对应的平面区域;根据所述平面区域的平面公式和所述直线公式计算交点坐标,并判断所述交点是否在所述平面区域内;若是,则判定所述追踪目标与所述低点相机之间存在遮挡物。
如图5所示,图中明确了高点相机的视角方向中低点相机、追踪目标和障碍物的位置。将障碍物简化为面,平面的方程式为ax+by+cz+d=0。根据已知P1(x1、y1、z1)和P2(x2、y2、z2),求直线P1P2与平面的交点P(x、y、z)。
首先,根据P1和P2的坐标,获得追踪目标与低点相机之间的直线公式为:
Figure BDA0001974916190000071
当已知平面的一般式方程ax+by+cz+d=0时,n=(a,b,c)为平面的法矢量,能够求出点到平面的距离和一个向量到法矢量的投影。如图6所示,根据相似三角形原理,得到:
Figure BDA0001974916190000072
其中,
Figure BDA0001974916190000073
P1到D2的距离为:
Figure BDA0001974916190000074
P1D2可以看做是平面的法向,所以
Figure BDA0001974916190000075
Figure BDA0001974916190000076
可以得到
Figure BDA0001974916190000077
最终得到
Figure BDA0001974916190000078
进一步的,判断交点是否在平面区域内,可以将建筑物等遮挡物抽象为一个立体矩形,从高点相机照射角度来说相当于一个矩形区域(即上述的平面区域)。通过判断P点是否在这个有限的矩形区域中,以此判断低点相机是否被遮挡。即判断所述交点是否在所述平面区域内的步骤可以包括:选择所述矩形的一个顶点为第一目标点,通过坐标转换公式将所述交点坐标转换为二维坐标;其中,所述坐标转换公式为:
x=(P-N)·(A-N);
y=(P-N)·(B-N);
其中,A、B分别为与所述顶点相邻的两个顶点的三维坐标,N为所述第一目标点的三维坐标,(x,y)为转换后的二维坐标;
当0≤x≤(|A-N|)2且0≤y≤(|B-N|)2时,判定所述交点在所述平面区域内。
具体的,实际环境中的建筑物一般垂直于水平面,即矩形区域与水平面垂直,与坐标系Z轴平行。如图7所示,将三维坐标转换为二维坐标,可以选取矩形的任意一个顶点为原点P0(即第一目标点),选取该顶点经过的两边分别为二维坐标系的e0和e1,其中:
e0=A-P0
e1=B-P0
其中,A、B分别为与P0相邻的两个顶点。
计算P点转换后的二维坐标(x,y):
x=(P-P0)·e0
y=(P-P0)·e1
Figure BDA0001974916190000081
Figure BDA0001974916190000082
时,则表示交点在平面区域内,说明直线和平面存在相交点,即该低点相机被遮挡了,则不选用该低点相机,反之则选用。
S204:根据所述追踪目标和所述低点相机的三维坐标计算所述低点相机的水平角和俯仰角,并根据所述水平角和俯仰角调整所述低点相机以便实现对所述追踪目标的追踪。
在本实施例中,调整上一步骤中确定的有效相机的水平角和俯仰角,用户可以选择有效相机以不同的角度对追踪目标进行追踪。
本申请实施例公开了一种目标追踪方法,相对于上一实施例,本实施例对技术方案作了进一步的说明和优化。具体的:
参见图8,根据一示例性实施例示出的又一种目标追踪方法的流程图,如图8所示,包括:
S301:确定追踪目标,并确定所述追踪目标对应的低点相机;
S302:根据高点相机的AR信息确定所述追踪目标和所述低点相机的三维坐标;
S303:根据所述追踪目标和所述低点相机的三维坐标判断所述追踪目标与所述低点相机之间是否存在遮挡物;若是,则进入S304;若否,则进入S306;
S304:判断所述候选障碍物对应的平面区域内是否存在透明区域,若是,则进入S305;若否,则进入S307;
S305:判断所述交点是否在所述透明区域内;若是,则进入S306;若否,则进入S307;
在本实施例中,若遮挡物面积中存在可被光线穿越区域(例如是一扇窗户,该窗户的坐标在AR实景建模中已获得),同时相机与被追踪目标之间的直线与可穿越区域存在交点,则认为该相机也具备可用价值,也需要选择。若该透明区域为矩形,判断过程与上述实施例介绍的过程类似,即判断所述交点是否在所述透明区域内的步骤包括:选择所述矩形的一个顶点为第二目标点,通过坐标转换公式将所述交点坐标转换为二维坐标;其中,所述坐标转换公式为:
x=(P-M)·(A-M);
y=(P-M)·(B-M);
其中,A、B分别为与所述顶点相邻的两个顶点的三维坐标,M为所述第二目标点的三维坐标,(x,y)为转换后的二维坐标;
当0≤x≤(|A-M|)2且0≤y≤(|B-M|)2时,判定所述交点在所述透明区域内。
S306:根据所述追踪目标和所述低点相机的三维坐标计算所述低点相机的水平角和俯仰角,并根据所述水平角和俯仰角调整所述低点相机以便实现对所述追踪目标的追踪;
S307:重新选择低点相机并重新进入S302。
在本实施例中,若低点相机与追踪目标的遮挡物存在透明区域,且低点相机可以通过该透明区域捕捉追踪目标,则也可以将该低点相机作为有效相机,用户也可以选择该低点相机查看追踪目标,增加了追踪目标的追踪角度。
下面对本申请实施例提供的一种目标追踪系统进行介绍,下文描述的一种目标追踪系统与上文描述的一种目标追踪方法可以相互参照。
参见图9,根据一示例性实施例示出的一种目标追踪系统的结构图,如图9所示,包括:
第一确定模块901,用于确定追踪目标,并确定所述追踪目标对应的低点相机;
第二确定模块902,用于根据高点相机的AR信息确定所述追踪目标和所述低点相机的三维坐标;
计算模块903,用于根据所述追踪目标和所述低点相机的三维坐标计算所述低点相机的照射角度,并根据所述照射角度调整所述低点相机以便实现对所述追踪目标的追踪。
本申请实施例提供的目标追踪系统,基于AR实景地图构建三维空间坐标系,通过高点相机的AR信息构建纵深,确定追踪目标和低点相机的三维坐标,从而计算低点相机的照射角度,将其调整至合适的照射角度,从而实现目标追踪。相对于现有技术,增加了一个维度的坐标即纵深,优化了AR实景中追踪目标的效果。
在上述实施例的基础上,作为一种优选实施方式,还包括:
判断模块,用于根据所述追踪目标和所述低点相机的三维坐标判断所述追踪目标与所述低点相机之间是否存在遮挡物;若否,则启动所述计算模块903的工作流程。
在上述实施例的基础上,作为一种优选实施方式,所述判断模块包括:
确定直线公式单元,用于根据所述追踪目标和所述低点相机的三维坐标得到所述追踪目标与所述低点相机形成的直线公式;
确定屏幕区域单元,用于在所述追踪目标和所述低点相机之间确定候选障碍物,并确定所述候选障碍物对应的平面区域;
计算交点单元,用于根据所述平面区域的平面公式和所述直线公式计算交点坐标;
第一判断单元,用于判断所述交点是否在所述平面区域内;若是,则判定所述追踪目标与所述低点相机之间存在遮挡物。
在上述实施例的基础上,作为一种优选实施方式,若所述平面区域为矩形,则所述第一判断单元包括:
第一转换子单元,用于选择所述矩形的一个顶点为第一目标点,通过坐标转换公式将所述交点坐标转换为二维坐标;其中,所述坐标转换公式为:
x=(P-N)·(A-N);
y=(P-N)·(B-N);
其中,A、B分别为与所述顶点相邻的两个顶点的三维坐标,N为所述第一目标点的三维坐标,(x,y)为转换后的二维坐标;
第一判定子单元,用于当0≤x≤(|A-N|)2且0≤y≤(|B-N|)2时,判定所述交点在所述平面区域内。
在上述实施例的基础上,作为一种优选实施方式,还包括:
第二判断单元,用于当所述候选障碍物对应的平面区域内存在透明区域时,判断所述交点是否在所述透明区域内;若是,则启动所述计算模块903的工作流程。
在上述实施例的基础上,作为一种优选实施方式,若所述透明区域为矩形,则所述第二判断单元包括:
第二转换子单元,用于当所述候选障碍物对应的平面区域内存在透明区域时,选择所述矩形的一个顶点为第二目标点,通过坐标转换公式将所述交点坐标转换为二维坐标;其中,所述坐标转换公式为:
x=(P-M)·(A-M);
y=(P-M)·(B-M);
其中,A、B分别为与所述顶点相邻的两个顶点的三维坐标,M为所述第二目标点的三维坐标,(x,y)为转换后的二维坐标;
第二判定子单元,用于当0≤x≤(|A-M|)2且0≤y≤(|B-M|)2时,判定所述交点在所述透明区域内。
在上述实施例的基础上,作为一种优选实施方式,所述照射角度包括所述低点相机的水平角和俯仰角。
关于上述实施例中的系统,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本申请还提供了一种电子设备,参见图10,本申请实施例提供的一种电子设备的结构图,如图10所示,可以包括处理器1和存储器2。该电子设备还可以包括多媒体组件3,输入/输出(I/O)接口4,以及通信组件5中的一者或多者。
其中,处理器1用于控制该电子设备的整体操作,以完成上述的目标追踪方法中的全部或部分步骤。存储器2用于存储各种类型的数据以支持在该电子设备的操作,这些数据例如可以包括用于在该电子设备上操作的任何应用程序或方法的指令,以及应用程序相关的数据,例如联系人数据、收发的消息、图片、音频、视频等等。该存储器2可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(StaticRandom Access Memory,简称SRAM),电可擦除可编程只读存储器(Electrically ErasableProgrammable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(ErasableProgrammable Read-Only Memory,简称EPROM),可编程只读存储器(Programmable Read-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。多媒体组件3可以包括屏幕和音频组件。其中屏幕例如可以是触摸屏,音频组件用于输出和/或输入音频信号。例如,音频组件可以包括一个麦克风,麦克风用于接收外部音频信号。所接收的音频信号可以被进一步存储在存储器2或通过通信组件5发送。音频组件还包括至少一个扬声器,用于输出音频信号。I/O接口4为处理器1和其他接口模块之间提供接口,上述其他接口模块可以是键盘,鼠标,按钮等。这些按钮可以是虚拟按钮或者实体按钮。通信组件5用于该电子设备与其他设备之间进行有线或无线通信。无线通信,例如Wi-Fi,蓝牙,近场通信(Near Field Communication,简称NFC),2G、3G或4G,或它们中的一种或几种的组合,因此相应的该通信组件5可以包括:Wi-Fi模块,蓝牙模块,NFC模块。
在一示例性实施例中,电子设备可以被一个或多个应用专用集成电路(Application Specific Integrated Circuit,简称ASIC)、数字信号处理器(DigitalSignal Processor,简称DSP)、数字信号处理设备(Digital Signal Processing Device,简称DSPD)、可编程逻辑器件(Programmable Logic Device,简称PLD)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述的目标追踪方法。
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现上述目标追踪方法的步骤。例如,该计算机可读存储介质可以为上述包括程序指令的存储器2,上述程序指令可由电子设备的处理器1执行以完成上述的目标追踪方法。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。
还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

Claims (10)

1.一种目标追踪方法,其特征在于,包括:
确定追踪目标,并确定所述追踪目标对应的低点相机;
根据高点相机的AR信息确定所述追踪目标和所述低点相机的三维坐标;
根据所述追踪目标和所述低点相机的三维坐标计算所述低点相机的照射角度,并根据所述照射角度调整所述低点相机以便实现对所述追踪目标的追踪。
2.根据权利要求1所述目标追踪方法,其特征在于,根据所述追踪目标和所述低点相机的三维坐标计算所述低点相机的照射角度之前,还包括:
根据所述追踪目标和所述低点相机的三维坐标判断所述追踪目标与所述低点相机之间是否存在遮挡物;
若否,则执行根据所述追踪目标和所述低点相机的三维坐标计算所述低点相机的照射角度的步骤。
3.根据权利要求2所述目标追踪方法,其特征在于,根据所述追踪目标和所述低点相机的三维坐标判断所述追踪目标与所述低点相机之间是否存在遮挡物,包括:
根据所述追踪目标和所述低点相机的三维坐标得到所述追踪目标与所述低点相机形成的直线公式;
在所述追踪目标和所述低点相机之间确定候选障碍物,并确定所述候选障碍物对应的平面区域;
根据所述平面区域的平面公式和所述直线公式计算交点坐标,并判断所述交点是否在所述平面区域内;
若是,则判定所述追踪目标与所述低点相机之间存在遮挡物。
4.根据权利要求3所述目标追踪方法,其特征在于,若所述平面区域为矩形,则判断所述交点是否在所述平面区域内,包括:
选择所述矩形的一个顶点为第一目标点,通过坐标转换公式将所述交点坐标转换为二维坐标;其中,所述坐标转换公式为:
x=(P-N)·(A-N);
y=(P-N)·(B-N);
其中,A、B分别为与所述顶点相邻的两个顶点的三维坐标,N为所述第一目标点的三维坐标,(x,y)为转换后的二维坐标;
当0≤x≤(|A-N|)2且0≤y≤(|B-N|)2时,判定所述交点在所述平面区域内。
5.根据权利要求3所述目标追踪方法,其特征在于,判定所述追踪目标与所述低点相机之间存在遮挡物之后,还包括:
当所述候选障碍物对应的平面区域内存在透明区域时,判断所述交点是否在所述透明区域内;
若是,则执行根据所述追踪目标和所述低点相机的三维坐标计算所述低点相机的照射角度的步骤。
6.根据权利要求5所述目标追踪方法,其特征在于,若所述透明区域为矩形,则判断所述交点是否在所述透明区域内,包括:
选择所述矩形的一个顶点为第二目标点,通过坐标转换公式将所述交点坐标转换为二维坐标;其中,所述坐标转换公式为:
x=(P-M)·(A-M);
y=(P-M)·(B-M);
其中,A、B分别为与所述顶点相邻的两个顶点的三维坐标,M为所述第二目标点的三维坐标,(x,y)为转换后的二维坐标;
当0≤x≤(|A-M|)2且0≤y≤(|B-M|)2时,判定所述交点在所述透明区域内。
7.根据权利要求1至6中任一项所述目标追踪方法,其特征在于,所述照射角度包括所述低点相机的水平角和俯仰角。
8.一种目标追踪系统,其特征在于,包括:
第一确定模块,用于确定追踪目标,并确定所述追踪目标对应的低点相机;
第二确定模块,用于根据高点相机的AR信息确定所述追踪目标和所述低点相机的三维坐标;
计算模块,用于根据所述追踪目标和所述低点相机的三维坐标计算所述低点相机的照射角度,并根据所述照射角度调整所述低点相机以便实现对所述追踪目标的追踪。
9.一种电子设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至7任一项所述目标追踪方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述目标追踪方法的步骤。
CN201910129871.6A 2019-02-21 2019-02-21 一种目标追踪方法、系统及电子设备和存储介质 Active CN111599018B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910129871.6A CN111599018B (zh) 2019-02-21 2019-02-21 一种目标追踪方法、系统及电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910129871.6A CN111599018B (zh) 2019-02-21 2019-02-21 一种目标追踪方法、系统及电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN111599018A true CN111599018A (zh) 2020-08-28
CN111599018B CN111599018B (zh) 2024-05-28

Family

ID=72183169

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910129871.6A Active CN111599018B (zh) 2019-02-21 2019-02-21 一种目标追踪方法、系统及电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN111599018B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113518214A (zh) * 2021-05-25 2021-10-19 上海哔哩哔哩科技有限公司 全景视频数据处理方法及装置

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07124335A (ja) * 1993-11-08 1995-05-16 Sega Enterp Ltd 交差判定方法及びこれを用いたゲーム装置
JPH09145368A (ja) * 1995-11-29 1997-06-06 Ikegami Tsushinki Co Ltd ステレオ画像による物体の移動追跡方法
JP2001025003A (ja) * 1999-07-08 2001-01-26 Canon Inc カメラシステム及びカメラ制御方法
JP2001094975A (ja) * 1999-09-20 2001-04-06 Hitachi Ltd 移動物体追跡方法および装置
JP2001148028A (ja) * 1999-11-24 2001-05-29 Victor Co Of Japan Ltd 図形表示装置及びその方法
CN103024350A (zh) * 2012-11-13 2013-04-03 清华大学 一种双目ptz视觉系统的主从跟踪方法及应用该方法的系统
US20140028805A1 (en) * 2011-04-15 2014-01-30 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurment devices
JP2015200917A (ja) * 2014-04-03 2015-11-12 株式会社スクウェア・エニックス 画像処理プログラム、画像処理装置及び画像処理方法。
CN105245852A (zh) * 2015-10-27 2016-01-13 太原市公安局 一种视频监控方法
CN105338248A (zh) * 2015-11-20 2016-02-17 成都因纳伟盛科技股份有限公司 智能多目标主动跟踪监控方法及系统
US20170102467A1 (en) * 2013-11-20 2017-04-13 Certusview Technologies, Llc Systems, methods, and apparatus for tracking an object
CN107580199A (zh) * 2017-09-08 2018-01-12 深圳市伊码泰珂电子有限公司 重叠视域多摄像机协同的目标定位与跟踪系统
US20180059207A1 (en) * 2015-03-09 2018-03-01 Hangzhou Hikvision Digital Technology Co.. Ltd Method, device and system for target tracking
KR101916093B1 (ko) * 2018-04-20 2018-11-08 유한회사 한국케이비에프 객체 추적 방법
CN109003288A (zh) * 2017-05-31 2018-12-14 国基电子(上海)有限公司 多目标追踪方法、电子装置及计算机可读存储介质
JP2018200700A (ja) * 2018-07-17 2018-12-20 株式会社カプコン 映像生成方法、映像生成プログラムおよび映像生成装置
CN109151439A (zh) * 2018-09-28 2019-01-04 上海爱观视觉科技有限公司 一种基于视觉的自动追踪拍摄系统及方法
CN109272527A (zh) * 2018-09-03 2019-01-25 中国人民解放军国防科技大学 一种三维场景中随机运动目标的跟踪控制方法及装置

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07124335A (ja) * 1993-11-08 1995-05-16 Sega Enterp Ltd 交差判定方法及びこれを用いたゲーム装置
JPH09145368A (ja) * 1995-11-29 1997-06-06 Ikegami Tsushinki Co Ltd ステレオ画像による物体の移動追跡方法
JP2001025003A (ja) * 1999-07-08 2001-01-26 Canon Inc カメラシステム及びカメラ制御方法
JP2001094975A (ja) * 1999-09-20 2001-04-06 Hitachi Ltd 移動物体追跡方法および装置
JP2001148028A (ja) * 1999-11-24 2001-05-29 Victor Co Of Japan Ltd 図形表示装置及びその方法
US20140028805A1 (en) * 2011-04-15 2014-01-30 Faro Technologies, Inc. System and method of acquiring three-dimensional coordinates using multiple coordinate measurment devices
CN103024350A (zh) * 2012-11-13 2013-04-03 清华大学 一种双目ptz视觉系统的主从跟踪方法及应用该方法的系统
US20170102467A1 (en) * 2013-11-20 2017-04-13 Certusview Technologies, Llc Systems, methods, and apparatus for tracking an object
JP2015200917A (ja) * 2014-04-03 2015-11-12 株式会社スクウェア・エニックス 画像処理プログラム、画像処理装置及び画像処理方法。
US20180059207A1 (en) * 2015-03-09 2018-03-01 Hangzhou Hikvision Digital Technology Co.. Ltd Method, device and system for target tracking
CN105245852A (zh) * 2015-10-27 2016-01-13 太原市公安局 一种视频监控方法
CN105338248A (zh) * 2015-11-20 2016-02-17 成都因纳伟盛科技股份有限公司 智能多目标主动跟踪监控方法及系统
CN109003288A (zh) * 2017-05-31 2018-12-14 国基电子(上海)有限公司 多目标追踪方法、电子装置及计算机可读存储介质
CN107580199A (zh) * 2017-09-08 2018-01-12 深圳市伊码泰珂电子有限公司 重叠视域多摄像机协同的目标定位与跟踪系统
KR101916093B1 (ko) * 2018-04-20 2018-11-08 유한회사 한국케이비에프 객체 추적 방법
JP2018200700A (ja) * 2018-07-17 2018-12-20 株式会社カプコン 映像生成方法、映像生成プログラムおよび映像生成装置
CN109272527A (zh) * 2018-09-03 2019-01-25 中国人民解放军国防科技大学 一种三维场景中随机运动目标的跟踪控制方法及装置
CN109151439A (zh) * 2018-09-28 2019-01-04 上海爱观视觉科技有限公司 一种基于视觉的自动追踪拍摄系统及方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
CHONG DING等: "Collaborative Sensing in a Distributed PTZ Camera Network", pages 3282 - 3295 *
CRISTIAN SOTO等: "Distributed multi-target tracking in a self-configuring camera network", pages 1486 - 1493 *
中国安防行业网: "天地伟业AR实景指挥系统应用于全国立体化防控", HTTP://NEWS.21CSP.COM.CN/C14/201809/11373262.HTML?FROM=TIMELINE, pages 1 - 3 *
安防协会: "宇视安博会现场头号大招解读", HTTP://WWW.GDAFXH.ORG.CN/INDEX.PHP?AC=ARTICLE&AT=READ&DID=9772, pages 1 - 3 *
张琼;王志良;迟健男;史雪飞;: "基于平面镜面向双摄像机视线追踪系统的标定方法" *
张琼;王志良;迟健男;史雪飞;: "基于平面镜面向双摄像机视线追踪系统的标定方法", 光学学报, no. 04, pages 200 - 206 *
海康威视: "云图交通AR实景指挥作战系统解决方案", HTTP://WWW.0797-1.COM/INDEX.PHP?_M=MOD_ARTICLE&_A=ARTICLE_CONTENT&ARTICLE_ID=517%20, pages 1 - 4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113518214A (zh) * 2021-05-25 2021-10-19 上海哔哩哔哩科技有限公司 全景视频数据处理方法及装置
CN113518214B (zh) * 2021-05-25 2022-03-15 上海哔哩哔哩科技有限公司 全景视频数据处理方法及装置

Also Published As

Publication number Publication date
CN111599018B (zh) 2024-05-28

Similar Documents

Publication Publication Date Title
Rebolj et al. Point cloud quality requirements for Scan-vs-BIM based automated construction progress monitoring
US20230298285A1 (en) Augmented and virtual reality
US9189853B1 (en) Automatic pose estimation from uncalibrated unordered spherical panoramas
KR101583286B1 (ko) 공간 정보를 제공하기 위한 증강 현실 제공 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템
EP2643822B1 (en) Guided navigation through geo-located panoramas
AU2014240544B2 (en) Translated view navigation for visualizations
US9805509B2 (en) Method and system for constructing a virtual image anchored onto a real-world object
US20120116728A1 (en) Click to accept as built modeling
US10317777B2 (en) Automatic zooming method and apparatus
US10497177B1 (en) Tool for onsite augmentation of reality meshes
CN112712584B (zh) 空间建模方法、装置、设备
KR101600456B1 (ko) 공간 정보를 제공하기 위한 증강 현실 제공 방법과 시스템, 그리고 기록 매체 및 파일 배포 시스템
CN103914876A (zh) 用于在3d地图上显示视频的方法和设备
KR102061867B1 (ko) 이미지 생성 장치 및 그 방법
US20230154027A1 (en) Spatial construction using guided surface detection
Haynes et al. Mobile augmented reality for flood visualisation in urban riverside landscapes
KR101875047B1 (ko) 사진측량을 이용한 3d 모델링 시스템 및 방법
CN111340960B (zh) 图像的建模方法、装置、存储介质和电子设备
Albahri et al. Simulation-based optimization of surveillance camera types, number, and placement in buildings using BIM
CN111599018B (zh) 一种目标追踪方法、系统及电子设备和存储介质
CN111369680A (zh) 生成建筑物的三维图像的方法及装置
JP6980802B2 (ja) 拡張現実を提供するための方法、装置及びコンピュータプログラム
JP2016066918A (ja) 映像表示装置、映像表示制御方法、及びプログラム
CN114600162A (zh) 用于捕捉摄像机图像的场景锁定模式
KR102257442B1 (ko) 사용자의 상황에 반응하는 증강현실 서비스 제공 방법 및 그 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant