CN108961310A - 对目标自动识别和跟踪实现的装置、系统、介质、计算设备和方法 - Google Patents

对目标自动识别和跟踪实现的装置、系统、介质、计算设备和方法 Download PDF

Info

Publication number
CN108961310A
CN108961310A CN201810606653.2A CN201810606653A CN108961310A CN 108961310 A CN108961310 A CN 108961310A CN 201810606653 A CN201810606653 A CN 201810606653A CN 108961310 A CN108961310 A CN 108961310A
Authority
CN
China
Prior art keywords
target
video
tracking
view
coordinate information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810606653.2A
Other languages
English (en)
Inventor
王德祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Rui Qing Dimension Airlines Technology Development Co Ltd
Original Assignee
Beijing Rui Qing Dimension Airlines Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Rui Qing Dimension Airlines Technology Development Co Ltd filed Critical Beijing Rui Qing Dimension Airlines Technology Development Co Ltd
Priority to CN201810606653.2A priority Critical patent/CN108961310A/zh
Publication of CN108961310A publication Critical patent/CN108961310A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

本发明的实施方式提供了一种对目标自动识别和跟踪实现的装置和系统、介质、计算设备和方法。该装置包括:包括视图采集模块,用于采集包含目标的视频;后端服务器,用于根据所述视频确定所述目标在所述视频中的坐标信息;目标跟踪模块,用于根据所述坐标信息跟踪所述目标;控制器,用于控制视图采集模块采集包含所述目标的视频,以及控制所述目标跟踪模块根据所述坐标信息跟踪所述目标。本发明的优点在于,将视频采集、目标跟踪与目标识别分开实现,有利于视图采集模块、目标跟踪模块与后端服务器各自快速、有效地实现自己的功能,在实际工作条件下能够根据需要灵活地分别对视图采集模块、目标跟踪模块与后端服务器的功能进行软件和/或硬件上的改进和扩展。

Description

对目标自动识别和跟踪实现的装置、系统、介质、计算设备和 方法
技术领域
本发明涉及信息技术领域,尤其涉及一种对目标自动识别和跟踪实现的装置、系统、介质、计算设备和方法。
背景技术
在现有技术中,对目标自动识别和跟踪实现的装置和方法有多种,其中,大多数将对目标自动识别和跟踪实现的前端和后端集成在一起来实现,扩展性较差。
将对目标自动识别和跟踪实现的前端和后端分开,能够更加灵活的扩展各自的功能和整体的功能,更加准确有效地实现对目标的自动识别和跟踪实现。
发明内容
在下文中给出了关于本申请的简要概述,以便提供关于本申请的某些方面的基本理解。应当理解,这个概述并不是关于本申请的穷举性概述。它并不是意图确定本申请的关键或重要部分,也不是意图限定本申请的范围。其目的仅仅是以简化的形式给出某些概念,以此作为稍后论述的更详细描述的前序。
鉴于现有技术的上述缺陷,本申请的目的之一是提供一种对目标自动识别和跟踪实现的装置、系统、介质、计算设备和方法,以至少解决现有的对目标自动识别和跟踪实现的前端和后端集成在一起、扩展性差的问题。
根据本申请的第一个方面,提供一种对目标自动识别和跟踪实现的装置,包括视图采集模块,用于采集包含目标的视频;后端服务器,用于根据所述视频确定所述目标在所述视频中的坐标信息;目标跟踪模块,用于根据所述坐标信息跟踪所述目标;控制器,用于控制所述视图采集模块采集包含所述目标的视频,以及控制所述目标跟踪模块根据所述坐标信息跟踪所述目标。
根据本申请的第二个方面,提供一种对目标自动识别和跟踪实现的方法,包括采集包含目标的视频;根据所述视频确定所述目标在所述视频中的坐标信息;根据所述坐标信息跟踪所述目标。
根据本申请的第三个方面,提供一种计算机可读存储介质,存储有程序代码,所述程序代码当被处理器执行时,实现如前所述的方法。
根据本申请的第四个方面,提供一种计算设备,包括处理器和存储有程序代码的存储介质,所述程序代码当被处理器执行时,实现如前所述的方法。
根据本申请的第五个方面,提供一种对目标自动识别和跟踪实现的系统,包括如前所述的对目标自动识别和跟踪实现的装置、所述的对目标自动识别和跟踪实现的方法、所述的计算机可读存储介质,以及所述的计算设备。
本申请的上述对目标自动识别和跟踪实现的装置、系统、介质、计算设备和方法,能够实现将前端和后端分开进行,以利于各自的功能扩展和整体功能扩展,更加准确有效地实现对目标的自动识别和跟踪实现。
附图说明
为了进一步阐述本发明的以上和其他优点和特征,下面结合附图对本发明的具体实施方式作进一步详细的说明。附图连同下面的详细说明一起包含在本说明书中并且形成本说明书的一部分。具有相同的功能和结构的元件用相同的参考标号表示。应当理解,这些附图仅描述本发明的典型示例,而不应看作是对本发明的范围的限定。在附图中:
图1为根据本发明的对目标自动识别和跟踪实现的装置的一种实施方式的结构示意图;
图2为根据本发明的对目标自动识别和跟踪实现的装置的另一种实施方式的结构示意图;
图3为根据本发明的对目标自动识别和跟踪实现的装置的又一种实施方式的结构示意图;
图4为根据本发明的对目标自动识别和跟踪实现的方法的一种实施方式的流程图;
图5为根据本发明的对目标自动识别和跟踪实现的方法的另一种实施方式的流程图;
图6为根据本发明的对目标自动识别和跟踪实现的方法的又一种实施方式的流程图;
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
在下文中将结合实施例对本发明的示范性实施方式进行描述。为了清楚和简明起见,在说明书中并未描述实际实施方式的所有特征。然而,应该了解,在开发任何这种实际实施方式的过程中必须做出很多特定于实施方式的决定,以便实现开发人员的具体目标,例如,符合与系统业务相关的那些限制条件,并且这些限制条件可能会随着实施方式的不同而有所改变。此外,还应该了解,虽然开发工作有可能是非常复杂和费时的,但对得益于本公开内容的本领域技术人员来说,这种开发工作仅仅是例行的任务。
在此,还需要说明的一点是,为了避免因不必要的细节而模糊了本发明,在附图中仅仅示出了与根据本发明的方案密切相关的设备结构和/或处理步骤,而省略了与本发明关系不大的其他细节。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。在上下文中所称“计算机设备”,也称为“电脑”,是指可以通过运行预定程序或指令来执行数值计算和/或逻辑计算等预定处理过程的智能电子设备,其可以包括处理器与存储器,由处理器执行在存储器中预存的存续指令来执行预定处理过程,或是由ASIC、FPGA、DSP等硬件执行预定处理过程,或是由上述二者组合来实现。计算机设备包括但不限于服务器、个人电脑、笔记本电脑、平板电脑、智能手机等。
所述计算机设备包括用户设备与网络设备。其中,所述用户设备包括但不限于电脑、智能手机、PDA等;所述网络设备包括但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(Cloud Computing)的由大量计算机或网络服务器构成的云,其中,云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个超级虚拟计算机。其中,所述计算机设备可单独运行来实现本发明,也可接入网络并通过与网络中的其他计算机设备的交互操作来实现本发明。其中,所述计算机设备所处的网络包括但不限于互联网、广域网、城域网、局域网、VPN网络等。
需要说明的是,所述用户设备、网络设备和网络等仅为举例,其他现有的或今后可能出现的计算机设备或网络如可适用于本发明,也应包含在本发明保护范围以内,并以引用方式包含于此。
后面所讨论的方法(其中一些通过流程图示出)可以通过硬件、软件、固件、中间件、微代码、硬件描述语言或者其任意组合来实施。当用软件、固件、中间件或微代码来实施时,用以实施必要任务的程序代码或代码段可以被存储在机器或计算机可读介质(比如存储介质)中。(一个或多个)处理器可以实施必要的任务。
这里所公开的具体结构和功能细节仅仅是代表性的,并且是用于描述本发明的示例性实施例的目的。但是本发明可以通过许多替换形式来具体实现,并且不应当被解释成仅仅受限于这里所阐述的实施例。
应当理解的是,虽然在这里可能使用了术语“第一”、“第二”等等来描述各个单元,但是这些单元不应当受这些术语限制。使用这些术语仅仅是为了将一个单元与另一个单元进行区分。举例来说,在不背离示例性实施例的范围的情况下,第一单元可以被称为第二单元,并且类似地第二单元可以被称为第一单元。这里所使用的术语“和/或”包括其中一个或更多所列出的相关联项目的任意和所有组合。
应当理解的是,当一个单元被称为“连接”或“耦合”到另一单元时,其可以直接连接或耦合到所述另一单元,或者可以存在中间单元。与此相对,当一个单元被称为“直接连接”或“直接耦合”到另一单元时,则不存在中间单元。应当按照类似的方式来解释被用于描述单元之间的关系的其他词语(例如“处于...之间”相比于“直接处于...之间”,“与...邻近”相比于“与...直接邻近”等等)。
这里所使用的术语仅仅是为了描述具体实施例而不意图限制示例性实施例。除非上下文明确地另有所指,否则这里所使用的单数形式“一个”、“一项”还意图包括复数。还应当理解的是,这里所使用的术语“包括”和/或“包含”规定所陈述的特征、整数、步骤、操作、单元和/或组件的存在,而不排除存在或添加一个或更多其他特征、整数、步骤、操作、单元、组件和/或其组合。
根据本发明的第一个方面,介绍一种对目标自动识别和跟踪实现的装置,包括视图采集模块,用于采集包含目标的视频;后端服务器,用于根据所述视频确定所述目标在所述视频中的坐标信息;目标跟踪模块,用于根据所述坐标信息跟踪所述目标;控制器,用于控制所述视图采集模块采集包含所述目标的视频,以及控制所述目标跟踪模块根据所述坐标信息跟踪所述目标。
如图1所示为根据本发明的对目标自动识别和跟踪实现的装置的一种实施方式的结构示意图。
本发明的优点在于,将视频采集、目标跟踪与目标识别分开实现,有利于视图采集模块、目标跟踪模块与后端服务器各自快速、有效地实现自己的功能,各司其职,在实际工作条件下能够根据需要灵活地分别对视图采集模块、目标跟踪模块与后端服务器的功能进行软件和/或硬件上的改进和扩展,而不至于将所有的功能集成在同一个服务器上面而造成服务器压力过大,功能改进和扩展的空间很小,从而影响整体的实用性。
可选的,控制器104可以是智能手机、PAD、电脑等一切可以实现控制功能的设备;可选的,视图采集模块101可以包括视图采集卡、相机、摄像机以及设备支架与转台等视频采集设备;可选的,目标跟踪模块103可以包括能够运行目标跟踪算法并且能够向视图采集模块101发出控制指令的软件和硬件。
作为本发明的第一个实施例,视图采集模块101和目标跟踪模块103可以同时作为对目标自动识别和跟踪实现的前端,后端服务器102可以作为对目标自动识别和跟踪实现的后端。
可选的,控制器104控制视图采集模块101采集包含目标的视频并获取该视频,再将该视频传递给后端服务器102进行目标识别,后端服务器102确定目标在视频中的坐标信息,并将坐标信息反馈给控制器104,控制器104将坐标信息传递给前端的目标跟踪模块103,可选的,目标跟踪模块103可以在接收到坐标信息的同时自动开始对目标进行跟踪,也可以根据控制器104的控制指令对目标进行跟踪。
可选的,控制器104控制视图采集模块101采集包含目标的视频,并控制视图采集模块101将该视频传递给控制器104的同时直接单向传递给后端服务器102进行目标识别,后端服务器102确定目标在视频中的坐标信息,并将坐标信息传递给控制器104的同时直接单向传递给目标跟踪模块103,可选的,目标跟踪模块103可以在接收到坐标信息的同时自动开始对目标进行跟踪,也可以根据控制器104的控制指令对目标进行跟踪。在本实施例中,将视频直接传递给后端服务器,并将坐标信息直接传递给目标跟踪模块,能够减少信息传递的步骤,从而减少对目标识别和跟踪的响应时间,实现对目标识别和跟踪的快速响应。
在发明的实施例中,均没有对所采集的视频进行压缩,视图采集模块101、后端服务器102、目标跟踪模块103以及控制器104之间通过高速通道或网络互联,高速通道或网络例如可以是千兆以太网、USB3.0等。实际应用时,后端服务器102一旦发现控制器104发出的传来视频的控制指令即自动开始进行目标识别,随后将识别结果发送出去,并且,将目标跟踪模块103与视图采集模块101同放在前端,目标跟踪模块103能够根据接收的坐标信息及时向视图采集模块101发出控制指令对目标进行跟踪,缩短了目标跟踪信息从目标跟踪模块103到视图采集模块101的传递时间,能够更加及时快速地实现对目标的跟踪。
可选的,目标跟踪模块103可以锁定目标;可选的,锁定目标可以用框线、红点等锁定标记对目标进行标记。
如图2所示为根据本发明的对目标自动识别和跟踪实现的装置的另一种实施方式的结构示意图。
作为一种可选的实施方式,视图采集模块101还可以包括视频切分子模块1011,用于将视频切分为单帧图片。视频切分子模块1011可以将视图采集模块101采集的含有目标的视频切分为单帧图片,后端服务器102可以根据单帧图片确定目标在该单帧图片中的坐标信息,进而确定目标在视频中的坐标信息。
作为一种可选的实施方式,视图采集模块101还可以采集包含目标的图片,后端服务器102可以根据图片确定目标在该图片中的坐标信息。
作为一种可选的实施方式,视图采集模块101还可以包括目标引导子模块1012,用于获取目标的空间方位,视图采集模块101还用于,根据目标引导子模块1012获取的目标的空间方位采集包含目标的视频和/或图片。
可选的,视图采集模块101可以根据目标的空间方位采集包含目标的视频,视频切分子模块1011将该视频切分为单帧图片,后端服务器102根据单帧图片确定目标在视频和/或图片中的坐标信息。
可选的,视图采集模块101可以根据目标的空间方位采集包含目标的图片。
可选的,目标引导子模块1012可以包括雷达等用于确定目标的空间方位的设备。
作为一个具体实施例,目标引导子模块1012,例如可以是雷达等,获取目标的空间方位,并将目标的空间方位信息传递给视图采集模块101,视图采集模块101中的视频采集设备,例如可以是相机、红外摄像机等,根据目标的空间方位调整姿态,例如可以平移、旋转等,对准目标进行视频和/或图片采集,从而能够准确采集到包含目标的视频和/或图片。
作为一种可选的实施方式,后端服务器102还可以确定目标的类型。例如可以确定视频和/或图片中的目标的类型是无人机还是飞禽、是合法的还是非法的、民用的还是军用的,可选的,进一步可以确定目标的用途、型号等信息,用以初步判断该目标是否为预计要跟踪的目标,实现第一次筛选,排除大量其他物体的干扰,有利于迅速锁定目标,大大提高跟踪效率。
作为一种可选的实施方式,后端服务器102还可以判断目标的正确性。当判断视频和/或图片中的目标类型与预计要跟踪的目标类型一致时,后端服务器102进一步判断目标的正确性,例如可以将视频和/或图片中目标的相关信息与已知的想要跟踪的目标的信息进行比对,当吻合度达到预定条件时,确定视频和/或图片中的目标为预计要跟踪的目标;当判断视频和/或图片中的目标类型与预计要跟踪的目标类型不一致时,将判断结果发送给控制器104,重新开始新一轮的视频和/或图片采集、目标识别与跟踪。
作为一种可选的实施方式,后端服务器102还可以包括基于机器学习算法的目标识别子模块1021,用于基于机器学习算法根据视频和/或图片确定目标在视频和/或图片中的坐标信息。机器学习算法,例如可以是深度神经网络、循环神经网络、卷积神经网络、LSTM(Long Short-Term Memory,长短期记忆网络)等。优选的,该机器学习算法为卷积神经网络。
作为一个具体实施例,后端服务器102中的目标识别子模块1021基于卷积神经网络根据视频和/或图片确定目标在该视频和/或图片中的坐标信息。
作为一种可选的实施方式,基于机器学习算法的目标识别子模块1021还可以基于机器学习算法确定目标的类型。
作为一个具体实施例,后端服务器102中的目标识别子模块1021基于卷积神经网络确定目标的类型。
作为一种可选的实施方式,基于机器学习算法的目标识别子模块1021还可以基于机器学习算法判断目标的正确性。
作为一个具体实施例,后端服务器102中的目标识别子模块1021基于卷积神经网络判断目标的正确性。
作为一种可选的实施方式,视图采集模块101还可以实时采集包含目标的视频和/或图片。
作为一种可选的实施方式,目标跟踪模块103还可以用于根据后端服务器102确定的目标的坐标信息跟踪视频采集模块101实时采集的包含目标的视频和/或图片中的目标。在本技术方案采用高速通道或网络的条件下,能够实现对实时视频和/或图片中的目标进行持续跟踪。
作为一种可选的实施方式,目标跟踪模块103还可以包括视图平面跟踪子模块1031,用于根据坐标信息在视图平面的范围内跟踪目标。可选的,视图平面的范围可以是视图采集设备的视图平面的范围,例如可以是相机或摄像机的镜头所采集的视图平面范围。在视图平面的范围内,视图平面跟踪子模块1031可以根据目标的坐标信息在视图平面的范围内锁定目标或锁定目标的锁定标记,用以在视图平面的范围你跟踪目标。
作为一种可选的实施方式,当目标到视图边界的垂直距离小于或等于第一距离阈值时,视图平面跟踪子模块1031还可以用于调整视图采集模块101,例如可以调整视图采集模块101中的视图采集设备例如相机、摄像机等的角度和位置,以使目标回到视图平面的中心区域。
作为一个具体实施例,当目标到视图左边边界的垂直距离小于或等于第一距离阈值时,视图平面跟踪子模块1031调整视图采集模块101中的例如摄像机的拍摄角度,使摄像机的镜头向左旋转或者将摄像机整体向左平移或者两个动作均采用,以使目标远离视图的左边边界,回到视图平面的中心区域。同理,当目标到视图右边边界的垂直距离小于或等于第一距离阈值时,视图平面跟踪子模块1031调整视图采集模块101中的例如摄像机的拍摄角度,使摄像机的镜头向右旋转或者将摄像机整体向右平移或者两个动作均采用,以使目标远离视图的右边边界,回到视图平面的中心区域。
可选的,视图平面的中心区域可以是与视图边界的垂直距离等于第一距离阈值的点围成的区域。
可选的,视图平面的中心区域可以是以视图平面的几何中心为圆心,以第二距离阈值为半径的圆形区域。
作为一种可选的实施方式,目标跟踪模块103还可以包括垂直视图跟踪子模块1032,用于在与视图平面垂直的方向上跟踪目标。可选的,在与视图平面垂直的方向上,垂直视图跟踪子模块1031可以根据目标大小占视图的比例确定目标在与视图平面垂直的方向上远离了视图平面或者靠近了视图平面,用以在与视图平面垂直的方向上跟踪目标。
作为一种可选的实施方式,垂直视图跟踪子模块1031还可以包括变焦单元,视图采集模块101还可以包括镜头,当目标大小占视图大小的百分比大于或等于第一占比阈值且小于或等于第二占比阈值时,不需调整镜头的焦距,当目标大小占视图大小的百分比小于第一占比阈值或大于第二占比阈值时,调整镜头的焦距,以使目标大小占视图大小的百分比大于或等于第一占比阈值且小于或等于第二占比阈值。
可选的,当目标大小占视图大小的百分比小于第一占比阈值时,说明目标远离了视图平面,调整镜头拉长焦距,以使目标大小占视图大小的百分比大于或等于第一占比阈值且小于或等于第二占比阈值;当目标大小占视图大小的百分比大于第二占比阈值时,说明目标靠近了视图平面,调整镜头拉近焦距,以使目标大小占视图大小的百分比大于或等于第一占比阈值且小于或等于第二占比阈值。
作为另一种可选的实施方式,当目标在视图平面中的图像变模糊时,说明目标远离或靠近了视图平面,可以通过调整镜头焦距,以使视图平面中的目标图像变清晰。
可选的,垂直视图跟踪子模块1031可以用于调整视图采集模块101,例如可以调整视图采集模块101中的视图采集设备例如摄像机的位置,例如向前平移或向后平移,以使目标大小占视图大小的百分比大于或等于第一占比阈值且小于或等于第二占比阈值或使目标在视图平面中的图像变清晰。
如图3所示为根据本发明的对目标自动识别和跟踪实现的装置的又一种实施方式的结构示意图。
作为一种可选的实施方式,后端服务器102还可以包括目标轨迹预测子模块1022,用于根据目标在视频和/或图片中的坐标信息预测目标的运动轨迹。
作为一种可选的实施方式,目标轨迹预测子模块1022可以根据单帧图片预测目标的运动轨迹。
作为一个具体实施例,目标轨迹预测子模块1022根据目标的坐标信息在多张单帧图片中的变化情况预测目标的运动轨迹。例如可以对目标的在多张单帧图片中的坐标进行拟合,以获取目标运动轨迹的预测图像。
作为一种可选的实施方式,目标跟踪模块103还可以根据后端服务器102中的目标轨迹预测子模块1022预测的目标轨迹预先设计跟踪动作,同时根据目标的坐标信息实时跟踪目标,当目标跟踪模块103判定目标的实际运动轨迹与预测的运动轨迹重合时,执行预先设计的跟踪动作。
作为一种可选的实施方式,目标轨迹预测子模块1022还包括轨迹对比单元,用于对比预测的目标的运动轨迹和目标的实际运动轨迹。轨迹对比单元可以根据对比结果对目标轨迹预测子模块1022的预测算法进行调整,以使后续对目标轨迹的预测更加准确。
作为一种可选的实施方式,目标轨迹预测子模块1022还可以根据对比结果重新预测目标的运动轨迹。可选的,目标轨迹预测子模块1022可以根据轨迹对比单元的调整,重新预测目标轨迹,也可以拒绝轨迹对比单元的调整,坚持原本的目标轨迹预测。
可选的,轨迹对比单元对目标预测子模块预测目标轨迹算法的调整可以是实时地。可选的,目标预测子模块对目标轨迹的预测可以实时更新。
作为一种可选的实施方式,控制器104可以包括用户交互模块1041,用于接收用户指令,并根据用户指令做出反馈,例如,在能够执行时执行指令,在不能够执行时及时反馈给用户不能执行的原因以及建议指令。
作为本发明的第二个实施例,视图采集模块101可以作为对目标自动识别和跟踪实现的前端,后端服务器102和目标跟踪模块103可以同时作为对目标自动识别和跟踪实现的后端,例如将目标跟踪模块103内置于后端服务器102,后端同时实现对目标的自动识别和跟踪。相关的各模块与设备的功能与前述类似,在此不再赘述。
根据本发明的第二个方面,介绍一种对目标自动识别和跟踪实现的方法。如图4所示为根据本发明的对目标自动识别和跟踪实现的方法的一种实施方式的流程图。
作为本发明的第三个实施例,介绍一种对目标自动识别和跟踪实现的方法,包括采集包含目标的视频,根据视频确定目标在视频中的坐标信息,根据坐标信息跟踪目标。
可选的,根据坐标信息跟踪目标可以锁定目标,根据坐标信息跟踪锁定的目标或目标的锁定标记。
可选的,锁定标记可以是框线、红点等。
如图5所示为根据本发明的对目标自动识别和跟踪实现的方法的另一种实施方式的流程图。
作为一种可选的实施方式,采集包含目标的视频还可以包括将视频切分为单帧图片,可以根据单帧图片确定目标在视频中的坐标信息,进而确定目标在视频中的坐标信息,并根据坐标信息跟踪目标。
作为一种可选的实施方式,采集包含目标的视频还可以包括采集包含目标的图片。可选的,可以根据图片确定目标在图片和/或视频中的坐标信息。
作为一种可选的实施方式,采集包含目标的视频和/或图片还可以包括获取目标的空间方位,根据获取的目标的空间方位采集包含目标的视频和/或图片。
作为一种可选的实施方式,根据视频和/或图片确定目标在视频和/或图片中的坐标信息还可以包括根据单帧图片确定目标在视频和/或图片中的坐标信息。根据获取的目标的空间方位采集的包含目标的视频中可以确定是包含目标的,将该视频切分为单帧图片,并根据单帧图片确定目标在视频中的坐标信息。
作为一种可选的实施方式,根据视频和/或图片确定目标在视频和/或图片中的坐标信息还可以包括确定目标的类型。
作为一种可选的实施方式,根据视频和/或图片确定目标在视频和/或图片中的坐标信息还可以包括判断目标的正确性。
作为一种可选的实施方式,还可以包括基于机器学习算法根据视频和/或图片确定目标在视频和/或图片中的坐标信息。机器学习算法例如可以包括深度神经网络、循环神经网络、卷积神经网络、LSTM等。
优选的,可以基于卷积神经网络根据视频和/或图片确定目标在视频和/或图片中的坐标信息。
作为一种可选的实施方式,还可以包括基于机器学习算法确定目标的类型。优选的,可以基于卷积神经网络根据视频和/或图片确定目标的类型。
作为一种可选的实施方式,还可以包括基于机器学习算法判断目标的正确性。优选的,可以基于卷积神经网络判断目标的正确性。
作为一种可选的实施方式,采集包含目标的视频和/或图片还可以包括实时采集包含目标的视频和/或图片。
作为一种可选的实施方式,根据坐标信息跟踪目标还可以包括根据目标的坐标信息跟踪实时采集的包含目标的视频和/或图片中的目标。
作为一种可选的实施方式,根据坐标信息跟踪目标还可以包括根据坐标信息在视图平面的范围内跟踪目标。
作为一种可选的实施方式,根据坐标信息在视图平面的范围内跟踪目标可以包括:当目标到视图边界的垂直距离小于或等于第一距离阈值时,调整视图采集角度和/或位置,以使目标回到视图平面的中心区域。
可选的,视图平面的中心区域可以是与视图边界的垂直距离等于第一距离阈值的点围成的区域。
可选的,视图平面的中心区域可以是以视图平面的几何中心为圆心,以第二距离阈值为半径的圆形区域。
作为一种可选的实施方式,根据坐标信息跟踪目标还可以包括在与视图平面垂直的方向内跟踪目标。
作为一种可选的实施方式,根据坐标信息在与视图平面垂直的方向内跟踪目标还可以包括:当目标大小占视图大小的百分比大于或等于第一占比阈值且小于或等于第二占比阈值时,不需调整焦距;当目标大小占视图大小的百分比小于第一占比阈值或大于第二占比阈值时,调整焦距以使目标大小占视图大小的百分比大于或等于第一占比阈值且小于或等于第二占比阈值。
如图6所示为根据本发明的对目标自动识别和跟踪实现的方法的又一种实施方式的流程图。
作为一种可选的实施方式,根据视频和/或图片确定目标在视频和/或图片中的坐标信息还可以包括根据目标在视频和/或图片中的坐标信息预测目标的运动轨迹。
作为一种可选的实施方式,根据视频和/或图片确定目标在视频和/或图片中的坐标信息还可以包括根据目标在单帧图片中的坐标信息预测目标的运动轨迹。
作为一种可选的实施方式,根据坐标信息跟踪目标还可以包括根据预测的目标的运动轨迹跟踪实时采集的包含目标的视频和/或图片中的目标。
作为一种可选的实施方式,还可以包括对比预测的目标的运动轨迹和目标的实际运动轨迹。
作为一种可选的实施方式,还可以包括根据对比结果重新预测目标的运动轨迹。
作为一种可选的实施方式,还可以包括接收用户指令并根据用户指令作出反馈。
作为本发明的第四个实施例,介绍一种计算机可读存储介质,存储有程序代码,程序代码当被处理器执行时,实现上述对目标自动识别和跟踪实现的方法。
在一些可能的实施方式中,本发明的各个方面还可以实现为一种存储有程序产品的计算机可读存储介质,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述对目标自动识别和跟踪实现的方法的步骤。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或可读存储介质。可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件或者上述的任意合适的组合。
在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或器件使用或者与其结合使用。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言——例如Java、C++等,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络——包括局域网或广域网——连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
作为本发明的第五个实施例,提供一种计算设备,包括处理器和存储有程序代码的存储介质,程序代码当被处理器执行时,实现上述对目标自动识别和跟踪实现的方法。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
在一些可能的实施方式中,根据本发明的对目标自动识别和跟踪实现的装置可以至少包括至少一个处理器、以及至少一个存储器。其中,所述存储器存储有程序代码,当所述程序代码被所述处理器执行时,使得所述处理器执行本说明书上述对目标自动识别和跟踪实现的方法的步骤。
作为本发明的第六个实施例,介绍一种对目标自动识别和跟踪实现的系统,包括上述对目标自动识别和跟踪实现的装置和方法、计算机可读存储介质以及计算设备。
应当注意,尽管在上文详细描述中提及了对目标自动识别和跟踪实现的装置的若干单元/模块或子单元/模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多单元/模块的特征和功能可以在一个单元/模块中具体化。反之,上文描述的一个单元/模块的特征和功能可以进一步划分为由多个单元/模块来具体化。
此外,尽管在附图中以特定顺序描述了本发明方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
虽然已经参考若干具体实施方式描述了本发明的精神和原理,但是应该理解,本发明并不限于所公开的具体实施方式,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本发明旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。
根据以上实施方式的说明,本申请提供了如下技术方案。
方案1、一种对目标自动识别和跟踪实现的装置,其中,包括:
视图采集模块,用于采集包含目标的视频;
后端服务器,用于根据所述视频确定所述目标在所述视频中的坐标信息;
目标跟踪模块,用于根据所述坐标信息跟踪所述目标;
控制器,用于控制所述视图采集模块采集包含所述目标的视频,以及控制所述目标跟踪模块根据所述坐标信息跟踪所述目标。
方案2、根据方案1所述的装置,其中,所述视频采集模块还包括:视频切分子模块,用于将所述视频切分为单帧图片。
方案3、根据方案2所述的装置,其中,所述视图采集模块还用于,采集包含所述目标的图片。
方案4、根据方案1或2或3所述的装置,其中,所述视图采集模块还包括:目标引导子模块,用于获取所述目标的空间方位;
所述视图采集模块还用于,根据所述目标引导子模块获取的所述目标的空间方位采集包含所述目标的视频。
方案5、根据方案4所述的装置,其中,所述后端服务器还用于,根据所述单帧图片确定所述目标在所述视频中的坐标信息。
方案6、根据方案5所述的装置,其中,所述后端服务器还用于,确定所述目标的类型。
方案7、根据方案6所述的装置,其中,所述后端服务器还用于,判断所述目标的正确性。
方案8、根据方案1或7所述的装置,其中,所述后端服务器还包括:基于机器学习算法的目标识别子模块,用于基于机器学习算法根据所述视频确定所述目标在所述视频中的坐标信息。
方案9、根据方案8所述的装置,其中,所述基于机器学习算法的目标识别子模块还用于,基于机器学习算法确定所述目标的类型。
方案10、根据方案9所述的装置,其中,所述基于机器学习算法的目标识别子模块还用于,基于机器学习算法判断所述目标的正确性。
方案11、根据方案1或7或10所述的装置,其中,所述视图采集模块还用于,实时采集包含所述目标的视频。
方案12、根据方案11所述的装置,其中,所述目标跟踪模块还用于,根据所述后端服务器确定的所述目标的坐标信息跟踪所述视频采集模块实时采集的包含所述目标的视频中的所述目标。
方案13、根据方案1或12所述的装置,其中,所述目标跟踪模块还包括:视图平面跟踪子模块,用于根据所述坐标信息在视图平面的范围内跟踪所述目标。
方案14、根据方案13所述的装置,其中,所述视图平面跟踪子模块还用于,当所述目标到所述视图边界的垂直距离小于或等于第一距离阈值时,调整所述视图采集模块,以使所述目标回到所述视图平面的中心区域。
方案15、根据方案14所述的装置,其中,所述视图平面的中心区域为与所述视图边界的垂直距离等于第一距离阈值的点围成的区域。
方案16、根据方案14所述的装置,其中,所述视图平面的中心区域为以所述视图平面的几何中心为圆心,以第二距离阈值为半径的圆形区域。
方案17、根据方案15或16所述的装置,其中,所述目标跟踪模块还包括垂直视图跟踪子模块,用于在与所述视图平面垂直的方向内跟踪所述目标。
方案18、根据方案17所述的装置,其中,所述垂直视图跟踪子模块还包括变焦单元,并且所述视图采集模块包括镜头;
所述变焦单元用于,当所述目标大小占所述视图大小的百分比大于或等于第一占比阈值且小于或等于第二占比阈值时,不需调整所述视图采集模块的所述镜头的焦距;当所述目标大小占所述视图大小的百分比小于第一占比阈值或大于第二占比阈值时,调整所述视图采集模块的所述镜头的焦距以使所述目标大小占所述视图大小的百分比大于或等于第一占比阈值且小于或等于第二占比阈值。
方案19、根据方案18所述的装置,其中,所述后端服务器还包括:目标轨迹预测子模块,用于根据所述目标在所述视频中的坐标信息预测所述目标的运动轨迹。
方案20、根据方案19所述的装置,其中,所述目标轨迹预测子模块还用于,根据单帧图片预测所述目标的运动轨迹。
方案21、根据方案19或20所述的装置,其中,所述目标跟踪模块还用于,根据所述目标轨迹预测子模块预测的所述目标的运动轨迹跟踪所述视频采集模块实时采集的包含所述目标的视频中的所述目标。
方案22、根据方案21所述的装置,其中,所述目标轨迹预测子模块还包括:轨迹对比单元,用于对比预测的所述目标的运动轨迹和所述目标的实际运动轨迹。
方案23、根据方案22所述的装置,其中,所述目标轨迹预测子模块还用于,根据对比结果重新预测所述目标的运动轨迹。
方案24、根据方案23所述的装置,其中,所述控制器包括:用户交互模块,用于接收用户指令并根据所述用户指令做出反馈。
方案25、一种对目标自动识别和跟踪实现的方法,其中,包括:
采集包含目标的视频;
根据所述视频确定所述目标在所述视频中的坐标信息;
根据所述坐标信息跟踪所述目标。
方案26、根据方案25所述的方法,其中,所述采集包含目标的视频还包括:将所述视频切分为单帧图片。
方案27、根据方案26所述的方法,其中,所述采集包含目标的视频还包括:采集包含所述目标的图片。
方案28、根据方案25或26或27所述的方法,其中,所述采集包含目标的视频还包括:获取所述目标的空间方位;
根据获取的所述目标的空间方位采集包含所述目标的视频。
方案29、根据方案28所述的方法,其中,所述根据所述视频确定所述目标在所述视频中的坐标信息还包括:根据所述单帧图片确定所述目标在所述视频中的坐标信息。
方案30、根据方案29所述的方法,其中,所述根据所述视频确定所述目标在所述视频中的坐标信息还包括:确定所述目标的类型。
方案31、根据方案30所述的方法,其中,所述根据所述视频确定所述目标在所述视频中的坐标信息还包括:判断所述目标的正确性。
方案32、根据方案25或31所述的方法,其中,还包括:基于机器学习算法根据所述视频确定所述目标在所述视频中的坐标信息。
方案33、根据方案32所述的方法,其中,还包括:基于机器学习算法确定所述目标的类型。
方案34、根据方案33所述的方法,其中,还包括:基于机器学习算法判断所述目标的正确性。
方案35、根据方案25或31或34所述的方法,其中,所述采集包含目标的视频还包括:实时采集包含所述目标的视频。
方案36、根据方案35所述的方法,其中,所述根据所述坐标信息跟踪所述目标还包括:根据所述目标的坐标信息跟踪实时采集的包含所述目标的视频中的所述目标。
方案37、根据方案25或36所述的方法,其中,所述根据所述坐标信息跟踪所述目标还包括:根据所述坐标信息在视图平面的范围内跟踪所述目标。
方案38、根据方案37所述的方法,其中,所述根据所述坐标信息在视图平面的范围内跟踪所述目标包括:当所述目标到所述视图边界的垂直距离小于或等于第一距离阈值时,调整所述视图采集角度和/或位置,以使所述目标回到所述视图平面的中心区域。
方案39、根据方案38所述的方法,其中,所述视图平面的中心区域为与所述视图边界的垂直距离等于第一距离阈值的点围成的区域。
方案40、根据方案38所述的方法,其中,所述视图平面的中心区域为以所述视图平面的几何中心为圆心,以第二距离阈值为半径的圆形区域。
方案41、根据方案39或40所述的方法,其中,所述根据所述坐标信息跟踪所述目标还包括:在与所述视图平面垂直的方向内跟踪所述目标。
方案42、根据方案41所述的方法,其中,根据所述坐标信息在与所述视图平面垂直的方向内跟踪所述目标还包括:
当所述目标大小占所述视图大小的百分比大于或等于第一占比阈值且小于或等于第二占比阈值时,不需调整焦距;当所述目标大小占所述视图大小的百分比小于第一占比阈值或大于第二占比阈值时,调整焦距以使所述目标大小占所述视图大小的百分比大于或等于第一占比阈值且小于或等于第二占比阈值。
方案43、根据方案42所述的方法,其中,所述根据所述视频确定所述目标在所述视频中的坐标信息还包括:根据所述目标在所述视频中的坐标信息预测所述目标的运动轨迹。
方案44、根据方案43所述的方法,其中,所述根据所述视频确定所述目标在所述视频中的坐标信息还包括:根据所述目标在单帧图片中的坐标信息预测所述目标的运动轨迹。
方案45、根据方案43或44所述的方法,其中,所述根据所述坐标信息跟踪所述目标还包括:根据预测的所述目标的运动轨迹跟踪所述实时采集的包含所述目标的视频中的所述目标。
方案46、根据方案45所述的方法,其中,还包括:对比预测的所述目标的运动轨迹和所述目标的实际运动轨迹。
方案47、根据方案46所述的方法,其中,还包括:根据对比结果重新预测所述目标的运动轨迹。
方案48、根据方案47所述的方法,其中,还包括:接收用户指令并根据所述用户指令做出反馈。
方案49、一种计算机可读存储介质,存储有程序代码,所述程序代码当被处理器执行时,实现如方案25-48之一所述的方法。
方案50、一种计算设备,包括处理器和存储有程序代码的存储介质,所述程序代码当被处理器执行时,实现如方案25-48之一所述的方法。
方案51、一种对目标自动识别和跟踪实现的系统,包括:
方案1-24之一所述的对目标自动识别和跟踪实现的装置、方案25-48之一所述的对目标自动识别和跟踪实现的方法、方案49所述的计算机可读存储介质,以及方案50所述的计算设备。

Claims (10)

1.一种对目标自动识别和跟踪实现的装置,其中,包括:
视图采集模块,用于采集包含目标的视频;
后端服务器,用于根据所述视频确定所述目标在所述视频中的坐标信息;
目标跟踪模块,用于根据所述坐标信息跟踪所述目标;
控制器,用于控制所述视图采集模块采集包含所述目标的视频,以及控制所述目标跟踪模块根据所述坐标信息跟踪所述目标。
2.根据权利要求1所述的装置,其中,所述视图采集模块还包括:目标引导子模块,用于获取所述目标的空间方位;
所述视图采集模块还用于,根据所述目标引导子模块获取的所述目标的空间方位采集包含所述目标的视频。
3.根据权利要求1所述的装置,其中,所述后端服务器还包括:基于机器学习算法的目标识别子模块,用于基于机器学习算法根据所述视频确定所述目标在所述视频中的坐标信息。
4.根据权利要求1所述的装置,其中,所述目标跟踪模块还包括:视图平面跟踪子模块,用于根据所述坐标信息在视图平面的范围内跟踪所述目标。
5.根据权利要求4所述的装置,其中,所述目标跟踪模块还包括垂直视图跟踪子模块,用于在与所述视图平面垂直的方向内跟踪所述目标。
6.根据权利要求5所述的装置,其中,所述后端服务器还包括:目标轨迹预测子模块,用于根据所述目标在所述视频中的坐标信息预测所述目标的运动轨迹。
7.一种对目标自动识别和跟踪实现的方法,其中,包括:
采集包含目标的视频;
根据所述视频确定所述目标在所述视频中的坐标信息;
根据所述坐标信息跟踪所述目标。
8.一种计算机可读存储介质,存储有程序代码,所述程序代码当被处理器执行时,实现如权利要求7所述的方法。
9.一种计算设备,包括处理器和存储有程序代码的存储介质,所述程序代码当被处理器执行时,实现如权利要求7所述的方法。
10.一种对目标自动识别和跟踪实现的系统,包括:
权利要求1-6之一所述的对目标自动识别和跟踪实现的装置、权利要求7所述的对目标自动识别和跟踪实现的方法、权利要求8所述的计算机可读存储介质,以及权利要求9所述的计算设备。
CN201810606653.2A 2018-06-13 2018-06-13 对目标自动识别和跟踪实现的装置、系统、介质、计算设备和方法 Pending CN108961310A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810606653.2A CN108961310A (zh) 2018-06-13 2018-06-13 对目标自动识别和跟踪实现的装置、系统、介质、计算设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810606653.2A CN108961310A (zh) 2018-06-13 2018-06-13 对目标自动识别和跟踪实现的装置、系统、介质、计算设备和方法

Publications (1)

Publication Number Publication Date
CN108961310A true CN108961310A (zh) 2018-12-07

Family

ID=64488706

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810606653.2A Pending CN108961310A (zh) 2018-06-13 2018-06-13 对目标自动识别和跟踪实现的装置、系统、介质、计算设备和方法

Country Status (1)

Country Link
CN (1) CN108961310A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110636255A (zh) * 2019-08-21 2019-12-31 西南交通大学 一种基于4g网络的无人机图像、视频传输分发系统及方法
CN113486960A (zh) * 2021-07-12 2021-10-08 安徽耀峰雷达科技有限公司 基于长短时记忆神经网络的无人机跟踪方法、装置、存储介质及计算机设备
CN114189641A (zh) * 2021-11-30 2022-03-15 广州博冠信息科技有限公司 视频处理方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040257444A1 (en) * 2003-06-18 2004-12-23 Matsushita Electric Industrial Co., Ltd. Video surveillance system, surveillance video composition apparatus, and video surveillance server
CN106713862A (zh) * 2016-12-23 2017-05-24 浙江宇视科技有限公司 跟踪监控方法及装置
CN107918765A (zh) * 2017-11-17 2018-04-17 中国矿业大学 一种移动目标检测并追踪系统及其方法
CN108038408A (zh) * 2017-10-13 2018-05-15 西安天和防务技术股份有限公司 智能跟踪方法及装置、存储介质及电子终端
CN108055501A (zh) * 2017-11-22 2018-05-18 天津市亚安科技有限公司 一种目标检测及跟踪的视频监控系统及方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040257444A1 (en) * 2003-06-18 2004-12-23 Matsushita Electric Industrial Co., Ltd. Video surveillance system, surveillance video composition apparatus, and video surveillance server
CN106713862A (zh) * 2016-12-23 2017-05-24 浙江宇视科技有限公司 跟踪监控方法及装置
CN108038408A (zh) * 2017-10-13 2018-05-15 西安天和防务技术股份有限公司 智能跟踪方法及装置、存储介质及电子终端
CN107918765A (zh) * 2017-11-17 2018-04-17 中国矿业大学 一种移动目标检测并追踪系统及其方法
CN108055501A (zh) * 2017-11-22 2018-05-18 天津市亚安科技有限公司 一种目标检测及跟踪的视频监控系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李成美: "一种改进光流法的运动目标检测及跟踪算法", 《仪器仪表学报》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110636255A (zh) * 2019-08-21 2019-12-31 西南交通大学 一种基于4g网络的无人机图像、视频传输分发系统及方法
CN113486960A (zh) * 2021-07-12 2021-10-08 安徽耀峰雷达科技有限公司 基于长短时记忆神经网络的无人机跟踪方法、装置、存储介质及计算机设备
CN114189641A (zh) * 2021-11-30 2022-03-15 广州博冠信息科技有限公司 视频处理方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
US11045705B2 (en) Methods and systems for 3D ball trajectory reconstruction
US11423695B2 (en) Face location tracking method, apparatus, and electronic device
CN113196296B (zh) 使用几何上下文检测人群中的对象
CN105120146B (zh) 一种利用无人机进行运动物体自动锁定拍摄装置及拍摄方法
CN109241820B (zh) 基于空间探索的无人机自主拍摄方法
Chen et al. Crowd map: Accurate reconstruction of indoor floor plans from crowdsourced sensor-rich videos
US9361519B2 (en) Computational array camera with dynamic illumination for eye tracking
CN110192168A (zh) 一种无人机拍照方法、图像处理方法和装置
Chen et al. Rise of the indoor crowd: Reconstruction of building interior view via mobile crowdsourcing
CN110472516B (zh) 一种人物图像识别系统的构建方法、装置、设备及系统
CN109815844A (zh) 目标检测方法及装置、电子设备和存储介质
CN108961310A (zh) 对目标自动识别和跟踪实现的装置、系统、介质、计算设备和方法
CN108447159A (zh) 人脸图像采集方法、装置和出入口管理系统
CN106650965A (zh) 一种远程视频处理方法及装置
CN108510454A (zh) 用于生成深度图像的方法和装置
CN108702456A (zh) 一种对焦方法、设备及可读存储介质
CN103955494A (zh) 目标对象的搜索方法、装置及终端
Wang et al. Object as query: Lifting any 2d object detector to 3d detection
CN110796135A (zh) 目标的定位方法及装置、计算机设备、计算机存储介质
CN111723769A (zh) 用于处理图像的方法、装置、设备以及存储介质
CN110336948B (zh) 一种预定区域聚焦的方法、装置、存储介质及电子装置
CN107479715A (zh) 利用手势控制实现虚拟现实交互的方法和装置
Yao et al. QE-BEV: Query evolution for bird's eye view object detection in varied contexts
CN113822097B (zh) 单视角人体姿态识别方法、装置、电子设备和存储介质
CN105894533A (zh) 基于智能设备实现体感控制的方法、系统以及智能设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181207