CN111311649A - 一种室内物联视频跟踪方法和系统 - Google Patents

一种室内物联视频跟踪方法和系统 Download PDF

Info

Publication number
CN111311649A
CN111311649A CN202010044182.8A CN202010044182A CN111311649A CN 111311649 A CN111311649 A CN 111311649A CN 202010044182 A CN202010044182 A CN 202010044182A CN 111311649 A CN111311649 A CN 111311649A
Authority
CN
China
Prior art keywords
camera
personnel
target person
indoor
internet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010044182.8A
Other languages
English (en)
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Terminus Technology Co Ltd
Original Assignee
Chongqing Terminus Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Terminus Technology Co Ltd filed Critical Chongqing Terminus Technology Co Ltd
Priority to CN202010044182.8A priority Critical patent/CN111311649A/zh
Publication of CN111311649A publication Critical patent/CN111311649A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Abstract

本发明公开了一种室内物联视频跟踪方法和系统,其中,方法包括:获取目标区域内物联网摄像机采集的实时视频;对实时视频中的人员识别定位并根据用户指令选择跟踪目标人员;确定目标人员的运动轨迹,并根据目标人员的移动方向和移动速度,生成目标人员的预估运动轨迹;调用目标人员当前空间位置对应的摄像机根据目标人员的运动轨迹和预估运动轨迹调整朝向和变焦,稳定追踪目标人员。通过本发明的技术方案,定位跟踪准确性较高,无需室内人员使用电子产品主动配合,就可以获得流动人员运动轨迹、定位跟踪信息,实现对流动人员行为进行分析获得数据,从而辅助公共场合监管者做出决策。

Description

一种室内物联视频跟踪方法和系统
技术领域
本发明涉及定位跟踪技术领域,具体地涉及一种室内物联视频跟踪方法和一种室内物联视频跟踪系统。
背景技术
目前一般采用基于电磁信号的定位技术来进行定位服务,例如使用手机GPS信号、蜂窝信号、WIFI信号以及蓝牙信号等进行定位服务。在室内使用电磁信号的定位技术来进行定位服务容易受信号强弱的影响,在电磁信号比较弱的区域可能会造成定位不准确,从而影响用户的体验。
在一些公共场合里,例如商场、机场、地铁站以及博物馆等,往往需要对流动人员行为进行分析获得数据,从而辅助公共场合监管者做出决策。
因此,亟需一种能够监控室内人员,无需室内人员使用电子产品主动配合,从而获得室内人员定位跟踪信息的有效技术。
发明内容
本发明的目的在于一种室内物联视频跟踪方法和一种室内物联视频跟踪系统,来获得室内人员定位跟踪信息,无需室内人员使用电子产品主动配合,定位准确度较高。
在本发明的第一方面,提出了一种室内物联视频跟踪方法,包括:获取目标区域内物联网摄像机采集的实时视频;对实时视频中的人员识别定位并根据用户指令选择跟踪目标人员;确定目标人员的运动轨迹,并根据目标人员的移动方向和移动速度,生成目标人员的预估运动轨迹;调用目标人员当前空间位置对应的摄像机根据目标人员的运动轨迹和预估运动轨迹调整朝向和变焦,稳定追踪目标人员。
本方案中,通过获取目标区域内物联网摄像机采集的实时视频,之后对实时视频中的人员识别定位并根据用户指令选择跟踪目标人员,无需依赖人员使用电子产品主动配合,就能实现对人员识别定位,而且定位准确性较高,通过确定目标人员的运动轨迹,并根据目标人员的移动方向和移动速度,生成目标人员的预估运动轨迹,之后调用目标人员当前空间位置对应的摄像机根据目标人员的运动轨迹和预估运动轨迹调整朝向和变焦,稳定追踪目标人员,实现了对目标人员的追踪,一方面,有利于实现对流动人员行为进行分析获得数据,从而辅助公共场合监管者做出决策,另一方面,还有利于提升安防性能。
在上述技术方案中,优选地,室内物联视频跟踪方法还包括:当判断目标人员在当前摄像机覆盖边缘位置时,根据预先存储的室内环境三维模型切换至可覆盖目标人员当前空间位置的另一摄像机对目标人员进行跟踪。
本方案中,通过在判断目标人员在当前摄像机覆盖边缘位置时,根据预先存储的室内环境三维模型切换至可覆盖目标人员当前空间位置的另一摄像机对目标人员进行跟踪,实现了对目标人员的持续追踪,而且定位跟踪准确性较高。
在上述任一项技术方案中,优选地,对实时视频中的人员识别定位并根据用户指令选择跟踪目标人员包括:分析物联网摄像机采集到的视频数据流,根据人脸识别方法和步态识别方法从每帧图像中识别所有人员;根据相应的摄像机位置姿态信息,计算出每帧图像中所有人员空间位置;根据每帧图像的采集时间及相应空间位置生成所有人员的运动轨迹;根据用户指令选择跟踪目标人员。
本方案中,通过分析物联网摄像机采集到的视频数据流,根据人脸识别方法和步态识别方法从每帧图像中识别所有人员,对人员的区分度较高,识别准确性较高,通过根据相应的摄像机位置姿态信息,计算出每帧图像中所有人员空间位置,对人员的定位准确性较高,通过根据每帧图像的采集时间及相应空间位置生成所有人员的运动轨迹,一方面有利于对流动人员行为进行分析获得数据,从而辅助公共场合监管者做出决策,另一方面,有利于分析预估出目标人员下一步运动轨迹进行持续跟踪,通过根据用户指令选择跟踪目标人员,针对性较强,可以针对性对对流动人员行为进行分析获得数据,从而辅助公共场合监管者做出决策,而且有利于实现安防、寻人等功能。
在上述任一项技术方案中,优选地,根据相应的摄像机位置姿态信息,计算出每帧图像中所有人员空间位置,包括:获取每帧图像对应的摄像机位置姿态信息;基于摄影测量算法,根据摄像机位置姿态信息,计算对应图像帧中所有人员空间位置;若人员处于两个及以上摄像机的重叠覆盖区域,则根据三角定位法精确确定更新相应人员空间位置。
本方案中,通过获取每帧图像对应的摄像机位置姿态信息,之后基于摄影测量算法,根据摄像机位置姿态信息,计算对应图像帧中所有人员空间位置,人员定位准确性较高,定位响应速度比较及时有效,通过在人员处于两个及以上摄像机的重叠覆盖区域,则根据三角定位法精确确定更新相应人员空间位置,进一步提升了人员定位准确性。
在上述任一项技术方案中,优选地,摄像机位置姿态信息包括摄像机位置信息、姿态信息、内部光学几何参数,摄像机位置信息为在目标区域中摄像机所处的三维坐标,空间位置由目标区域中三维坐标定义。
在上述任一项技术方案中,优选地,还包括:预先建立室内环境三维模型,映射物联网摄像机至室内环境三维模型中,并存储每一物联网摄像机的覆盖范围,室内环境包括商场、机场、地铁站、博物馆中的任意一种。
本方案中,通过预先建立室内环境三维模型,同时映射物联网摄像机至室内环境三维模型中,并存储每一物联网摄像机的覆盖范围,有利于实现人员空间位置定位,对于用户查看来说比较形象直观,能够比较直接地了解到人员所处空间位置。
在本发明的第二方面,提出了一种室内物联视频跟踪系统,包括:多个物联网摄像机,用于采集目标区域内的实时视频,并传输姿态信息和视频数据至服务器,根据接收到的服务器发送的控制指令调整姿态、角度朝向和变焦倍数,以获得目标人员图像;服务器,分别与多个物联网摄像机相连,用于执行上述技术方案中提出的任一项的方法。
本方案中,通过多个物联网摄像机,实现了采集目标区域内的实时视频,并传输姿态信息和视频数据至服务器,根据接收到的服务器发送的控制指令调整姿态、角度朝向和变焦倍数,以获得目标人员图像,对目标人员进行持续定位跟踪,定位准确性较好,无需室内人员使用电子产品主动配合,就能实现对流动人员行为进行分析获得数据,从而辅助公共场合监管者做出决策。
在上述技术方案中,优选地,多个物联网摄像机均匀覆盖于室内目标区域,相邻的两个物联网摄像机和/或相对的两个物联网摄像机设置重叠覆盖区域,所有物联网摄像机的采集时间同步。
本方案中,通过多个物联网摄像机均匀覆盖于室内目标区域,相邻的两个物联网摄像机和/或相对的两个物联网摄像机设置重叠覆盖区域,视频采集比较全面,有利于实现对室内目标区域内目标人员的持续性定位追踪,通过所有物联网摄像机的采集时间同步,进一步提升了人员空间位置和运动轨迹确定的准确性。
需要说明的是,室内环境中预先设置有多个物联网摄像机,所述多个物联网摄像机可以为同一种类的传感器,也可以是多种类传感器的组合,这里不做限定。
在本发明的第三方面,提出了一种设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的方法。
在本发明的第四方面,提出了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如第一方面所述的方法。
本发明的技术方案提出了一种室内物联视频跟踪方法和一种室内物联视频跟踪系统,通过多个物联网摄像机采集目标区域内的实时视频,并传输姿态信息和视频数据至服务器,服务器分析视频数据调用目标人员当前空间位置对应的摄像机根据目标人员的运动轨迹和预估运动轨迹调整朝向和变焦,稳定追踪目标人员,定位跟踪准确性较高,无需室内人员使用电子产品主动配合,就可以获得流动人员运动轨迹、定位跟踪信息,实现对流动人员行为进行分析获得数据,从而辅助公共场合监管者做出决策。
附图说明
图1示出了根据本发明实施例的室内物联视频跟踪方法的流程图;
图2示出了根据本发明实施例的室内物联视频跟踪系统的架构图;
图3示出了能够实施本公开的实施例的示例性电子设备的方框图。
具体实施方式
下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1示出了根据本发明实施例的室内物联视频跟踪方法的流程图。如图1所示,根据本发明实施例的室内物联视频跟踪方法,包括:
S102,获取目标区域内物联网摄像机采集的实时视频;
S104,对实时视频中的人员识别定位并根据用户指令选择跟踪目标人员;
S106,确定目标人员的运动轨迹,并根据目标人员的移动方向和移动速度,生成目标人员的预估运动轨迹;
S108,调用目标人员当前空间位置对应的摄像机根据目标人员的运动轨迹和预估运动轨迹调整朝向和变焦,稳定追踪目标人员。
本实施例中,通过获取目标区域内物联网摄像机采集的实时视频,之后对实时视频中的人员识别定位并根据用户指令选择跟踪目标人员,无需依赖人员使用电子产品主动配合,就能实现对人员识别定位,而且定位准确性较高,通过确定目标人员的运动轨迹,并根据目标人员的移动方向和移动速度,生成目标人员的预估运动轨迹,之后调用目标人员当前空间位置对应的摄像机根据目标人员的运动轨迹和预估运动轨迹调整朝向和变焦,稳定追踪目标人员,实现了对目标人员的追踪,一方面,有利于实现对流动人员行为进行分析获得数据,从而辅助公共场合监管者做出决策,另一方面,还有利于提升安防性能。
在上述实施例中,优选地,室内物联视频跟踪方法还包括:当判断目标人员在当前摄像机覆盖边缘位置时,根据预先存储的室内环境三维模型切换至可覆盖目标人员当前空间位置的另一摄像机对目标人员进行跟踪。
本实施例中,通过在判断目标人员在当前摄像机覆盖边缘位置时,根据预先存储的室内环境三维模型切换至可覆盖目标人员当前空间位置的另一摄像机对目标人员进行跟踪,实现了对目标人员的持续追踪,而且定位跟踪准确性较高。
在上述任一项实施例中,优选地,对实时视频中的人员识别定位并根据用户指令选择跟踪目标人员包括:分析物联网摄像机采集到的视频数据流,根据人脸识别方法和步态识别方法从每帧图像中识别所有人员;根据相应的摄像机位置姿态信息,计算出每帧图像中所有人员空间位置;根据每帧图像的采集时间及相应空间位置生成所有人员的运动轨迹;根据用户指令选择跟踪目标人员。
本实施例中,通过分析物联网摄像机采集到的视频数据流,根据人脸识别方法和步态识别方法从每帧图像中识别所有人员,对人员的区分度较高,识别准确性较高,通过根据相应的摄像机位置姿态信息,计算出每帧图像中所有人员空间位置,对人员的定位准确性较高,通过根据每帧图像的采集时间及相应空间位置生成所有人员的运动轨迹,一方面有利于对流动人员行为进行分析获得数据,从而辅助公共场合监管者做出决策,另一方面,有利于分析预估出目标人员下一步运动轨迹进行持续跟踪,通过根据用户指令选择跟踪目标人员,针对性较强,可以针对性对对流动人员行为进行分析获得数据,从而辅助公共场合监管者做出决策,而且有利于实现安防、寻人等功能。
在上述任一项实施例中,优选地,根据相应的摄像机位置姿态信息,计算出每帧图像中所有人员空间位置,包括:获取每帧图像对应的摄像机位置姿态信息;基于摄影测量算法,根据摄像机位置姿态信息,计算对应图像帧中所有人员空间位置;若人员处于两个及以上摄像机的重叠覆盖区域,则根据三角定位法精确确定更新相应人员空间位置。
本实施例中,通过获取每帧图像对应的摄像机位置姿态信息,之后基于摄影测量算法,根据摄像机位置姿态信息,计算对应图像帧中所有人员空间位置,人员定位准确性较高,定位响应速度比较及时有效,通过在人员处于两个及以上摄像机的重叠覆盖区域,则根据三角定位法精确确定更新相应人员空间位置,进一步提升了人员定位准确性。
在上述任一项实施例中,优选地,摄像机位置姿态信息包括摄像机位置信息、姿态信息、内部光学几何参数,摄像机位置信息为在目标区域中摄像机所处的三维坐标,空间位置由目标区域中三维坐标定义。
在上述任一项实施例中,优选地,还包括:预先建立室内环境三维模型,映射物联网摄像机至室内环境三维模型中,并存储每一物联网摄像机的覆盖范围,室内环境包括商场、机场、地铁站、博物馆中的任意一种。
本实施例中,通过预先建立室内环境三维模型,同时映射物联网摄像机至室内环境三维模型中,并存储每一物联网摄像机的覆盖范围,有利于实现人员空间位置定位,对于用户查看来说比较形象直观,能够比较直接地了解到人员所处空间位置。
图2示出了根据本发明实施例的室内物联视频跟踪系统的架构图。如图2所示,根据本发明实施例的室内物联视频跟踪系统200,包括:多个物联网摄像机202,用于采集目标区域内的实时视频,并传输姿态信息和视频数据至服务器,根据接收到的服务器204发送的控制指令调整姿态、角度朝向和变焦倍数,以获得目标人员图像;服务器204,分别与多个物联网摄像机202相连,用于执行上述实施例中提出的任一项的方法。
本实施例中,通过多个物联网摄像机202,实现了采集目标区域内的实时视频,并传输姿态信息和视频数据至服务器,根据接收到的服务器发送的控制指令调整姿态、角度朝向和变焦倍数,以获得目标人员图像,对目标人员进行持续定位跟踪,定位准确性较好,无需室内人员使用电子产品主动配合,就能实现对流动人员行为进行分析获得数据,从而辅助公共场合监管者做出决策。
在上述实施例中,优选地,多个物联网摄像机202均匀覆盖于室内目标区域,相邻的两个物联网摄像机202和/或相对的两个物联网摄像机202设置重叠覆盖区域,所有物联网摄像机202的采集时间同步。
本实施例中,通过多个物联网摄像机202均匀覆盖于室内目标区域,相邻的两个物联网摄像机202和/或相对的两个物联网摄像机202设置重叠覆盖区域,视频采集比较全面,有利于实现对室内目标区域内目标人员的持续性定位追踪,通过所有物联网摄像机202的采集时间同步,进一步提升了人员空间位置和运动轨迹确定的准确性。
需要说明的是,室内环境中预先设置有多个物联网摄像机202,所述多个物联网摄像机202可以为同一种类的传感器,也可以是多种类传感器的组合,这里不做限定。
图3示出了可以用来实施本公开的实施例的电子设备300的示意性框图。如图3所示,设备300包括中央处理单元(CPU)301,其可以根据存储在只读存储器(ROM)302中的计算机程序指令或者从存储单元308加载到随机访问存储器(RAM)303中的计算机程序指令,来执行各种适当的动作和处理。在RAM 303中,还可以存储设备300操作所需的各种程序和数据。CPU 301、ROM 302以及RAM 303通过总线304彼此相连。输入/输出(I/O)接口305也连接至总线304。
设备300中的多个部件连接至I/O接口305,包括:输入单元306,例如键盘、鼠标等;输出单元307,例如各种类型的显示器、扬声器等;存储单元308,例如磁盘、光盘等;以及通信单元309,例如网卡、调制解调器、无线通信收发机等。通信单元309允许设备300通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理单元301执行上文所描述的各个方法和处理。例如,在一些实施例中,方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元308。在一些实施例中,计算机程序的部分或者全部可以经由ROM 302和/或通信单元309而被载入和/或安装到设备300上。当计算机程序加载到RAM 303并由CPU 301执行时,可以执行上文描述的方法的一个或多个步骤。备选地,在其他实施例中,CPU 301可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)等等。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
此外,虽然采用特定次序描绘了各操作,但是这应当理解为要求这样操作以所示出的特定次序或以顺序次序执行,或者要求所有图示的操作应被执行以取得期望的结果。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实现中。相反地,在单个实现的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实现中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (10)

1.一种室内物联视频跟踪方法,其特征在于,包括:
获取目标区域内物联网摄像机采集的实时视频;
对所述实时视频中的人员识别定位并根据用户指令选择跟踪目标人员;
确定所述目标人员的运动轨迹,并根据所述目标人员的移动方向和移动速度,生成所述目标人员的预估运动轨迹;
调用所述目标人员当前空间位置对应的摄像机根据所述目标人员的运动轨迹和预估运动轨迹调整朝向和变焦,稳定追踪所述目标人员。
2.根据权利要求1所述的室内物联视频跟踪方法,其特征在于,所述室内物联视频跟踪方法还包括:
当判断所述目标人员在当前摄像机覆盖边缘位置时,根据预先存储的室内环境三维模型切换至可覆盖所述目标人员当前空间位置的另一摄像机对所述目标人员进行跟踪。
3.根据权利要求2所述的室内物联视频跟踪方法,其特征在于,所述对所述实时视频中的人员识别定位并根据用户指令选择跟踪目标人员包括:
分析所述物联网摄像机采集到的视频数据流,根据人脸识别方法和步态识别方法从每帧图像中识别所有人员;
根据相应的摄像机位置姿态信息,计算出每帧图像中所有人员空间位置;
根据每帧图像的采集时间及相应空间位置生成所有人员的运动轨迹;
根据用户指令选择跟踪目标人员。
4.根据权利要求3所述的室内物联视频跟踪方法,其特征在于,所述根据相应的摄像机位置姿态信息,计算出每帧图像中所有人员空间位置,包括:
获取每帧图像对应的摄像机位置姿态信息;
基于摄影测量算法,根据所述摄像机位置姿态信息,计算对应图像帧中所有人员空间位置;
若人员处于两个及以上摄像机的重叠覆盖区域,则根据三角定位法精确确定更新相应人员空间位置。
5.根据权利要求4所述的室内物联视频跟踪方法,其特征在于,
所述摄像机位置姿态信息包括摄像机位置信息、姿态信息、内部光学几何参数,
所述摄像机位置信息为在所述目标区域中摄像机所处的三维坐标,所述空间位置由所述目标区域中三维坐标定义。
6.根据权利要求2至5中任一项所述的室内物联视频跟踪方法,其特征在于,还包括:
预先建立所述室内环境三维模型,映射所述物联网摄像机至所述室内环境三维模型中,并存储每一所述物联网摄像机的覆盖范围,
所述室内环境包括商场、机场、地铁站、博物馆中的任意一种。
7.一种室内物联视频跟踪系统,其特征在于,包括:
多个物联网摄像机,用于采集目标区域内的实时视频,并传输姿态信息和视频数据至服务器,根据接收到的服务器发送的控制指令调整姿态、角度朝向和变焦倍数,以获得目标人员图像;
所述服务器,分别与所述多个物联网摄像机相连,用于执行上述如权利要求1~6中任一项所述的方法。
8.根据权利要求7所述的室内物联视频跟踪系统,其特征在于,
多个所述物联网摄像机均匀覆盖于室内目标区域,相邻的两个所述物联网摄像机和/或相对的两个所述物联网摄像机设置重叠覆盖区域,所有所述物联网摄像机的采集时间同步。
9.一种设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1~6中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1~6中任一项所述的方法。
CN202010044182.8A 2020-01-15 2020-01-15 一种室内物联视频跟踪方法和系统 Pending CN111311649A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010044182.8A CN111311649A (zh) 2020-01-15 2020-01-15 一种室内物联视频跟踪方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010044182.8A CN111311649A (zh) 2020-01-15 2020-01-15 一种室内物联视频跟踪方法和系统

Publications (1)

Publication Number Publication Date
CN111311649A true CN111311649A (zh) 2020-06-19

Family

ID=71145175

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010044182.8A Pending CN111311649A (zh) 2020-01-15 2020-01-15 一种室内物联视频跟踪方法和系统

Country Status (1)

Country Link
CN (1) CN111311649A (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111967306A (zh) * 2020-07-02 2020-11-20 广东技术师范大学 目标远程监控方法、装置、计算机设备及存储介质
CN112118427A (zh) * 2020-10-29 2020-12-22 上海擎感智能科技有限公司 监控方法、系统、服务器及计算机存储介质
CN112333419A (zh) * 2020-08-21 2021-02-05 深圳Tcl新技术有限公司 监控追踪方法、装置、系统与计算机可读存储介质
CN112511864A (zh) * 2020-11-23 2021-03-16 北京爱笔科技有限公司 轨迹展示方法、装置、计算机设备和存储介质
CN112995599A (zh) * 2021-02-25 2021-06-18 深圳市中西视通科技有限公司 一种安防摄像机图像识别模式切换方法及系统
CN113596353A (zh) * 2021-08-10 2021-11-02 广州艾美网络科技有限公司 体感互动数据处理方法、装置及体感互动设备
CN113630562A (zh) * 2021-06-03 2021-11-09 山东捷瑞数字科技股份有限公司 用于人员行为数据采集的方法、系统和存储介质
CN113873152A (zh) * 2021-09-18 2021-12-31 温州大学大数据与信息技术研究院 一种运动目标跟踪方法
CN114061092A (zh) * 2021-11-12 2022-02-18 珠海大横琴科技发展有限公司 一种温度调节设备的控制方法和装置
CN114938426A (zh) * 2022-04-28 2022-08-23 湖南工商大学 用于创建多装置媒体呈现的方法和设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101572804A (zh) * 2009-03-30 2009-11-04 浙江大学 多摄像机智能控制方法及装置
CN106446002A (zh) * 2016-08-01 2017-02-22 三峡大学 一种基于运动目标在地图中轨迹的视频检索方法
CN110232712A (zh) * 2019-06-11 2019-09-13 武汉数文科技有限公司 室内人员定位跟踪方法和计算机设备
CN110674746A (zh) * 2019-09-24 2020-01-10 视云融聚(广州)科技有限公司 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101572804A (zh) * 2009-03-30 2009-11-04 浙江大学 多摄像机智能控制方法及装置
CN106446002A (zh) * 2016-08-01 2017-02-22 三峡大学 一种基于运动目标在地图中轨迹的视频检索方法
CN110232712A (zh) * 2019-06-11 2019-09-13 武汉数文科技有限公司 室内人员定位跟踪方法和计算机设备
CN110674746A (zh) * 2019-09-24 2020-01-10 视云融聚(广州)科技有限公司 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111967306B (zh) * 2020-07-02 2021-09-14 广东技术师范大学 目标远程监控方法、装置、计算机设备及存储介质
CN111967306A (zh) * 2020-07-02 2020-11-20 广东技术师范大学 目标远程监控方法、装置、计算机设备及存储介质
CN112333419A (zh) * 2020-08-21 2021-02-05 深圳Tcl新技术有限公司 监控追踪方法、装置、系统与计算机可读存储介质
CN112118427A (zh) * 2020-10-29 2020-12-22 上海擎感智能科技有限公司 监控方法、系统、服务器及计算机存储介质
CN112511864A (zh) * 2020-11-23 2021-03-16 北京爱笔科技有限公司 轨迹展示方法、装置、计算机设备和存储介质
CN112511864B (zh) * 2020-11-23 2023-02-17 北京爱笔科技有限公司 轨迹展示方法、装置、计算机设备和存储介质
CN112995599B (zh) * 2021-02-25 2023-01-24 深圳市中西视通科技有限公司 一种安防摄像机图像识别模式切换方法及系统
CN112995599A (zh) * 2021-02-25 2021-06-18 深圳市中西视通科技有限公司 一种安防摄像机图像识别模式切换方法及系统
CN113630562A (zh) * 2021-06-03 2021-11-09 山东捷瑞数字科技股份有限公司 用于人员行为数据采集的方法、系统和存储介质
CN113596353A (zh) * 2021-08-10 2021-11-02 广州艾美网络科技有限公司 体感互动数据处理方法、装置及体感互动设备
CN113873152A (zh) * 2021-09-18 2021-12-31 温州大学大数据与信息技术研究院 一种运动目标跟踪方法
CN114061092A (zh) * 2021-11-12 2022-02-18 珠海大横琴科技发展有限公司 一种温度调节设备的控制方法和装置
CN114061092B (zh) * 2021-11-12 2023-09-08 珠海大横琴科技发展有限公司 一种温度调节设备的控制方法和装置
CN114938426A (zh) * 2022-04-28 2022-08-23 湖南工商大学 用于创建多装置媒体呈现的方法和设备
CN114938426B (zh) * 2022-04-28 2023-04-07 湖南工商大学 用于创建多装置媒体呈现的方法和设备

Similar Documents

Publication Publication Date Title
CN111311649A (zh) 一种室内物联视频跟踪方法和系统
CN109076191B (zh) 监视系统、方法、非暂时性计算机可读介质和控制单元
CN112050810B (zh) 一种基于计算机视觉的室内定位导航方法及系统
US11593951B2 (en) Multi-device object tracking and localization
WO2020199589A1 (zh) 桌面机器人的回充控制方法
CN111935644B (zh) 一种基于融合信息的定位方法、装置及终端设备
CN113910224B (zh) 机器人跟随的方法、装置及电子设备
KR20180038879A (ko) 공항용 로봇 및 그의 동작 방법
KR20180039436A (ko) 공항용 청소 로봇 및 그의 동작 방법
US10397750B2 (en) Method, controller, telepresence robot, and storage medium for controlling communications between first communication device and second communication devices
US11528452B2 (en) Indoor positioning system using beacons and video analytics
US20220377285A1 (en) Enhanced video system
CN106295861A (zh) 天气预报信息的获取方法、装置和设备
EP4187348A1 (en) Method and apparatus for movable robot to adjust pose of goods rack
CN111367320A (zh) 一种室内移动机器人的管理方法及管理系统
JP2017046023A (ja) 移動体追跡装置及び移動体追跡方法及び移動体追跡プログラム
KR101518314B1 (ko) 무인 항공 감시 장치를 이용한 영상 감시 방법 및 장치
CN113556680A (zh) 指纹数据的处理方法、介质和移动机器人
CN115808170B (zh) 一种融合蓝牙与视频分析的室内实时定位方法
US20140218516A1 (en) Method and apparatus for recognizing human information
CN111445499B (zh) 用于识别目标信息的方法及装置
CN115185287A (zh) 一种智能多水下机器人动态避障及围捕控制系统
JP6282960B2 (ja) 情報プッシュ方法および装置
CN113628237A (zh) 轨迹跟踪方法、系统、电子设备及计算机可读介质
US10735902B1 (en) Method and computer program for taking action based on determined movement path of mobile devices

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200619

RJ01 Rejection of invention patent application after publication