CN111753664A - 基于5g无线网络的嫌疑人识别与定位追踪系统及方法 - Google Patents
基于5g无线网络的嫌疑人识别与定位追踪系统及方法 Download PDFInfo
- Publication number
- CN111753664A CN111753664A CN202010451564.2A CN202010451564A CN111753664A CN 111753664 A CN111753664 A CN 111753664A CN 202010451564 A CN202010451564 A CN 202010451564A CN 111753664 A CN111753664 A CN 111753664A
- Authority
- CN
- China
- Prior art keywords
- suspect
- layer
- camera
- video
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000012544 monitoring process Methods 0.000 claims abstract description 58
- 238000005516 engineering process Methods 0.000 claims abstract description 55
- 230000005540 biological transmission Effects 0.000 claims abstract description 53
- 238000004364 calculation method Methods 0.000 claims abstract description 20
- 230000008447 perception Effects 0.000 claims abstract description 18
- 238000004891 communication Methods 0.000 claims abstract description 14
- 238000003860 storage Methods 0.000 claims description 60
- 238000004422 calculation algorithm Methods 0.000 claims description 47
- 238000012545 processing Methods 0.000 claims description 34
- 230000004807 localization Effects 0.000 claims description 28
- 230000006870 function Effects 0.000 claims description 23
- 238000004220 aggregation Methods 0.000 claims description 15
- 238000005259 measurement Methods 0.000 claims description 15
- 230000002776 aggregation Effects 0.000 claims description 14
- 238000013135 deep learning Methods 0.000 claims description 14
- 238000010295 mobile communication Methods 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 9
- 238000002955 isolation Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 238000004088 simulation Methods 0.000 claims description 8
- 230000006978 adaptation Effects 0.000 claims description 6
- 230000010354 integration Effects 0.000 claims description 6
- 238000012423 maintenance Methods 0.000 claims description 5
- 238000010276 construction Methods 0.000 claims description 4
- 238000009826 distribution Methods 0.000 claims description 4
- 238000013341 scale-up Methods 0.000 claims description 4
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 238000013459 approach Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 239000011521 glass Substances 0.000 claims description 3
- 238000013178 mathematical model Methods 0.000 claims description 3
- 230000007246 mechanism Effects 0.000 claims description 3
- 239000002184 metal Substances 0.000 claims description 3
- 238000000638 solvent extraction Methods 0.000 claims description 3
- 230000035515 penetration Effects 0.000 claims 1
- 238000002474 experimental method Methods 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 13
- 238000011161 development Methods 0.000 description 9
- 230000008901 benefit Effects 0.000 description 7
- 230000004927 fusion Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000007547 defect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000004634 pharmacological analysis method Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Alarm Systems (AREA)
Abstract
本发明属于无线通信技术领域,公开了一种基于5G无线网络的嫌疑人识别与定位追踪系统及方法,所述基于5G无线网络的嫌疑人识别与定位追踪系统整体结构包括:感知层、传输层、计算存储资源层以及应用层。本发明基于5G无线高速网络,实现监控视频画面的实时回传,再结合人脸识别和双目视觉测距技术完成嫌疑人识别和定位追踪;通过在城市区域内密集部署高清、可控制的无线双目视觉摄像头,摄像头利用5G无线高速网络将视频画面上传至最近移动边缘节点,最终实现对个体嫌疑人的识别与定位追踪。实验表明,本发明提供的5G无线网络时延小于35ms,计算时延100ms,总时延=2*网络时延+计算时延,总时延小于200ms。
Description
技术领域
本发明属于无线通信技术领域,尤其涉及一种基于5G无线网络的嫌疑人识别与定位追踪系统及方法。
背景技术
目前,在城市安防领域,正在逐步迭代更换高清摄像头,并逐步引入人脸识别技术,解决图像数据质量不高、海量视频源图像人工分析问题。在嫌疑人识别追踪方面,单一的人脸识别技术中,图像处理技术、深度学习算法对计算资源的消耗异常庞大,加之大场景下拍摄的视频个体相似度极高,很难通过视频的方法对个体进行分类识别、定位和跟踪,难以解决嫌疑人的实时定位、识别、追踪问题;同时,高清视频流的传输还存在时延问题,通常只能事后对海量高清图像数据进行人工分析、或者借助图像识别技术进行自动分析,寻找嫌疑人线索。
鉴于此,在新技术的不断发展与推动下,本发明充分借助5G网络技术的大带宽、低延时以及波束赋形特性,引入双目摄像机测距技术和MEC(边缘移动计算),实时控制摄像头,对嫌疑人进行定位、识别与追踪,即充分解决高清视频传输时延问题,也解决嫌疑人的实时定位、识别、追踪问题。
通过上述分析,现有技术存在的问题及缺陷为:
(1)现有单一的人脸识别技术中,图像处理技术、深度学习算法对计算资源的消耗异常庞大,加之大场景下拍摄的视频个体相似度极高,很难通过视频的方法对个体进行分类识别、定位和跟踪,难以解决嫌疑人的实时定位、识别、追踪问题。
(2)现有高清视频流的传输还存在时延问题,通常只能事后对海量高清图像数据进行人工分析、或者借助图像识别技术进行自动分析,寻找嫌疑人线索,难以解决城市管理、嫌疑人追踪打击等诸多问题。
解决以上问题及缺陷的难度为:解决上述问题的最大难度在于,需要运营商5G网络成熟规模覆盖,摄像机厂家技术深度发展,垂直领域产业链发展高度协同配合。
解决以上问题及缺陷的意义为:可深度促进5G技术在安防领域的落地,带动垂直产业链、视频AI技术向前发展,从而可以助力智慧城市建设,解决城市管理、嫌疑人打击等诸多问题。
发明内容
针对现有技术存在的问题,本发明提供了一种基于5G无线网络的嫌疑人识别与定位追踪系统及方法。
本发明是这样实现的,一种基于5G无线网络的嫌疑人识别与定位追踪系统,所述基于5G无线网络的嫌疑人识别与定位追踪系统整体结构包括:感知层、传输层、计算存储资源层以及应用层。
所述感知层包括双目视觉摄像头、无人驾驶安防警车、城市巡逻无人机、 AR/VR眼镜。
所述物联网的传输层借助OTN有线网络和5G移动通信网络,视频监控信息传输依赖TCP/IP技术;所述5G移动通信网络包括:波束赋形、GPS/北斗。
所述计算存储资源层采用华为的云计算解决方案架构,包括MEC、MBC、 OpenStack云平台、OpenStack插件化扩展、服务抽象层、服务器SAN、计算机虚拟化层、软件定义网络控制器、硬件基础设施,通过计算资源虚拟化、存储资源虚拟化、网络资源虚拟化,将底层的的物理资源形成统一的虚拟资源池,随后通过开源的OpenStack架构,以API接口的形式供上层应用程序调用;
所述硬件基础设施包括服务器、存储介质、网络&安全设备;所述API接口包括OpenStackAPI、Cloud Storage API。
所述应用层由设备管理系统、视频监控系统、人脸识别系统、双目视觉测距系统、目标跟踪系统、摄像头控制系统、定位系统、车辆控制系统、AR/VR 应用系统、无人机控制系统构成。
进一步,所述感知层是5G无线网络的嫌疑人识别与定位追踪系统的基础,所述感知内容可分为视频信息监控以及个体信息监控。
在城市区域安装有网络双目视觉摄像头,用于视频信息的感知和收集,该信息上传至云平台数据库中进行存储,能够被视频监控系统处理和使用。该网络摄像头具有云台控制功能,能够旋转至空间任意角度和方向进行视频拍摄。视频监控系统再结合图像处理技术、深度学习等方法对视频数据信息进行分析、处理,可以对整个城市区域进行监测和预警。目前,双目视觉摄像头结合图像处理技术能够做到个体人脸识别、个体位置距离测量,从而实现嫌疑人识别和位置定位。由于图像处理技术、深度学习算法对计算资源的消耗异常庞大,加之大场景下拍摄的视频个体相似度极高,很难通过视频的方法对个体进行分类识别、定位和跟踪,需要周期性的从视频帧中截取帧画面进行识别和位置距离测量。
个体信息监控由于个体自由运动,个体信息能够被感知的参数相对偏少,主要包括个体手机5G波束赋形/GPS/北斗定位信息。双目视觉摄像头识别定位的个体位置作为初始化信息,用于手机信号的个体追踪,而GPS传感器获得的精确位置信息可以用于摄像头的视频跟踪。而5G波束赋形/GPS/北斗实时上报的个体精确地理位置信息,将会被上层目标跟踪系统所使用,通过该位置信息,可以控制离个体最近的一个摄像头对其进行视频跟踪拍摄,跟踪拍摄的视频将会与嫌疑人的人脸特征库进行比对,进而识别追踪嫌疑人。
进一步,所述5G无线网络的嫌疑人识别与定位追踪系统传输层起到感知层和云平台层中间媒介的作用,即5G无线网络的嫌疑人识别与定位追踪系统传输层的作用是把传感器的信息迅速传输至云平台中的数据库进行存储,借助于各种通信技术。
所述固定摄像头可采用OTN有线网进行传输;视频信息可以直接基于TCP/IP协议进行传输,并储存于云平台数据库中;而移动摄像头如AR/VR、无人机,则需选择5G移动通信网络进行数据传输。
进一步,所述计算存储资源层云平台解决方案整体架构包含物理资源层、虚拟资源层、资源服务与调度层、数据服务层、云管理层、中间件服务层。
(1)物理资源层
所有支持IaaS层的IT基础设施硬件包括服务器、存储(传统RAID架构垂直扩展的Scale-up存储,以及基于服务器的分布式水平扩展的Scale-out存储)、数据中心交换机(柜顶、汇聚以及核心交换)、防火墙、VPN网关、路由器等网络安全设备。
(2)虚拟资源层
虚拟资源层在云计算架构中处于最为关键与核心位置。该层次与“资源服务与调度层”一道,通过对来自上层操作系统及应用程序对各类数据中心基础设施在业务执行和数据平面上的资源访问指令进行“截获”。指令和数据被截获后进行“小聚大”的分布式资源聚合处理,“大分小”的虚拟化隔离处理,以及必要异构资源适配处理。这种处理可以实现在上层操作系统及应用程序基本无需感知的情况下,将分散在一个或多个数据中心的数据中心基础设施资源统一虚拟化和池化。
(3)资源服务与调度层
相对虚拟化层在业务执行面和数据面上“资源聚合与分割仿真”,该层次主要体现为管理平面上的“逻辑资源调度”。由于多个厂家已经投入到云计算的研发和实施中,不可避免地有多种实现方式,因此需要进行接口的标准化。接口标准化后,主流的虚拟化平台(例如Hyper-V、KVM、UVP、ESX等)之间能够相互兼容,各个硬件厂家或者中间件厂家可以自由选择虚拟化内核。
(4)数据服务层
数据服务层是叠加在基础设施服务之上的,具备多租户感知能力的结构化、半结构化及非结构化数据服务能力。
(5)云管理层
除掉上面各子系统外,云管理层还有纵向拉通云平台各服务层及子系统的云管理子系统,负责端到端云计算服务实例的创建发放,生命周期管理,服务 SLA水平保障,云计算数据中心物理及虚拟化平台基础设施,以及平台基础设施与上层业务关联的FCAPS日常操作与维护业务。云管理与传统电信的 OSS/BSS系统的最大差异在于其多种不同横向与纵向资源整合的全自动化、智能化支持。
(6)中间件服务层
为提供一些基础服务,系统在某些场景下还需要做一些适配服务,例如,提供桌面云时,需要提供桌面云相关的应用协议、桌面应用的调度等;面向不同业务群提供大数据服务时,需要做一些应用的适配。
进一步,所述虚拟资源层包含三个部分,具体如下:
1)计算虚拟化
所有计算应用(含OS)并非直接承载在硬件平台上,而是在上层软件与裸机硬件之间插入一层弹性计算资源管理及虚拟化软件:弹性计算资源管理软件对外负责提供弹性计算资源服务管理API,对内负责根据用户请求调度分配具体的物理机资源;虚拟化软件(Hypervisor、Xen)对所有的x86指令进行截获,并执行不为上层软件(含OS)所知的多道执行环境并行的“仿真操作”,使得从每个上层软件实例的视角来看,其仍然独占底层的CPU、内存以及I/O资源;而从虚拟化软件的视角来看,则是将裸机硬件在多个客户机(VM)之间进行时间和空间维度的穿插共享(时间片调度,I/O多队列模拟等)。由此可见,计算虚拟化引擎本身是一层介于OS与硬件平台中间的附加软件层,因此将不可避免地带来性能上的损耗。所以,对进一步降低计算虚拟化层的性能开销就变得异常重要。
2)存储虚拟化
随着计算虚拟化在各行业数据中心的普遍采用,x86服务器利用效率已得到提升,人们发现,存储资源的多厂家异构管理复杂,平均资源利用效率低下,甚至在I/O吞吐性能方面无法有效支撑企业关键事物及分析应用对存储性能提出的挑战,通过对所有来自应用软件层的存储数据面的I/O读写操作指令进行“截获”,建立从业务应用视角覆盖不同厂家、不同版本的异构硬件资源的统一 API接口,进行统一的信息建模,使得上层应用软件可以采用规范一致的、与底层具体硬件内部实现细节解耦的方式访问底层存储资源。
3)网络虚拟化
站在操作系统角度,OS管理的资源范畴仅仅是一台服务器,而Cloud OS 管理的资源范畴扩展到了整个数据中心,甚至将跨越多个由广域网物理或者逻辑专线连接起来的数据中心。在一台服务器内,核心CPU、内存计算单元与周边I/O单元的连接一般通过PCI总线以主从控制的方式来完成,多数管理细节被 Intel CPU硬件及主板厂家的总线驱动所屏蔽,且PCI I/O设备的数量和种类有限,因此OS软件层面对于I/O设备的管理是比较简单的。相对而言,在一个具备一定规模的数据中心内,甚至多个数据中心,各计算、存储单元之间以完全点对点的方式进行松耦合的网络互联。云数据中心之上承载的业务种类众多,各业务类型对于不同计算单元(物理机、虚拟机)之间,计算单元与存储单元之间,乃至不同安全层次的计算单元与外部开放互联网和内部企业网络之间的安全隔离及防护机制,要求动态实现隔离和访问。为了实现彻底与现有物理硬件网络解耦的网络虚拟化与自动化,唯一的途径与解决方案就是SDN(即所谓软件定义网络),即构建出一个与物理网络完全独立的叠加式逻辑网络。
进一步,所述应用层主要有以下几大系统构成:设备管理系统、视频监控系统、人脸识别系统、双目视觉测距系统、目标跟踪系统、摄像头控制系统、定位系统、车辆控制系统、AR/VR应用系统、无人机控制系统,采用容器微服务的思想进行开发和部署,具体包括:
(1)视频监控系统
视频监控系统能够对所有摄像头所拍摄的视频进行记录、存储、回放。城市所有的固定摄像头视频信息以有线传输的形式上传至云平台数据库中进行存储,无人机等移动视频信息可以通过无线(5G)的形式上传至云平台。为了实现对嫌疑人的自动识别与测距,摄像头应当具备景深测量功能,同时视频监控系统需集成智能化的图像处理算法,该算法能够将拍摄回来的图像数据进行实时的数据处理,将处理后的数据同步至人脸识别系统,与嫌疑人图像特征库进行比对,从而能够自动化的预警和识别。
(2)目标跟踪系统
目标跟踪系统主要用于个体的视频跟踪拍摄,用于摄像头捕捉识别嫌疑人后的动态跟踪。该系统具有如下功能,能够周期性的对每一个嫌疑人进行自动化的跟踪,形成简短的一段视频跟踪记录,该视频记录能够自动与该嫌疑人形成一一对应关系。另一方面,当用户从人脸识别系统中选中某一嫌疑人,目标跟踪系统能够调取最近的一个摄像头对该嫌疑人进行跟踪拍摄,并实时回传给用户进行查看。
为了实现上述功能,摄像头需为两轴云台控制摄像头,也即具有被控制的功能,从而能够对空间任意角度和方向进行视频拍摄。云平台上的目标跟踪系统需集成大规模摄像头云台控制算法,该算法能够根据每一个嫌疑人实时回传的定位信息对个体进行就进跟踪拍摄。该自动控制算法的原理简单,但由于大规模的摄像头以及大规模的个体生物,这会增大该目标跟踪系统的复杂度。该系统中必须实时记录所有摄像头的位置信息和嫌疑人随时变化的位置信息,通过该位置信息,每一个摄像头捕捉离其最近的嫌疑人进行视频跟踪拍摄,若发现该最近嫌疑人在本次视频记录周期中已经被视频记录,则寻找下一个离其最近的嫌疑人进行拍摄,依次类推,直至在本次周期中所有嫌疑人视频信息均被记录完毕。对于用户选中某一个体,需查看其视频信息时,将其视为中断,离嫌疑人最近的摄像头若正在记录嫌疑人视频信息,则停止记录,用户查看结束之后,继续记录。
(3)人脸识别系统
人脸识别系统,主要包含人脸比对和人脸建库。人脸识别系统采用成熟的深度学习算法,融合计算机图像处理技术与生物统计学原理于一体,利用计算机图像处理技术从视频中提取人像特征点,利用生物统计学的原理进行分析建立数学模型,实现在大规模人脸图像数据库中进行人脸检索。从各种采集源获取的人脸图像可以迅速地与预先存储的(人脸建库)数以千万计的图像数据库 (如嫌疑人照片)完成比较,返回一个包含若干最相似人年图像的匹配列表,一旦匹配人脸库中的嫌疑人数据,该信息将被及时同步至目标跟踪系统,实现对目标的跟踪识别。
(4)双目视觉测距系统
双目视觉测距系统,主要用于对大规模双目摄像头景深测量进行管理。若由人脸识别系统完成嫌疑人比对识别,目标跟踪系统为实现对嫌疑人的定位跟踪,则需要双目视觉测距系统提供测距算法支持,反馈测距结果至目标跟踪系统。
(5)摄像头控制系统
摄像头控制系统,主要完成多摄像头云台控制管理功能,实现对多摄像头的统一方位旋转控制,集成摄像头云台控制算法。一方面,该系统能主动发出摄像头控制指令,实现摄像头的旋转。另一方面,由目标跟踪系统所反馈的目标跟踪数据,将被摄像头控制系统解析为位置坐标,由摄像头控制系统实现摄像头的旋转。
(6)定位系统
嫌疑人使用手机等通讯设备产生的位置数据,将由定位系统进行统一管理。由双目视觉测距系统计算出来的嫌疑人位置数据、嫌疑人通讯设备产生的GPS/ 北斗位置数据、以及5G波束赋形计算出来的位置数据,定位系统将位置数据实时比对并提供给目标跟踪系统和摄像头控制系统,从而实现持续的目标跟踪。
(7)设备管理系统
设备管理系统用于对本系统涉及的各类硬件设备,进行统一的资产管理。
(8)车辆控制系统/AR、VR应用系统/无人机控制系统
均为可选系统,若感知层涉及车辆、无人机、AR/VR设备,则需配套相应的系统,方可驱动此类特殊硬件,实现对目标嫌疑人的跟踪。
本发明的另一目的在于提供一种应用所述基于5G无线网络的嫌疑人识别与定位追踪系统的基于5G无线网络的嫌疑人识别与定位追踪方法,所述基于 5G无线网络的嫌疑人识别与定位追踪方法包括以下步骤:
步骤一,视频监控系统实时回传视频画面至最近MEC节点,并由视频监控系统完成视频数据的处理、存储。
步骤二,人脸识别系统在MEC计算节点启动人脸特征识别并与嫌疑人特征库进行比对,识别嫌疑人。
步骤三,若找出监控画面中存在嫌疑人,双目视觉测距系统利用视频帧画面,通过双目测距算法计算景深,实时计算嫌疑人位置与摄像头之间距离。
步骤四,目标识别系统基于深度学习算法,由目标跟踪系统完成一个或者多个摄像头的目标跟踪计算,结合景深距离快速计算目标嫌疑人位于图像正中需要旋转的角度。
步骤五,摄像头控制系统获取旋转角度信息,控制摄像头云台实时旋转跟踪,使摄像头正拍嫌疑人。
步骤六,双目视觉测距系统利用视频帧画面,通过双目测距算法,实时计算嫌疑人位置与摄像头之间距离,得出嫌疑人位置信息。
步骤七,视频监控系统获取最新嫌疑人位置信息,触发所有最近摄像头拍摄视频画面;通过定位系统,实时获取嫌疑人位置信息。
步骤八,由定位系统提供嫌疑人位置信息,摄像头控制系统控制摄像头旋转,跟踪抓拍嫌疑人画面;若已抓捕嫌疑人,则本次活动结束。
进一步,步骤二中,若人脸识别系统未识别到嫌疑人,则返回至视频监控系统继续拍摄视频画面。
进一步,步骤五中,若跟踪旋转角度小于设定阈值,则进入云端计算景深并给出嫌疑人位置,由双目视觉测距系统计算出嫌疑人与摄像头之间的距离,在结合摄像头自身位置信息推算出嫌疑人的具体位置;若摄像头控制系统跟踪角度大于设定阈值,则返回至双目视觉测距系统继续计算景深。
进一步,步骤八中,调取所有相关最近摄像头跟踪抓拍嫌疑人,由摄像头控制系统结合嫌疑人位置信息,控制与嫌疑人临近的所有摄像头多视野、多角度跟踪拍摄嫌疑人;若未抓捕嫌疑人,则进入5G波束赋形跟踪嫌疑人手机,结合嫌疑人位置具体信息由定位系统启动5G波束赋形跟踪嫌疑人手机;若嫌疑人有手机信号发出,则使用波束赋形、GPS、北斗实时追踪嫌疑人,由定位系统完成相应功能,并关闭天网视频监控系统。若嫌疑人无手机信号,则返回至双目测距系统,通过计算景深获得嫌疑人位置信息。
结合上述的所有技术方案,本发明所具备的优点及积极效果为:本发明提供的基于5G无线网络的嫌疑人识别与定位追踪系统,基于5G网络,利用感知层、传输层、计算存储资源层和应用层四层架构,每一层都有不同的关键技术与之相对应,采用容器微服务的思想进行开发和部署,从顶层设计的高度规避将来可能会面临的问题,最终实现对个体嫌疑人的识别与定位追踪。通过虚拟资源层可以实现在上层操作系统及应用程序基本无需感知的情况下,将分散在一个或多个数据中心的数据中心基础设施资源统一虚拟化和池化。
本发明提供的云计算模式允许用户通过无所不在的、便捷的、按需获得的网络接入到一个可动态配置的共享计算资源池(其中包括了网络设备、服务器、存储、应用以及业务),并且以最小的管理代价或者业务提供者交互复杂度即可实现这些可配置计算资源的快速发放与发布。
长远来看,通过构建云平台将会带来巨大的商业价值。第一,能够实现智能资源调度,通过虚机迁移技术,一方面能够充分均衡利用物理资源,另一方面在业务低谷时可以关闭一定的物理主机,从而节约电能。第二,能够提高资源的利用率,由于虚拟化技术的使用,一台主机上将会承载多个虚拟机,硬件资源使用效率得到很大提高。第三,采用分布式计算和分布式存储的技术,服务器可以动态的加入和移除工作域,业务不会中断,同时,分布式存储技术也能保证文件或数据的不丢失,使得业务不中断。第四,云计算有自己统一的管理平台,能够实现管理的自动化控制,包括流程调度自动化、网络自动化、服务器自动化、存储自动化。第五,云计算能够实现业务的快速部署、快速下线,基于Docker微服务的思想,一方面可以保证新业务的快速部署与动态扩容,另一方面也可以在业务生命末期,快速使得业务下线,释放硬件资源给其他业务使用。
本发明提供的固定摄像头采用OTN有线网进行传输,目前单模光纤大多都能传输10km以上的距离,因此这样的传输距离完全能够覆盖整个城市区域。由于目前基于TCP/IP协议的传输方式已经非常成熟,视频信息可以直接基于 TCP/IP协议进行传输,并储存于云平台数据库中。而移动摄像头如AR/VR、无人机,则需选择5G移动通信网络进行数据传输,5G通信的大带宽特性,本发明已在广州生物岛的外场环境中进行了测试验证。
实验表明,5G网络的高带宽能够充分满足双目高清摄像头视频实时传输需求,与就近MEC边缘移动节点,网络时延小于35ms,计算时延100ms,总时延=2*网络时延+计算时延,总时延小于200ms,满足摄像头实时控制要求,从而能够实时进行嫌疑人的定位、识别和追踪。
附图说明
图1是本发明实施例提供的基于5G无线网络的嫌疑人识别与定位追踪系统结构框图。
图2是本发明实施例提供的基于5G无线网络的嫌疑人识别与定位追踪方法流程图。
图3是本发明实施例提供的无线网络的嫌疑人识别与定位追踪系统整体解决方案示意图。
图4是本发明实施例提供的云平台解决方案示意图。
图5是本发明实施例提供的华为云平台架构解决方案示意图。
图6是本发明实施例提供的FusionManager对云平台资源进行统一管理示意图。
图7是本发明实施例提供的应用系统框图。
图8是本发明实施例提供的5G无线网络的嫌疑人识别与定位追踪活动图。
图9是本发明实施例提供的基于5G无线网络的嫌疑人识别与定位追踪系统的实验拓扑图。
图10是本发明实施例提供的中国联通广州生物岛5G网络下行速率图。
图11是本发明实施例提供的中国联通广州生物岛5G网络上行速率图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
针对现有技术存在的问题,本发明提供了一种基于5G无线网络的嫌疑人识别与定位追踪系统及方法,下面结合附图对本发明作详细的描述。
如图1所示,本发明实施例提供的基于5G无线网络的嫌疑人识别与定位追踪系统整体结构包括:感知层1、传输层2、计算存储资源层3、应用层4。
感知层1包括双目视觉摄像头、无人驾驶安防警车、城市巡逻无人机、AR/VR 眼镜。
物联网的传输层2借助OTN有线网络和5G移动通信网络,视频监控信息传输依赖TCP/IP技术;所述5G移动通信网络包括:波束赋形、GPS/北斗。
计算存储资源层3采用华为的云计算解决方案架构,包括MEC、MBC、 OpenStack云平台、OpenStack插件化扩展、服务抽象层、服务器SAN、计算机虚拟化层、软件定义网络控制器、硬件基础设施,通过计算资源虚拟化、存储资源虚拟化、网络资源虚拟化,将底层的的物理资源形成统一的虚拟资源池,随后通过开源的OpenStack架构,以API接口的形式供上层应用程序调用;
硬件基础设施包括服务器、存储介质、网络&安全设备;所述API接口包括OpenStackAPI、Cloud StorageAPI。
应用层4由设备管理系统、视频监控系统、人脸识别系统、双目视觉测距系统、目标跟踪系统、摄像头控制系统、定位系统、车辆控制系统、AR/VR应用系统、无人机控制系统构成。
如图2所示,本发明实施例提供的基于5G无线网络的嫌疑人识别与定位追踪方法包括以下步骤:
S101,视频监控系统实时回传视频画面至最近MEC节点,并由视频监控系统完成视频数据的处理、存储。
S102,人脸识别系统在MEC计算节点启动人脸特征识别并与嫌疑人特征库进行比对,识别嫌疑人。
S103,若找出监控画面中存在嫌疑人,双目视觉测距系统利用视频帧画面,通过双目测距算法计算景深,实时计算嫌疑人位置与摄像头之间距离。
S104,目标识别系统基于深度学习算法,由目标跟踪系统完成一个或者多个摄像头的目标跟踪计算,结合景深距离快速计算目标嫌疑人位于图像正中需要旋转的角度。
S105,摄像头控制系统获取旋转角度信息,控制摄像头云台实时旋转跟踪,使摄像头正拍嫌疑人。
S106,双目视觉测距系统利用视频帧画面,通过双目测距算法,实时计算嫌疑人位置与摄像头之间距离,得出嫌疑人位置信息。
S107,视频监控系统获取最新嫌疑人位置信息,触发所有最近摄像头拍摄视频画面;通过定位系统,实时获取嫌疑人位置信息。
S108,由定位系统提供嫌疑人位置信息,摄像头控制系统控制摄像头旋转,跟踪抓拍嫌疑人画面;若已抓捕嫌疑人,则本次活动结束。
本发明实施例提供的步骤S102中,若人脸识别系统未识别到嫌疑人,则返回至视频监控系统继续拍摄视频画面。
本发明实施例提供的步骤S105中,若跟踪旋转角度小于设定阈值,则进入云端计算景深并给出嫌疑人位置,由双目视觉测距系统计算出嫌疑人与摄像头之间的距离,在结合摄像头自身位置信息推算出嫌疑人的具体位置;若摄像头控制系统跟踪角度大于设定阈值,则返回至双目视觉测距系统继续计算景深。
本发明实施例提供的步骤S108中,调取所有相关最近摄像头跟踪抓拍嫌疑人,由摄像头控制系统结合嫌疑人位置信息,控制与嫌疑人临近的所有摄像头多视野、多角度跟踪拍摄嫌疑人;若未抓捕嫌疑人,则进入5G波束赋形跟踪嫌疑人手机,结合嫌疑人位置具体信息由定位系统启动5G波束赋形跟踪嫌疑人手机;若嫌疑人有手机信号发出,则使用波束赋形、GPS、北斗实时追踪嫌疑人,由定位系统完成相应功能,并关闭天网视频监控系统。若嫌疑人无手机信号,则返回至双目测距系统,通过计算景深获得嫌疑人位置信息。
下面结合具体实施例对本发明作进一步描述。
1、解决方案整体架构概述
考虑5G无线网络的嫌疑人识别与定位追踪系统自身的特点,其需包含集成多种技术,据此本发明提出了从底层感知至顶层应用的整套解决方案,如图3所示。整个系统架构包含感知层、传输层、计算存储资源层以及应用层。其中应用层系统可以由多个子系统构成,根据系统的功能要求,其需包含设备管理系统、视频监控系统、人脸识别系统、双目视觉测距系统、目标跟踪系统、摄像头控制系统、定位系统、车辆控制系统、AR/VR应用系统、无人机控制系统。计算存储资源层采用华为的云计算解决方案架构,其包含硬件基础设施:如服务器、存储介质、网络&安全设备,并通过计算资源虚拟化、存储资源虚拟化、网络资源虚拟化,将底层的的物理资源形成统一的虚拟资源池,随后通过开源的OpenStack架构,以API接口的形式供上层应用程序调用。物联网的传输层可以借助多种网络技术,例如以太网技术、无线宽带网络、无线低速网络和移动通信等,由于本系统自身的特点,主要使用OTN有线网络和5G移动通信网络,视频监控信息传输依赖TCP/IP技术。
1.1 5G无线网络的嫌疑人识别与定位追踪系统四层结构功能详述
5G无线网络的嫌疑人识别与定位追踪系统包含四层结构,感知层、传输层、计算存储资源层和应用层,每一层都有不同的关键技术与之相对应,该系统的最终目的是实现对个体嫌疑人的识别与定位追踪。
1.1.1 5G无线网络的嫌疑人识别与定位追踪系统感知层
感知层是5G无线网络的嫌疑人识别与定位追踪系统的基础。在感知层中感知的要素较为丰富,涉及多种关键技术,而这些感知内容又可分为视频信息监控、以及个体信息监控。
在城市区域安装有网络双目视觉摄像头,用于视频信息的感知和收集,该信息上传至云平台数据库中进行存储,能够被视频监控系统处理和使用。该网络摄像头具有云台控制功能,能够旋转至空间任意角度和方向进行视频拍摄。视频监控系统再结合图像处理技术、深度学习等方法对视频数据信息进行分析、处理,可以对整个城市区域进行监测和预警。目前,双目视觉摄像头结合图像处理技术能够做到个体人脸识别、个体位置距离测量,从而实现嫌疑人识别和位置定位。由于图像处理技术、深度学习算法对计算资源的消耗异常庞大,加之大场景下拍摄的视频个体相似度极高,很难通过视频的方法对个体进行分类识别、定位和跟踪,需要周期性的从视频帧中截取帧画面进行识别和位置距离测量。
个体信息监控由于个体自由运动,个体信息能够被感知的参数相对偏少,主要包括个体手机5G波束赋形/GPS/北斗定位信息。双目视觉摄像头识别定位的个体位置作为初始化信息,用于手机信号的个体追踪,而GPS传感器获得的精确位置信息可以用于摄像头的视频跟踪。而5G波束赋形/GPS/北斗实时上报的个体精确地理位置信息,将会被上层目标跟踪系统所使用,通过该位置信息,可以控制离个体最近的一个摄像头对其进行视频跟踪拍摄,跟踪拍摄的视频将会与嫌疑人的人脸特征库进行比对,进而识别追踪嫌疑人。
1.1.2 5G无线网络的嫌疑人识别与定位追踪系统传输层
5G无线网络的嫌疑人识别与定位追踪系统传输层起到感知层和云平台层中间媒介的作用,简单来说5G无线网络的嫌疑人识别与定位追踪系统传输层的作用是把传感器的信息迅速传输至云平台中的数据库进行存储,其手段则是各种通信技术。
表1各种无线通信技术对比
针对传输层所需传输的数据主要来自感知层中的视频监控数据,数据带宽占用大,摄像头位置存在固定和移动两种情况。因此,针对上述的特点,固定摄像头可采用OTN有线网进行传输,目前单模光纤大多都能传输10km以上的距离,因此这样的传输距离完全能够覆盖整个城市区域。由于目前基于TCP/IP协议的传输方式已经非常成熟,视频信息可以直接基于TCP/IP协议进行传输,并储存于云平台数据库中。而移动摄像头如AR/VR、无人机,则需选择5G移动通信网络进行数据传输,5G通信的大带宽特性,本发明已在广州生物岛的外场环境中进行了测试验证。
1.1.3 5G无线网络的嫌疑人识别与定位追踪系统计算存储资源层
通常,一个企业由于自身不断的发展,企业的业务数据总是在不断的增加和更新当中。这样就带来一个问题,传统的支持企业业务发展的信息化架构是不能满足企业业务动态变化的趋势。因此,为了应对这样的一个变化,必须采用一种自上而下的顶层设计思想,在信息化平台建设的初期,就将业务数据将会动态变化的因素给考虑进去,使得信息化平台能够随着业务的动态变化进行弹性的扩容和收缩。当前,云计算由于其自身的优势和特点,必然成为企业ICT 架构建设的首选方案。云计算是这样的一种模式,该模式允许用户通过无所不在的、便捷的、按需获得的网络接入到一个可动态配置的共享计算资源池(其中包括了网络设备、服务器、存储、应用以及业务),并且以最小的管理代价或者业务提供者交互复杂度即可实现这些可配置计算资源的快速发放与发布。
如图4所示,是云平台解决方案的典型架构图,整体架构包含物理资源层、虚拟资源层、资源服务与调度层、数据服务层、云管理层、中间件服务层。
(1)物理资源层
所有支持IaaS层的IT基础设施硬件包括服务器、存储(传统RAID架构垂直扩展的Scale-up存储,以及基于服务器的分布式水平扩展的Scale-out存储)、数据中心交换机(柜顶、汇聚以及核心交换)、防火墙、VPN网关、路由器等网络安全设备。
(2)虚拟资源层
虚拟资源层在云计算架构中处于最为关键与核心位置。该层次与“资源服务与调度层”一道,通过对来自上层操作系统及应用程序对各类数据中心基础设施在业务执行和数据平面上的资源访问指令进行“截获”。指令和数据被截获后进行“小聚大”的分布式资源聚合处理,“大分小”的虚拟化隔离处理,以及必要异构资源适配处理。这种处理可以实现在上层操作系统及应用程序基本无需感知的情况下,将分散在一个或多个数据中心的数据中心基础设施资源统一虚拟化和池化。虚拟资源层包含三个部分,具体如下:
1)计算虚拟化
所有计算应用(含OS)并非直接承载在硬件平台上,而是在上层软件与裸机硬件之间插入一层弹性计算资源管理及虚拟化软件:弹性计算资源管理软件对外负责提供弹性计算资源服务管理API,对内负责根据用户请求调度分配具体的物理机资源;虚拟化软件(Hypervisor、Xen)对所有的x86指令进行截获,并执行不为上层软件(含OS)所知的多道执行环境并行的“仿真操作”,使得从每个上层软件实例的视角来看,其仍然独占底层的CPU、内存以及I/O资源;而从虚拟化软件的视角来看,则是将裸机硬件在多个客户机(VM)之间进行时间和空间维度的穿插共享(时间片调度,I/O多队列模拟等)。由此可见,计算虚拟化引擎本身是一层介于OS与硬件平台中间的附加软件层,因此将不可避免地带来性能上的损耗。所以,对进一步降低计算虚拟化层的性能开销就变得异常重要。
2)存储虚拟化
随着计算虚拟化在各行业数据中心的普遍采用,x86服务器利用效率已得到提升,人们发现,存储资源的多厂家异构管理复杂,平均资源利用效率低下,甚至在I/O吞吐性能方面无法有效支撑企业关键事物及分析应用对存储性能提出的挑战,通过对所有来自应用软件层的存储数据面的I/O读写操作指令进行“截获”,建立从业务应用视角覆盖不同厂家、不同版本的异构硬件资源的统一API 接口,进行统一的信息建模,使得上层应用软件可以采用规范一致的、与底层具体硬件内部实现细节解耦的方式访问底层存储资源。
3)网络虚拟化
站在操作系统角度,OS管理的资源范畴仅仅是一台服务器,而Cloud OS管理的资源范畴扩展到了整个数据中心,甚至将跨越多个由广域网物理或者逻辑专线连接起来的数据中心。在一台服务器内,核心CPU、内存计算单元与周边I/O 单元的连接一般通过PCI总线以主从控制的方式来完成,多数管理细节被Intel CPU硬件及主板厂家的总线驱动所屏蔽,且PCI I/O设备的数量和种类有限,因此OS软件层面对于I/O设备的管理是比较简单的。相对而言,在一个具备一定规模的数据中心内,甚至多个数据中心,各计算、存储单元之间以完全点对点的方式进行松耦合的网络互联。云数据中心之上承载的业务种类众多,各业务类型对于不同计算单元(物理机、虚拟机)之间,计算单元与存储单元之间,乃至不同安全层次的计算单元与外部开放互联网和内部企业网络之间的安全隔离及防护机制,要求动态实现隔离和访问。为了实现彻底与现有物理硬件网络解耦的网络虚拟化与自动化,唯一的途径与解决方案就是SDN(即所谓软件定义网络),即构建出一个与物理网络完全独立的叠加式逻辑网络。
4)资源服务与调度层
相对虚拟化层在业务执行面和数据面上“资源聚合与分割仿真”,该层次主要体现为管理平面上的“逻辑资源调度”。由于多个厂家已经投入到云计算的研发和实施中,不可避免地有多种实现方式,因此需要进行接口的标准化。接口标准化后,主流的虚拟化平台(例如Hyper-V、KVM、UVP、ESX等)之间能够相互兼容,各个硬件厂家或者中间件厂家可以自由选择虚拟化内核。
5)数据服务层
数据服务层是叠加在基础设施服务之上的,具备多租户感知能力的结构化、半结构化及非结构化数据服务能力。
6)云管理层
除掉上面各子系统外,云管理层还有纵向拉通云平台各服务层及子系统的云管理子系统,负责端到端云计算服务实例的创建发放,生命周期管理,服务 SLA水平保障,云计算数据中心物理及虚拟化平台基础设施,以及平台基础设施与上层业务关联的FCAPS日常操作与维护业务。云管理与传统电信的OSS/BSS 系统的最大差异在于其多种不同横向与纵向资源整合的全自动化、智能化支持。
7)中间件服务层
为提供一些基础服务,系统在某些场景下还需要做一些适配服务,例如,提供桌面云时,需要提供桌面云相关的应用协议、桌面应用的调度等;面向不同业务群提供大数据服务时,需要做一些应用的适配。
云计算架构涉及的关键技术众多,主要是超大规模资源调度算法(如计算资源调度算法、存储资源调度算法、能耗管理最优算法等)。
以上讲解了云计算的整体架构以及重要的关键技术,但具体实现厂家众多,接下来选择比较有代表性的厂商:华为,对华为云平台架构解决方案进行说明,如图5所示。
图5所示解决方案思路基本与图4一致,华为为自己的云平台解决方案取名为FusionSphere。其也包括硬件基础设施,通过FusionStorage进行存储虚拟化、FusionCompute进行计算虚拟化、FusionNetwork进行网络虚拟化,这些虚拟化的资源统一由FusionSphere OpenStack进行管理,最后以API的形式供上层应用进行使用。由FusionManager进行纵向的统一资源管理,如图6所示。
通过构建这样的一个云平台,长远来看,将会带来巨大的商业价值。第一,能够实现智能资源调度,通过虚机迁移技术,一方面能够充分均衡利用物理资源,另一方面在业务低谷时可以关闭一定的物理主机,从而节约电能。第二,能够提高资源的利用率,由于虚拟化技术的使用,一台主机上将会承载多个虚拟机,硬件资源使用效率得到很大提高。第三,采用分布式计算和分布式存储的技术,服务器可以动态的加入和移除工作域,业务不会中断,同时,分布式存储技术也能保证文件或数据的不丢失,使得业务不中断。第四,云计算有自己统一的管理平台,能够实现管理的自动化控制,包括流程调度自动化、网络自动化、服务器自动化、存储自动化。第五,云计算能够实现业务的快速部署、快速下线,基于Docker微服务的思想,一方面可以保证新业务的快速部署与动态扩容,另一方面也可以在业务生命末期,快速使得业务下线,释放硬件资源给其他业务使用。
1.1.4 5G无线网络的嫌疑人识别与定位追踪系统应用层
应用层承载着企业实际具体的业务,跟企业的具体需求、经营模式有关。由于本系统的具体需要是构建5G无线网络的嫌疑人识别与定位追踪系统,实现嫌疑人识别与定位追踪。因此,应用层主要有以下几大系统构成:设备管理系统、视频监控系统、人脸识别系统、双目视觉测距系统、目标跟踪系统、摄像头控制系统、定位系统、车辆控制系统、AR/VR应用系统、无人机控制系统。
一方面,由于本解决方案的顶层设计架构结合了物联网技术和云计算技术,该方案天生必然具有很多其独特的优势。在应用层面,可以利用云平台自身的架构优势,让每一个业务系统单独承载在一台虚拟机之上,虚拟机的资源本身就动态可调,每一个应用系统均能获得足够且恰到好处的资源保证其正常运行,同时各应用系统之间也不会相互干扰,更不会由于一台主机上承载过多的应用系统而导致系统不稳,从而影响各业务的正常运行和体验。另一方面,上述各应用系统在开发之初,就采用Docker容器的思想,使各应用系统运行在Docker 容器中,可以保证业务系统的快速部署、上线。而传统的Monolithic单体式架构尽管是模块化逻辑,但是最终还是会打包并部署为一个单一应用,因此 Monolithic单体式架构的优缺点很鲜明,其也面临着诸多挑战,如环境复杂、功能多、依赖多,这就会导致高的维护成本、缺陷修复成本、系统扩展成本。所以,微服务提倡将Monolithic单体式架构应用划分为一系列小的服务,服务之间相互协调、相互配合,为用户提供服务。充分利用Docker容器思想和微服务思想各自的优点,就成为必然趋势,即在每个Docker中运行一个微服务。这样,基于容器技术的云服务将极大的简化容器化微服务创建、集成、部署、运维的整个流程,从而推动为服务在云端的大规模实践。
微服务的创建过程也比较简单,假设用户的微服务程序,存储于GitHub等代码托管服务中,用户可以将这个代码仓库构建成容器镜像,并保存在镜像仓库中,用户可以将这个微服务一键部署到容器平台,而云平台提供了持续集成的功能,用户可以选择性是否使用。若选择使用微服务的集成功能,那么用户可以自由组合、复用数以万计的容器化微服务,像搭积木一样轻松集成使用。比如,用户需要一个通用的MySQL数据库服务,他无需构建镜像,可以直接在镜像仓库中选择适合的数据库服务镜像,并与其他微服务链接起来。微服务由于组件数量众多,云端部署就成为实践上的一个难点,但容器云平台很好的化解了这个问题,应用直接承载在容器当中,用户不必指定传统部署方式中繁琐的步骤,只需提供容器镜像和简单的容器配置,平台会将整个部署流程自动化。
总的来讲,上述各应用系统可以采用容器微服务的思想进行开发和部署,从顶层设计的高度规避将来企业可能会面临的问题。应用系统框图如图7所示,接下来对各应用系统功能进行详细描述。
(1)视频监控系统
视频监控系统能够对所有摄像头所拍摄的视频进行记录、存储、回放。城市所有的固定摄像头视频信息以有线传输的形式上传至云平台数据库中进行存储,无人机等移动视频信息可以通过无线(5G)的形式上传至云平台。为了实现对嫌疑人的自动识别与测距,摄像头应当具备景深测量功能,同时视频监控系统需集成智能化的图像处理算法,该算法能够将拍摄回来的图像数据进行实时的数据处理,将处理后的数据同步至人脸识别系统,与嫌疑人图像特征库进行比对,从而能够自动化的预警和识别。
(2)目标跟踪系统
目标跟踪系统主要用于个体的视频跟踪拍摄,用于摄像头捕捉识别嫌疑人后的动态跟踪。该系统具有如下功能,能够周期性的对每一个嫌疑人进行自动化的跟踪,形成简短的一段视频跟踪记录,该视频记录能够自动与该嫌疑人形成一一对应关系。另一方面,当用户从人脸识别系统中选中某一嫌疑人,目标跟踪系统能够调取最近的一个摄像头对该嫌疑人进行跟踪拍摄,并实时回传给用户进行查看。
为了实现上述功能,摄像头需为两轴云台控制摄像头,也即具有被控制的功能,从而能够对空间任意角度和方向进行视频拍摄。云平台上的目标跟踪系统需集成大规模摄像头云台控制算法,该算法能够根据每一个嫌疑人实时回传的定位信息对个体进行就进跟踪拍摄。该自动控制算法的原理简单,但由于大规模的摄像头以及大规模的个体生物,这会增大该目标跟踪系统的复杂度。该系统中必须实时记录所有摄像头的位置信息和嫌疑人随时变化的位置信息,通过该位置信息,每一个摄像头捕捉离其最近的嫌疑人进行视频跟踪拍摄,若发现该最近嫌疑人在本次视频记录周期中已经被视频记录,则寻找下一个离其最近的嫌疑人进行拍摄,依次类推,直至在本次周期中所有嫌疑人视频信息均被记录完毕。对于用户选中某一个体,需查看其视频信息时,将其视为中断,离嫌疑人最近的摄像头若正在记录嫌疑人视频信息,则停止记录,用户查看结束之后,继续记录。
(3)人脸识别系统
人脸识别系统,主要包含人脸比对和人脸建库。人脸识别系统采用成熟的深度学习算法,融合计算机图像处理技术与生物统计学原理于一体,利用计算机图像处理技术从视频中提取人像特征点,利用生物统计学的原理进行分析建立数学模型,实现在大规模人脸图像数据库中进行人脸检索。从各种采集源获取的人脸图像可以迅速地与预先存储的(人脸建库)数以千万计的图像数据库 (如嫌疑人照片)完成比较,返回一个包含若干最相似人年图像的匹配列表,一旦匹配人脸库中的嫌疑人数据,该信息将被及时同步至目标跟踪系统,实现对目标的跟踪识别。
(4)双目视觉测距系统
双目视觉测距系统,主要用于对大规模双目摄像头景深测量进行管理。若由人脸识别系统完成嫌疑人比对识别,目标跟踪系统为实现对嫌疑人的定位跟踪,则需要双目视觉测距系统提供测距算法支持,反馈测距结果至目标跟踪系统。
(5)摄像头控制系统
摄像头控制系统,主要完成多摄像头云台控制管理功能,实现对多摄像头的统一方位旋转控制,集成摄像头云台控制算法。一方面,该系统能主动发出摄像头控制指令,实现摄像头的旋转。另一方面,由目标跟踪系统所反馈的目标跟踪数据,将被摄像头控制系统解析为位置坐标,由摄像头控制系统实现摄像头的旋转。
(6)定位系统
嫌疑人使用手机等通讯设备产生的位置数据,将由定位系统进行统一管理。由双目视觉测距系统计算出来的嫌疑人位置数据、嫌疑人通讯设备产生的GPS/ 北斗位置数据、以及5G波束赋形计算出来的位置数据,定位系统将位置数据实时比对并提供给目标跟踪系统和摄像头控制系统,从而实现持续的目标跟踪。
(7)设备管理系统
设备管理系统用于对本系统涉及的各类硬件设备,进行统一的资产管理。
(8)车辆控制系统/AR、VR应用系统/无人机控制系统
均为可选系统,若感知层涉及车辆、无人机、AR/VR设备,则需配套相应的系统,方可驱动此类特殊硬件,实现对目标嫌疑人的跟踪。
1.1.5 5G无线网络的嫌疑人识别与定位追踪活动图
下面以“5G无线网络的嫌疑人识别与定位追踪”为例,说明各系统之间的关系,活动图如图8所示。
用例名称:5G无线网络的嫌疑人识别与定位追踪
参与执行者:双目摄像头、手机、摄像头云台。
前置条件:系统已开机
(1)主事件流:
①视频监控系统实时回传视频画面至最近MEC节点。
②人脸识别系统在MEC计算节点启动人脸特征识别并与嫌疑人特征库进行比对。
③双目视觉测距系统利用视频帧画面,通过双目测距算法,实时计算嫌疑人位置与摄像头之间距离。
④目标识别系统基于深度学习算法,快速计算目标嫌疑人位于图像正中需要旋转的角度。
⑤摄像头控制系统获取旋转角度信息,控制摄像头云台实时旋转。
⑥双目视觉测距系统利用视频帧画面,通过双目测距算法,实时计算嫌疑人位置与摄像头之间距离,得出嫌疑人位置信息。
⑦视频监控系统获取最新嫌疑人位置信息,触发所有最近摄像头拍摄视频画面。
⑧通过定位系统,实时获取嫌疑人位置信息。
⑨由定位系统提供嫌疑人位置信息,摄像头控制系统控制摄像头旋转,跟踪抓拍嫌疑人画面。
(2)辅事件流:
①若人脸识别系统未识别到嫌疑人,则返回至视频监控系统继续拍摄视频画面。
②若摄像头控制系统跟踪角度大于设定阈值,则返回至双目视觉测距系统继续计算景深。
③若已抓捕嫌疑人,则本次活动结束。
④若嫌疑人无手机信号,则返回至双目测距系统,通过计算景深获得嫌疑人位置信息。
下面结合实验对本发明的技术效果作详细的描述。
本实验以应用需求为导向,对整个系统的时效性进行分析,在智慧安防等应用领域,时效性是制约方案是否可行的关键因素。因此,总体实验思路,将围绕整个系统时效性的关键影响因素进行分析。实验拓扑图如图9所示,时延主要包含计算时延、网络时延和拍摄时延,其中计算时延的主要影响因素有:视频帧大小、帧率、算法效率、识别精度要求,网络时延的主要影响因素有: 5G网络的传输时延、带宽、传输网时延,拍摄时延的主要影响因素有:视频帧大小。基于中国联通在广州生物岛的5G网络外场测试环境,获取5G网络传输时延、带宽等实验数据。基于某厂家的双目摄像机,获取服务器的计算时延。由于当前硬件能力的提升,拍摄时延忽略不计。以此对整个系统的时效性进行分析,得出可行性结论。
本实验数据来源,主要有两份数据:1、中国联通广州生物岛NR测试分析报告;2、某厂家的双目摄像机的性能数据。
本实验的结论,证明5G网络的高带宽充分满足双目高清摄像头视频实时传输需求,就近MEC边缘移动节点,网络时延处于35ms以内,计算时延100ms。总时延=2*网络时延+计算时延,总时延小于200ms,满足摄像头实时控制要求,从而能够实时进行定位、识别、追踪。
为了对本发明的效果进行验证,进行了基于5G无线网络的嫌疑人识别与定位追踪系统及方法实验。
一、实验思路总体介绍
实验思路以应用需求为导向,对整个系统的时效性进行分析,在智慧安防等应用领域,时效性是制约方案是否可行的关键因素。因此,总体实验思路,将围绕整个系统时效性的关键影响因素进行分析。时延主要包含计算时延、网络时延和拍摄时延,其中计算时延的主要影响因素有:视频帧大小、帧率、算法效率、识别精度要求,网络时延的主要影响因素有:5G网络的传输时延、带宽、传输网时延,拍摄时延的主要影响因素有:视频帧大小。
基于中国联通在广州生物岛的5G网络外场测试环境,获取5G网络传输时延、带宽等实验数据。基于某厂家的双目摄像机,获取服务器的计算时延。由于当前硬件能力的提升,拍摄时延忽略不计。以此对整个系统的时效性进行分析,得出可行性结论。
二、实验数据来源
中国联通广州生物岛5G实际网络速率测试,测试时间为2019-07-21。FTP 平均下行速率199.74Mbps,最大下行速率679.36Mbps,平均上行速率 63.34Mbps,最大上行速率226.3Mbps。本发明实施例提供的中国联通广州生物岛5G网络下行速率图如图10所示,中国联通广州生物岛5G网络上行速率图如图11所示。
三、实验数据分析
以1080*1920像素高清摄像机为例,普通三通道彩色图片每个像素点三个字节共24bit位,假设每秒60帧,每秒总的bit为1080*1920*24*60bit,约 2.78Gbps。再考虑视频压缩比,压缩比按照千分之三进行计算,对应码率约为 8Mbps,10M上行带宽完全可满足,且小于5G网络的平均上行速率带宽63.34Mbps。由于5G网络会逐步规模覆盖,暂不考虑网络并发。
通过5G网络,电脑终端与MEC服务器之间,网络延迟主要由传输时延所致,传播时延和排队时延忽略不计。根据公式,传输时延计算如下:
上述公式中,delay表示网络传输时延,l表示视频传输码率,v表示5G网络上行速率,根据上文实验数据,l对应视频码率值为8Mbps,5G网络上行速率为 226.3Mbps。
随着当前计算能力的不断发展,单张图像1080*1920像素,目标定位与人脸识别算法的计算时延可控制在100ms左右,不对视频帧大小、帧率、算法效率、识别精度要求等对时延的影响因素作详细分析。
四、实验结论
本方案成功基于中国联通外场5G网络,证明5G网络的高带宽充分满足双目高清摄像头视频实时传输需求,与就近MEC边缘移动节点,网络时延可处于35ms 以内(考虑未来5G网络的持续优化与规模覆盖)。另随着当前计算能力的不断发展,单张图像计算时延预计可控制在100ms左右。因此,总时延=2*网络时延+ 计算时延,总时延小于200ms,满足摄像头实时控制要求,从而能够实时进行定位、识别、追踪。
证明部分(具体实施例/实验/仿真/药理学分析/能够证明本发明创造性的正面实验数据等)
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。
Claims (10)
1.一种基于5G无线网络的嫌疑人识别与定位追踪系统,其特征在于,所述基于5G无线网络的嫌疑人识别与定位追踪系统整体结构包括:感知层、传输层、计算存储资源层以及应用层;
所述感知层包括双目视觉摄像头、无人驾驶安防警车、城市巡逻无人机、AR/VR眼镜;
所述物联网的传输层借助OTN有线网络和5G移动通信网络,视频监控信息传输依赖TCP/IP技术;所述5G移动通信网络包括:波束赋形、GPS/北斗;
所述计算存储资源层采用华为的云计算解决方案架构,包括MEC、MBC、OpenStack云平台、OpenStack插件化扩展、服务抽象层、服务器SAN、计算机虚拟化层、软件定义网络控制器、硬件基础设施,通过计算资源虚拟化、存储资源虚拟化、网络资源虚拟化,将底层的的物理资源形成统一的虚拟资源池,随后通过开源的OpenStack架构,以API接口的形式供上层应用程序调用;
所述硬件基础设施包括服务器、存储介质、网络&安全设备;所述API接口包括OpenStack API、Cloud Storage API;
所述应用层由设备管理系统、视频监控系统、人脸识别系统、双目视觉测距系统、目标跟踪系统、摄像头控制系统、定位系统、车辆控制系统、AR/VR应用系统、无人机控制系统构成。
2.如权利要求1所述的基于5G无线网络的嫌疑人识别与定位追踪系统,其特征在于,所述感知层是5G无线网络的嫌疑人识别与定位追踪系统的基础,所述感知内容可分为视频信息监控以及个体信息监控;
在城市区域安装有网络双目视觉摄像头,用于视频信息的感知和收集,信息上传至云平台数据库中进行存储,被视频监控系统处理和使用;所述网络摄像头具有云台控制功能,旋转至空间任意角度和方向进行视频拍摄;视频监控系统再结合图像处理技术、深度学习的方法对视频数据信息进行分析、处理,可对整个城市区域进行监测和预警;双目视觉摄像头结合图像处理技术对个体人脸进行识别、周期性的从视频帧中截取帧画面进行个体识别和位置距离测量,实现嫌疑人识别和位置定位;
个体信息监控包括个体手机5G波束赋形/GPS/北斗定位信息;双目视觉摄像头识别定位的个体位置作为初始化信息,用于手机信号的个体追踪,而GPS传感器获得的精确位置信息可以用于摄像头的视频跟踪;5G波束赋形/GPS/北斗实时上报的个体精确地理位置信息,将会被上层目标跟踪系统所使用,通过所述位置信息,可以控制离个体最近的一个摄像头进行视频跟踪拍摄,跟踪拍摄的视频将会与嫌疑人的人脸特征库进行比对,进而识别追踪嫌疑人。
3.如权利要求1所述的基于5G无线网络的嫌疑人识别与定位追踪系统,其特征在于,所述5G无线网络的嫌疑人识别与定位追踪系统传输层起到感知层和云平台层中间媒介的作用,即5G无线网络的嫌疑人识别与定位追踪系统传输层的作用是把传感器的信息迅速传输至云平台中的数据库进行存储,借助于各种通信技术;
所述固定摄像头可采用OTN有线网进行传输;视频信息可以直接基于TCP/IP协议进行传输,并储存于云平台数据库中;而移动摄像头如AR/VR、无人机,则需选择5G移动通信网络进行数据传输。
4.如权利要求1所述的基于5G无线网络的嫌疑人识别与定位追踪系统,其特征在于,所述计算存储资源层云平台解决方案整体架构包含物理资源层、虚拟资源层、资源服务与调度层、数据服务层、云管理层、中间件服务层;
(1)物理资源层
所有支持IaaS层的IT基础设施硬件包括服务器、存储(传统RAID架构垂直扩展的Scale-up存储,以及基于服务器的分布式水平扩展的Scale-out存储)、数据中心交换机(柜顶、汇聚以及核心交换)、防火墙、VPN网关、路由器的网络安全设备;
(2)虚拟资源层
虚拟资源层在云计算架构中处于最为关键与核心位置,与“资源服务与调度层”一道,通过对来自上层操作系统及应用程序对各类数据中心基础设施在业务执行和数据平面上的资源访问指令进行“截获”;指令和数据被截获后进行“小聚大”的分布式资源聚合处理,“大分小”的虚拟化隔离处理,以及必要异构资源适配处理;
(3)资源服务与调度层
相对虚拟化层在业务执行面和数据面上“资源聚合与分割仿真”,该层次主要体现为管理平面上的“逻辑资源调度”;需要进行接口的标准化,接口标准化后,主流的虚拟化平台(例如Hyper-V、KVM、UVP、ESX)之间能够相互兼容,各个硬件厂家或者中间件厂家可以自由选择虚拟化内核;
(4)数据服务层
数据服务层是叠加在基础设施服务之上的,具备多租户感知能力的结构化、半结构化及非结构化数据服务能力;
(5)云管理层
云管理层还有纵向拉通云平台各服务层及子系统的云管理子系统,负责端到端云计算服务实例的创建发放,生命周期管理,服务SLA水平保障,云计算数据中心物理及虚拟化平台基础设施,以及平台基础设施与上层业务关联的FCAPS日常操作与维护业务;云管理与传统电信的OSS/BSS系统的最大差异在于其多种不同横向与纵向资源整合的全自动化、智能化支持;
(6)中间件服务层
系统在某些场景下还需要做一些适配服务,例如,提供桌面云时,需要提供桌面云相关的应用协议、桌面应用的调度;面向不同业务群提供大数据服务时,需要做一些应用的适配。
5.如权利要求1所述的基于5G无线网络的嫌疑人识别与定位追踪系统,其特征在于,所述虚拟资源层包含三个部分,具体如下:
1)计算虚拟化
所有计算应用(含OS)并非直接承载在硬件平台上,而是在上层软件与裸机硬件之间插入一层弹性计算资源管理及虚拟化软件:弹性计算资源管理软件对外负责提供弹性计算资源服务管理API,对内负责根据用户请求调度分配具体的物理机资源;虚拟化软件(Hypervisor、Xen)对所有的x86指令进行截获,并执行不为上层软件(含OS)所知的多道执行环境并行的“仿真操作”,使得从每个上层软件实例的视角来看,仍然独占底层的CPU、内存以及I/O资源;而从虚拟化软件的视角来看,则是将裸机硬件在多个客户机(VM)之间进行时间和空间维度的穿插共享(时间片调度,I/O多队列模拟);
2)存储虚拟化
通过对所有来自应用软件层的存储数据面的I/O读写操作指令进行“截获”,建立从业务应用视角覆盖不同厂家、不同版本的异构硬件资源的统一API接口,进行统一的信息建模,使得上层应用软件可以采用规范一致的、与底层具体硬件内部实现细节解耦的方式访问底层存储资源;
3)网络虚拟化
在一个具备一定规模的数据中心内,甚至多个数据中心,各计算、存储单元之间以完全点对点的方式进行松耦合的网络互联;云数据中心之上承载的业务种类众多,各业务类型对于不同计算单元(物理机、虚拟机)之间,计算单元与存储单元之间,乃至不同安全层次的计算单元与外部开放互联网和内部企业网络之间的安全隔离及防护机制,要求动态实现隔离和访问;为了实现彻底与现有物理硬件网络解耦的网络虚拟化与自动化,唯一的途径与解决方案就是SDN(即所谓软件定义网络),即构建出一个与物理网络完全独立的叠加式逻辑网络。
6.如权利要求1所述的基于5G无线网络的嫌疑人识别与定位追踪系统,其特征在于,所述应用层主要有以下几大系统构成:设备管理系统、视频监控系统、人脸识别系统、双目视觉测距系统、目标跟踪系统、摄像头控制系统、定位系统、车辆控制系统、AR/VR应用系统、无人机控制系统,采用容器微服务的思想进行开发和部署,具体包括:
(1)视频监控系统
视频监控系统能够对所有摄像头所拍摄的视频进行记录、存储、回放;城市所有的固定摄像头视频信息以有线传输的形式上传至云平台数据库中进行存储,无人机等移动视频信息可以通过无线(5G)的形式上传至云平台;摄像头具备景深测量功能,同时视频监控系统需集成智能化的图像处理算法,所述算法能够将拍摄回来的图像数据进行实时的数据处理,将处理后的数据同步至人脸识别系统,与嫌疑人图像特征库进行比对,进行自动化预警和识别;
(2)目标跟踪系统
目标跟踪系统主要用于个体的视频跟踪拍摄,用于摄像头捕捉识别嫌疑人后的动态跟踪;所述系统能够周期性的对每一个嫌疑人进行自动化的跟踪,形成简短的一段视频跟踪记录,所述视频记录能够自动与该嫌疑人形成一一对应关系;当用户从人脸识别系统中选中某一嫌疑人,目标跟踪系统能够调取最近的一个摄像头对该嫌疑人进行跟踪拍摄,并实时回传给用户进行查看;
摄像头为两轴云台控制摄像头,具有被控制的功能,对空间任意角度和方向进行视频拍摄;云平台上的目标跟踪系统需集成大规模摄像头云台控制算法,该算法能够根据每一个嫌疑人实时回传的定位信息对个体进行就进跟踪拍摄;所述系统中必须实时记录所有摄像头的位置信息和嫌疑人随时变化的位置信息,通过该位置信息,每一个摄像头捕捉离其最近的嫌疑人进行视频跟踪拍摄,若发现所述最近嫌疑人在本次视频记录周期中已经被视频记录,则寻找下一个离其最近的嫌疑人进行拍摄,依次类推,直至在本次周期中所有嫌疑人视频信息均被记录完毕;对于用户选中某一个体,需查看其视频信息时,将其视为中断,离嫌疑人最近的摄像头若正在记录嫌疑人视频信息,则停止记录,用户查看结束之后,继续记录;
(3)人脸识别系统
人脸识别系统,主要包含人脸比对和人脸建库;人脸识别系统采用成熟的深度学习算法,融合计算机图像处理技术与生物统计学原理于一体,利用计算机图像处理技术从视频中提取人像特征点,利用生物统计学的原理进行分析建立数学模型,在大规模人脸图像数据库中进行人脸检索;从各种采集源获取的人脸图像可以迅速地与预先存储的(人脸建库)数以千万计的图像数据库(如嫌疑人照片)完成比较,返回一个包含若干最相似人年图像的匹配列表,一旦匹配人脸库中的嫌疑人数据,该信息将被及时同步至目标跟踪系统,对目标进行跟踪识别;
(4)双目视觉测距系统
双目视觉测距系统,用于对大规模双目摄像头景深测量进行管理;若由人脸识别系统完成嫌疑人比对识别,目标跟踪系统为实现对嫌疑人的定位跟踪,则需要双目视觉测距系统提供测距算法支持,反馈测距结果至目标跟踪系统;
(5)摄像头控制系统
摄像头控制系统,主要完成多摄像头云台控制管理功能,集成摄像头云台控制算法;所述系统能主动发出摄像头控制指令,实现摄像头的旋转;由目标跟踪系统所反馈的目标跟踪数据,将被摄像头控制系统解析为位置坐标,由摄像头控制系统实现摄像头的旋转;
(6)定位系统
嫌疑人使用手机等通讯设备产生的位置数据,将由定位系统进行统一管理;由双目视觉测距系统计算出来的嫌疑人位置数据、嫌疑人通讯设备产生的GPS/北斗位置数据、以及5G波束赋形计算出来的位置数据,定位系统将位置数据实时比对并提供给目标跟踪系统和摄像头控制系统;
(7)设备管理系统
设备管理系统用于对涉及的各类硬件设备进行统一的资产管理;
(8)车辆控制系统/AR、VR应用系统/无人机控制系统
均为可选系统,若感知层涉及车辆、无人机、AR/VR设备,则需配套相应的系统,方可驱动此类特殊硬件,进行目标嫌疑人的跟踪。
7.一种应用如权利要求1~6任意一项所述的基于5G无线网络的嫌疑人识别与定位追踪系统的基于5G无线网络的嫌疑人识别与定位追踪方法,其特征在于,所述基于5G无线网络的嫌疑人识别与定位追踪方法包括以下步骤:
步骤一,视频监控系统实时回传视频画面至最近MEC节点,并由视频监控系统完成视频数据的处理、存储;
步骤二,人脸识别系统在MEC计算节点启动人脸特征识别并与嫌疑人特征库进行比对,识别嫌疑人;
步骤三,若找出监控画面中存在嫌疑人,双目视觉测距系统利用视频帧画面,通过双目测距算法计算景深,实时计算嫌疑人位置与摄像头之间距离;
步骤四,目标识别系统基于深度学习算法,由目标跟踪系统完成一个或者多个摄像头的目标跟踪计算,结合景深距离快速计算目标嫌疑人位于图像正中需要旋转的角度;
步骤五,摄像头控制系统获取旋转角度信息,控制摄像头云台实时旋转跟踪,使摄像头正拍嫌疑人;
步骤六,双目视觉测距系统利用视频帧画面,通过双目测距算法,实时计算嫌疑人位置与摄像头之间距离,得出嫌疑人位置信息;
步骤七,视频监控系统获取最新嫌疑人位置信息,触发所有最近摄像头拍摄视频画面;通过定位系统,实时获取嫌疑人位置信息;
步骤八,由定位系统提供嫌疑人位置信息,摄像头控制系统控制摄像头旋转,跟踪抓拍嫌疑人画面;若已抓捕嫌疑人,则本次活动结束。
8.如权利要求7所述的基于5G无线网络的嫌疑人识别与定位追踪方法,其特征在于,步骤二中,若人脸识别系统未识别到嫌疑人,则返回至视频监控系统继续拍摄视频画面。
9.如权利要求7所述的基于5G无线网络的嫌疑人识别与定位追踪方法,其特征在于,步骤中,所述进一步,步骤五中,若跟踪旋转角度小于设定阈值,则进入云端计算景深并给出嫌疑人位置,由双目视觉测距系统计算出嫌疑人与摄像头之间的距离,在结合摄像头自身位置信息推算出嫌疑人的具体位置;若摄像头控制系统跟踪角度大于设定阈值,则返回至双目视觉测距系统继续计算景深。
10.如权利要求7所述的基于5G无线网络的嫌疑人识别与定位追踪方法,其特征在于,步骤八中,调取所有相关最近摄像头跟踪抓拍嫌疑人,由摄像头控制系统结合嫌疑人位置信息,控制与嫌疑人临近的所有摄像头多视野、多角度跟踪拍摄嫌疑人;若未抓捕嫌疑人,则进入5G波束赋形跟踪嫌疑人手机,结合嫌疑人位置具体信息由定位系统启动5G波束赋形跟踪嫌疑人手机;若嫌疑人有手机信号发出,则使用波束赋形、GPS、北斗实时追踪嫌疑人,由定位系统完成相应功能,并关闭天网视频监控系统;若嫌疑人无手机信号,则返回至双目测距系统,通过计算景深获得嫌疑人位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010451564.2A CN111753664A (zh) | 2020-05-25 | 2020-05-25 | 基于5g无线网络的嫌疑人识别与定位追踪系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010451564.2A CN111753664A (zh) | 2020-05-25 | 2020-05-25 | 基于5g无线网络的嫌疑人识别与定位追踪系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111753664A true CN111753664A (zh) | 2020-10-09 |
Family
ID=72673656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010451564.2A Pending CN111753664A (zh) | 2020-05-25 | 2020-05-25 | 基于5g无线网络的嫌疑人识别与定位追踪系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111753664A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112215358A (zh) * | 2020-12-09 | 2021-01-12 | 戎腾科技(长沙)有限公司 | 一种基于随机森林的ip定位方法及系统 |
CN112633068A (zh) * | 2020-11-25 | 2021-04-09 | 河北汉光重工有限责任公司 | 基于陆防监控的人车图像识别追踪云系统 |
CN113096146A (zh) * | 2021-04-02 | 2021-07-09 | 贵州电网有限责任公司 | 一种基于5g与ai识别技术的输电线路覆冰监控预警系统、安装设备及方法 |
CN113179496A (zh) * | 2021-04-30 | 2021-07-27 | 南京邮电大学 | 基于mec的视频分析架构及该架构下的室内定位系统 |
CN113255538A (zh) * | 2021-06-01 | 2021-08-13 | 大连理工大学 | 基于fpga的红外弱小目标的检测跟踪装置及方法 |
CN113534829A (zh) * | 2021-06-11 | 2021-10-22 | 南京邮电大学 | 一种基于边缘计算的无人机日常巡逻检测系统 |
CN114466121A (zh) * | 2022-01-21 | 2022-05-10 | 中国船舶重工集团公司第七0九研究所 | 一种基于ar的空地可视化指挥系统和工作方法 |
CN114513751A (zh) * | 2021-03-25 | 2022-05-17 | 深圳警圣技术股份有限公司 | 一种基于5g无线网络的人员识别与定位追踪系统及方法 |
CN114971116A (zh) * | 2021-05-24 | 2022-08-30 | 中移互联网有限公司 | 一种追踪风险终端的方法和装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492536A (zh) * | 2018-10-12 | 2019-03-19 | 大唐高鸿信息通信研究院(义乌)有限公司 | 一种基于5g架构的人脸识别方法及系统 |
CN109996039A (zh) * | 2019-04-04 | 2019-07-09 | 中南大学 | 一种基于边缘计算的目标追踪方法及装置 |
CN110650322A (zh) * | 2019-10-29 | 2020-01-03 | 北京枭龙科技有限公司 | 一种基于云服务、物联网和ar安防眼镜的安防系统 |
-
2020
- 2020-05-25 CN CN202010451564.2A patent/CN111753664A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492536A (zh) * | 2018-10-12 | 2019-03-19 | 大唐高鸿信息通信研究院(义乌)有限公司 | 一种基于5g架构的人脸识别方法及系统 |
CN109996039A (zh) * | 2019-04-04 | 2019-07-09 | 中南大学 | 一种基于边缘计算的目标追踪方法及装置 |
CN110650322A (zh) * | 2019-10-29 | 2020-01-03 | 北京枭龙科技有限公司 | 一种基于云服务、物联网和ar安防眼镜的安防系统 |
Non-Patent Citations (1)
Title |
---|
CLOUD_ARCHITECT: ""《云计算架构技术与实践》连载(5)2.1.2 云计算平台架构"", 《CSDN HTTPS://BLOG.CSDN.NET/CLOUD_ARCHITECT/ARTICLE/DETAILS/41800197》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112633068A (zh) * | 2020-11-25 | 2021-04-09 | 河北汉光重工有限责任公司 | 基于陆防监控的人车图像识别追踪云系统 |
CN112215358A (zh) * | 2020-12-09 | 2021-01-12 | 戎腾科技(长沙)有限公司 | 一种基于随机森林的ip定位方法及系统 |
CN112215358B (zh) * | 2020-12-09 | 2021-03-05 | 戎腾科技(长沙)有限公司 | 一种基于随机森林的ip定位方法及系统 |
CN114513751A (zh) * | 2021-03-25 | 2022-05-17 | 深圳警圣技术股份有限公司 | 一种基于5g无线网络的人员识别与定位追踪系统及方法 |
CN113096146A (zh) * | 2021-04-02 | 2021-07-09 | 贵州电网有限责任公司 | 一种基于5g与ai识别技术的输电线路覆冰监控预警系统、安装设备及方法 |
CN113179496A (zh) * | 2021-04-30 | 2021-07-27 | 南京邮电大学 | 基于mec的视频分析架构及该架构下的室内定位系统 |
CN114971116A (zh) * | 2021-05-24 | 2022-08-30 | 中移互联网有限公司 | 一种追踪风险终端的方法和装置 |
CN114971116B (zh) * | 2021-05-24 | 2023-08-18 | 中移互联网有限公司 | 一种追踪风险终端的方法和装置 |
CN113255538A (zh) * | 2021-06-01 | 2021-08-13 | 大连理工大学 | 基于fpga的红外弱小目标的检测跟踪装置及方法 |
CN113534829A (zh) * | 2021-06-11 | 2021-10-22 | 南京邮电大学 | 一种基于边缘计算的无人机日常巡逻检测系统 |
CN113534829B (zh) * | 2021-06-11 | 2024-04-05 | 南京邮电大学 | 一种基于边缘计算的无人机日常巡逻检测系统 |
CN114466121A (zh) * | 2022-01-21 | 2022-05-10 | 中国船舶重工集团公司第七0九研究所 | 一种基于ar的空地可视化指挥系统和工作方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111753664A (zh) | 基于5g无线网络的嫌疑人识别与定位追踪系统及方法 | |
McChesney et al. | Defog: fog computing benchmarks | |
CN108255605B (zh) | 一种基于神经网络的图像识别协同计算方法及系统 | |
CN106791613B (zh) | 一种基于3dgis和视频相结合的智能监控系统 | |
Wang et al. | Elastic urban video surveillance system using edge computing | |
CN111614785B (zh) | 一种基于微容器云的边缘ai计算集群 | |
Qureshi et al. | Surveillance camera scheduling: A virtual vision approach | |
US20180197297A1 (en) | System and method for detecting and tracking multiple moving targets based on wide-area motion imagery | |
Qureshi et al. | Surveillance in virtual reality: System design and multi-camera control | |
CN104038729A (zh) | 级联式多摄像机接力跟踪方法及系统 | |
Xu et al. | {SwarmMap}: Scaling up real-time collaborative visual {SLAM} at the edge | |
CN108156033A (zh) | 无人机穿戴式维修保障支持系统 | |
CN108449383A (zh) | 分布式实时移动微云计算系统 | |
CN114169579B (zh) | 核电工业互联网综合智能平台系统 | |
Wang et al. | IndustEdge: A time-sensitive networking enabled edge-cloud collaborative intelligent platform for smart industry | |
CN110245268A (zh) | 一种路线确定、展示的方法及装置 | |
CN115248880A (zh) | 一种智慧城市安防监控系统 | |
CN111985352A (zh) | 一种ai前端化的变电站巡检视频实时识别方法及系统 | |
CN109753727A (zh) | 一种基于数据驱动的仿真建模引擎 | |
Xie et al. | A video analytics-based intelligent indoor positioning system using edge computing for IoT | |
CN111813151A (zh) | 基于机器视觉的无人机集群控制方法 | |
CN110263219A (zh) | 一种目标对象路线筛选、展示的方法及装置 | |
CN116704046B (zh) | 一种跨镜图像匹配方法及装置 | |
CN112218052A (zh) | 一种综合安防集中监管平台及其应用 | |
CN116755867A (zh) | 一种面向卫星云的计算资源调度系统、方法及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201009 |
|
RJ01 | Rejection of invention patent application after publication |