CN110674746A - 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质 - Google Patents
一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质 Download PDFInfo
- Publication number
- CN110674746A CN110674746A CN201910906284.3A CN201910906284A CN110674746A CN 110674746 A CN110674746 A CN 110674746A CN 201910906284 A CN201910906284 A CN 201910906284A CN 110674746 A CN110674746 A CN 110674746A
- Authority
- CN
- China
- Prior art keywords
- camera
- tracking
- tracking target
- coordinates
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000004458 analytical method Methods 0.000 claims abstract description 59
- 230000002093 peripheral effect Effects 0.000 claims abstract description 52
- 238000005516 engineering process Methods 0.000 claims abstract description 24
- 238000012216 screening Methods 0.000 claims abstract description 14
- 238000013499 data model Methods 0.000 claims abstract description 12
- 230000008569 process Effects 0.000 claims description 24
- 238000001514 detection method Methods 0.000 claims description 22
- 238000013178 mathematical model Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 11
- 230000009466 transformation Effects 0.000 claims description 11
- 239000003086 colorant Substances 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 abstract description 6
- 230000002708 enhancing effect Effects 0.000 abstract description 3
- 230000000694 effects Effects 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010223 real-time analysis Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及跨镜追踪技术领域,公开了一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质,即先建立各个摄像机的且能够将像素坐标变换为世界坐标的数据模型,然后在确定追踪目标后,可通过该数据模型得到追踪目标的当前世界坐标,最后根据该当前世界坐标对若干个周边摄像机进行多种智能分析算法的特征比对和筛选,实现了在这些周边摄像机的实时视频图像中高精度识别追踪目标的目的,从而通过结合摄像头的空间关系以及人脸识别、姿态分析、行人属性结构化和/或行人重识别等技术,增强了环境适应性和提高了跨镜追踪的整体精度,利于有效提高公安抓捕效率。
Description
技术领域
本发明属于跨镜追踪技术领域,具体涉及一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质。
背景技术
跨镜追踪技术,是指在跨摄像头或跨场景下对行人或者物体进行有效识别与检索的方法,也就是将行人或物体在不同的摄像机镜头下重新辨认或识别出来,达到在不同的摄像机镜头下追踪目标的效果。
近年来,为了积极应对社会公共安全的复杂形势,各地安防部门都加大了视频监控系统的投资建设力度,加强了视频感知网络的覆盖面,视频监控的触角延伸到了城市的大街小巷,同时深化了公共安全视频监控建设联网应用,为公安视频巡逻、指挥调度、调查取证提供了强有力的技术手段。但对路面可疑人员的实时追踪,目前还停留在人工判断跟踪的初级阶段,系统的跨镜追踪技术已经有很多团队在研究,但迟迟不能落地,无法满足社会实际需求。
目前出现了很多类似的跨镜追踪算法应用,但是这些都基本是在算法上做更加深入的研究,只追求算法上的优化,而忽略了视频摄像头在空间上的关系,导致其只有在特定的环境或者固定模式下,虽然跑分值比较高,但应用到实际环境中以后,会被现场环境的因素所制约,导致整个应用无法落地。即跨镜追踪应用实现的基础是通过视频提取人的特征值,包括人的行为、动作、衣服和穿戴等,但是在现实环境中存在很多不确定的因素,如光线的强弱、衣服的变换、其他物体的遮挡等,如果单纯根据算法判断,是无法达到高精度的水准。
发明内容
为了解决当前跨镜追踪方法所存在的环境适应性差和实际应用精度低的问题,本发明目的在于提供一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质。
本发明所采用的技术方案为:
一种应用视频空间关系辅助实现高精度跨镜追踪的方法,包括如下步骤:
S101.针对每个参与追踪的摄像机,根据对应的空间数据档案建立能够将像素坐标变换为世界坐标的数据模型,其中,所述空间数据档案包含对应摄像机的PTZ参数值、经纬度和视场角;
S102.应用Yolo物体检测技术,在初始摄像机的实时视频图像中检测出所有的人体图像,然后在将某个人体图像标记为追踪目标后,针对该追踪目标,进行同摄像机的跟随;
S103.在同摄像机的跟随过程中,获取所述追踪目标在视频图像中的像素坐标,然后应用所述数学模型计算得到所述追踪目标的世界坐标;
S104.以所述追踪目标的世界坐标为中心,查找到位于附近一定范围内的若干周边摄像机;
S105.在周边摄像机的实时视频图像中,针对所述追踪目标,应用智能分析算法进行人员特征值的比对和筛选,并获取对应的追踪目标识别结果,其中,所述智能分析算法包括人脸识别算法、姿态分析算法、行人属性分析算法和/或行人重识别算法;
S106.将周边摄像机的追踪目标识别结果推送至前端界面进行输出展示。
优化的,在所述步骤S101中,所述数学模型包括如下两个坐标变换环节:
S1011.从像素坐标到相机坐标:
式中,Pcamera(3×1)表示相机坐标(Xc,Yc,Zc),为从像素坐标系到相机坐标系的变换矩阵,Ppixel(3×1)表示像素坐标(u,v,1),depth为深度相机的depth参数值;
S1012.从相机坐标到世界坐标:
优化的,在所述步骤S102中,包括有如下步骤:
S1021.应用Yolo-V3物体检测技术,在实时视频图像中检测出所有的人体图像,并对这些人体图像进行第一有色框标记;
S1022.在使用第二有色框标记某一人体图像后,将该人体图像作为追踪目标,其中,所述第二有色框和所述第一有色框分别为具有不同颜色的方框;
S1023.在同摄像机的跟随过程中或在跨境追踪过程中,继续使用所述第二有色框标记实时视频图像中的追踪目标。
优化的,在同摄像机的跟随过程中,还包括有如下步骤:周期性地通过所述步骤S103获取所述追踪目标的世界坐标,然后根据最近两时刻的世界坐标分别计算得到所述追踪目标的当前移动速度和当前移动方向,最后将当前世界坐标、与所述当前世界坐标对应的最近地理位置、当前移动速度和/或当前移动方向加载到显示所述追踪目标的实时视频图像中。
优化的,在所述步骤S104中,包括有如下步骤:
S1041.根据摄像机的空间数据档案,获取参与追踪的所有摄像机的经纬度;
S1042.根据地理信息系统中的缓存区分析技术,以所述追踪目标的世界坐标为中心,查找附近K米范围内的所有摄像机,其中,K为介于100~500的自然数;
S1043.选取距离所述追踪目标最近的M路摄像机作为周边摄像机,其中,M为不大于20的自然数。
优化的,在所述步骤S105中,根据各种智能分析算法在当前现场环境下的预设权重值,选择在当前现场环境下权重值最高的某个或几个智能分析算法进行人员特征值的比对和筛选。
优化的,在所述步骤S106中,按照如下方式(A)~(C)中的任意组合进行输出展示:
(A)按照所述追踪目标在各周边摄像机的视频图像中所出现的时间顺序,以列表形式进行追踪目标识别结果的输出展示;
(B)结合地图,在地图上标注所述追踪目标在视频图像中出现的对应周边摄像机位置/和次数,并绘制和展示移动轨迹;
(C)在选定某个周边摄像机时,输出显示包含所述追踪目标的实时视频图像或历史录像。
本发明所采用的另一种技术方案为:
一种应用视频空间关系辅助实现高精度跨镜追踪的装置,包括数学模型建立单元、人体图像检测单元、世界坐标获取单元、周边镜头查找单元、智能分析识别单元和识别结果推送单元;
所述数学模型建立单元,用于针对每个参与追踪的摄像机,根据对应的空间数据档案建立能够将像素坐标变换为世界坐标的数据模型,其中,所述空间数据档案包含对应摄像机的PTZ参数值、经纬度和视场角;
所述人体图像检测单元,用于应用Yolo物体检测技术,在初始摄像机的实时视频图像中检测出所有的人体图像,然后在将某个人体图像标记为追踪目标后,针对该追踪目标,进行同摄像机的跟随;
所述世界坐标获取单元,用于在同摄像机的跟随过程中,获取所述追踪目标在视频图像中的像素坐标,然后应用所述数学模型计算得到所述追踪目标的世界坐标;
所述周边镜头查找单元,用于以所述追踪目标的世界坐标为中心,查找到位于附近一定范围内的若干周边摄像机;
所述智能分析识别单元,用于在周边摄像机的实时视频图像中,针对所述追踪目标,应用智能分析算法进行人员特征值的比对和筛选,并获取对应的追踪目标识别结果,其中,所述智能分析算法包括人脸识别算法、姿态分析算法、行人属性分析算法和/或行人重识别算法;
所述识别结果推送单元,用于将周边摄像机的追踪目标识别结果推送至前端界面进行输出展示。
本发明所采用的另一种技术方案为:
一种计算机设备,包括通信相连的存储器和处理器,其中,所述存储器用于存储计算机程序,所述处理器用于执行所述计算机程序实现如前所述应用视频空间关系辅助实现高精度跨镜追踪的方法步骤。
本发明所采用的另一种技术方案为:
一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如前所述应用视频空间关系辅助实现高精度跨镜追踪的方法步骤。
本发明的有益效果为:
(1)本发明创造提供了一种能够增强环境适应性和提升实际应用精度的新型跨镜追踪方法,即先建立各个摄像机的且能够将像素坐标变换为世界坐标的数据模型,然后在确定追踪目标后,可通过该数据模型得到追踪目标的当前世界坐标,最后根据该当前世界坐标对若干个周边摄像机进行多种智能分析算法的特征比对和筛选,实现了在这些周边摄像机的实时视频图像中高精度识别追踪目标的目的,从而通过结合摄像头的空间关系以及人脸识别、姿态分析、行人属性结构化和/或行人重识别等技术,增强了环境适应性和提高了跨镜追踪的整体精度,利于有效提高公安抓捕效率;
(2)通过各个摄像机之间的空间关系,可只分析周边摄像机的视频图像,有效降低了服务器的实时分析运算压力;
(3)可结合追踪目标的速度及方向,进一步准确定位真正目标人物当前所在的摄像机视野,实现更高精度的跨镜追踪;
(4)可通过人机耦合的方式来完成整个跨镜追踪的过程,使整个追踪过程更加灵活,准确率更高,便于实际应用和推广。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的应用视频空间关系辅助实现高精度跨镜追踪的方法流程示意图。
图2是本发明提供的像素坐标系、图像坐标系、相机坐标系和世界坐标系的变换示例图。
图3是本发明提供的应用Yolo物体检测技术进行物体检测的示例图。
图4是本发明提供的跨境追踪展示效果的示例图。
图5是本发明提供的应用视频空间关系辅助实现高精度跨镜追踪的装置结构示意图。
图6是本发明提供的计算机设备的结构示意图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步阐述。在此需要说明的是,对于这些实施例方式的说明用于帮助理解本发明,但并不构成对本发明的限定。本文公开的特定结构和功能细节仅用于描述本发明的示例实施例。然而,可用很多备选的形式来体现本发明,并且不应当理解为本发明限制在本文阐述的实施例中。
应当理解,在本文描述的一些流程中,包含了按照特定顺序出现的多个操作,但是这些操作可以不按照其在本文中出现的顺序来执行或并行执行,操作的序号如S101、S102等,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作同样按顺序执行或并行执行。
应当理解,尽管本文可以使用术语第一、第二等等来描述各种单元,这些单元不应当受到这些术语的限制。这些术语仅用于区分一个单元和另一个单元。例如可以将第一单元称作第二单元,并且类似地可以将第二单元称作第一单元,同时不脱离本发明的示例实施例的范围。
应当理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,单独存在B,同时存在A和B三种情况,本文中术语“/和”是描述另一种关联对象关系,表示可以存在两种关系,例如,A/和B,可以表示:单独存在A,单独存在A和B两种情况,另外,本文中字符“/”,一般表示前后关联对象是一种“或”关系。
应当理解,当将单元称作与另一个单元“连接”、“相连”或“耦合”时,它可以与另一个单元直相连接或耦合,或中间单元可以存在。相対地,当将单元称作与另一个单元“直接相连”或“直接耦合”时,不存在中间单元。应当以类似方式来解释用于描述单元之间关系的其他单词(例如,“在……之间”对“直接在……之间”,“相邻”对“直接相邻”等等)。
本文使用的术语仅用于描述特定实施例,并不意在限制本发明的示例实施例。如本文所使用的,单数形式“一”、“一个”以及“该”意在包括复数形式,除非上下文明确指示相反意思。还应当理解术语“包括”、“包括了”、“包含”和/或“包含了”在本文中使用时,指定所声明的特征、整数、步骤、操作、单元和/或组件的存在性,并且不排除一个或多个其他特征、数量、步骤、操作、单元、组件和/或他们的组合存在性或增加。
还应当注意到在一些备选实施例中,所出现的功能/动作可能与附图出现的顺序不同。例如,取决于所涉及的功能/动作,实际上可以实质上并发地执行,或者有时可以以相反的顺序来执行连续示出的两个图。
在下面的描述中提供了特定的细节,以便于对示例实施例的完全理解。然而,本领域普通技术人员应当理解可以在没有这些特定细节的情况下实现示例实施例。例如可以在框图中示出系统,以避免用不必要的细节来使得示例不清楚。在其他实例中,可以不以不必要的细节来示出众所周知的过程、结构和技术,以避免使得示例实施例不清楚。
实施例一
如图1~4所示,本实施例提供的所述应用视频空间关系辅助实现高精度跨镜追踪的方法,可以但不限于包括如下步骤S101~S106。
S101.针对每个参与追踪的摄像机,根据对应的空间数据档案建立能够将像素坐标变换为世界坐标的数据模型,其中,所述空间数据档案可以但不限于包含对应摄像机的PTZ参数值、经纬度和视场角等。
在所述步骤S101之前,需要针对每个参与追踪的摄像机进行一对一的建档,以便得到和保存所述空间数据档案,即先要通过常规方式获取摄像机的六要素:PTZ(在安防监控应用中为Pan/Tilt/Zoom的简写,代表云台全方位/左右/上下的移动及镜头变倍和变焦控制)参数值、经纬度和视场角等。例如针对经纬度,由于摄像机是会安装在固定位置,因此能够轻易获得该摄像机的基本经纬度信息,不需要摄像机存储经纬度信息,只要知道摄像机安装的位置即可获得。
在所述步骤S101中,如图2所示,所述数学模型可包括如下两个坐标变换环节:
由此可见,利用摄像机的空间数据档案,可根据常规的空间关系结构,建立像素坐标与世界坐标相互转换的数学模型,使原本单一的视频图像加上了一层隐形的和可计算的空间“轴线”,从而实现像素坐标与世界坐标的自动转换。另外,像素坐标与世界坐标的转换在视频图像中的应用可分两种情况:(1)固定场景视角下视频图像(例如枪机视频)的像素转换,这类摄像机由于图像的外部形态不会变化,通过记录摄像机的经纬度、安装高度和方向角等,就能够建立将像素坐标变换为世界坐标的数学模型;(2)可变场景下的视频图像(例如球机或云台的视频图像)的像素转换,需要摄像机在姿态发生变化时,自动上报方位角、视场角信息,进而使之可以建立将像素坐标变换为世界坐标的数学模型。由此通过研究像素坐标与世界坐标的相互转换关系,可达到在时间维度及空间维度下,摄像机在任意状态下的视频画面上都具备真实的经纬度信息,进而使得人们能够在空间维度对每一帧视频图像有更深入的认知。
此外,在实现像素坐标与世界坐标的转换之后,就能够利用视频像素的经纬度信息进行地理标签标注,形成视频标签,还可支持关联语音、文本、视频、文字、图形、图标、表格及以上各种信息的组合,并使内容支持搜索、查询、存储和记录等,从而在将从GIS(Geographic Information System或Geo-Information system,地理信息系统)地图中下载POI(Point of Interest,即"兴趣点",也有些叫做Point of Information,即"信息点",在电子地图上一般用气泡图标来表示POI,像电子地图上的景点、政府机构、公司、商场、饭馆等)数据加载到视频标签数据后,形成实景化的视频地图。
S102.应用Yolo物体检测技术,在初始摄像机的实时视频图像中检测出所有的人体图像,然后在将某个人体图像标记为追踪目标后,针对该追踪目标,进行同摄像机的跟随。
在所述步骤S102中,所述Yolo物体检测技术为可对目标人员进行检测和跟随的成熟技术,目前已经推出到Yolo-V3版本,该Yolo-V3版本基于darknet框架(该框架采用纯c语言),利用多尺度特征进行对象检测,提升了mAP及小物体检测效果,物体检测效果可如图3举例所示。在本实施例中,通过Yolo-V3物体检测技术实现对追踪目标人物的检测、选择和跟随,可具体包括有如下步骤:S1021.应用Yolo-V3物体检测技术,在实时视频图像中检测出所有的人体图像,并对这些人体图像进行第一有色框标记;S1022.在使用第二有色框标记某一人体图像后,将该人体图像作为追踪目标,其中,所述第二有色框和所述第一有色框分别为具有不同颜色的方框;S1023.在同摄像机的跟随过程中或在跨境追踪过程中,继续使用所述第二有色框标记实时视频图像中的追踪目标。举例的,所述第一有色框可为蓝色方框,所述第二有色框可为红色方框,在面对需要追踪的人体图像时,可通过鼠标双击人体图像的方式,使该人体图像的蓝色方框变色为红色方框,进而锁定追踪目标。
S103.在同摄像机的跟随过程中,获取所述追踪目标在视频图像中的像素坐标,然后应用所述数学模型计算得到所述追踪目标的世界坐标。
在所述步骤S103中,可每隔若干秒(例如5秒)获取一次像素坐标,以便在所述追踪目标的不断移动过程中,循环地依次执行步骤S103~S106,实现周边摄像机的实时更新以及持续不断的识别分析和跨境追踪目的。另外优化的,在同摄像机的跟随过程中,还可包括有如下步骤:周期性地通过所述步骤S103获取所述追踪目标的世界坐标,然后根据最近两时刻的世界坐标分别计算得到所述追踪目标的当前移动速度和当前移动方向,最后将当前世界坐标、与所述当前世界坐标对应的最近地理位置、当前移动速度和/或当前移动方向加载到显示所述追踪目标的实时视频图像中。在计算当前移动速度时,可根据前后两坐标的差值(即根据经纬度计算的移动距离)以及经过的时间,来计算目标人物移动的速度;在计算当前移动方向时,可根据前后经纬度的偏移计算目标人物移动的方向;由此不但可以将这两个参数进行直接显示,增强追踪效果,还可以将它们作为筛选参数,应用到后续步骤S105的对比和筛选环节中,进一步提升跨镜追踪的精度。
S104.以所述追踪目标的世界坐标为中心,查找到位于附近一定范围内的若干周边摄像机。
在所述步骤S104中,可根据地理空间信息系统中的缓冲区分析算法,查询分析目标所在摄像机周边的的摄像机分布情况,即可具体包括有如下步骤:S1041.根据摄像机的空间数据档案,获取参与追踪的所有摄像机的经纬度;S1042.根据地理信息系统中的缓存区分析技术,以所述追踪目标的世界坐标为中心,查找附近K米范围内的所有摄像机,其中,K为介于100~500的自然数;S1043.选取距离所述追踪目标最近的M路摄像机作为周边摄像机,其中,M为不大于20的自然数。举例的,K可具体为300,M可具体为16,如图4所示,中间视频图像对应的为初始摄像机,周围16个边缘视频图像对应的为周边摄像机,当追踪目标离开初始摄像机视野而进入某个周边摄像机的视野时,可将该周边摄像机的视频图像作为中间视频图像。
S105.在周边摄像机的实时视频图像中,针对所述追踪目标,应用智能分析算法进行人员特征值的比对和筛选,并获取对应的追踪目标识别结果,其中,所述智能分析算法可以但不限于包括人脸识别算法、姿态分析算法、行人属性分析算法和/或行人重识别算法。
在所述步骤S105中,为了提高在跨镜追踪过程中人物图像比对的准确度,可结合多种现有智能分析算法来提取追踪目标的画像特征,其中,所述人脸识别算法、所述姿态分析算法、所述行人属性分析算法和所述行人重识别算法等均分别为现有跨镜追踪技术中所采应用的具体算法。例如,所述人脸识别算法,是通过人脸识别技术提取到目标人员的面部特征值,并加入到跨镜追踪的比对参数中,如果其他周边摄像机在抓拍到的视频图像中出现人物的人脸照片,可以快速准确地找到追踪目标。所述姿态分析算法,是通过对人体关键点部位的识别,获取诸如头部、肩部、手掌、脚掌、膝盖、腰部等的姿态特征,并将它们加入到姿态识别的任务中,从而可以判断目标人物的站姿、走路姿势等,即将这些姿态的特征作为跨镜头追踪目标人物的的比对参数之一。所述行人属性分析算法,是分析和记录目标人物当前的衣服颜色、衣服形状、衣服类型、背包颜色、背包大小等特征,并将这些特征作为跨镜头追踪目标人物的的比对参数。所述行人重识别算法,是利用计算机视觉技术判断图像或者视频序列中是否存在特定行人的技术,结合以上的一些分析参数配置,实时分析周边摄像头中是否有出现具体同样条件的人物再次出现。
此外,随着现场环境的不同,并不是每一种智能分析算法都适用,因此在所述步骤S105中,可根据各种智能分析算法在当前现场环境下的预设权重值,选择在当前现场环境下权重值最高的某个或几个智能分析算法进行人员特征值的比对和筛选。例如在有条件进行人脸识别时,将以人脸识别算法作为优先考虑的特征比对和筛选方式(即此现场环境下,人脸识别算法的权重值最高);而在摄像机距离比较远或者目标人物背对摄像机时,将以行人属性分析算法和姿态分析算法相结合的方式作为优先考虑的特征比对和筛选方式(即此现场环境下,行人属性分析算法和姿态分析算法的权重值都极高)。由此通过算法调整后,再进行实时检测和分析周边摄像机的视频图像,可将权重值相对比较高的图片或识别结果自动推送到前端界面,供监控人员参考和判断。
S106.将周边摄像机的追踪目标识别结果推送至前端界面进行输出展示。
在所述步骤S106中,可采用人机耦合的方式,最终实现对目标人物的高精度追踪效果。另外,可通过多样化的展示方式,呈现最终的追踪结果,即可按照如下方式(A)~(C)中的任意组合进行输出展示:(A)按照所述追踪目标在各周边摄像机的视频图像中所出现的时间顺序,以列表形式进行追踪目标识别结果的输出展示;(B)结合地图,在地图上标注所述追踪目标在视频图像中出现的对应周边摄像机位置/和次数,并绘制和展示移动轨迹;(C)在选定某个周边摄像机时,输出显示包含所述追踪目标的实时视频图像或历史录像。
综上,采用本实施例所提供的应用视频空间关系辅助实现高精度跨镜追踪的方法,具有如下技术效果:
(1)本实施例提供了一种能够增强环境适应性和提升实际应用精度的新型跨镜追踪方法,即先建立各个摄像机的且能够将像素坐标变换为世界坐标的数据模型,然后在确定追踪目标后,可通过该数据模型得到追踪目标的当前世界坐标,最后根据该当前世界坐标对若干个周边摄像机进行多种智能分析算法的特征比对和筛选,实现了在这些周边摄像机的实时视频图像中高精度识别追踪目标的目的,从而通过结合摄像头的空间关系以及人脸识别、姿态分析、行人属性结构化和/或行人重识别等技术,增强了环境适应性和提高了跨镜追踪的整体精度,利于有效提高公安抓捕效率;
(2)通过各个摄像机之间的空间关系,可只分析周边摄像机的视频图像,有效降低了服务器的实时分析运算压力;
(3)可结合追踪目标的速度及方向,进一步准确定位真正目标人物当前所在的摄像机视野,实现更高精度的跨镜追踪;
(4)可通过人机耦合的方式来完成整个跨镜追踪的过程,使整个追踪过程更加灵活,准确率更高,便于实际应用和推广。
实施例二
如图5所示,本实施例提供了一种实现实施例一所述应用视频空间关系辅助实现高精度跨镜追踪的装置,包括数学模型建立单元、人体图像检测单元、世界坐标获取单元、周边镜头查找单元、智能分析识别单元和识别结果推送单元;
所述数学模型建立单元,用于针对每个参与追踪的摄像机,根据对应的空间数据档案建立能够将像素坐标变换为世界坐标的数据模型,其中,所述空间数据档案包含对应摄像机的PTZ参数值、经纬度和视场角;
所述人体图像检测单元,用于应用Yolo物体检测技术,在初始摄像机的实时视频图像中检测出所有的人体图像,然后在将某个人体图像标记为追踪目标后,针对该追踪目标,进行同摄像机的跟随;
所述世界坐标获取单元,用于在同摄像机的跟随过程中,获取所述追踪目标在视频图像中的像素坐标,然后应用所述数学模型计算得到所述追踪目标的世界坐标;
所述周边镜头查找单元,用于以所述追踪目标的世界坐标为中心,查找到位于附近一定范围内的若干周边摄像机;
所述智能分析识别单元,用于在周边摄像机的实时视频图像中,针对所述追踪目标,应用智能分析算法进行人员特征值的比对和筛选,并获取对应的追踪目标识别结果,其中,所述智能分析算法包括人脸识别算法、姿态分析算法、行人属性分析算法和/或行人重识别算法;
所述识别结果推送单元,用于将周边摄像机的追踪目标识别结果推送至前端界面进行输出展示。
本实施例提供的所述装置的工作过程、工作细节和技术效果,可以参见实施例一,于此不再赘述。
实施例三
如图6所示,本实施例提供了一种应用实施例一所述应用视频空间关系辅助实现高精度跨镜追踪的方法的计算机设备,包括通信相连的存储器和处理器,其中,所述存储器用于存储计算机程序,所述处理器用于执行所述计算机程序实现如实施例一所述应用视频空间关系辅助实现高精度跨镜追踪的方法步骤。
本实施例提供的所述计算机设备的工作过程、工作细节和技术效果,可以参见实施例一,于此不再赘述。
实施例四
本实施例提供了一种存储包含实施例一所述应用视频空间关系辅助实现高精度跨镜追踪的方法的计算机程序的存储介质,即在所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如实施例一所述应用视频空间关系辅助实现高精度跨镜追踪的方法步骤。其中,计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置,也可以是移动智能设备(如智能手机、PAD或ipad等)。
本实施例提供的存储介质的工作过程、工作细节和技术效果,可以参见实施例一,于此不再赘述。
以上所描述的多个实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备执行各个实施例或者实施例的某些部分所述的方法。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
最后应说明的是,本发明不局限于上述可选的实施方式,任何人在本发明的启示下都可得出其他各种形式的产品。上述具体实施方式不应理解成对本发明的保护范围的限制,本发明的保护范围应当以权利要求书中界定的为准,并且说明书可以用于解释权利要求书。
Claims (10)
1.一种应用视频空间关系辅助实现高精度跨镜追踪的方法,其特征在于,包括如下步骤:
S101.针对每个参与追踪的摄像机,根据对应的空间数据档案建立能够将像素坐标变换为世界坐标的数据模型,其中,所述空间数据档案包含对应摄像机的PTZ参数值、经纬度和视场角;
S102.应用Yolo物体检测技术,在初始摄像机的实时视频图像中检测出所有的人体图像,然后在将某个人体图像标记为追踪目标后,针对该追踪目标,进行同摄像机的跟随;
S103.在同摄像机的跟随过程中,获取所述追踪目标在视频图像中的像素坐标,然后应用所述数学模型计算得到所述追踪目标的世界坐标;
S104.以所述追踪目标的世界坐标为中心,查找到位于附近一定范围内的若干周边摄像机;
S105.在周边摄像机的实时视频图像中,针对所述追踪目标,应用智能分析算法进行人员特征值的比对和筛选,并获取对应的追踪目标识别结果,其中,所述智能分析算法包括人脸识别算法、姿态分析算法、行人属性分析算法和/或行人重识别算法;
S106.将周边摄像机的追踪目标识别结果推送至前端界面进行输出展示。
3.如权利要求1所述的一种应用视频空间关系辅助实现高精度跨镜追踪的方法,其特征在于,在所述步骤S102中,包括有如下步骤:
S1021.应用Yolo-V3物体检测技术,在实时视频图像中检测出所有的人体图像,并对这些人体图像进行第一有色框标记;
S1022.在使用第二有色框标记某一人体图像后,将该人体图像作为追踪目标,其中,所述第二有色框和所述第一有色框分别为具有不同颜色的方框;
S1023.在同摄像机的跟随过程中或在跨境追踪过程中,继续使用所述第二有色框标记实时视频图像中的追踪目标。
4.如权利要求1所述的一种应用视频空间关系辅助实现高精度跨镜追踪的方法,其特征在于,在同摄像机的跟随过程中,还包括有如下步骤:周期性地通过所述步骤S103获取所述追踪目标的世界坐标,然后根据最近两时刻的世界坐标分别计算得到所述追踪目标的当前移动速度和当前移动方向,最后将当前世界坐标、与所述当前世界坐标对应的最近地理位置、当前移动速度和/或当前移动方向加载到显示所述追踪目标的实时视频图像中。
5.如权利要求1所述的一种应用视频空间关系辅助实现高精度跨镜追踪的方法,其特征在于,在所述步骤S104中,包括有如下步骤:
S1041.根据摄像机的空间数据档案,获取参与追踪的所有摄像机的经纬度;
S1042.根据地理信息系统中的缓存区分析技术,以所述追踪目标的世界坐标为中心,查找附近K米范围内的所有摄像机,其中,K为介于100~500的自然数;
S1043.选取距离所述追踪目标最近的M路摄像机作为周边摄像机,其中,M为不大于20的自然数。
6.如权利要求1所述的一种应用视频空间关系辅助实现高精度跨镜追踪的方法,其特征在于,在所述步骤S105中,根据各种智能分析算法在当前现场环境下的预设权重值,选择在当前现场环境下权重值最高的某个或几个智能分析算法进行人员特征值的比对和筛选。
7.如权利要求1所述的一种应用视频空间关系辅助实现高精度跨镜追踪的方法,其特征在于,在所述步骤S106中,按照如下方式(A)~(C)中的任意组合进行输出展示:
(A)按照所述追踪目标在各周边摄像机的视频图像中所出现的时间顺序,以列表形式进行追踪目标识别结果的输出展示;
(B)结合地图,在地图上标注所述追踪目标在视频图像中出现的对应周边摄像机位置/和次数,并绘制和展示移动轨迹;
(C)在选定某个周边摄像机时,输出显示包含所述追踪目标的实时视频图像或历史录像。
8.一种应用视频空间关系辅助实现高精度跨镜追踪的装置,其特征在于,包括数学模型建立单元、人体图像检测单元、世界坐标获取单元、周边镜头查找单元、智能分析识别单元和识别结果推送单元;
所述数学模型建立单元,用于针对每个参与追踪的摄像机,根据对应的空间数据档案建立能够将像素坐标变换为世界坐标的数据模型,其中,所述空间数据档案包含对应摄像机的PTZ参数值、经纬度和视场角;
所述人体图像检测单元,用于应用Yolo物体检测技术,在初始摄像机的实时视频图像中检测出所有的人体图像,然后在将某个人体图像标记为追踪目标后,针对该追踪目标,进行同摄像机的跟随;
所述世界坐标获取单元,用于在同摄像机的跟随过程中,获取所述追踪目标在视频图像中的像素坐标,然后应用所述数学模型计算得到所述追踪目标的世界坐标;
所述周边镜头查找单元,用于以所述追踪目标的世界坐标为中心,查找到位于附近一定范围内的若干周边摄像机;
所述智能分析识别单元,用于在周边摄像机的实时视频图像中,针对所述追踪目标,应用智能分析算法进行人员特征值的比对和筛选,并获取对应的追踪目标识别结果,其中,所述智能分析算法包括人脸识别算法、姿态分析算法、行人属性分析算法和/或行人重识别算法;
所述识别结果推送单元,用于将周边摄像机的追踪目标识别结果推送至前端界面进行输出展示。
9.一种计算机设备,其特征在于:包括通信相连的存储器和处理器,其中,所述存储器用于存储计算机程序,所述处理器用于执行所述计算机程序实现如权利要求1~7任意一项所述应用视频空间关系辅助实现高精度跨镜追踪的方法步骤。
10.一种存储介质,其特征在于:所述存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1~7任意一项所述应用视频空间关系辅助实现高精度跨镜追踪的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910906284.3A CN110674746B (zh) | 2019-09-24 | 2019-09-24 | 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910906284.3A CN110674746B (zh) | 2019-09-24 | 2019-09-24 | 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110674746A true CN110674746A (zh) | 2020-01-10 |
CN110674746B CN110674746B (zh) | 2022-05-31 |
Family
ID=69078621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910906284.3A Active CN110674746B (zh) | 2019-09-24 | 2019-09-24 | 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110674746B (zh) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111311649A (zh) * | 2020-01-15 | 2020-06-19 | 重庆特斯联智慧科技股份有限公司 | 一种室内物联视频跟踪方法和系统 |
CN111460977A (zh) * | 2020-03-30 | 2020-07-28 | 广东电网有限责任公司电力科学研究院 | 一种跨视域人员再识别方法、装置、终端及存储介质 |
CN111681149A (zh) * | 2020-06-05 | 2020-09-18 | 视云融聚(广州)科技有限公司 | 一种养老院监护对象精细化监控方法、存储设备及移动终端 |
CN111681269A (zh) * | 2020-06-03 | 2020-09-18 | 长春博立电子科技有限公司 | 一种基于空间一致性的多摄像机协同人物追踪系统及训练方法 |
CN111784741A (zh) * | 2020-06-29 | 2020-10-16 | 杭州海康威视数字技术股份有限公司 | 一种目标跨镜布控追踪的方法和系统 |
CN111880575A (zh) * | 2020-08-10 | 2020-11-03 | 重庆依塔大数据研究院有限公司 | 基于颜色追踪的控制方法、装置、存储介质及机器人 |
CN112131919A (zh) * | 2020-04-24 | 2020-12-25 | 民航成都电子技术有限责任公司 | 安检方法、装置、设备及介质 |
CN112672064A (zh) * | 2021-03-18 | 2021-04-16 | 视云融聚(广州)科技有限公司 | 一种基于视频区域标签的算法调度方法、系统及设备 |
CN112733719A (zh) * | 2021-01-11 | 2021-04-30 | 西南交通大学 | 一种融合人脸及人体特征的跨境行人轨迹检测方法 |
CN112801583A (zh) * | 2021-01-25 | 2021-05-14 | 惠州市广工大物联网协同创新研究院有限公司 | 无人值守智慧仓库系统 |
CN112954269A (zh) * | 2021-01-08 | 2021-06-11 | 鹏城实验室 | 一种用于大规模视觉计算系统的节点协同选择方法 |
CN113449714A (zh) * | 2021-09-02 | 2021-09-28 | 深圳奥雅设计股份有限公司 | 一种用于儿童游乐场地的人脸识别方法及系统 |
CN113536846A (zh) * | 2020-04-17 | 2021-10-22 | 无锡锦铖人工智能科技有限公司 | 一种跨摄像头人员追踪智能分析系统 |
CN114095566A (zh) * | 2021-10-08 | 2022-02-25 | 深圳市易售科技有限公司 | 一种设备位置数据追踪方法、系统、电子设备及介质 |
CN116168421A (zh) * | 2023-04-13 | 2023-05-26 | 微网优联科技(成都)有限公司 | 一种基于ipc网络摄像机的目标追踪方法及系统 |
CN116189336A (zh) * | 2023-02-24 | 2023-05-30 | 广州奔智电子科技有限公司 | 一种智能门锁安防系统 |
CN116402857A (zh) * | 2023-04-14 | 2023-07-07 | 北京天睿空间科技股份有限公司 | 一种基于三维标定的运动目标跨镜头跟踪方法 |
CN118018693A (zh) * | 2024-04-08 | 2024-05-10 | 凯通科技股份有限公司 | 一种基于云台球机的巡检监控方法和装置 |
CN118018693B (zh) * | 2024-04-08 | 2024-06-07 | 凯通科技股份有限公司 | 一种基于云台球机的巡检监控方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150205997A1 (en) * | 2012-06-25 | 2015-07-23 | Nokia Corporation | Method, apparatus and computer program product for human-face features extraction |
CN107704824A (zh) * | 2017-09-30 | 2018-02-16 | 北京正安维视科技股份有限公司 | 基于空间约束的行人重识别方法及设备 |
CN108876821A (zh) * | 2018-07-05 | 2018-11-23 | 北京云视万维科技有限公司 | 跨镜头多目标跟踪方法及系统 |
CN108897342A (zh) * | 2018-08-22 | 2018-11-27 | 江西理工大学 | 针对快速移动的民用多旋翼无人机的定位跟踪方法及系统 |
CN109934104A (zh) * | 2019-01-29 | 2019-06-25 | 武汉烽火众智数字技术有限责任公司 | 基于行人重识别的跨镜头的行人检索方法及系统 |
-
2019
- 2019-09-24 CN CN201910906284.3A patent/CN110674746B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150205997A1 (en) * | 2012-06-25 | 2015-07-23 | Nokia Corporation | Method, apparatus and computer program product for human-face features extraction |
CN107704824A (zh) * | 2017-09-30 | 2018-02-16 | 北京正安维视科技股份有限公司 | 基于空间约束的行人重识别方法及设备 |
CN108876821A (zh) * | 2018-07-05 | 2018-11-23 | 北京云视万维科技有限公司 | 跨镜头多目标跟踪方法及系统 |
CN108897342A (zh) * | 2018-08-22 | 2018-11-27 | 江西理工大学 | 针对快速移动的民用多旋翼无人机的定位跟踪方法及系统 |
CN109934104A (zh) * | 2019-01-29 | 2019-06-25 | 武汉烽火众智数字技术有限责任公司 | 基于行人重识别的跨镜头的行人检索方法及系统 |
Non-Patent Citations (2)
Title |
---|
SALWA BAABOU ET AL.: "Tracklet and Signature Representation for Multi-Shot Person Re-Identification", 《IEEE XPLORE》 * |
THUY-BINH NGUYEN ET AL.: "A Quantitative Analysis of the Effect of Human Detection and Segmentation Quality in Person Re-identification Performance", 《IEEE XPLORE》 * |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111311649A (zh) * | 2020-01-15 | 2020-06-19 | 重庆特斯联智慧科技股份有限公司 | 一种室内物联视频跟踪方法和系统 |
CN111460977A (zh) * | 2020-03-30 | 2020-07-28 | 广东电网有限责任公司电力科学研究院 | 一种跨视域人员再识别方法、装置、终端及存储介质 |
CN111460977B (zh) * | 2020-03-30 | 2024-02-20 | 广东电网有限责任公司电力科学研究院 | 一种跨视域人员再识别方法、装置、终端及存储介质 |
CN113536846A (zh) * | 2020-04-17 | 2021-10-22 | 无锡锦铖人工智能科技有限公司 | 一种跨摄像头人员追踪智能分析系统 |
CN113536846B (zh) * | 2020-04-17 | 2023-08-15 | 平湖神州博海科技有限公司 | 一种跨摄像头人员追踪智能分析系统 |
CN112131919A (zh) * | 2020-04-24 | 2020-12-25 | 民航成都电子技术有限责任公司 | 安检方法、装置、设备及介质 |
CN111681269A (zh) * | 2020-06-03 | 2020-09-18 | 长春博立电子科技有限公司 | 一种基于空间一致性的多摄像机协同人物追踪系统及训练方法 |
CN111681149A (zh) * | 2020-06-05 | 2020-09-18 | 视云融聚(广州)科技有限公司 | 一种养老院监护对象精细化监控方法、存储设备及移动终端 |
CN111784741B (zh) * | 2020-06-29 | 2024-03-29 | 杭州海康威视数字技术股份有限公司 | 一种目标跨镜布控追踪的方法和系统 |
CN111784741A (zh) * | 2020-06-29 | 2020-10-16 | 杭州海康威视数字技术股份有限公司 | 一种目标跨镜布控追踪的方法和系统 |
CN111880575A (zh) * | 2020-08-10 | 2020-11-03 | 重庆依塔大数据研究院有限公司 | 基于颜色追踪的控制方法、装置、存储介质及机器人 |
CN111880575B (zh) * | 2020-08-10 | 2023-03-24 | 重庆依塔大数据研究院有限公司 | 基于颜色追踪的控制方法、装置、存储介质及机器人 |
CN112954269A (zh) * | 2021-01-08 | 2021-06-11 | 鹏城实验室 | 一种用于大规模视觉计算系统的节点协同选择方法 |
CN112954269B (zh) * | 2021-01-08 | 2023-06-06 | 鹏城实验室 | 一种用于大规模视觉计算系统的节点协同选择方法 |
CN112733719B (zh) * | 2021-01-11 | 2022-08-02 | 西南交通大学 | 一种融合人脸及人体特征的跨境行人轨迹检测方法 |
CN112733719A (zh) * | 2021-01-11 | 2021-04-30 | 西南交通大学 | 一种融合人脸及人体特征的跨境行人轨迹检测方法 |
CN112801583A (zh) * | 2021-01-25 | 2021-05-14 | 惠州市广工大物联网协同创新研究院有限公司 | 无人值守智慧仓库系统 |
CN112672064A (zh) * | 2021-03-18 | 2021-04-16 | 视云融聚(广州)科技有限公司 | 一种基于视频区域标签的算法调度方法、系统及设备 |
CN113449714A (zh) * | 2021-09-02 | 2021-09-28 | 深圳奥雅设计股份有限公司 | 一种用于儿童游乐场地的人脸识别方法及系统 |
CN114095566A (zh) * | 2021-10-08 | 2022-02-25 | 深圳市易售科技有限公司 | 一种设备位置数据追踪方法、系统、电子设备及介质 |
CN116189336A (zh) * | 2023-02-24 | 2023-05-30 | 广州奔智电子科技有限公司 | 一种智能门锁安防系统 |
CN116189336B (zh) * | 2023-02-24 | 2023-09-08 | 广州奔智电子科技有限公司 | 一种智能门锁安防系统 |
CN116168421B (zh) * | 2023-04-13 | 2023-07-25 | 微网优联科技(成都)有限公司 | 一种基于ipc网络摄像机的目标追踪方法及系统 |
CN116168421A (zh) * | 2023-04-13 | 2023-05-26 | 微网优联科技(成都)有限公司 | 一种基于ipc网络摄像机的目标追踪方法及系统 |
CN116402857A (zh) * | 2023-04-14 | 2023-07-07 | 北京天睿空间科技股份有限公司 | 一种基于三维标定的运动目标跨镜头跟踪方法 |
CN116402857B (zh) * | 2023-04-14 | 2023-11-07 | 北京天睿空间科技股份有限公司 | 一种基于三维标定的运动目标跨镜头跟踪方法 |
CN118018693A (zh) * | 2024-04-08 | 2024-05-10 | 凯通科技股份有限公司 | 一种基于云台球机的巡检监控方法和装置 |
CN118018693B (zh) * | 2024-04-08 | 2024-06-07 | 凯通科技股份有限公司 | 一种基于云台球机的巡检监控方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110674746B (zh) | 2022-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110674746B (zh) | 一种应用视频空间关系辅助实现高精度跨镜追踪的方法、装置、计算机设备以及存储介质 | |
CN109978755B (zh) | 全景图像合成方法、装置、设备与存储介质 | |
CN108234927B (zh) | 视频追踪方法和系统 | |
CN110672111B (zh) | 车辆行车路径规划方法、装置、系统、介质和设备 | |
CN110009561B (zh) | 一种监控视频目标映射到三维地理场景模型的方法及系统 | |
CN103824070B (zh) | 一种基于计算机视觉的快速行人检测方法 | |
CN111754552A (zh) | 一种基于深度学习的多摄像头协同目标跟踪方法 | |
CN109872483B (zh) | 一种入侵警戒光电监测系统及方法 | |
CN111199556B (zh) | 基于摄像头的室内行人检测和跟踪方法 | |
EP4174716A1 (en) | Pedestrian tracking method and device, and computer readable storage medium | |
KR101645959B1 (ko) | 복수의 오버헤드 카메라와 사이트 맵에 기반한 객체 추적 장치 및 그 방법 | |
CN110659391A (zh) | 一种视频侦查方法及装置 | |
CN114255407B (zh) | 基于高分辨率的反无人机多目标识别和跟踪视频探测方法 | |
CN105141924A (zh) | 基于4g技术的无线图像监控系统 | |
CN110941996A (zh) | 一种基于生成对抗网络的目标及轨迹增强现实方法和系统 | |
CN111767831B (zh) | 用于处理图像的方法、装置、设备及存储介质 | |
CN112308913B (zh) | 一种基于视觉的车辆定位方法、装置及车载终端 | |
CN111815672B (zh) | 动态跟踪控制方法、装置及控制设备 | |
KR20160078724A (ko) | 카메라 감시 영역 표시 방법 및 장치 | |
WO2020211593A1 (zh) | 交通道路的数字化重建方法、装置和系统 | |
Li et al. | Panoramic image mosaic technology based on sift algorithm in power monitoring | |
CN111161305A (zh) | 无人机智能识别追踪方法及系统 | |
WO2020015501A1 (zh) | 地图构建方法、装置、存储介质及电子设备 | |
CN114511592A (zh) | 一种基于rgbd相机和bim系统的人员轨迹追踪方法及系统 | |
WO2021248564A1 (zh) | 一种全景大数据应用监测管控系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A method, device, computer equipment, and storage medium for applying video spatial relationships to assist in high-precision cross mirror tracking Effective date of registration: 20231026 Granted publication date: 20220531 Pledgee: Societe Generale Bank Limited by Share Ltd. Guangzhou branch Pledgor: SHIYUN RONGJU (GUANGZHOU) TECHNOLOGY Co.,Ltd. Registration number: Y2023980062916 |