CN112184814B - 定位方法和定位系统 - Google Patents

定位方法和定位系统 Download PDF

Info

Publication number
CN112184814B
CN112184814B CN202011018357.4A CN202011018357A CN112184814B CN 112184814 B CN112184814 B CN 112184814B CN 202011018357 A CN202011018357 A CN 202011018357A CN 112184814 B CN112184814 B CN 112184814B
Authority
CN
China
Prior art keywords
moving object
track
determining
current
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011018357.4A
Other languages
English (en)
Other versions
CN112184814A (zh
Inventor
张吉源
李斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin Fengwu Technology Co ltd
Original Assignee
Tianjin Fengwu Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin Fengwu Technology Co ltd filed Critical Tianjin Fengwu Technology Co ltd
Priority to CN202011018357.4A priority Critical patent/CN112184814B/zh
Publication of CN112184814A publication Critical patent/CN112184814A/zh
Application granted granted Critical
Publication of CN112184814B publication Critical patent/CN112184814B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种定位方法和定位系统,所述定位方法包括:查找电子地图中是否存在采集当前视频的至少一个摄像设备的位置;确定不存在至少一个摄像设备的位置时,根据至少一个摄像设备采集的当前视频确定至少一个移动对象的当前移动轨迹;将至少一个移动对象中的每个移动对象的当前移动轨迹与由已存储的历史视频确定的历史移动轨迹进行匹配;确定存在至少一个移动对象的当前移动轨迹至少部分与历史移动轨迹匹配后,分析匹配的移动对象的移动轨迹在电子地图上是否连接;以在无法连接时,则根据匹配的移动对象的移动轨迹,确定采集该匹配的移动对象的移动轨迹的摄像设备与其相近的摄像设备之间的关系,修正其相近的摄像设备在电子地图的位置。

Description

定位方法和定位系统
技术领域
本发明涉及摄像设备领域,具体涉及一种定位方法和定位系统。
背景技术
现有确定区域中的各个摄像设备的相对位置、覆盖范围、重叠范围和视野盲区等信息,大都依靠安装该摄像设备时的粗略确定的位置信息,来确定摄像设备在电子地图上的位置。但是随着日常对区域的管理,通常会对摄像设备进行添加、维修、更换等,使得会对原先安装的摄像设备的位置发生改变。然而对于位置发生改变的摄像设备,则需要依靠现场测量来获取该摄像设备的位置,才能够更新电子地图。通过现场测量获取该摄像设备的位置的方式,会导致电子地图的更新效率低、更新不及时。
因此,需要提供一种能够解决上述任一问题的方案。
发明内容
为至少解决上述技术问题,提出了本发明的如下所述的多个方案,用以解决现有依靠现场测量来获取摄像设备的位置以更新电子地图的方式,使得电子地图的更新效率低、更新不及时的问题。
具体地说,根据本发明的第一方面,提供一种定位方法,所述定位方法包括:
查找电子地图中是否存在采集当前视频的至少一个摄像设备的位置;
确定在所述电子地图中不存在所述至少一个摄像设备的位置时,根据所述至少一个摄像设备采集的当前视频确定至少一个移动对象的当前移动轨迹;
将所述至少一个移动对象中的每个移动对象的当前移动轨迹与由已存储的历史视频确定的历史移动轨迹进行匹配;
确定存在至少一个移动对象的当前移动轨迹至少部分与所述历史移动轨迹匹配后,分析匹配的移动对象的移动轨迹在所述电子地图上是否连接;以及
在无法连接时,则根据所述匹配的移动对象的移动轨迹,确定采集该匹配的移动对象的移动轨迹的摄像设备和与其相近的摄像设备之间的关系,以修正其相近的摄像设备在所述电子地图的位置。
本发明的定位方法,通过移动对象的移动轨迹来确定摄像设备的位置,并根据该摄像设备的位置来修正其相近的摄像设备在电子地图的位置,从而及时更新电子地图,这样实现了电子地图的自动化更新和维护,从而解决了现有依靠现场测量来获取摄像设备的位置以更新电子地图的方式,使得电子地图的更新效率低、更新不及时的问题,降低了视频监控系统的维护成本,提高了电子地图的更新效率。
本发明还提供一种定位系统,所述定位系统包括:查找模块、轨迹确定模块、匹配模块和修正模块;
所述查找模块,用于查找电子地图中是否存在采集当前视频的至少一个摄像设备的位置;
所述轨迹确定模块,用于确定在所述电子地图中不存在所述至少一个摄像设备的位置时,根据所述至少一个摄像设备采集的当前视频确定至少一个移动对象的当前移动轨迹;
所述匹配模块,用于将所述至少一个移动对象中的每个移动对象的当前移动轨迹与由已存储的历史视频确定的历史移动轨迹进行匹配;
所述修正模块,用于确定存在至少一个移动对象的当前移动轨迹至少部分与所述历史移动轨迹匹配后,分析匹配的移动对象的移动轨迹在所述电子地图上是否连接;以及
在连接无法时,则根据所述匹配的移动对象的移动轨迹,确定采集该匹配的移动对象的移动轨迹的摄像设备和与其相近的摄像设备之间的关系,以修正其相近的摄像设备在所述电子地图的位置。
本发明的定位系统,通过移动对象的移动轨迹来确定摄像设备的位置,并根据该摄像设备的位置来修正其相近的摄像设备在电子地图的位置,从而及时更新电子地图,这样实现了电子地图的自动化更新和维护,从而解决了现有依靠现场测量来获取摄像设备的位置以更新电子地图的方式,使得电子地图的更新效率低、更新不及时的问题,降低了视频监控系统的维护成本,提高了电子地图的更新效率。
附图说明
以示例的方式参考以下附图描述本发明的非限制性且非穷举性实施方案,其中:
图1示出根据本发明一实施方案的定位摄像设备的场景的示意图;
图2a-2b示出根据本发明一实施方案的人脸识别的示意图;
图3示出根据本发明一实施方案的人脸追踪识别的示意图;
图4示出根据本发明一实施方案的行人轨迹映射的示意图;
图5示出根据本发明一实施方案的行人轨迹的示意图;
图6示出根据本发明一实施方案的定位方法的流程图;
图7示出根据本发明一实施方案的定位系统的结构示意图;
图8示出根据本发明一实施方案的轨迹确定模块的结构示意图。
具体实施方式
为了使本发明的上述以及其他特征和优点更加清楚,下面结合附图进一步描述本发明。应当理解,本文给出的具体实施方案是出于向本领域技术人员解释的目的,仅是示例性的,而非限制性的。
根据常规的安防、管理等监控需求,管理方需要自行安装和设置摄像设备,将采集到的视频统一传输到中央监控室进行存档和观看。在核心区、重要出入口、交通集散地等位置应当部署高清晰度的摄像设备,以便识别行人身份,获取精细的特征,避免遗漏。
如果在设计安装阶段已经有相应的基准的电子地图,则可以导入系统中作为摄像设备的电子地图的基础。系统会对电子地图进行检查,标记缺失的信息以待补充。本方法会定期对电子地图进行更新,用户也可以根据需求手动触发更新。如果没有基准的电子地图,则会新建电子地图并在新建的电子地图基础上进行维护。用户也可以通过图形界面观看当前的电子地图,并对电子地图进行必要的调整和纠正。
图1示出根据本发明一实施方案的定位摄像设备的场景的示意图。
参照图1,图1示出了多个摄像设备(摄像设备A、B、C、D、E、F等)采集区域100的当前视频。在采集的当前视频中有多个移动对象(例如:移动对象01、02、03、04、05等)。在本发明移动对象可以为行人,当然移动对象也可以是其他的移动车辆等,本发明对移动对象不进行限制。下面是以移动对象为行人进行说明。
在一实施例中,先查找多个摄像设备A、B、C等是否接入了电子地图(即,是否能够在电子地图中找到一个或者多个摄像设备A、B、C等)。由于一些摄像设备的位置发生变化,因此没有接入电子地图上,导致在电子地图上无法查找到该摄像设备的位置。需要先查找采集当前视频的摄像设备是否接入了电子地图,若是采集当前视频的摄像设备没有接入电子地图,可以判断是否要对该电子地图进行更新,若是对电子地图进行更新,则将采集的当前视频进行人脸识别,确定当前视频中的行人01、02、03、04、05等,并将行人01、02、03、04、05等与过去采集的历史视频中的行人进行匹配,假设行人01曾经被摄像设备A、B等采集到。则将行人01在由摄像设备A或者摄像设备A、B当前采集的子视频的移动轨迹与行人01的历史移动轨迹进行匹配,当行人01在由摄像设备A或者摄像设备A、B当前采集的子视频的移动轨迹与摄像设备A或者摄像设备A、B过去中采集的历史视频确定的行人01的历史移动轨迹相匹配时,则分析行人01在由摄像设备A或者摄像设备A、B当前采集的子视频的移动轨迹在电子地图上是否连接,若无法连接,则确定摄像设备A或者摄像设备A、B与其相近的摄像设备(例如:C、D)之间的关系,从而修正摄像设备C、D在电子地图的位置。
需要理解的是,在给定的区域100中,重复出现的行人(例如:行人01)的行动轨迹具有一定的内在规律,总是沿着相似的轨迹行进。在积累了足够数量的数据后,从单个摄像设备(例如:摄像设备A)中进行统计,获取行人01的移动轨迹的统计特性,如均值、极值等作为特征,在摄像设备A或B之间或同一个摄像设备A采集的历史视频之间进行匹配。匹配成功的移动轨迹如果从时空信息来看无法连接,则说明摄像设备A或者B在电子地图上的位置有误,或者摄像设备A或者B本身的参数发生了变化。根据匹配信息建立关系图,使用典型的非线性优化算法和最小化代价函数,即可修正电子地图中的摄像设备C、D相关信息,建立正确完整电子地图,从而实现对电子地图自动化更新,而不需要依靠现场测量来获取摄像设备的位置,提高了电子地图的更新效率、更新及时,降低了视频监控系统的维护成本。
图2a-2b示出根据本发明一实施方案的人脸识别的示意图。
在一实施例中,参照图2a,当在电子地图中找不到该一个或者多个摄像设备A、B、C等时,通过一个或者多个摄像设备A、B、C等采集区域100的当前视频,并对采集的当前视频进行人脸识别,确定当前视频中的行人的移动轨迹。具体地,通过对采集的当前视频进行分析,根据人脸识别算法和人体识别算法等找出当前视频中的行人(例如:行人01、02、03、04、05等)作为检测对象,并对在每一帧视频检测到的行人(例如:行人01、02等)的位置进行标记,记录检测成功的时间和所在的摄像设备。例如:记录检测到的行人01和02,对行人01和02进行标记(如图2b中采用检测框标记)和记录是由摄像设备A、B进行采集。记录检测到的行人03和04,对行人03和04进行标记和并记录是由摄像设备B进行采集。使用深度学习算法提取行人01、02等适合用于在摄像设备A内的局部短期追踪的第一外观特征,以及不同的适合跨摄像设备全局匹配的第二外观特征。
图3示出根据本发明一实施方案的人脸追踪识别的示意图。
参照图3,在一实施例中,根据目标追踪算法确定所选择的每个行人(例如:行人01、02)在当前视频中的移动轨迹。具体地,根据深度学习算法提取所选择的行人01的至少一个第一外观特征,即局部外观特征(图3中用于黑色五角星表示)和至少一个第二外观特征,即全局外观特征。基于至少一个第一外观特征,采用KLT角点跟踪算法(Kanade-Lucas-Tomasi Tracking,又称LK跟踪算法)在由每个摄像设备(例如:摄像设备A)采集的子视频内追踪所选择的行人01、,确定所选择的行人01在子视频(即,摄像设备A采集的视频)的第一移动轨迹。对多个第一外观特征(例如:行人01身上的多个局部外观特征)建立每一帧视频之间的连接,根据j-linkage算法进行类别划分以避免遮挡和形变产生追踪断裂。采用卡尔曼滤波(kalman filter)对所选择的行人01在摄像设备A采集的子视频的第一移动轨迹进行平滑;在平滑后,根据所述第二外观特征确定属于所选择的同一个行人在所有的摄像设备采集的所述当前视频中的移动轨迹。
可以理解的是,使用基于局部外观特征的KLT角点跟踪算法进行单摄像设备视野内的行人追踪,每个检测框根据多个局部外观特征建立帧间连接,根据j-linkage算法进行类别划分以避免遮挡和形变产生追踪断裂,并使用Kalman filter对运动轨迹进行平滑,避免局部的轨迹抖动对后续处理产生不利影响。使用全局外观特征在kd-tree算法(k-dimensional树)或其他加速匹配算法建立的特征集合中进行比对,建立同一个行人在不同摄像设备之中的匹配(即,在摄像设备A、B、C等采集的子视频中确定是否属于同一行人01),将一系列在每个摄像设备中的移动轨迹联系起来,并根据时间、空间可行性进行筛选,排除物理上不可行的移动轨迹。
在一实施例中,将所选择的每个行人(例如:行人01)在当前视频中的移动轨迹映射到平面,确定每个行人的当前移动轨迹。具体地,以每个子视频中的地面为平面,估计采集第一子视频(例如:由摄像设备A采集的视频)的第一摄像设备(例如:摄像设备A)的当前角度参数。根据第一子视频中的所选择的第一行人的标记高度(即,检测框高度)与实际平均高度(人的实际平均身高,例如:168cm)的比例以及第一摄像设备的当前角度参数,确定第一摄像设备距离平面的高度。将第一行人(例如:行人01)在第一子视频中的移动轨迹映射到平面,以建立世界坐标系,以确定第一行人的当前移动轨迹。
可以理解的是,根据监控系统的实际情况,从画面中检测到地面区域,将其近似为平面,以此估计摄像设备A当前的俯仰角、旋转角。根据行人01的检测框的典型高度与平均身高的比例,结合摄像设备A的当前角度参数计算当前摄像设备A距离地面的高度。根据同一个行人01的检测框在摄像设备A不同位置的形状和尺寸变化,估计摄像设备A的镜头畸变情况,并对摄像设备A的角度姿态的估计信息进行修正。以上信息可以将摄像设备A中检测到的行人01映射到地面上的平面轨迹。
图4示出根据本发明一实施方案的行人轨迹映射的示意图。
在一实施例中,参照图4,确定由第一摄像设备采集的第一子视频和第二摄像设备采集的第二子视频之间是否存在满足阈值的重叠区域。确定存在满足阈值的重叠区域时,根据重叠区域中的静态物体特征与第一移动对象(例如:行人01)的移动轨迹,计算第一摄像设备和第二摄像设备在世界坐标系的相对位置。
具体地,可以理解的是,对摄像设备A采集的视频和摄像设备B采集的视频中的实际场景进行特征提取,判断摄像设备A和B之间是否有足够的重叠区域200(图3中有阴影部分)。对于重叠区域200足够的摄像设备A和B,使用静态物体201的特征匹配和行人01轨迹的形状匹配计算摄像设备A和B的相对位置。
若某个摄像设备和其他摄像设备的没有重叠区域(例如:摄像设备C和F),则需要安排现场人员携带智能手机等可定位自身的设备,在该摄像设备C和F的视野内移动,从而将摄像设备C和F位置与世界坐标系对应。
图5示出根据本发明一实施方案的行人轨迹的示意图。
在一实施例中,参照图5,在第一移动对象(例如:行人01)在第一子视频的移动轨迹与历史移动轨迹匹配后,确定第一移动对象在第一子视频的移动轨迹在电子地图上是否连接,在无法连接时,则根据第一移动对象在第一子视频的移动轨迹,确定第一摄像设备和第二摄像设备在世界坐标系的相对位置。根据非线性优化算法和最小化代价函数,确定与第一摄像设备相近的第二摄像设备的位置,以修正第二摄像设备在电子地图上的位置。
可以理解的是,在给定的区域100中,重复出现的行人(例如:行人01)的行动轨迹(图5中示出的粗黑色线条00X)具有一定的内在规律,总是沿着相似的轨迹行进。在积累了足够数量的数据后,从单个摄像设备(例如:摄像设备A)中进行统计,获取行人01移动轨迹的统计特性,如均值、极值等作为特征,在摄像设备A或B之间或同一个摄像设备A采集的历史视频之间进行匹配。匹配成功的移动轨迹如果从时空信息来看无法连接,则说明摄像设备A或者B在电子地图上的位置有误,或者摄像设备A或者B本身的参数发生了变化。根据匹配信息建立关系图,使用典型的非线性优化算法和最小化代价函数,即可修正电子地图中的摄像设备C、D相关信息,建立正确完整电子地图,从而实现对电子地图自动化更新,而不需要依靠现场测量来获取摄像设备的位置,提高了电子地图的更新效率、更新及时,降低了视频监控系统的维护成本。
在一实施例中,人工参与的电子地图的管理。具体地,管理人员通过显示器的图形界面观察当前的摄像设备的布置信息与其采集的视频,对有明显错误的摄像设备的布置信息进行校正,并手工输入或指挥现场人员补充缺失的信息,定时检查电子地图的完整性,并且在环境布置发生变化时主动触发电子地图更新操作。
图6示出根据本发明一实施方案的定位方法的流程图。
参照图6,001是将采集的当前视频输入到中央系统,002查找电子地图中是否有采集当前视频的摄像设备的位置,0013确定电子地图有摄像设备的位置,003确定电子地图没有摄像设备的位置,004对采集的当前视频中的行人进行人脸识别,005提取行人的第一外观特征(即,局部外观特征),006根据局部外观特征进行行人移动轨迹的追踪,007提取行人的第二外观特征(即,全局外观特征),008根据全局外观特征进行行人的移动轨迹追踪并查找采集的历史视频中是否存在与当前行人的移动轨迹匹配的历史移动轨迹,009不存在匹配的当前行人移动轨迹,010将当前行人的移动轨迹映射到世界坐标系,011对匹配的移动轨迹距离最小化,012对电子地图进行更新,014结束。
在本发明中还提供一种定位系统。关于定位系统300的详细情况如下。
图7示出根据本发明一实施方案的定位系统的结构示意图。
参照图7,定位系统300包括:查找模块310、轨迹确定模块320、匹配模块330和修正模块340。所述查找模块310可以用于查找电子地图中是否存在采集当前视频的至少一个摄像设备的位置。所述轨迹确定模块320可以用于确定在所述电子地图中不存在所述至少一个摄像设备的位置时,根据所述至少一个摄像设备采集的当前视频确定至少一个移动对象的当前移动轨迹。所述匹配模块330可以用于将所述至少一个移动对象中的每个移动对象的当前移动轨迹与由已存储的历史视频确定的历史移动轨迹进行匹配。所述修正模块340可以用于确定存在至少一个移动对象的当前移动轨迹至少部分与所述历史移动轨迹匹配后,分析匹配的移动对象的移动轨迹在所述电子地图上是否连接;以及
在无法连接时,则根据所述匹配的移动对象的移动轨迹,确定采集该匹配的移动对象的移动轨迹的摄像设备和与其相近的摄像设备之间的关系,以修正其相近的摄像设备在所述电子地图的位置。
可以理解的是,关于定位系统300的详细描述可以参照上述定位方法的详细描述,在此不再进行重复描述。
图8示出根据本发明一实施方案的轨迹确定模块的结构示意图。
在一实施例中,参照图8,轨迹确定模块320包括:识别单元321、追踪单元322和映射单元323。
所述识别单元321可以用于根据人脸识别算法从所述当前视频中选择至少一个移动对象,并标记所选择的一个移动对象。
所述追踪单元322可以用于根据目标追踪算法确定所选择的每个移动对象在所述当前视频中的移动轨迹。
所述映射单元323可以用于将所选择的每个移动对象在所述当前视频中的移动轨迹映射到平面,确定所选择的每个移动对象的当前移动轨迹。
在一实施例中,所述识别单元321还可以用于标记在所述当前视频的每一帧视频中检测到的、所选择的每个移动对象的位置,并且记录检测到的、所选择的每个移动对象的时间和采集到该移动对象的摄像设备。
在一实施例中,所述追踪单元322包括:提取特征单元、第一追踪单元、第二追踪单元和第三追踪单元。
所述提取特征单元可以根据深度学习算法提取所选择的每个移动对象的至少一个第一外观特征和至少一个第二外观特征。
所述第一追踪单元可以基于至少一个所述第一外观特征,在由每个摄像设备采集的子视频内追踪所选择的每个移动对象,确定所选择的每个移动对象在所述子视频的第一移动轨迹。
所述第二追踪单元可以用于对所选择的每个移动对象在所述子视频的第一移动轨迹进行平滑。
所述第三追踪单元可以用于在平滑后,根据所述第二外观特征确定属于所选择的同一个移动对象在所述当前视频中的移动轨迹。
在一实施例中,所述映射单元323包括:第一映射单元和第二映射单元。所述第一映射单元可以用于以每个子视频中的地面为所述平面,估计采集第一子视频的第一摄像设备的当前角度参数;并根据所述第一子视频中的所选择的第一移动对象的标记高度与实际平均高度的比例以及所述第一摄像设备的当前角度参数,确定所述第一摄像设备距离所述平面的高度。
所述第二映射单元可以用于将所述第一移动对象在所述第一子视频中的移动轨迹映射到世界坐标系的平面上,以确定所述第一移动对象的当前移动轨迹。
在一实施例中,所述定位系统300还包括:确定位置模块;
所述确定位置模块包括:确定重叠单元和确定位置单元。
所述确定重叠单元可以用于确定由所述第一摄像设备采集的第一子视频和第二摄像设备采集的第二子视频之间是否存在满足阈值的重叠区域。
所述确定位置单元可以用于确定存在满足阈值的重叠区域时,根据所述重叠区域中的静态物体特征与所述第一移动对象的移动轨迹,计算所述第一摄像设备和所述第二摄像设备在所述世界坐标系的相对位置。
在一实施例中,所述修正模块包括:判断单元、确定相对单元和修正单元;
所述判断单元可以用于当所述第一移动对象在所述第一子视频的移动轨迹与所述历史移动轨迹匹配后,确定所述第一移动对象在所述第一子视频的移动轨迹在所述电子地图上是否连接。
所述确定相对单元可以用于在无法连接时,则根据所述第一移动对象在所述第一子视频的移动轨迹,确定所述第一摄像设备和所述第二摄像设备在所述世界坐标系的相对位置。
所述修正单元可以用于根据非线性优化算法和最小化代价函数,确定与所述第一摄像设备相近的所述第二摄像设备的位置,以修正所述第二摄像设备在所述电子地图上的位置。
本发明的定位系统,通过移动对象的移动轨迹来确定摄像设备的位置,并根据该摄像设备的位置来修正其相近的摄像设备在电子地图的位置,从而及时更新电子地图,这样实现了电子地图的自动化更新和维护,从而解决了现有依靠现场测量来获取摄像设备的位置以更新电子地图的方式,使得电子地图的更新效率低、更新不及时的问题,降低了视频监控系统的维护成本,提高了电子地图的更新效率。
对于本发明的定位方法的更具体的方案,可以参照上文中对于本发明的定位系统的说明,在此不再赘述。
本领域普通技术人员可以理解实现根据本发明的上述实施方案的方法中的全部或部分步骤,可以通过计算机程序来指示相关的硬件完成,所述的计算机程序可存储于非易失性的计算机可读存储介质中,该计算机程序在执行时,可实施如上述各方法的实施方案的步骤。其中,本发明所提供的各实施方案中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。
以上实施方案的各个技术特征可以进行任意的组合,为使描述简洁,未对上述实施方案中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
尽管结合实施方案对本发明进行了描述,但本领域技术人员应理解,上文的描述和附图仅是示例性而非限制性的,本发明不限于所公开的实施方案。在不偏离本发明的精神的情况下,各种改型和变体是可能的。

Claims (10)

1.一种定位方法,其特征在于,所述定位方法包括:
查找电子地图中是否存在采集当前视频的至少一个摄像设备的位置;
确定在所述电子地图中不存在所述至少一个摄像设备的位置时,根据所述至少一个摄像设备采集的当前视频确定至少一个移动对象的当前移动轨迹;
将所述至少一个移动对象中的每个移动对象的当前移动轨迹与由已存储的历史视频确定的历史移动轨迹进行匹配;
确定存在至少一个移动对象的当前移动轨迹至少部分与所述历史移动轨迹匹配后,分析匹配的移动对象的移动轨迹在所述电子地图上是否连接;以及,
在无法连接时,则根据所述匹配的移动对象的移动轨迹,确定采集该匹配的移动对象的移动轨迹的摄像设备与其相近的摄像设备之间的关系,修正其相近的摄像设备在所述电子地图的位置。
2.根据权利要求1所述的定位方法,其特征在于,根据所述至少一个摄像设备采集的当前视频确定至少一个移动对象的当前移动轨迹,包括:
根据人脸识别算法从所述当前视频中选择至少一个移动对象,并标记所选择的一个移动对象;
根据目标追踪算法确定所选择的每个移动对象在所述当前视频中的移动轨迹;
将所选择的每个移动对象在所述当前视频中的移动轨迹映射到平面,确定所选择的每个移动对象的当前移动轨迹。
3.根据权利要求2所述的定位方法,其特征在于,在根据人脸识别算法从所述当前视频中选择至少一个移动对象的同时,所述定位方法还包括:
标记在所述当前视频的每一帧视频中检测到的、所选择的每个移动对象的位置,并且记录检测到的、所选择的每个移动对象的时间和采集到该移动对象的摄像设备。
4.根据权利要求2所述的定位方法,其特征在于,所述根据目标追踪算法确定所选择的每个移动对象在所述当前视频中的移动轨迹,包括:
根据深度学习算法提取所选择的每个移动对象的至少一个第一外观特征和至少一个第二外观特征;
基于至少一个所述第一外观特征,在由每个摄像设备采集的子视频内追踪所选择的每个移动对象,确定所选择的每个移动对象在所述子视频的第一移动轨迹;
对所选择的每个移动对象在所述子视频的第一移动轨迹进行平滑;
在平滑后,根据所述第二外观特征确定属于所选择的同一个移动对象在所述当前视频中的移动轨迹。
5.根据权利要求4所述的定位方法,其特征在于,将所选择的每个移动对象在所述当前视频中的移动轨迹映射到平面,确定每个移动对象的当前移动轨迹,包括:
以每个子视频中的地面为所述平面,估计采集第一子视频的第一摄像设备的当前角度参数;
根据所述第一子视频中的所选择的第一移动对象的标记高度与实际平均高度的比例以及所述第一摄像设备的当前角度参数,确定所述第一摄像设备距离所述平面的高度;
将所述第一移动对象在所述第一子视频中的移动轨迹映射到世界坐标系的平面上,以确定所述第一移动对象的当前移动轨迹。
6.根据权利要求5所述的定位方法,其特征在于,在将所述至少一个移动对象中的每个移动对象的当前移动轨迹与由已存储的历史视频确定的历史移动轨迹进行匹配之前,所述定位方法还包括:
确定由所述第一摄像设备采集的第一子视频和第二摄像设备采集的第二子视频之间是否存在满足阈值的重叠区域;
确定存在满足阈值的重叠区域时,根据所述重叠区域中的静态物体特征与所述第一移动对象的移动轨迹,计算所述第一摄像设备和所述第二摄像设备在所述世界坐标系的相对位置。
7.根据权利要求6所述的定位方法,其特征在于,确定存在至少一个移动对象的当前移动轨迹至少部分与所述历史移动轨迹匹配后,分析匹配的移动对象的移动轨迹在所述电子地图上是否连接;以及在无法连接时,则根据所述匹配的移动对象的移动轨迹,确定采集该匹配的移动对象的移动轨迹的摄像设备与其相近的摄像设备之间的关系,修正其相近的摄像设备在所述电子地图的位置,包括:
当所述第一移动对象在所述第一子视频的移动轨迹与所述历史移动轨迹匹配后,确定所述第一移动对象在所述第一子视频的移动轨迹在所述电子地图上是否连接,
在无法连接时,则根据所述第一移动对象在所述第一子视频的移动轨迹,确定所述第一摄像设备和所述第二摄像设备在所述世界坐标系的相对位置;
根据非线性优化算法和最小化代价函数,确定与所述第一摄像设备相近的所述第二摄像设备的位置,以修正所述第二摄像设备在所述电子地图上的位置。
8.一种定位系统,其特征在于,所述定位系统包括:查找模块、轨迹确定模块、匹配模块和修正模块;
所述查找模块,用于查找电子地图中是否存在采集当前视频的至少一个摄像设备的位置;
所述轨迹确定模块,用于确定在所述电子地图中不存在所述至少一个摄像设备的位置时,根据所述至少一个摄像设备采集的当前视频确定至少一个移动对象的当前移动轨迹;
所述匹配模块,用于将所述至少一个移动对象中的每个移动对象的当前移动轨迹与由已存储的历史视频确定的历史移动轨迹进行匹配;
所述修正模块,用于确定存在至少一个移动对象的当前移动轨迹至少部分与所述历史移动轨迹匹配后,分析匹配的移动对象的移动轨迹在所述电子地图上是否连接;以及
在无法连接时,则根据所述匹配的移动对象的移动轨迹,确定采集该匹配的移动对象的移动轨迹的摄像设备与其相近的摄像设备之间的关系,修正其相近的摄像设备在所述电子地图的位置。
9.根据权利要求8所述的定位系统,其特征在于,所述轨迹确定模块包括:识别单元、追踪单元和映射单元;
所述识别单元,用于根据人脸识别算法从所述当前视频中选择至少一个移动对象,并标记所选择的一个移动对象;
所述追踪单元,用于根据目标追踪算法确定所选择的每个移动对象在所述当前视频中的移动轨迹;
所述映射单元,用于将所选择的每个移动对象在所述当前视频中的移动轨迹映射到平面,确定所选择的每个移动对象的当前移动轨迹。
10.根据权利要求9 所述的定位系统,其特征在于,所述识别单元,还用于标记在所述当前视频的每一帧视频中检测到的、所选择的每个移动对象的位置,并且记录检测到的、所选择的每个移动对象的时间和采集到该移动对象的摄像设备。
CN202011018357.4A 2020-09-24 2020-09-24 定位方法和定位系统 Active CN112184814B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011018357.4A CN112184814B (zh) 2020-09-24 2020-09-24 定位方法和定位系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011018357.4A CN112184814B (zh) 2020-09-24 2020-09-24 定位方法和定位系统

Publications (2)

Publication Number Publication Date
CN112184814A CN112184814A (zh) 2021-01-05
CN112184814B true CN112184814B (zh) 2022-09-02

Family

ID=73956218

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011018357.4A Active CN112184814B (zh) 2020-09-24 2020-09-24 定位方法和定位系统

Country Status (1)

Country Link
CN (1) CN112184814B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113662494B (zh) * 2021-08-17 2023-12-26 岱川医疗(深圳)有限责任公司 内窥镜的工作站及其控制方法和其控制装置、存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106027959A (zh) * 2016-05-13 2016-10-12 深圳先进技术研究院 基于位置线状拟合的视频识别追踪定位系统
CN107529221A (zh) * 2017-08-22 2017-12-29 上海兴容信息技术有限公司 一种结合视频监控和Wi‑Fi定位的追踪分析系统及方法
CN107800813A (zh) * 2017-12-05 2018-03-13 洪杰辉 一种多媒体集群调度通信管理系统
US10095954B1 (en) * 2012-01-17 2018-10-09 Verint Systems Ltd. Trajectory matching across disjointed video views
CN111145545A (zh) * 2019-12-25 2020-05-12 西安交通大学 基于深度学习的道路交通行为无人机监测系统及方法
CN111462200A (zh) * 2020-04-03 2020-07-28 中国科学院深圳先进技术研究院 一种跨视频行人定位追踪方法、系统及设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7929017B2 (en) * 2004-07-28 2011-04-19 Sri International Method and apparatus for stereo, multi-camera tracking and RF and video track fusion

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10095954B1 (en) * 2012-01-17 2018-10-09 Verint Systems Ltd. Trajectory matching across disjointed video views
CN106027959A (zh) * 2016-05-13 2016-10-12 深圳先进技术研究院 基于位置线状拟合的视频识别追踪定位系统
CN107529221A (zh) * 2017-08-22 2017-12-29 上海兴容信息技术有限公司 一种结合视频监控和Wi‑Fi定位的追踪分析系统及方法
CN107800813A (zh) * 2017-12-05 2018-03-13 洪杰辉 一种多媒体集群调度通信管理系统
CN111145545A (zh) * 2019-12-25 2020-05-12 西安交通大学 基于深度学习的道路交通行为无人机监测系统及方法
CN111462200A (zh) * 2020-04-03 2020-07-28 中国科学院深圳先进技术研究院 一种跨视频行人定位追踪方法、系统及设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于线阵CCD的大视场二维平面定位系统;彭超然 等;《浙江大学学报(工学版)》;20110831;第45卷(第8期);全文 *

Also Published As

Publication number Publication date
CN112184814A (zh) 2021-01-05

Similar Documents

Publication Publication Date Title
CN109446942B (zh) 目标跟踪方法、装置和系统
CN104303193B (zh) 基于聚类的目标分类
US9323991B2 (en) Method and system for video-based vehicle tracking adaptable to traffic conditions
JP6464337B2 (ja) シーン解析を使用する交通カメラキャリブレーション更新
CN109299703B (zh) 对鼠情进行统计的方法、装置以及图像采集设备
US9953225B2 (en) Image processing apparatus and image processing method
CN108038415B (zh) 一种基于机器视觉的无人机自动检测与跟踪方法
US9852631B2 (en) Mobile on-street parking occupancy detection
CN111163259A (zh) 一种图像抓拍方法、监控相机及监控系统
CN112183353B (zh) 一种图像数据处理方法、装置和相关设备
CN104106260A (zh) 基于地理图的控制
WO2009111499A2 (en) Dynamic object classification
CN111860352B (zh) 一种多镜头车辆轨迹全跟踪系统及方法
CN109413411B (zh) 一种监控线路的黑屏识别方法、装置及服务器
CN112115904A (zh) 车牌检测识别方法、装置及计算机可读存储介质
CN110675426B (zh) 人体跟踪方法、装置、设备及存储介质
CN111259813B (zh) 人脸检测跟踪方法、装置、计算机设备和存储介质
KR101038650B1 (ko) 적응적 배경영상 모델링 방법, 이를 이용한 불법주정차 무인단속방법 및 불법주정차 무인단속시스템
CN114972490B (zh) 一种数据自动标注方法、装置、设备及存储介质
CN112184814B (zh) 定位方法和定位系统
CN111241928A (zh) 人脸识别底库优化方法、系统、设备、可读存储介质
CN112733719A (zh) 一种融合人脸及人体特征的跨境行人轨迹检测方法
CN113947103A (zh) 高空抛物的模型更新方法、高空抛物检测系统及存储介质
US20220366570A1 (en) Object tracking device and object tracking method
CN111428626B (zh) 一种移动物体的识别方法、装置、及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant