CN104299236B - 一种基于场景标定结合插值的目标定位方法 - Google Patents
一种基于场景标定结合插值的目标定位方法 Download PDFInfo
- Publication number
- CN104299236B CN104299236B CN201410557287.8A CN201410557287A CN104299236B CN 104299236 B CN104299236 B CN 104299236B CN 201410557287 A CN201410557287 A CN 201410557287A CN 104299236 B CN104299236 B CN 104299236B
- Authority
- CN
- China
- Prior art keywords
- mtd
- target
- msub
- mtr
- latitude
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000004807 localization Effects 0.000 title claims abstract description 19
- 238000005352 clarification Methods 0.000 claims abstract description 18
- 230000002123 temporal effect Effects 0.000 claims abstract description 16
- 230000033001 locomotion Effects 0.000 claims abstract description 14
- 238000001514 detection method Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000002245 particle Substances 0.000 claims description 3
- 238000011410 subtraction method Methods 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 4
- 238000012163 sequencing technique Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于场景标定结合插值的目标定位方法,包括:在摄像机画面场景中,选取多个特征位置点,标定多个特征位置点在场景中的图像坐标,并标定多个特征位置点的经纬度坐标;对目标进行检测跟踪并获取目标在场景中出现的时间信息和图像坐标;根据摄像机的拓扑关系和目标的特征对多个摄像机中的目标进行关联;基于目标的图像坐标以及最靠近目标的至少三个特征位置点的图像坐标和经纬度坐标,根据插值算法计算得到目标的经纬度坐标;根据目标的关联结果和目标的经纬度坐标对目标的位置进行定位。本发明中,不仅能对目标的局部运动进行跟踪,而且能实时获得目标的经纬度坐标。
Description
技术领域
本发明涉及目标定位技术领域,尤其涉及一种基于场景标定结合插值的目标定位方法。
背景技术
当前,“智慧城市”是人们关注的热点话题之一,它体现“人”的主导地位,通过城市信息化更好地把握城市系统的运动状态和规律,对城市人地关系进行调控,从而实现系统优化。其中,如何让我们生活的场所更加安全,运用科学、先进的技防手段构建一个强大的安防网络来保证整个城市的安全是最为行之有效的。
视频监控系统作为现代化管理以及安全防范中极为有效的手段,已经广泛地应用于银行、车站、办公楼等各种公共场所,是主要的安全技术防范系统之一。近些年来,随着公共安全防范的迫切需求以及计算机技术的不断发展,视频监控正在从传统模式向智能化监控的方向转变。
但是,目前鲜有视频监控系统具有在离线地图上标记目标出现的真实地理位置(指地理坐标系下的经纬度坐标)的功能。由于在城市视频监控网络中摄像机数量越来越庞大、所覆盖的地域越来越广,因此,如果不在地图上定位出目标的真实地理位置,则只能对目标的局部运动进行跟踪,而无法获得目标在地图上的整个运动过程。
发明内容
基本背景技术存在的技术问题,本发明提出了一种基于场景标定结合插值的目标定位方法,不仅能对目标的局部运动进行跟踪,而且能实时获得目标的经纬度坐标。
本发明提出的一种基于场景标定结合插值的目标定位方法,应用在包括多个摄像机的目标定位系统中,所述目标定位方法包括:
在摄像机画面场景中,选取多个特征位置点,标定多个特征位置点在场景中的图像坐标,并标定多个特征位置点的经纬度坐标;
对目标进行检测跟踪并获取目标在场景中出现的时间信息和图像坐标;
根据摄像机的拓扑关系和目标的特征对多个摄像机中的目标进行关联;
基于目标的图像坐标以及最靠近目标的至少三个特征位置点的图像坐标和经纬度坐标,根据插值算法计算得到目标的经纬度坐标;
根据目标的关联结果和目标的经纬度坐标对目标的位置进行定位。
优选地,所述标定多个特征位置点的经纬度坐标具体为:通过GPS定位装置对特征位置点的经纬度坐标进行标定,或者,根据特征位置点与摄像机之间的位置关系以及摄像机的经纬度坐标对特征位置点的经纬度坐标进行标定。
优选地,所述对目标进行检测跟踪并获取目标在场景中出现的时间信息和图像坐标具体为:采用背景减除法进行目标检测,采用连通区域跟踪算法结合Mean Sift粒子滤波算法进行目标跟踪,以获取目标在场景中的中心图像坐标以及目标在场景中出现的时间信息。
优选地,所述对目标进行检测跟踪之后还包括:根据目标检测跟踪结果提取目标的特征。
优选地,所述目标的特征为目标的Appearance特征;优选地,所述目标的特征为目标的颜色特征、目标的形状特征、目标的纹理特征、目标的SIFT特征中的一个或多个。
优选地,所述根据摄像机的拓扑关系和目标的特征对多个摄像机中的目标进行关联具体为:根据上一个摄像机中目标的特征,结合摄像机的拓扑关系并基于贝叶斯目标关联算法求解下一个摄像机中的关联目标,从而对多个摄像机中的目标进行关联。
优选地,所述对多个摄像机中的目标进行关联还包括:根据时间信息获取目标经过不同摄像机的时间顺序。
优选地,所述根据插值算法计算得到目标的经纬度坐标具体为:
定义目标的图像坐标为(zx,zy),最靠近目标的三个特征位置点的图像坐标分别为(x0,y0)、(x1,y1)、(x2,y2),其经纬度坐标分别对应为(lx0,ly0)、(lx1,ly1)、(lx2,ly2),根据三点二次插值算法计算目标的经纬度坐标(lx,ly),计算公式如下:
lx=(S1/S0)×lx0+(S2/S0)×lx1+(S3/S0)×lx2,
ly=(S1/S0)×ly0+(S2/S0)×ly1+(S3/S0)×ly2。
优选地,所述根据目标的关联结果和目标的经纬度坐标对目标的位置进行定位具体为:根据目标关联结果、目标的经纬度坐标在地图上标出目标的位置,并根据时间信息的顺序关系得到目标的运动轨迹。
本发明中,通过摄像机场景标定、目标检测跟踪、目标关联和目标经纬度定位,在经过多个摄像机的运动过程中,可以得到在摄像机场景下目标的实时经纬度信息,不仅能对目标的局部运动进行跟踪,而且能实时获取目标的经纬度信息并获得目标的整个运动过程,这样,在多摄像机网络下跟踪目标并在地图上对目标进行定位,拓展了智能视频监控系统在公共安全领域的应用前景。
附图说明
图1为本发明中一种基于场景标定结合插值的目标定位方法的流程示意图。
图2为目标定位系统的结构示意图。
图3为摄像机1的场景图;
图4为摄像机2的场景图;
图5为摄像机1场景中特征位置点的经纬度坐标图;
图6为摄像机2场景中特征位置点的经纬度坐标图;
图7为目标运动过程的地图回放图。
具体实施方式
如图1和图2所示,图1为本发明提出的一种基于场景标定结合插值的目标定位方法的流程示意图,图2为目标定位系统的结构示意图。
参照图1和图2,本发明实施例提出的本发明提出的一种基于场景标定结合插值的目标定位方法,应用在包括多个摄像机的目标定位系统中,所述目标定位方法包括:
S1、在摄像机画面场景中,选取多个特征位置点,标定多个特征位置点在场景中的图像坐标,并标定多个特征位置点的经纬度坐标;
S2、对目标进行检测跟踪并获取目标在场景中出现的时间信息和图像坐标;
S3、根据摄像机的拓扑关系和目标的特征对多个摄像机中的目标进行关联;
S4、基于目标的图像坐标以及最靠近目标的至少三个特征位置点的图像坐标和经纬度坐标,根据插值算法计算得到目标的经纬度坐标;
S5、根据目标的关联结果和目标的经纬度坐标对目标的位置进行定位。
下面,结合附图对本发明实施例的目标定位方法的各个步骤进行详细描述。
在步骤S1中,对摄像机画面场景进行标定过程中,首先调整摄像机的方向和焦距,使摄像机画面具有较高的清晰度并且目标在摄像机画面中的高度适中;在摄像机画面中选择多个显著的特征位置点并对特征位置点进行标号,所选取的特征位置点要求易于标定,例如建筑物的拐点、道路两边的端点等,并且,在目标出现可能性大的区域可以选取较多的特征位置点。如图3和图4所示,图3所示的摄像机1的场景画面中选取8个特征位置点,8个特征位置点的标号为1-8,图4所示的摄像机2的场景画面中选取14个特征位置点,14个特征位置点标号为1-14。
根据在图3和图4中选取的多个特征位置点,对多个特征位置点进行标定,具体地,对多个特征位置点在场景中的图像坐标以及多个特征位置点的实际经纬度坐标进行标定。在图像坐标的标定过程中,首先在图3和图4的场景画面中建立平面直角坐标系,然后在该坐标系中标定各个特征位置点的图像坐标;在经纬度坐标的标定过程中,可以采用手持GPS定位装置,采集特征位置点的经纬度坐标并进行标定,该标定方法简单易行,经纬度坐标标定准确,或者,根据特征位置点与摄像机之间的位置关系以及摄像机的经纬度坐标计算特征位置点的经纬度坐标并进行标定。如图5和图6所示,图5为摄像机1中8个特征位置点的标定结果,图6为摄像机2中14个特征位置点的标定结果。考虑到视觉效果,在图5和图6中只给出了部分特征位置点的经纬度坐标。
参照表1和表2所示,表1为摄像机1中8个特征位置点的经纬度坐标,表2为摄像机2中14个特征位置点的经纬度坐标。
表1 为摄像机1中特征位置点的经纬度坐标
表2 为摄像机2中特征位置点的经纬度坐标
在步骤S2中,对目标进行检测跟踪并获取目标在场景中出现的时间信息和图像坐标。具体地,目标检测可以采用背景差法,背景差分法是目前运动分割中最常用的一种方法,它是利用当前图像与背景图像的差分来检测出运动区域的一种技术;具体地,背景差法的工作原理和实现过程可以参见Liyuan Li,Weimin Huang,Irene Y.H.Gu,Qi Tian,“Foreground object detection from videos containing complex background”,Proceeding MULTIMEDIA'03 Proceedings of the eleventh ACM internationalconference on Multimedia Pages 2-10ACM New York,NY,USA。目标跟踪可以采用“连通区域跟踪算法”结合“Mean Sift粒子滤波算法”进行碰撞分析,以解决目标的稳定跟踪问题和碰撞分离问题。
参照图5和图6,根据目标检测跟踪结果获取目标在场景中的中心图像坐标(zx,zy),并获得目标在场景中出现的时间信息,例如图5和图6中方框所标注的人物目标。
在对目标进行检测跟踪之后,根据目标检测跟踪结果提取目标的特征,以根据目标的特征对多个摄像机中的目标进行关联。其中,目标的特征可以为目标的Appearance特征(表观特征),具体地,目标的特征可以为目标的颜色特征、目标的形状特征、目标的纹理特征、目标的SIFT特征中的一个或多个。
在步骤S3中,在进行目标关联过程中,根据摄像机的拓扑关系和目标的特征对多个摄像机中的目标进行关联,也就是说,通过目标关联算法可以获取不同摄像机下的同一个目标,并且,可以根据时间信息进一步获得同一个目标经过不同摄像机的时间顺序。
在目标关联算法中,可以根据上一个摄像机(摄像机1)中目标的特征,然后结合摄像机的拓扑关系并通过贝叶斯目标关联算法求解得到下一个摄像机(摄像机2)的关联目标。其中,贝叶斯算法的工作原理和实现过程可以参见Javed O,Rasheed Z,Shafique K,etal.Tracking across multiple cameras withdisjoint views[C].In IEEEInternational Conference on Computer Vision,2003:952-957。
在步骤S4中,根据图5和图6中显示的目标图像坐标和标定的特征位置点的经纬度坐标,利用插值算法计算出目标的实际经纬度坐标。
在图5和图6中,定义目标的图像坐标为(zx,zy),选择最靠近目标的三个特征位置点的图像坐标分别为(x0,y0)、(x1,y1)、(x2,y2),其经纬度坐标分别对应为(lx0,ly0)、(lx1,ly1)、(lx2,ly2),根据三点二次插值算法计算目标的经纬度坐标(lx,ly),计算公式如下:
lx=(S1/S0)×lx0+(S2/S0)×lx1+(S3/S0)×lx2,
ly=(S1/S0)×ly0+(S2/S0)×ly1+(S3/S0)×ly2。
在图5中,目标的图像坐标为(270,183),由摄像机场景标定得到最靠近目标的三个特征位置点为特征位置点2、6和7,三者图像坐标分别为(244,162)、(282,236)和(321,178),三者分别对应的经纬度坐标为(31.837674,117.256986)、(31.837653,117.256876)和(31.837637,117.257092)。根据上述三点二次插值算法,可以算出目标中心点的经纬度坐标为(31.837661,117.256921)。
在图6中,目标的图像坐标为(313,116),由摄像机场景标定得到最靠近目标的三个特征位置点为特征位置点9、10和14,三者图像坐标分别为(400,182)、(279,115)和(175,131),三者分别对应的经纬度坐标为(31.839929,117.251022)、(31.839960,117.251093)和(31.839786,117.250883)。根据上述三点二次插值算法,可以算出目标中心点的经纬度坐标为(31.839951,117.251069)。
在实际应用过程中,根据在摄像机场景中选择的特征位置点的数量和分布情况,可以选择靠近目标的三个以上的特征位置点进行插值算法来计算目标的经纬度坐标,关于插值算法可以采用现有技术,这里不再详述。
在步骤S5中,根据上述计算得到的关联结果和目标的经纬度坐标和时间信息可以对目标的位置进行定位,并可以在地图上标出目标的实际经纬度坐标,根据时间信息的先后顺序关系可以得到目标的实际运动轨迹。
本发明中,通过摄像机场景标定、目标检测跟踪、目标关联和目标经纬度定位,在经过多个摄像机的运动过程中,可以得到在摄像机场景下目标的实时经纬度信息,不仅能对目标的局部运动进行跟踪,而且能实时获取目标的经纬度信息并获得目标的整个运动过程,这样,在多摄像机网络下跟踪目标并在地图上对目标进行定位,拓展了智能视频监控系统在公共安全领域的应用前景。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (8)
1.一种基于场景标定结合插值的目标定位方法,应用在包括多个摄像机的目标定位系统中,其特征在于,所述目标定位方法包括:
在摄像机画面场景中,选取多个特征位置点,标定多个特征位置点在场景中的图像坐标,并标定多个特征位置点的经纬度坐标;
其中,具体地,对摄像机画面场景进行标定过程中,首先调整摄像机的方向和焦距,使摄像机画面具有较高的清晰度并且目标在摄像机画面中的高度适中;在摄像机画面中选择多个显著的特征位置点并对特征位置点进行标号,所选取的特征位置点要求易于标定,并且,在目标出现可能性大的区域可以选取较多的特征位置点;此后通过GPS定位装置对特征位置点的经纬度坐标进行标定,或者,根据特征位置点与摄像机之间的位置关系以及摄像机的经纬度坐标对特征位置点的经纬度坐标进行标定;
对目标进行检测跟踪并获取目标在场景中出现的时间信息和图像坐标;
根据摄像机的拓扑关系和目标的特征对多个摄像机中的目标进行关联;
基于目标的图像坐标以及最靠近目标的至少三个特征位置点的图像坐标和经纬度坐标,根据插值算法计算得到目标的经纬度坐标;
根据目标的关联结果和目标的经纬度坐标对目标的位置进行定位;
所述根据插值算法计算得到目标的经纬度坐标具体为:
定义目标的图像坐标为(zx,zy),最靠近目标的三个特征位置点的图像坐标分别为(x0,y0)、(x1,y1)、(x2,y2),其经纬度坐标分别对应为(lx0,ly0)、(lx1,ly1)、(lx2,ly2),根据三点二次插值算法计算目标的经纬度坐标(lx,ly),计算公式如下:
<mrow>
<msub>
<mi>S</mi>
<mn>0</mn>
</msub>
<mo>=</mo>
<mi>det</mi>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mn>0</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mn>1</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>y</mi>
<mn>0</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>y</mi>
<mn>1</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>y</mi>
<mn>2</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>,</mo>
</mrow>
<mrow>
<msub>
<mi>S</mi>
<mn>1</mn>
</msub>
<mo>=</mo>
<mi>det</mi>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>z</mi>
<mi>x</mi>
</msub>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mn>1</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>z</mi>
<mi>y</mi>
</msub>
</mtd>
<mtd>
<msub>
<mi>y</mi>
<mn>1</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>y</mi>
<mn>2</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>,</mo>
</mrow>
<mrow>
<msub>
<mi>S</mi>
<mn>2</mn>
</msub>
<mo>=</mo>
<mi>det</mi>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mn>0</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>z</mi>
<mi>x</mi>
</msub>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>y</mi>
<mn>0</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>z</mi>
<mi>y</mi>
</msub>
</mtd>
<mtd>
<msub>
<mi>y</mi>
<mn>2</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>,</mo>
</mrow>
<mrow>
<msub>
<mi>S</mi>
<mn>3</mn>
</msub>
<mo>=</mo>
<mi>det</mi>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>x</mi>
<mn>0</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>x</mi>
<mn>1</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>z</mi>
<mi>x</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>y</mi>
<mn>0</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>y</mi>
<mn>1</mn>
</msub>
</mtd>
<mtd>
<msub>
<mi>z</mi>
<mi>y</mi>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
<mtd>
<mn>1</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>,</mo>
</mrow>
lx=(S1/S0)×lx0+(S2/S0)×lx1+(S3/S0)×lx2,
ly=(S1/S0)×ly0+(S2/S0)×ly1+(S3/S0)×ly2。
2.根据权利要求1所述的基于场景标定结合插值的目标定位方法,其特征在于,所述对目标进行检测跟踪并获取目标在场景中出现的时间信息和图像坐标具体为:采用背景减除法进行目标检测,采用连通区域跟踪算法结合Mean Sift粒子滤波算法进行目标跟踪,以获取目标在场景中的中心图像坐标以及目标在场景中出现的时间信息。
3.根据权利要求1或2所述的基于场景标定结合插值的目标定位方法,其特征在于,所述对目标进行检测跟踪之后还包括:根据目标检测跟踪结果提取目标的特征。
4.根据权利要求1或2所述的基于场景标定结合插值的目标定位方法,其特征在于,所述目标的特征为目标的Appearance特征。
5.根据权利要求1或2所述的基于场景标定结合插值的目标定位方法,其特征在于,所述目标的特征为目标的颜色特征、目标的SIFT特征、目标的HOG特征、目标的纹理特征中的一个或多个。
6.根据权利要求1或2所述的基于场景标定结合插值的目标定位方法,其特征在于,所述根据摄像机的拓扑关系和目标的特征对多个摄像机中的目标进行关联具体为:根据上一个摄像机中目标的特征,结合摄像机的拓扑关系并基于贝叶斯目标关联算法求解下一个摄像机中的关联目标,从而对多个摄像机中的目标进行关联。
7.根据权利要求1或2所述的基于场景标定结合插值的目标定位方法,其特征在于,所述对多个摄像机中的目标进行关联还包括:根据时间信息获取目标经过不同摄像机的时间顺序。
8.根据权利要求1或2所述的基于场景标定结合插值的目标定位方法,其特征在于,所述根据目标的关联结果和目标的经纬度坐标对目标的位置进行定位具体为:根据目标关联结果、目标的经纬度坐标在地图上标出目标的位置,并根据时间信息的顺序关系得到目标的运动轨迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410557287.8A CN104299236B (zh) | 2014-10-20 | 2014-10-20 | 一种基于场景标定结合插值的目标定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410557287.8A CN104299236B (zh) | 2014-10-20 | 2014-10-20 | 一种基于场景标定结合插值的目标定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104299236A CN104299236A (zh) | 2015-01-21 |
CN104299236B true CN104299236B (zh) | 2018-02-27 |
Family
ID=52318958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410557287.8A Expired - Fee Related CN104299236B (zh) | 2014-10-20 | 2014-10-20 | 一种基于场景标定结合插值的目标定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104299236B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104931057B (zh) * | 2015-07-02 | 2018-07-27 | 深圳乐动机器人有限公司 | 一种机器人的任意位置定位方法、装置及系统 |
CN106352806A (zh) * | 2016-08-10 | 2017-01-25 | 中国科学技术大学 | 一种立体视觉三维数字图像相关测量的高精度标定方法 |
CN108090473B (zh) * | 2018-01-12 | 2021-04-30 | 北京陌上花科技有限公司 | 多相机下人脸识别的方法及装置 |
CN108693548B (zh) * | 2018-05-18 | 2021-10-22 | 中国科学院光电研究院 | 一种基于场景目标识别的导航方法及系统 |
CN109443345B (zh) * | 2018-10-29 | 2023-12-26 | 温州大学 | 用于监控导航的定位方法及系统 |
CN109489678B (zh) * | 2018-10-29 | 2022-11-15 | 温州大学 | 用于监控导航的定位方法及系统 |
CN111277791B (zh) * | 2018-12-05 | 2022-02-08 | 杭州海康威视系统技术有限公司 | 一种案事件监测方法及系统 |
CN111323006A (zh) * | 2018-12-17 | 2020-06-23 | 杭州海康威视系统技术有限公司 | 一种目标定位方法、装置及电子设备 |
CN109934844A (zh) * | 2019-01-28 | 2019-06-25 | 中国人民解放军战略支援部队信息工程大学 | 一种融合地理空间信息的多目标跟踪方法及系统 |
CN109919975B (zh) * | 2019-02-20 | 2021-04-06 | 中国人民解放军陆军工程大学 | 一种基于坐标标定的广域监控运动目标关联方法 |
CN111667525B (zh) * | 2019-03-14 | 2020-12-25 | 德州职业技术学院(德州市技师学院) | 基于信号检测的建筑管控方法 |
CN110400256B (zh) * | 2019-03-14 | 2020-06-02 | 西安高新建设监理有限责任公司 | 基于信号检测的建筑管控系统 |
CN111784729B (zh) * | 2020-07-01 | 2023-09-05 | 杭州海康威视数字技术股份有限公司 | 一种对象跟踪方法、装置、电子设备及存储介质 |
CN113753063B (zh) * | 2020-11-23 | 2023-05-09 | 北京京东乾石科技有限公司 | 一种车辆行驶指令确定方法、装置、设备及存储介质 |
CN113253324B (zh) * | 2021-02-25 | 2024-03-29 | 安徽乐道智能科技有限公司 | 一种高速公路目标场景定位方法、导航方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101751677A (zh) * | 2008-12-17 | 2010-06-23 | 中国科学院自动化研究所 | 基于多摄像机的目标连续跟踪方法 |
CN102243765A (zh) * | 2011-05-06 | 2011-11-16 | 大连民族学院 | 基于多相机的多目标定位跟踪方法及系统 |
CN103017740A (zh) * | 2012-11-28 | 2013-04-03 | 天津市亚安科技股份有限公司 | 一种利用视频监控装置对监控目标的定位方法及定位系统 |
CN103079059A (zh) * | 2013-01-27 | 2013-05-01 | 中国科学技术大学 | 一种基于网格结合插值的单枪机—多球机联动方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9520040B2 (en) * | 2008-11-21 | 2016-12-13 | Raytheon Company | System and method for real-time 3-D object tracking and alerting via networked sensors |
-
2014
- 2014-10-20 CN CN201410557287.8A patent/CN104299236B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101751677A (zh) * | 2008-12-17 | 2010-06-23 | 中国科学院自动化研究所 | 基于多摄像机的目标连续跟踪方法 |
CN102243765A (zh) * | 2011-05-06 | 2011-11-16 | 大连民族学院 | 基于多相机的多目标定位跟踪方法及系统 |
CN103017740A (zh) * | 2012-11-28 | 2013-04-03 | 天津市亚安科技股份有限公司 | 一种利用视频监控装置对监控目标的定位方法及定位系统 |
CN103079059A (zh) * | 2013-01-27 | 2013-05-01 | 中国科学技术大学 | 一种基于网格结合插值的单枪机—多球机联动方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104299236A (zh) | 2015-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104299236B (zh) | 一种基于场景标定结合插值的目标定位方法 | |
CN106251399B (zh) | 一种基于lsd-slam的实景三维重建方法及实施装置 | |
CN104408689B (zh) | 基于全景影像的街景面片优化方法 | |
CN103247075B (zh) | 基于变分机制的室内环境三维重建方法 | |
CN104484648B (zh) | 基于轮廓识别的机器人可变视角障碍物检测方法 | |
Mademlis et al. | Autonomous unmanned aerial vehicles filming in dynamic unstructured outdoor environments [applications corner] | |
CN109191504A (zh) | 一种无人机目标跟踪方法 | |
CN107133987B (zh) | 无重叠视场的相机阵列优化标定方法 | |
CN107392964A (zh) | 基于室内特征点和结构线结合的室内slam方法 | |
CN103198488B (zh) | Ptz监控摄像机实时姿态快速估算方法 | |
CN106155081B (zh) | 一种旋翼无人机大范围目标监测和精确定位方法 | |
CN106960454A (zh) | 景深避障方法、设备及无人飞行器 | |
CN104899894B (zh) | 一种采用多台摄像机进行运动目标跟踪的方法 | |
Tang et al. | Joint multi-view people tracking and pose estimation for 3D scene reconstruction | |
CN105976391B (zh) | 基于orb-slam的多摄像机标定方法 | |
CN106780629A (zh) | 一种三维全景数据采集、建模方法 | |
CN111489392B (zh) | 多人环境下单个目标人体运动姿态捕捉方法及系统 | |
JP6482855B2 (ja) | 監視システム | |
US20120162412A1 (en) | Image matting apparatus using multiple cameras and method of generating alpha maps | |
CN103942814A (zh) | 一种面向异步双目视觉系统的快速运动物体轨迹估计方法 | |
CN113724335A (zh) | 一种基于单目相机的三维目标定位方法及系统 | |
WO2021248564A1 (zh) | 一种全景大数据应用监测管控系统 | |
US10791319B1 (en) | Multi-camera 3D content creation | |
CN103810692B (zh) | 视频监控设备进行视频跟踪的方法及该视频监控设备 | |
CN116151320A (zh) | 一种抗动态目标干扰的视觉里程计方法及视觉里程计装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180227 |