CN110706260A - 一种结合定位信息的大场景内运动目标检测方法 - Google Patents
一种结合定位信息的大场景内运动目标检测方法 Download PDFInfo
- Publication number
- CN110706260A CN110706260A CN201910982226.9A CN201910982226A CN110706260A CN 110706260 A CN110706260 A CN 110706260A CN 201910982226 A CN201910982226 A CN 201910982226A CN 110706260 A CN110706260 A CN 110706260A
- Authority
- CN
- China
- Prior art keywords
- image
- longitude
- latitude
- coordinates
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000001514 detection method Methods 0.000 claims abstract description 82
- 238000013507 mapping Methods 0.000 claims abstract description 8
- 239000003550 marker Substances 0.000 claims description 5
- 239000000126 substance Substances 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 9
- 239000011159 matrix material Substances 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种结合定位信息的大场景内运动目标检测方法,事先建立大场景图像中的坐标点和准确的GPS的经纬度间的对应关系,检测时根据目标的类型及其带有误差的经纬度数据,对运动目标所在区域进行预测,将该区域映射到大场景视频的画面内,得到画面内包含运动目标的图像块,将图像块缩放成事先设定的大小,送入目标检测处理模块进行目标检测,得到目标在该图像块中的坐标位置。将该坐标位置还原为大场景图像上的坐标位置,完成该目标的检测。本发明针对每一个带有GPS信息的运动目标进行,能够得到大场景图像中所有运动目标的精确位置,不仅大大提高了处理速度,而且提高了检测准确率。本发明解决了单纯GPS数据‑图像映射固有的无法获得目标大小范围、以及因GPS数据误差导致的映射位置偏离等问题。
Description
技术领域
本发明涉及一种结合定位信息的大场景内运动目标检测方法。
背景技术
近年来,在诸如大型广场安防、机场场面活动引导与控制、港口生产作业区运行状态监控、工业园区管控等大型场景管控中,增强现实(Augmented Reality,AR)技术得到了越来越多的应用。比如,在机场飞行区的航空器、车辆、人员管控中,为了便于管理人员理解和指挥,往往需要对这些运动目标进行增强显示,即在视频画面中运动目标的对应位置显示目标的相关信息,如飞机航班号、车辆类型、作业人员个人信息等。为了保证信息增强显示的准确性,需要对运动目标进行高精度的定位。
目前,实现位置信息增强显示的通常的方法是利用通过GPS、北斗等系统获得运动目标的空间坐标,把空间坐标映射到视频画面上的像素点坐标。但是由于GPS、北斗等系统获取的数据一般都有较大误差,再加上数据获取频率低(如每秒发送一次),并且与视频之间不同步,导致通过坐标映射得到的像素点坐标和运动目标的实际坐标之间有较大的差异,不但影响使用体验,而且会出现较多的错误显示。
针对上述问题,人们开始探讨解决方案。例如,采用先在视频画面中检测出运动目标、之后再与GPS等定位数据融合的方法。在大场景视频中,为了保证目标检测达到可实用的准确度,要求运动目标具有一定的像素分辨率,也就是要求整个大场景画面具有超高的分辨率,比如为了在机场飞行区画面中检测到远处的车辆,整个飞行区画面的像素数会达到一个或多个4K超高清(分辨率为3840×2160)。目前目标检测性能最好的是基于深度学习的检测方法。基于区域的卷积神经网络(Region Based Convolutional Neural Network,RCNN)[1]成功连接目标检测与深度卷积网络,将目标检测的准确率提升到一个新的层次。RCNN由3个独立的步骤组成:产生候选窗口、特征提取、SVM分类及窗口回归。由于RCNN分为3个独立的过程,所以检测效率很低,因此无法用在大场景视频中。为了提高目标检测的实时性,有学者提出了单阶段的目标检测算法。这种方法的特点是端到端(end-to-end),从输入图像到检测结果一步到位,中间的过程全部由神经网络学习得到。典型的方法是YOLO(YouOnly Look Once)[2]与SSD(Single Shot Multibox Detector)[3]。这种方法用轻量级的网络实现输入端到输出端的直接相连,极大提高了图像检测的速度。当输入图像的尺寸是512×512时,处理速度可达30FPS(Frame Per Second)左右,实现了实时检测。但对于大场景视频,分辨率通常可达一个或多个4K,其像素点数是上述图像尺寸的数十倍甚至上百倍,远远达不到实时。
大场景中运动目标检测的另一个困难是,根据运动目标距离摄像机的位置不同,运动目标在画面上的尺度大小差异极大。如在近处时可能占有半个画面,而在远处是可能只有几个像素。这会导致深度学习算法中模型训练难度增加和最终检测精度的下降。
如上所述,现有技术下,单纯基于GPS等定位信息进行增强信息显示,误差较大,而各种基于运动检测与定位信息融合的方法,在大场景高分辨率画面中难以达到实时处理,并且由于尺度变化导致检测性能下降。因此,有必要做进一步的研发,提出更为有效、实用的解决方案。
发明内容
为克服现有技术的上述缺陷,本发明提供了一种结合定位信息的大场景内运动目标检测方法,以保障检测性能,提高实时性。
本发明的技术方案是:一种结合定位信息的大场景内运动目标检测方法,包括:
1)获取大场景图像;
大场景图像可以由一体化全景摄像机拍摄生成,或由一组摄像头拍摄生成的具有重叠区域的局部场景图像拼接而成。
2)对大场景图像进行经纬度标定,在场景内选择若干标志点,建立标志点的图像坐标与经纬度坐标之间的对应关系;
对大场景图像进行经纬度标定的具体方式可以为:在大场景图像中选取若干易于分辨的标志点,例如,道路角点、道路标记角点、地面装饰物角点等,选取的标志点分布区域要尽可能覆盖整个场景且尽可能均匀分布,从大场景图像中获得各标志点的图像坐标,从显示经纬度数据的地图上的相应区域找到这些标志点,获取标志点的经纬度坐标,由此实现各标志点的图像坐标与经纬度坐标的对应;
例如,选取n个标志点,对于图像坐标为(xi,yi)的第i个标志点(i=1,2,3,...,n),在显示经纬度数据的地图上找到该标志点,查出该标志点的经纬度坐标为(li,ti),则图像坐标(xi,yi)与经纬度坐标(li,ti)对应,为同一个标志点在相应坐标系下的坐标,可记为数组(xiyiliti),对选定的所有标志点逐一进行上述操作,即建立起这些标志点图像坐标与经纬度坐标之间的对应关系,用作对任意点图像坐标与经纬度坐标转换的依据。
3)对运动目标的经纬度定位信息,依据定位信息的误差范围和运动目标特征,确定进行相应目标检测的经度范围和纬度范围,将误差范围内的区域均包含在目标检测区域内且能够涵盖整个运动目标,由此形成经纬度坐标下的目标检测区域,该目标检测区域在经纬度坐标下是矩形区域;
4)依据图像坐标与经纬度坐标之间的关联或对应关系,将经纬度坐标下的目标检测区域转换为大场景图像下的图像检测区域;
具体方式为:将经纬度坐标下的矩形目标检测区域的四个顶点的经纬度坐标转换为图像坐标,在大场景图像中选定包含这四个图像坐标的像素点的最小矩形,以该最小矩形限定的图像区域为图像检测区域;
将经纬度坐标转换为图像坐标的方式为:对于任意点的经纬度坐标(l,t),选取8个与该点距离最小的最邻近标志点,依据下列公式计算其图像坐标(x,y):
其中,
其中,(xj,yj)和(li,ti)分别为第j个最邻近标志点图像坐标和经纬度坐标,j=1,2,3,4,5,6,7,8。因此,对于任何确定的经纬度坐标,通过上述公式可计算出对应的图像坐标,实现相应点的经纬度坐标到图像坐标的转换。
对经纬度坐标下的矩形目标检测区域的四个顶点的经纬度坐标进行上述转换,获得这四个顶点的图像坐标,即获得这四个顶点在大场景图像中的像素点位置。
对需要转换坐标的任意一点,基于该点和各标志点的经纬度坐标,计算该点与各标志点之间的经纬度距离或经纬度距离平方(实践中常用距离平方,以简化计算),依此确定与该点距离最小的8个标志点。
5)依据设定的尺寸要求矩形对图像检测区域进行缩放,形成具有固定尺寸的检测用图像块;
6)在检测用图像块进行运动目标检测,获得运动目标在检测用图像块内的位置;
7)依据图像检测区域在大场景图像中的位置,将检测获得的运动目标在检测用图像块内的位置转换为在大场景图像中的位置,由此实现运动目标的检测和定位。
根据需要,通常应针对每一个带有经纬度定位信息的运动目标进行检测。
本发明事先建立大场景图像中的坐标点和准确的GPS的经纬度间的对应关系,检测时根据目标的类型及其带有误差的经纬度数据(运动目标的经纬度定位信息),对运动目标所在区域进行预测,将该区域映射到大场景视频的画面内,得到画面内包含运动目标的图像块,将图像块缩放成事先设定的大小,送入目标检测处理模块进行目标检测,得到目标在该图像块中的坐标位置。将该坐标位置还原为大场景图像上的坐标位置,完成该目标的检测。
本发明的定位信息不只是用于目标检测之后的融合阶段,而且在目标检测之前用于限定检测范围和确定尺度变换,通过限定检测范围,剔出无目标区域,提高检测速度;通过尺度变换,既可以提高检测的精度,又可以提高检测速度,当运动目标过大时可以降低图像的分辨率,目标检测可以在较低分辨率图像上进行。以在分辨率为4个4K(3840*2160)的飞行区大场景图像上检测飞机为例,如果把每一个运动目标的存在范围进行限定,并且把目标存在范围缩放为如512*512的图像,单个目标检测的运算量为直接在大场景图像上进行检测时的约126分之1(512*512/(4*3840*2160)=1/126),考虑到飞行区内同时只有很少的飞机和车辆在运动,本发明具有显著的效果。
本发明针对每一个带有GPS信息的运动目标进行,能够得到大场景图像中所有运动目标的精确位置,不仅大大提高了处理速度,而且提高了检测准确率。
本发明解决了单纯GPS数据-图像映射固有的无法获得目标大小范围、以及因GPS数据误差导致的映射位置偏离等问题。
附图说明
图1是本发明的流程示意图。
具体实施方式
参见图1,本发明的整体流程主要为:首先,大场景视频采集设备(一体化全景摄像机或一组拼接摄像头)固定安装之后,对场景空间中的点与其在视频画面中的图像坐标进行标定,即建立大场景图像中的坐标点(x,y)和GPS的经纬度信息(l,t)(经纬度坐标)之间的对应关系,将其表示为若干个四元组(x,y,l,t)。其次,运动目标检测启动后,针对每一个带有GPS经纬度信息(含有误差)的运动目标,根据经纬度误差数据和目标本身的类型,对目标所在区域进行预测,并且将该区域映射到大场景视频的画面内,得到画面内的预测区域(图像检测区域)。然后,对画面内的预测区域进行尺度变换,缩放成事先设定的大小。接下来,把尺度变换后的图像块(检测用图像块图像)送入目标检测处理模块,即可得到目标在该图像块中的坐标位置。最后,将该坐标位置还原为大场景图像上的坐标位置,完成该目标的检测。上述目标检测处理针对每一个带有GPS信息的运动目标进行,得到大场景图像中所有运动目标的精确位置。由于目标检测只在可能的运动目标周围一个限定的区域内进行,大大提高了处理速度;同时,大小目标都缩放成统一的图像尺寸,有利于提高检测的准确率。
下面是几个主要步骤的介绍:
A)图像标定
采集到大场景图像后,首先要进行图像坐标和经纬度进行关联的GPS标定。在图像上寻找明显的标志点(如道路标志的角点或安装点,交通车道线的角点,地面装饰物的角点等),并记录坐标(x,y),然后在可以显示经纬度数据的地图上记录这些点的经纬度坐标(l,t),记为(x,y,l,t)。标志点要尽可能覆盖整个场景且尽可能均匀分布。标注点数量越多,后面的目标位区域预测越准确,一幅大场景图像需要标注至少100个点左右。
B)目标位置区域预测
针对每一条GPS经纬度信息(l,t),考虑以下因素对目标位置区域进行预测。
(a)经纬度信息自身的误差。包括GPS、北斗等系统获取数据的误差,或采集频率低以及传输带来的误差。记为(Δex,Δey)。比如,现在GPS系统定位的误差在10米左右,相当于经纬度误差为3×10-7°。
(b)待检测目标尺寸大小。在本发明涉及的应用场景中,待检测目标的类型(如飞机、车辆、人员等)是已知的,所以我们可以对其大小尺寸进行合理限定。。该尺寸大小同样用地面经纬度表示,记为(Δsx,Δsy)。如,飞机、车辆、行人的大小分别大致为100米,10米,1米。对应的经纬度范围分别为3×10-6°,3×10-7°,3×10-8°。
根据上面的分析,可以将目标区域限定如下:
(l±(Δex+Δsx),t±(Δey+Δsy)) 式(1)
这在经纬度坐标平面是一个矩形区域,现在计算其4个顶点对应的图像图像坐标,方法如下:
假设已经标定好的n个四元组(xi,yi,li,ti)(i=1,2...n)(各标志点的图像坐标和经纬度坐标数组),待转化坐标的点(下面称为目标点)经纬度坐标为(l,t)。首先计算已标定的各标志点的经纬度和目标点的距离di:
找出距离目标点最近的8个标定点,然后通过此8个标定点的坐标求解基于最小二乘法的非线性模型参数,进而求得目标点的图像坐标。
非线性模型有很多种,这里使用二次多项式模型,即
x=a*l+b*t+c*l*t+d 式(3)
其中x代表目标点(l,t)在图像坐标系中的横坐标值,a,b,c,d均为对应的模型参数。
下面求解这个模型。
不失一般性地,假设距离目标点(l,t)最近的8个已标定的标志点的四元组为
(xj,yj,lj,tj)(j=1,2...8) 式(4)
系数a,b,c,d,满足下列方程:
上式可以写作
Au=v 式(6)
其中
对式(6)进行变换可得
u=A-1v 式(10)
由于矩阵A不是方阵,所以此处A-1为矩阵A的伪逆矩阵(又称广义逆矩阵),即
A-1=(ATA)-1AT 式(11)
这样就求得了从经纬度坐标到图像坐标的转化系数。所以对于选定的点(l,t),其图像横坐标值x为
x=[l t lt 1]u 式(12)
将式(10)和(11)代入式(12),可得
同理可得图像纵坐标y
将经纬度范围的四个顶点全部转换为图像坐标后,这四个图像坐标不一定能构成矩形,为此在图像中构建一个将这四个点全部包含在内的最小矩形。这个矩形即为待检测目标的预测区域。把这个矩形的左上角位置记为(xp,yp),尺寸为wp×hp。
C)尺度变换由于主流的目标检测算法要求输入图像具有固定大小,所以这里对上述待检测目标的预测区域进行尺度变换,缩放固定的大小W×H,如512×512像素。
D)目标检测
采用已有的目标检测算法(如参考文献[2]、[3])进行目标检测,得到目标在缩放后图像中的位置。目标以外接矩形表示,左上角记为(xr,yr),宽高为(wr,hr)。
E)坐标还原
将上述目标检测得到的目标位置映射至原始图像,可得到该目标在大场景图像中的位置,即左上角(xq,yq)和宽高为(wq,hq)如下。
经过上述计算后,得到相应运动目标的图像坐标及跟踪框,亦可得到运动目标的经纬度坐标或其他世界坐标系坐标,进而在大场景图像上增强位置信息或其他相关信息。
本说明书所称图像坐标系是指针对图像的坐标系,包括通常所称的图像坐标系,也包括通常所称的像素坐标系。
参考文献
[1]GirshickRoss,DonahueJeff,DarrellTrevor,Malik Jitendra.Region-BasedConvolutional Networks for Accurate Object Detection and Segmentation.[J].IEEE transactions on pattern analysis and machine intelligence,2016,38(1).
[2]Redmon J,Divvala S,Girshick R,et al.You Only Look Once:Unified,Real-Time Object Detection[J].2015.
[3]Liu W,Anguelov D,Erhan D,et al.SSD:Single Shot MultiBox Detector[J].2015.
Claims (6)
1.一种结合定位信息的大场景内运动目标检测方法,包括:
1)获取大场景图像;
2)对大场景图像进行经纬度标定,在场景内选择若干标志点,建立标志点的图像坐标与准确的经纬度坐标之间的对应关系;
3)对运动目标的经纬度定位信息,依据定位信息的误差范围和运动目标特征,确定进行相应目标检测的经度范围和纬度范围,形成经纬度坐标下的目标检测区域;
4)依据图像坐标与经纬度坐标之间的对应关系,将经纬度坐标下的目标检测区域映射到大场景图像中,形成大场景图像中的图像检测区域;
5)依据设定的尺寸要求对图像检测区域进行缩放,形成具有固定尺寸的检测用图像块;
6)在检测用图像块进行运动目标检测,获得运动目标在检测用图像块内的位置;
7)依据图像检测区域在大场景图像中的位置,将检测获得的运动目标在检测用图像块内的位置转换为在大场景图像中的位置,由此实现运动目标的检测和定位。
2.如权利要求1所述的方法,其特征在于采用大场景视频采集设备采集所述的大场景图像,所述大场景视频采集设备为一体化全景摄像机或一组能够进行图像拼接的摄像头,所述大场景图像由一体化全景摄像机拍摄生成,或者由所述各摄像头拍摄生成的具有重叠区域的局部场景图像拼接而成。
3.如权利要求1或2所述的方法,其特征在于对大场景图像进行经纬度标定的具体方式为:在大场景图像中选取若干易于分辨的标志点,从大场景图像中获得各标志点的图像坐标,从显示经纬度数据的地图上的相应区域找到这些标志点,获取标志点的经纬度坐标,由此实现各标志点的图像坐标与经纬度坐标的对应。
4.如权利要求3所述的方法,其特征在于将经纬度坐标下的目标检测区域映射到大场景图像中的具体方式为:将经纬度坐标下的矩形目标检测区域的四个顶点的经纬度坐标转换为图像坐标,在大场景图像中选定包含这四个图像坐标的像素点的最小矩形,以该最小矩形限定的图像区域为图像检测区域。
6.如权利要求5所述的方法,其特征在于对需要转换坐标的任意一点,基于该点和各标志点的经纬度坐标,计算该点与各标志点之间的经纬度距离或经纬度距离平方,依此确定与该点距离最小的8个标志点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910982226.9A CN110706260A (zh) | 2019-10-16 | 2019-10-16 | 一种结合定位信息的大场景内运动目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910982226.9A CN110706260A (zh) | 2019-10-16 | 2019-10-16 | 一种结合定位信息的大场景内运动目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110706260A true CN110706260A (zh) | 2020-01-17 |
Family
ID=69199935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910982226.9A Pending CN110706260A (zh) | 2019-10-16 | 2019-10-16 | 一种结合定位信息的大场景内运动目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110706260A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111914048A (zh) * | 2020-07-29 | 2020-11-10 | 北京天睿空间科技股份有限公司 | 经纬度坐标与图像坐标对应点自动生成方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108419014A (zh) * | 2018-03-20 | 2018-08-17 | 北京天睿空间科技股份有限公司 | 利用全景摄像机和多台抓拍摄像机联动抓拍人脸的方法 |
CN208656913U (zh) * | 2018-09-07 | 2019-03-26 | 厦门博聪信息技术有限公司 | 单镜头180度全景鹰眼追踪摄像机 |
CN109670462A (zh) * | 2018-12-24 | 2019-04-23 | 北京天睿空间科技股份有限公司 | 基于定位信息的航空器跨全景持续跟踪方法 |
-
2019
- 2019-10-16 CN CN201910982226.9A patent/CN110706260A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108419014A (zh) * | 2018-03-20 | 2018-08-17 | 北京天睿空间科技股份有限公司 | 利用全景摄像机和多台抓拍摄像机联动抓拍人脸的方法 |
CN208656913U (zh) * | 2018-09-07 | 2019-03-26 | 厦门博聪信息技术有限公司 | 单镜头180度全景鹰眼追踪摄像机 |
CN109670462A (zh) * | 2018-12-24 | 2019-04-23 | 北京天睿空间科技股份有限公司 | 基于定位信息的航空器跨全景持续跟踪方法 |
Non-Patent Citations (2)
Title |
---|
WANG S 等: "《Target recognition in large scene SAR images based on region proposal regression》", 《2017 IEEE INTERNATIONAL GEOSCIENCE AND REMOTE SENSING SYMPOSIUM (IGARSS)》 * |
郭贵海 等: "《现代测量原理与技术》", 31 October 2017, 地质出版社 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111914048A (zh) * | 2020-07-29 | 2020-11-10 | 北京天睿空间科技股份有限公司 | 经纬度坐标与图像坐标对应点自动生成方法 |
CN111914048B (zh) * | 2020-07-29 | 2024-01-05 | 北京天睿空间科技股份有限公司 | 经纬度坐标与图像坐标对应点自动生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111241988B (zh) | 一种结合定位信息的大场景内运动目标检测识别方法 | |
CN110363158B (zh) | 一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法 | |
Zhao et al. | Detection, tracking, and geolocation of moving vehicle from uav using monocular camera | |
Khan et al. | Unmanned aerial vehicle–based traffic analysis: Methodological framework for automated multivehicle trajectory extraction | |
CN115439424B (zh) | 一种无人机航拍视频图像智能检测方法 | |
CN103065323B (zh) | 一种基于单应性变换矩阵的分段空间对准方法 | |
CN110969663B (zh) | 一种相机外部参数的静态标定方法 | |
CN106529538A (zh) | 一种飞行器的定位方法和装置 | |
CN108711172B (zh) | 基于细粒度分类的无人机识别与定位方法 | |
CN112819903A (zh) | 基于l型标定板的相机和激光雷达联合标定的方法 | |
CN111914049A (zh) | 经纬度坐标与图像坐标映射方法 | |
CN105335977A (zh) | 摄像系统及目标对象的定位方法 | |
CN116883610A (zh) | 基于车辆识别与轨迹映射的数字孪生路口构建方法和系统 | |
Busch et al. | Lumpi: The leibniz university multi-perspective intersection dataset | |
EP3940666A1 (en) | Digital reconstruction method, apparatus, and system for traffic road | |
CN115451964A (zh) | 基于多模态混合特征的船舶场景同时建图与定位方法 | |
CN114923477A (zh) | 基于视觉与激光slam技术的多维度空地协同建图系统和方法 | |
CN115205382A (zh) | 目标物定位方法以及装置 | |
CN113569647B (zh) | 一种基于ais的船舶高精度坐标映射方法 | |
CN114663473A (zh) | 基于多视角信息融合的人员目标定位与追踪方法及系统 | |
CN112446915A (zh) | 一种基于图像组的建图方法及装置 | |
CN110706260A (zh) | 一种结合定位信息的大场景内运动目标检测方法 | |
CN116977806A (zh) | 一种基于毫米波雷达、激光雷达和高清阵列摄像机的机场目标检测方法及系统 | |
CN116824457A (zh) | 基于全景视频中移动目标自动挂牌方法及相关装置 | |
CN115166722B (zh) | 用于路侧单元的无盲区单杆多传感器检测装置及控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200117 |
|
RJ01 | Rejection of invention patent application after publication |