CN115100423A - 一种基于视图采集数据实现实时定位系统及方法 - Google Patents
一种基于视图采集数据实现实时定位系统及方法 Download PDFInfo
- Publication number
- CN115100423A CN115100423A CN202210693351.XA CN202210693351A CN115100423A CN 115100423 A CN115100423 A CN 115100423A CN 202210693351 A CN202210693351 A CN 202210693351A CN 115100423 A CN115100423 A CN 115100423A
- Authority
- CN
- China
- Prior art keywords
- view
- coordinate system
- target object
- longitude
- latitude
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像识别检测技术领域,公开了一种基于视图采集数据实现实时定位系统及方法,通过对实时获取监测区域内的影像视图,采用物体识别算法对影像视图中的物体进行识别,并提取影像视图中目标物的特征点;在影像视图中构建视图像素坐标系,获取特征点在视图像素坐标系中的坐标位置信息;转化视图像素坐标系位置为三维世界经纬坐标系位置。本发明结合机器视觉技术和坐标转换技术,基于采集的影像视图进行定位,硬件上只需要通过相机进行图像采集,然后由软件程序进行相应处理,不存在信号干扰问题,不仅定位精度高,而且不受干扰影响,因此可靠性强,且应用场景广。
Description
技术领域
本发明涉及图像识别检测技术领域,具体涉及一种基于视图采集数据实现实时定位系统及方法。
背景技术
传统的实时定位大多采用GPS定位来实现,由于GPS定位是通过无线电发射信号,所以会受到很多信号影响,比如电波,同时也会受到墙体等阻碍、反射而不能直接进行室内定位。另外,GPS在定位过程中会产生很多误差,比如卫星时钟误差、电离层传播延时、接收机噪声等的影响,因此在高楼林立的城市交通和偏远的厂区等采用GPS定位,由于信号被阻挡或信号基站少的原因,并不能发挥很好的作用,对于安全监测例如出现安全事故等不能立即对地址进行定位,耽误救援时间,在可视化方面并不能对事后事故评定起到特别积极的作用。
发明内容
基于以上问题,本发明提供一种基于视图采集数据实现实时定位系统及方法,通过一种全新的定位方式,不仅能够实现精确定位,而且不受建筑、基站等影响,应用场景更加广泛。
为实现上述技术效果,本发明所采用的技术方案是:
一种基于视图采集数据实现实时定位系统,包括:
目标物识别模块:用于对采集到的影像视图中的目标物进行识别,并提取出影像视图中目标物的特征点;
视图像素坐标生成模块:用于在影像视图中构建视图像素坐标系,获取所述目标物的特征点在视图像素坐标系中的坐标位置;
经纬坐标生成模块:用于将目标物的特征点在视图像素坐标系中的坐标位置转化为三维世界经纬坐标系位置。
进一步地,目标物识别模块在识别目标物时,先对目标物进行锚框以确定出目标物所在位置,然后以锚框中的一点或多点作为目标物的特征点。
通过识别算法对目标物进行识别,并对目标物自动添加锚框获得自适应数据集对象边界框预测的预设边界框,可以依据与锚框相似的真实边界框的位置进行特征点的提取,有利于获得能够代表目标物的特征点,确保通过特征点在视图像素坐标系中的坐标位置转化成目标物的三维世界经纬坐标系位置更加准确。
进一步地,目标物识别模块以锚框的中心的作为目标物的特征点。
本发明通过以锚框中心点作为目标物的特征点,尤其是在影像视图采集模块采集位置相对固定时,以锚框中心点作为目标物的特征点,对目标物的适应性好,且坐标位置易于提取获得,方便快速提取目标物的特征点的同时,减少计算处理量。
进一步地,视图像素坐标生成模块在影像视图中构建视图像素坐标系时,以影像视图左上角为像素坐标系原点位置,构建与影像视图一比一的视图像素坐标系。
通过建立与影像视图为1:1的像素坐标系,可以准确快速获取特征点在像素坐标系中的坐标。
进一步地,经纬坐标生成模块目标物的特征点在视图像素坐标系中的坐标位置转化为三维世界经纬坐标系位置的具体处理包括:
1)视图像素坐标系中,根据如下公式确定出目标物的特征点在视图像素坐标系中的坐标位置表示的实际距离梯度:
其中s为采集的影像视图中最远点到参考点的实际距离,ui为影像视图中最远点到参考点的距离线段上第i个像素,n为影像视图中最远点到参考点的距离线段上像素的个数,du为影像视图中像素的表示实际距离的梯度;
2)建立监测区域的实际的空间坐标系,通过视图像素坐标系像素梯度计算出目标物的特征点在实际的空间坐标系中相对于参考点的横向偏移距离和纵向的偏移距离:
dsy=∑duy×Ny
dsx=∑dux×Nx
其中dsy表示通过像素密度梯度计算得到目标物的特征点在实际的空间坐标系中相对于参考点的纵向偏移量,dsx表示通过像素密度梯度计算得到目标物的特征点在实际的空间坐标系中相对于参考点的横向偏移量,Ny、Nx分别表示目标物的特征点在视图像素坐标系中纵向梯度方向上的像素数和横向梯度方向上的像素数,dux、duy分别表示目标物的特征点在视图像素坐标系中的纵向梯度和横向梯度;
3)在实际的空间坐标系纵向方向目标物位置偏移量,通过正交分解得到在经纬坐标系中的经度偏移量和维度偏移量:
在实际的空间坐标系横向方向目标物位置偏移量,通过正交分解得到在经纬坐标系中的经度偏移量和维度偏移量:
最后根据偏移量计算出目标物的特征点在的经纬坐标系中的经纬坐标(lng,lat)为:
lng=g0-lngy+lngx
lat=t0+laty+latx
其中(g0,t0)为影像视图中或影像视图外已知的参考点的经纬坐标。
本方案充分考虑了像素梯度对目标物相对于参考点的距离影响因素,再利用正交分解得到得到在经纬坐标系中的经度和维度的分别偏移量,可以精准地实现二维坐标到经纬坐标位置转化;应用于道路车辆识别和定位时,实现基于视图的车辆实时精准高效定位。
本发明还提供了一种基于视图采集数据实现实时定位方法,包括如下步骤:
对采集到的影像视图中的目标物进行识别,并提取出影像视图中目标物的特征点;
在影像视图中构建视图像素坐标系,获取目标物的特征点在视图像素坐标系中的坐标位置信息;
将目标物的特征点在视图像素坐标系中的坐标位置转化为三维世界经纬坐标系位置。
进一步地,通过预先训练好的识别算法模型对目标物进行识别,所述识别算法模型的训练过程包括如下步骤:
S1、获取多个含有被识别目标物的已有视图作为视图数据集;
S2、利用目标检测标注工具对数据集视图中目标物进行标注;
S3、构建目标物轮廓模型,对标注的目标物进行特征提取;
S4、将视图数据集及提取的特征输入识别算法模型中进行训练,得到训练后的目标物识别算法模型。
识别算法模型预先通过训练得到,而且可以是对不同的应用场景进行针对性的训练模型,从而获得识别能力强、识别准确度高的识别算法模型;从而能够适应使用场景中对目标物的识别和提取,通过训练可以提高识别效率,提高对目标物识别的准确度。
进一步地,识别算法模型中加入有追踪算法,分别对目标物赋予相应的ID,进行目标物的识别和追踪。
追踪算法的加入对影像视图采集模块采集到的目标物进行编号或标注ID;且可以对在不同时间采集到的同一目标物进行识别,编号或标注ID不变,可以实现同一辆车多次经过该监测区域时,实现对行使车辆的识别和追踪。
本发明还提供了一种电子设备,包括存储器和处理器,所述储存器内存储有本发明任一实施方式所述的基于视图采集数据实现实时定位系统,且所述处理器可执行并实现所述的基于视图采集数据实现实时定位系统中各个组成模块的功能。
本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现实现本发明任一实施方式所述的基于视图采集数据实现实时定位系统中各个组成模块的功能。
与现有技术相比,本发明的有益效果是:
(1)本发明结合机器视觉技术和坐标转换技术,基于采集的影像视图进行定位,硬件上只需要通过相机进行图像采集,然后由软件程序进行相应处理,不存在信号干扰问题,不仅定位精度高,而且不受干扰影响,因此可靠性强,且应用场景广。
(2)本发明通过深度学习进行目标物识别,相比于其他方法,识别的准确度更高,继而保障定位的精确性。
附图说明
图1为实施例中的视图采集设备进行视图采集的安装场景示意图;
图2为实施例中构建的视图像素坐标系;
图3为实施例中建立俯视方向的实际道路的空间坐标系;
图4为实施例中经纬坐标系中道路位置示意图;
图5为实施例中二维视图像素坐标系车辆锚框与经纬坐标系车辆边界转换示意图;
图6为实施例中视图采集设备采集视图并进行车辆识别后得到GIS坐标在地图实时显示的结果图。
图7为实施例中电子设备的组成框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本发明作进一步的详细说明,本发明的示意性实施方式及其说明仅用于解释本发明,并不作为对本发明的限定。
实施例:
本实施例中提供的一种基于视图采集数据实现实时定位系统,包括:
目标物识别模块:用于根据物体识别算法对采集到的影像视图中的目标物进行识别,并提取影像视图中目标物的特征点;
视图像素坐标生成模块:用于在影像视图中构建视图像素坐标系,获取特征点在视图像素坐标系中的坐标位置信息;
经纬坐标生成模块:用于将视图像素坐标系位置转化为三维世界经纬坐标系位置。
为了更清楚地阐述本实施例中提供的定位系统,下面以道路车辆识别定位为例进行具体说明。
对于本实施例中需要使用到的影像视图采集,可以使用TP-LINK TL-IPC633P-A42.0摄像设备(如摄像头)进行采集,建立模型为道路侧视图图像,模拟图如图1所示,其中O为摄像设备对应的地面位置,H为摄像设别距离地面高度,广角、俯仰角分别为摄像设备内部和外部参数。
需要说明的是,其他可以获取目标物图像的CCD摄像机、红外摄像机等设备同样适用于本发明。
目标物识别模块采用物体识别算法对影像视图中的目标物进行识别,并提取影像视图中目标物的特征点。
本实施例中采用的是基于深度学习方法对物体进行识别。其他能够对物体进行识别、特征提取和对目标物进行锚框的算法或方法同样适用于本发明。
物体识别算法模型进行目标物识别前需要进行训练,具体训练过程为:首先截取已有道路上行使车辆的若干视图信息,得到行使车辆的视图数据集。然后利用目标检测标注工具(或人工)对车辆进行标注,并对多种车型的特征进行提取,输入识别算法模型中对所截取到的数据集进行训练,得到训练后的目标物识别算法模型。
需要说明的是,本实施例选用的识别算法及其训练方法是本领域技术人员能够获知的常规技术,且选用的识别算法会根据训练的数据集自动学习对物体(车辆)进行锚框,获得自适应数据集对象边界框预测的预设边界框。本实施例中选择锚框的中心的作为目标物的特征点。
本实施例具体使用YOLOV5算法进行目标识别,首先把图形的尺寸统一并进入入口,做不同卷积盒下的采样,分别进行64、128、256等不同卷积核的特征采样,其结果特征链接起来作为该分类的特征值。然后输出模型,将新的图片作为输入端进入模型,经过模型匹配后得到该图形的分类结果。基于YOLOV5物体识别模型的方法,四种网络深度,采用YOLOV5s,其中在BACKBONE和NECK分别使用CSP1_X,CSP2_X,特征如下:
1)INPUT:Mosaic数据增强,自适应锚框计算、自适应图片缩放
2)BACKBONE:Focus结构,CSP结构
3)NECK:FPN+PAN结构
4)HEAD:Boundingbox损失函数,nms非极大值抑制。
本实施例的识别算法模型中还可以加上追踪算法,分别对车辆赋予相应的ID,可以实现同一辆车多次经过该监测区域时,其ID不变,实现对行使车辆的识别和追踪。
需要说明的是,本实施例中所有的视图数据集均来自现实公路场景,训练的算法更加适应现实场景,识别准确度和效率更高。
视图像素坐标生成模块对特征点在视图像素坐标系中的坐标位置确定方法,是以影像视图左上角为像素坐标系原点位置,构建与视图一比一的视图像素坐标系,获取特征点在视图像素坐标系位置坐标。
经纬坐标生成模块将视图像素坐标系位置转化为三维世界经纬坐标系位置的具体流程包括如下步骤:
本实施例中,以影像视图左上角为像素坐标系原点位置,构建与视图一比一的视图像素坐标系(u,v),其中视图大小为像素a×b;如图2所示,摄像设备位置正前方直线用l表示,道路由靠近l位置距离远近分别用l0,l2,l1表示。
因为在影像视图中存在近大远小原理,视图中像素位置的大小梯度(每个像素所表示实际距离的米数)随着远离摄像头距离逐渐增大,成线性增加,公式如下:
其中s为采集的视图中道路最远点到参考点的距离,ui为影像视图中最远点到参考点的距离线段上第i个像素,n为影像视图中最远点到参考点的距离线段上像素的个数,从该公式可以推算随着道路距离的增加每个像素的实际米数增加的梯度;通过推算可以求得在道路纵向和横向像素随着距离的增加每个像素的表示实际距离的梯度du,该梯度也可以分解到道理的纵向和横两个方向上的梯度。
如图3-5所示,建立实际道路的空间坐标系,以道路方向为正方向纵坐标,道路横向为横坐标,那么通过视图像素坐标系像素梯度可以计算出车辆在实际道路的横向和纵向的偏移距离:
dsy=∑duy×Ny
dsx=∑dux×Nx
其中dsy表示通过像素密度梯度计算得到车辆在道路的空间坐标系中沿道路纵向的偏移量,dsx表示通过像素密度梯度计算得到车辆在道路的空间坐标系中沿道路横向的偏移量(dsy,dsx均为参考点的相对偏移量),Ny、Nx分别表示车辆在视图像素坐标系中分别在纵向和横向梯度方向上的像素数。dux、duy分别表示车辆在视图像素坐标系中纵向梯度和横向梯度。
转化视图像素坐标系位置为三维世界经纬坐标系位置:如图4所示,在道路纵向方向车辆位置偏移量,通过正交分解得到在经纬坐标系中的经度和维度的分别偏移量:
在道路横向方向车辆位置偏移量,通过正交分解得到在经纬坐标系中的经度和维度的分别偏移量:
最后根据偏移量计算出道路方向上车辆在的经纬坐标系中的经纬坐标(lng,lat)为:
lng=g0-lngy+lngx
lat=t0+laty+latx
其中(g0,t0)为视图中或视图外已知的参考点经纬坐标,本实施例选摄像设备所在的经纬度坐标作为参考点进行计算。
通过上述步骤获得车辆三维世界经纬坐标后,可以将实时影像视图与卫星地图联动,对实时影像视图识别出的物体的实时位置在卫星地图上进行标注和显示。本实施例可以通过使用JavaScript语言调用地图,将坐标点(lng,lat)传入网页端显示在国标协议WGS-84的地图中。如图6所示,摄像设备采集视图处理进行车辆识别后得到经纬坐标在地图实时显示的结果。
本发明在视图识别算法技术基础上,通过对采集的视图数据进行深度学习处理,采用识别算法,追踪算法,实现二维坐标到经纬坐标位置转化,应用于道路车辆识别和定位时,可以实现基于视图的车辆实时定位。
如图7所示,本实施例同时提供了一种电子设备,该电子设备可以包括处理器51和存储器52,储存器52内包括目标物识别模块、视图像素坐标生成模块以及经纬坐标生成模块。其中存储器52耦合至处理器51。值得注意的是,该图是示例性的,还可以使用其他类型的结构来补充或替代该结构,实现数据提取、报告生成、通信或其他功能。
如图7所示,该电子设备还可以包括:输入单元53、显示单元54和电源55。值得注意的是,该电子设备也并不是必须要包括图6中显示的所有部件。此外,电子设备还可以包括图7中没有示出的部件,可以参考现有技术。
处理器51有时也称控制器或操作控件,可以包括微处理器或其他处理器装置和/或逻辑装置,该处理器51接收输入并控制电子设备的各个部件的操作。
其中,存储器52例如可以是缓存器、闪存、硬驱、可移动介质、易失性存储器、非易失性存储器或其他合适装置中的一种或多种,可存储上述处理器51的配置信息、处理器51执行的指令、记录的表格数据等信息。处理器51可以执行存储器52存储的程序,以实现信息存储或处理等。在一个实施例中,存储器52中还包括缓冲存储器,即缓冲器,以存储中间信息。
输入单元53例如用于向处理器51提供各个文本报告。显示单元54用于显示处理过程中的各种结果,该显示单元例如可以为LCD显示器,但本发明并不限于此。电源55用于为电子设备提供电力。
本发明实施例还提供一种存储有计算机可读指令的存储介质,其中所述计算机可读指令使得电子设备实现本发明系统中各个模块的功能。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
如上即为本发明的实施例。上述实施例以及实施例中的具体参数仅是为了清楚表述发明验证过程,并非用以限制本发明的专利保护范围,本发明的专利保护范围仍然以其权利要求书为准,凡是运用本发明的说明书及附图内容所作的等同结构变化,同理均应包含在本发明的保护范围内。
Claims (10)
1.一种基于视图采集数据实现实时定位系统,其特征在于,包括:
目标物识别模块:用于对采集到的影像视图中的目标物进行识别,并提取出影像视图中目标物的特征点;
视图像素坐标生成模块:用于在影像视图中构建视图像素坐标系,获取所述目标物的特征点在视图像素坐标系中的坐标位置;
经纬坐标生成模块:用于将目标物的特征点在视图像素坐标系中的坐标位置转化为三维世界经纬坐标系位置。
2.根据权利要求1所述的基于视图采集数据实现实时定位系统,其特征在于:目标物识别模块在识别目标物时,先对目标物进行锚框以确定出目标物所在位置,然后以锚框中的一点或多点作为目标物的特征点。
3.根据权利要求2所述的基于视图采集数据实现实时定位系统,其特征在于:目标物识别模块以锚框的中心的作为目标物的特征点。
4.根据权利要求1所述的基于视图采集数据实现实时定位系统,其特征在于:视图像素坐标生成模块在影像视图中构建视图像素坐标系时,以影像视图左上角为像素坐标系原点位置,构建与影像视图一比一的视图像素坐标系。
5.根据权利要求1所述的基于视图采集数据实现实时定位系统,其特征在于:经纬坐标生成模块将目标物的特征点在视图像素坐标系中的坐标位置转化为三维世界经纬坐标系位置的具体处理包括:
1)视图像素坐标系中,根据如下公式确定出目标物的特征点在视图像素坐标系中的坐标位置表示的实际距离梯度:
其中s为采集的影像视图中最远点到参考点的实际距离,ui为影像视图中最远点到参考点的距离线段上第i个像素,n为影像视图中最远点到参考点的距离线段上像素的个数,du为影像视图中像素的表示实际距离的梯度;
2)建立监测区域的实际的空间坐标系,通过视图像素坐标系像素梯度计算出目标物的特征点在实际的空间坐标系中相对于参考点的横向偏移距离和纵向的偏移距离:
dsy=∑duy×Ny
dsx=∑dux×Nx
其中dsy表示通过像素密度梯度计算得到目标物的特征点在实际的空间坐标系中相对于参考点的纵向偏移量,dsx表示通过像素密度梯度计算得到目标物的特征点在实际的空间坐标系中相对于参考点的横向偏移量,Ny、Nx分别表示目标物的特征点在视图像素坐标系中纵向梯度方向上的像素数和横向梯度方向上的像素数,dux、duy分别表示目标物的特征点在视图像素坐标系中的纵向梯度和横向梯度;
3)在实际的空间坐标系纵向方向目标物位置偏移量,通过正交分解得到在经纬坐标系中的经度偏移量和维度偏移量:
在实际的空间坐标系横向方向目标物位置偏移量,通过正交分解得到在经纬坐标系中的经度偏移量和维度偏移量:
最后根据偏移量计算出目标物的特征点在的经纬坐标系中的经纬坐标(lng,lat)为:
lng=g0-lngy+lngx
lat=t0+laty+latx
其中(g0,t0)为影像视图中或影像视图外已知的参考点的经纬坐标。
6.一种基于视图采集数据实现实时定位方法,该方法基于权利要求1-5中任意一项所述的定位系统实现,其特征在于,包括如下步骤:
对采集到的影像视图中的目标物进行识别,并提取出影像视图中目标物的特征点;
在影像视图中构建视图像素坐标系,获取目标物的特征点在视图像素坐标系中的坐标位置信息;
将目标物的特征点在视图像素坐标系中的坐标位置转化为三维世界经纬坐标系位置。
7.根据权利要求6所述的基于视图采集数据实现实时定位方法,其特征在于:通过预先训练好的识别算法模型对目标物进行识别,所述识别算法模型的训练过程包括如下步骤:
S1、获取多个含有被识别目标物的已有视图作为视图数据集;
S2、利用目标检测标注工具对数据集视图中目标物进行标注;
S3、构建目标物轮廓模型,对标注的目标物进行特征提取;
S4、将视图数据集及提取的特征输入识别算法模型中进行训练,得到训练后的目标物识别算法模型。
8.根据权利要求7所述的基于视图采集数据实现实时定位方法,其特征在于:识别算法模型中加入有追踪算法,分别对目标物赋予相应的ID,进行目标物的识别和追踪。
9.一种电子设备,包括存储器和处理器,其特征在于,所述储存器内存储有权利要求1-5任一所述的基于视图采集数据实现实时定位系统,且所述处理器可执行并实现所述的基于视图采集数据实现实时定位系统中各个组成模块的功能。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现实现权利要求1-5任一所述的基于视图采集数据实现实时定位系统中各个组成模块的功能。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210693351.XA CN115100423B (zh) | 2022-06-17 | 2022-06-17 | 一种基于视图采集数据实现实时定位系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210693351.XA CN115100423B (zh) | 2022-06-17 | 2022-06-17 | 一种基于视图采集数据实现实时定位系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115100423A true CN115100423A (zh) | 2022-09-23 |
CN115100423B CN115100423B (zh) | 2023-10-10 |
Family
ID=83290556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210693351.XA Active CN115100423B (zh) | 2022-06-17 | 2022-06-17 | 一种基于视图采集数据实现实时定位系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115100423B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115641506A (zh) * | 2022-11-04 | 2023-01-24 | 中咨数据有限公司 | 基于深度学习的拌合站遥感影像识别方法、系统及应用 |
CN115914819A (zh) * | 2022-11-01 | 2023-04-04 | 北京拙河科技有限公司 | 一种基于正交分解算法的画面捕捉方法及装置 |
CN116027951A (zh) * | 2023-03-29 | 2023-04-28 | 小米汽车科技有限公司 | 车辆采集数据的可视化方法、装置以及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107273799A (zh) * | 2017-05-11 | 2017-10-20 | 上海斐讯数据通信技术有限公司 | 一种室内定位方法及定位系统 |
CN111046762A (zh) * | 2019-11-29 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 一种对象定位方法、装置电子设备及存储介质 |
CN112818990A (zh) * | 2021-01-29 | 2021-05-18 | 中国人民解放军军事科学院国防科技创新研究院 | 目标检测框的生成方法、图像数据自动标注方法及系统 |
WO2022033076A1 (zh) * | 2020-08-08 | 2022-02-17 | 上海商汤智能科技有限公司 | 目标检测方法、装置、设备、存储介质及程序产品 |
-
2022
- 2022-06-17 CN CN202210693351.XA patent/CN115100423B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107273799A (zh) * | 2017-05-11 | 2017-10-20 | 上海斐讯数据通信技术有限公司 | 一种室内定位方法及定位系统 |
CN111046762A (zh) * | 2019-11-29 | 2020-04-21 | 腾讯科技(深圳)有限公司 | 一种对象定位方法、装置电子设备及存储介质 |
WO2022033076A1 (zh) * | 2020-08-08 | 2022-02-17 | 上海商汤智能科技有限公司 | 目标检测方法、装置、设备、存储介质及程序产品 |
CN112818990A (zh) * | 2021-01-29 | 2021-05-18 | 中国人民解放军军事科学院国防科技创新研究院 | 目标检测框的生成方法、图像数据自动标注方法及系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115914819A (zh) * | 2022-11-01 | 2023-04-04 | 北京拙河科技有限公司 | 一种基于正交分解算法的画面捕捉方法及装置 |
CN115914819B (zh) * | 2022-11-01 | 2024-03-12 | 北京拙河科技有限公司 | 一种基于正交分解算法的画面捕捉方法及装置 |
CN115641506A (zh) * | 2022-11-04 | 2023-01-24 | 中咨数据有限公司 | 基于深度学习的拌合站遥感影像识别方法、系统及应用 |
CN116027951A (zh) * | 2023-03-29 | 2023-04-28 | 小米汽车科技有限公司 | 车辆采集数据的可视化方法、装置以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115100423B (zh) | 2023-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115100423B (zh) | 一种基于视图采集数据实现实时定位系统及方法 | |
TWI722355B (zh) | 用於基於障礙物檢測校正高清晰度地圖的系統和方法 | |
CN103150786B (zh) | 一种非接触式无人驾驶车辆行驶状态测量系统及测量方法 | |
CN113657224B (zh) | 车路协同中用于确定对象状态的方法、装置、设备 | |
CN112419385B (zh) | 一种3d深度信息估计方法、装置及计算机设备 | |
CN110969663A (zh) | 一种相机外部参数的静态标定方法 | |
CN110738121A (zh) | 一种前方车辆检测方法及检测系统 | |
CN111141311B (zh) | 一种高精度地图定位模块的评估方法及系统 | |
CN114755662B (zh) | 一种路车融合感知的激光雷达和gps的标定方法和装置 | |
CN109345599B (zh) | 一种地面坐标与ptz摄像机的坐标转换方法及系统 | |
CN112257605A (zh) | 基于自标注训练样本的三维目标检测方法、系统及装置 | |
CN107886051A (zh) | 基于图像的船舶身份识别方法 | |
CN114037762B (zh) | 基于图像与高精度地图配准的实时高精度定位方法 | |
CN103093459A (zh) | 利用机载LiDAR点云数据辅助影像匹配的方法 | |
CN115588040A (zh) | 一种基于全视图成像点坐标统计定位系统及方法 | |
CN114419098A (zh) | 基于视觉变换的运动目标轨迹预测方法及装置 | |
CN116310679A (zh) | 多传感器融合目标检测方法、系统、介质、设备及终端 | |
US11810322B2 (en) | Camera pose estimation techniques | |
CN111046809B (zh) | 一种障碍物检测方法、装置、设备及计算机可读存储介质 | |
CN115077563A (zh) | 车辆定位精度评价方法、装置及电子设备 | |
EP3825804A1 (en) | Map construction method, apparatus, storage medium and electronic device | |
CN110992291A (zh) | 基于三目视觉的测距方法、系统及存储介质 | |
CN112580402B (zh) | 一种单目视觉行人测距方法及其系统、车辆、介质 | |
CN108009508B (zh) | 基于景深估计运动物体视觉检测方法与系统 | |
CN113192011A (zh) | 一种基于监控视频图像的交通事故车速测量方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |