CN113532390B - 一种基于人工智能技术的目标定位方法、装置及存储介质 - Google Patents

一种基于人工智能技术的目标定位方法、装置及存储介质 Download PDF

Info

Publication number
CN113532390B
CN113532390B CN202110681355.1A CN202110681355A CN113532390B CN 113532390 B CN113532390 B CN 113532390B CN 202110681355 A CN202110681355 A CN 202110681355A CN 113532390 B CN113532390 B CN 113532390B
Authority
CN
China
Prior art keywords
angle
target object
dimensional scene
ray
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110681355.1A
Other languages
English (en)
Other versions
CN113532390A (zh
Inventor
卢毅然
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Linghui Information Technology Co ltd
Original Assignee
Guangzhou Linghui Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Linghui Information Technology Co ltd filed Critical Guangzhou Linghui Information Technology Co ltd
Priority to CN202110681355.1A priority Critical patent/CN113532390B/zh
Publication of CN113532390A publication Critical patent/CN113532390A/zh
Application granted granted Critical
Publication of CN113532390B publication Critical patent/CN113532390B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01C11/025Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于人工智能技术的目标定位方法及装置,该方法包括:采用人工智能技术获取目标对象在画面中的位置及范围;利用投影成像原理,根据镜头特性将所述位置及范围转换成所述目标对象视野角度内的相对角度;将所述现场监控设备的角度作为射线的基准角度,将所述基准角度与所述相对角度进行角度叠加得到射线角度;以所述监控设备的现场位置为射线的起始位置,以所述射线角度对三维场景模型进行射线交汇测量,得到目标对像在所述三维模型中的空间位置。本发明采用人工智能技术检测目标对象在画面中的位置及范围,并结合投影成像原理对三维场景模型进行交汇测量,从而准确获取目标对象在三维场景模型中的空间位置。

Description

一种基于人工智能技术的目标定位方法、装置及存储介质
技术领域
本发明涉及摄影测量定位技术领域,尤其是涉及一种基于人工智能技术的目标定位方法、装置及存储介质。
背景技术
对目标进行精准定位是测量技术领域中一个重要方向,随着现代信息社会快速发展,对目标进行精准定位的需求日益强烈,且目标定位技术广泛应用于各个领域中,包括国民经济关键领域、公共服务及军事领域等。目前实现人员或车辆等目标对象的定位方法包括:通过卫星定位系统进行定位,以及通过通信基站定位技术实现目标对象的定位。但是现有的目标定位方法存在定位精度偏差问题,通常会有2-3米甚至更高的定位偏差,导致对目标对象的定位精度较差。
发明内容
本发明提供一种基于人工智能技术的目标定位方法、装置及存储介质,以解决现有的目标定位方法存在较大的定位精度偏差,导致定位不准确的技术问题。
本发明的第一实施例提供了一种基于人工智能技术的目标定位方法,包括:
采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测,获取目标对象在画面中的位置及范围;
利用投影成像原理,根据镜头特性将所述位置及范围转换成所述目标对象视野角度内的相对角度;
将所述现场监控设备的角度作为射线的基准角度,将所述基准角度与所述相对角度进行角度叠加得到射线角度;
以所述监控设备的现场位置为射线的起始位置,以所述射线角度对三维场景模型进行射线交汇测量,得到目标对象在所述三维模型中的空间位置。
进一步的,所述三维场景模型的制作方法包括但不限于采用倾斜摄影技术制作、采用激光点云测量技术制作以及采用现场测绘技术制作,所述三维场景模型是按照现实场景对应比例进行制作。
进一步的,所述利用投影成像原理,根据镜头特性将所述位置及范围转换成所述目标对象视野角度内的相对角度,具体为:
利用投影成像原理,根据镜头特性将所述现场监控设备的二维图像进行反向角度换算计算得到所述目标对象视野角度内的相对角度。
进一步的,所述射线交汇测量的方法包括:
以所述起始位置和所述射线角度发射射线至由网格面组成的三维场景模型,将所述射线与所述三维场景模型的网格面的交汇点作为所述目标对象在所述三维模型中的空间位置;或,
以所述起始位置和所述射线角度发射射线至由点云组成的三维场景模型,将所述射线与所述三维场景的点云的交汇点作为所述目标对象在所述三维模型中的空间位置。
进一步的,在“以所述监控设备的现场位置为射线的起始位置,以所述射线角度对三维场景模型进行射线交汇测量,得到目标对像的在所述三维模型中的空间位置”之后,还包括:
将三维场景模型的地理空间坐标与目标对象在三维场景模型中的空间位置进行叠加,得到目标对象的地理空间坐标。
进一步的,在得到目标对象在所述三维模型中的空间位置之后,还包括:
根据所述获取目标对象在画面中的位置及范围,并将目标影像范围边界进行对应的反向角度换算计算得到视野角度内的相对角度,根据所述获得的目标对象空间位置,监控设备的空间位置及目标范围边界对应的角度,通过计算得到所述目标对象的实际尺寸。
进一步的,所述目标定位方法还包括:获取第一时间内目标对像在所述三维模型中的空间位置,得到所述目标对象的移动轨迹和移动速度。
本发明的第二实施例提供了一种基于人工智能技术的目标定位装置,包括:
目标检测模块,用于采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测,获取目标对象在画面中的位置及范围;
角度转换模块,用于利用投影成像原理,根据镜头特性将所述位置及范围转换成所述目标对象视野角度内的相对角度;
角度叠加模块,用于将所述现场监控设备的角度作为射线的基准角度,将所述基准角度与所述相对角度进行角度叠加得到射线角度;
射线测量模块,以所述监控设备的现场位置为射线的起始位置,以所述射线角度对三维场景模型进行射线交汇测量,得到目标对像在所述三维模型中的空间位置。
本发明的第三实施例提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如上述的目标定位方法。
本发明实施例采用人工智能技术检测目标对象在画面中的位置及范围,并结合投影成像原理对三维场景模型进行交汇测量,从而准确获取目标对象在三维场景模型中的空间位置,提高对目标对象的空间定位精度。
附图说明
图1是本发明实施例提供的基于人工智能技术的目标定位方法的流程示意图;
图2是本发明实施例提供的基于人工智能技术的目标定位装置的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请的描述中,需要理解的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本申请的描述中,除非另有说明,“多个”的含义是两个或两个以上。
在本申请的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本申请中的具体含义。
请参照图1,本发明的第一实施例提供了一种基于人工智能技术的目标定位方法,包括:
S1、采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测,获取目标对象在画面中的位置及范围;
S2、利用投影成像原理,根据镜头特性将位置及范围转换成目标对象视野角度内的相对角度;
S3、将现场监控设备的角度作为射线的基准角度,将基准角度与相对角度进行角度叠加得到射线角度;
S4、以监控设备的现场位置为射线的起始位置,以射线角度对三维场景模型进行射线交汇测量,得到目标对像在三维模型中的空间位置。
本发明实施例采用人工智能技术检测目标对象在画面中的位置及范围,并结合投影成像原理对三维场景模型进行交汇测量,从而准确获取目标对象在三维场景模型中的空间位置,提高对目标对象的空间定位精度。
进一步的,本发明实施例还在目标对象在三维场景模型中的相对空间坐标的基础上,叠加三维场景模型的地理空间位置得到目标对象的地理空间位置,从而能够进一步提高目标对象空间定位的准确性。
作为本发明实施例的一种具体实施方式,三维场景模型的制作方法包括但不限于采用倾斜摄影技术制作、采用激光点云测量技术制作以及采用现场测绘技术制作,三维场景模型是按照现实场景对应比例进行制作。
在本实施例中,在实际应用计算时,当三维场景模型与现实场景尺寸一致时,可直接进行计算,当三维场景模型与现实尺寸不同但对应比例一致时,如三维场景模型与现实场景比例是1:100时,通过射线测量获取空间位置后进行100:1的倍数计算,可以算出实际的空间位置。本领域人员知晓,三维场景模型可以按照对应比例进行制作,不论实际操作中选取何种比例的三维场景模型,都在本发明的保护范围内。
可选地,在采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测之前,需要预先制作与现实场景尺寸一致的三维场景模型,三维场景模型的制作方法包括但不限于采用倾斜摄影技术制作、采用激光点云测量技术制作以及采用现场测绘技术制作。可以理解的是,在制作得到与现实场景尺寸一致的三维场景模型后,能够得到与现实场景对应的三维网格或点云数据。
作为本发明实施例的一种具体实施方式,利用投影成像原理,根据镜头特性将位置及范围转换成目标对象视野角度内的相对角度,具体为:
利用投影成像原理,根据镜头特性将所述现场监控设备的二维图像进行反向角度换算计算得到所述目标对象视野角度内的相对角度。
本发明实施例以现场监控设备的角度为基准角度,在此基础上叠加目标对象视野角度内的相对角度得到射线角度,在确定了射线的起始位置以及射线角度后,以射线交汇测量方法能够准确获取目标对象在三维场景模型中的空间位置。
作为本发明实施例的一种具体实施方式,射线交汇测量的方法包括:
以起始位置和射线角度发射射线至由网格面组成的三维场景模型,将射线与三维场景模型的网格面的交汇点作为目标对像在三维模型中的空间位置;
或,
以起始位置和射线角度发射射线至由点云组成的三维场景模型,将射线与三维场景的点云的交汇点作为目标对象在三维模型中的空间位置。
在本发明实施例中,所述网格面可以为三角面或四角面构成。
在本发明实施例中,通过确定射线的起始位置以及射线的发射角度,根据射线与三维场景的交汇能够准确获得目标对象的空间位置,
作为本发明实施例的一种具体实施方式,在“以监控设备的现场位置为射线的起始位置,以射线角度对三维场景模型进行射线交汇测量,得到目标对像的在三维模型中的空间位置”之后,还包括:
将目标对象在三维场景模型中的空间位置与三维场景模型的地理空间位置进行叠加,得到目标对象的地理空间位置。
可选地,三维场景模型的地理空间坐标的获取方法为:将三维模型中的静态元素与其对应的真实现场的静态元素进行空间校准,将三维模型中的静态元素校准到与真实现场的静态元素一致,校准属性包括但不限于经纬度、海拔高度和旋转角度。本发明实施例通过空间校准的方法获取三维场景模型的地理空间位置,将目标对象在三维场景模型中的相对空间坐标与三维场景模型的地理空间坐标进行叠加,所得到的目标对象地理空间位置不仅包括经纬度,还包括海拔高度和旋转角度,从而有效提高对目标对象进行空间定位的全面性。
作为本发明实施例的一种具体实施方式,在得到目标对象在所述三维模型中的空间位置之后,还包括:
根据所述获取目标对象在画面中的位置及范围,并将目标影像范围边界进行对应的反向角度换算计算得到视野角度内的相对角度,根据所述获得的目标对象空间位置,监控设备的空间位置及目标范围边界对应的角度,通过计算得到所述目标对象的实际尺寸。
根据采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测,获取目标对象在画面中的位置及范围,并将目标影像范围边界进行对应的反向角度换算计算得到视野角度内的相对角度,根据所述获得的目标对象空间位置,监控设备的空间位置及目标范围边界对应的角度,通过计算得到所述目标对象的实际尺寸,能够准确得到目标对象的实际尺寸,从而能够进一步提目标对象的定位效果。
实施本发明实施例,具有以下有益效果:
本发明实施例采用人工智能技术检测目标对象在画面中的位置及范围,并结合投影成像原理对三维场景模型进行交汇测量,从而准确获取目标对象在三维场景模型中的空间位置,提高对目标对象的空间定位精度。
进一步的,本发明实施例还在目标对象在三维场景模型中的相对空间坐标的基础上,叠加三维场景模型的地理空间坐标得到目标对象的地理空间位置,从而能够进一步提高目标对象空间定位的准确性。
进一步的,所述目标定位方法还包括:获取第一时间内目标对象在所述三维模型中的空间位置信息,得到所述目标对象的移动轨迹和移动速度。将第一时间内获取到的目标对象的空间位置信息作为一个数据集,通过计算和转化可以得到目标对象的移动轨迹和移动速度,且所述移动轨迹可以展示在三维场景模型中,方便向使用者展现目标对象的移动轨迹。获取到目标对象的移动轨迹和移动轨迹可以存储于数据库中,方便后续查询目标对象的移动轨迹和移动速度。
请参阅图2,本发明的第二实施例提供了一种基于人工智能技术的目标定位装置,包括:
目标检测模块10,用于采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测,获取目标对象在画面中的位置及范围;
角度转换模块20,用于利用投影成像原理,根据镜头特性将位置及范围转换成目标对象视野角度内的相对角度;
角度叠加模块30,用于将现场监控设备的角度作为射线的基准角度,将基准角度与相对角度进行角度叠加得到射线角度;
射线测量模块40,以监控设备的现场位置为射线的起始位置,以射线角度对三维场景模型进行射线交汇测量,得到目标对像在三维模型中的空间位置。
本发明实施例采用人工智能技术检测目标对象在画面中的位置及范围,并结合投影成像原理对三维场景模型进行射线交汇测量,从而准确获取目标对象在三维场景模型中的空间位置,提高对目标对象的空间定位精度。
进一步的,本发明实施例还在目标对象在三维场景模型中的相对空间坐标的基础上,叠加三维场景模型的地理空间坐标得到目标对象的地理空间位置,从而能够进一步提高目标对象空间定位的准确性。
作为本发明实施例的一种具体实施方式,三维场景模型的制作方法包括但不限于采用倾斜摄影技术制作、采用激光点云测量技术制作以及采用现场测绘技术制作,三维场景模型是按照与现实场景对应比例进行制作。
可选地,在采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测之前,需要预先制作与现实场景尺寸一致的三维场景模型,三维场景模型的制作方法包括但不限于采用倾斜摄影技术制作、采用激光点云测量技术制作以及采用现场测绘技术制作。可以理解的是,在制作得到与现实场景尺寸一致的三维场景模型后,能够得到与现实场景对应的三维网格或点云数据。
作为本发明实施例的一种具体实施方式,角度转换模块20,具体用于为:
利用投影成像原理,根据镜头特性将所述现场监控设备的二维图像进行反向角度换算计算得到所述目标对象视野角度内的相对角度。
本发明实施例以现场监控设备的角度为基准角度,在此基础上叠加目标对象视野角度内的相对角度得到射线角度,在确定了射线的起始位置以及射线角度后,以射线交汇测量方法能够准确获取目标对象在三维场景模型中的空间位置,
作为本发明实施例的一种具体实施方式,射线交汇测量的方法包括:
以起始位置和射线角度发射射线至由网格面组成的三维场景模型,将射线与三维场景模型的网格面的交汇点作为目标对像在三维模型中的空间位置;或,
以起始位置和射线角度发射射线至由点云组成的三维场景模型,将射线与三维场景的点云的交汇点作为目标对象在三维模型中的空间位置。
在本发明实施例中,通过确定射线的起始位置以及射线的发射角度,根据射线与三维场景的交汇能够准确获得目标对象的空间位置,
作为本发明实施例的一种具体实施方式,还包括坐标叠加模块,用于:
将三维场景模型的地理空间坐标与目标对象在三维场景模型中的空间位置进行叠加,得到目标对象的地理空间坐标。
可选地,三维场景模型的地理空间坐标的获取方法为:将三维模型中的静态元素与其对应的真实现场的静态元素进行空间校准,将三维模型中的静态元素校准为与真实现场的静态元素一致,静态元素包括但不限于经纬度、海拔高度和旋转角度。本发明实施例通过空间校准的方法获取三维场景模型的地理空间位置,在将该地理空间位置叠加在目标对象在三维场景模型中的相对空间位置,所得到的目标对象空间位置不仅包括经纬度信息,还包括海拔高度和旋转角度信息,从而有效提高对目标对象进行空间定位的全面性。
作为本发明实施例的一种具体实施方式,还包括尺寸计算模块,用于:
根据目标对象在画面中的尺寸计算得到目标对象的实际尺寸。
目标对象的实际尺寸包括目标对象的高度信息和宽度信息,本发明实施例根据采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测,获取目标对象在画面中的位置及范围,并将目标影像范围边界进行对应的反向角度换算计算得到视野角度内的相对角度,根据所述获得的目标对象空间位置,监控设备的空间位置及目标范围边界对应的角度,通过计算得到所述目标对象的实际尺寸。
实施本发明实施例,具有以下有益效果:
本发明实施例采用人工智能技术检测目标对象在画面中的位置及范围,并结合投影成像原理对三维场景模型进行射线交汇测量,从而准确获取目标对象在三维场景模型中的空间位置,提高对目标对象的空间定位精度。
进一步的,本发明实施例还在目标对象在三维场景模型中的相对空间坐标的基础上,叠加三维场景模型的地理空间坐标得到目标对象的地理空间位置,从而能够进一步提高目标对象空间定位的准确性。
本发明的第三实施例提供了一种计算机可读存储介质,计算机可读存储介质包括存储的计算机程序,其中,在计算机程序运行时控制计算机可读存储介质所在设备执行如上述的基于人工智能技术的目标定位方法。
以上是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

Claims (6)

1.一种基于人工智能技术的目标定位方法,其特征在于,包括:
采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测,获取目标对象在画面中的位置及范围;
利用投影成像原理,根据镜头特性将所述位置及范围转换成所述目标对象视野角度内的相对角度;具体为:
利用投影成像原理,根据镜头特性将所述现场监控设备获取的二维图像进行反向角度换算计算得到所述目标对象在视野角度内的相对角度;
将所述现场监控设备的角度作为射线的基准角度,将所述基准角度与所述相对角度进行角度叠加得到射线角度;
以所述监控设备的现场位置为射线的起始位置,以所述射线角度对三维场景模型进行射线交汇测量,得到目标对象在三维模型中的空间位置;
将三维场景模型的地理空间坐标与目标对象在三维场景模型中的空间位置进行叠加,得到目标对象的地理空间坐标;
根据所述获取目标对象在画面中的位置及范围,并将目标影像范围边界进行对应的反向角度换算计算得到视野角度内的相对角度,根据获得的目标对象空间位置,监控设备的空间位置及目标范围边界对应的角度,通过计算得到所述目标对象的实际尺寸。
2.如权利要求1所述的基于人工智能技术的目标定位方法,其特征在于,所述三维场景模型的制作方法采用倾斜摄影技术制作、采用激光点云测量技术制作以及采用现场测绘技术制作,所述三维场景模型是按照现实场景对应比例进行制作。
3.如权利要求1所述的基于人工智能技术的目标定位方法,其特征在于,所述射线交汇测量的方法包括:
以所述起始位置和所述射线角度发射射线至由网格面组成的三维场景模型,将所述射线与所述三维场景模型网格面的交汇点作为所述目标对象在所述三维模型中的空间位置;或,
以所述起始位置和所述射线角度发射射线至由点云组成的三维场景模型,将所述射线与所述三维场景的点云的交汇点作为所述目标对象在所述三维模型中的空间位置。
4.如权利要求1所述的基于人工智能技术的目标定位方法,其特征在于,所述目标定位方法还包括:
获取第一时间内目标对象在所述三维模型中的空间位置,得到所述目标对象的移动轨迹和移动速度。
5.一种基于人工智能技术的目标定位装置,其特征在于,包括:
目标检测模块,用于采用人工智能技术对现场监控设备采集的影像画面图像进行目标检测,获取目标对象在画面中的位置及范围;
角度转换模块,用于利用投影成像原理,根据镜头特性将所述位置及范围转换成所述目标对象视野角度内的相对角度;具体为:
利用投影成像原理,根据镜头特性将所述现场监控设备获取的二维图像进行反向角度换算计算得到所述目标对象在视野角度内的相对角度;
角度叠加模块,用于将所述现场监控设备的角度作为射线的基准角度,将所述基准角度与所述相对角度进行角度叠加得到射线角度;
射线测量模块,以所述监控设备的现场位置为射线的起始位置,以所述射线角度对三维场景模型进行射线交汇测量,得到目标对象在三维模型中的空间位置;
将三维场景模型的地理空间坐标与目标对象在三维场景模型中的空间位置进行叠加,得到目标对象的地理空间坐标;
以及根据所述获取目标对象在画面中的位置及范围,并将目标影像范围边界进行对应的反向角度换算计算得到视野角度内的相对角度,根据获得的目标对象空间位置,监控设备的空间位置及目标范围边界对应的角度,通过计算得到所述目标对象的实际尺寸。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如上述权利要求1-4任意一项的基于人工智能技术的目标定位方法。
CN202110681355.1A 2021-06-18 2021-06-18 一种基于人工智能技术的目标定位方法、装置及存储介质 Active CN113532390B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110681355.1A CN113532390B (zh) 2021-06-18 2021-06-18 一种基于人工智能技术的目标定位方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110681355.1A CN113532390B (zh) 2021-06-18 2021-06-18 一种基于人工智能技术的目标定位方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN113532390A CN113532390A (zh) 2021-10-22
CN113532390B true CN113532390B (zh) 2023-07-07

Family

ID=78125244

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110681355.1A Active CN113532390B (zh) 2021-06-18 2021-06-18 一种基于人工智能技术的目标定位方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN113532390B (zh)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010127701A (ja) * 2008-11-26 2010-06-10 Fuji Xerox Co Ltd 位置計測装置、認識対象物およびプログラム
CN105716582B (zh) * 2016-02-15 2018-08-28 中林信达(北京)科技信息有限责任公司 摄像机视场角的测量方法、装置以及摄像机视场角测量仪
CN106204656A (zh) * 2016-07-21 2016-12-07 中国科学院遥感与数字地球研究所 基于视频和三维空间信息的目标定位和跟踪系统及方法
CN108680143A (zh) * 2018-04-27 2018-10-19 南京拓威航空科技有限公司 基于远程测距的目标定位方法、装置及无人机
CN109238235B (zh) * 2018-06-29 2020-07-31 华南农业大学 单目序列图像实现刚体位姿参数连续性测量方法
CN109816792A (zh) * 2019-02-02 2019-05-28 珠海金山网络游戏科技有限公司 一种三维场景中的定位方法及装置
CN111836012B (zh) * 2020-06-28 2022-05-13 航天图景(北京)科技有限公司 基于三维场景的视频融合与视频联动方法及电子设备

Also Published As

Publication number Publication date
CN113532390A (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
CN112525162B (zh) 一种无人机测量输电线路影像距离的系统及方法
JP6002126B2 (ja) 画像ベースの測位のための方法および装置
CN110617821B (zh) 定位方法、装置及存储介质
CN107734449B (zh) 一种基于光标签的室外辅助定位方法、系统及设备
CN102359780B (zh) 一种应用于视频监控系统中的定位地面目标的方法
CN103017740B (zh) 一种利用视频监控装置对监控目标的定位方法及定位系统
CN109443321B (zh) 一种监测大型结构形变的串并联像机网络测量方法
CN103196426A (zh) 一种全站仪联合三维激光扫描仪用于建筑测量的方法
CN109859269B (zh) 岸基视频辅助定位无人机大范围流场测量方法及装置
CN101782642B (zh) 多传感器融合的测量目标绝对定位的方法及装置
CN112859130B (zh) 一种野外导航巡查的高精度电子地图位置匹配方法
CN108253942B (zh) 一种提高倾斜摄影测量空三质量的方法
CN102128618B (zh) 主动式动态定位方法
CA3141746C (en) Improvements in and relating to targeting
CN113532390B (zh) 一种基于人工智能技术的目标定位方法、装置及存储介质
WO2022107126A1 (en) Location identification based on terrain model with distance measurement
CN104457756B (zh) 一种基于双机测距的海面物体定位方法
JP5230354B2 (ja) 位置特定装置及び異動建物検出装置
CN114511762A (zh) 一种陆上水下地形一体化测图方法和系统
Shi et al. Reference-plane-based approach for accuracy assessment of mobile mapping point clouds
CN113450462B (zh) 一种三维场景动态元素还原方法、装置及存储介质
Tamimi et al. Performance Assessment of a Mini Mobile Mapping System: Iphone 14 pro Installed on a e-Scooter
Wu et al. An Assessment of Errors Using Unconventional Photogrammetric Measurement Technology-with UAV Photographic Images as an Example
CN116912320B (zh) 对象高程坐标的定位方法、装置、电子设备及介质
Hernández-López et al. Calibration and direct georeferencing analysis of a multi-sensor system for cultural heritage recording

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant