CN117612046A - 一种基于ai和gis交互实现目标区域地物识别的方法和系统 - Google Patents

一种基于ai和gis交互实现目标区域地物识别的方法和系统 Download PDF

Info

Publication number
CN117612046A
CN117612046A CN202410089392.7A CN202410089392A CN117612046A CN 117612046 A CN117612046 A CN 117612046A CN 202410089392 A CN202410089392 A CN 202410089392A CN 117612046 A CN117612046 A CN 117612046A
Authority
CN
China
Prior art keywords
aerial vehicle
unmanned aerial
target area
video
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202410089392.7A
Other languages
English (en)
Other versions
CN117612046B (zh
Inventor
马志香
石红滨
王亮
王剑飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Cloudcentury Information Technology Co ltd
Original Assignee
Qingdao Cloudcentury Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Cloudcentury Information Technology Co ltd filed Critical Qingdao Cloudcentury Information Technology Co ltd
Priority to CN202410089392.7A priority Critical patent/CN117612046B/zh
Publication of CN117612046A publication Critical patent/CN117612046A/zh
Application granted granted Critical
Publication of CN117612046B publication Critical patent/CN117612046B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于AI和GIS交互实现目标区域地物识别的方法和系统,所述方法包括:通过无人机的定位信息和无人机相机的内参信息获取无人机实时拍摄的视频的视野范围区域;在地图上绘制需要识别的目标区域;计算所述视野范围区域和所述目标区域的交集地理坐标;将所述交集地理坐标转换为像素坐标;将所述像素坐标和无人机实时拍摄的视频传递给AI模型,以使得所述AI模型根据所述像素坐标对所述视频进行裁剪,进而只对裁剪后的视频中的目标进行识别,以解决相关技术中无人机无法针对性的满足特定区域的目标识别需求的技术问题。

Description

一种基于AI和GIS交互实现目标区域地物识别的方法和系统
技术领域
本发明涉及无人机AI识别技术领域,特别是一种基于AI和GIS交互实现目标区域地物识别的方法和系统。
背景技术
目前,无人机在进行低空区域的目标识别时,只能对无人机拍摄到的全部范围内的目标进行AI识别,但是无法识别某一特定区域的目标,导致无人机目标识别作业不够灵活,无法针对性的满足特定区域的目标识别需求。
针对上述相关技术中无人机无法针对性的满足特定区域的目标识别需求的技术问题,目前尚未提出有效的解决方案。
发明内容
本发明的目的在于克服上述技术不足,提供一种基于AI和GIS交互实现目标区域地物识别的方法和系统,以解决相关技术中无人机无法针对性的满足特定区域的目标识别需求的技术问题。
为达到上述技术目的,本发明采取了以下技术方案:根据本发明的一个方面,提供了一种基于AI和GIS交互实现目标区域地物识别的方法,包括:
通过无人机的定位信息和无人机相机的内参信息获取无人机实时拍摄的视频的视野范围区域;
在地图上绘制需要识别的目标区域;
计算所述视野范围区域和所述目标区域的交集地理坐标;
将所述交集地理坐标转换为像素坐标;
将所述像素坐标和无人机实时拍摄的视频传递给AI模型,以使得所述AI模型根据所述像素坐标对所述视频进行裁剪,进而只对裁剪后的视频中的目标进行识别。
可选的,所述方法还包括:
将所述无人机实时拍摄的视频显示在web端;
若所述目标区域被所述视频的一个视频帧完全覆盖,则在所述web端的所述视频帧中直接绘制需要识别的目标区域,并生成所述目标区域的像素坐标,再将所述像素坐标传递给AI模型。
可选的,所述内参信息包括:云台俯仰角、云台偏航角、无人机偏航角、飞行高度、经度、纬度、视频分辨率宽、视频分辨率高,以及,焦距。
可选的,所述通过无人机的定位信息和无人机相机的内参信息获取无人机实时拍摄的视频的视野范围区域,具体包括:
根据无人机云台的相机内参计算视场角度;
根据所述视场角度、云台俯仰角、无人机偏航角和云台偏航角计算无人机拍摄视频在地面投影范围内的四个顶点的相对坐标;
根据所述相对坐标计算地面投影范围四个顶点的地理坐标;
计算像素坐标与地理坐标相互转换的单应性矩阵。
可选的,所述计算所述视野范围区域和所述目标区域的交集地理坐标,具体包括:
若无人机视野范围区域全部在待识别的目标区域范围内,则返回全部无人机视野范围区域进行识别;若仅有一部分在目标区域的范围内则需要计算无人机视野范围区域和目标区域的边线是否相交,若相交则计算交点,并将交点沿顺时针方向和无人机视野范围区域的顶点组成交集区域。
根据本发明的另一个方面,还提供了一种基于AI和GIS交互实现目标区域地物识别的系统,包括:
视野范围获取单元,用于通过无人机的定位信息和无人机相机的内参信息获取无人机实时拍摄的视频的视野范围区域;
目标区域绘制单元,用于在地图上绘制需要识别的目标区域;
交集坐标计算单元,用于计算所述视野范围区域和所述目标区域的交集地理坐标;
坐标转换单元,用于将所述交集地理坐标转换为像素坐标;
目标识别单元,用于将所述像素坐标和无人机实时拍摄的视频传递给AI模型,以使得所述AI模型根据所述像素坐标对所述视频进行裁剪,进而只对裁剪后的视频中的目标进行识别。
根据本发明的另一个方面,还提供了一种电子设备,包括:处理器和存储器;
所述存储器上存储有可被所述处理器执行的计算机可读程序;
所述处理器执行所述计算机可读程序时实现如上述的方法中的步骤。
根据本发明的另一个方面,还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述的方法中的步骤。
本发明提供的一种基于AI和GIS交互实现目标区域地物识别的方法和系统,在地图上绘制需要识别的目标区域,通过计算所述视野范围区域和所述目标区域的交集地理坐标,将交集地理坐标转换为像素坐标,然后将所述像素坐标和无人机实时拍摄的视频传递给AI模型,以使得AI模型根据像素坐标对视频进行裁剪,进而只对裁剪后的视频中的目标进行识别,如此,用户就可以根据实际识别需求,对特定区域进行绘制,并仅识别该特定区域内的目标,以解决相关技术中无人机无法针对性的满足特定区域的目标识别需求的技术问题。
附图说明
图1为本发明实施例提供的一种基于AI和GIS交互实现目标区域地物识别的方法的流程示意图;
图2为在图1实施例提供的方法基础上,提供的一种基于AI和GIS交互实现目标区域地物识别的方法的流程示意图;
图3为本发明实施例中根据无人机云台的相机内参计算视场角度的几何示意图;
图4为本发明实施例中无人机与拍摄画面中心点的水平距离的几何示意图;
图5为本发明实施例中计算无人机与地面投影范围垂直距离的几何示意图;
图6为本发明实施例中计算地面投影范围四个顶点和梯形中心点的相对坐标的几何示意图;
图7为无人机偏航角和云台偏航角旋转后地面投影范围的几何示意图;
图8为本发明实施例提供的一种基于AI和GIS交互实现目标区域地物识别系统的结构示意图;
图9是可实现本发明实施例的基于AI和GIS交互实现目标区域地物识别的方法的终端的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
相关技术中,无人机无法针对性的满足特定区域的目标识别需求。目前,尚没有一种较好的解决方案。
基于上述问题,本发明提出一种基于AI和GIS交互实现目标区域地物识别的方法和系统,以解决相关技术中的上述技术问题。下面进行详细介绍。
实施例一
根据本发明的实施例,提供了一种基于AI和GIS交互实现目标区域地物识别的方法,结合图1,具体包括:
步骤S101,通过无人机的定位信息和无人机相机的内参信息获取无人机实时拍摄的视频的视野范围区域。
进一步地,在步骤S101中,还将视野范围的坐标展示在地图上。
步骤S103,在地图上绘制需要识别的目标区域。
在步骤S103中,用户可以根据对特定区域的目标识别需求,在地图上绘制出该特定区域,即需要识别的目标区域。
步骤S105,计算所述视野范围区域和所述目标区域的交集地理坐标;
步骤S107,将所述交集地理坐标转换为像素坐标;
步骤S109,将所述像素坐标和无人机实时拍摄的视频传递给AI模型,以使得所述AI模型根据所述像素坐标对所述视频进行裁剪,进而只对裁剪后的视频中的目标进行识别。
在步骤S105-S109中,由于系统已经计算出无人机拍摄视频的视野范围区域和待识别的目标区域的交集地理坐标,将其转化为图像的像素坐标后,可以调用图像识别的AI模型,对视频进行裁剪,裁剪出的视频即为目标区域,对该裁剪后的视频进行识别,即是在对绘制的目标区域进行识别,从而实现对特定区域目标AI识别的效果。
在一些实施例中,所述方法还包括:
步骤S111,将所述无人机实时拍摄的视频显示在web端;
步骤S113,若所述目标区域被所述视频的一个视频帧完全覆盖,则在所述web端的所述视频帧中直接绘制需要识别的目标区域,并生成所述目标区域的像素坐标,再将所述像素坐标传递给AI模型。
这种情况下要识别的范围全部在一个无人机视频帧中,因此可以直接在web端的视频帧中绘制目标区域,在web端绘制即在视频中绘制,绘制后的区域与视频的交集为视频帧的一部分,且由于是在视频中直接绘制,因此返回坐标为像素坐标,直接传递给AI模型即可,如此,可以提升目标区域的绘制和识别效率。而在其他情况中,无人机要巡检的范围很大,一个视频帧没有办法包含所有要识别的目标区域,这种情况下需要在gis地图中绘制(即步骤S103)。
图2为在图1实施例的基础上,本发明提供的一种基于AI和GIS交互实现目标区域地物识别的方法,具体包括:从无人机实时视频中获取无人机返回的gps信息和相机内参信息,然后进行计算,得到无人机拍摄视频的视野范围坐标范围。地图端接收到无人机摄像机拍摄的坐标范围后,结合在地图端绘制要识别的目标区域,计算交集地理坐标,然后进行坐标转换,将地理坐标转换为像素坐标,经过MQTT传输给AI模型。另一方面,后台调取视频,也传输给AI模型,AI模型根据坐标实时裁剪视频,然后对裁剪后的视频进行预测识别。
此外,无人机实时视频还在web端视频展示,若待识别目标区域位于一个视频帧中,可以在视频帧中绘制视频中的目标区域,生成像素坐标kml文件,然后经过mqtt传输像素坐标给AI模型。
作为一个示例,在步骤S101中,内参信息包括云台俯仰角pitch、云台偏航角 yaw、无人机偏航角 head、飞行高度 h、经度 lat、纬度 lon、视频分辨率宽 width、视频分辨率高 height、焦距 focal_len等。基于这些内参信息,可以通过如下步骤计算无人机拍摄的视野范围。具体而言,包括如下步骤:
步骤S1011,根据无人机云台的相机内参计算视场角度;
结合图3,视场角度包括垂直视场角度Vfov和水平视场角度Hfov,结合接收光源的无人机云台相机的图像传感器芯片尺寸以及焦距,垂直视场角度Vfov和水平视场角度Hfov可以通过如下方式计算得到:
Vfov = 2 * arctan(芯片高度 / 2 / focal_len)
Hfov = 2 * arctan(芯片宽度 / 2 / focal_len)
步骤S1012,计算无人机拍摄的视频在地面投影范围的四个顶点的相对坐标。具体包括:
(1)计算无人机与拍摄区域最近边水平距离。
结合图4,其中,第一角度angle1 = (pi / 2 + pitch - Vfov / 2) ,即云台角度-相机内参角度,云台垂直向下是-90度。
无人机与拍摄区域最近边水平距离x_near = h * tan(angle1)。
(2)计算无人机与地面投影范围最远边水平距离。
第二角度angle2 = (pi / 2 + pitch + Vfov / 2) ,即云台角度+相机内参角度。
无人机与地面投影范围最远边水平距离x_far = h * tan(angle2)。
(3)无人机与拍摄画面中心点的水平距离。
x0 = h*tan(pi/2+Pitch)
(4)计算无人机与地面投影范围垂直距离,结合图5,其中:
最近垂直距离y_near = h / cos(angle1) * tan(Hfov / 2)
最远垂直距离y_far = h / cos(angle2) * tan(Hfov / 2)
距离投影范围中心点的距离:y0 = h/cos(pi/2+pitch)* tan(Hfov / 2)
(5)计算地面投影范围四个顶点和梯形中心点的相对坐标。
结合图6,四个顶点相对无人机的坐标为:(x_near, y_near)、(x_near, -y_near)、(x_far, y_far)、(x_far, -y_far)。
中心点坐标为:(x0.y0)。
然后,得到无人机偏航角和云台偏航角旋转后(结合图7)四个顶点相对坐标为:
(x_near * cos(head + yaw) - y_near * sin(head + yaw), x_near * sin(head + yaw) + y_near * cos(head + yaw))、
(x_near * cos(head + yaw) + y_near * sin(head + yaw), x_near * sin(head + yaw) - y_near * cos(head + yaw))、
(x_far* cos(head + yaw) - y_far* sin(head + yaw), x_far* sin(head +yaw) + y_far* cos(head + yaw))、
(x_far* cos(head + yaw) + y_far* sin(head + yaw), x_far* sin(head +yaw) - y_far* cos(head + yaw))
中心点偏航坐标为:(x0* cos(head + yaw) + y0* sin(head + yaw), x0* sin(head + yaw) - y0* cos(head + yaw))
步骤S1013,计算地面投影范围四个顶点的地理坐标,具体包括:
(1)将无人机的GPS坐标转换为平面坐标(X,Y),其中:
X = N + k0 * E2* sin(2 * lat) / 2 + (k5 - k4 + k3 * cos(2 * lat) - k2* cos(4 * lat) + k1 * cos(6 * lat)) * sin(lon - L0)
Y = M + k0 * E2* sin(lat) * cos(lat) * (1 + E2* cos(lat)2) / 2 + (k6 -k3 * cos(2 * lat) + k2 * cos(4 * lat) - k1 * cos(6 * lat)) * sin(2 * (lon -L0)) / 2。其中:
N和M为常数,E为椭球的偏心率,k0~k6为系数,L0为中央经线。
(2)计算地面投影范围四个顶点的经纬度坐标和中心点的经纬度坐标,具体包括:
根据无人机平面坐标与顶点的相对坐标计算顶点的平面坐标为:
neu_X = X + x
neu_Y = Y + y
其中x, y为步骤S1012的子步骤(4)中,无人机视频地面投影范围四个顶点的相对坐标,将计算后的顶点平面坐标neu_X,neu_Y转为经纬度坐标lon,lat。
步骤S1014,计算像素坐标与地理坐标相互转换的单应性矩阵,具体包括:
=/>
其中,x1,y1为经纬度坐标,x2、y2为像素坐标。
矩阵展开成方式的形式:
写成矩阵AH = 0形式:
= 0
求出单应性矩阵之后,就可以进行像素坐标和地理坐标的互通转换,像素坐标可以在web端的视频帧中自由绘制,像素坐标通过单应性矩阵转换为地理坐标;同样在webgis端绘制由地理坐标组成的面,同样可以通过单应性矩阵转换为像素坐标并发送到指定主题下,以进行调用。
在步骤S105中,计算所述视野范围区域和所述目标区域的交集地理坐标,具体包括:
假设无人机视野范围的地理坐标为:a1(x1,y1),a2(x2,y2),a3(x3,y3),a4(x4,y4);
要识别目标区域的地理坐标(从左下角顺时针绘制)为:b1(x11,y11),b2(x22,y22),b3(x33,y33),b4(x44,y44);
步骤S1051,将无人机视野范围的四条边和目标区域的四条边分别表示出来:
无人机视野范围的第一边Line_a1 = [a1,a2],第二边Line_a2 = [a2,a3],第三边Line_a3 = [a3,a4],第四边Line_a4 = [a4,a1]
目标区域的第一边Line_b1 = [b1,b2],第二边Line_b2 = [b2,b3],第三边Line_b3 = [b3,b4],第四边Line_b4 = [b4,b1]。
步骤S1052,如果无人机视野范围全部在要识别的目标区域范围内,则返回全部识别;如果有一部分在目标区域的范围内则需要执行如下计算:
(1)先判断两条直线是否相交:det(a, b) = a[0] * b[1]- a[1] * b[0]
(2)若相交,则计算交点。
以Line_a1线和Line_b1线为例判断两线是否相交为例,其中:
d = ( (a1x1*a2x2-a1y1*a2x2),(b1x1*b2y2-b1y1*b2y2) );
xdiff = ( (a1x1-a2x2),(b1x1-b2x2) );
ydiff = ( (a1y1-a2y2),(b1y1-b2y2) );
div = (a1x1-a2x2)*(b1y1-b2y2) - (b1x1-b2x2)*(a1y1-a2y2);
则有:
x=[(a1x1*a2x2-a1y1*a2x2)*(b1x1-b2x2)-(b1x1*b2y2-b1y1*b2y2)*(a1x1-a2x2)]/div;
y=[(a1x1*a2x2-a1y1*a2x2)*(b1y1-b2y2)-(b1x1*b2y2-b1y1*b2y2)*(a1y1-a2y2)]/div;
交点坐标为:(x, y)。
(3)将交点沿顺时针方向和无人机视野范围的顶点组成交集区域,传给单应性矩阵返回像素坐标,AI模型根据像素坐标实时裁剪,即可识别交集区域内的目标。
实施例二
根据本发明的实施例,还提供了一种基于AI和GIS交互实现目标区域地物识别的系统,结合图8,包括:
视野范围获取单元21,用于通过无人机的定位信息和无人机相机的内参信息获取无人机实时拍摄的视频的视野范围区域;
目标区域绘制单元23,用于在地图上绘制需要识别的目标区域;
交集坐标计算单元25,用于计算所述视野范围区域和所述目标区域的交集地理坐标;
坐标转换单元27,用于将所述交集地理坐标转换为像素坐标;
目标识别单元29,用于将所述像素坐标和无人机实时拍摄的视频传递给AI模型,以使得所述AI模型根据所述像素坐标对所述视频进行裁剪,进而只对裁剪后的视频中的目标进行识别。
可选的,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
此处需要说明的是,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例所公开的内容。需要说明的是,上述模块作为装置的一部分可以运行在相应的硬件环境中,可以通过软件实现,也可以通过硬件实现,其中,硬件环境包括网络环境。
图9是根据本申请实施例的一种终端的结构框图,如图9所示,该终端可以包括:一个或多个(仅示出一个)处理器101、存储器103、以及传输装置105,如图9所示,该终端还可以包括输入输出设备107。
其中,存储器103可用于存储软件程序以及模块,如本申请实施例中的方法和装置对应的程序指令/模块,处理器101通过运行存储在存储器103内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的方法。存储器103可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器103可进一步包括相对于处理器101远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
上述的传输装置105用于经由一个网络接收或者发送数据,还可以用于处理器与存储器之间的数据传输。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置105包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置105为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
其中,具体地,存储器103用于存储应用程序。
处理器101可以通过传输装置105调用存储器103存储的应用程序,以执行上述方法的步骤。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
本领域普通技术人员可以理解,上述终端的结构仅为示意,终端可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile InternetDevices,MID)、PAD等终端设备。图9其并不对上述电子装置的结构造成限定。例如,终端还可包括比图9中所示更多或者更少的组件(如网络接口、显示装置等),或者具有与图9所示不同的配置。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read Only Memory,ROM)、随机存取器(RandomAccess Memory,RAM)、磁盘或光盘等。
本申请的实施例还提供了一种存储介质。可选地,在本实施例中,上述存储介质可以用于执行上述方法的程序代码。
可选地,在本实施例中,上述存储介质可以位于上述实施例所示的网络中的多个网络设备中的至少一个网络设备上。
可选地,本实施例中的具体示例可以参考上述实施例中所描述的示例,本实施例在此不再赘述。
可选地,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,Random Access Memory)、移动硬盘、磁碟或者光盘等各种可以存储程序代码的介质。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (8)

1.一种基于AI和GIS交互实现目标区域地物识别的方法,其特征在于,包括:
通过无人机的定位信息和无人机相机的内参信息获取无人机实时拍摄的视频的视野范围区域;
在地图上绘制需要识别的目标区域;
计算所述视野范围区域和所述目标区域的交集地理坐标;
将所述交集地理坐标转换为像素坐标;
将所述像素坐标和无人机实时拍摄的视频传递给AI模型,以使得所述AI模型根据所述像素坐标对所述视频进行裁剪,进而只对裁剪后的视频中的目标进行识别。
2.根据权利要求1所述的基于AI和GIS交互实现目标区域地物识别的方法,其特征在于,所述方法还包括:
将所述无人机实时拍摄的视频显示在web端;
若所述目标区域被所述视频的一个视频帧完全覆盖,则在所述web端的所述视频帧中直接绘制需要识别的目标区域,并生成所述目标区域的像素坐标,再将所述像素坐标传递给AI模型。
3.根据权利要求2所述的基于AI和GIS交互实现目标区域地物识别的方法,其特征在于,所述内参信息包括:云台俯仰角、云台偏航角、无人机偏航角、飞行高度、经度、纬度、视频分辨率宽、视频分辨率高,以及,焦距。
4.根据权利要求3所述的基于AI和GIS交互实现目标区域地物识别的方法,其特征在于,所述通过无人机的定位信息和无人机相机的内参信息获取无人机实时拍摄的视频的视野范围区域,具体包括:
根据无人机云台的相机内参计算视场角度;
根据所述视场角度、云台俯仰角、无人机偏航角和云台偏航角计算无人机拍摄视频在地面投影范围内的四个顶点的相对坐标;
根据所述相对坐标计算地面投影范围四个顶点的地理坐标;
计算像素坐标与地理坐标相互转换的单应性矩阵。
5.根据权利要求1所述的基于AI和GIS交互实现目标区域地物识别的方法,其特征在于,所述计算所述视野范围区域和所述目标区域的交集地理坐标,具体包括:
若无人机视野范围区域全部在待识别的目标区域范围内,则返回全部无人机视野范围区域进行识别;若仅有一部分在目标区域的范围内则需要计算无人机视野范围区域和目标区域的边线是否相交,若相交则计算交点,并将交点沿顺时针方向和无人机视野范围区域的顶点组成交集区域。
6.一种基于AI和GIS交互实现目标区域地物识别的系统,其特征在于,包括:
视野范围获取单元,用于通过无人机的定位信息和无人机相机的内参信息获取无人机实时拍摄的视频的视野范围区域;
目标区域绘制单元,用于在地图上绘制需要识别的目标区域;
交集坐标计算单元,用于计算所述视野范围区域和所述目标区域的交集地理坐标;
坐标转换单元,用于将所述交集地理坐标转换为像素坐标;
目标识别单元,用于将所述像素坐标和无人机实时拍摄的视频传递给AI模型,以使得所述AI模型根据所述像素坐标对所述视频进行裁剪,进而只对裁剪后的视频中的目标进行识别。
7.一种电子设备,其特征在于,包括:处理器和存储器;
所述存储器上存储有可被所述处理器执行的计算机可读程序;
所述处理器执行所述计算机可读程序时实现如权利要求1-5任意一项所述的方法中的步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1-5任意一项所述的方法中的步骤。
CN202410089392.7A 2024-01-23 2024-01-23 一种基于ai和gis交互实现目标区域地物识别的方法和系统 Active CN117612046B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410089392.7A CN117612046B (zh) 2024-01-23 2024-01-23 一种基于ai和gis交互实现目标区域地物识别的方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410089392.7A CN117612046B (zh) 2024-01-23 2024-01-23 一种基于ai和gis交互实现目标区域地物识别的方法和系统

Publications (2)

Publication Number Publication Date
CN117612046A true CN117612046A (zh) 2024-02-27
CN117612046B CN117612046B (zh) 2024-04-26

Family

ID=89958248

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410089392.7A Active CN117612046B (zh) 2024-01-23 2024-01-23 一种基于ai和gis交互实现目标区域地物识别的方法和系统

Country Status (1)

Country Link
CN (1) CN117612046B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012138771A (ja) * 2010-12-27 2012-07-19 Panasonic Corp 映像信号処理装置及び映像信号処理方法
CN103747207A (zh) * 2013-12-11 2014-04-23 深圳先进技术研究院 基于视频监控网络的定位与追踪方法
CN106210643A (zh) * 2016-07-29 2016-12-07 林玉峰 一种摄像机可视区域调用方法
CN107367262A (zh) * 2017-06-17 2017-11-21 周超 一种无人机远距离实时定位测绘显示互联式控制方法
CN108282633A (zh) * 2018-01-09 2018-07-13 深圳飞马机器人科技有限公司 无人机实时视频图像坐标指示方法、系统和终端
CN108287924A (zh) * 2018-02-28 2018-07-17 福建师范大学 一种可定位视频数据采集与组织检索方法
CN109974688A (zh) * 2019-03-06 2019-07-05 深圳飞马机器人科技有限公司 通过无人机定位的方法及终端
CN112132836A (zh) * 2020-08-14 2020-12-25 咪咕文化科技有限公司 视频图像裁剪方法、装置、电子设备及存储介质
CN112330582A (zh) * 2020-12-24 2021-02-05 黑龙江省网络空间研究中心 一种无人机图像与卫星遥感影像融合算法
CN116109657A (zh) * 2023-02-16 2023-05-12 航科院中宇(北京)新技术发展有限公司 地理信息数据采集处理方法、系统、电子设备及存储介质
CN116597013A (zh) * 2023-07-17 2023-08-15 山东产研卫星信息技术产业研究院有限公司 一种基于不同经纬度区域的卫星图像几何定标方法
WO2023216572A1 (zh) * 2022-05-07 2023-11-16 深圳先进技术研究院 一种跨视频目标跟踪方法、系统、电子设备以及存储介质

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012138771A (ja) * 2010-12-27 2012-07-19 Panasonic Corp 映像信号処理装置及び映像信号処理方法
CN103747207A (zh) * 2013-12-11 2014-04-23 深圳先进技术研究院 基于视频监控网络的定位与追踪方法
CN106210643A (zh) * 2016-07-29 2016-12-07 林玉峰 一种摄像机可视区域调用方法
CN107367262A (zh) * 2017-06-17 2017-11-21 周超 一种无人机远距离实时定位测绘显示互联式控制方法
CN108282633A (zh) * 2018-01-09 2018-07-13 深圳飞马机器人科技有限公司 无人机实时视频图像坐标指示方法、系统和终端
CN108287924A (zh) * 2018-02-28 2018-07-17 福建师范大学 一种可定位视频数据采集与组织检索方法
CN109974688A (zh) * 2019-03-06 2019-07-05 深圳飞马机器人科技有限公司 通过无人机定位的方法及终端
CN112132836A (zh) * 2020-08-14 2020-12-25 咪咕文化科技有限公司 视频图像裁剪方法、装置、电子设备及存储介质
CN112330582A (zh) * 2020-12-24 2021-02-05 黑龙江省网络空间研究中心 一种无人机图像与卫星遥感影像融合算法
WO2023216572A1 (zh) * 2022-05-07 2023-11-16 深圳先进技术研究院 一种跨视频目标跟踪方法、系统、电子设备以及存储介质
CN116109657A (zh) * 2023-02-16 2023-05-12 航科院中宇(北京)新技术发展有限公司 地理信息数据采集处理方法、系统、电子设备及存储介质
CN116597013A (zh) * 2023-07-17 2023-08-15 山东产研卫星信息技术产业研究院有限公司 一种基于不同经纬度区域的卫星图像几何定标方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LALA EL HOUMMAIDI 等: "Using unmanned aerial systems and deep learning for agriculture mapping in Dubai", HELIYON, 31 December 2021 (2021-12-31), pages 1 - 14 *
于莉莉;苏晓光;张磊;: "三维GIS中大地球面可视区域计算", 电脑知识与技术, no. 13, 5 May 2018 (2018-05-05), pages 260 - 262 *
魏青 等: "基于无人机多光谱影像的地物识别", 新疆农业科学, vol. 57, no. 5, 31 December 2020 (2020-12-31), pages 932 - 939 *

Also Published As

Publication number Publication date
CN117612046B (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
EP3885871B1 (en) Surveying and mapping system, surveying and mapping method and apparatus, device and medium
CN107278262B (zh) 飞行轨迹的生成方法、控制装置及无人飞行器
CN205263655U (zh) 一种用于自动生成全景照片的系统、无人飞行器及地面站
CN111436208B (zh) 一种测绘采样点的规划方法、装置、控制终端及存储介质
US11330172B2 (en) Panoramic image generating method and apparatus
CN112469967B (zh) 测绘系统、测绘方法、装置、设备及存储介质
CN110176030A (zh) 一种无人机图像的自动配准方法、装置及电子设备
CN108668108B (zh) 一种视频监控的方法、装置及电子设备
US20220074743A1 (en) Aerial survey method, aircraft, and storage medium
AU2018450426B2 (en) Method and device for planning sample points for surveying and mapping, control terminal and storage medium
CN110806198A (zh) 基于遥感图像的目标定位方法、装置以及控制器和介质
CN111527375B (zh) 一种测绘采样点的规划方法、装置、控制终端及存储介质
CN116630598B (zh) 大场景下的视觉定位方法、装置、电子设备及存储介质
CN117612046B (zh) 一种基于ai和gis交互实现目标区域地物识别的方法和系统
CN113034347A (zh) 倾斜摄影图像处理方法、装置、处理设备及存储介质
CN115460539B (zh) 一种获取电子围栏的方法、设备、介质及程序产品
CN114494423B (zh) 一种无人平台载荷非中心目标经纬度定位方法及系统
CN115423853A (zh) 一种图像配准方法和设备
CN115278064A (zh) 一种全景图像生成方法、装置、终端设备及存储介质
US20170186218A1 (en) Method for loading 360 degree images, a loading module and mobile terminal
CN111932450B (zh) 一种交通违法数据管理方法及装置
CN115439635B (zh) 一种呈现目标对象的标记信息的方法与设备
CN116817929B (zh) 一种无人机对地平面多目标同时定位方法及系统
CN115311360B (zh) 在环拍中获取目标相机位姿的方法、装置及电子设备
WO2023047799A1 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant