CN117132649A - 人工智能融合北斗卫星导航的船舶视频定位方法及装置 - Google Patents
人工智能融合北斗卫星导航的船舶视频定位方法及装置 Download PDFInfo
- Publication number
- CN117132649A CN117132649A CN202311049219.6A CN202311049219A CN117132649A CN 117132649 A CN117132649 A CN 117132649A CN 202311049219 A CN202311049219 A CN 202311049219A CN 117132649 A CN117132649 A CN 117132649A
- Authority
- CN
- China
- Prior art keywords
- ship
- positioning
- video
- information
- satellite navigation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000004927 fusion Effects 0.000 title claims abstract description 22
- 230000000007 visual effect Effects 0.000 claims abstract description 26
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 23
- 238000013507 mapping Methods 0.000 claims abstract description 13
- 238000012937 correction Methods 0.000 claims abstract description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 33
- 238000001514 detection method Methods 0.000 claims description 19
- 238000012544 monitoring process Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 11
- 238000004458 analytical method Methods 0.000 claims description 9
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- DMBHHRLKUKUOEG-UHFFFAOYSA-N diphenylamine Chemical compound C=1C=CC=CC=1NC1=CC=CC=C1 DMBHHRLKUKUOEG-UHFFFAOYSA-N 0.000 claims 1
- 239000011159 matrix material Substances 0.000 description 38
- 230000008569 process Effects 0.000 description 14
- 239000013598 vector Substances 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000026676 system process Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 101100476202 Caenorhabditis elegans mog-2 gene Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Abstract
本申请提供了一种人工智能融合北斗卫星导航的船舶视频定位方法及装置,所述方法包括:通过岸基摄像设备采集船舶航行的视频数据,对岸基摄像设备进行张氏标定,对获取的视频数据进行畸变校正,智能识别视频数据视野中的船舶,根据摄像设备的位置识别出船舶视觉像素坐标系位置,融合地理信息模型,将船舶定位信息由像素坐标系映射至地理坐标系,并在数字高程图(DEM)的位置信息进行校正,校正经纬度并获取高程数据;将船舶地理位置信息与北斗卫星定位信息结合,即可视化展示船舶在实时视野中的位置。本申请通过人工智能融合北斗卫星导航的船舶视频定位方法,提高了船舶视频定位的精度,并可视化呈现。
Description
技术领域
本申请涉及海事定位技术领域,具体说是一种人工智能融合北斗卫星导航的船舶视频定位方法及装置。
背景技术
人工智能是研究、开发用于模拟、扩展类人行为的一门新的技术科学,由人工智能理论、方法、技术及应用系统等几部分组成。互联网的发展和计算机性能的不断提升,让人工智能在强化学习、深度学习、机器学习等方向取得了巨大进步,形成了智能机器人、语言识别、模式识别、图像识别、专家系统、自然语言处理等诸多研究方向,使人工智能呈现了多元化的发展态势。在数据、算法和算力等技术条件发展成熟的基础下,处于浪潮中的人工智能开始真正解决问题,切实创造经济效果。
北斗卫星导航系统由空间段、地面段和用户段三部分组成,可在全球范围内全天候、全天时为各类用户提供高精度、高可靠定位、导航、授时服务,并且具备短报文通信能力,已经初步具备区域导航、定位和授时能力,定位精度为分米、厘米级别,测速精度0.2米/秒,授时精度10纳秒。
目前将人工智能与北斗卫星导航系统进行结合以解决船舶视频定位的研究还比较少,当前仅仅依靠单纯的视频目标跟踪,存在船舶视频定位存在定位精度不高的问题。因此,如何克服上述存在的技术问题和缺陷成为需要重点解决的问题。
发明内容
为了克服现有技术中仅仅依靠单纯的视频目标跟踪,存在船舶视频定位精度不高、不能确定船舶具体信息的问题,本申请提供了人工智能融合北斗卫星导航的船舶视频定位方法及装置,采用了如下的技术方案:
第一方面,本申请提供了人工智能融合北斗卫星导航的船舶视频定位方法,包括:
步骤1,通过预设的摄像设备采集船舶航行的视频数据;
步骤2,采用张氏标定算法对所述摄像设备进行标定,获取所述摄像设备的内部参数和外部参数,用以对所述摄像设备获取的所述视频数据进行畸变校正;
步骤3,使用智能船舶分析算法识别出船舶在视野中的像素位置,利用像素坐标系将像素位置信息映射为世界坐标系中位置信息;
步骤4,因相机模型可将三维地理空间中的坐标转换为二维图像空间的像点坐标,高程信息丢失,同时船舶映射的地理空间的位置也存在偏差,在这里假设识别目标与地面相接触,监控相机发出视角光线,目标质心作为像空间定位点,将视角光线通过空间定位点与表示地形的数字高程图(DEM)相交来估计目标在地理空间的三维坐标,然后将图像空间中目标定位点在三维地理空间中的位置估计;
步骤5,校正经纬度并获取高程数据;
步骤6,对所述船舶航行视频数据进行预处理,识别出所述视频数据中的船舶,结合北斗卫星导航定位信息实时比对,即可视化的展示;
步骤7,对视频定位信息与北斗卫星导航定位信息做比对,若存在匹配,则在视频中标出船舶信息;若存在视频定位信息,北斗卫星导航定位丢失,则标记船舶未开启北斗卫星导航定位设置;其他的情况不可能存在,不予考虑。
进一步地,所述步骤3、4中的所述通过预设的船舶航行的视频数据的分析,包括:对采用岸基视频监控设备视频数据的船舶识别分析算法;像素坐标系将像素位置信息映射为世界坐标系中位置信息。
进一步地,所述步骤4中的所述获取所述不同关键帧的特征点在三维空间之间的位置信息,还包括:将特征点的像素坐标转换为三维空间中的坐标,采用三角测量方法对所述特征点在数字高程图上的位置信息进行校正。
进一步地,所述步骤5中的校正经纬度并获取高程数据,包括:
(1)在摄像设备中采集已知位置的参考点,包括所述参考点中的经纬度信息和高程数据。
(2)选取部分关键帧及从所述关键帧中提取的特征点,将所述特征点与参考点进行匹配所述特征点与所述参考点的对应关系。
(3)基于所述特征点与所述参考点的对应关系,对所述摄像设备的所述经纬度进行校正,将所述特征点的位置映射到准确的经纬度坐标上;基于所述特征点与所述参考点的对应关系,获取所述特征点对应的所述高程数据。
进一步地,所述步骤6中的所述对所述船舶航行环境的所述视频数据进行预处理,识别出所述视频数据中的船舶,包括:获取所述摄像设备的经纬度确定所述摄像设备的位置,根据所述摄像设备的位置提取所述视频数据视野中的关键帧。采用融合YOLO与Deepsort框架的多目标跟踪方法,读取所述视频数据视野中的关键帧,获取所述关键帧中的船舶位置,基于连续的关键帧使用目标跟踪算法跟踪船舶的像素坐标系中运动轨迹,采用卷积神经网络对每一帧中被检测到的所述船舶进行识别。
第二方面,本申请还提供了人工智能融合北斗卫星导航的船舶视频定位装置,包括:
船舶获取模块,用于通过预设的摄像设备采集船舶航行的视频数据;
摄像设备畸变校正模块,用于采用张氏标定算法对所述摄像设备进行标定,获取所述摄像设备的内部参数和外部参数,用以对所述摄像设备获取的所述视频数据进行畸变校正;
船舶的世界坐标系位置信息获取模块,用于使用智能船舶分析算法识别出船舶在视野中的像素位置,利用像素坐标系将像素位置信息映射为世界坐标系中位置信息;
船舶的三维地理空间位置估计模块,用于因相机模型可将三维地理空间中的坐标转换为二维图像空间的像点坐标,高程信息丢失,同时船舶映射的地理空间的位置也存在偏差,在这里假设识别目标与地面相接触,监控相机发出视角光线,目标质心作为像空间定位点,将视角光线通过空间定位点与表示地形的数字高程图(DEM)相交来估计目标在地理空间的三维坐标,然后将图像空间中目标定位点在三维地理空间中的位置估计;
高程数据获取模块,用于校正经纬度并获取高程数据;
船舶可视化展示模块,用于对所述船舶航行视频数据进行预处理,识别出所述视频数据中的船舶,结合北斗卫星导航定位信息实时比对,即可视化的展示;
船舶定位模块,用于对视频定位信息与北斗卫星导航定位信息做比对,若存在匹配,则在视频中标出船舶信息;若存在视频定位信息,北斗卫星导航定位丢失,则标记船舶未开启北斗卫星导航定位设置;其他的情况不可能存在,不予考虑。
第三方面,本申请提供了一种电子设备,包括:
一个或多个处理器;存储器;以及一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中,所述一个或多个计算机程序包括指令,当所述指令被所述设备执行时,使得所述设备执行如第一方面所述的方法。
第四方面,本申请提供了一种计算机可读存储介质,该计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行如第一方面所述的方法。
第五方面,本申请提供了一种计算机程序,当所述计算机程序被计算机执行时,用于执行第一方面所述的方法。
在一种可能的设计中,第五方面中的程序可以全部或者部分存储在与处理器封装在一起的存储介质上,也可以部分或者全部存储在不与处理器封装在一起的存储器上。
本申请具有以下有益效果:
本申请通过通过摄像设备采集船舶航行的视频数据,对摄像设备进行张氏标定,对获取的视频数据进行畸变校正,识别视频数据视野中的船舶,根据摄像设备的位置识别出船舶视觉位置,将船舶像素坐标系的位置映射到世界坐标系的位置,结合数字高程图(DEM)的位置信息进行校正,校正经纬度并获取高程数据;将船舶视觉位置映射到数字高程图中,获取船舶的经纬度信息和高程信息。本申请通过人工智能融合北斗卫星导航的船舶视频定位方法,采用三维点云对获取的视频数据视野中的环境进行三维重建,将动态船舶的定位信息由图像空间映射到地理空间船舶的实际地理位置,提高了视频数据视野中环境的距离和深度感知的精度,提高了船舶视频定位的精度,并可视化呈现。
附图说明
图1为本申请实施例可以应用于其中的示例性系统架构图;
图2是本申请实施例的方法流程图;
图3是本申请实施例的摄像设备成像模型示意图;
图4是本申请实施例的摄像设备成像过程示意图;
图5是本申请实施例世界坐标系到相机坐标系转换过程示意图;
图6是本申请实施例的步骤S3的流程示意图;
图7是本申请实施例关键帧的特征点获取流程图;
图8是本申请实施例的获取高程数据流程图;
图9是本申请实施例的船舶在实际地理位置中的真实位置信息示意图;
图10是本申请实施例的装置示意图;
图11是本申请实施例的计算机设备示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture ExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving PictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的人工智能融合北斗卫星导航的船舶视频定位方法一般由服务器/终端设备执行,相应地,人工智能融合北斗卫星导航的船舶视频定位装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,图中示出了本申请的人工智能融合北斗卫星导航的船舶视频定位方法流程图,所述方法包括以下步骤:
步骤S1,通过预设的摄像设备采集船舶航行环境的视频数据。
所述通过预设的摄像设备采集船舶航行环境的视频数据,包括:采用岸基视频监控设备以及船舱内的视频监控设备对船舶航向环境进行视频数据采集。
步骤S2,采用张氏标定算法对所述摄像设备进行标定,获取所述摄像设备的内部参数和外部参数,用以对所述摄像设备获取的所述视频数据进行畸变校正。
在一种可能的实施方式中,摄像设备的原理是利用投影将真实的三维世界坐标转换到二维的相机坐标上,摄像设备的模型示意图如图3所示,假设摄像设备的坐标系为Oc-xc-yc-zc,其中z为摄像设备的前方,x代表的方向向右,y代表的方向向下,O为光心,现实世界的空间点P经过光心O投影落在物理成像平面O′-x-y-z上,成像点为P′,像素平面中心O′到光学中心O的距离为摄像设备的焦距f。
在一种可能的实施方式中,摄像设备的成像过程请继续参考图4,在摄像设备成像过程中,包含了四个坐标系:世界坐标系、相机坐标系、图像坐标系、像素坐标系;从世界坐标系到相机坐标系转换过程中,属于刚性变换过程,世界坐标系通过旋转和平移得到相机坐标,请继续参考图5,图5示出了世界坐标系到相机坐标系转换过程,最右上方的点为三维空间中的点,假设三维空间中的这个点以世界坐标系为原点,则三维空间中的这个点的坐标为Xw,如果三维空间中的这个点以相机坐标为原点,则三维空间中的这个点的坐标为Xc,从世界坐标系到相机坐标系转换过程中,可以通过旋转R和平移t把世界坐标系转换到和相机坐标系重合。
从相机坐标系向图像坐标系转换的过程中,属于透视投影关系,从3D转到2D;图像坐标系向像素坐标系转换的过程中,属于仿射变换;从世界坐标转化为像素坐标的转换关系式为:
假设在标定板中一点P的三维空间坐标为P=[Xw,Yw,Zw]T,在图像空间中的投影坐标为p=[u,v]T,用齐次坐标形式来表示分别为PH=[Xw,Yw,Zw,1]T,pH=[u,v,1]T,由成像模型可得点P的三维空间坐标PH与图像空间坐标pH对应关系为:
zcpH=K[R t]PH (公式1)
上式zc为比例因子,相机的内参数矩阵为K,相机的外参数矩阵由旋转矩阵R和平移矩阵t组成。
fx、fy为相机焦距,u0、v0为图像像素主点坐标,γ为径向畸变参数,由于在这里用棋盘格做标定板,点均处在同一平面,因此假设平面z=0,公式便可简化为
u、v表示像素坐标系中的坐标,t为平移向量,令H=[h1 h2 h3]=λK[r1 r2 t],其中λ为常数因子,则三维空间坐标到图像空间坐标的对应关系可表示为
zcpH=HPH (公式4)
其中H矩阵又称为单应矩阵,是求解该问题的关键,H矩阵为齐次矩阵,共有8个未知数,需要至少8个方程方可求解,每对对应点可提供两个方程,因此至少需要四对点,便可以求出该H矩阵。
由旋转矩阵的正交特性,可得:r1 Tr2=0,r1 Tr1=r2 Tr2,将其带入公式5得:
其中,h1、h2为单应矩阵H的具体参数,令B=K-TK-1,则对称矩阵B可写作:
内参数矩阵K有5个未知数,至少需要5个方程,一个H矩阵可提供两个方程,因此由矩阵B求得矩阵K至少需要3个单应矩阵H,即至少三幅影像。B中未知量可表示为6维向量b:
设H中的第i列为hi,推导可得:
其中hi1、hj1、hi1、hj2、hi2、hj1、hi2、hj2、hi3、hj1、hi1、hj3、hi3、hj2、hi2、hj3、hi3、hj3为单应矩阵H的具体参数,由公式7的约束,可得:
其中,v11、v12、v22为内参矩阵的参数。
步骤S3,使用融合YOLO与DeepSort框架的多目标跟踪方法识别出船舶在视野中的像素位置,利用像素坐标系将像素位置信息映射为世界坐标系中位置信息。
DeepSort是一种基于SORT框架,卡尔曼滤波算法与匈牙利算法匹配的目标跟踪方法,依据高精度的检测结果避免出现过多遮挡问题。
X(k|k-1)=A×X(k|k-1) (公式9)
X(k|k-1)是利用上一状态预测的结果,X(k-1|k-1)是上一状态最优的结果,U(k)为现在状态的控制量,如果没有控制量,它可以为0。
P(k|k-1)=A×P(k|k-1)×AT+Q (公式10)
P(k|k-1)是X(k|k-1)对应的协方差,P(k-1|k-1)是X(k-1|k-1)对应的协方差,AT表示A的转置矩阵,Q是系统过程的协方差。式子1,2就是卡尔曼滤波器5个公式当中的前两个,也就是对系统的预测。
X(k|k)=P(k|k-1)+Kg(k)×[Z(k)-H×X(k|k-1)](公式12)
Kg为卡尔曼增益(Kalman Gain),得到k状态下最优的估算值X(k|k)。但是为了要令卡尔曼滤波器不断的运行下去直到系统过程结束,我们还要更新k状态下X(k|k)的协方差:
P(k|k)=[I-Kg(k)×H]×P(k|k-1)(公式13)
其中I为1的矩阵,对于单模型单测量,I=1。当系统进入k+1状态时,P(k|k)就是公式13的P(k-1|k-1)。这样,算法就可以自回归的运算下去。
在指派过程中,综合使用两个指标来整合运动信息以及目标表观特征。采用基于匈牙利算法进行的二分图匹配方法,对卡尔曼滤波所预测的状态及目标检测算法的目标检测测量值进行数据关联。状态目标检测值1:
d1(i,j)=(dj-yi)TSi -1(dj-yi)(公式14)
其中,dj表示第j个检测框的位置,yi表示第i个跟踪器的预测框位置,Si则表示检测位置与平均跟踪位置之间的协方差矩阵。马氏距离通过计算检测位置与平均预测位置之间的标准差将状态测量的不确定性进行了考虑,并且通过逆χ2分布计算得来的95%置信区间对马氏距离进行阈值化处理,若某一次关联的马氏距离小于指定的阈值t(1),则设置运动状态关联成功,实验中设置阈值为9.4877。状态目标检测值2:
其中,rk (i)为特征向量,为取值范围。
对每一个检测框dj求一个特征向量rj(通过Reid的CNN网络计算得到的对应的128维特征向量),限制条件是||rj||=1。对每一个跟踪目标构建一个存储量,存储每一个跟踪目标成功关联的最近100帧的特征向量。那么第二种度量方式就是计算第i个跟踪器的最近100个成功关联的特征集与当前帧第j个检测结果的特征向量间的最小余弦距离。
关联方式融合使用两种度量方式的线性加权作为最终的度量。综合目标检测测量值:
ci,j=λd1(i,j)+(1-λ)d2(i,j) (公式16)
其中,d1(i,j)为马氏距离,d2(i,j)为余弦距离,λ为权重系数。
注意:只有当两个指标都满足各自阈值条件的时候才进行融合。距离度量对短期的预测和匹配效果很好,但对于长时间的遮挡的情况,使用外观特征的度量比较有效。对于存在相机运动的情况,可以设置λ=0。但是,马氏距离的阈值仍然生效,如果不满足第一个度量的标准,就不能进入c(i,j)的融合阶段。
因此采用MOG2算法进根据差分检测策略筛选出含前景目标的视频帧,通过跨帧检测显著提高了检测效率,然后将提取出的轮廓作为地图符号置入地理空间中可视化。然后利用基于深度学习的YOLOv3算法进行目标检测,利用DeepSort算法实现多目标跟踪。将筛选过关键帧的视频流数据置入YOLOv3检测器中,输出检测框、类别与置信度,将该输出再次置于DeepSort多目标跟踪器中,通过改进的递归卡尔曼滤波预测位置并跟踪,根据马氏距离与深度描述子的余弦距离作为融合后的度量,采用匈牙利算法进行级联匹配,输出动态跟踪定位信息。具体流程见图6,算法步骤如下:
步骤301,输入视频流,进行运动目标差分检测。
步骤302,筛选出有前景目标帧并计算前后帧外接矩形框欧式距离,大于阈值的帧标记非检测帧。
步骤303,将检测帧输入YOLO目标检测器中,输出边界框四维向量与类别、置信度。
步骤304,利用YOLO高精度检测结果作为DeepSort多目标检测器的输入,与卡尔曼预测信息匹配后,确定跟踪结果。
步骤S4,因相机模型可将三维地理空间中的坐标转换为二维图像空间的像点坐标,高程信息丢失,同时船舶映射的地理空间的位置也存在偏差,在这里假设识别目标与地面相接触,监控相机发出视角光线,目标质心作为像空间定位点,将视角光线通过空间定位点与表示地形的数字高程图(DEM)相交来估计目标在地理空间的三维坐标,然后将图像空间中目标定位点在三维地理空间中的位置估计。
关键帧的特征点获取的流程图请参考图7,所述采用机器视觉算法获取所述关键帧的特征点,包括:
步骤401,对关键帧的角点进行检测,获取关键帧中的关键点。
步骤402,将所述关键点进行标注,获取所述关键点的特征点。
步骤403,基于所述相邻关键帧获取相同的所述特征点,构成所述相邻关键帧的特征点对。
步骤404,用于对相邻关键帧的特征点进行匹配。
在一种可能的实施方式中,数字高程图获取的方式为:根据所述摄像设备的位置提取所述视频数据视野中的关键帧,采用机器视觉算法获取所述关键帧的特征点,对相邻关键帧的特征点进行匹配,建立不同关键帧之间连续的时空信息,基于所述不同关键帧之间连续的时空信息,获取所述不同关键帧的特征点在三维空间之间的位置信息,生成初始的稀疏三维点云;对所述稀疏三维点云进行插值、填充和拟合,生成稠密的三维点云;基于所述稠密的三维点云对获取的所述视频数据视野中的环境进行三维重建,获取带高程的数字高程图(DEM);
利用单应矩阵逆运算计算二维地理坐标:
此时相机投影矩阵P转换为单应矩阵H,将世界坐标系中的点映射至图像坐标系中,假定图像中一点m,x,y为m的坐标,对应世界坐标点为M,Xw,Yw为世界坐标点为M的坐标,则
m=[x,y,1]T (公式17)
M=[Xw,Yw,0,1]T (公式18)
m=HM (公式19)
即
其中
上述所求解的H矩阵是将平面上的物方空间点透视变化至图像空间中的映射矩阵,为了求解图像空间点投射至物方空间中,需要对H矩阵求逆,即
H-1=(K[r1,r2,t])-1 (公式23)
当假设世界坐标高程为0时,即将其看作平面时,通过计算相机内参数矩阵K与外参数矩阵[r1,r2|t]求解出H矩阵。
给定标定内外参数后的监控相机,以及对应于目标在图像空间的定位点,构造视角光线Ray:(X0,Y0,Z0)+k(U,V,W),其中(X0,Y0,Z0)是监控相机在三维地理空间的真实坐标,(U,V,W)是从相机主光轴方向发出的观察射线方向的单位矢量,同时k≥0是任意距离。通常确定视角光线与3D场景相交点的位置将非常复杂,但是当场景的信息被存储为DEM时,使用一种简单的几何遍历算法,它是基于绘制数字线段的Bresenham算法,考虑将视角光线垂直投影至DEM网格上,从监控相机所在的DEM网格(X0,Y0)开始,依次检查向外所经过的每一个网格(X,Y),直到存储在DEM格网中的高程值超过该位置3D视角光线处的Z方向分量,(X,Y)处的Z值可由公式计算得到:
前面推导了严密的2D图像空间向3D地理空间的映射模型,利用DEM提供第三维信息约束解决了影像中的目标在3D地理空间的定位问题,但是对DEM数据的精度要求较高,分米级的DEM数据的获取较为困难,增加了问题的复杂性,并且通常情况下监控相机的可视域内大范围为平面,研究者们更关注的区域也是诸如道路、广场等平面的区域,不妨假设地面为一平面进行研究,使问题的求解脱离DEM的约束,从而简化映射模型。
设某空间点P的世界坐标为(Xw,Yw,Zw),通过旋转矩阵R和平移向量t可以转换为相机坐标系下的坐标(Xc,Yc,Zc),坐标(Xc,Yc,Zc)与其对应图像坐标(u,v)存在如下透视投影关系:
式中,fx、fy为相机焦距,dx、dy为相机传感器在水平与垂直方向的像元物理尺寸,u0、v0为图像像素主点坐标,K是仅与相机内部结构相关的参数所决定的内参数矩阵。[R|t]是由相机相对世界坐标系的旋转矩阵R和平移向量t所决定的外参数矩阵。P为相机投影矩阵。当相机投影矩阵P确定后,世界坐标系中的空间点可由矩阵P唯一确定所对应的图像空间点。
由上式可得,当图像点由相机投影矩阵P的伪逆矩阵P-1逆映射至三维空间时,此方程组无唯一解,即图像点坐标无法唯一确定世界坐标系中的空间点三维坐标,需要更多的空间点信息辅助获取第三维信息。利用伪逆矩阵P-1求解空间点三维坐标,所需求解参数较多,矩阵中自由度为11,每组三维空间与图像坐标的对应点可提供两个方程,为了求解该矩阵,需要至少选取6组对应点才可完成该任务,过程较为繁琐。
步骤S5,校正经纬度并获取高程数据。请继续参考图8,所述步骤5中的校正经纬度并获取高程数据,包括:
步骤501,在摄像设备中采集已知位置的参考点,包括所述参考点中的经纬度信息和高程数据。
步骤502,选取部分关键帧及从所述关键帧中提取的特征点,将所述特征点与参考点进行匹配所述特征点与所述参考点的对应关系。
步骤503,基于所述特征点与所述参考点的对应关系,对所述摄像设备的所述经纬度进行校正,将所述特征点的位置映射到准确的经纬度坐标上;基于所述特征点与所述参考点的对应关系,获取所述特征点对应的所述高程数据。
步骤S6,对所述船舶航行视频数据进行预处理,识别出所述视频数据中的船舶,结合北斗卫星导航定位信息实时比对,即可视化的展示。
所述对所述船舶航行环境的所述视频数据进行预处理,识别出所述视频数据中的船舶,包括:获取所述摄像设备的经纬度确定所述摄像设备的位置,根据所述摄像设备的位置提取所述视频数据视野中的关键帧,采用融合YOLO与DeepSort多目标追踪方法读取所述视频数据视野中的关键帧,对所述关键帧中的图像采用目标检测算法,获取所述关键帧中的船舶位置,基于连续的关键帧使用目标跟踪算法跟踪船舶的像素坐标系中运动轨迹,采用卷积神经网络对每一帧中被检测到的所述船舶进行识别。
步骤S7,对视频定位信息与北斗卫星导航定位信息做比对,若存在匹配,则在视频中标出船舶信息;若存在视频定位信息,北斗卫星导航定位丢失,则标记船舶未开启北斗卫星导航定位设置;其他的情况不可能存在,不予考虑。
在一种可能的实施方式中,摄像设备获取的船舶位置信息是仅仅是图像坐标,而缺失在实际地理环境中的经纬度信息和高程信息,请继续参考图9,本申请通过将获取的船舶视觉位置信息映射到数字高程图(DEM)中,基于摄像设备中的船舶视觉位置与数字高程图(DEM)的交点,获取船舶在数字高程图(DEM)中的经纬度信息和高程信息,进而可以获取船舶在实际地理位置中的真实位置信息。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
继续参考图10,本实施例所述的人工智能融合北斗卫星导航的船舶视频定位装置包括:船舶获取模块1001,摄像设备畸变校正模块1002,船舶的世界坐标系位置信息获取模块1003,船舶的三维地理空间位置估计模块1004,高程数据获取模块1005,船舶获取模块1006,船舶定位模块1007;
船舶获取模块1001,用于通过预设的摄像设备采集船舶航行的视频数据;
摄像设备畸变校正模块1002,用于采用张氏标定算法对所述摄像设备进行标定,获取所述摄像设备的内部参数和外部参数,用以对所述摄像设备获取的所述视频数据进行畸变校正;
船舶的世界坐标系位置信息获取模块1003,用于使用智能船舶分析算法识别出船舶在视野中的像素位置,利用像素坐标系将像素位置信息映射为世界坐标系中位置信息;
船舶的三维地理空间位置估计模块1004,用于因相机模型可将三维地理空间中的坐标转换为二维图像空间的像点坐标,高程信息丢失,同时船舶映射的地理空间的位置也存在偏差,在这里假设识别目标与地面相接触,监控相机发出视角光线,目标质心作为像空间定位点,将视角光线通过空间定位点与表示地形的数字高程图(DEM)相交来估计目标在地理空间的三维坐标,然后将图像空间中目标定位点在三维地理空间中的位置估计;
高程数据获取模块1005,用于校正经纬度并获取高程数据;
船舶可视化展示模块1006,用于对所述船舶航行视频数据进行预处理,识别出所述视频数据中的船舶,结合北斗卫星导航定位信息实时比对,即可视化的展示;
船舶定位模块1007,用于对视频定位信息与北斗卫星导航定位信息做比对,若存在匹配,则在视频中标出船舶信息;若存在视频定位信息,北斗卫星导航定位丢失,则标记船舶未开启北斗卫星导航定位设置;其他的情况不可能存在,不予考虑。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图11,图11为本实施例计算机设备基本结构框图。
所述计算机设备11包括通过系统总线相互通信连接存储器11a、处理器11b、网络接口11c。需要指出的是,图中仅示出了具有组件11a-11c的计算机设备11,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器11a至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器11a可以是所述计算机设备11的内部存储单元,例如该计算机设备11的硬盘或内存。在另一些实施例中,所述存储器11a也可以是所述计算机设备11的外部存储设备,例如该计算机设备11上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器11a还可以既包括所述计算机设备11的内部存储单元也包括其外部存储设备。本实施例中,所述存储器11a通常用于存储安装于所述计算机设备11的操作系统和各类应用软件,例如人工智能融合北斗卫星导航的船舶视频定位方法及装置的程序代码等。此外,所述存储器11a还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器11b在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器11b通常用于控制所述计算机设备11的总体操作。本实施例中,所述处理器11b用于运行所述存储器11a中存储的程序代码或者处理数据,例如运行所述人工智能融合北斗卫星导航的船舶视频定位方法及装置的程序代码。
所述网络接口11c可包括无线网络接口或有线网络接口,该网络接口11c通常用于在所述计算机设备11与其他电子设备之间建立通信连接。
本申请还提供了另一种实施方式,即提供一种非易失性计算机可读存储介质,所述非易失性计算机可读存储介质存储有人工智能融合北斗卫星导航的船舶视频定位方法及装置的程序,所述人工智能融合北斗卫星导航的船舶视频定位方法及装置可被至少一个处理器执行,以使所述至少一个处理器执行如上述的人工智能融合北斗卫星导航的船舶视频定位方法及装置的步骤。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (7)
1.一种人工智能融合北斗卫星导航的船舶视频定位方法,其特征在于,包括:
步骤1,通过预设的岸基摄像设备采集船舶航行的视频数据;
步骤2,采用张氏标定算法对所述摄像设备进行标定,获取所述摄像设备的内部参数和外部参数,用以对所述摄像设备获取的所述视频数据进行畸变校正;
步骤3,使用智能船舶分析算法识别出船舶在视野中的像素位置,利用像素坐标系将像素位置信息映射为世界坐标系中位置信息;
步骤4,因相机模型可将三维地理空间中的坐标转换为二维图像空间的像点坐标,高程信息丢失,同时船舶映射的地理空间的位置也存在偏差,在这里假设识别目标与地面相接触,监控相机发出视角光线,目标质心作为像空间定位点,将视角光线通过空间定位点与表示地形的数字高程图(DEM)相交来估计目标在地理空间的三维坐标,然后将图像空间中目标定位点在三维地理空间中的位置估计;
步骤5,校正经纬度并获取高程数据;
步骤6,对所述船舶航行视频数据进行预处理,识别出所述视频数据中的船舶,结合北斗卫星导航定位信息实时比对,即可视化的展示;
步骤7,对视频定位信息与北斗卫星导航定位信息做比对,若存在匹配,则在视频中标出船舶信息;若存在视频定位信息,北斗卫星导航定位丢失,则标记船舶未开启北斗卫星导航定位设置。
2.根据权利要求1所述的人工智能融合北斗卫星导航的船舶视频定位方法,其特征在于,所述步骤3、4中的所述通过预设的船舶航行的视频数据的分析,包括:
对采用岸基视频监控设备视频数据的船舶识别分析算法;
像素坐标系将像素位置信息映射为世界坐标系中位置信息。
3.根据权利要求1所述的人工智能融合北斗卫星导航的船舶视频定位方法,其特征在于,所述步骤5中的校正经纬度并获取高程数据,包括:
(1)在岸基摄像设备中采集已知位置的参考点,包括所述参考点中的经纬度信息和高程数据;
(2)选取部分关键帧及从所述关键帧中提取的特征点,将所述特征点与参考点进行匹配所述特征点与所述参考点的对应关系;
(3)基于所述特征点与所述参考点的对应关系,对所述摄像设备的所述经纬度进行校正,将所述特征点的位置映射到准确的经纬度坐标上;基于所述特征点与所述参考点的对应关系,获取所述特征点对应的所述高程数据。
4.根据权利要求1所述的人工智能融合北斗卫星导航的船舶视频定位方法,其特征在于,所述步骤6中的所述对所述船舶航行的所述视频数据进行预处理,识别出所述视频数据中的船舶,包括:
获取所述摄像设备的经纬度确定所述摄像设备的位置,根据所述摄像设备的位置提取所述视频数据视野中的关键帧,采用YOLO与DeepSort读取所述视频数据视野中的关键帧,对所述关键帧中的图像采用目标检测算法,获取所述关键帧中的船舶位置,基于连续的关键帧使用目标跟踪算法跟踪船舶的像素坐标系中运动轨迹,采用卷积神经网络对每一帧中被检测到的所述船舶进行识别。
5.人工智能融合北斗卫星导航的船舶视频定位装置,其特征在于,包括:
船舶获取模块,用于通过预设的岸基摄像设备采集船舶航行的视频数据;
摄像设备畸变校正模块,用于采用张氏标定算法对所述摄像设备进行标定,获取所述摄像设备的内部参数和外部参数,用以对所述摄像设备获取的所述视频数据进行畸变校正;
船舶的世界坐标系位置模块,用于使用智能船舶分析算法识别出船舶在视野中的像素位置,利用像素坐标系将像素位置信息映射为世界坐标系中位置信息;
船舶的三维地理空间位置估计模块,用于因相机模型可将三维地理空间中的坐标转换为二维图像空间的像点坐标,高程信息丢失,同时船舶映射的地理空间的位置也存在偏差,在这里假设识别目标与地面相接触,监控相机发出视角光线,目标质心作为像空间定位点,将视角光线通过空间定位点与表示地形的数字高程图(DEM)相交来估计目标在地理空间的三维坐标,然后将图像空间中目标定位点在三维地理空间中的位置估计;
高程数据获取模块,用于校正经纬度并获取高程数据;
船舶可视化展示模块,用于对所述船舶航行视频数据进行预处理,识别出所述视频数据中的船舶,结合北斗卫星导航定位信息实时比对,即可视化的展示;
船舶定位模块,用于对视频定位信息与北斗卫星导航定位信息做比对,若存在匹配,则在视频中标出船舶信息;若存在视频定位信息,北斗卫星导航定位丢失,则标记船舶未开启北斗卫星导航定位设置;其他的情况不可能存在,不予考虑。
6.一种电子设备,其特征在于,包括:
一个或多个处理器;存储器;以及一个或多个计算机程序,其中所述一个或多个计算机程序被存储在所述存储器中,所述一个或多个计算机程序包括指令,当所述指令被所述设备执行时,使得所述设备执行如权利要求1至4任一项所述的方法。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,当其在计算机上运行时,使得计算机执行如权利要求1至4任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311049219.6A CN117132649A (zh) | 2023-08-21 | 2023-08-21 | 人工智能融合北斗卫星导航的船舶视频定位方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311049219.6A CN117132649A (zh) | 2023-08-21 | 2023-08-21 | 人工智能融合北斗卫星导航的船舶视频定位方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117132649A true CN117132649A (zh) | 2023-11-28 |
Family
ID=88859280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311049219.6A Pending CN117132649A (zh) | 2023-08-21 | 2023-08-21 | 人工智能融合北斗卫星导航的船舶视频定位方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117132649A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117668575A (zh) * | 2024-01-31 | 2024-03-08 | 利亚德智慧科技集团有限公司 | 光影秀的数据模型构建方法、装置、设备及存储介质 |
-
2023
- 2023-08-21 CN CN202311049219.6A patent/CN117132649A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117668575A (zh) * | 2024-01-31 | 2024-03-08 | 利亚德智慧科技集团有限公司 | 光影秀的数据模型构建方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111563442B (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
WO2021233029A1 (en) | Simultaneous localization and mapping method, device, system and storage medium | |
CN111795704B (zh) | 一种视觉点云地图的构建方法、装置 | |
Tian et al. | Depth estimation using a self-supervised network based on cross-layer feature fusion and the quadtree constraint | |
CN112435338B (zh) | 电子地图的兴趣点的位置获取方法、装置及电子设备 | |
Chen et al. | Transforming a 3-d lidar point cloud into a 2-d dense depth map through a parameter self-adaptive framework | |
CN108537844B (zh) | 一种融合几何信息的视觉slam回环检测方法 | |
CN113447923A (zh) | 目标检测方法、装置、系统、电子设备及存储介质 | |
CN111459269B (zh) | 一种增强现实显示方法、系统及计算机可读存储介质 | |
CN112801047B (zh) | 缺陷检测方法、装置、电子设备及可读存储介质 | |
CN112489099A (zh) | 点云配准方法、装置、存储介质及电子设备 | |
Li et al. | Model-based temporal object verification using video | |
Cheng et al. | Extracting three-dimensional (3D) spatial information from sequential oblique unmanned aerial system (UAS) imagery for digital surface modeling | |
CN116222577B (zh) | 闭环检测方法、训练方法、系统、电子设备及存储介质 | |
CN116563493A (zh) | 基于三维重建的模型训练方法、三维重建方法及装置 | |
CN112634368A (zh) | 场景目标的空间与或图模型生成方法、装置及电子设备 | |
CN114219855A (zh) | 点云法向量的估计方法、装置、计算机设备和存储介质 | |
CN115457492A (zh) | 目标检测方法、装置、计算机设备及存储介质 | |
CN113743385A (zh) | 一种无人船水面目标检测方法、装置及无人船 | |
CN112733641A (zh) | 物体尺寸测量方法、装置、设备及存储介质 | |
CN117132649A (zh) | 人工智能融合北斗卫星导航的船舶视频定位方法及装置 | |
CN116188893A (zh) | 基于bev的图像检测模型训练及目标检测方法和装置 | |
CN113223064A (zh) | 一种视觉惯性里程计尺度的估计方法和装置 | |
CN113704276A (zh) | 地图更新方法、装置、电子设备及计算机可读存储介质 | |
CN113673288A (zh) | 空闲车位检测方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |