CN111860215B - 目标对象的位置确定方法、终端设备及航行系统 - Google Patents

目标对象的位置确定方法、终端设备及航行系统 Download PDF

Info

Publication number
CN111860215B
CN111860215B CN202010611512.7A CN202010611512A CN111860215B CN 111860215 B CN111860215 B CN 111860215B CN 202010611512 A CN202010611512 A CN 202010611512A CN 111860215 B CN111860215 B CN 111860215B
Authority
CN
China
Prior art keywords
target
radar
target object
determining
equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010611512.7A
Other languages
English (en)
Other versions
CN111860215A (zh
Inventor
秦梓荷
张伟斌
赵继成
罗朋飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Yunzhou Intelligent Technology Co ltd
Zhuhai Yunzhou Intelligence Technology Ltd
Southern Marine Science and Engineering Guangdong Laboratory Zhuhai
Original Assignee
Jiangsu Yunzhou Intelligent Technology Co ltd
Zhuhai Yunzhou Intelligence Technology Ltd
Southern Marine Science and Engineering Guangdong Laboratory Zhuhai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Yunzhou Intelligent Technology Co ltd, Zhuhai Yunzhou Intelligence Technology Ltd, Southern Marine Science and Engineering Guangdong Laboratory Zhuhai filed Critical Jiangsu Yunzhou Intelligent Technology Co ltd
Priority to CN202010611512.7A priority Critical patent/CN111860215B/zh
Publication of CN111860215A publication Critical patent/CN111860215A/zh
Application granted granted Critical
Publication of CN111860215B publication Critical patent/CN111860215B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Astronomy & Astrophysics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)

Abstract

本申请实施例适用于目标感知技术领域,提供了一种目标对象的位置确定方法、终端设备及航行系统,所述方法包括:接收测量设备采集的测量数据,所述测量数据包括所述测量设备的测量高度以及所述测量设备的俯仰角度,所述测量设备为航行设备搭载的系留无人机;根据所述测量高度和所述俯仰角度,确定目标对象的位置。采用上述方法,可以准确确定目标对象的位置。

Description

目标对象的位置确定方法、终端设备及航行系统
技术领域
本申请属于目标感知技术领域,特别是涉及一种目标对象的位置确定方法、终端设备及航行系统。
背景技术
通常,无人艇、无人船等航行设备在海面或宽阔水域进行目标感知时,可以通过使用视觉传感器等视觉设备来实现。
以无人船在海面进行目标感知为例。无人船可以使用视觉传感器准确输出目标对象的相对方位角。同时,借助深度学习等方法,视觉传感器还可以准确地获知目标对象的类型,确定目标对象究竟是渔船、快艇、货船、浮标还是岛礁。
但是,由于海上缺乏参照物,无人船无论是使用单目视觉感知还是双目视觉感知,在目标对象的距离判定方面均存在较大的误差。依靠传感器的视觉感知,无法准确地确定目标对象的位置。
发明内容
有鉴于此,本申请实施例提供了一种目标对象的位置确定方法、终端设备及航行系统,以解决现有技术中在进行目标感知时,由于距离判定存在较大的误差,无法准确确定目标对象的位置的问题。
本申请实施例的第一方面提供了一种目标对象的位置确定方法,包括:
接收测量设备采集的测量数据,所述测量数据包括所述测量设备的测量高度以及所述测量设备的俯仰角度,所述测量设备为航行设备搭载的系留无人机;
根据所述测量高度和所述俯仰角度,确定目标对象的位置。
本申请实施例的第二方面提供了一种目标对象的位置确定装置,包括:
接收模块,用于接收测量设备采集的测量数据,所述测量数据包括所述测量设备的测量高度以及所述测量设备的俯仰角度,所述测量设备为航行设备搭载的系留无人机;
确定模块,用于根据所述测量高度和所述俯仰角度,确定目标对象的位置。
本申请实施例的第三方面提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的目标对象的位置确定方法。
本申请实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如第一方面所述的目标对象的位置确定方法。
本申请实施例的第五方面提供了一种计算机程序产品,当所述计算机程序产品在终端设备上运行时,使得所述终端设备执行上述第一方面所述的目标对象的位置确定方法。
本申请实施例的第六方面提供了一种航行系统,包括航行设备,以及搭载于所述航行设备中的测量设备和终端设备,所述测量设备为航行设备搭载的系留无人机,所述终端设备为第三方面所述的终端设备且可执行如第一方面所述的目标对象的位置确定方法。
与现有技术相比,本申请实施例包括以下优点:
本申请实施例,通过在航行设备中搭载系留无人机,可以将系留无人机进行测量数据采集时的测量高度作为数据解算时的参考量,结合测量数据计算得到目标对象与航行设备之间的距离,解决了现有技术中海上视觉测距误差较大的问题。相对于使用航行设备本身的测距设备,系留无人机具有机动性好、高空视野广阔的优点,可以实现大范围的海面监视;此外,相对于常规的旋翼无人机使用续电池作为动力,空中续航能力十分有限的缺陷,本申请实施例使用系留无人机可以将部分功能模块或单元布置在航行设备中,而在系留无人机中仅搭载部分数据测量模块或单元,减轻了系留无人机的飞行重量,延长了系留无人机的作业时间。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种目标对象的位置确定方法的步骤流程示意图;
图2是本申请实施例提供的一种基于系留无人机的测距过程的侧视示意图;
图3是本申请实施例提供的另一种目标对象的位置确定方法的步骤流程示意图;
图4是本申请实施例提供的一种图像畸变后的视场示意图;
图5是本申请实施例提供的一种基于系留无人机的测距过程的俯视示意图;
图6是本申请实施例提供一种目标融合过程的步骤流程示意图;
图7是本申请实施例提供一种无人艇-无人机协同目标融合的过程示意图;
图8是本申请实施例提供一种目标融合的逻辑流程图;
图9是本申请实施例提供的一种目标对象的位置确定装置的示意图;
图10是本申请实施例提供的一种终端设备的示意图;
图11是本申请实施例提供的一种航行系统的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域技术人员应当清楚,在没有这些具体细节的其他实施例中也可以实现本申请。在其他情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
下面通过具体实施例来说明本申请的技术方案。
参照图1,示出了本申请实施例提供的一种目标对象的位置确定方法的步骤流程示意图,具体可以包括如下步骤:
S101、接收测量设备采集的测量数据,所述测量数据包括所述测量设备的测量高度以及所述测量设备的俯仰角度,所述测量设备为航行设备搭载的系留无人机;
本方法可以应用于终端设备,该终端设备可以是安装于航行设备中、具有数据分析、处理、计算能力的电子设备。该终端设备可以与测量设备通信,接收测量设备采集的测量数据,并对测量数据进行处理和计算,输出相应的结果。
航行设备可以是任意类型的船舶、舰艇等等。例如,航行设备可以是无人艇、无人船;或者,航行设备也可以是有人操作的各类船只。测量设备可以是具有图像采集、距离计算以及角度测量的设备。例如,测量设备可以是携带有摄像装置及各类传感器的旋翼无人机、系留无人机或类似设备。本申请实施例对航行设备及测量设备的具体类型不作限定。
在本申请实施例的一种可能的实现方式中,航行设备可以是无人艇;测量设备可以是无人艇搭载的系留无人机。
无人艇搭载的系留无人机,即无人艇通过脐带缆与无人机相连,实现对无人机的持续供电和双向信息传输。
在本申请实施例中,考虑到系留无人机的承载能力,可以在系留无人机中仅搭载自主飞行控制单元、备用电池、高清可变倍摄像头、GPS模块、高程仪等装置、单元或模块。图像处理单元等占体积、占重量、能耗高的模块可以布置在无人艇上。通过上述处理,可以解决无人机无法搭载高性能显卡、CPU、GPU、电源模块以及集成机箱等成套视觉处理模块的问题,使得系留无人机只需负责图像信息、自身位姿信息、飞行高度信息的采集和回传。上述图像信息等数据可以通过脐带缆内置光纤实时传输至无人艇,由无人艇中的终端设备负责数据的解算。
在本申请实施例中,系留无人机采集到的测量数据可以包括测量高度以及俯仰角度。其中,测量高度可以是系留无人机当前的飞行高度。俯仰角度可以是系留无人机携带的摄像装置拍摄图像的角度,例如,俯仰角度可以是系留无人机上的高清可变倍摄像头的俯拍角。
当然,除上述数据外,根据系留无人机所携带的功能装置或单元的不同,测量数据还可以包括其他类型的数据,本申请实施例对此不作限定。
系留无人机采集到的上述测量数据,可以通过脐带缆传输至航行设备中用于数据处理的终端设备。
S102、根据所述测量高度和所述俯仰角度,确定目标对象的位置。
在本申请实施例中,目标对象可以是待测量的对象。例如,目标对象可以是无人艇在航行过程中所发现的渔船、快艇、货船、浮标、岛礁等等。
航行设备中用于数据处理的终端设备在接收到系留无人机传输的测量数据后,可以对测量数据进行实时解算,根据解算结果确定目标对象的位置。目标对象的位置可以包括目标对象距离航行设备的距离、方位等。
在本申请实施例的一种可能的实现方式中,系留无人机采集到的俯仰角度可以是该系留无人机的摄像装置与目标对象之间的目标俯仰角度θ。上述目标俯仰角度θ可以是指系留无人机的摄像装置在按照一定角度对目标对象进行拍摄,目标对象处于该摄像装置的视野范围中心时,摄像装置当前所处的俯仰角度。该俯仰角度的大小约等于摄像装置与目标对象之间的连接线,与水平面之间的夹角大小。
因此,在系留无人机采集得到测量高度和上述目标俯仰角度后,可以根据测量高度和目标俯仰角度,计算目标对象与系留无人机在水面上的投影点之间的距离;然后根据该距离,确定目标对象的位置。
如图2所示,是本申请实施例提供的一种基于系留无人机的测距过程的侧视示意图。图2中包括目标对象、航行设备及航行设备搭载的系留无人机。其中,系留无人机可以采集得到的数据包括系留无人机当前的飞行高度H,摄像装置的目标俯仰角度θ。因此,目标对象与系留无人机在水面上的投影点之间的距离d可以按照如下公式计算得到:
d=H/tan(θ)
在计算得到上述距离d后,可以通过获取系留无人机当前经纬度数据,即可换算得到目标对象的经纬度,从而确定出目标对象的位置。
在本申请实施例中,通过在航行设备中搭载系留无人机,可以将系留无人机进行测量数据采集时的测量高度作为数据解算时的参考量,结合测量数据计算得到目标对象与航行设备之间的距离,解决了现有技术中海上视觉测距误差较大的问题。相对于使用航行设备本身的测距设备,系留无人机具有机动性好、高空视野广阔的优点,可以实现大范围的海面监视;此外,相对于常规的旋翼无人机使用续电池作为动力,空中续航能力十分有限的缺陷,本申请实施例使用系留无人机可以将部分功能模块或单元布置在航行设备中,而在系留无人机中仅搭载部分数据测量模块或单元,减轻了系留无人机的飞行重量,延长了系留无人机的作业时间。
参照图3,示出了本申请实施例提供的另一种目标对象的位置确定方法的步骤流程示意图,具体可以包括如下步骤:
S301、接收测量设备采集的测量数据,所述测量数据包括所述测量设备的测量高度以及所述测量设备的俯仰角度,所述测量设备为航行设备搭载的系留无人机;
在本申请实施例中,系留无人机采集得到的俯仰角度可以包括系留无人机的摄像装置的当前俯仰角度。即,系留无人机的摄像装置当前实际的俯仰角度。摄像装置在按照该俯仰角度对目标对象进行拍摄时,目标对象并不一定处于摄像装置视野的中心。
除上述当前俯仰角度外,系留无人机采集到的测量数据还可以包括摄像装置的当前方向角度。当前方向角度可以表示摄像装置在进行拍摄时所处的方向。
在本申请实施例中,系留无人机摄像装置的当前俯仰角度以及当前方向角度,可以通过系留无人机所携带的传感器输出得到。
S302、获取所述摄像装置采集的目标图像,所述目标图像中包括所述目标对象;
在本申请实施例中,可以通过系留无人机的摄像装置对目标对象进行拍摄,获得目标图像。该目标图像中包括目标对象。
目标图像可以传输至航行设备进行解算。通过深度学习等算法,可以识别出目标对象的类型,如渔船、快艇、货船等。
S303、在所述目标图像中,确定所述目标对象相对于所述目标图像的图像中心点的像素坐标;
在本申请实施例中,航行设备中用于数据解算的终端设备可以根据摄像装置采集得到的目标图像,计算目标对象相对于目标图像的图像中心点的像素坐标。
如图4所示,是本申请实施例提供的一种图像畸变后的视场示意图。图4中包括目标对象,其像素坐标(X,Y)可以看作是目标对象相对于以图像中心点为坐标原点所构建的坐标系中的坐标点。
S304、根据所述当前俯仰角度、所述当前方向角度和所述像素坐标,计算所述摄像装置与所述目标对象之间的目标俯仰角度和目标方向角度;
通常,摄像装置与目标对象之间的目标俯仰角度和目标方向角度可能无法准确地直接通过传感器输出得到。因此,可以在传感器输出的当前俯仰角度和当前方向角度的基础上,结合目标对象相对于目标图像中心点的像素坐标,计算得到目标俯仰角度和目标方向角度。
在具体实现中,摄像装置的当前俯仰角度θ0以及当前方向角度ψ0是精准且实时可测的,且在目标图像中,目标对象的像素坐标(X,Y)也是精准可测的,可以采用如下公式计算得到摄像装置与目标对象之间的目标俯仰角度和目标方向角度:
ψ1=ψ0+f1(X,Y,ψ0,θ0)
θ1=θ0+f2(X,Y,ψ0,θ0)
其中,θ0为摄像装置的当前俯仰角度,ψ0为摄像装置的当前方向角度;(ψ11)表示系留无人机的摄像装置与海面上目标对象之间经过折算后的目标方向角度及目标俯仰角度;f1与f2表示摄像装置的视场畸变函数,视场畸变函数与具体摄像头型号有关,可以通过标定获得其具体公式。
S305、根据所述测量高度、所述目标俯仰角度和所述目标方向角度,确定所述目标对象的位置。
在本申请实施例中,根据测量高度、目标俯仰角度和目标方向角度,可以计算得到系留无人机在水面上的投影点与目标对象之间的距离,从而根据该距离可以获取目标对象的位置等信息。
在本申请实施例的一种可能的实现方式中,可以以航行设备为坐标原点,构建目标坐标系;然后,通过确定系留无人机在目标坐标系中的设备坐标值,从而可以根据设备坐标值、测量高度、目标俯仰角度和目标方向角度,计算得到目标对象在目标坐标系中的目标坐标值;根据目标坐标值,可以确定目标对象的位置。
在本申请实施例中,上述目标坐标系可以是北东坐标系,北东坐标系可以是以坐标系的横轴方向为东方向,以坐标系的纵轴方向为北方向所构建出的一个坐标系。
如图5所示,是本申请实施例提供的一种基于系留无人机的测距过程的俯视示意图。图5中的坐标系即是北东坐标系,该坐标系的原点为航行设备的中心点。
在图5中,系留无人机在该坐标系下的设备坐标值可以表示为(x0,y0),系留无人机摄像装置的目标图像中心,以及海面上目标对象的中心点,在该坐标系下的坐标值可以分别表示为(x1,y1)和(x2,y2)。
在前述计算摄像装置与目标对象之间的目标俯仰角度和目标方向角度的公式基础上,可以采用如下公式,计算得到上述(x1,y1)和(x2,y2)的坐标值:
x1=x0+H/tan(θ0)·sin(ψ0)
y1=y0+H/tan(θ0)·cos(ψ0)
x2=x0+H/tan(θ1)·sin(ψ1)
y2=y0+H/tan(θ1)·cos(ψ1)
在本申请实施例中,由于系留无人机摄像装置与目标对象之间的目标俯仰角度难以直接获得,本申请实施例通过构建北东坐标系,结合精准且实时可测的摄像装置的当前俯仰角度、当前方向角度,以及目标对象相对于摄像装置的目标图像中心的像素坐标,可以间接计算得到目标对象的位置等信息,解决了现有技术中海上视觉测距误差较大的问题。
在采用系留无人机准确计算出目标对象与航行设备之间的距离,确定出目标对象的位置的基础上,本申请实施例还可以对目标对象进行融合处理,输出当前区域的态势图。
参照图6,示出了本申请实施例提供的一种目标融合过程的步骤流程示意图,具体可以包括如下步骤:
S601、获取所述航行设备的导航雷达输出的雷达信息;
在本申请实施例中,航行设备在航行过程中,可以实时地通过导航雷达对当前区域进行监视,输出当前区域的雷达信息。
S602、将所述目标对象与所述雷达信息进行融合处理,生成当前区域的态势图。
在本申请实施例中,通过对目标对象与雷达进行融合处理,可以生成当前区域的态势图。在融合过程中,前述各个实施例以及本实施例中的目标对象可以作为视觉目标,即通过系留无人机的视觉传感设备所识别的目标对象;而在雷达信息中识别出的目标对象可以作为雷达目标。融合处理过程即是对视觉目标与雷达目标的融合。
在本申请实施例中,可以首先判断雷达信息中是否存在与系留无人机的视觉传感设备所识别的目标对象相同的雷达目标。
通常,可以设置导航雷达的监视范围,例如监视半径为R的区域内,是否存在雷达目标。
在具体实现中,可以判断雷达信息对应的雷达图层中是否存在至少一个雷达目标。
若雷达图层中存在至少一个雷达目标,则可以分别计算每个雷达目标与目标对象之间的融合评价值并对融合评价值与预设阈值进行比较,将大于预设阈值的融合评价值中的最大值所对应的雷达目标,识别为与目标对象相同的雷达目标。
若雷达图层中不存在任一雷达目标,或者雷达目标的融合评价值小于预设阈值,则可以判定雷达图层中不存在与目标对象相同的雷达目标。
如果雷达信息中存在与目标对象相同的雷达目标,则可以对目标对象与雷达目标进行关联;如果雷达信息中不存在与目标对象相同的雷达目标,则可以在雷达信息对应的雷达图层中新建雷达目标,并将新建的雷达目标与目标对象进行关联,从而获得当前区域的态势图。
在本申请实施例中,在计算每个雷达目标与目标对象之间的融合评价值时,可以首先获取雷达目标与目标对象之间的欧拉距离,以及雷达目标与目标对象之间的可信度,上述欧拉距离与可信度分别具有相应的权重值。然后,可以按照各自的权重值对欧拉距离和可信度进行加权求和,获得每个雷达目标与目标对象之间的融合评价值。
在本申请实施例中,可以构建如下所示的融合评价指标:
I=k1d+k2f3(类型,目标速度)
其中,I表示雷达目标与目标对象之间的融合评价值,d表示雷达目标与视觉目标对象之间的欧拉距离;f3表示雷达目标与视觉目标对象的类型、速度匹配的可信度函数,其取值为0~1,0表示目标相关可能性为0,1则表示目标相关的概率大于95%;k1、k2分别对应两项指标的权重值。
为了便于理解,下面结合一个具体的示例,以航行设备为无人艇为例,对本申请实施例提供的目标融合的过程作一介绍。
如图7所示,是本申请实施例提供一种无人艇-无人机协同目标融合的过程示意图,包括系留无人机端与无人艇端两部分的处理过程。
(1)在系留无人机端:
可以将系留无人机及其视觉传感设备视为无人艇的间接附属设备,无人机的摄像装置在无人艇视觉控制模块的指令下,对某一区域进行视觉监控。
具体地,系留无人机可以通过位姿传感器、高度计及高精度角度反馈摄像头等功能装置或单元采集测量数据。这些测量数据可以通过脐带缆传输至无人艇端。
(2)在无人艇端:
无人艇视觉处理模块可以实时处理无人机的摄像装置采集的视觉信息,并通过内部识别功能,输出视频或图像中的目标信息,目标信息包括目标对象的位置(经纬度)、类型(渔船、快艇、货船、浮标、岛礁等)等信息。然后,无人艇可以执行图8所示的融合逻辑。
对于视觉方式识别到的视觉目标(即前述各个实施例中的目标对象),可以在雷达图层中尝试寻找一个雷达目标。具体地,可以设定关联融合半径阈值R;若半径R范围内没有雷达目标,则可以判定雷达未发现目标,从而可以在最终态势图中新建一个目标,并将其与视觉处理模块输出的视觉目标进行关联;
若半径R范围内存在雷达目标,则可以进一步判断是否可融合。计算该区域内所有雷达目标与视觉处理模块输出的视觉目标之间的融合评价指标,即融合评价值I,若不存在融合评价值大于最小允许关联值Imin(即融合评价值未达标)的雷达目标,则可以判定该视觉目标与雷达目标无关联。此时,可以在最终态势图中新建该视觉目标;
若存在融合评价值大于Imin(即融合评价值达标)的雷达目标,则可以继续判断可融合雷达目标是否唯一;若唯一,则对二者进行关联。然后,可以结合电子海图等信息,在态势图中对该视觉目标的信息进行重构,输出当前区域的态势图,完成海上地图重构。
参照图9,示出了本申请实施例提供的一种目标对象的位置确定装置的示意图,具体可以包括如下模块:
接收模块901,用于接收测量设备采集的测量数据,所述测量数据包括所述测量设备的测量高度以及所述测量设备的俯仰角度,所述测量设备为航行设备搭载的系留无人机;
确定模块902,用于根据所述测量高度和所述俯仰角度,确定目标对象的位置。
在本申请实施例中,所述俯仰角度包括所述测量设备的摄像装置与所述目标对象之间的目标俯仰角度,所述确定模块902具体可以包括如下子模块:
距离计算子模块,用于根据所述测量高度和所述目标俯仰角度,计算目标对象与所述测量设备在水面上的投影点之间的距离;
第一位置确定子模块,用于根据所述距离,确定所述目标对象的位置。
在本申请实施例中,所述俯仰角度包括所述测量设备的摄像装置的当前俯仰角度,所述测量数据还包括所述摄像装置的当前方向角度;所述,所述确定模块902还可以包括如下子模块:
目标图像获取子模块,用于获取所述摄像装置采集的目标图像,所述目标图像中包括所述目标对象;
像素坐标确定子模块,用于在所述目标图像中,确定所述目标对象相对于所述目标图像的图像中心点的像素坐标;
角度计算子模块,用于根据所述当前俯仰角度、所述当前方向角度和所述像素坐标,计算所述摄像装置与所述目标对象之间的目标俯仰角度和目标方向角度;
第二位置确定子模块,用于根据所述测量高度、所述目标俯仰角度和所述目标方向角度,确定所述目标对象的位置。
在本申请实施例中,所述第二位置确定子模块具体可以包括如下单元:
坐标系构建单元,用于以所述航行设备为坐标原点,构建目标坐标系;
设备坐标值确定单元,用于确定所述测量设备在所述目标坐标系中的设备坐标值;
目标坐标值计算单元,用于根据所述设备坐标值、所述测量高度、所述目标俯仰角度和所述目标方向角度,计算所述目标对象在所述目标坐标系中的目标坐标值;
位置确定单元,用于根据所述目标坐标值,确定所述目标对象的位置。
在本申请实施例中,所述装置还可以包括如下模块:
雷达信息获取模块,用于获取所述航行设备的导航雷达输出的雷达信息;
融合处理模块,用于将所述目标对象与所述雷达信息进行融合处理,生成当前区域的态势图。
在本申请实施例中,所述融合处理模块具体可以包括如下子模块:
雷达目标判断子模块,用于判断所述雷达信息中是否存在与所述目标对象相同的雷达目标;
态势图获得子模块,用于若所述雷达信息中存在与所述目标对象相同的雷达目标,则对所述目标对象与所述雷达目标进行关联,获得当前区域的态势图;若所述雷达信息中不存在与所述目标对象相同的雷达目标,则在所述雷达信息对应的雷达图层中新建雷达目标,并将新建的雷达目标与所述目标对象进行关联,获得当前区域的态势图。
在本申请实施例中,所述雷达目标判断子模块具体可以包括如下单元:
雷达目标判断单元,用于判断所述雷达信息对应的雷达图层中是否存在至少一个雷达目标;
雷达目标识别单元,用于若所述雷达图层中存在至少一个雷达目标,则分别计算每个雷达目标与所述目标对象之间的融合评价值并对所述融合评价值与预设阈值进行比较,将大于所述预设阈值的融合评价值中的最大值所对应的雷达目标,识别为与所述目标对象相同的雷达目标;若所述雷达图层中不存在任一雷达目标,或者所述雷达目标的融合评价值小于所述预设阈值,则判定所述雷达图层中不存在与所述目标对象相同的雷达目标。
在本申请实施例中,所述雷达目标识别单元具体可以包括如下子单元:
获取子单元,用于获取所述雷达目标与所述目标对象之间的欧拉距离,以及所述雷达目标与所述目标对象之间的可信度,所述欧拉距离与所述可信度分别具有相应的权重值;
计算子单元,用于按照所述权重值对所述欧拉距离和所述可信度进行加权求和,获得每个雷达目标与所述目标对象之间的融合评价值。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述得比较简单,相关之处参见方法实施例部分的说明即可。
参照图10,示出了本申请实施例提供的一种终端设备的示意图。如图10所示,本实施例的终端设备1000包括:处理器1010、存储器1020以及存储在所述存储器1020中并可在所述处理器1010上运行的计算机程序1021。所述处理器1010执行所述计算机程序1021时实现上述目标对象的位置确定方法各个实施例中的步骤,例如图1所示的步骤S101至S102。或者,所述处理器1010执行所述计算机程序1021时实现上述各装置实施例中各模块/单元的功能,例如图9所示模块901至902的功能。
示例性的,所述计算机程序1021可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器1020中,并由所述处理器1010执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段可以用于描述所述计算机程序1021在所述终端设备1000中的执行过程。例如,所述计算机程序1021可以被分割成接收模块、确定模块,各模块具体功能如下:
接收模块,用于接收测量设备采集的测量数据,所述测量数据包括所述测量设备的测量高度以及所述测量设备的俯仰角度,所述测量设备为航行设备搭载的系留无人机;
确定模块,用于根据所述测量高度和所述俯仰角度,确定目标对象的位置。
所述终端设备1000可包括,但不仅限于,处理器1010、存储器1020。本领域技术人员可以理解,图10仅仅是终端设备1000的一种示例,并不构成对终端设备1000的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备1000还可以包括输入输出设备、网络接入设备、总线等。
所述处理器1010可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器1020可以是所述终端设备1000的内部存储单元,例如终端设备1000的硬盘或内存。所述存储器1020也可以是所述终端设备1000的外部存储设备,例如所述终端设备1000上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(SecureDigital,SD)卡,闪存卡(Flash Card)等等。进一步地,所述存储器1020还可以既包括所述终端设备1000的内部存储单元也包括外部存储设备。所述存储器1020用于存储所述计算机程序1021以及所述终端设备1000所需的其他程序和数据。所述存储器1020还可以用于暂时地存储已经输出或者将要输出的数据。
参照图11,示出了本申请实施例提供的一种航行系统的示意图。如图11所示,航行系统包括航行设备1101,以及搭载于所述航行设备1101中的测量设备1102和终端设备1103。其中,所述测量设备1101可以为航行设备1101搭载的系留无人机,所述终端设备1103可以为图10所示的终端设备且可执行前述各个方法实施例中的目标对象的位置确定方法。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制。尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (9)

1.一种目标对象的位置确定方法,其特征在于,包括:
接收测量设备采集的测量数据,所述测量设备具有摄像装置,所述测量数据包括所述测量设备的测量高度、所述测量设备的俯仰角度、所述摄像装置的当前俯仰角度,以及所述摄像装置的当前方向角度,所述测量设备为航行设备搭载的系留无人机;
获取所述摄像装置采集的目标图像,所述目标图像中包括目标对象;
在所述目标图像中,确定所述目标对象相对于所述目标图像的图像中心点的像素坐标;
根据所述当前俯仰角度、所述当前方向角度和所述像素坐标,计算所述摄像装置与所述目标对象之间的目标俯仰角度和目标方向角度;
根据所述测量高度、所述目标俯仰角度和所述目标方向角度,确定所述目标对象的位置。
2.根据权利要求1所述的方法,其特征在于,所述根据所述测量高度、所述目标俯仰角度和所述目标方向角度,确定所述目标对象的位置,包括:
以所述航行设备为坐标原点,构建目标坐标系;
确定所述测量设备在所述目标坐标系中的设备坐标值;
根据所述设备坐标值、所述测量高度、所述目标俯仰角度和所述目标方向角度,计算所述目标对象在所述目标坐标系中的目标坐标值;
根据所述目标坐标值,确定所述目标对象的位置。
3.根据权利要求1-2任一项所述的方法,其特征在于,还包括:
获取所述航行设备的导航雷达输出的雷达信息;
将所述目标对象与所述雷达信息进行融合处理,生成当前区域的态势图。
4.根据权利要求3所述的方法,其特征在于,所述将所述目标对象与所述雷达信息进行融合处理,生成当前区域的态势图,包括:
判断所述雷达信息中是否存在与所述目标对象相同的雷达目标;
若所述雷达信息中存在与所述目标对象相同的雷达目标,则对所述目标对象与所述雷达目标进行关联,获得当前区域的态势图;
若所述雷达信息中不存在与所述目标对象相同的雷达目标,则在所述雷达信息对应的雷达图层中新建雷达目标,并将新建的雷达目标与所述目标对象进行关联,获得当前区域的态势图。
5.根据权利要求4所述的方法,其特征在于,所述判断所述雷达信息中是否存在与所述目标对象相同的雷达目标,包括:
判断所述雷达信息对应的雷达图层中是否存在至少一个雷达目标;
若所述雷达图层中存在至少一个雷达目标,则分别计算每个雷达目标与所述目标对象之间的融合评价值并对所述融合评价值与预设阈值进行比较,将大于所述预设阈值的融合评价值中的最大值所对应的雷达目标,识别为与所述目标对象相同的雷达目标;
若所述雷达图层中不存在任一雷达目标,或者所述雷达目标的融合评价值小于所述预设阈值,则判定所述雷达图层中不存在与所述目标对象相同的雷达目标。
6.根据权利要求5所述的方法,其特征在于,所述分别计算每个雷达目标与所述目标对象之间的融合评价值,包括:
获取所述雷达目标与所述目标对象之间的欧拉距离,以及所述雷达目标与所述目标对象之间的可信度,所述欧拉距离与所述可信度分别具有相应的权重值;
按照所述权重值对所述欧拉距离和所述可信度进行加权求和,获得每个雷达目标与所述目标对象之间的融合评价值。
7.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-6任一项所述的目标对象的位置确定方法。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-6任一项所述的目标对象的位置确定方法。
9.一种航行系统,包括航行设备,以及搭载于所述航行设备中的测量设备和终端设备,其特征在于,所述测量设备为航行设备搭载的系留无人机,所述终端设备为权利要求7所述的终端设备且可执行如权利要求1-6任一项所述的目标对象的位置确定方法。
CN202010611512.7A 2020-06-30 2020-06-30 目标对象的位置确定方法、终端设备及航行系统 Active CN111860215B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010611512.7A CN111860215B (zh) 2020-06-30 2020-06-30 目标对象的位置确定方法、终端设备及航行系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010611512.7A CN111860215B (zh) 2020-06-30 2020-06-30 目标对象的位置确定方法、终端设备及航行系统

Publications (2)

Publication Number Publication Date
CN111860215A CN111860215A (zh) 2020-10-30
CN111860215B true CN111860215B (zh) 2021-11-30

Family

ID=72989577

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010611512.7A Active CN111860215B (zh) 2020-06-30 2020-06-30 目标对象的位置确定方法、终端设备及航行系统

Country Status (1)

Country Link
CN (1) CN111860215B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113032956B (zh) * 2021-02-18 2022-09-02 重庆大学 一种水力割缝技术参数快速确定方法
CN113504794B (zh) * 2021-07-23 2023-04-21 中国科学院地理科学与资源研究所 一种无人机集群重构方法、系统和电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106683097A (zh) * 2017-03-03 2017-05-17 广东工业大学 一种无人机定位的方法以及系统
CN108710127A (zh) * 2018-04-19 2018-10-26 上海鹰觉科技有限公司 低空及海面环境下的目标检测识别方法及系统
CN110570463A (zh) * 2019-09-11 2019-12-13 深圳市道通智能航空技术有限公司 一种目标状态估计方法、装置和无人机

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106683097A (zh) * 2017-03-03 2017-05-17 广东工业大学 一种无人机定位的方法以及系统
CN108710127A (zh) * 2018-04-19 2018-10-26 上海鹰觉科技有限公司 低空及海面环境下的目标检测识别方法及系统
CN110570463A (zh) * 2019-09-11 2019-12-13 深圳市道通智能航空技术有限公司 一种目标状态估计方法、装置和无人机

Also Published As

Publication number Publication date
CN111860215A (zh) 2020-10-30

Similar Documents

Publication Publication Date Title
CN109283538B (zh) 一种基于视觉和激光传感器数据融合的海上目标大小检测方法
JP6507437B2 (ja) 船舶補助ドッキング方法およびシステム
US11514668B2 (en) Method and device for situation awareness
CN112884760A (zh) 近水桥梁多类型病害智能检测方法与无人船设备
US20220024549A1 (en) System and method for measuring the distance to an object in water
CN104535066B (zh) 一种船载红外视频图像中的海上目标与电子海图的叠加方法及系统
WO2016112708A1 (zh) 一种船舶辅助泊岸方法和系统
CN113627473B (zh) 基于多模态传感器的水面无人艇环境信息融合感知方法
US11948344B2 (en) Method, system, medium, equipment and terminal for inland vessel identification and depth estimation for smart maritime
CN111860215B (zh) 目标对象的位置确定方法、终端设备及航行系统
US20220172464A1 (en) Water non-water segmentation systems and methods
US20220392211A1 (en) Water non-water segmentation systems and methods
KR102530847B1 (ko) 항만 및 선박 모니터링 방법 및 장치
JP5152913B2 (ja) 洋上監視システムおよび方法
WO2021178603A1 (en) Water non-water segmentation systems and methods
KR20230074438A (ko) 선박 및 항만 모니터링 장치 및 방법
CN110667783A (zh) 一种无人艇辅助驾驶系统及其方法
US20230377326A1 (en) Method and Device for Situation Awareness
CN113933828A (zh) 一种无人艇环境自适应多尺度目标检测方法及系统
CN115830140A (zh) 一种海上近程光电监控方法、系统、介质、设备及终端
CN107941220B (zh) 一种基于视觉的无人船海天线检测与导航方法和系统
CN105785990B (zh) 基于全景环视的船只停泊系统及障碍物识别方法
Del Pizzo et al. A preliminary study on an optical system for nautical and maritime traffic monitoring
US20240194078A1 (en) System and method to avoid obstacles in an autonomous unmanned maritime vehicle
CN115128598B (zh) 基于视觉感知和雷达感知融合的行为识别方法及终端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 222042 Hall 4, seagull Plaza, Lianyun new town, Lianyun District, Lianyungang City, Jiangsu Province

Applicant after: Jiangsu Yunzhou Intelligent Technology Co.,Ltd.

Applicant after: Zhuhai Yunzhou Intelligent Technology Co.,Ltd.

Applicant after: Guangdong Laboratory of southern marine science and Engineering (Zhuhai)

Address before: 222042 Hall 4, seagull Plaza, Lianyun new town, Lianyun District, Lianyungang City, Jiangsu Province

Applicant before: Jiangsu Yunzhou Intelligent Technology Co.,Ltd.

Applicant before: ZHUHAI YUNZHOU INTELLIGENCE TECHNOLOGY Ltd.

Applicant before: Guangdong Laboratory of southern marine science and Engineering (Zhuhai)

GR01 Patent grant
GR01 Patent grant