CN111915677B - 一种基于三维点云特征的船舶位姿估计方法 - Google Patents

一种基于三维点云特征的船舶位姿估计方法 Download PDF

Info

Publication number
CN111915677B
CN111915677B CN202010649201.XA CN202010649201A CN111915677B CN 111915677 B CN111915677 B CN 111915677B CN 202010649201 A CN202010649201 A CN 202010649201A CN 111915677 B CN111915677 B CN 111915677B
Authority
CN
China
Prior art keywords
point
point cloud
ship
points
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010649201.XA
Other languages
English (en)
Other versions
CN111915677A (zh
Inventor
王立鹏
张智
高广
朱齐丹
夏桂华
王学武
苏丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN202010649201.XA priority Critical patent/CN111915677B/zh
Publication of CN111915677A publication Critical patent/CN111915677A/zh
Application granted granted Critical
Publication of CN111915677B publication Critical patent/CN111915677B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于三维点云特征的船舶位姿估计方法,首先通过从6个方向获取目标船的三维点云数据,采用拼接方式获得目标船的完整点云库。构建目标船的点云模板库。计算待配准目标船舶点云的ISS3D特征点及其特征直方图,得到模板点云库中的特征点与待配准点云库中的对应特征点重合的初始坐标变换矩阵,实现点云在全局范围内的快速粗配准。采用ICP点云配准算法,在上步粗配准的基础上进行点云的精准配准,获得实现点云精准配准的坐标变换矩阵。最后利用精准坐标变换矩阵与点云模板库中船舶的初始位姿信息,完成对目标船进行六自由度的位姿估计。本发明提出基于点云特征的船舶位姿估计算法实验,通过实验数据对比,验证本发明的有效性。

Description

一种基于三维点云特征的船舶位姿估计方法
技术领域
本发明涉及一种基于三维点云特征的船舶位姿估计方法,属于信号处理技术方法。
背景技术
三维激光雷达是用于获取周边信息的非常重要的传感器,具有测量精度高、获得的点云密度高、速度快、成本低等优势,在机器人控制、汽车自动驾驶、无人控制流水线等领域发挥重要的作用。尤其对于船载激光雷达,在开阔海域、狭窄水道、进出港航行过程中获得目标船的三维点云信息,并在此基础上利用点云信息对目标船的位置和姿态开展精准的估计。如果对目标船点云的位姿估计误差较大,不仅带来后续处理的误差较大,甚至会造成撞船事故,为此需要一种可根据三维点云特征来准确估计目标船位置和姿态的方法。
目前典型的三维点云目标位姿估计方法主要基于深度学习和基于视点特征,深度学习具有强大的训练和提取点云特征的能力,基于视点特征的方法可根据视点状态来估计扫描后点云的位置和姿态。如肖仕华在文献《基于深度学习的三维点云头部姿态估计》中,提出一种新的深度学习框架HPENet用于对人体头部姿态的估计算法,并在公共数据集BiwiKinect Head Pose上进行测试,验证了该方法在准确度方面具有更好的性能;再比如张彪在文献《基于视点特征直方图的激光点云模型的位姿估计》中,提出一种目标位姿估计算法,利用激光雷达扫描构成三维点云,建立特征数据库计算视点特征直方图,通过实验证明该方法具有很强的鲁棒性和准确性。以上文献在三维点云目标位姿估计过程中存在如下问题:一是基于深度学习的估计方法需要大量的样本对网络进行训练,收集足量的船舶训练样本具有操作难度大且成本高的问题;二是基于视点特征的方法需要有视点特征图组成的特征数据库作为基础,当特征数据库中待测船舶的视点特征图不完整时,不能提供精确的位姿估计;三是传统的基于视点特征的点云配准过程计算量大,运行时间长。
本发明利用激光雷达获取目标船的三维点云数据,通过对基础点云数据处理得到船舶完整点云数据,通过计算求解点云特征点和特征直方图来建立目标船的完整点云模板库,先后通过将待处理点云与模板库中点云的粗匹配(SAC-IA方法)和精匹配(ICP方法)方式,实现对目标船的位置和姿态的快速精确估计。
发明内容
本发明的目的是提供一种利用目标船三维点云来准确估计其位置和姿态的方法,可以根据船载激光雷达扫描得到的三维点云数据,通过粗匹配和精匹配方式,快速有效判定周围目标船的位置和姿态信息。
本发明的目的是这样实现的:步骤如下:
步骤一:获取目标船点云数据,拼接完整点云并计算ISS3D特征点;
步骤二:计算ISS3D特征点的快速点特征直方图(FPFH)特征描述子,建立目标船点云模板库;
步骤三:基于SAC-IA的点云粗配准;
步骤四:基于ICP的点云精细配准及位姿估计;
利用精准坐标变换矩阵与点云模板库中船舶的初始位姿信息,完成对目标船进行六自由度的位姿估计。
本发明还包括这样一些结构特征:
1.步骤一具体包括:采用点云拼接方法获取船舶的完整点云,从前、后、左、右、上、下6个方向获得船舶点云数据,再将点云拼接得到船舶完整点云数据,对每一种船舶的点云提取ISS3D特征点pf=[x,y,z],具体提取方法如下所示:
步骤1.1:对点云中每个点pi都设置一个局部坐标系,并设置搜索半径r;
步骤1.2:获取点云每个点pi在半径r内的所有点,权重计算公式如下所示:
步骤1.3:计算各点pi的协方差矩阵,如下所示:
步骤1.4:对各点pi的协方差矩阵进行特征值求解,并从大到小排序,得到
步骤1.5:通过特征值判断是否为关键点,选择阈值ε12,当且/>时,将这个点判断为角点关键点。
2.步骤二具体包括:
步骤2.1:对每一个特征点pq,寻找与它距离小于r的邻域点pki,计算特征点与邻域点之间的三元组(α,φ,θ);
步骤2.2:对于所有与特征点pq距离小于r的邻域点pki,都按照上一步骤的方法,以这些邻域点pki为中心搜索距离小于r的邻域点,计算中心点与邻域点的三元组(α,φ,θ);
步骤2.3:将特征点pq的三元组(α,φ,θ)与加权的邻域点pki的三元组(α,φ,θ)进行统计,得到最终的快速点特征直方图描述子为:
上式中ωki为权重值,其与关键点pq与邻域点pki之间距离有关;
将ISS3D特征点pf=[x,y,z]与快速点特征直方图特征描述子VFPFH合并为一个特征向量Ei=[x,y,z,VFPFH],以此来描述一个特征点,每种类型的船舶点云用这些特征向量的集合进行描述Mj=[E1 E2 … En],并将它们存在点云模板数据库中;最终获得所有类型船舶的点云特征模板库[M1 M2 … Mn]。
3.步骤三包括:
步骤3.1:从待处理点云中提取ISS3D特征点,计算这些特征点对应的FPFH特征描述子,从所有特征点中选择两两之间距离大于预定阈值d的n个特征点,以此作为采样点;
步骤3.2:在已建立的模板库中,逐个查找与上一步骤中获得的采样点有相似FPFH特征的关键点;
步骤3.3:将两片点云之间位置关系表示为如下所示的坐标变换形式:
上式中(xi,yi,zi)为已构建的模板库中的关键点,(x′i,y′i,z′i)为待处理点云数据中的采样点,M为变换矩阵;
步骤3.4:给出函数对上一步骤中变换矩阵M的准确度进行参数化表示,其中H(li)如下式所示:
上式中:ml为设定的阈值,li为经坐标变换后的第i组对应点对的距离,越小,则表示M的准确度越高;
步骤3.5:重复执行k次步骤3.3和步骤3.4,每次随机选择不同的对应点云计算变换矩阵M,并加以评估,选择k次选择中准确度最好的变换矩阵M,作为最终的变换矩阵。
4.步骤四具体是:
采用改进型ICP算法,在点云特征点粗配准的基础上,实现待处理点云与模板库点云数据的特征点精配准,并获得点云之间变换矩阵M,坐标变换矩阵M由旋转矩阵R*与位移矩阵T*构成,公式为:
通过这两个矩阵,并结合点云模板库中目标船的位置和姿态信息,得到当前时刻激光雷达扫描到的目标船的位置和姿态的估计信息,当坐标按照x、y、z顺序进行旋转时,旋转矩阵与平移矩阵的表达式可用下式所示的Rxyz(α,β,γ)和Txyz(x,y,z)表示:
则最终估计的船舶旋转姿态角度(α,β,γ)和平移位置信息(x,y,z)计算公式如下式所示:
5.步骤3.3具体为:
在n个采样点中随机选择4个点,对于其中每一个点在与之相似的多个特征点中随机选择一个点作为对应点,通过这4对点解得仿射变换矩阵M,得到两片点云之间的坐标变换关系,并给出在计算仿射变换矩阵前对所有的对应点进行初步筛选的判定条件为:
上式中:dpn为待处理点云中第n个特征点,dqn为模板库中与之对应的特征点,δ表示对应点匹配度,δ数值越小表示匹配度越高,当对应点对完全匹配时δ=0。
与现有技术相比,本发明的有益效果是:本发明避免了获取大量船舶点云样本导致的操作难度大且成本高问题,解决了点云模板不完整导致的估计精度低的问题,同时提高了计算速度,缩短了运行时间。首先,本发明方法不需要像深度学习需要大量的样本数据,而只需要目标船模型及其点云模板即可,节省大量的存储空间;其次,本发明与基于视点特征的方法相比,不需要额外的视点数据,并通过拼接构建完整点云模板库提高了估计精度,更具优越性。再次,在本发明中,粗配准实现两片点云在整体上快速配准,精配准负责提高配准精度,通过粗配准与精细配准相结合的方法并进行优化,提高了点云配准精度和效率。
附图说明
图1本发明船舶三维点云位姿估计流程图
图2(a)-图2(f)分别为前、左、后、右、上、下六个方向的点云数据图像
图3(a)为目标船模型图,图3(b)为目标船完整点云图
图4完整点云与场景点云特征点提取效果图
图5(a)目标船1配准前的图,图5(b)目标船1配准后的图,图5(c)目标船2配准前的图,图5(d)目标船2配准后的图;
图6是目标船位姿估计值与真实值数据表。
具体实施方式
下面结合附图与具体实施方式对本发明作进一步详细描述。
结合图1至图6,本发明提出的一种船舶三维点云的位姿估计方法的流程如下图所示。本发明首先通过从6个方向获取目标船的三维点云数据,采用拼接方式获得目标船的完整点云库。利用上步获得的完整点云计算获得ISS3D特征点及其特征直方图,构建目标船的点云模板库。计算待配准目标船舶点云的ISS3D特征点及其特征直方图,采用SAC-IA点云配准算法,借助特征直方图将点云模板库与待处理点云库的特征点一一对应,得到模板点云库中的特征点与待配准点云库中的对应特征点重合的初始坐标变换矩阵,实现点云在全局范围内的快速粗配准。采用ICP点云配准算法,在上步粗配准的基础上进行点云的精准配准,获得实现点云精准配准的坐标变换矩阵。最后利用精准坐标变换矩阵与点云模板库中船舶的初始位姿信息,完成对目标船进行六自由度的位姿估计。本发明提出基于点云特征的船舶位姿估计算法实验,通过实验数据对比,验证本发明方法的有效性。
本发明的步骤如下:
步骤1.获取目标船点云数据,拼接完整点云并计算ISS3D特征点
本发明采用点云拼接方法获取船舶的完整点云,具体实现方法是从前、后、左、右、上、下6个方向获得船舶点云数据,再将点云拼接得到船舶完整点云数据,对每一种船舶的点云提取ISS3D特征点pf=[x,y,z],具体提取方法如下所示:
Step 1:对点云中每个点pi都设置一个局部坐标系,并设置搜索半径r;
Step 2:获取点云每个点pi在半径r内的所有点,权重计算公式如下所示:
Step 3:计算各点pi的协方差矩阵,如下所示:
Step 4:对各点pi的协方差矩阵进行特征值求解,并从大到小排序,得到
Step 5:通过特征值判断是否为关键点,选择阈值ε12,当且/>时,将这个点判断为角点关键点。
步骤2.计算ISS3D特征点的快速点特征直方图(FPFH)特征描述子,建立目标船点云模板库
计算ISS3D特征点pf=[x,y,z]的快速点特征直方图(FPFH)特征描述子VFPFH,计算步骤如下所示:
Step 1:对每一个特征点pq,寻找与它距离小于r的邻域点pki,然后计算特征点与邻域点之间的三元组(α,φ,θ)。
Step 2:对于所有与特征点pq距离小于r的邻域点pki,都按照上一步骤的方法,以这些邻域点pki为中心搜索距离小于r的邻域点,然后计算中心点与邻域点的三元组(α,φ,θ)。
Step 3:将特征点pq的三元组(α,φ,θ)与加权的邻域点pki的三元组(α,φ,θ)进行统计,得到最终的快速点特征直方图(FPFH)描述子,如下式所示:
上式中ωki为权重值,其与关键点pq与邻域点pki之间距离有关。
将ISS3D特征点pf=[x,y,z]与快速点特征直方图(FPFH)特征描述子VFPFH合并为一个特征向量Ei=[x,y,z,VFPFH],以此来描述一个特征点,每种类型的船舶点云用这些特征向量的集合进行描述Mj=[E1 E2 … En],并将它们存在点云模板数据库中。最终获得所有类型船舶的点云特征模板库[M1 M2 … Mn]。
步骤3.基于SAC-IA的点云粗配准方法
将激光雷达扫描获得的原始点云数据进行滤波、分割后,获得一系列的待处理点云数据,对这些点云数据提取ISS3D特征点和FPFH特征描述子,并进一步处理得到特征向量,利用SAC-IA点云配准方法将获得的特征向量与模板库内特征开展粗配准工作,具体实现方法如下步骤所示:
Step 1:从待处理点云中提取ISS3D特征点,然后计算这些特征点对应的FPFH特征描述子,从所有特征点中选择两两之间距离大于预定阈值d的n个特征点,以此作为采样点。
Step 2:在已建立的模板库中,逐个查找与上一步骤中获得的采样点有相似FPFH特征的关键点,此时模板库中一定会有多个特征点与采样点特征相似,通过下一步骤计算两片点云变换矩阵方式确定寻找关键点。
Step 3:将两片点云之间位置关系表示为如下所示的坐标变换形式:
上式中(xi,yi,zi)为已构建的模板库中的关键点,(xi′,yi′,zi′)为待处理点云数据中的采样点,M为变换矩阵。
在n个采样点中随机选择4个点,对于其中每一个点在与之相似的多个特征点中随机选择一个点作为对应点,通过这4对点解得仿射变换矩阵M,得到两片点云之间的坐标变换关系。为了提高随机选择对应点的准确性,本发明在计算仿射变换矩阵前对所有的对应点进行初步筛选,初步筛选判定条件如下式所示:
上式中:dpn为待处理点云中第n个特征点,dqn为模板库中与之对应的特征点,δ表示对应点匹配度,δ数值越小表示匹配度越高,当对应点对完全匹配时δ=0。本发明设置一个阈值t,当δ小于阈值t时,即表示这组对应点对是符合要求的,可利用它们计算仿射变换矩阵M。
Step 4:本发明设计一个函数对上一步骤中变换矩阵M的准确度进行参数化表示,其中H(li)如下式所示:
上式中:ml为设定的阈值,li为经坐标变换后的第i组对应点对的距离。在本发明中,越小,则表示M的准确度越高。
Step 5:重复执行k次Step 3和Step 4,每次随机选择不同的对应点云计算变换矩阵M,并加以评估,选择k次选择中准确度最好的变换矩阵M,作为最终的变换矩阵。
本发明通过以上步骤,获得变换矩阵M后,完成了点云的粗配准工作,初步完成了待处理点云特征点与模板库中特征点的匹配工作。
步骤4.基于ICP的点云精细配准及位姿估计方法
本发明采用ICP算法基本原理,在粗配准结果上开展多次迭代计算工作提高配准精度,当对应点的误差小于指定阈值时,完成迭代任务。
本发明结合降采样和K-D树方法,来提高对应点的索引速度,具体实现方式是:将待处理的点云进行降采样以减少点云数量,然后将初始位姿下点云模板库中的点云数据创建为K-D树,即可快速找到与待处理点云特征点距离最近的对应点。
本发明为配准点对增加权重,并设置合理的阈值,该阈值的作用是当点对的距离大于此阈值时,将权重重置为0。本发明采用计算标准差的方法制定阈值,具体方法如下:统计所有点对的距离D,计算这些距离标准差σ,设置标准差的倍数为距离的阈值,具体如下式所示:
Distmax=nσ (14)
本发明考虑到点对距离越近则可靠性越高,因此距离越远的点对的权重越小,则权重表达式用下式表示:
在上式中,当点对间距离Dist(pi,qi)=Distmax时,对应的权重wi=0,此时点对可以被视为异值点,并予以剔除。
本发明采用上述改进型ICP算法,在点云特征点粗配准的基础上,实现待处理点云与模板库点云数据的特征点精配准,并获得点云之间变换矩阵M,坐标变换矩阵M由旋转矩阵R*与位移矩阵T*构成,公式如下式所示:
通过这两个矩阵,并结合点云模板库中目标船的位置和姿态信息,可以得到当前时刻激光雷达扫描到的目标船的位置和姿态的估计信息,当坐标按照x、y、z顺序进行旋转时,旋转矩阵与平移矩阵的表达式可用下式所示的Rxyz(α,β,γ)和Txyz(x,y,z)表示:
则最终估计的船舶旋转姿态角度(α,β,γ)和平移位置信息(x,y,z)计算公式如下式所示:
下面结合具体数值给出本发明的基于点云特征的船舶位姿估计算法实验:
本发明开展基于点云特征的目标位姿估计算法实验,具体实现步骤如下所示:
Step 1:获取目标船各方向的点云图像
从前、后、左、右、上、下6个方向,获取目标船的点云数据图像,如图2(a)-2(f)所示。
Step 2:拼接得到目标船的完整点云数据
再将6个方向的点云数据图像进行滤波和拼接,得到最终的完整点云图,如图3(a)-3(b)所示。
Step 3:对点云库的完整点云和分割后的场景点云提取ISS3D特征点,特征点如图4中红点所示,并计算FPFH特征直方图。
Step 4:经SAC-IA与ICP算法进行点云配准,图5(a)-5(d)为2艘目标船的点云配准效果。
Step 5:由三维点云特征计算目标船位置数据,并与真实值对比。
经过点云配准后的变换矩阵,获得目标船的6自由度变换参数,估计参数与真实参数如图6中的表所示。从表中可以看出,虽然估计存在一定误差,但是误差范围不大,本发明方法有效。

Claims (2)

1.一种基于三维点云特征的船舶位姿估计方法,其特征在于:步骤如下:
步骤一:获取目标船点云数据,拼接完整点云并计算ISS3D特征点;
采用点云拼接方法获取船舶的完整点云,从前、后、左、右、上、下6个方向获得船舶点云数据,再将点云拼接得到船舶完整点云数据,对每一种船舶的点云提取ISS3D特征点pf=[x,y,z],具体提取方法如下所示:
步骤1.1:对点云中每个点pi都设置一个局部坐标系,并设置搜索半径r;
步骤1.2:获取点云每个点pi在半径r内的所有点,权重计算公式如下所示:
步骤1.3:计算各点pi的协方差矩阵,如下所示:
步骤1.4:对各点pi的协方差矩阵进行特征值求解,并从大到小排序,得到
步骤1.5:通过特征值判断是否为关键点,选择阈值ε12,当且/>时,将这个点判断为角点关键点;
步骤二:计算ISS3D特征点的快速点特征直方图(FPFH)特征描述子,建立目标船点云模板库;
步骤2.1:对每一个特征点pq,寻找与它距离小于r的邻域点pki,计算特征点与邻域点之间的三元组(α,φ,θ);
步骤2.2:对于所有与特征点pq距离小于r的邻域点pki,都按照上一步骤的方法,以这些邻域点pki为中心搜索距离小于r的邻域点,计算中心点与邻域点的三元组(α,φ,θ);
步骤2.3:将特征点pq的三元组(α,φ,θ)与加权的邻域点pki的三元组(α,φ,θ)进行统计,得到最终的快速点特征直方图描述子为:
上式中ωki为权重值,其与关键点pq与邻域点pki之间距离有关;
将ISS3D特征点pf=[x,y,z]与快速点特征直方图特征描述子VFPFH合并为一个特征向量Ei=[x,y,z,VFPFH],以此来描述一个特征点,每种类型的船舶点云用这些特征向量的集合进行描述Mj=[E1 E2…En],并将它们存在点云模板数据库中;最终获得所有类型船舶的点云特征模板库[M1 M2…Mn];
步骤三:基于SAC-IA的点云粗配准;
步骤3.1:从待处理点云中提取ISS3D特征点,计算这些特征点对应的FPFH特征描述子,从所有特征点中选择两两之间距离大于预定阈值d的n个特征点,以此作为采样点;
步骤3.2:在已建立的模板库中,逐个查找与上一步骤中获得的采样点有相似FPFH特征的关键点;
步骤3.3:将两片点云之间位置关系表示为如下所示的坐标变换形式:
上式中(xi,yi,zi)为已构建的模板库中的关键点,(xi′,yi′,zi′)为待处理点云数据中的采样点,M为变换矩阵;
步骤3.4:给出函数对上一步骤中变换矩阵M的准确度进行参数化表示,其中H(li)如下式所示:
上式中:ml为设定的阈值,li为经坐标变换后的第i组对应点对的距离,越小,则表示M的准确度越高;
步骤3.5:重复执行k次步骤3.3和步骤3.4,每次随机选择不同的对应点云计算变换矩阵M,并加以评估,选择k次选择中准确度最好的变换矩阵M,作为最终的变换矩阵;
步骤四:基于ICP的点云精细配准及位姿估计;
利用精准坐标变换矩阵与点云模板库中船舶的初始位姿信息,完成对目标船进行六自由度的位姿估计;采用改进型ICP算法,在点云特征点粗配准的基础上,实现待处理点云与模板库点云数据的特征点精配准,并获得点云之间变换矩阵M,坐标变换矩阵M由旋转矩阵R*与位移矩阵T*构成,公式为:
通过这两个矩阵,并结合点云模板库中目标船的位置和姿态信息,得到当前时刻激光雷达扫描到的目标船的位置和姿态的估计信息,当坐标按照x、y、z顺序进行旋转时,旋转矩阵与平移矩阵的表达式可用下式所示的Rxyz(α,β,γ)和Txyz(x,y,z)表示:
则最终估计的船舶旋转姿态角度(α,β,γ)和平移位置信息(x,y,z)计算公式如下式所示:
2.根据权利要求1所述的一种基于三维点云特征的船舶位姿估计方法,其特征在于:步骤3.3具体为:
在n个采样点中随机选择4个点,对于其中每一个点在与之相似的多个特征点中随机选择一个点作为对应点,通过这4对点解得仿射变换矩阵M,得到两片点云之间的坐标变换关系,并给出在计算仿射变换矩阵前对所有的对应点进行初步筛选的判定条件为:
上式中:dpn为待处理点云中第n个特征点,dqn为模板库中与之对应的特征点,δ表示对应点匹配度,δ数值越小表示匹配度越高,当对应点对完全匹配时δ=0。
CN202010649201.XA 2020-07-08 2020-07-08 一种基于三维点云特征的船舶位姿估计方法 Active CN111915677B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010649201.XA CN111915677B (zh) 2020-07-08 2020-07-08 一种基于三维点云特征的船舶位姿估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010649201.XA CN111915677B (zh) 2020-07-08 2020-07-08 一种基于三维点云特征的船舶位姿估计方法

Publications (2)

Publication Number Publication Date
CN111915677A CN111915677A (zh) 2020-11-10
CN111915677B true CN111915677B (zh) 2023-11-17

Family

ID=73226306

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010649201.XA Active CN111915677B (zh) 2020-07-08 2020-07-08 一种基于三维点云特征的船舶位姿估计方法

Country Status (1)

Country Link
CN (1) CN111915677B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112396655B (zh) * 2020-11-18 2023-01-03 哈尔滨工程大学 一种基于点云数据的船舶目标6d位姿估计方法
CN112561998B (zh) * 2020-12-16 2024-02-20 国网江苏省电力有限公司检修分公司 一种基于三维点云配准的机器人定位和自主充电方法
CN112598735B (zh) * 2020-12-21 2024-02-27 西北工业大学 一种融合三维模型信息的单张图像物体位姿估计方法
CN112669359B (zh) * 2021-01-14 2023-05-26 武汉理工大学 一种三维点云配准方法、装置、设备及存储介质
CN113012122B (zh) * 2021-03-11 2022-07-29 复旦大学 一种类别级6d位姿与尺寸估计方法及装置
CN112907491B (zh) * 2021-03-18 2023-08-22 中煤科工集团上海有限公司 一种适用于井下巷道的激光点云回环检测方法及系统
CN113223145B (zh) * 2021-04-19 2023-11-24 中国科学院国家空间科学中心 用于行星表面探测的亚像素测量多源数据融合方法及系统
CN113344769B (zh) * 2021-04-20 2024-06-14 梅卡曼德(北京)机器人科技有限公司 基于机器视觉的物品3d图像信息获取方法、装置、介质
CN113284170A (zh) * 2021-05-26 2021-08-20 北京智机科技有限公司 一种点云快速配准方法
CN113470113B (zh) * 2021-08-13 2023-07-21 西南科技大学 一种融合brief特征匹配与icp点云配准的零部件姿态估计方法
CN113781561B (zh) * 2021-09-09 2023-10-27 诺力智能装备股份有限公司 基于自适应高斯权快速点特征直方图的目标位姿估计方法
CN114067078B (zh) * 2021-11-19 2024-04-30 天津理工大学 一种用于陶瓷洁具位姿精确测量的点云配准方法
CN114295053B (zh) * 2021-12-31 2023-11-28 北京百度网讯科技有限公司 物料体积的确定方法及装置、设备、介质和产品
CN115082532B (zh) * 2022-05-12 2024-03-29 华南理工大学 一种基于激光雷达的跨江输电线防船舶碰撞方法
CN115283172B (zh) * 2022-07-22 2024-05-17 颖态智能技术(上海)有限公司 一种基于点云处理的机器人自动喷涂方法
CN115082547B (zh) * 2022-07-27 2022-11-15 深圳市华汉伟业科技有限公司 一种基于点云数据的轮廓度测量方法、存储介质
CN116958265A (zh) * 2023-09-19 2023-10-27 交通运输部天津水运工程科学研究所 一种基于双目视觉的船舶位姿测量方法及系统
CN117173650B (zh) * 2023-11-02 2024-01-26 浙江华是科技股份有限公司 基于激光雷达的船舶测量与识别方法及系统
CN117601129A (zh) * 2023-12-25 2024-02-27 深圳职业技术大学 面向飞机舱门装配的位姿调整系统及方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106296693A (zh) * 2016-08-12 2017-01-04 浙江工业大学 基于3d点云fpfh特征实时三维空间定位方法
CN108830902A (zh) * 2018-04-19 2018-11-16 江南大学 一种基于点云处理的散乱工件识别与定位方法
CN109872352A (zh) * 2018-12-29 2019-06-11 中国科学院遥感与数字地球研究所 基于杆塔特征点的电力巡线LiDAR数据自动配准方法
CN110930456A (zh) * 2019-12-11 2020-03-27 北京工业大学 基于pcl点云库的钣金零件的三维立体识别及定位方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116385505A (zh) * 2017-10-20 2023-07-04 阿里巴巴集团控股有限公司 数据处理方法、装置、系统和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106296693A (zh) * 2016-08-12 2017-01-04 浙江工业大学 基于3d点云fpfh特征实时三维空间定位方法
CN108830902A (zh) * 2018-04-19 2018-11-16 江南大学 一种基于点云处理的散乱工件识别与定位方法
CN109872352A (zh) * 2018-12-29 2019-06-11 中国科学院遥感与数字地球研究所 基于杆塔特征点的电力巡线LiDAR数据自动配准方法
CN110930456A (zh) * 2019-12-11 2020-03-27 北京工业大学 基于pcl点云库的钣金零件的三维立体识别及定位方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于视点特征直方图的激光点云模型的位姿估计;张彪;曹其新;焦瑶;;光电子.激光(第07期);全文 *

Also Published As

Publication number Publication date
CN111915677A (zh) 2020-11-10

Similar Documents

Publication Publication Date Title
CN111915677B (zh) 一种基于三维点云特征的船舶位姿估计方法
US8830229B2 (en) Recognition and pose determination of 3D objects in 3D scenes
CN107392929B (zh) 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法
CN107133966B (zh) 一种基于采样一致性算法的三维声纳图像背景分割方法
Cheng et al. Building boundary extraction from high resolution imagery and lidar data
Huang et al. A coarse-to-fine algorithm for registration in 3D street-view cross-source point clouds
Zelener et al. Cnn-based object segmentation in urban lidar with missing points
CN113177593A (zh) 一种水上交通环境中雷达点云与影像数据的融合方法
CN114088099A (zh) 基于已知地图的语义重定位方法、装置、电子设备及介质
CN114299405A (zh) 一种无人机图像实时目标检测方法
Araujo et al. Air-sslam: A visual stereo indoor slam for aerial quadrotors
CN111798453A (zh) 用于无人驾驶辅助定位的点云配准方法及其系统
Zhu et al. A review of 6d object pose estimation
KR102449031B1 (ko) 딥러닝을 이용한 실내 위치 측위 방법
Olson Adaptive-scale filtering and feature detection using range data
Liu et al. Deep learning of directional truncated signed distance function for robust 3D object recognition
KR101733288B1 (ko) 방향정보를 이용한 객체 검출기 생성 방법, 이를 이용한 객체 검출 장치 및 방법
Han et al. Accurate and robust vanishing point detection method in unstructured road scenes
CN113177969B (zh) 一种基于运动方向变化的候选种子的点云单目标跟踪方法
Wang et al. Recognition and 3D pose estimation for underwater objects using deep convolutional neural network and point cloud registration
CN113723468A (zh) 一种三维点云的物体检测方法
CN112712062A (zh) 基于解耦截断物体的单目三维物体检测方法和装置
Yamazaki et al. Discovering correspondence among image sets with projection view preservation for 3D object detection in point clouds
Lang et al. An iterative convergence algorithm for single/multi ground plane detection and angle estimation with RGB-D camera
Mahmood et al. Surface Patch Detection of 3D Point Cloud Using Local Shape Descriptor

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant