CN115131688A - 一种巡检部件的无人机拍摄点提取方法 - Google Patents
一种巡检部件的无人机拍摄点提取方法 Download PDFInfo
- Publication number
- CN115131688A CN115131688A CN202210745267.8A CN202210745267A CN115131688A CN 115131688 A CN115131688 A CN 115131688A CN 202210745267 A CN202210745267 A CN 202210745267A CN 115131688 A CN115131688 A CN 115131688A
- Authority
- CN
- China
- Prior art keywords
- inspection
- aerial vehicle
- unmanned aerial
- shooting
- cloud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种巡检部件的无人机拍摄点提取方法,所述无人机拍摄点提取方法具体为获取巡检目标设备,并采集巡检目标设备的点云数据,根据巡检目标设备的点云数据构建巡检目标设备的三维模型;对其进行特征提取,通过深度学习算法识别三维模型中各巡检部位的对应区域,对各巡检部位的对应区域进行主成分分析,获取各巡检部件的中心轴,根据中心轴以及对应的点云数据构建各巡检部位的有向包围盒,获取各巡检部件的有向包围盒的中心点,以此作为对应的无人机拍摄点。本发明通过构建各巡检部件的有向包围盒来获取对应的无人机拍摄点,无需人工选点和人工控制,同时还能保障无人机在无人机拍摄点所获取的图像能够完整且清晰,进一步提高巡检效率。
Description
技术领域
本发明涉及电力巡检技术领域,尤其是指一种巡检部件的无人机拍摄点提取方法。
背景技术
伴随着社会用电需求的不断增加,电力系统规模的不断扩大,电力系统中的输电线路也在不断增多。伴随着输电线路的增加,对于输电线路巡检工作负担也在不断增重,传统的人工巡检的方式常存在着巡检工作量大、巡检效率低的问题。且为了保障输电线路的安全,输电线路上的运行部件常设置在高处,传统的人工方式对位于高出的运行部件进行巡检,存在着较大的安全隐患。
近年来,随着无人机技术的发展,输电线路的巡检方式逐渐由人工转换为无人机巡检方式,而在采用无人机对输电线路进行巡检时,常通过无人机操作人员来实时控制无人机的飞行,且在控制无人机进行巡检时,需要人工选择每个巡检部件对应的无人机拍摄点,人工选择的方式难以控制无人机拍摄点位置的误差,不能保障所拍摄到巡检部件的图像能够符合巡检要求,且在巡检过程中同样需要人工全程进行无人机操纵,工作量依旧很大,且效率依旧很低。
发明内容
本发明的目的是克服现有技术中的缺点,提供一种巡检部件的无人机拍摄点提取方法,能够解决在无人机巡检过程中,通过人工控制确定无人机拍摄点位置,存在的无人机拍摄点选取误差大的问题。
本发明的目的是通过下述技术方案予以实现:
一种巡检部件的无人机拍摄点提取方法,包括:
获取巡检目标设备,并采集巡检目标设备的点云数据,根据巡检目标设备的点云数据构建巡检目标设备的三维模型;
对构建的巡检目标设备的三维模型进行特征提取,并通过深度学习算法识别巡检目标设备的三维模型中各巡检部位的对应区域,对各巡检部位的对应区域进行主成分分析,获取各巡检部件的中心轴;
根据中心轴以及对应的点云数据构建各巡检部位的有向包围盒,并获取各巡检部件的有向包围盒的中心点,将各巡检部件的有向包围盒的中心点作为对应的无人机拍摄点。
进一步的,对各巡检部位的对应区域进行主成分分析,获取各巡检部件的中心轴的具体过程为:选择其中一个巡检部件,根据选取的巡检部件对应的点云数据构建数据集,根据数据集计算位置平均数,根据位置平均数以及数据集构建协方差矩阵,求取协方差矩阵的特征值,并获取每个特征值对应的特征向量,将每个特征向量进行标准化处理,标准化处理后的特征向量为选择的巡检部件在对应方向上的中心轴,重新选择一个巡检部件进行中心轴的计算,直至获取所有巡检部件对应的中心轴。
进一步的,根据中心轴以及对应的点云数据构建各巡检部位的有向包围盒的具体过程为:选择其中一个巡检部件,并选择该巡检部件其中一个方向的中心轴,并将点云数据依次与选择的中心轴对应的特征值相乘,获取每个点云数据映射到该方向中心轴上对应的坐标值,重新选择一个方向的中心轴,将点云数据映射至该方向中心轴上,并获取对应映射后坐标值,直至获取所有方向上每个点云数据映射到该方向中心轴对应的坐标值,提取每个方向上映射后获取的坐标值中的最大值和最小值,根据提取得到的每个方向上映射后的最大值和最小值构建有向包围盒的所有顶点的坐标,根据获取的顶点坐标逆变换至点云数据对应坐标系中,获取点云数据对应坐标系中各顶点的坐标值,根据获取的点云数据对应坐标系中各顶点的坐标值构建有向包围盒。
进一步的,在获取各巡检部件的无人机拍摄点后,根据各巡检部件的有向包围盒各顶点的坐标值确定各巡检部件对应无人机拍摄点的坐标,根据无人机的相机参数、预设无人机安全距离以及各巡检部件对应的有向包围盒确定各巡检部件对应无人机拍摄点的拍摄位置,以及各拍摄位置的对应坐标,根据拍摄位置的对应坐标以及巡检目标设备的三维模型对拍摄位置进行分类,获取巡检目标设备的三维模型每个方向的拍摄位置,并对每个方向的拍摄位置进行分层排序,调取历史拍摄方向顺序,根据历史拍摄方向顺序以及每个方向拍摄位置的排序确定所有目标拍摄点的拍摄顺序,根据目标拍摄点的拍摄顺序以及各目标拍摄点的对应拍摄位置的坐标生成无人机的巡检航线。
进一步的,在生成巡检航线后,还根据各巡检部件的有向包围盒对生成的巡检航线进碰撞预测,调取无人机在巡检前的位置坐标以及巡检航线内各拍摄位置的坐标,判断无人机在移动至下一个拍摄位置的过程中,是否会与巡检部件碰撞,若判断出无人机在移动至下一个拍摄位置的过程中会与巡检部件碰撞,则通过规避算法以及判断出会碰撞到的巡检部件的有向包围盒计算出相应的拐点,根据计算得到的拐点对巡检航线进行调整。
本发明的有益效果是:
通过点云数据构建巡检目标设备的三维模型,通过三维模型能够更加精准获取各巡检部件的对应区域,识别结果更加准确。将巡检目标设备按照巡检部件进行划分,在确定无人机拍摄点时,能够按照巡检部件来进行选点。且构建各巡检部件对应的有向包围盒,基于有向包围盒来获取各巡检部件的无人机拍摄点,保障无人机在无人机拍摄点所获取的图像能够完整且清晰,不会出现部位缺失等情况。且能够根据选取的无人机拍摄点自行生成航线,不需要人工对无人机进行全程控制,降低工作量,提高巡检效率。且能够对规划的航迹进行优化,防止在无人机飞行过程中碰撞到巡检目标设备,保障巡检目标设备和无人机的安全。
附图说明
图1是本发明的一种流程示意图。
具体实施方式
下面结合附图和实施例对本发明进一步描述。
实施例:
一种巡检部件的无人机拍摄点提取方法,如图1所示,包括:
获取巡检目标设备,并采集巡检目标设备的点云数据,根据巡检目标设备的点云数据构建巡检目标设备的三维模型;
对构建的巡检目标设备的三维模型进行特征提取,并通过深度学习算法识别巡检目标设备的三维模型中各巡检部位的对应区域,对各巡检部位的对应区域进行主成分分析,获取各巡检部件的中心轴;
根据中心轴以及对应的点云数据构建各巡检部位的有向包围盒,并获取各巡检部件的有向包围盒的中心点,将各巡检部件的有向包围盒的中心点作为对应的无人机拍摄点。
点云数据为通过测量仪器获取物体表面每个采样点的空间坐标后,获取的点的集合。通过点云数据能够获取物体表面每个点在三维坐标系中的坐标、反射率和颜色等,根据获取的坐标来构建对应的三维模型,三维模型能够更加直观地反映巡检目标设备的特征。具体的可以采用点云数据处理BIM软件Bentley Pointools来进行三维模型的构建。
对三维模型进行特征提取时,按照三维模型表面的连接边缘确定每个区域的轮廓,再根据深度学习算法对每个区域的轮廓进行识别,确定每个区域对应的巡检部件。
对各巡检部位的对应区域进行主成分分析,获取各巡检部件的中心轴的具体过程为:选择其中一个巡检部件,根据选取的巡检部件对应的点云数据构建数据集,根据数据集计算位置平均数,根据位置平均数以及数据集构建协方差矩阵,求取协方差矩阵的特征值,并获取每个特征值对应的特征向量,将每个特征向量进行标准化处理,标准化处理后的特征向量为选择的巡检部件在对应方向上的中心轴,重新选择一个巡检部件进行中心轴的计算,直至获取所有巡检部件对应的中心轴。
选择其中一个巡检部件后,调取该巡检部件区域内的点云数据,并将区域中每个采样点对应的点云数据设为Pi=(xi,yi,zi),该巡检部件区域内的点云数据P视为由N个采样点构成的数据集,即P={P1,P2,P3,…,PN}。通过以下公式计算得到位置平均数m:
根据位置平均数m以及数据集P构建协方差矩阵C,构建的协方差矩阵C具体为:
根据中心轴以及对应的点云数据构建各巡检部位的有向包围盒的具体过程为:选择其中一个巡检部件,并选择该巡检部件其中一个方向的中心轴,并将点云数据依次与选择的中心轴对应的特征值相乘,获取每个点云数据映射到该方向中心轴上对应的坐标值,重新选择一个方向的中心轴,将点云数据映射至该方向中心轴上,并获取对应映射后坐标值,直至获取所有方向上每个点云数据映射到该方向中心轴对应的坐标值,提取每个方向上映射后获取的坐标值中的最大值和最小值,根据提取得到的每个方向上映射后的最大值和最小值构建有向包围盒的所有顶点的坐标,根据获取的顶点坐标逆变换至点云数据对应坐标系中,获取点云数据对应坐标系中各顶点的坐标值,根据获取的点云数据对应坐标系中各顶点的坐标值构建有向包围盒。
在构建巡检部位的有向包围盒时,将获取向量和作为点云数据投影的坐标系的坐标轴。将点云数据依次投影至该坐标系中,获取每个点对应的投影坐标值,并提取每个坐标轴上的最大值和最小值,即Xmax、Ymax、Zmax、Xmin、Ymin和Zmin,由此得到8个顶点,其坐标依次为(Xmax,Ymax,Zmax)、(Xmax,Ymin,Zmax)、(Xmax,Ymax,Zmin)、(Xmin,Ymax,Zmax)、(Xmin,Ymax,Zmin)、(Xmin,Ymin,Zmax)、(Xmax,Ymin,Zmin)和(Xmin,Ymin,Zmin)。由于此处获取的顶点坐标为以向量和构建的坐标系内的坐标,在确定无人机拍摄点时,需要获取无人机拍摄点在三维模型所处坐标系内的坐标,因此通过点云数据的投影,将顶点坐标转换至三维模型所处坐标系中的坐标,并以此坐标获取在三维模型所处坐标系中的有向包围盒。
在获取各巡检部件的无人机拍摄点后,根据各巡检部件的有向包围盒各顶点的坐标值确定各巡检部件对应无人机拍摄点的坐标,根据无人机的相机参数、预设无人机安全距离以及各巡检部件对应的有向包围盒确定各巡检部件对应无人机拍摄点的拍摄位置,以及各拍摄位置的对应坐标,根据拍摄位置的对应坐标以及巡检目标设备的三维模型对拍摄位置进行分类,获取巡检目标设备的三维模型每个方向的拍摄位置,并对每个方向的拍摄位置进行分层排序,调取历史拍摄方向顺序,根据历史拍摄方向顺序以及每个方向拍摄位置的排序确定所有目标拍摄点的拍摄顺序,根据目标拍摄点的拍摄顺序以及各目标拍摄点的对应拍摄位置的坐标生成无人机的巡检航线。
有向包围盒的中心点为无人机拍摄点,在计算有向包围盒的中心点时,先计算Xmax和Xmin的平均值a,Ymax和Ymin的平均值b以及Zmax和Zmin的平均值c。具体的,中心点O在以向量和构建的坐标系内的坐标为O=(a,b,c)。再将中心点O的坐标转换为三维模型所处坐标系中的坐标,获取无人机拍摄点的坐标。
根据无人机拍摄点的坐标确定无人机拍摄点与三维模型的相对位置,先将三维模型按照无人机巡检初始位置具体分为6个平面,即上、下、左、右、前、后面,将无人机拍摄点所处平面对拍摄位置进行分类,每个平面对应一个拍摄方向,将处于同一个拍摄方向的拍摄位置归为一类。并按照无人机拍摄点的拍摄位置的高低进行分层排序,具体的,排序要求为拍摄位置越高越先拍摄,处于同一高度的拍摄位置,越靠近三维模型左侧的拍摄位置越先拍摄。调取历史拍摄方向顺序,确定巡检目标设备的平面拍摄巡检顺序,再依次获取每个平面内的拍摄位置的分层排序顺序,以确定所有目标拍摄点的拍摄顺序。
在生成巡检航线后,还根据各巡检部件的有向包围盒对生成的巡检航线进碰撞预测,调取无人机在巡检前的位置坐标以及巡检航线内各拍摄位置的坐标,判断无人机在移动至下一个拍摄位置的过程中,是否会与巡检部件碰撞,若判断出无人机在移动至下一个拍摄位置的过程中会与巡检部件碰撞,则通过规避算法以及判断出会碰撞到的巡检部件的有向包围盒计算出相应的拐点,根据计算得到的拐点对巡检航线进行调整。
由于直接按照坐标生成的巡检航线为直线航线,由于巡检目标设备内各巡检部件的位置和形状均不一致,在按照直线飞行的过程中,无人机很可能撞上突出的巡检部位,造成无人机和巡检部位的损伤。因此对巡检航线上是否会存在碰撞进行判断,并依照判断可能碰撞的巡检部件的有向包围盒进行拐点计算。有向包围盒包含了整个巡检部件,若无人机能够避开有向包围盒,即可实现对于该巡检部件的碰撞规避。
以上所述的实施例只是本发明的一种较佳的方案,并非对本发明作任何形式上的限制,在不超出权利要求所记载的技术方案的前提下还有其它的变体及改型。
Claims (5)
1.一种巡检部件的无人机拍摄点提取方法,其特征在于,包括:
获取巡检目标设备,并采集巡检目标设备的点云数据,根据巡检目标设备的点云数据构建巡检目标设备的三维模型;
对构建的巡检目标设备的三维模型进行特征提取,并通过深度学习算法识别巡检目标设备的三维模型中各巡检部位的对应区域,对各巡检部位的对应区域进行主成分分析,获取各巡检部件的中心轴;
根据中心轴以及对应的点云数据构建各巡检部位的有向包围盒,并获取各巡检部件的有向包围盒的中心点,将各巡检部件的有向包围盒的中心点作为对应的无人机拍摄点。
2.根据权利要求1所述的一种巡检部件的无人机拍摄点提取方法,其特征在于,对各巡检部位的对应区域进行主成分分析,获取各巡检部件的中心轴的具体过程为:选择其中一个巡检部件,根据选取的巡检部件对应的点云数据构建数据集,根据数据集计算位置平均数,根据位置平均数以及数据集构建协方差矩阵,求取协方差矩阵的特征值,并获取每个特征值对应的特征向量,将每个特征向量进行标准化处理,标准化处理后的特征向量为选择的巡检部件在对应方向上的中心轴,重新选择一个巡检部件进行中心轴的计算,直至获取所有巡检部件对应的中心轴。
3.根据权利要求2所述的一种巡检部件的无人机拍摄点提取方法,其特征在于,根据中心轴以及对应的点云数据构建各巡检部位的有向包围盒的具体过程为:选择其中一个巡检部件,并选择该巡检部件其中一个方向的中心轴,并将点云数据依次与选择的中心轴对应的特征值相乘,获取每个点云数据映射到该方向中心轴上对应的坐标值,重新选择一个方向的中心轴,将点云数据映射至该方向中心轴上,并获取对应映射后坐标值,直至获取所有方向上每个点云数据映射到该方向中心轴对应的坐标值,提取每个方向上映射后获取的坐标值中的最大值和最小值,根据提取得到的每个方向上映射后的最大值和最小值构建有向包围盒的所有顶点的坐标,根据获取的顶点坐标逆变换至点云数据对应坐标系中,获取点云数据对应坐标系中各顶点的坐标值,根据获取的点云数据对应坐标系中各顶点的坐标值构建有向包围盒。
4.根据权利要求3所述的一种巡检部件的无人机拍摄点提取方法,其特征在于,在获取各巡检部件的无人机拍摄点后,根据各巡检部件的有向包围盒各顶点的坐标值确定各巡检部件对应无人机拍摄点的坐标,根据无人机的相机参数、预设无人机安全距离以及各巡检部件对应的有向包围盒确定各巡检部件对应无人机拍摄点的拍摄位置,以及各拍摄位置的对应坐标,根据拍摄位置的对应坐标以及巡检目标设备的三维模型对拍摄位置进行分类,获取巡检目标设备的三维模型每个方向的拍摄位置,并对每个方向的拍摄位置进行分层排序,调取历史拍摄方向顺序,根据历史拍摄方向顺序以及每个方向拍摄位置的排序确定所有目标拍摄点的拍摄顺序,根据目标拍摄点的拍摄顺序以及各目标拍摄点的对应拍摄位置的坐标生成无人机的巡检航线。
5.根据权利要求4所述的一种巡检部件的无人机拍摄点提取方法,其特征在于,在生成巡检航线后,还根据各巡检部件的有向包围盒对生成的巡检航线进碰撞预测,调取无人机在巡检前的位置坐标以及巡检航线内各拍摄位置的坐标,判断无人机在移动至下一个拍摄位置的过程中,是否会与巡检部件碰撞,若判断出无人机在移动至下一个拍摄位置的过程中会与巡检部件碰撞,则通过规避算法以及判断出会碰撞到的巡检部件的有向包围盒计算出相应的拐点,根据计算得到的拐点对巡检航线进行调整。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210745267.8A CN115131688A (zh) | 2022-06-27 | 2022-06-27 | 一种巡检部件的无人机拍摄点提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210745267.8A CN115131688A (zh) | 2022-06-27 | 2022-06-27 | 一种巡检部件的无人机拍摄点提取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115131688A true CN115131688A (zh) | 2022-09-30 |
Family
ID=83379872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210745267.8A Pending CN115131688A (zh) | 2022-06-27 | 2022-06-27 | 一种巡检部件的无人机拍摄点提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115131688A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116225062A (zh) * | 2023-03-14 | 2023-06-06 | 广州天勤数字科技有限公司 | 一种应用于桥梁巡检的无人机导航方法及无人机 |
-
2022
- 2022-06-27 CN CN202210745267.8A patent/CN115131688A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116225062A (zh) * | 2023-03-14 | 2023-06-06 | 广州天勤数字科技有限公司 | 一种应用于桥梁巡检的无人机导航方法及无人机 |
CN116225062B (zh) * | 2023-03-14 | 2024-01-16 | 广州天勤数字科技有限公司 | 一种应用于桥梁巡检的无人机导航方法及无人机 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110415342B (zh) | 一种基于多融合传感器的三维点云重建装置与方法 | |
JP6681729B2 (ja) | オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム | |
CN110344621A (zh) | 一种面向智能车库的车轮点云检测方法 | |
CN108876852B (zh) | 一种基于3d视觉的在线实时物体识别定位方法 | |
CN113205116B (zh) | 输电线路无人机巡检拍摄目标点自动提取及航迹规划方法 | |
CN103106632B (zh) | 一种基于均值漂移的不同精度三维点云数据的融合方法 | |
EP4086846A1 (en) | Automatic detection of a calibration standard in unstructured lidar point clouds | |
CN113298035A (zh) | 基于图像识别的无人机电力杆塔检测及自主巡航方法 | |
CN115563732B (zh) | 基于虚拟现实的喷涂轨迹仿真优化方法及装置 | |
CN108519075B (zh) | 一种空间多目标位姿测量方法 | |
CN114741768A (zh) | 智能变电站三维建模方法 | |
CN115131688A (zh) | 一种巡检部件的无人机拍摄点提取方法 | |
US20210303822A1 (en) | Method and apparatus for posture, dimension and shape measurements of objects in 3d scenes | |
CN117953059B (zh) | 一种基于rgb-d图像的方形吊装物姿态估计方法 | |
CN114494594B (zh) | 基于深度学习的航天员操作设备状态识别方法 | |
CN117788902A (zh) | 超高压检修作业人员安全评估方法、装置、设备及介质 | |
CN116909208B (zh) | 基于人工智能的壳体加工路径优化方法及系统 | |
CN112862862B (zh) | 基于人工智能视觉跟踪的飞机自主受油装置及应用方法 | |
JPH07103715A (ja) | 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置 | |
CN117629215A (zh) | 一种基于单线激光雷达点云配准的底盘充电回桩方法 | |
Park et al. | 3D log recognition and pose estimation for robotic forestry machine | |
Yildirim et al. | Autonomous Ground Refuelling Approach for Civil Aircrafts using Computer Vision and Robotics | |
Effenberger et al. | Fast and flexible 3D object recognition solutions for machine vision applications | |
CN112286230A (zh) | 无人机视觉图像算法、避障步骤及其信息融合处理系统 | |
Zhang et al. | Airline baggage classification/recognition and measurement based on computer vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |