CN116465827A - 视点路径规划方法、装置、电子设备及存储介质 - Google Patents
视点路径规划方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN116465827A CN116465827A CN202310265157.6A CN202310265157A CN116465827A CN 116465827 A CN116465827 A CN 116465827A CN 202310265157 A CN202310265157 A CN 202310265157A CN 116465827 A CN116465827 A CN 116465827A
- Authority
- CN
- China
- Prior art keywords
- viewpoint
- target
- determining
- point
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000003860 storage Methods 0.000 title claims abstract description 15
- 230000001788 irregular Effects 0.000 claims description 28
- 239000013598 vector Substances 0.000 claims description 27
- 230000004927 fusion Effects 0.000 claims description 16
- 238000003384 imaging method Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 13
- 238000012549 training Methods 0.000 claims description 10
- 238000012216 screening Methods 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 8
- 238000007689 inspection Methods 0.000 description 7
- 230000011218 segmentation Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 125000000205 L-threonino group Chemical group [H]OC(=O)[C@@]([H])(N([H])[*])[C@](C([H])([H])[H])([H])O[H] 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/01—Arrangements or apparatus for facilitating the optical investigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/01—Arrangements or apparatus for facilitating the optical investigation
- G01N2021/0106—General arrangement of respective parts
- G01N2021/0112—Apparatus in one mechanical, optical or electronic block
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/01—Arrangements or apparatus for facilitating the optical investigation
- G01N2021/0181—Memory or computer-assisted visual determination
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Radar, Positioning & Navigation (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Immunology (AREA)
- Chemical & Material Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- Pathology (AREA)
- Automation & Control Theory (AREA)
- Image Processing (AREA)
Abstract
本发明属于路径规划技术领域,提供一种视点路径规划方法、装置、电子设备及存储介质,所述方法包括:基于待检测目标的点云数据,确定所述待检测目标对应的边界点,面元实例,以及所述面元实例对应的面元类型;基于所述面元类型对应的第一视点集合和所述边界点对应的第二视点集合,确定目标视点集合;基于所述目标视点集合,确定视点遍历路径。本发明提供的视点路径规划方法,通过获取待检测目标的点云数据,根据点云数据确定对应的边界点和面元实例的面元类型,并根据面元类型对应的视点集合和边界点对应的视点集合得到目标视点集合,从而根据目标视点集合进行视点轨迹规划,可以大大节省人力,并且适用于各种类型的待检测目标,通用性较强。
Description
技术领域
本发明涉及路径规划技术领域,尤其涉及一种视点路径规划方法、装置、电子设备及存储介质。
背景技术
随着机器人技术和智能制造的快速发展,各种工业产品的生产自动化程度得到不断提升,而在其生产过程中,表面外观检测直接影响到了产品的质量及后续生产过程。当前产品的外观检测多是由人工完成,效率低下,因此迫切需要产品外观检测的自动化解决方案。
自动化外观检测装置按照质检对象的种类可分为平面对象检测装置和三维对象检测装置,目前的外观检测装置大多为根据质检对象特点进行定制化设计,且二维图像采集装置较多,对于曲线以及三维质检对象的检测较少。针对三维待检对象,通常需要多个相机分别安装于固定位置,以实现针对三维对象的多角度图像采集成像和检测。此外也有采取在机械臂末端装配相机等传感器,通过控制机械臂的运动以实现对象的多视角观测的方案,这种方案的核心在于相机观测轨迹的获取,目前主要包括人工示教和基于对象CAD图纸的离线轨迹规划两种方式,但都需要将对象放置于固定已知的位置和方向。此外,对于实际工业场景中的检测对象,通常很难获取准确的CAD图纸,而点云数据获取相对容易,通用性更强。
定制化检测方案针对不同的检测对象需要设计特定的检测装置和检测流程,通用性较差,复用性不强,容易造成资源浪费。而目前基于末端装配相机的机械臂的检测方案,大都需要提前规划好相机的扫描路径,且对象需要放置于固定的位置方向,无法适应对象位置发生变动的情况,开发难度较大,不利于实际使用和操作。基于人工示教的质检方案需要针对每种待检对象进行人工拖动示教,获得相应的视点位姿,这种方式耗时耗力,而且通用性较差。
发明内容
针对现有技术存在的问题,本发明实施例提供一种视点路径规划方法、装置、电子设备及存储介质。
本发明提供一种视点路径规划方法,包括:
基于待检测目标的点云数据,确定所述待检测目标对应的边界点,面元实例,以及所述面元实例对应的面元类型;
基于所述面元类型对应的第一视点集合和所述边界点对应的第二视点集合,确定目标视点集合;
基于所述目标视点集合,确定视点遍历路径。
在一些实施例中,在所述面元类型为不规则曲面的情况下,所述面元类型对应的第一视点集合,通过以下方式确定:
在所述不规则曲面对应的面元实例中确定目标点;
基于相机最佳成像距离,在所述不规则曲面对应的面元实例中确定与所述目标点对应的最佳视点;
基于所述最佳视点未覆盖的点云数据,确定所述第一视点集合。
在一些实施例中,所述基于所述面元类型对应的第一视点集合和所述边界点对应的第二视点集合,确定目标视点集合,包括:
对所述第一视点集合和所述第二视点集合中的冗余视点进行筛选,确定第三视点集合;
基于所述第三视点集合中的任意两个视点的相似度,以及预设相似度阈值,确定视点对;
基于所述视点对,确定融合视点;
在确定第一点云数据覆盖第二点云数据的情况下,基于所述融合视点,确定所述目标视点集合;所述第一点云数据为所述融合视点覆盖的点云数据,所述第二点云数据为所述视点对覆盖的点云数据。
在一些实施例中,所述基于待检测目标的点云数据,确定所述待检测目标对应的边界点,面元实例,以及所述面元实例对应的面元类型,包括:
基于所述点云数据,以及训练好的模型,确定所述点云数据中每个点的类型、边界概率和嵌入特征;所述训练好的模型是通过带有目标标签的数据训练得到的;
基于所述每个点的类型、边界概率和嵌入特征,确定所述边界点、所述面元实例和所述面元类型。
在一些实施例中,所述基于所述每个点的类型、边界概率和嵌入特征,确定所述边界点、所述面元实例和所述面元类型,包括:
基于所述边界概率,确定所述边界点和内部点;
基于所述嵌入特征对所述内部点进行聚类,确定初始聚类簇;
基于所述边界点到所述初始聚类簇的中心的距离,确定目标聚类簇;
基于所述目标聚类簇,确定所述面元实例;
基于所述目标聚类簇内点的类型,确定所述面元类型。
在一些实施例中,所述基于所述目标视点集合,确定视点遍历路径,包括:
确定所述目标视点集合中任意两个目标视点之间的相似度;
基于所述任意两个目标视点之间的相似度,确定遍历所述目标视点的最短路径;
将所述最短路径进行拟合,确定所述视点遍历路径。
在一些实施例中,所述相似度的计算公式如下:
sij=||vpi-vpj||2·(2-ni·nj)
其中,sij表示视点i和视点j的相似度,vpi表示视点i的坐标,vpj表示视点j的坐标,ni表示视点i的法向量,nj表示视点j的法向量。
本发明还提供一种视点路径规划装置,包括:
第一确定模块,用于基于待检测目标的点云数据,确定所述待检测目标对应的边界点,面元实例,以及所述面元实例对应的面元类型;
第二确定模块,用于基于所述面元类型对应的第一视点集合和所述边界点对应的第二视点集合,确定目标视点集合;
第三确定模块,用于基于所述目标视点集合,确定视点遍历路径。
本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述视点路径规划方法。
本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述视点路径规划方法。
本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述视点路径规划方法。
本发明提供的视点路径规划方法、装置、电子设备及存储介质,通过获取待检测目标的点云数据,根据点云数据确定对应的边界点和面元实例的面元类型,并根据面元类型对应的视点集合和边界点对应的视点集合得到目标视点集合,从而可以根据目标视点集合进行视点轨迹规划,可以大大节省人力,并且适用于各种类型的待检测目标,通用性较强。
附图说明
为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的视点路径规划方法的流程示意图之一;
图2是本发明实施例提供的点云面元分割与边界预测网络的结构示意图;
图3是本发明实施例提供的平面、圆柱面、圆锥面和球面对应的视点示意图。
图4是本发明实施例提供的针对不规则曲面的视点生成方法的流程示意图;
图5是本发明实施例提供的视点路径规划方法的流程示意图之二;
图6是本发明实施例提供的视点路径规划装置的结构示意图;
图7是本发明实施例提供的电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的术语在适当情况下可以互换,以便本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”所区别的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”一般表示前后关联对象是一种“或”的关系。
图1是本发明实施例提供的视点路径规划方法的流程示意图之一,如图1所示,本发明实施例提供的视点路径规划方法,包括:
步骤101、基于待检测目标的点云数据,确定所述待检测目标对应的边界点,面元实例,以及所述面元实例对应的面元类型;
步骤102、基于所述面元类型对应的第一视点集合和所述边界点对应的第二视点集合,确定目标视点集合;
步骤103、基于所述目标视点集合,确定视点遍历路径。
需要说明的是,本发明提供的视点路径规划方法的执行主体可以是电子设备、电子设备中的部件、集成电路、或芯片。该电子设备可以是移动电子设备,也可以为非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,非移动电子设备可以为服务器、网络附属存储器(Network Attached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本发明不作具体限定。
在步骤101中,基于待检测目标的点云数据,确定所述待检测目标对应的边界点,面元实例,以及所述面元实例对应的面元类型。
待检测目标可以是二维目标或者三维目标,通过三维扫描仪或者对象的CAD模型可以获取待检测目标表面的点云数据。
由于初始获取的点云数据可能存在分布不均匀的问题,且没有法向量,可以通过体素下采样获得固定数目且空间分布均匀的表面点云数据,以及通过主成分分析算法计算点云的法向量。
可将点云数据输入至预先训练好的模型,得到点云数据中每个点的类型、边界概率和嵌入特征。
其中,类型指的是每个点所属的面元的几何类型(包括:平面、圆柱面、球面、圆锥面和不规则曲面)。
边界概率指的是点为边界点的概率,取值范围为[0,1],取值越大,则该点为边界点的概率越大。
嵌入特征用于区分不同实例的点,例如两个点属于不同的实例时,则嵌入特征间距离更远,若属于相同实例时,则距离更近。
可选地,该模型是提前在ABCParts数据集上进行训练得到的,训练集包含大量从CAD模型中采样的点云样本,同时包含每个点的实例标签、类型标签、边界概率标签。
可选地,通过将训练集中的点云输入模型中,根据模型输出结果与实际标签的差别计算损失函数,利用梯度反向传播更新模型权重,使得训练后的模型能够正确输出每个点的类型、边界概率和嵌入特征。
根据预设的边界概率阈值和每个点的边界概率,确定内部点和边界点。
对内部点采用mean-shift聚类算法,对实例嵌入特征进行聚类,得到初始聚类簇以及聚类中心。
对所有边界点计算距离其最近的聚类中心,从而将其划分到相应的初始聚类簇中,得到目标聚类簇。从而每个目标聚类簇对应一个面元实例。
根据面元实例中所有点的类型,确定该面元实例的面元类型。即面元类型包括:平面、圆柱面、球面、圆锥面和不规则曲面。
在步骤102中,基于所述面元类型对应的第一视点集合和所述边界点对应的第二视点集合,确定目标视点集合。
将每个面元类型对应的面元实例,调用相应的视点生成方法,根据相机的成像距离、视场大小,计算得到针对每个类型已知面元实例的第一视点集合,每个视点包含视点坐标及朝向向量。
可理解地,第一视点集合包括以下一项或者多项:平面对应的视点集合、圆柱面对应的视点集合、球面对应的视点集合、圆锥面对应的视点集合、不规则曲面对应的视点集合。
此外考虑到边界区域的特殊性,将所有边界点作为单独的点云集合,调用视点生成算法得到针对边界点的视点,得到第二视点集合。
将获得的所有视点集合进行融合,对相邻视点进行融合调整,得到目标视点集合。
在步骤103中,基于所述目标视点集合,确定视点遍历路径。
目标视点集合中的目标视点为一系列离散的视点,将目标视点作为节点构建完全连接图。
若两个目标视点之间被待检测目标穿过,则将两个目标视点的边权值设为无穷大,否则将边权值设为两个目标视点的朝向向量的余弦距离与坐标的欧氏距离的乘积。
然后利用动态规划算法获取一条最短的视点遍历路径。
将获取的视点遍历路径发给表面质检平台,平台运动使得相机末端依次到达计算的视点位置,并以固定的姿态拍摄获取对象的外观图像,并发送给后台进行表面瑕疵检测。
本发明实施例提供的视点路径规划方法,通过获取待检测目标的点云数据,根据点云数据确定对应的边界点和面元实例的面元类型,并根据面元类型对应的视点集合和边界点对应的视点集合得到目标视点集合,从而可以根据目标视点集合进行视点轨迹规划,可以大大节省人力,并且适用于各种类型的待检测目标,通用性较强。
在一些实施例中,所述基于待检测目标的点云数据,确定所述待检测目标对应的边界点,面元实例,以及所述面元实例对应的面元类型,包括:
基于所述点云数据,以及训练好的模型,确定所述点云数据中每个点的类型、边界概率和嵌入特征;所述训练好的模型是通过带有目标标签的数据训练得到的;
基于所述每个点的类型、边界概率和嵌入特征,确定所述边界点、所述面元实例和所述面元类型。
可选地,将点云数据输入至预先训练好的模型,得到点云数据中每个点的类型、边界概率和嵌入特征。
该模型是提前在ABCParts数据集上进行训练得到的,训练集包含大量从CAD模型中采样的点云样本,同时包含每个点的目标标签,目标标签包括:实例标签、类型标签和边界概率标签。
可选地,通过将训练集中的点云输入模型中,根据模型输出结果与实际标签的差别计算损失函数,利用梯度反向传播更新模型权重,使得训练后的模型能够正确输出每个点的类型、边界概率和嵌入特征。
本发明实施例提供的视点路径规划方法,通过待检测目标的点云数据,确定待检测目标对应的边界点,以及面元实例的面元类型,从而可以根据边界点对应的视点集合和面元类型对应的视点集合确定目标视点集合,为视点路径规划提供了准确的数据。
在一些实施例中,所述基于所述每个点的类型、边界概率和嵌入特征,确定所述边界点、所述面元实例和所述面元类型,包括:
基于所述边界概率,确定所述边界点和内部点;
基于所述嵌入特征对所述内部点进行聚类,确定初始聚类簇;
基于所述边界点到所述初始聚类簇的中心的距离,确定目标聚类簇;
基于所述目标聚类簇,确定所述面元实例;
基于所述目标聚类簇内点的类型,确定所述面元类型。
根据预设的边界概率阈值和每个点的边界概率,将点云数据中的点分为内部点和边界点。
可理解地,边界概率大于边界概率阈值的点为边界点,边界概率小于或等于边界概率阈值的点为内部点。
对内部点采用mean-shift聚类算法,对实例嵌入特征进行聚类,得到初始聚类簇以及聚类中心。
对所有边界点计算距离其最近的聚类中心,从而将其划分到相应的初始聚类簇中,得到目标聚类簇。每个目标聚类簇对应一个面元实例。
根据面元实例中所有点的类型,确定该面元实例的面元类型。例如可统计每个面元实例中每个点的类型,将点的类型占比最大的类型作为该面元实例的类型。面元类型包括:平面、圆柱面、球面、圆锥面和不规则曲面。
可选地,图2是本发明实施例提供的点云面元分割与边界预测网络的结构示意图,可以实现对点云面元分割和边界概率预测的联合优化,如图2所示,该网络结构主要包括:编码器、三个并行进行边界概率预测、面元分类和面元实例嵌入特征学习的解码器支路、边界感知的两阶段实例聚类模块。
该网络需要提前在ABCParts数据集上(包含大量从CAD模型中采样的点云样本,同时包含每个点的实例标签、类型标签、边界概率标签)进行训练,具体来说通过将训练集中的点云输入网络中,之后根据网络输出结果与实际标签的差别计算损失函数,利用梯度反向传播更新网络权重,训练后的网络能够输出正确的点云类别、边界概率、实例嵌入特征(该特征用于区分不同实例的点,比如如果两个点属于不同的实例,那么它们的嵌入特征间距离更大,相反若属于相同实例,则距离更近)。
实际场景下,按照数据处理的流程,可以分为以下步骤:
端到端网络特征提取。输入待检测目标的表面点云和法向量,经过编码器得到点级中间层特征,之后中间层特征分别进入三个任务导向的网络支路,得到三个支路的每个点输出结果:边界概率、类型t∈{0,1,2,3,4}(分别表示平面、球面、圆柱面、圆锥面、不规则曲面)和嵌入特征。
两阶段面元实例聚类。根据设定的边界概率阈值将点云分为内部点和边界点。首先对内部点采用mean-shift聚类算法对面元的实例嵌入特征进行聚类得到初始聚类簇以及聚类中心。之后对所有边界点计算距离其最近的聚类中心,从而将其划分到相应的面元实例中。
面元类别判断。对得到的每个面元实例,根据所有点的类型投票确定该面元实例所属的面元类型(平面、圆柱面、球面、圆锥面和不规则曲面)。可以根据每个面元实例内,点云个数最多的类型作为该面元实例的面元类型。
本发明实施例提供的视点路径规划方法,通过对内部点进行聚类,以及计算边界点到每个簇的中心的距离,将点云数据分为多个面元实例,并确定每个面元实例的类型,从而可以根据边界点对应的视点集合和面元类型对应的视点集合确定目标视点集合,为视点路径规划提供了准确的数据。
在一些实施例中,在所述面元类型为不规则曲面的情况下,所述面元类型对应的第一视点集合,通过以下方式确定:
在所述不规则曲面对应的面元实例中确定目标点;
基于相机最佳成像距离,在所述不规则曲面对应的面元实例中确定与所述目标点对应的最佳视点;
基于所述最佳视点未覆盖的点云数据,确定所述第一视点集合。
面元类型可以包括:平面、圆柱面、球面、圆锥面、不规则曲面。不同类型的面元实例,可以采用不同的视点生成方法,根据相机的成像距离、视场大小计算得到针对每个类型已知面元实例对应的视点集合,视点包含坐标及朝向向量。
图3是本发明实施例提供的平面、圆柱面、圆锥面和球面对应的视点示意图,参考图3,对于平面、圆柱面、圆锥面和球面类型的视点生成方法如下:
基于规则面元曲率变化均匀的特征,根据相机成像的景深和视场范围将待检表面划分为网格,每个网格对应相机视点的有效覆盖范围。
对于平面点云,首先计算其最小外接矩形。根据外接矩形的长宽与视点成像视场的长宽将外接矩形网格化划分为一系列小矩形,每个小矩形的中心点即对应一个候选视点。
对于球面、圆柱面和圆锥面则用平行于底面圆的圆弧将曲面划分为若干块,圆弧间距为视场宽度,同时根据视场的长度在将每个圆弧划分为若干圆弧段,每个圆弧段的中心点即对应一个候选视点。
假设所求中心点坐标为pj,法向量为nj,相机的最佳成像距离为L,则候选视点的坐标及法向量为:
vpj=pj+L·nj,vnj=-nj (1)
其中,vpj表示候选视点的坐标,vnj表示候选视点的法向量。
针对任意不规则曲面的视点生成方法,上述四种规则曲面之外的面元通常难以用二阶参数方程表示,曲率变化大,因此无法采用网格化方法求解。图4是本发明实施例提供的针对不规则曲面的视点生成方法的流程示意图,如图4所示,对于不规则曲面,其视点可通过以下方式生成:
首先从不规则曲面对应的面元实例中随机选取一个点i,作为目标点。通过公式(1)计算点i对应的最佳视点j,同时根据相机成像约束计算该视点j覆盖的表面点云。
相机的成像约束主要要求拍摄表面点位于相机的视场范围之内,同时相机的朝向向量与相机法向量间夹角须大于90°。
例如,当表面点i与视点j满足以下公式(2)-(4)时,则可以确定视点j可以覆盖表面点i。
dmin≤||pi-vpj||2≤dmax (2)
其中,i表示表面点,j表示最佳视点,dmin表示相机成像距离的最小值,dmax表示相机成像距离的最大值,pi表示表面点i的坐标,vpj表示最佳视点j的坐标,ni表示表面点i的法向量,vnj表示最佳视点j的法向量,θij表示表面点i与最佳视点j间的连线与ni之间的夹角。
因此可以确定最佳视点所覆盖的表面点云集合,记为Svp。
然后在最佳视点未覆盖的表面点云中,计算与最佳视点j距离最远的点,进而得到新的视点及新的视点所覆盖的表面点云。直至所有点被覆盖,输出视点集合,即得到不规则曲面对应的第一视点集合。
边界对物体外观具有重要影响,但由于边界点云数量相比较少,因此该步骤针对所有边界点生成针对边界区域检测的视点,对于边界点的视点生成方法如下:
首先根据步骤得到的边界概率,输入边界阈值Thres,得到边界点。之后对所有边界点采用图4基于最远点采样的视点生成方法得到针对边界区域的视点集合。
本发明实施例提供的视点路径规划方法,通过根据相机最佳成像距离,在不规则曲面中确定与目标点对应的最佳视点,并根据最佳视点所覆盖的点云数据,来生成对不规则曲面对应的视点,得到对应的视点集合,可以适用于所有的复杂曲面,提高了视点路径规划的通用性。
在一些实施例中,所述基于所述面元类型对应的第一视点集合和所述边界点对应的第二视点集合,确定目标视点集合,包括:
对所述第一视点集合和所述第二视点集合中的冗余视点进行筛选,确定第三视点集合;
基于所述第三视点集合中的任意两个视点的相似度,以及预设相似度阈值,确定视点对;
基于所述视点对,确定融合视点;
在确定第一点云数据覆盖第二点云数据的情况下,基于所述融合视点,确定所述目标视点集合;所述第一点云数据为所述融合视点覆盖的点云数据,所述第二点云数据为视点对覆盖的点云数据。
在得到所有面元类型对应的第一视点集合和边界点对应的第二视点集合之后,将所有视点集合融合为完整的视点集合。
实际点云中许多视点可能存在冗余,因此将完整的视点集合中的冗余视点进行筛选和处理,得到候选视点集合,即第三视点集合。
计算第三视点集合中任意两个视点的相似度,根据预设相似度阈值,得到视点对。
相似度的计算公式如下:
sij=||vpi-vpj||2·(2-ni·nj) (5)
其中,sij表示视点i和视点j的相似度,vpi表示视点i的坐标,vpj表示视点j的坐标,ni表示视点i的法向量,nj表示视点j的法向量。
相似度越大,则表明两个视点越相似,可理解地,当相似度大于预设相似度阈值时,可以将该两个视点确定为视点对。
依次取出视点对,计算视点对中两个视点的中间视点坐标平均值及法向量平均值,得到融合视点的坐标和法向量。
判断融合视点是否能够覆盖视点对覆盖的表面点云,若可以覆盖,则删去视点对,将融合视点加入目标视点集合中。
否则重复上述流程直至遍历完所有视点对,输出处理后的目标视点集合。
本发明实施例提供的视点路径规划方法,通过对第一视点集合和第二视点集合中的冗余视点进行筛选,并根据视点之间的相似度,确定视点对,以及根据视点对确定融合视点,最终确定目标视点集合,为规划视点路径提供了准确的候选视点,提高了视点路径规划的效率。
在一些实施例中,所述基于所述目标视点集合,确定视点遍历路径,包括:
确定所述目标视点集合中任意两个目标视点之间的相似度;
基于所述任意两个目标视点之间的相似度,确定遍历所述目标视点的最短路径;
将所述最短路径进行拟合,确定所述视点遍历路径。
可选地,目标视点集合中包括一系列离散的视点,可将视点路径规划问题看作旅行商问题(Traveling Salesman Problem,TSP),通过求解最短遍历路径得到能够完整遍历所有视点的无碰撞最短路径。
将目标视点集合中的所有目标视点看作是图节点,根据公式(5)可以计算得到两个目标视点之间的相似度,将相似度作为图节点的边权值。
为了避免运动过程中与待检对象发生碰撞,对可能发生碰撞的两节点连接边做处理,若两节点连线穿过待检对象点云,则将其边权值赋值为无穷大。
基于得到的视点连接图,利用动态规划方法得到完整遍历所有视点的路径。
为了将得到的离散视点路径变换为连续平滑的运动轨迹,可以通过多项式插值和四元数球面线性插值对向量两视点的坐标平移和方向旋转进行插值得到完整的末端运动轨迹。
将获取的视点遍历路径及运动轨迹传给外观质检平台,之后平台沿着计算得到的末端轨迹运动使得相机末端依次到达计算的视点位置,并以固定的姿态拍摄获取对象的外观图像,并发送给后台进行表面瑕疵检测。以UR5作为检测平台,在仿真软件上测试对手机中框的表面质检。
本发明实施例提供的视点路径规划方法,通过根据目标视点集合中任意两个目标视点之间的相似度,确定遍历目标视点的最短路径,将最短路径进行拟合,得到视点遍历路径,视点遍历路径可用于外观质检平台对待检测目标进行外观检测。
图5是本发明实施例提供的视点路径规划方法的流程示意图之二,如图5所示,本发明实施例提供的视点路径规划方法,包括:
步骤501、待检测目标表面点云获取及预处理。
利用三维扫描仪或对象CAD模型获取待检测目标的表面三维点云,同时通过主成分分析算法计算点云的法向量以及点云体素下采样获得密度相对均匀的表面点云。
步骤502、点云面元分割及边界检测。
为了将复杂表面分解为简单的几何面元,同时能够检测目标的边界,通过图2所示的点云面元分割与边界预测网络,将预处理后的待检对象表面点云输入点云面元分割与边界预测网络中,经过点云特征提取和面元实例聚类得到点云的面元实例,每个面元实例包含类别标签(可能有五种:平面、圆柱面、球面、圆锥面、不规则曲面)和边界预测结果(0:非边界点,1:边界点)。
步骤503、分面元视点生成。
面元实例集合中的每个类型的面元实例,分别调用相应的视点生成方法,根据相机的成像距离、视场大小计算得到针对每个类型已知面元实例的视点集合,每个视点包含视点坐标及朝向向量。
考虑到边界区域的特殊性,因此将所有边界点作为单独的点云集合,调用视点生成方法得到针对边界点的视点集合。
步骤504、视点融合及后处理。
将步骤503中获得的所有视点集合进行融合,对相邻视点进行融合调整,得到后处理之后的视点集合。
步骤505、无碰撞最短视点路径规划。
通过步骤504可得到一系列离散的视点,将其作为节点构建完全连接图,其中若两视点之间被待检对象穿过,则边权值设为无穷大,否则为两点的朝向向量的余弦距离与坐标的欧氏距离的乘积。利用动态规划算法求得一条最短的视点遍历路径。
步骤506、检测平台运动采集图像。
将步骤505获取的视点遍历路径发给表面质检平台,平台运动使得相机末端依次到达计算的视点位置,并以固定的姿态拍摄获取待检测目标的外观图像,并发送给后台进行表面瑕疵检测。
本发明实施例提供的视点路径规划方法,只需要获取对象的表面点云即可进行视点轨迹规划,可以大大节省人力,同时适用于各种复杂类型曲面的视点生成,通用性较强。
下面对本发明提供的视点路径规划装置进行描述,下文描述的视点路径规划装置与上文描述的视点路径规划方法可相互对应参照。
图6是本发明实施例提供的视点路径规划装置的结构示意图,如图6所示,本发明实施例提供的视点路径规划装置,包括:
第一确定模块610,用于基于待检测目标的点云数据,确定所述待检测目标对应的边界点,面元实例,以及所述面元实例对应的面元类型;
第二确定模块620,用于基于所述面元类型对应的第一视点集合和所述边界点对应的第二视点集合,确定目标视点集合;
第三确定模块630,用于基于所述目标视点集合,确定视点遍历路径。
在此需要说明的是,本发明实施例提供的视点路径规划装置,能够实现上述视点路径规划方法实施例所实现的所有方法步骤,且能够达到相同的技术效果,在此不再对本实施例中与方法实施例相同的部分及有益效果进行具体赘述。
可选地,在所述面元类型为不规则曲面的情况下,所述视点路径规划装置,还包括:第四确定模块,用于:
在所述不规则曲面对应的面元实例中确定目标点;
基于相机最佳成像距离,在所述不规则曲面对应的面元实例中确定与所述目标点对应的最佳视点;
基于所述最佳视点未覆盖的点云数据,确定所述第一视点集合。
可选地,所述第二确定模块620,具体用于:
对所述第一视点集合和所述第二视点集合中的冗余视点进行筛选,确定第三视点集合;
基于所述第三视点集合中的任意两个视点的相似度,以及预设相似度阈值,确定视点对;
基于所述视点对,确定融合视点;
在确定第一点云数据覆盖第二点云数据的情况下,基于所述融合视点,确定所述目标视点集合;所述第一点云数据为所述融合视点覆盖的点云数据,所述第二点云数据为所述视点对覆盖的点云数据。
可选地,所述第一确定模块610,具体用于:
基于所述点云数据,以及训练好的模型,确定所述点云数据中每个点的类型、边界概率和嵌入特征;所述训练好的模型是通过带有目标标签的数据训练得到的;
基于所述每个点的类型、边界概率和嵌入特征,确定所述边界点、所述面元实例和所述面元类型。
可选地,所述第一确定模块610,具体用于:
基于所述边界概率,确定所述边界点和内部点;
基于所述嵌入特征对所述内部点进行聚类,确定初始聚类簇;
基于所述边界点到所述初始聚类簇的中心的距离,确定目标聚类簇;
基于所述目标聚类簇,确定所述面元实例;
基于所述目标聚类簇内点的类型,确定所述面元类型。
可选地,所述第三确定模块630,具体用于:
确定所述目标视点集合中任意两个目标视点之间的相似度;
基于所述任意两个目标视点之间的相似度,确定遍历所述目标视点的最短路径;
将所述最短路径进行拟合,确定所述视点遍历路径。
可选地,所述相似度的计算公式如下:
sij=||vpi-vpj||2·(2-ni·nj)
其中,sij表示视点i和视点j的相似度,vpi表示视点i的坐标,vpj表示视点j的坐标,ni表示视点i的法向量,nj表示视点j的法向量。
图7示例了一种电子设备的实体结构示意图,如图7所示,该电子设备可以包括:处理器(processor)710、通信接口(Communications Interface)720、存储器(memory)730和通信总线740,其中,处理器710,通信接口720,存储器730通过通信总线740完成相互间的通信。处理器710可以调用存储器730中的逻辑指令,以执行视点路径规划方法,该方法包括:基于待检测目标的点云数据,确定所述待检测目标对应的边界点,面元实例,以及所述面元实例对应的面元类型;基于所述面元类型对应的第一视点集合和所述边界点对应的第二视点集合,确定目标视点集合;基于所述目标视点集合,确定视点遍历路径。
此外,上述的存储器730中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
另一方面,本发明还提供一种计算机程序产品,所述计算机程序产品包括计算机程序,计算机程序可存储在非暂态计算机可读存储介质上,所述计算机程序被处理器执行时,计算机能够执行上述各方法所提供的视点路径规划方法,该方法包括:基于待检测目标的点云数据,确定所述待检测目标对应的边界点,面元实例,以及所述面元实例对应的面元类型;基于所述面元类型对应的第一视点集合和所述边界点对应的第二视点集合,确定目标视点集合;基于所述目标视点集合,确定视点遍历路径。
又一方面,本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各方法提供的视点路径规划方法,该方法包括:基于待检测目标的点云数据,确定所述待检测目标对应的边界点,面元实例,以及所述面元实例对应的面元类型;基于所述面元类型对应的第一视点集合和所述边界点对应的第二视点集合,确定目标视点集合;基于所述目标视点集合,确定视点遍历路径。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种视点路径规划方法,其特征在于,包括:
基于待检测目标的点云数据,确定所述待检测目标对应的边界点,面元实例,以及所述面元实例对应的面元类型;
基于所述面元类型对应的第一视点集合和所述边界点对应的第二视点集合,确定目标视点集合;
基于所述目标视点集合,确定视点遍历路径。
2.根据权利要求1所述的视点路径规划方法,其特征在于,在所述面元类型为不规则曲面的情况下,所述面元类型对应的第一视点集合,通过以下方式确定:
在所述不规则曲面对应的面元实例中确定目标点;
基于相机最佳成像距离,在所述不规则曲面对应的面元实例中确定与所述目标点对应的最佳视点;
基于所述最佳视点未覆盖的点云数据,确定所述第一视点集合。
3.根据权利要求1所述的视点路径规划方法,其特征在于,所述基于所述面元类型对应的第一视点集合和所述边界点对应的第二视点集合,确定目标视点集合,包括:
对所述第一视点集合和所述第二视点集合中的冗余视点进行筛选,确定第三视点集合;
基于所述第三视点集合中的任意两个视点的相似度,以及预设相似度阈值,确定视点对;
基于所述视点对,确定融合视点;
在确定第一点云数据覆盖第二点云数据的情况下,基于所述融合视点,确定所述目标视点集合;所述第一点云数据为所述融合视点覆盖的点云数据,所述第二点云数据为所述视点对覆盖的点云数据。
4.根据权利要求1所述的视点路径规划方法,其特征在于,所述基于待检测目标的点云数据,确定所述待检测目标对应的边界点,面元实例,以及所述面元实例对应的面元类型,包括:
基于所述点云数据,以及训练好的模型,确定所述点云数据中每个点的类型、边界概率和嵌入特征;所述训练好的模型是通过带有目标标签的数据训练得到的;
基于所述每个点的类型、边界概率和嵌入特征,确定所述边界点、所述面元实例和所述面元类型。
5.根据权利要求4所述的视点路径规划方法,其特征在于,所述基于所述每个点的类型、边界概率和嵌入特征,确定所述边界点、所述面元实例和所述面元类型,包括:
基于所述边界概率,确定所述边界点和内部点;
基于所述嵌入特征对所述内部点进行聚类,确定初始聚类簇;
基于所述边界点到所述初始聚类簇的中心的距离,确定目标聚类簇;
基于所述目标聚类簇,确定所述面元实例;
基于所述目标聚类簇内点的类型,确定所述面元类型。
6.根据权利要求1所述的视点路径规划方法,其特征在于,所述基于所述目标视点集合,确定视点遍历路径,包括:
确定所述目标视点集合中任意两个目标视点之间的相似度;
基于所述任意两个目标视点之间的相似度,确定遍历所述目标视点的最短路径;
将所述最短路径进行拟合,确定所述视点遍历路径。
7.根据权利要求3或6所述的视点路径规划方法,其特征在于,所述相似度的计算公式如下:
sij=||vpi-vpj||2·(2-ni·nj)
其中,sij表示视点i和视点j的相似度,vpi表示视点i的坐标,vpj表示视点j的坐标,ni表示视点i的法向量,nj表示视点j的法向量。
8.一种视点路径规划装置,其特征在于,包括:
第一确定模块,用于基于待检测目标的点云数据,确定所述待检测目标对应的边界点,面元实例,以及所述面元实例对应的面元类型;
第二确定模块,用于基于所述面元类型对应的第一视点集合和所述边界点对应的第二视点集合,确定目标视点集合;
第三确定模块,用于基于所述目标视点集合,确定视点遍历路径。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述视点路径规划方法。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述视点路径规划方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310265157.6A CN116465827B (zh) | 2023-03-17 | 2023-03-17 | 视点路径规划方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310265157.6A CN116465827B (zh) | 2023-03-17 | 2023-03-17 | 视点路径规划方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116465827A true CN116465827A (zh) | 2023-07-21 |
CN116465827B CN116465827B (zh) | 2023-10-31 |
Family
ID=87179691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310265157.6A Active CN116465827B (zh) | 2023-03-17 | 2023-03-17 | 视点路径规划方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116465827B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103236078A (zh) * | 2013-04-15 | 2013-08-07 | 浙江工业大学 | 一种基于面元的复杂场景三维重建方法 |
CN104063894A (zh) * | 2014-06-13 | 2014-09-24 | 中国科学院深圳先进技术研究院 | 点云三维模型重建方法及系统 |
CN111967339A (zh) * | 2020-07-27 | 2020-11-20 | 北京航空航天大学 | 用于规划无人机路径的方法和装置 |
US20210173966A1 (en) * | 2019-06-30 | 2021-06-10 | Huazhong University Of Science And Technology | Method for constructing curve of robot processing path of part with small curvature based on point cloud boundary |
CN114626112A (zh) * | 2022-03-24 | 2022-06-14 | 长春理工大学 | 一种基于边界检验的未知物体表面测量视点规划方法 |
CN115147692A (zh) * | 2022-06-08 | 2022-10-04 | 中国科学院自动化研究所 | 目标检测方法、装置、电子设备及存储介质 |
CN115575976A (zh) * | 2022-10-13 | 2023-01-06 | 深圳市正浩创新科技股份有限公司 | 沿边路径规划方法、装置、计算机可读介质及电子设备 |
-
2023
- 2023-03-17 CN CN202310265157.6A patent/CN116465827B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103236078A (zh) * | 2013-04-15 | 2013-08-07 | 浙江工业大学 | 一种基于面元的复杂场景三维重建方法 |
CN104063894A (zh) * | 2014-06-13 | 2014-09-24 | 中国科学院深圳先进技术研究院 | 点云三维模型重建方法及系统 |
US20210173966A1 (en) * | 2019-06-30 | 2021-06-10 | Huazhong University Of Science And Technology | Method for constructing curve of robot processing path of part with small curvature based on point cloud boundary |
CN111967339A (zh) * | 2020-07-27 | 2020-11-20 | 北京航空航天大学 | 用于规划无人机路径的方法和装置 |
CN114626112A (zh) * | 2022-03-24 | 2022-06-14 | 长春理工大学 | 一种基于边界检验的未知物体表面测量视点规划方法 |
CN115147692A (zh) * | 2022-06-08 | 2022-10-04 | 中国科学院自动化研究所 | 目标检测方法、装置、电子设备及存储介质 |
CN115575976A (zh) * | 2022-10-13 | 2023-01-06 | 深圳市正浩创新科技股份有限公司 | 沿边路径规划方法、装置、计算机可读介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN116465827B (zh) | 2023-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fan et al. | Rethinking road surface 3-d reconstruction and pothole detection: From perspective transformation to disparity map segmentation | |
CN109800689B (zh) | 一种基于时空特征融合学习的目标跟踪方法 | |
CN111340867B (zh) | 图像帧的深度估计方法、装置、电子设备及存储介质 | |
CN111079619B (zh) | 用于检测图像中的目标对象的方法和装置 | |
CN112529015A (zh) | 一种基于几何解缠的三维点云处理方法、装置及设备 | |
CN110688905B (zh) | 一种基于关键帧的三维物体检测与跟踪方法 | |
CN112836734A (zh) | 一种异源数据融合方法及装置、存储介质 | |
CN111524168B (zh) | 点云数据的配准方法、系统、装置及计算机存储介质 | |
WO2019171628A1 (en) | Image processing system and image processing method | |
CN111126116A (zh) | 无人船河道垃圾识别方法及系统 | |
CN114926726B (zh) | 基于多任务网络的无人船感知方法及相关设备 | |
O'Byrne et al. | A stereo‐matching technique for recovering 3D information from underwater inspection imagery | |
CN112785705A (zh) | 一种位姿获取方法、装置及移动设备 | |
CN115249321A (zh) | 训练神经网络的方法、训练神经网络的系统以及神经网络 | |
CN116402976A (zh) | 三维目标检测模型训练方法及装置 | |
CN115222884A (zh) | 一种基于人工智能的空间对象分析及建模优化方法 | |
CN114742864A (zh) | 皮带跑偏检测方法及装置 | |
CN116539619B (zh) | 产品缺陷检测方法、系统、装置及存储介质 | |
CN116465827B (zh) | 视点路径规划方法、装置、电子设备及存储介质 | |
CN116863285A (zh) | 多尺度生成对抗网络的红外与可见光图像融合方法 | |
Jia et al. | A novel improved probability-guided RANSAC algorithm for robot 3D map building | |
CN113971760B (zh) | 基于深度学习的高质量准稠密互补特征提取方法 | |
CN113920254B (zh) | 一种基于单目rgb的室内三维重建方法及其系统 | |
CN112069997B (zh) | 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置 | |
CN114898221A (zh) | 一种杆塔倾斜检测方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |