CN116188883A - 一种抓握位置分析方法及终端 - Google Patents
一种抓握位置分析方法及终端 Download PDFInfo
- Publication number
- CN116188883A CN116188883A CN202310476218.3A CN202310476218A CN116188883A CN 116188883 A CN116188883 A CN 116188883A CN 202310476218 A CN202310476218 A CN 202310476218A CN 116188883 A CN116188883 A CN 116188883A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- grasping
- hand
- position point
- human hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Image Input (AREA)
Abstract
本发明公开一种抓握位置分析方法及终端,对被涂覆可转移的标记材料的物体进行抓握,抓握完成后采集人手位置点云信息,此时,人手位置点云信息会含有被标记材料标记的位置,根据标记材料对人手位置点云信息进行区域分割,得到人手抓握位置点云数据,最后对人手抓握位置点云数据进行特征分析,得到特征分析结果,实现了人手抓握位置的特征分析,不再像现有技术中使用传感器阵列结构式的数据手套采集人手抓握位置信息,而是利用标记材料使得人手抓握后留下抓握痕迹,在对人手位置点云信息进行区域分割后,得到准确完整的人手抓握位置点云数据,从而能够高效、精准地分析人手抓握位置的特征。
Description
技术领域
本发明属于数据处理技术领域,尤其涉及一种抓握位置分析方法及终端。
背景技术
随着现代化社会的发展,对人手特征的研究以及应用在医疗、科研、大数据等领域逐渐发挥出巨大作用,以信息化的手段实现对人手信息的提取与分析成为了主流趋势。而在现实生活中由于人手抓握数据采集不全面等原因,要对人手抓握位置信息进行分析,其首要任务就是需要对抓握位置信息进行数据采集。对人手抓握位置信息进行分析能够为传感器排布设计或康复治疗方案等许多应用场景提供设计帮助。
传统对人手抓握位置信息的采集方案是穿戴传感器阵列结构式的数据手套完成抓握动作,获得位置数据集,但是此方案受限于数据手套传感器的排布方式以及传感器的测量精度,并不能准确完全地获取接触位置信息,从而加剧了三维建模的困难。另外,由于传统方法中获取抓握位置信息不准确,导致后续对人手抓握位置特征提取存在较大的差异性,无法获得通用的特征信息,让人手抓握位置特征信息的应用受到了较大阻碍。因此,如何快速、精准地采集人手抓握位置信息,并以一种合理的方式分析抓握位置信息的特征,目前仍然是一项具有挑战性的任务。
发明内容
本发明所要解决的技术问题是:提供一种抓握位置分析方法及终端,能够高效、精准地分析人手抓握位置的特征。
为了解决上述技术问题,本发明采用的一种技术方案为:
一种抓握位置分析方法,包括步骤:
输出与被标记物体对应的抓握指令,所述被标记物体为被涂覆可转移的标记材料的物体;
接收与所述抓握指令对应的抓握完成信息,并根据所述抓握完成信息采集人手位置点云信息;
根据所述标记材料对所述人手位置点云信息进行区域分割,得到人手抓握位置点云数据;
对所述人手抓握位置点云数据进行特征分析,得到特征分析结果。
为了解决上述技术问题,本发明采用的另一种技术方案为:
一种抓握位置分析终端,包括存储器、处理器及存储在存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
输出与被标记物体对应的抓握指令,所述被标记物体为被涂覆可转移的标记材料的物体;
接收与所述抓握指令对应的抓握完成信息,并根据所述抓握完成信息采集人手位置点云信息;
根据所述标记材料对所述人手位置点云信息进行区域分割,得到人手抓握位置点云数据;
对所述人手抓握位置点云数据进行特征分析,得到特征分析结果。
本发明的有益效果在于:对被涂覆可转移的标记材料的物体进行抓握,抓握完成后采集人手位置点云信息,此时,人手位置点云信息会含有被标记材料标记的位置,根据标记材料对人手位置点云信息进行区域分割,得到人手抓握位置点云数据,最后对人手抓握位置点云数据进行特征分析,得到特征分析结果,实现了人手抓握位置的特征分析,不再像现有技术中使用传感器阵列结构式的数据手套采集人手抓握位置信息,而是利用标记材料使得人手抓握后留下抓握痕迹,在对人手位置点云信息进行区域分割后,得到准确完整的人手抓握位置点云数据,从而能够高效、精准地分析人手抓握位置的特征。
附图说明
图1为本发明实施例的一种抓握位置分析方法的步骤流程图;
图2为本发明实施例的一种抓握位置分析终端的结构示意图。
具体实施方式
为详细说明本发明的技术内容、所实现目的及效果,以下结合实施方式并配合附图予以说明。
请参照图1,本发明实施例提供了一种抓握位置分析方法,包括步骤:
输出与被标记物体对应的抓握指令,所述被标记物体为被涂覆可转移的标记材料的物体;
接收与所述抓握指令对应的抓握完成信息,并根据所述抓握完成信息采集人手位置点云信息;
根据所述标记材料对所述人手位置点云信息进行区域分割,得到人手抓握位置点云数据;
对所述人手抓握位置点云数据进行特征分析,得到特征分析结果。
从上述描述可知,本发明的有益效果在于:对被涂覆可转移的标记材料的物体进行抓握,抓握完成后采集人手位置点云信息,此时,人手位置点云信息会含有被标记材料标记的位置,根据标记材料对人手位置点云信息进行区域分割,得到人手抓握位置点云数据,最后对人手抓握位置点云数据进行特征分析,得到特征分析结果,实现了人手抓握位置的特征分析,不再像现有技术中使用传感器阵列结构式的数据手套采集人手抓握位置信息,而是利用标记材料使得人手抓握后留下抓握痕迹,在对人手位置点云信息进行区域分割后,得到准确完整的人手抓握位置点云数据,从而能够高效、精准地分析人手抓握位置的特征。
进一步地,所述对所述人手抓握位置点云数据进行特征分析,得到特征分析结果包括:
对所述人手抓握位置点云数据使用聚类算法进行聚类分析,得到人手抓握位置的不同区域;
根据所述不同区域使用特征选择算法对人手抓握位置的每一区域进行贡献度计算,得到人手抓握位置的贡献度特征;
根据所述不同区域使用相关系数矩阵函数对人手抓握位置的不同区域之间的相关性程度进行计算,得到不同区域之间的关联性特征;
根据所述不同区域、所述贡献度特征和所述关联性特征生成特征分析结果。
由上述描述可知,依次基于人手抓握位置点云数据进行聚类分析、贡献度计算和相关性程度计算,得到不同区域、贡献度特征和关联性特征,全面、客观地分析了人手抓握位置的特征。
进一步地,所述根据所述标记材料对所述人手位置点云信息进行区域分割,得到人手抓握位置点云数据包括:
将所述人手位置点云信息分割为被所述标记材料标记的点云数据以及未被所述标记材料标记的点云数据;
根据所述被所述标记材料标记的点云数据生成人手抓握位置点云数据。
由上述描述可知,被标记材料标记的点云数据对应的人手位置即抓握时与物体接触的位置,即抓握位置,基于标记材料获取人手抓握位置点云数据更加准确、简单可靠。
进一步地,所述根据所述抓握完成信息采集人手位置点云信息包括:
根据所述抓握完成信息采集初始的人手位置点云信息;
对所述初始的人手位置点云信息使用主成分分析方法进行数据降维,得到降维后的人手位置点云信息;
对所述降维后的人手位置点云信息进行归一化处理,得到人手位置点云信息。
由上述描述可知,对初始的人手位置点云信息先使用主成分分析方法进行数据降维,然后进行归一化处理,实现了数据预处理,提高了数据的有效性,便于特征分析处理。
进一步地,所述根据所述抓握完成信息采集初始的人手位置点云信息包括:
使用3D扫描方法根据所述抓握完成信息采集初始的人手位置点云信息。
由上述描述可知,3D扫描方法采集初始的人手位置点云信息可以不受限制,准确、全面地获得人手在抓握过程中接触位置情况,并且通过3D扫描的方式可以准确、量化扫描信息,为扫描结果的分析提供可靠的数据保障。
请参照图2,一种抓握位置分析终端,包括存储器、处理器及存储在存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
输出与被标记物体对应的抓握指令,所述被标记物体为被涂覆可转移的标记材料的物体;
接收与所述抓握指令对应的抓握完成信息,并根据所述抓握完成信息采集人手位置点云信息;
根据所述标记材料对所述人手位置点云信息进行区域分割,得到人手抓握位置点云数据;
对所述人手抓握位置点云数据进行特征分析,得到特征分析结果。
从上述描述可知,本发明的有益效果在于:对被涂覆可转移的标记材料的物体进行抓握,抓握完成后采集人手位置点云信息,此时,人手位置点云信息会含有被标记材料标记的位置,根据标记材料对人手位置点云信息进行区域分割,得到人手抓握位置点云数据,最后对人手抓握位置点云数据进行特征分析,得到特征分析结果,实现了人手抓握位置的特征分析,不再像现有技术中使用传感器阵列结构式的数据手套采集人手抓握位置信息,而是利用标记材料使得人手抓握后留下抓握痕迹,在对人手位置点云信息进行区域分割后,得到准确完整的人手抓握位置点云数据,从而能够高效、精准地分析人手抓握位置的特征。
进一步地,所述对所述人手抓握位置点云数据进行特征分析,得到特征分析结果包括:
对所述人手抓握位置点云数据使用聚类算法进行聚类分析,得到人手抓握位置的不同区域;
根据所述不同区域使用特征选择算法对人手抓握位置的每一区域进行贡献度计算,得到人手抓握位置的贡献度特征;
根据所述不同区域使用相关系数矩阵函数对人手抓握位置的不同区域之间的相关性程度进行计算,得到不同区域之间的关联性特征;
根据所述不同区域、所述贡献度特征和所述关联性特征生成特征分析结果。
由上述描述可知,依次基于人手抓握位置点云数据进行聚类分析、贡献度计算和相关性程度计算,得到不同区域、贡献度特征和关联性特征,全面、客观地分析了人手抓握位置的特征。
进一步地,所述根据所述标记材料对所述人手位置点云信息进行区域分割,得到人手抓握位置点云数据包括:
将所述人手位置点云信息分割为被所述标记材料标记的点云数据以及未被所述标记材料标记的点云数据;
根据所述被所述标记材料标记的点云数据生成人手抓握位置点云数据。
由上述描述可知,被标记材料标记的点云数据对应的人手位置即抓握时与物体接触的位置,即抓握位置,基于标记材料获取人手抓握位置点云数据更加准确、简单可靠。
进一步地,所述根据所述抓握完成信息采集人手位置点云信息包括:
根据所述抓握完成信息采集初始的人手位置点云信息;
对所述初始的人手位置点云信息使用主成分分析方法进行数据降维,得到降维后的人手位置点云信息;
对所述降维后的人手位置点云信息进行归一化处理,得到人手位置点云信息。
由上述描述可知,对初始的人手位置点云信息先使用主成分分析方法进行数据降维,然后进行归一化处理,实现了数据预处理,提高了数据的有效性,便于特征分析处理。
进一步地,所述根据所述抓握完成信息采集初始的人手位置点云信息包括:
使用3D扫描方法根据所述抓握完成信息采集初始的人手位置点云信息。
由上述描述可知,3D扫描方法采集初始的人手位置点云信息可以不受限制,准确、全面地获得人手在抓握过程中接触位置情况,并且通过3D扫描的方式可以准确、量化扫描信息,为扫描结果的分析提供可靠的数据保障。
本发明上述的抓握位置分析方法及终端能够适用于人手抓握位置分析场景,以下通过具体实施方式进行说明:
实施例一
请参照图1,本实施例的一种抓握位置分析方法,包括步骤:
S1、输出与被标记物体对应的抓握指令,所述被标记物体为被涂覆可转移的标记材料的物体;
其中,所述被标记物体可根据实际使用场景进行灵活设置,在一种可选的实施方式中,所述被标记物体包括大、中、小号的塑料圆纸筒,大、中、小号的塑料软球,标准铅笔,标准筷子,盖子,标准牙刷,硬币,手提袋,卡片,牙膏,剪刀,本子以及筷子等;所述可转移的标记材料可被3D扫描装置识别,且反光性弱,颜色较深,比如油漆、马克笔、水粉或印泥,在一种可选的实施方式中,所述可转移的标记材料为哑光喷漆。
具体的,输出与被标记物体对应的抓握指令之后,工作人员可根据抓握指令戴上棉纺织手套,然后根据规定动作抓握被标记物体。
S2、接收与所述抓握指令对应的抓握完成信息,并根据所述抓握完成信息采集人手位置点云信息,具体包括:
S21、接收与所述抓握指令对应的抓握完成信息;
S22、根据所述抓握完成信息采集初始的人手位置点云信息;
在一种可选的实施方式中,使用3D扫描方法根据所述抓握完成信息采集初始的人手位置点云信息。
在另一种可选的实施方式中,还可使用数字相机拍照方法、直接测量方法或布置传感器网络方法根据所述抓握完成信息采集初始的人手位置点云信息。
具体的,工作人员抓握被标记物体之后,棉纺织手套会粘附所述标记材料,然后将该棉纺织手套套在人手模型上,使用皮筋固定,该人手模型是通过对工作人员的人手3D扫描建模,通过3D打印的方式获取的,且默认为人手正常的舒展姿态,接着使用3D扫描方法扫描该人手模型采集初始的人手位置点云信息。
S23、对所述初始的人手位置点云信息使用主成分分析方法(PrincipalComponent Analysis,PCA)进行数据降维,得到降维后的人手位置点云信息;
S24、对所述降维后的人手位置点云信息进行归一化处理,得到人手位置点云信息,所述人手位置点云信息即套有棉纺织手套的人手模型的全部点云信息,其中包括被所述标记材料标记的点云数据以及未被所述标记材料标记的点云数据。
S3、根据所述标记材料对所述人手位置点云信息进行区域分割,得到人手抓握位置点云数据,具体包括:
S31、将所述人手位置点云信息分割为被所述标记材料标记的点云数据以及未被所述标记材料标记的点云数据;
S32、根据所述被所述标记材料标记的点云数据生成人手抓握位置点云数据。
S4、对所述人手抓握位置点云数据进行特征分析,得到特征分析结果,具体包括:
S41、对所述人手抓握位置点云数据使用聚类算法进行聚类分析,得到人手抓握位置的不同区域,即分布特征;
在一种可选的实施方式中,所述聚类算法为K均值聚类算法(K-means clusteringalgorithm),使用K均值聚类算法具有如下优点:
(1)简单易实现:K-means算法是一种简单的聚类算法,易于理解和实现,不需要先验知识,不需要复杂的计算和调参过程;
(2)高效性:K-means算法的时间复杂度是O(nkI),其中n是数据点数量,k是簇的数量,I是迭代次数,由于I通常很小,所以K-means算法具有较高的效率;
(3)可扩展性:K-means算法可以处理大规模的数据集,具有较好的可扩展性;
(4)适用性广泛:K-means算法适用于大部分数据集,对于形状简单、密度相似的数据集效果最好;
(5)可解释性强:K-means算法的结果易于解释,每个簇可以用其质心表示,方便进行后续的分析和处理。
S42、根据所述不同区域使用特征选择算法对人手抓握位置的每一区域进行贡献度计算,得到人手抓握位置的贡献度特征;
在一种可选的实施方式中,所述特征选择算法为ReliefF算法,使用ReliefF算法具有如下优点:
(1)适用性广泛:ReliefF算法适用于各种类型的数据集,包括连续型、离散型、标称型等多种类型的特征;
(2)鲁棒性强:ReliefF算法对于噪声和不完整数据的情况具有较强的鲁棒性,可以在数据缺失或噪声较多的情况下仍然有效;
(3)高效性:ReliefF算法的计算复杂度低,可以快速计算特征的重要性;
(4)可解释性强:ReliefF算法的结果易于解释,可以根据特征的重要性选择最优的特征集合,从而提高分类或回归的性能;
(5)不依赖分类器:ReliefF算法是一种无需依赖分类器的特征选择方法,不需要事先训练分类器,因此可以在不同的分类器中使用。
S43、根据所述不同区域使用相关系数矩阵函数对人手抓握位置的不同区域之间的相关性程度进行计算,得到不同区域之间的关联性特征;
在一种可选的实施方式中,所述相关系数矩阵函数为corrcoef函数,使用corrcoef函数具有如下优点:
(1)简单易用:corrcoef函数是Python中scipy库提供的一个函数,简单易用,无需编写复杂的代码;
(2)准确性高:corrcoef函数能够准确地计算出两个变量之间的相关性系数;
(3)可解释性强:相关系数可以用来表示两个变量之间的线性关系强度和方向,可以通过它来判断两个变量是否存在正相关、负相关或无相关关系;
(4)可视化性强:corrcoef函数计算出的相关性系数可以通过可视化方法来展示,如散点图、热力图等,可以帮助更好地理解数据之间的关系;
(5)适用性广泛:corrcoef函数适用于不同类型的数据,包括数值型、离散型、二元型等多种类型的数据,可应用于多个领域,如金融、医疗、社会科学等。
S44、根据所述不同区域、所述贡献度特征和所述关联性特征生成特征分析结果;
通过结合K-means算法、ReliefF算法和corrcoef函数能够全面、准确客观地分析的人手抓握位置的特征。
在一种可选的实施方式中,还包括:
S5、保存所述人手抓握位置点云数据以及所述特征分析结果,以此可为相关研究提供实验依据。
实施例二
请参照图2,本实施例的一种抓握位置分析终端,包括存储器、处理器及存储在存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现实施例一中的抓握位置分析方法中的各个步骤。
综上所述,本发明提供的一种抓握位置分析方法及终端,输出与被标记物体对应的抓握指令,所述被标记物体为被涂覆可转移的标记材料的物体;接收与所述抓握指令对应的抓握完成信息,并根据所述抓握完成信息采集人手位置点云信息;根据所述标记材料对所述人手位置点云信息进行区域分割,得到人手抓握位置点云数据;对所述人手抓握位置点云数据进行特征分析,得到特征分析结果,利用标记材料使得人手抓握后留下抓握痕迹,在对人手位置点云信息进行区域分割后,得到准确完整的人手抓握位置点云数据,从而能够高效、精准地分析人手抓握位置的特征;另外,依次基于人手抓握位置点云数据进行聚类分析、贡献度计算和相关性程度计算,得到不同区域、贡献度特征和关联性特征,全面、客观地分析了人手抓握位置的特征。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等同变换,或直接或间接运用在相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种抓握位置分析方法,其特征在于,包括步骤:
输出与被标记物体对应的抓握指令,所述被标记物体为被涂覆可转移的标记材料的物体;
接收与所述抓握指令对应的抓握完成信息,并根据所述抓握完成信息采集人手位置点云信息;
根据所述标记材料对所述人手位置点云信息进行区域分割,得到人手抓握位置点云数据;
对所述人手抓握位置点云数据进行特征分析,得到特征分析结果。
2.根据权利要求1所述的一种抓握位置分析方法,其特征在于,所述对所述人手抓握位置点云数据进行特征分析,得到特征分析结果包括:
对所述人手抓握位置点云数据使用聚类算法进行聚类分析,得到人手抓握位置的不同区域;
根据所述不同区域使用特征选择算法对人手抓握位置的每一区域进行贡献度计算,得到人手抓握位置的贡献度特征;
根据所述不同区域使用相关系数矩阵函数对人手抓握位置的不同区域之间的相关性程度进行计算,得到不同区域之间的关联性特征;
根据所述不同区域、所述贡献度特征和所述关联性特征生成特征分析结果。
3.根据权利要求1所述的一种抓握位置分析方法,其特征在于,所述根据所述标记材料对所述人手位置点云信息进行区域分割,得到人手抓握位置点云数据包括:
将所述人手位置点云信息分割为被所述标记材料标记的点云数据以及未被所述标记材料标记的点云数据;
根据所述被所述标记材料标记的点云数据生成人手抓握位置点云数据。
4.根据权利要求1所述的一种抓握位置分析方法,其特征在于,所述根据所述抓握完成信息采集人手位置点云信息包括:
根据所述抓握完成信息采集初始的人手位置点云信息;
对所述初始的人手位置点云信息使用主成分分析方法进行数据降维,得到降维后的人手位置点云信息;
对所述降维后的人手位置点云信息进行归一化处理,得到人手位置点云信息。
5.根据权利要求4所述的一种抓握位置分析方法,其特征在于,所述根据所述抓握完成信息采集初始的人手位置点云信息包括:
使用3D扫描方法根据所述抓握完成信息采集初始的人手位置点云信息。
6.一种抓握位置分析终端,包括存储器、处理器及存储在存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现以下步骤:
输出与被标记物体对应的抓握指令,所述被标记物体为被涂覆可转移的标记材料的物体;
接收与所述抓握指令对应的抓握完成信息,并根据所述抓握完成信息采集人手位置点云信息;
根据所述标记材料对所述人手位置点云信息进行区域分割,得到人手抓握位置点云数据;
对所述人手抓握位置点云数据进行特征分析,得到特征分析结果。
7.根据权利要求6所述的一种抓握位置分析终端,其特征在于,所述对所述人手抓握位置点云数据进行特征分析,得到特征分析结果包括:
对所述人手抓握位置点云数据使用聚类算法进行聚类分析,得到人手抓握位置的不同区域;
根据所述不同区域使用特征选择算法对人手抓握位置的每一区域进行贡献度计算,得到人手抓握位置的贡献度特征;
根据所述不同区域使用相关系数矩阵函数对人手抓握位置的不同区域之间的相关性程度进行计算,得到不同区域之间的关联性特征;
根据所述不同区域、所述贡献度特征和所述关联性特征生成特征分析结果。
8.根据权利要求6所述的一种抓握位置分析终端,其特征在于,所述根据所述标记材料对所述人手位置点云信息进行区域分割,得到人手抓握位置点云数据包括:
将所述人手位置点云信息分割为被所述标记材料标记的点云数据以及未被所述标记材料标记的点云数据;
根据所述被所述标记材料标记的点云数据生成人手抓握位置点云数据。
9.根据权利要求6所述的一种抓握位置分析终端,其特征在于,所述根据所述抓握完成信息采集人手位置点云信息包括:
根据所述抓握完成信息采集初始的人手位置点云信息;
对所述初始的人手位置点云信息使用主成分分析方法进行数据降维,得到降维后的人手位置点云信息;
对所述降维后的人手位置点云信息进行归一化处理,得到人手位置点云信息。
10.根据权利要求9所述的一种抓握位置分析终端,其特征在于,所述根据所述抓握完成信息采集初始的人手位置点云信息包括:
使用3D扫描方法根据所述抓握完成信息采集初始的人手位置点云信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310476218.3A CN116188883B (zh) | 2023-04-28 | 2023-04-28 | 一种抓握位置分析方法及终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310476218.3A CN116188883B (zh) | 2023-04-28 | 2023-04-28 | 一种抓握位置分析方法及终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116188883A true CN116188883A (zh) | 2023-05-30 |
CN116188883B CN116188883B (zh) | 2023-08-29 |
Family
ID=86452776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310476218.3A Active CN116188883B (zh) | 2023-04-28 | 2023-04-28 | 一种抓握位置分析方法及终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116188883B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103357162A (zh) * | 2012-04-06 | 2013-10-23 | 株式会社普利司通 | 挥杆模拟系统、挥杆模拟设备和挥杆模拟方法 |
CN105835060A (zh) * | 2016-05-23 | 2016-08-10 | 先驱智能机械(深圳)有限公司 | 控制方法、控制装置及机械手系统 |
CN106530297A (zh) * | 2016-11-11 | 2017-03-22 | 北京睿思奥图智能科技有限公司 | 基于点云配准的物体抓取区域定位方法 |
CN108171748A (zh) * | 2018-01-23 | 2018-06-15 | 哈工大机器人(合肥)国际创新研究院 | 一种面向机器人智能抓取应用的视觉识别与定位方法 |
US20180332480A1 (en) * | 2017-05-10 | 2018-11-15 | Facebook, Inc. | Multi-Hop Wireless Network Planning |
CN109048918A (zh) * | 2018-09-25 | 2018-12-21 | 华南理工大学 | 一种轮椅机械臂机器人的视觉引导方法 |
CN109816050A (zh) * | 2019-02-23 | 2019-05-28 | 深圳市商汤科技有限公司 | 物体位姿估计方法及装置 |
CN110744544A (zh) * | 2019-10-31 | 2020-02-04 | 昆山市工研院智能制造技术有限公司 | 服务机器人视觉抓取方法及服务机器人 |
US20200198130A1 (en) * | 2017-09-01 | 2020-06-25 | The Regents Of The University Of California | Robotic systems and methods for robustly grasping and targeting objects |
CN113327298A (zh) * | 2021-07-05 | 2021-08-31 | 深圳市拓普智造科技有限公司 | 基于图像实例分割和点云pca算法的一种抓取姿态估计方法 |
WO2022042888A1 (en) * | 2020-08-28 | 2022-03-03 | Eaton Intelligent Power Limited | A grip analysis system and method |
CN115213896A (zh) * | 2022-05-10 | 2022-10-21 | 浙江西图盟数字科技有限公司 | 基于机械臂的物体抓取方法、系统、设备及存储介质 |
CN115781678A (zh) * | 2022-11-30 | 2023-03-14 | 山东新一代信息产业技术研究院有限公司 | 智能机器人的垃圾处理方法及系统 |
-
2023
- 2023-04-28 CN CN202310476218.3A patent/CN116188883B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103357162A (zh) * | 2012-04-06 | 2013-10-23 | 株式会社普利司通 | 挥杆模拟系统、挥杆模拟设备和挥杆模拟方法 |
CN105835060A (zh) * | 2016-05-23 | 2016-08-10 | 先驱智能机械(深圳)有限公司 | 控制方法、控制装置及机械手系统 |
CN106530297A (zh) * | 2016-11-11 | 2017-03-22 | 北京睿思奥图智能科技有限公司 | 基于点云配准的物体抓取区域定位方法 |
US20180332480A1 (en) * | 2017-05-10 | 2018-11-15 | Facebook, Inc. | Multi-Hop Wireless Network Planning |
US20200198130A1 (en) * | 2017-09-01 | 2020-06-25 | The Regents Of The University Of California | Robotic systems and methods for robustly grasping and targeting objects |
CN108171748A (zh) * | 2018-01-23 | 2018-06-15 | 哈工大机器人(合肥)国际创新研究院 | 一种面向机器人智能抓取应用的视觉识别与定位方法 |
CN109048918A (zh) * | 2018-09-25 | 2018-12-21 | 华南理工大学 | 一种轮椅机械臂机器人的视觉引导方法 |
CN109816050A (zh) * | 2019-02-23 | 2019-05-28 | 深圳市商汤科技有限公司 | 物体位姿估计方法及装置 |
CN110744544A (zh) * | 2019-10-31 | 2020-02-04 | 昆山市工研院智能制造技术有限公司 | 服务机器人视觉抓取方法及服务机器人 |
WO2022042888A1 (en) * | 2020-08-28 | 2022-03-03 | Eaton Intelligent Power Limited | A grip analysis system and method |
CN113327298A (zh) * | 2021-07-05 | 2021-08-31 | 深圳市拓普智造科技有限公司 | 基于图像实例分割和点云pca算法的一种抓取姿态估计方法 |
CN115213896A (zh) * | 2022-05-10 | 2022-10-21 | 浙江西图盟数字科技有限公司 | 基于机械臂的物体抓取方法、系统、设备及存储介质 |
CN115781678A (zh) * | 2022-11-30 | 2023-03-14 | 山东新一代信息产业技术研究院有限公司 | 智能机器人的垃圾处理方法及系统 |
Non-Patent Citations (2)
Title |
---|
JIN YAO ET AL.: "Target Recognition and Grab Location Based on Machine Vision and Deep Learning", 《INTERNATIONAL CONFERENCE ON FRONTIER COMPUTING》, pages 2013 - 2020 * |
强华 等: "基于数字孪生的机械臂无序抓取系统设计", 《机械设计与制造工程》, vol. 52, no. 2, pages 63 - 66 * |
Also Published As
Publication number | Publication date |
---|---|
CN116188883B (zh) | 2023-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | Unsupervised discovery of object landmarks as structural representations | |
Singh et al. | Transforming sensor data to the image domain for deep learning—An application to footstep detection | |
Cai et al. | A scalable approach for understanding the visual structures of hand grasps | |
Ju et al. | A unified fuzzy framework for human-hand motion recognition | |
CN106127108B (zh) | 一种基于卷积神经网络的人手图像区域检测方法 | |
Kang et al. | Identification of butterfly based on their shapes when viewed from different angles using an artificial neural network | |
CN110139597A (zh) | 利用神经生理信号进行迭代分类的系统和方法 | |
CN111046731B (zh) | 基于表面肌电信号进行手势识别的迁移学习方法和识别方法 | |
AU2014221357A1 (en) | Method and apparatus for learning-enhanced altas-based auto-segmentation | |
CN105427296A (zh) | 一种基于超声图像低秩分析的甲状腺病灶图像识别方法 | |
CN110033023A (zh) | 一种基于绘本识别的图像数据处理方法及系统 | |
CN110991268B (zh) | 一种基于深度图像的帕金森手部运动量化分析方法和系统 | |
CN103336960A (zh) | 一种基于流形学习的人脸识别方法 | |
Ali et al. | Object recognition for dental instruments using SSD-MobileNet | |
CN114529639A (zh) | 一种生成虚拟形象动画的方法、装置、设备及存储介质 | |
Peng et al. | A self-supervised learning-based 6-DOF grasp planning method for manipulator | |
Sorto et al. | Face recognition and temperature data acquisition for COVID-19 patients in Honduras | |
Mahmoud et al. | Convolutional neural networks framework for human hand gesture recognition | |
Alhersh et al. | Learning human activity from visual data using deep learning | |
Bilang et al. | Cactaceae detection using MobileNet architecture | |
Naik Bukht et al. | A Novel Human Interaction Framework Using Quadratic Discriminant Analysis with HMM. | |
Diniz et al. | Face attributes as cues for deep face recognition understanding | |
CN116188883B (zh) | 一种抓握位置分析方法及终端 | |
Lira et al. | Panoramic dental x-ray image segmentation and feature extraction | |
Bijoy et al. | Deep Cleaner—A Few Shot Image Dataset Cleaner Using Supervised Contrastive Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |