CN113012291A - 基于机械手参数重建对象三维模型的方法和装置 - Google Patents

基于机械手参数重建对象三维模型的方法和装置 Download PDF

Info

Publication number
CN113012291A
CN113012291A CN202110354170.XA CN202110354170A CN113012291A CN 113012291 A CN113012291 A CN 113012291A CN 202110354170 A CN202110354170 A CN 202110354170A CN 113012291 A CN113012291 A CN 113012291A
Authority
CN
China
Prior art keywords
parameter
target object
parameters
manipulator
attitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110354170.XA
Other languages
English (en)
Other versions
CN113012291B (zh
Inventor
刘烨斌
徐乐朗
于涛
邵航
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Yangtze Delta Region Institute of Tsinghua University Zhejiang
Original Assignee
Zhejiang Future Technology Institute (jiaxing)
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Future Technology Institute (jiaxing), Tsinghua University filed Critical Zhejiang Future Technology Institute (jiaxing)
Priority to CN202110354170.XA priority Critical patent/CN113012291B/zh
Publication of CN113012291A publication Critical patent/CN113012291A/zh
Application granted granted Critical
Publication of CN113012291B publication Critical patent/CN113012291B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Manipulator (AREA)

Abstract

本申请提出一种基于机械手参数重建对象三维模型的方法和装置,涉及三维重建和生成技术领域,其中,方法包括:通过机械手姿态参数,估计对应的机械手上接触点标签;通过机械手姿态参数和估计出的接触点标签,估计对应目标物体的物理几何参数;最后通过机械手姿态参数、接触点标签和目标物体的物理几何参数,估计出目标物体的旋转姿态参数;最后获取目标物体的平移姿态参数,根据目标物体的物理几何参数、旋转姿态参数和平移姿态参数,计算目标物体模型。由此,在机械手抓取目标物体的过程中,通过机械手的姿态参数,重建出可能的且合理的目标对象三维模型,解决通常机械手抓取物体过程中,依靠纯视觉方法进行三维重建会导致的鲁棒性低等问题。

Description

基于机械手参数重建对象三维模型的方法和装置
技术领域
本申请涉及三维重建和生成技术领域,尤其涉及一种基于机械手参数重建对象三维模型的方法和装置。
背景技术
三维计算机视觉领域当中,对目标三维模型的重建一直在人脸识别、自动驾驶、AR、VR、全息通讯、机器人等领域有着极其广泛的应用。而尤其在机器人领域中,对世界中物体的重建是最为关键的技术之一。例如在机器人对目标物体进行抓取的过程中,准确地重建出物体的几何形状并同时估计它的位置、姿态,对于抓取的成功率有着决定性的影响。而目前的技术大多停留在从相机获取图像,利用视觉信息来完成这些工作,但往往实际应用中缺乏鲁棒性,对于数据库中没有的物体会产生很差的结果。
发明内容
本申请旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本申请的第一个目的在于提出一种基于机械手参数重建对象三维模型的方法,在机械手抓取目标物体的过程中,通过机械手的姿态参数,重建出可能的且合理的目标对象三维模型,解决通常机械手抓取物体过程中,依靠纯视觉方法进行三维重建会导致的鲁棒性低等问题。
本申请的第二个目的在于提出一种基于机械手参数重建对象三维模型的装置。
为达上述目的,本申请第一方面实施例提出了一种基于机械手参数重建对象三维模型的方法,包括:
获取机械手抓取姿态参数和控制参数,将所述机械手抓取姿态参数和所述控制参数输入已训练的第一全连接网络,获取接触点标签;
将所述机械手抓取姿态参数、所述控制参数和所述接触点标签输入已训练的第二全连接网络,获取目标物体的物理几何参数,将所述机械手抓取姿态参数、所述控制参数、所述接触点标签和所述物理几何参数输入已训练的第三全连接网络,获取所述目标物体的旋转姿态参数;
通过损失函数计算所有机械手上接触点到目标物体表面的距离之和,获取目标物体的平移姿态参数,根据所述目标物体的物理几何参数、旋转姿态参数和平移姿态参数,计算目标物体模型。
本申请实施例的基于机械手参数重建对象三维模型的方法,通过机械手姿态参数,估计对应的机械手上接触点标签;通过机械手姿态参数和估计出的接触点标签,估计对应目标物体的物理几何参数;最后通过机械手姿态参数、接触点标签和目标物体的物理几何参数,估计出目标物体的旋转姿态参数;最后获取目标物体的平移姿态参数,根据目标物体的物理几何参数、旋转姿态参数和平移姿态参数,计算目标物体模型。由此,在机械手抓取目标物体的过程中,通过机械手的姿态参数,重建出可能的且合理的目标对象三维模型,解决通常机械手抓取物体过程中,依靠纯视觉方法进行三维重建会导致的鲁棒性低等问题。
可选地,在本申请的一个实施例中,所述方法,还包括:
通过仿真程序人手模型作为机械手生成不同目标物体的几何参数样本、物体模型样本和控制参数样本;
对每所述几何参数样本和所述物体模型样本,生成不同的机械手抓取姿态参数样本,以及计算每个抓取姿态对应的接触点标签样本;
对每所述机械手抓取姿态参数样本,生成多各目标物体的旋转姿态参数样本;
根据所述几何参数样本、所述物体模型样本、所述控制参数样本、所述接触点标签样本和所述旋转姿态参数样本输入神经网络进行训练,获取所述第一全连接网络、所述第二全连接网络和所述第三全连接网络。
可选地,在本申请的一个实施例中,所述计算每个抓取姿态对应的接触点标签样本,包括:
判断在所述每个抓取姿态时,获取机械手上采样点到目标物体表面的距离;
当所述距离小于预设距离阈值时,所述采样点为所述接触点标签样本。
可选地,在本申请的一个实施例中,在所述通过仿真程序人手模型作为机械手生成不同目标物体的几何参数样本、物体模型样本和控制参数样本之前,还包括:
建立目标物体几何参数和物体模型的映射关系,以及建立所述目标物体几何参数与控制参数之间的映射关系。
可选地,在本申请的一个实施例中,所述通过损失函数计算所有机械手上接触点到目标物体表面的距离之和,获取目标物体的平移姿态参数,包括:
通过损失函数计算所有机械手上接触点到目标物体表面的距离之和的损失值,对所述损失值进行最小化,获取所述平移姿态参数。
为达上述目的,本申请第二方面实施例提出了一种基于机械手参数重建对象三维模型的装置,包括:
第一获取模块,用于获取机械手抓取姿态参数和控制参数,将所述机械手抓取姿态参数和所述控制参数输入已训练的第一全连接网络,获取接触点标签;
第二获取模块,用于将所述机械手抓取姿态参数、所述控制参数和所述接触点标签输入已训练的第二全连接网络,获取目标物体的物理几何参数,将所述机械手抓取姿态参数、所述控制参数、所述接触点标签和所述物理几何参数输入已训练的第三全连接网络,获取所述目标物体的旋转姿态参数;
处理模块,用于通过损失函数计算所有机械手上接触点到目标物体表面的距离之和,获取目标物体的平移姿态参数,根据所述目标物体的物理几何参数、旋转姿态参数和平移姿态参数,计算目标物体模型。
本申请实施例的基于机械手参数重建对象三维模型的装置,通过机械手姿态参数,估计对应的机械手上接触点标签;通过机械手姿态参数和估计出的接触点标签,估计对应目标物体的物理几何参数;最后通过机械手姿态参数、接触点标签和目标物体的物理几何参数,估计出目标物体的旋转姿态参数;最后获取目标物体的平移姿态参数,根据目标物体的物理几何参数、旋转姿态参数和平移姿态参数,计算目标物体模型。由此,在机械手抓取目标物体的过程中,通过机械手的姿态参数,重建出可能的且合理的目标对象三维模型,解决通常机械手抓取物体过程中,依靠纯视觉方法进行三维重建会导致的鲁棒性低等问题。
可选地,在本申请的一个实施例中,所述装置,还包括:
第一生成模块,用于通过仿真程序人手模型作为机械手生成不同目标物体的几何参数样本、物体模型样本和控制参数样本;
第二生成模块,用于对每所述几何参数样本和所述物体模型样本,生成不同的机械手抓取姿态参数样本;
计算模块,用于计算每个抓取姿态对应的接触点标签样本;
第三生成模块,用于对每所述机械手抓取姿态参数样本,生成多各目标物体的旋转姿态参数样本;
训练模块,用于根据所述几何参数样本、所述物体模型样本、所述控制参数样本、所述接触点标签样本和所述旋转姿态参数样本输入神经网络进行训练,获取所述第一全连接网络、所述第二全连接网络和所述第三全连接网络。
可选地,在本申请的一个实施例中,所述计算模块,具体用于:
判断在所述每个抓取姿态时,获取机械手上采样点到目标物体表面的距离;
当所述距离小于预设距离阈值时,所述采样点为所述接触点标签样本。
可选地,在本申请的一个实施例中,所述的装置,还包括:
建立模块,用于建立目标物体几何参数和物体模型的映射关系,以及建立所述目标物体几何参数与控制参数之间的映射关系。
可选地,在本申请的一个实施例中,所述处理模块,具体用于:
通过损失函数计算所有机械手上接触点到目标物体表面的距离之和的损失值,对所述损失值进行最小化,获取所述平移姿态参数。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请实施例一所提供的一种基于机械手参数重建对象三维模型的方法的流程示意图;
图2为本申请实施例所提供的一种基于机械手参数重建对象三维模型的装置的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的基于机械手参数重建对象三维模型的方法和装置。
图1为本申请实施例一所提供的一种基于机械手参数重建对象三维模型的方法的流程示意图。
如图1所示,该基于机械手参数重建对象三维模型的方法包括以下步骤:
本申请基于机械手抓取姿态参数,来完成对目标物体的重建,目的在于充分利用机器手参数本身提供的信息,辅助视觉信息,以提升通常纯视觉算法的鲁棒性。同时在缺乏视觉信息的环境下,基于机械手参数的方法仍然可以在保证鲁棒性的前提下对目标物体参数进行估计。
具体地,在机械手抓取目标物体的过程中,通过机械手姿态参数,重建出可能的且合理的目标对象三维模型,通过仿真程序,大量生成机械手抓取物体的数据,建立数据集;在目标物体类型限定的情况下,建立目标物体的参数化表达(几何参数和姿态参数);通过机械手姿态参数,估计对应的机械手上的接触点标签;通过机械手姿态参数和估计出的接触点标签,估计对应目标物体的物理几何参数;最后通过机械手姿态参数、接触点标签和目标物体的物理几何参数,估计出目标物体的旋转姿态参数,根据目标物体的物理几何参数、旋转姿态参数和平移姿态参数,计算目标物体模型。解决了解决通常机械手抓取物体过程中,依靠纯视觉方法进行三维重建会导致的鲁棒性低等问题,在机械手抓取目标物体的过程中,通过机械手的姿态参数,重建出可能的且合理的目标对象三维模型。
其中,通过优化目标物体的全局平移,使得机械手上的接触点充分靠近目标物体表面,得到最终的目标物体姿态参数。
其中,目标物体的参数化表达可以使用传统几何学参数化方法,也可采用深度学习编码的方式;估计机械手接触点标签、估计目标物体几何参数和姿态参数,分别使用三个不同的全连接神经网络,在建立的仿真数据集上监督训练而得到;最终的优化过程,通过最小化机械手接触点和目标物体表面距离,求解最优的平移姿态参数。
步骤101,获取机械手抓取姿态参数和控制参数,将机械手抓取姿态参数和控制参数输入已训练的第一全连接网络,获取接触点标签。
步骤102,将机械手抓取姿态参数、控制参数和接触点标签输入已训练的第二全连接网络,获取目标物体的物理几何参数,将机械手抓取姿态参数、控制参数、接触点标签和物理几何参数输入已训练的第三全连接网络,获取目标物体的旋转姿态参数。
步骤103,通过损失函数计算所有机械手上接触点到目标物体表面的距离之和,获取目标物体的平移姿态参数,根据目标物体的物理几何参数、旋转姿态参数和平移姿态参数,计算目标物体模型。
在本申请实施例中,通过仿真程序人手模型作为机械手生成不同目标物体的几何参数样本、物体模型样本和控制参数样本;对每几何参数样本和所述物体模型样本,生成不同的机械手抓取姿态参数样本,以及计算每个抓取姿态对应的接触点标签样本;对每机械手抓取姿态参数样本,生成多各目标物体的旋转姿态参数样本;根据几何参数样本、物体模型样本、控制参数样本、接触点标签样本和旋转姿态参数样本输入神经网络进行训练,获取第一全连接网络、第二全连接网络和第三全连接网络。
在本申请实施例中,判断在每个抓取姿态时,获取机械手上采样点到目标物体表面的距离;当距离小于预设距离阈值时,采样点为接触点标签样本。
在本申请实施例中,还包括:建立目标物体几何参数和物体模型的映射关系,以及建立所述目标物体几何参数与控制参数之间的映射关系。
在本申请实施例中,通过损失函数计算所有机械手上接触点到目标物体表面的距离之和的损失值,对损失值进行最小化,获取所述平移姿态参数。
具体地,(1)确定所要抓取目标物体的参数化表达方式,用VV表示几何参数,T=T(V)T=T(V)表示几何参数到目标物体几何的映射。同时建立目标物体几何参数与控制参数dd之间的映射d=D(V)d=D(V);(2)通过仿真程序Grasp It,Mano人手模型作为机械手,生成II个不同的目标物体物理几何参数Vi(i=1,…,N)Vi(i=1,…,N),和对应物体模型Ti(i=1,…,I)Ti(i=1,…,I),和对应控制参数didi。对每一个物理几何参数和物体模型(Vi,Ti)(Vi,Ti),生成J个不同的机械手抓取姿态参数Pij(j=1,…,J)Pij(j=1,…,J),同时计算每个抓取姿态对应的接触点标签CijCij,具体计算方法为判断机械手上的采样点到物体表面距离是否小于给定阈值t。最后对每一个抓取姿态参数,生成KK个目标物体姿态参数(Rijk,Tijk)(k=1,…,K)(Rijk,Tijk)(k=1,…,K),同时更新机械手姿态参数参数得到对应的Pijk(k=1,…,K)Pijk(k=1,…,K),
由此,最终总共生成IJKIJK组数据(Vi,di,Rijk,Tijk,Pijk,Cijk)(Vi,di,Rijk,Tijk,Pijk,Cijk)。
具体地,(3)构建三个全连接神经网络,MLPc,输入机械手参数P,和控制参数d,输出对应的接触点标签C;MLPv,输入机械手参数P,和控制参数d,和接触点标签C,输出对应的目标物体几何参数V;MLPR,输入机械手参数P,和控制参数d,和接触点标签C,和目标物体几何参数V,输出目标物体的旋转姿态参数R,并在(2)中构建的数据集上完成网络的训练;(4)设置损失函数L为所有机械手上接触点到物体表面的最近距离之和,优化目标物体的平移姿态参数T,最小化L,得到最优的T;(5)通过所得到的目标物体的几何参数和姿态参数(,R,T),计算最终目标物体模型T。
本申请实施例的基于机械手参数重建对象三维模型的方法,通过机械手姿态参数,估计对应的机械手上接触点标签;通过机械手姿态参数和估计出的接触点标签,估计对应目标物体的物理几何参数;最后通过机械手姿态参数、接触点标签和目标物体的物理几何参数,估计出目标物体的旋转姿态参数;最后获取目标物体的平移姿态参数,根据目标物体的物理几何参数、旋转姿态参数和平移姿态参数,计算目标物体模型。由此,在机械手抓取目标物体的过程中,通过机械手的姿态参数,重建出可能的且合理的目标对象三维模型,解决通常机械手抓取物体过程中,依靠纯视觉方法进行三维重建会导致的鲁棒性低等问题。
为了实现上述实施例,本申请还提出一种基于机械手参数重建对象三维模型的装置。
图2为本申请实施例提供的一种基于机械手参数重建对象三维模型的装置的结构示意图。
如图2所示,该基于机械手参数重建对象三维模型的装置包括:第一获取模块210、第二获取模块220和处理模块230。
第一获取模块210,用于获取机械手抓取姿态参数和控制参数,将所述机械手抓取姿态参数和所述控制参数输入已训练的第一全连接网络,获取接触点标签。
第二获取模块220,用于将所述机械手抓取姿态参数、所述控制参数和所述接触点标签输入已训练的第二全连接网络,获取目标物体的物理几何参数,将所述机械手抓取姿态参数、所述控制参数、所述接触点标签和所述物理几何参数输入已训练的第三全连接网络,获取所述目标物体的旋转姿态参数。
处理模块230,用于通过损失函数计算所有机械手上接触点到目标物体表面的距离之和,获取目标物体的平移姿态参数,根据所述目标物体的物理几何参数、旋转姿态参数和平移姿态参数,计算目标物体模型。
在本申请的一个实施例中,所述装置,还包括:第一生成模块,用于通过仿真程序人手模型作为机械手生成不同目标物体的几何参数样本、物体模型样本和控制参数样本;第二生成模块,用于对每所述几何参数样本和所述物体模型样本,生成不同的机械手抓取姿态参数样本;计算模块,用于计算每个抓取姿态对应的接触点标签样本;第三生成模块,用于对每所述机械手抓取姿态参数样本,生成多各目标物体的旋转姿态参数样本;训练模块,用于根据所述几何参数样本、所述物体模型样本、所述控制参数样本、所述接触点标签样本和所述旋转姿态参数样本输入神经网络进行训练,获取所述第一全连接网络、所述第二全连接网络和所述第三全连接网络。
在本申请的一个实施例中,所述计算模块,具体用于:判断在所述每个抓取姿态时,获取机械手上采样点到目标物体表面的距离;当所述距离小于预设距离阈值时,所述采样点为所述接触点标签样本。
在本申请的一个实施例中,所述的装置,还包括:建立模块,用于建立目标物体几何参数和物体模型的映射关系,以及建立所述目标物体几何参数与控制参数之间的映射关系。
在本申请的一个实施例中,所述处理模块,具体用于:通过损失函数计算所有机械手上接触点到目标物体表面的距离之和的损失值,对所述损失值进行最小化,获取所述平移姿态参数。
本申请实施例的基于机械手参数重建对象三维模型的装置,通过机械手姿态参数,估计对应的机械手上接触点标签;通过机械手姿态参数和估计出的接触点标签,估计对应目标物体的物理几何参数;最后通过机械手姿态参数、接触点标签和目标物体的物理几何参数,估计出目标物体的旋转姿态参数;最后获取目标物体的平移姿态参数,根据目标物体的物理几何参数、旋转姿态参数和平移姿态参数,计算目标物体模型。由此,在机械手抓取目标物体的过程中,通过机械手的姿态参数,重建出可能的且合理的目标对象三维模型,解决通常机械手抓取物体过程中,依靠纯视觉方法进行三维重建会导致的鲁棒性低等问题。
需要说明的是,前述对基于机械手参数重建对象三维模型的方法实施例的解释说明也适用于该实施例的基于机械手参数重建对象三维模型的装置,此处不再赘述。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (10)

1.一种基于机械手参数重建对象三维模型的方法,其特征在于,包括以下步骤:
获取机械手抓取姿态参数和控制参数,将所述机械手抓取姿态参数和所述控制参数输入已训练的第一全连接网络,获取接触点标签;
将所述机械手抓取姿态参数、所述控制参数和所述接触点标签输入已训练的第二全连接网络,获取目标物体的物理几何参数,将所述机械手抓取姿态参数、所述控制参数、所述接触点标签和所述物理几何参数输入已训练的第三全连接网络,获取所述目标物体的旋转姿态参数;
通过损失函数计算所有机械手上接触点到目标物体表面的距离之和,获取目标物体的平移姿态参数,根据所述目标物体的物理几何参数、旋转姿态参数和平移姿态参数,计算目标物体模型。
2.如权利要求1所述的方法,其特征在于,还包括:
通过仿真程序人手模型作为机械手生成不同目标物体的几何参数样本、物体模型样本和控制参数样本;
对每所述几何参数样本和所述物体模型样本,生成不同的机械手抓取姿态参数样本,以及计算每个抓取姿态对应的接触点标签样本;
对每所述机械手抓取姿态参数样本,生成多各目标物体的旋转姿态参数样本;
根据所述几何参数样本、所述物体模型样本、所述控制参数样本、所述接触点标签样本和所述旋转姿态参数样本输入神经网络进行训练,获取所述第一全连接网络、所述第二全连接网络和所述第三全连接网络。
3.如权利要求2所述的方法,其特征在于,所述计算每个抓取姿态对应的接触点标签样本,包括:
判断在所述每个抓取姿态时,获取机械手上采样点到目标物体表面的距离;
当所述距离小于预设距离阈值时,所述采样点为所述接触点标签样本。
4.如权利要求1所述的方法,其特征在于,在所述通过仿真程序人手模型作为机械手生成不同目标物体的几何参数样本、物体模型样本和控制参数样本之前,还包括:
建立目标物体几何参数和物体模型的映射关系,以及建立所述目标物体几何参数与控制参数之间的映射关系。
5.如权利要求1所述的方法,其特征在于,所述通过损失函数计算所有机械手上接触点到目标物体表面的距离之和,获取目标物体的平移姿态参数,包括:
通过损失函数计算所有机械手上接触点到目标物体表面的距离之和的损失值,对所述损失值进行最小化,获取所述平移姿态参数。
6.一种基于机械手参数重建对象三维模型的装置,其特征在于,包括:
第一获取模块,用于获取机械手抓取姿态参数和控制参数,将所述机械手抓取姿态参数和所述控制参数输入已训练的第一全连接网络,获取接触点标签;
第二获取模块,用于将所述机械手抓取姿态参数、所述控制参数和所述接触点标签输入已训练的第二全连接网络,获取目标物体的物理几何参数,将所述机械手抓取姿态参数、所述控制参数、所述接触点标签和所述物理几何参数输入已训练的第三全连接网络,获取所述目标物体的旋转姿态参数;
处理模块,用于通过损失函数计算所有机械手上接触点到目标物体表面的距离之和,获取目标物体的平移姿态参数,根据所述目标物体的物理几何参数、旋转姿态参数和平移姿态参数,计算目标物体模型。
7.如权利要求6所述的装置,其特征在于,还包括:
第一生成模块,用于通过仿真程序人手模型作为机械手生成不同目标物体的几何参数样本、物体模型样本和控制参数样本;
第二生成模块,用于对每所述几何参数样本和所述物体模型样本,生成不同的机械手抓取姿态参数样本;
计算模块,用于计算每个抓取姿态对应的接触点标签样本;
第三生成模块,用于对每所述机械手抓取姿态参数样本,生成多各目标物体的旋转姿态参数样本;
训练模块,用于根据所述几何参数样本、所述物体模型样本、所述控制参数样本、所述接触点标签样本和所述旋转姿态参数样本输入神经网络进行训练,获取所述第一全连接网络、所述第二全连接网络和所述第三全连接网络。
8.如权利要求7所述的装置,其特征在于,所述计算模块,具体用于:
判断在所述每个抓取姿态时,获取机械手上采样点到目标物体表面的距离;
当所述距离小于预设距离阈值时,所述采样点为所述接触点标签样本。
9.如权利要求6所述的装置,其特征在于,还包括:
建立模块,用于建立目标物体几何参数和物体模型的映射关系,以及建立所述目标物体几何参数与控制参数之间的映射关系。
10.如权利要求6所述的装置,其特征在于,所述处理模块,具体用于:
通过损失函数计算所有机械手上接触点到目标物体表面的距离之和的损失值,对所述损失值进行最小化,获取所述平移姿态参数。
CN202110354170.XA 2021-04-01 2021-04-01 基于机械手参数重建对象三维模型的方法和装置 Active CN113012291B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110354170.XA CN113012291B (zh) 2021-04-01 2021-04-01 基于机械手参数重建对象三维模型的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110354170.XA CN113012291B (zh) 2021-04-01 2021-04-01 基于机械手参数重建对象三维模型的方法和装置

Publications (2)

Publication Number Publication Date
CN113012291A true CN113012291A (zh) 2021-06-22
CN113012291B CN113012291B (zh) 2022-11-25

Family

ID=76387576

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110354170.XA Active CN113012291B (zh) 2021-04-01 2021-04-01 基于机械手参数重建对象三维模型的方法和装置

Country Status (1)

Country Link
CN (1) CN113012291B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007026061A (ja) * 2005-07-15 2007-02-01 Ritsumeikan ハプティックビジョンに基づく3次元物体モデル生成方法及びハプティックビジョンシステム
CN103307975A (zh) * 2012-03-13 2013-09-18 佳能株式会社 模型生成设备和方法以及信息处理设备和方法
US10166676B1 (en) * 2016-06-08 2019-01-01 X Development Llc Kinesthetic teaching of grasp parameters for grasping of objects by a grasping end effector of a robot
CN112446919A (zh) * 2020-12-01 2021-03-05 平安科技(深圳)有限公司 物体位姿估计方法、装置、电子设备及计算机存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007026061A (ja) * 2005-07-15 2007-02-01 Ritsumeikan ハプティックビジョンに基づく3次元物体モデル生成方法及びハプティックビジョンシステム
CN103307975A (zh) * 2012-03-13 2013-09-18 佳能株式会社 模型生成设备和方法以及信息处理设备和方法
US10166676B1 (en) * 2016-06-08 2019-01-01 X Development Llc Kinesthetic teaching of grasp parameters for grasping of objects by a grasping end effector of a robot
CN112446919A (zh) * 2020-12-01 2021-03-05 平安科技(深圳)有限公司 物体位姿估计方法、装置、电子设备及计算机存储介质

Also Published As

Publication number Publication date
CN113012291B (zh) 2022-11-25

Similar Documents

Publication Publication Date Title
Hu et al. 3-D deformable object manipulation using deep neural networks
JP6586243B2 (ja) ロボットの把持のための深層機械学習方法および装置
CN111203878B (zh) 一种基于视觉模仿的机器人序列任务学习方法
Billard et al. Discriminative and adaptive imitation in uni-manual and bi-manual tasks
US11741701B2 (en) Autonomous task performance based on visual embeddings
CN110769985A (zh) 使用循环神经网络的机器人末端执行器的视点不变的视觉伺服
CN111251295B (zh) 一种应用于参数化零件的视觉机械臂抓取方法及装置
CN111515961A (zh) 一种适用于移动机械臂的强化学习奖励方法
CN113826051A (zh) 生成实体系统零件之间的交互的数字孪生
CN109483534B (zh) 一种物体抓取方法、装置和系统
CN110785268A (zh) 用于语义机器人抓取的机器学习方法和装置
Sutanto et al. Learning latent space dynamics for tactile servoing
CN113752255B (zh) 一种基于深度强化学习的机械臂六自由度实时抓取方法
CN114310954B (zh) 一种护理机器人自适应升降控制方法和系统
CN113715016A (zh) 一种基于3d视觉的机器人抓取方法、系统、装置及介质
KR20220155921A (ko) 로봇 디바이스를 제어하기 위한 방법
CN114387513A (zh) 机器人抓取方法、装置、电子设备及存储介质
CN113119108A (zh) 一种二指机械臂抓取方法、系统、装置及存储介质
CN113910218A (zh) 基于运动学与深度神经网络融合的机器人标定方法和装置
CN113012291B (zh) 基于机械手参数重建对象三维模型的方法和装置
Almaghout et al. Vision-based robotic comanipulation for deforming cables
CN113561172A (zh) 一种基于双目视觉采集的灵巧手控制方法及装置
Hirana et al. Quantitative evaluation for skill controller based on comparison with human demonstration
US20230264367A1 (en) Visuotactile operators for proximity sensing and contact control
US20240013542A1 (en) Information processing system, information processing device, information processing method, and recording medium

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20240528

Address after: 100084 No. 1 Tsinghua Yuan, Beijing, Haidian District

Patentee after: TSINGHUA University

Country or region after: China

Patentee after: ZHEJIANG YANGTZE DELTA REGION INSTITUTE OF TSINGHUA University

Address before: 100084 Tsinghua Yuan, Beijing, Haidian District

Patentee before: TSINGHUA University

Country or region before: China

Patentee before: ZHEJIANG FUTURE TECHNOLOGY INSTITUTE (JIAXING)