CN110136169A - 一种基于nurbs的无标记面状柔性体变形跟踪方法 - Google Patents

一种基于nurbs的无标记面状柔性体变形跟踪方法 Download PDF

Info

Publication number
CN110136169A
CN110136169A CN201910352911.3A CN201910352911A CN110136169A CN 110136169 A CN110136169 A CN 110136169A CN 201910352911 A CN201910352911 A CN 201910352911A CN 110136169 A CN110136169 A CN 110136169A
Authority
CN
China
Prior art keywords
nurbs
point cloud
flexible body
planar
unmarked
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910352911.3A
Other languages
English (en)
Inventor
姜欣
李孟原
刘云辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Harbin Institute of Technology
Original Assignee
Shenzhen Graduate School Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Harbin Institute of Technology filed Critical Shenzhen Graduate School Harbin Institute of Technology
Priority to CN201910352911.3A priority Critical patent/CN110136169A/zh
Publication of CN110136169A publication Critical patent/CN110136169A/zh
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/02Programme-controlled manipulators characterised by movement of the arms, e.g. cartesian coordinate type
    • B25J9/023Cartesian coordinate type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1651Programme controls characterised by the control loop acceleration, rate control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

本发明专利涉及一种基于NURBS的无标记面状柔性体变形跟踪方法,该方法包括如下步骤:步骤1:通过Kinect深度相机得到含面状柔性物体点云的原始点云后,需要通过一定的流程分割出目标面状柔性体的点云,使用半径滤波或统计滤波去除空间中的噪音点云,从而得到纯净的目标点云;步骤2:对获得的目标点云进行初始化获得初始的NURBS曲面;步骤3:利用曲面拟合生成近似NURBS曲面,NURBS曲面是由两条NURBS曲面的张量积构成,分别针对两条NURBS曲线采用曲面拟合方法得到NURS曲面拟合结果;步骤4:完成无标记面装柔性体的曲面拟合,通过NURBS德布尔算法得到变形前后面状柔性体上某一点的变化量。

Description

一种基于NURBS的无标记面状柔性体变形跟踪方法
技术领域
本发明属于一种柔性体变形跟踪方法技术领域,特别涉及一种基于NURBS的无标记面状肉形体变形跟踪方法。
背景技术
现有的针对面状柔性体变形的跟踪算法,主要识别面状柔性体上的特征完成柔性体的变形跟踪。主要存在如下几个方面的局限性:针对特征较少的面状柔性体不能有效地跟踪变形体的变形;特征的遮挡影响面状柔性体的变形状态识别的准确率。
发明内容
为克服已有技术的不足之处,本发明提出基于NURBS的无标记面状柔性体变形跟踪方法,该基于点云信息和NURBS数学模型对无标记面状柔性体的变形进行跟踪。
为达到此目的,本发明采用以下技术方案:
一种基于NURBS的无标记面状柔性体变形跟踪方法,该方法包括如下步骤:
步骤1:通过Kinect深度相机得到含面状柔性物体点云的原始点云后,需要通过一定的流程分割出目标面状柔性体的点云,使用半径滤波或统计滤波去除空间中的噪音点云,从而得到纯净的目标点云;
步骤2:对获得的目标点云进行初始化获得初始的NURBS曲面;
步骤3:利用曲面拟合生成近似NURBS曲面,NURBS曲面是由两条NURBS曲面的张量积构成,分别针对两条NURBS曲线采用曲面拟合方法得到NURS曲面拟合结果;
步骤4:完成无标记面装柔性体的曲面拟合,通过NURBS德布尔算法得到变形前后面状柔性体上某一点的变化量。
相比于现有的技术,本发明的优点有:
(1)不需要利用面状柔性体上标记特征即可完成对面状柔性体的变形跟踪;
(2)建立了NURBS曲面数学模型和实际面状柔性体间的对应关系,通过该对应关系可以确定变形前后的面状柔性体上任意一点的变化量;
(3)提出一种描述无标记面状柔性变形体运动的方法,解决了无标记面状柔性体运动描述的问题;
(4)本发明提出一种针对无标记面状柔性体的点云处理方法,有效地从环境中分离出目标无标记面状柔性体。
附图说明
图1是本发明无标记面状柔性体点云的获取方案;
图2是本发明静止面状柔性体的变形跟踪方案;
图3是本发明面向无标记柔性体操作的视觉伺服控制系统;
图4是本发明无标记面状柔性体的运动和变形分离原理示意图
具体实施方式
本发明提出了一种基于NURBS的无标记面状柔性体变形跟踪算法。下面将结合附图,对本发明的具体实施例进行详细的描述。
图1是本发明所述的无标记面状柔性体点云的获取方案。本发明通过Kinect深度相机得到含面状柔性物体点云的原始点云后,需要通过一定的流程分割出目标面状柔性体的点云。无标记的面状柔性体是纯色的且没有明显的特征。利用物体是纯色的这一特点可以使用颜色从原始点云中分割出包含目标柔性体的点云。KinectV2中的点云包含XYZ信息和RGB信息,从RGB色彩空间不容易分割出纯色物体,所以本发明使用将RGB颜色空间转化为HSV颜色空间对目标点云进行分割。但同时背景环境中也可能包含这一颜色的物体,所以需要通过滤波去除该部分的噪声。目标点云较为集中,噪音点云较为分散。根据这一特点可以使用半径滤波或统计滤波去除空间中的噪音点云。经过上一步的滤波,我们可以得到纯净的目标点云。该状态下的点云较为稠密,对于描述目标柔性体的变形,许多点云信息是不必要的。考虑到需要提高程序的运行速度,我们使用降采样的方法在不过多损失变形信息的情况下降低点云的密度。
本发明将采用NURBS曲面对目标点云进行拟合。但是本发明并不是实时曲面拟合生成一个新曲面,而是通过点云的信息实时更新初始化生成的曲面的形状。使当前曲面的形状贴合点云形状的变化。这样做的原因是描述柔性体的变形需要知道当前状态下与前一状态下的差别,也就是柔性体的变形跟踪具有记忆性。假设有一个基准,需要将当前状态不停地与基准进行比较,从而得到当前的变形量。未变形的物体状态是一个基准,变形的情况是对比这个基准得到的。本发明在描述面状柔性体的变形时通过初始化一个曲面,将该曲面作为面状变形体未变形的基准。这样保证了面状柔性体变形的前后,曲面和面状柔性体之间的对应关系不变,变形的量可以通过计算曲面的特征得到。而实时曲面拟合生成新曲面的方式并不保证对应关系,所以也不适合变形体的变形描述。传统的实时三维重建虽然可以实时测量柔性体的状态变化,但是并没有前后帧状态的对比,也就是没有记忆性。所以本发明并不使用全局近似拟合或全局插值拟合等全局的曲面拟合方法重建柔性体的状态,而是通过局部改变NURBS曲面的形状。这一方法属于NURBS的形状修改方法。NURBS曲面通过定义控制点、权重和节点向量生成。改变这三者中的任意一项都可以局部改变NURBS曲面的形状。改变节点向量对应NURBS曲面的形状改变是不直观的,而改变控制点的位置和权重是直观的,所以本发明将通过改变后两种方式局部的改变NURBS曲面的形状。基于此,本发明制定的静止面状柔性体的变形跟踪方案如图2所示。
基于位置的视觉伺服系统,使用已经标定的相机,通过相机观察到目标物体的位姿,将这个相机下的信息经过坐标变换转移到机器人基坐标系下的笛卡尔空间下进行机器人控制。如图3所示,基于位置的视觉伺服系统包含了两个闭环的控制环,内环是各个关节的速度控制与反馈,外环是机械臂基坐标系下笛卡尔空间的速度控制与反馈。视觉部分包含了点云的获取,曲面的拟合以及曲面上的取点。通过视觉系统拿到目标点的坐标后,给定姿态和机械臂末端姿态的比较结果的位姿偏差来控制机械臂的位置和姿态。通过位姿偏差设计机械臂的运动控制策略,将机械臂末端的笛卡尔速度通过雅克比矩阵转化为UR5机械臂6个关节的各个关节的角速度。从而驱动机械臂运动到指定位置。
下面介绍基于NURBS曲面的点云拟合算法。
本发明采用NURBS曲面拟合目标点云用以描述面状柔性体的变形。在u方向是p阶,在v方向是q阶的NURBS曲面的有理函数形式可以通过式(1)表示。
式中,
Pi,j——u和v这两个方向上控制点的集合;
ωi,j——每个点Pi,j的权重;
Ni,p(u)——u方向上的非有理B样条的基方程;
Nj,a(v)——u方向上的非有理B样条的基方程。
为了简洁地表示式(1),可以定义式(2)。
从而可以将式(1)可以重新写为式(3)。
首先对获得的点云进行初始化获得初始的NURBS曲面。算法流程如下:
在获得初始化的NURBS曲面之后,本发明利用曲面拟合生成近似曲面。首先介绍NURBS曲线的拟合。
曲线拟合的算法可以描述为假设有n+1个数据点D0;D1;...;Dn,并且希望找到一个B样条曲线,该曲线遵循数据多边形的形状,而不必实际包含数据点。要做到这一点,我们需要两个更多的输入:控制点的数量(比如h+1个控制点)和曲线的阶数p,同时还必须满足n>h>=p>=1。有了h和p就可以确定曲线的参数t0;t1;...;tn和一个节点向量。这里要保持参数的数量是和数据点的数量是一致的。式(4)给出了p阶B样条曲线的形式。
式中Pi——点云中的h+1个尚未知道的控制点。
我们使用平方误差作为指标项,构建了式(5)。优化的目标就是找到一组控制点P1;P2;...Ph-1来让式(5)的值最小化。
通过对式(5)进行每一项求偏导可以得到h个控制点的位置。通过更新控制点,从而改变曲线的形状。算法如下。
NURBS曲面是由两条NURBS曲线的张量积构成的,我们分别针对两条NURBS曲线采用曲线拟合方法可以得到NURBS曲面的拟合结果。算法如下。
最终完成无标记面状柔性体的曲面拟合,通过NURBS的德布尔算法可以得到变形前后面状柔性体上某一点的变化量。
在描述无标记面状柔性体的移动时,因目标物特征较少且易发生形变。所以本发明在使用机械臂操作目标物时,利用机械臂接触无标记面状柔性体的瞬间作为初始状态,通过构建机械臂和目标物之间的关系保证目标物的移动通过机械臂移动描述。如图4所示。
图4中符号所表示的含义如下。∑kinect相机坐标系,∑base机械臂基座坐标系,∑t_ini初始位置TCP坐标系,∑p_ini初始位置NURBS曲面坐标系,∑t_cur当前位置TCP坐标系,∑p_curr当前位置NURBS曲面坐标系。∑p_flat在机械臂末端在∑t_cur时,初始位置的∑p_ini在该状态下的表达;仅包含初始NURBS平面的位置移动信息,是一个虚拟的坐标系。A1是初始位置当纸片平放在桌面上时,∑t_ini相对于∑base的齐次变换矩阵。满足∑t_iniA1=∑base,可以在初始位置通过机械臂正运动学得到。A2是当前位置,∑t_cur相对于∑base的齐次变换矩阵。满足∑t_cur A2=∑base。A1和A2可以通过机械臂正运动学得到。
B1是初始位置当纸片平放在桌面上时,∑p_ini相对于∑kinect的齐次变换矩阵。满足∑p_iniB1=∑kinect,经过曲面拟合之后,可以直接在相机坐标系下通过曲面的得布尔算法得到。B2是当前位置,∑p_cur相对于∑kinect的齐次变换矩阵。既包含变形信息又包含位置信息。
C1是在初始状态,∑p_ini相对于∑t_ini的齐次坐标变换矩阵。C2当前状态,∑p_cur相对于∑t_cur的齐次坐标变换矩阵。D是当前工具坐标系到初始状态工具坐标系的齐次变换矩阵,满足∑t_curD=∑t_ini。E是当前NURBS坐标系下的初始化平面到初始状态工具坐标系的齐次变换矩阵,满足∑p_f latE=∑p_ini。F是眼在手外的手眼标定齐次变换矩阵,满足∑kinectF=∑base。
最终通过坐标变换,可以通过式(6)完成运动分离。
结合上文中的NURBS曲面拟合,可以完成无标记面状柔性体的变形跟踪。
综上,本发明中基于点云信息和NURBS数学模型对无标记面状柔性体的变形进行跟踪,使得不需要利用面状柔性体上标记特征即可完成对面状柔性体的变形跟踪,解决了无标记面状柔性体运动描述的问题,并有效地从环境中分离出目标无标记面状柔性体。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (5)

1.一种基于NURBS的无标记面状柔性体变形跟踪方法,该方法包括如下步骤:
步骤1:通过Kinect深度相机得到含面状柔性物体点云的原始点云后,需要通过一定的流程分割出目标面状柔性体的点云,使用半径滤波或统计滤波去除空间中的噪音点云,从而得到纯净的目标点云;
步骤2:对获得的目标点云进行初始化获得初始的NURBS曲面;
步骤3:利用曲面拟合生成近似NURBS曲面,NURBS曲面是由两条NURBS曲面的张量积构成,分别针对两条NURBS曲线采用曲面拟合方法得到NURBS曲面拟合结果;
步骤4:完成无标记面装柔性体的曲面拟合,通过NURBS德布尔算法得到变形前后面状柔性体上某一点的变化量。
2.根据权利要求1所述的方法,其特征在于,所述目标点云包含有XYZ信息和RGB信息。
3.根据权利要求2所述的方法,其特征在于,NURBS曲面通过定义控制点、权重和节点向量生成,改变三者中的任一项均能局部改变NURBS曲面的形状。
4.根据权利要求1所述的方法,其特征在于:上述曲面拟合是通过点云的信息实时更新初始化生成的NURBS曲面的形状。
5.根据权利要求1所述的方法,其特征在于:曲面拟合的具体步骤如下:
1)得到B样条曲线:
具有n+1个数据点D0,D1,……Dn,控制点的数量h+1和曲线的阶数p,满足n>h>=p>=1;
确定曲线的参数t0;t1;…;tn和一个节点向量,要保持曲线的参数的数量是和数据点的数量是一致的;
p阶B样条曲线表示为:
其中,Pi——点云中的h+1个尚未知道的控制点;
Ni,p(u)——u方向上的非有理B样条的基方程;
2)使用平方误差作为指标项构建如下公式:
3)通过对上式进行求偏导得到h个控制点的位置,通过更新控制点,改变曲线的形状。
CN201910352911.3A 2019-04-26 2019-04-26 一种基于nurbs的无标记面状柔性体变形跟踪方法 Pending CN110136169A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910352911.3A CN110136169A (zh) 2019-04-26 2019-04-26 一种基于nurbs的无标记面状柔性体变形跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910352911.3A CN110136169A (zh) 2019-04-26 2019-04-26 一种基于nurbs的无标记面状柔性体变形跟踪方法

Publications (1)

Publication Number Publication Date
CN110136169A true CN110136169A (zh) 2019-08-16

Family

ID=67575527

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910352911.3A Pending CN110136169A (zh) 2019-04-26 2019-04-26 一种基于nurbs的无标记面状柔性体变形跟踪方法

Country Status (1)

Country Link
CN (1) CN110136169A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111243017A (zh) * 2019-12-24 2020-06-05 广州中国科学院先进技术研究所 基于3d视觉的智能机器人抓取方法
CN113211433A (zh) * 2021-04-21 2021-08-06 山东科技大学 一种基于复合特征的分离式视觉伺服控制方法
CN111243017B (zh) * 2019-12-24 2024-05-10 广州中国科学院先进技术研究所 基于3d视觉的智能机器人抓取方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101236663A (zh) * 2007-12-29 2008-08-06 浙江工业大学 基于nurbs曲面积分的心脏容积计算方法
CN104050703A (zh) * 2013-03-15 2014-09-17 梦工厂动画公司 使用曲线来模拟软体变形
CN105425725A (zh) * 2015-12-09 2016-03-23 华中科技大学 一种离散刀具轨迹的曲线拟合方法
CN106981095A (zh) * 2017-03-15 2017-07-25 浙江大学 一种改进的光滑自由变形算法
CN108058171A (zh) * 2016-11-07 2018-05-22 哈尔滨工大天才智能科技有限公司 一种基于位置且闭环控制的机械臂视觉伺服系统
CN109241683A (zh) * 2018-10-31 2019-01-18 长安大学 一种斜齿轮自由齿面设计方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101236663A (zh) * 2007-12-29 2008-08-06 浙江工业大学 基于nurbs曲面积分的心脏容积计算方法
CN104050703A (zh) * 2013-03-15 2014-09-17 梦工厂动画公司 使用曲线来模拟软体变形
CN105425725A (zh) * 2015-12-09 2016-03-23 华中科技大学 一种离散刀具轨迹的曲线拟合方法
CN108058171A (zh) * 2016-11-07 2018-05-22 哈尔滨工大天才智能科技有限公司 一种基于位置且闭环控制的机械臂视觉伺服系统
CN106981095A (zh) * 2017-03-15 2017-07-25 浙江大学 一种改进的光滑自由变形算法
CN109241683A (zh) * 2018-10-31 2019-01-18 长安大学 一种斜齿轮自由齿面设计方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
ANDREAS JORDT,AT EL.: ""High-Resolution Object Deformation Reconstruction with Active Range Camera"", 《RESEARCHGATE》 *
JOHN SCHULMAN,AT EL.: ""Tracking deformable objects with point clouds"", 《IEEE》 *
温秀兰等: ""基于三维机器视觉的工业机器人定位系统设计"", 《组合机床与自动化加工技术》 *
璩柏青等: "《计算机图形学》", 30 June 2003, 西安电子科技大学出版社 *
霍敬轩等: ""视觉伺服系统"", 《科技创新与应用》 *
韩建海: "《工业机器人》", 30 September 2009, 华中科技大学出版社 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111243017A (zh) * 2019-12-24 2020-06-05 广州中国科学院先进技术研究所 基于3d视觉的智能机器人抓取方法
CN111243017B (zh) * 2019-12-24 2024-05-10 广州中国科学院先进技术研究所 基于3d视觉的智能机器人抓取方法
CN113211433A (zh) * 2021-04-21 2021-08-06 山东科技大学 一种基于复合特征的分离式视觉伺服控制方法
CN113211433B (zh) * 2021-04-21 2022-09-20 山东科技大学 一种基于复合特征的分离式视觉伺服控制方法

Similar Documents

Publication Publication Date Title
WO2020134254A1 (zh) 一种基于强化学习的喷涂机器人轨迹优化方法
JP6004809B2 (ja) 位置姿勢推定装置、情報処理装置、情報処理方法
Ude Trajectory generation from noisy positions of object features for teaching robot paths
US11813749B2 (en) Robot teaching by human demonstration
CN110014426A (zh) 一种利用低精度深度相机高精度抓取形状对称工件的方法
CN107972034B (zh) 一种基于ros平台的复杂工件轨迹规划仿真系统
CN107564065B (zh) 一种协作环境下人机最小距离的测算方法
CN108942923A (zh) 一种机械臂抓取控制方法
CN107833271A (zh) 一种基于Kinect的骨骼重定向方法及装置
CN107688391A (zh) 一种基于单目视觉的手势识别方法和装置
CN106371442B (zh) 一种基于张量积模型变换的移动机器人控制方法
CN110815189B (zh) 基于混合现实的机器人快速示教系统及方法
CN106569591A (zh) 基于计算机视觉跟踪和传感器跟踪的跟踪方法和跟踪系统
CN107238374B (zh) 一种不规则平面零件的分类和识别定位方法
CN114347033A (zh) 机器人物品抓取方法、装置、机器人及存储介质
CN107972027A (zh) 机器人的定位方法和装置、机器人
CN112233222A (zh) 基于神经网络关节点估计的人体参数化三维模型变形方法
Weik et al. Hierarchical 3d pose estimation for articulated human body models from a sequence of volume data
CN110136169A (zh) 一种基于nurbs的无标记面状柔性体变形跟踪方法
CN103914873B (zh) 一种根据人体动作驱动的雕塑三维模型生成方法
CN109584347A (zh) 一种基于主动表观模型的增强现实虚实遮挡处理方法
El-Khoury et al. Learning the natural grasping component of an unknown object
Aleotti et al. Grasp programming by demonstration in virtual reality with automatic environment reconstruction
Liu et al. Three-dimensional garment computer aided intelligent design
Aleotti et al. Robot grasp synthesis from virtual demonstration and topology-preserving environment reconstruction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20190816

RJ01 Rejection of invention patent application after publication