CN109079794A - 一种基于人体姿态跟随的机器人控制与示教方法 - Google Patents

一种基于人体姿态跟随的机器人控制与示教方法 Download PDF

Info

Publication number
CN109079794A
CN109079794A CN201811088755.6A CN201811088755A CN109079794A CN 109079794 A CN109079794 A CN 109079794A CN 201811088755 A CN201811088755 A CN 201811088755A CN 109079794 A CN109079794 A CN 109079794A
Authority
CN
China
Prior art keywords
robot
joint
human body
information
teaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811088755.6A
Other languages
English (en)
Other versions
CN109079794B (zh
Inventor
卢杏坚
段广学
钟震宇
雷欢
马敬奇
王楠
何峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Intelligent Manufacturing of Guangdong Academy of Sciences
Original Assignee
Guangdong Institute of Intelligent Manufacturing
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Institute of Intelligent Manufacturing filed Critical Guangdong Institute of Intelligent Manufacturing
Priority to CN201811088755.6A priority Critical patent/CN109079794B/zh
Publication of CN109079794A publication Critical patent/CN109079794A/zh
Application granted granted Critical
Publication of CN109079794B publication Critical patent/CN109079794B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

一种基于人体姿态跟随的机器人控制与示教方法,为机器人每个关节标注序号,记录机器人关节运动后的机器人平衡姿态、机器人关节角度以及机器人运动关节的序号,计算各个姿态下机器人重心位置,根据运动关节数目将姿态分类,建立包含机器人姿态、机器人运动关节信息、机器人重心位置的数据库,通过构建网络模型来获取图像中人体的关节点位置信息,完成人体姿态信息获取,利用角度匹配模型并结合路径搜索方法从数据库中获取最优匹配角度并作为相应人体动作姿态的输出,转化为机器人控制指令,将机器人控制指令发送给机器人,实现对机器人的运动控制与示教。本发明使人机交互更加自然、简单,示教效率高,生成的动作序列流畅且更具有亲和性、自然性。

Description

一种基于人体姿态跟随的机器人控制与示教方法
技术领域
本发明属于机器人技术领域,尤其涉及一种基于人体姿态跟随的机器人控制与示教方法。
背景技术
随着机器人应用逐渐从工业领域向服务、医疗、娱乐、教育等领域渗透,仿人机器人已经成为机器人技术领域一个主要的研究方向。而仿人机器人的动作编程是仿人机器人研究中的重要领域之一。
在使用机器人的过程中,除了最基本的机器人参数校调,动作声音编辑等,常常需要使用机器人完成一系列的动作,以实现某种目标,如行走,足球比赛,或假象的救援比赛等。这就需要对机器人的动作进行较为复杂的编辑。多年来在仿人机器人的动作编程上最主要的示教方法分为两种:
一、直接输入关节角度示教;
二、直接搬动机器人关节到目标位置示教;
这两种示教方法,是最基本的直接定位示教方法。其缺点非常明
显,有三点:
一、示教效率低;
二、生成流畅动作序列大;
三、生成动作的亲和性、自然性难以控制。
发明内容
本发明要解决的技术问题在于,针对现有技术的不足,提供一种基于人体姿态跟随的机器人控制与示教方法。利用该方法使得对机器人的示教变得更加简便,只依靠示教者的身体动作就可以对机器人完成示教,即使是对机器人系统只有基本认识的操作者也可以完成对机器人的动作编程,并得到自然流畅的机器人示教结果。
为解决上述技术问题,本发明采用如下技术方案。
一种基于人体姿态跟随的机器人控制与示教方法,所述方法包括如下步骤:
步骤S1,首先为机器人每个关节标注序号,并记录机器人一个或多个关节运动后的平衡姿态和关节角度以及运动关节的序号,同时计算各个姿态下机器人重心位置,并根据运动关节数目将姿态分类,然后建立姿态、运动关节信息、重心位置数据库;
步骤S2,从摄像头获取图像,通过构建网络模型来获取图像中人体的关节点位置信息,生成人体骨架关节图,完成人体姿态信息获取;
步骤S3,然后根据人体关节与机器人关节舵机差异性,进行动作映射,将检测到的人体姿态信息转化为关节角度信息,然后与建立的机器人关节角度数据库进行角度匹配,建立角度匹配模型;
步骤S4,利用匹配模型并结合路径搜索方法从数据库中获取最优匹配角度并作为相应人体动作姿态的输出,然后转化为机器人控制指令;
步骤S5,多关节机器人和主控机之间通过蓝牙进行通信,接收主控机发出的运动控制指令,实现对机器人的运动控制与示教。
机器人平衡姿态下计算质心位置的公式为:
其中M为机器人的质量,mi为机器人每个连杆的质量,ci为在以平衡点为原点的坐标系下,从原点指向连杆质点的向量,向量ci由机器人关节角度经正向运动学运算得到,N为机器人的自由度数目;
向量ci的计算以右肩膀和右肘这两个关节的空间向量a1=(x1,y1,z1)、a2=(x2,y2,z2)为例,c1为此连杆的向量,则
动作映射的过程:以右手臂为例,从检测到的人体姿态信息中读取关节点右手腕、右手肘、右肩膀,分别记为a1、a2、a3,且:
肘关节角度为:
角度匹配模型建立过程:首先从人体姿态信息中提取与角度相关的匹配特征信息,包括每个平衡姿态的质心位置信息关节点坐标信息关节点角度信息构建特征矩阵Sm,然后结合匹配矩阵S0建立相关度计算模型r。其中:
特征矩阵Sm中n与机器人自由度数目N相同,S0是姿态、运动关节信息、重心位置数据库中的选取的匹配矩阵。
其中:是向量的均值;是向量的均值;是向量的均值。是向量的均值;是向量的均值;是向量的均值。分别是质心位置相关度、关节坐标相关度、关节角度相关度。
的值越接近1,表示匹配特征矩阵Sm与选取的匹配矩阵S0越相关。
路径搜索方法为:先根据姿态确定运动关节的数目和序号,然后在人体姿态、运动关节信息、重心位置数据库中确定搜索范围进行查找与匹配,根据三个相关度的计算结果决定是否继续进行搜索查找,如果相关度位于0.98-1范围内则退出搜索查找。
示教方式采用人体动作跟随示教,主控机从摄像头捕捉到的图像信息中完成人体姿态信息提取,构建匹配特征矩阵并建立相关度计算模型,将最优匹配关节角度作为输出编译成控制指令通过蓝牙通信发送给机器人,完成示教。本方法的优点在于:通过捕捉人体动作并映射到机器人关节进行控制与示教,使人机交互更加自然、简单,示教效率高,生成的动作序列流畅且更具有亲和性、自然性。
本发明针对目前仿人机器人动作示教不方便的问题,提供了基于人体姿态跟随的机器人控制与示教方法,通过捕捉人体动作并将人体动作映射至机器人动作完成控制与示教,降低动作示教难度和使用者运用门槛。
附图说明
附图1为本发明控制与示教方法的流程示意图。
附图2为本发明机器人分布控制示意图。
附图3为本发明控制指令数据库的示意图。
具体实施方式
为能进一步了解本发明的特征、技术手段以及所达到的具体目的、功能,下面结合附图与具体实施方式对本发明作进一步详细描述。
如附图1所示,本发明提供了一种人体姿态跟随的机器人控制与示教方法,包括如下步骤:
步骤S1,首先为机器人每个关节标注序号,并记录机器人一个或多个关节运动后的平衡姿态和关节角度以及运动关节的序号,同时计算各个姿态下机器人重心位置,并根据运动关节数目将姿态分类,然后建立包含姿态、运动关节信息、重心位置的数据库。
步骤S2,从摄像头获取图像,通过构建网络模型来获取图像中人体的关节点位置信息,生成人体骨架关节图,完成人体姿态信息获取。
步骤S3,然后根据人体关节与机器人关节舵机的差异性,进行动作映射,将检测到的人体姿态信息转化为关节角度信息,然后与建立的数据库进行角度匹配,建立角度匹配模型。人体关节的运动角度范围和机器人某关节舵机运转所致该关节运动范围有所差异,从而形使得人体关节与机器人关节舵机存在着一定的差异性。
步骤S4,利用匹配模型并结合路径搜索方法从数据库中获取最优匹配角度并作为相应人体动作姿态的输出,然后转化为机器人控制指令。
步骤S5,多关节机器人和主控机之间通过蓝牙进行通信,接收主控机发出的运动控制指令,实现对机器人的运动控制与示教,从而人体动作由机器人动作展现出来。
机器人平衡姿态下计算质心位置的公式为:
其中M为机器人的质量,mi为机器人每个连杆的质量,ci为在以平衡点为原点的坐标系下,从原点指向连杆质点的向量,向量ci由机器人关节角度经正向运动学运算得到,N为机器人的自由度数目。
向量ci的计算以右肩膀和右肘这两个关节的空间向量a1=(x1,y1,z1)、a2=(x2,y2,z2)为例,c1为此连杆的向量,则
动作映射的过程:以右手臂为例,从检测到的人体姿态信息中读取关节点右手腕、右手肘、右肩膀,分别记为a1、a2、a3,且:
肘关节角度为:
角度匹配模型建立过程:首先从人体姿态信息中提取与角度相关的匹配特征信息,包括每个平衡姿态的质心位置信息关节点坐标信息关节点角度信息构建特征矩阵Sm,然后结合匹配矩阵S0建立相关度计算模型r。其中:
特征矩阵Sm中n与机器人自由度数目N相同,S0是姿态、运动关节信息、重心位置数据库中的选取的匹配矩阵。
其中:是向量的均值;是向量的均值;是向量的均值。是向量的均值;是向量的均值;是向量的均值。rg m、rl m、rθ m分别是质心位置相关度、关节坐标相关度、关节角度相关度。
的值越接近1,表示匹配特征矩阵Sm与选取的匹配矩阵S0越相关。
路径搜索方法为:先根据姿态确定运动关节的数目和序号,然后在姿态、运动关节信息、重心位置数据库中确定搜索范围进行查找与匹配,根据三个相关度的计算结果决定是否继续进行搜索查找,如果相关度位于0.98~1范围内则退出搜索查找,越趋近于1,则关联度越高。
示教方式采用人体动作跟随示教,主控机从摄像头捕捉到的图像信息中完成人体姿态信息提取,构建匹配特征矩阵并建立相关度计算模型,将最优匹配关节角度作为输出编译成控制指令通过蓝牙通信发送给机器人,完成示教。本方法的优点在于:通过捕捉人体动作并映射到机器人关节进行控制与示教,使人机交互更加自然、简单,示教效率高,生成的动作序列流畅且更具有亲和性、自然性。
如附图2所示,本发明的机器人的分布控制如下:
按功能分为主控制模块、摄像头模块、蓝牙模块、传感器接口模块、运动控制模块、N自由度舵机;其中主控制模块包括动作生成、通信接口协议、闪存管理、声音播放等;摄像头模块完成图像的获取;传感器接口模块完成数据整合的工作;运动控制模块负责进行人机动作映射,建立的关节角度与质心位置数据库;蓝牙模块完成主控机与机器人之间的无线通信,实现对机器人的控制;N自由度舵机根据接收的控制指令完成相应的动作执行。
如附图3所示,姿态、运动关节信息、重心位置数据库建立过程如下:
1、首先为机器人每个关节标注序号,并记录机器人一个或多个关节运动后的平衡姿态和相应的关节角度。具有n个运动关节,形成若干人体动作姿态信息集n,具有n个质心,形成各个关节的角度信息。
2、计算机器人每个平衡姿态下的质心位置,机器人平衡姿态下计算质心位置的公式为:
其中M为机器人的质量,mi为机器人每个连杆的质量,ci为在以平衡点为原点的坐标系下,从原点指向连杆质点的向量,向量ci由机器人关节角度经正向运动学运算得到,N为机器人的自由度数目。
向量ci的计算以右肩膀和右肘这两个关节的空间向量a1=(x1,y1,z1)、a2=(x2,y2,z2)为例,c1为此连杆的向量,则
3、根据运动关节数目将姿态分类,完成包含姿态、关节角度、重心位置的数据库的建立。
需要说明的是,以上仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换,但是凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于人体姿态跟随的机器人控制与示教方法,其特征在于,所述方法包括以下步骤:
步骤S1,首先为机器人每个关节标注序号,并记录机器人至少一个关节运动后的机器人平衡姿态、机器人关节角度以及机器人运动关节的序号,同时计算各个姿态下机器人重心位置,并根据运动关节数目将姿态分类,然后建立包含机器人姿态、机器人运动关节信息、机器人重心位置的数据库;
步骤S2,通过摄像头获取图像,通过构建网络模型来获取图像中人体的关节点位置信息,生成人体骨架关节图,完成人体姿态信息获取;
步骤S3,然后根据人体关节与机器人关节舵机的差异性,进行动作映射,将检测到的人体姿态信息转化为人体关节角度信息,然后与建立的数据库进行角度匹配,建立角度匹配模型;
步骤S4,利用角度匹配模型并结合路径搜索方法从数据库中获取最优匹配角度并作为相应人体动作姿态的输出,然后转化为机器人控制指令;
步骤S5,将机器人控制指令发送给机器人,实现对机器人的运动控制与示教。
2.根据权利要求1所述的基于人体姿态跟随的机器人控制与示教方法,其特征在于,在所述步骤S1中,机器人平衡姿态下计算机器人质心位置的公式为:
其中M为机器人的质量,mi为机器人中每个连杆的质量,ci为在以机器人平衡点为原点的坐标系下,从原点指向连杆质点的向量,向量ci由机器人关节角度经正向运动学运算得到,N为机器人的自由度数目。
3.根据权利要求1所述的基于人体姿态跟随的机器人控制与示教方法,其特征在于,在所述步骤S3中,动作映射是指采用求解逆运动学问题的方法将检测到的人体姿态信息转化为人体关节角度信息。
4.根据权利要求3所述的基于人体姿态跟随的机器人控制与示教方法,其特征在于,在所述步骤S3中,角度匹配模型建立过程如下:
首先从人体姿态信息中提取与角度相关的匹配特征信息,包括每个人体平衡姿态的人体质心位置信息人体关节点坐标信息人体关节点角度信息构建特征矩阵Sm,然后结合匹配矩阵S0建立相关度计算模型r,其中:
特征矩阵Sm中n与机器人自由度数目N相同,S0是在机器人姿态、机器人运动关节信息、机器人重心位置数据库中的选取的匹配矩阵,
其中:是向量的均值,是向量的均值,是向量的均值,是向量的均值,是向量的均值,是向量的均值,分别是质心位置相关度、关节坐标相关度、关节角度相关度;
的值越接近1,表示匹配特征矩阵Sm与选取的匹配矩阵S0相关度越高。
5.根据权利要求1所述的基于人体姿态跟随的机器人控制与示教方法,其特征在于,在所述步骤S4中,路径搜索方法为:先根据人体姿态确定运动关节的数目和序号,然后在数据库中确定搜索范围进行查找与匹配,根据三个相关度的计算结果决定是否继续进行搜索查找,如果相关度位于0.98~1范围内则退出搜索查找。
6.如权利要求1所述的基于人体姿态跟随的机器人控制与示教方法,其特征在于,在所述步骤S5中,示教方式采用人体动作跟随示教,主控机从摄像头捕捉到的图像信息中完成人体姿态信息提取,构建匹配特征矩阵并建立相关度计算模型,将最优匹配关节角度作为输出编译成控制指令通过蓝牙通信发送给机器人,完成示教。
CN201811088755.6A 2018-09-18 2018-09-18 一种基于人体姿态跟随的机器人控制与示教方法 Active CN109079794B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811088755.6A CN109079794B (zh) 2018-09-18 2018-09-18 一种基于人体姿态跟随的机器人控制与示教方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811088755.6A CN109079794B (zh) 2018-09-18 2018-09-18 一种基于人体姿态跟随的机器人控制与示教方法

Publications (2)

Publication Number Publication Date
CN109079794A true CN109079794A (zh) 2018-12-25
CN109079794B CN109079794B (zh) 2020-12-22

Family

ID=64842002

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811088755.6A Active CN109079794B (zh) 2018-09-18 2018-09-18 一种基于人体姿态跟随的机器人控制与示教方法

Country Status (1)

Country Link
CN (1) CN109079794B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110320523A (zh) * 2019-07-05 2019-10-11 齐鲁工业大学 跟随机器人的目标定位装置及方法
CN111539352A (zh) * 2020-04-27 2020-08-14 支付宝(杭州)信息技术有限公司 一种判断人体关节运动方向的方法及系统
WO2020215213A1 (zh) * 2019-04-23 2020-10-29 西门子股份公司 多轴运动控制器、多轴运动控制方法和系统
CN111860243A (zh) * 2020-07-07 2020-10-30 华中师范大学 一种机器人动作序列生成方法
CN112936282A (zh) * 2021-03-08 2021-06-11 常州刘国钧高等职业技术学校 一种提高工业机器人体感控制精确度的方法及系统
CN113305830A (zh) * 2021-04-28 2021-08-27 吉林大学 一种基于人体姿态控制的仿人机器人动作系统及控制方法
CN113450903A (zh) * 2021-06-29 2021-09-28 广东人工智能与先进计算研究院 一种人体动作映射方法、装置、计算机设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006192548A (ja) * 2005-01-17 2006-07-27 Institute Of Physical & Chemical Research 身まねロボットシステムとその身まね動作制御方法
CN105252532A (zh) * 2015-11-24 2016-01-20 山东大学 动作捕捉机器人协同柔性姿态控制的方法
CN106078752A (zh) * 2016-06-27 2016-11-09 西安电子科技大学 一种基于Kinect的仿人机器人人体行为模仿方法
US20170028563A1 (en) * 2015-07-31 2017-02-02 Heinz Hemken Autonomous robot using data captured from a living subject
CN106971050A (zh) * 2017-04-18 2017-07-21 华南理工大学 一种基于Kinect的Darwin机器人关节映射解析方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006192548A (ja) * 2005-01-17 2006-07-27 Institute Of Physical & Chemical Research 身まねロボットシステムとその身まね動作制御方法
US20170028563A1 (en) * 2015-07-31 2017-02-02 Heinz Hemken Autonomous robot using data captured from a living subject
CN105252532A (zh) * 2015-11-24 2016-01-20 山东大学 动作捕捉机器人协同柔性姿态控制的方法
CN106078752A (zh) * 2016-06-27 2016-11-09 西安电子科技大学 一种基于Kinect的仿人机器人人体行为模仿方法
CN106971050A (zh) * 2017-04-18 2017-07-21 华南理工大学 一种基于Kinect的Darwin机器人关节映射解析方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020215213A1 (zh) * 2019-04-23 2020-10-29 西门子股份公司 多轴运动控制器、多轴运动控制方法和系统
CN113396032A (zh) * 2019-04-23 2021-09-14 西门子股份公司 多轴运动控制器、多轴运动控制方法和系统
CN110320523A (zh) * 2019-07-05 2019-10-11 齐鲁工业大学 跟随机器人的目标定位装置及方法
CN110320523B (zh) * 2019-07-05 2020-12-11 齐鲁工业大学 跟随机器人的目标定位装置及方法
CN111539352A (zh) * 2020-04-27 2020-08-14 支付宝(杭州)信息技术有限公司 一种判断人体关节运动方向的方法及系统
CN111860243A (zh) * 2020-07-07 2020-10-30 华中师范大学 一种机器人动作序列生成方法
CN112936282A (zh) * 2021-03-08 2021-06-11 常州刘国钧高等职业技术学校 一种提高工业机器人体感控制精确度的方法及系统
CN112936282B (zh) * 2021-03-08 2022-01-07 常州刘国钧高等职业技术学校 一种提高工业机器人体感控制精确度的方法及系统
CN113305830A (zh) * 2021-04-28 2021-08-27 吉林大学 一种基于人体姿态控制的仿人机器人动作系统及控制方法
CN113450903A (zh) * 2021-06-29 2021-09-28 广东人工智能与先进计算研究院 一种人体动作映射方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN109079794B (zh) 2020-12-22

Similar Documents

Publication Publication Date Title
CN109079794A (zh) 一种基于人体姿态跟随的机器人控制与示教方法
CN107349594B (zh) 一种虚拟舞蹈系统的动作评价方法
CN106078752B (zh) 一种基于Kinect的仿人机器人人体行为模仿方法
CN104951808B (zh) 一种用于机器人交互对象检测的3d视线方向估计方法
CN105512621B (zh) 一种基于Kinect的羽毛球动作指导系统
CN107330967B (zh) 基于惯性传感技术的骑师运动姿态捕捉及三维重建系统
Li et al. A mobile robot hand-arm teleoperation system by vision and imu
CN110222665A (zh) 一种基于深度学习和姿态估计的监控中人体动作识别方法
CN108983636B (zh) 人机智能共生平台系统
CN108098780A (zh) 一种新型的机器人仿人运动系统
CN107363834B (zh) 一种基于认知地图的机械臂抓取方法
WO2022227664A1 (zh) 机器人姿态的控制方法、机器人、存储介质及计算机程序
CN103942829A (zh) 单幅图像的人体三维姿态重构方法
Kim et al. StrokeTrack: wireless inertial motion tracking of human arms for stroke telerehabilitation
US20230067081A1 (en) System and method for real-time creation and execution of a human Digital Twin
CN111300408A (zh) 一种结合形似与神似的仿人双臂机器人运动规划控制方法
CN102156994A (zh) 一种单视角无标记人体运动跟踪的关节定位方法
CN108434698B (zh) 一种体育球类运动教学系统
CN117532609A (zh) 融合脑肌电与单目视觉的仿人机器人实时控制系统及方法
CN111539364A (zh) 基于特征融合和多分类器投票的多体感人体行为识别算法
CN207888651U (zh) 一种基于动作融合的机器人示教系统
Hunt et al. Predictive trajectory estimation during rehabilitative tasks in augmented reality using inertial sensors
CN110065062A (zh) 一种多关节机器人的运动控制方法
CN107336238A (zh) 全方位移动机器人的控制系统
Jayasurya et al. Gesture controlled AI-robot using Kinect

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 510000 13 building, 100 martyrs Road, Yuexiu District, Guangzhou, Guangdong.

Patentee after: Institute of intelligent manufacturing, Guangdong Academy of Sciences

Address before: 510000 13 building, 100 martyrs Road, Yuexiu District, Guangzhou, Guangdong.

Patentee before: GUANGDONG INSTITUTE OF INTELLIGENT MANUFACTURING