CN107150347A - 基于人机协作的机器人感知与理解方法 - Google Patents
基于人机协作的机器人感知与理解方法 Download PDFInfo
- Publication number
- CN107150347A CN107150347A CN201710429518.0A CN201710429518A CN107150347A CN 107150347 A CN107150347 A CN 107150347A CN 201710429518 A CN201710429518 A CN 201710429518A CN 107150347 A CN107150347 A CN 107150347A
- Authority
- CN
- China
- Prior art keywords
- robot
- operator
- target
- task
- understanding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
本发明提供了基于人机协作的机器人感知与理解方法,它允许操作者协助机器人感知和理解环境。所述方法包括步骤:(1)视听模态感知的自然交互;(2)目标描述和理解;(3)任务示教和学习。本发明利用人类的智能性,并通过人类最自然高效的交互方式进行人机交流与协助,以提高机器人感知和理解的灵活性、智能性和适应性。
Description
技术领域
本发明属于机器人运动领域,特别涉及一种基于人机协作的机器人感知与理解方法。
背景技术
随着高端制造中生产多样化的发展,人机协作将成为下一代机器人发展的趋势。现有的机器人普遍存在示教周期长,难以理解抽象的命令以及缺乏在线感知能力,从而制约了机器人的发展。人机协作让机器人从“主仆”关系变成合作“伙伴”。因此,在机器人还没达到高度智能的局面下,最有效的方法是先感知和理解人类,再通过人类的协助感知和理解环境。这篇发明提出了一种基于人机协作的机器人感知与理解方法,一方面利用自然交互的信息感知与融合机制,通过“手把手”示教和“面对面”传授等多模态感知方式提高机器人在线感知能力;另一方面利用面向人机协作的机器人自主学习方法,进行目标理解和任务学习。该发明利用人类的智能性,并通过人类最自然高效的交互方式进行人机交流与协助,以提高机器人感知和理解的灵活性、智能性和适应性。
发明内容
这个发明提出了一种基于人机协作的机器人感知与理解方法,它允许操作者协助机器人感知和理解环境。本发明利用人类的智能性,并通过人类最自然高效的交互方式进行人机交流与协助,以提高机器人感知和理解的灵活性、智能性和适应性。
本发明包括如下步骤:
S1、视听模态感知的自然交互;
S2、目标描述和理解;
S3、任务示教和学习。
所述步骤S1包括以下步骤:
1)三维手势数据获取
本发明采用立体视觉或红外成像等非接触测量方式对人体进行跟踪识别,并对人手的三维手势进行捕捉,从而可以识别操作者的交互意图并转换成交互指令。在进行非接触测量系统所获取的三维手势数据中,带噪声的三维手势数据具有不稳定性、歧义性和模糊性。此外,操作者在交互过程中由于人为因素会出现肌肉抖动等非意图动作导致交互指令具有非精确性。为了进一步地提高数据的稳定性和精确性,一方面,本发明采用结合自适应区间卡尔曼滤波(Adaptive Interval Kalman Filter)与改进粒子滤波(ImprovedParticle filter)进行手势位置数据和姿态数据的融合估计。通过信息融合算法可以对位置和姿态的时空相关性进行约束,从而尽可能地消除三维手势数据的非稳定性和歧义性。另一方面,本发明采用过阻尼方法对非意图输入数据进行过滤,并通过引入虚拟弹簧系数进一步提高交互精度。
粒子滤波基于蒙特卡洛方法,利用粒子集表示目标,通过寻找一组在状态空间中传播的随机样本来近似地表示概率密度函数,用样本均值代替积分运算,进而获得系统状态的最小方差估计的过程。在改进粒子滤波(IPF)算法中,采用马尔可夫链蒙特卡罗方法对重采样后的粒子进行处理,从而提高粒子的多样化,避免标准粒子滤波的局部收敛现象,提高数据估计的准确度。而粒子的权重计算需要通过结合卡尔曼滤波的位置估计结果得到。
由于三维手势数据的位置和姿态在时空上存在一定的关联:手势的位置,速度和加速度具有方向性,而方向则需要姿态所确定的本体坐标系进行计算得到,那么手势的位置在三维方向上的叠加量需要姿态进行估计,故通过结合自适应区间卡尔曼滤波估计得到位置和姿态的时空约束性可以提高数据估计的精度。由于准确的位置数据可以更好地计算粒子的权重,从而得到准确的姿态数据,而准确的姿态数据可以通过速度和加速度更好地估计位置数据,故通过结合自适应区间卡尔曼滤波和改进粒子滤波对人手位置和姿态数据进行融合,可以更好地估计三维手势数据,提高数据的准确性和鲁棒性。
2)自然语言指令获取
基于自然语言理解的机器人交互方法侧重于对相对复杂的用户自然语言指令的理解,包括两个模块:设计控制指令语料库和提取控制指令。
根据收集大量的控制指令语料库Dcontrol进行分析所得,对于机器人的控制指令可以通过四个变量组成的一个控制向量形式进行描述(Cdir,Copt,Cval,Cunit),其中Cdir为对操作方位关键词,Copt和Cval为一对操作描述,分别为操作关键词和操作值,Cunit为操作单位。自然语言理解的关键在于对一连串的文本提取出所包含的控制向量。那么,对于文本的分析问题可以转换成一组文字的分类问题,本发明采用最大熵模型进行分类。采用向量空间模型对文本进行描述,对给定包含N个词的文本,可定义N维特征向量表示该文本,用词频-逆文档频率(Term Frequency-Inverse Document Frequency)对特征向量进行加权分析。最大熵模型的主要思想是对已知的进行建模,对未知的不做任何假设,即建模时尽量符合已知信息,对未知信息部分使模型的熵最大,即不确定性最大。最大熵的原则是承认已知事物。设文本特征向量为x,需要估计的操作者意图向量为y,则利用最大熵方法对条件概率p(y|x)进行建模,通过引入条件熵H(p(y|x))衡量条件概率p(y|x)分布的均匀性。通过最大熵模型,可以对操作者语音提取的文本中所包含的交互指令识别,并转换成机器人控制指令控制机器人运动。
所述步骤S2包括以下步骤:
1)目标描述
本发明通过操作者向机器人讲解环境可以使得机器人可以快速地了解环境。
在目标描述中,操作者主要是辅助机器人对目标进行识别和理解。定义一个N元组,如六元组组Obj={种类,颜色,形状,纹理,尺寸,柔软性}对目标进行描述。机器人通过视觉对目标进行初步观察后对目标有一个大概的理解,包括目标的颜色、形状和纹理等,机器人通过带有力觉反馈的末端接触目标,以了解其软硬程度。在机器人对目标的操作过程中,操作者在线地对机器人进行目标描述和讲解,以辅助机器人不断深入地了解目标,并做正确的决策。当机器人对目标做出模棱两可或错误的决策时,操作者辅助机器人或矫正机器人的错误决策。
2)目标理解
本发明采用深度学习方法进行目标识别。本发明采取一个两阶段的方法来进行学习。首先,使用一个缩减的特征集来确定最佳候选集,然后,使用一个更大、更可靠的特征集来排列这些候选集。利用深度学习训练两个不同大小的网络,小的用于计算候选集,大的用于重新排列候选检测结果,从而避免复杂的手动调整特征值。
机器人视觉系统是用于获取外界视觉信息的工具,是通过计算机技术对类似于人类视觉信息处理的一种探索和模拟,机器视觉主要包括图像获取,预处理,分割,描述,识别和理解,其中理解可以看作是对环境的最高层次的认知行为,识别出当前目标物体的标记,与特征库或模板相匹配,对目标分类,为机器人的决策、行为控制以及人机交互提供依据。在图像描述方面,本发明采用HOG特征描述符对图像中的特征进行描述。HOG算法首先将整幅图像分成一定数量的子图像,再将各个子图像按照一定的规则分割成细胞单元,然后采集细胞单元中各像素点的梯度方向直方图,计算各直方图在子图像中的密度,然后根据这个密度对子图像中的各个细胞单元做归一化处理。最后把这些直方图组合起来构成特征描述器。为了识别出目标的类型,对HOG特征进行概率G(t)建模,特征值x是目标类型,利用一个随机变量表示预测G(t)的大小。使用一个有两层S型隐藏单元h[1]和h[2]的深层网络,其中每一层分别有K1和K2单元,第二层隐藏单元输出的逻辑分类器预测其中x(t)为第t个样本,Θ为参数空间;两层隐藏单元将会有一系列由它的输入到输出的映射权值W[1]和W[2]。通过设计深度学习模型更准确地对目标进行分类识别,从而达到在大量数据的支撑下进行快速地学习的效果。
在人机协作模式中,机器人可以借助于人类的经验知识对未知的物体进行识别,或者从识别错误中得到矫正,需要建立一个带标签数据的训练模型,可以更新机器人的学习网络参数。在人类的协作下,一方面机器人可以通过人类的描述更好地了解未知物体的特征;另一方面,机器人可以通过人类的共享经验正确地认识物体。在学习过程中,目标是求出使系统的识别精度最佳的参数Θ。在本实例中,将人类辅助过程中产生的输入数据作为一组特征值及标签数据t=1,…,M,t为样本序号,M为样本总数。在最深层的学习工作中将使用两阶段学习方法。在第一阶段中,使用无监督特征学习方法来初始化隐藏层的权值W[1]和W[2],在训练前加权是避免过度拟合的关键。
所述步骤S3包括以下步骤:
1)任务示教
在任务示教过程中,本发明通过人机交互模块,机器人可以通过操作者的手势和语言感知操作者的意图。在示教前,操作者先检查机器人是否有与任务相关的知识、工作环境以及操纵对象的相关能力,接着将所需要的知识授予给机器人。操作者通过陈述任务名称、子任务的数量和操作对象的属性等,同时包括用相应的手势动作辅助语音进行相关的讲解。操作者接着将整个任务分析给机器人,允许机器人了解相邻的子任务和总体的任务目标之间的过渡动作,从而可以整合所有子任务的信息。通过使用自然的手势交互和基于自然语言理解交互方式对整个任务进行完整的描述,在子任务的安排时,充分利用操作者的经验帮助机器人对任务的轨迹进行分段规划。在操作者对整个任务进行描述后,机器人可以利用运动学原理通过分段的示教任务轨迹进行学习。
2)任务学习
在机器人作业过程中,操作者可以始终保持在线教导机器人,以不断地修正机器人的决策。对此,本发明利用强化学习模型进行建模。操作者通过不断的给予机器人行为评价,通过奖励和惩罚信号不断修正机器人的行为。强化学习用一个4元组(S,A,T,R)来表示,其中S表示有限的环境状态集,A为对应每一状态可能的有限动作集;T表示从状态-动作对到另一状态的转换函数,T:S×A→S;R为状态-动作对的强化函数,一般返回一个实数强化值,其中是R的集合。如果已知环境的状态模型,即在状态s下执行动作a,环境转移到状态s的概率P(s'|s,a)。在强化学习问题中,P(s'|s,a)是未知的,蒙特卡罗方法根据状态、动作和与实际环境交互中得到的奖励样本序列,采用样本平均回报值来估计策略的值函数,不需要预先知道环境的动力学特性,但必须等到阶段性任务完成以后才能学习值函数。
机器人如果在完成学习任务的过程中遇到困难,就向操作者寻求帮助。接着,机器人可以将学习到的任务付诸实际并完善自身的知识库。机器人可以通过手眼相机观察工作环境,确定关键的目标和物件的位姿,通过将自身学习到的任务轨迹应用到给定的任务计划中来形成它的实际工作轨迹,接着通过操作者的实时反馈不断地修正自身学习到的任务经验。
本发明相对于现有技术具有如下的优点及效果:
本发明提出了一种基于人机协作的机器人感知与理解方法,一方面利用自然交互的信息感知与融合机制,通过“手把手”示教和“面对面”传授等多模态感知方式提高机器人在线感知能力;另一方面利用面向人机协作的机器人自主学习方法,进行目标理解和任务学习。该发明利用人类的智能性,并通过人类最自然高效的交互方式进行人机交流与协助,以提高机器人感知和理解的灵活性、智能性和适应性。
附图说明
图1是基于人机协作的机器人感知与理解方法流程图。
具体实施方式
下面结合实施例对本发明作进一步详细的描述,但本发明的实施方式不限于此实施例。
本实例包括如下步骤:
S1、视听模态感知的自然交互;
S2、目标描述和理解;
S3、任务示教和学习。
所述步骤S1包括以下步骤:
1)三维手势数据获取
本发明采用立体视觉或红外成像等非接触测量方式对人体进行跟踪识别,并对人手的三维手势进行捕捉,从而可以识别操作者的交互意图并转换成交互指令。在进行非接触测量系统所获取的三维手势数据中,带噪声的三维手势数据具有不稳定性、歧义性和模糊性。此外,操作者在交互过程中由于人为因素会出现肌肉抖动等非意图动作导致交互指令具有非精确性。为了进一步地提高数据的稳定性和精确性,一方面,本发明采用结合自适应区间卡尔曼滤波(Adaptive Interval Kalman Filter)与改进粒子滤波(ImprovedParticle filter)进行手势位置数据和姿态数据的融合估计。通过信息融合算法可以对位置和姿态的时空相关性进行约束,从而尽可能地消除三维手势数据的非稳定性和歧义性。另一方面,本发明采用过阻尼方法对非意图输入数据进行过滤,并通过引入虚拟弹簧系数进一步提高交互精度。
自适应区间卡尔曼滤波(AIKF)是一种高效率的递归滤波器,可以在噪声参数和动态模型参数未知的情况下,利用k-1时刻的状态准确地估计k时刻的状态。为了可以使卡尔曼滤波更好地估计人手位置数据,在本实例中,引入了人手速度和人手加速度的变量。AIKF的状态转换矩阵可以根据位移、速度和加速度之间的关系进行设计。输入矩阵则由重力加速度决定。AIKF通过设置对应的区间进行准确估计,从而获得比标准卡尔曼滤波更好的估计精度。
粒子滤波基于蒙特卡洛方法,利用粒子集表示目标,通过寻找一组在状态空间中传播的随机样本来近似地表示概率密度函数,用样本均值代替积分运算,进而获得系统状态的最小方差估计的过程。在改进粒子滤波(IPF)算法中,采用马尔可夫链蒙特卡罗方法对重采样后的粒子进行处理,从而提高粒子的多样化,避免标准粒子滤波的局部收敛现象,提高数据估计的准确度。而粒子的权重计算需要通过结合卡尔曼滤波的位置估计结果得到。
由于三维手势数据的位置和姿态在时空上存在一定的关联:手势的位置,速度和加速度具有方向性,而方向则需要姿态所确定的本体坐标系进行计算得到,那么手势的位置在三维方向上的叠加量需要姿态进行估计,故通过结合自适应区间卡尔曼滤波估计得到位置和姿态的时空约束性可以提高数据估计的精度。由于准确的位置数据可以更好地计算粒子的权重,从而得到准确的姿态数据,而准确的姿态数据可以通过速度和加速度更好地估计位置数据,故通过结合自适应区间卡尔曼滤波和改进粒子滤波对人手位置和姿态数据进行融合,可以更好地估计三维手势数据,提高数据的准确性和鲁棒性。
2)自然语言指令获取
基于自然语言理解的机器人交互方法侧重于对相对复杂的用户自然语言指令的理解。对于面向机器人交互的自然语言理解方法的难点在于如何把自然语言所表达的意图转化成相应的机器人控制指令,在本实例中,对于语音识别并进行文本提取采用微软的Speech识别算法实现。面向机器人交互的自然语言理解框架主要包括两个模块:设计控制指令语料库和提取控制指令。
根据收集大量的控制指令语料库Dcontrol进行分析所得,对于机器人的控制指令可以通过四个变量组成的一个控制向量形式进行描述(Cdir,Copt,Cval,Cunit),其中Cdir为对操作方位关键词,Copt和Cval为一对操作描述,分别为操作关键词和操作值,Cunit为操作单位。自然语言理解的关键在于对一连串的文本提取出所包含的控制向量。那么,对于文本的分析问题可以转换成一组文字的分类问题,本发明采用最大熵模型进行分类。采用向量空间模型对文本进行描述,对给定包含N个词的文本,可定义N维特征向量表示该文本,用词频-逆文档频率(Term Frequency-Inverse Document Frequency)对特征向量进行加权分析。最大熵模型的主要思想是对已知的进行建模,对未知的不做任何假设,即建模时尽量符合已知信息,对未知信息部分使模型的熵最大,即不确定性最大。最大熵的原则是承认已知事物。设文本特征向量为x,需要估计的操作者意图向量为y,则利用最大熵方法对条件概率p(y|x)进行建模,通过引入条件熵H(p(y|x))衡量条件概率p(y|x)分布的均匀性。通过最大熵模型,可以对操作者语音提取的文本中所包含的交互指令识别,并转换成机器人控制指令控制机器人运动。
结合语言和手势的方法进行交互,在本实例中,操作者发出指令“向这个方向移动大概3毫米”,同时操作者用手指指向某一个方向,机器人通过自然语言得到的操作指令是“移动”,方向为操作者手指的方向,移动量为“3毫米”。
所述步骤S2包括以下步骤:
1)目标描述
本发明通过操作者向机器人讲解环境可以使得机器人可以快速地了解环境。
在目标描述中,操作者主要是辅助机器人对目标进行识别和理解。定义一个N元组Obj={Category,Color,Shape,Texture,Size,Soft}对目标进行描述。机器人通过视觉对目标进行初步观察后对目标有一个大概的理解,包括目标的颜色、形状和纹理等,机器人通过带有力觉反馈的末端接触目标,以了解其软硬程度。操作者对目标进行更详细的说明,在本实例中,对于装满水的水杯,操作者说明夹持位置,水平夹持比垂直夹持更稳当。在机器人对目标的操作过程中,操作者在线地对机器人进行目标描述和讲解,以辅助机器人不断深入地了解目标,并做正确的决策。当机器人对目标做出模棱两可或错误的决策时,操作者辅助机器人或矫正机器人的错误决策。
2)目标理解
本发明采用深度学习方法进行目标识别。本发明采取一个两阶段的方法来进行学习。首先,使用一个缩减的特征集来确定最佳候选集,然后,使用一个更大、更可靠的特征集来排列这些候选集。利用深度学习训练两个不同大小的网络,小的用于计算候选集,大的用于重新排列候选检测结果,从而避免复杂的手动调整特征值。
机器人视觉系统是用于获取外界视觉信息的工具,是通过计算机技术对类似于人类视觉信息处理的一种探索和模拟,机器视觉主要包括图像获取,预处理,分割,描述,识别和理解,其中理解可以看作是对环境的最高层次的认知行为,识别出当前目标物体的标记,与特征库或模板相匹配,对目标分类,为机器人的决策、行为控制以及人机交互提供依据。在图像描述方面,本发明采用HOG特征描述符对图像中的特征进行描述。HOG算法首先将整幅图像分成一定数量的子图像,再将各个子图像按照一定的规则分割成细胞单元,然后采集细胞单元中各像素点的梯度方向直方图,计算各直方图在子图像中的密度,然后根据这个密度对子图像中的各个细胞单元做归一化处理。最后把这些直方图组合起来构成特征描述器。为了识别出目标的类型,对HOG特征进行概率G(t)建模,特征值是目标类型,利用一个随机变量表示预测G(t)的大小。使用一个有两层S型隐藏单元h[1]和h[2]的深层网络,其中每一层分别有K1和K2单元,第二层隐藏单元输出的逻辑分类器预测两层隐藏单元将会有一系列由它的输入到输出的映射权值W[1]和W[2]。通过设计深度学习模型更准确地对目标进行分类识别,从而达到在大量数据的支撑下进行快速地学习的效果。
在人机协作模式中,机器人可以借助于人类的经验知识对未知的物体进行识别,或者从识别错误中得到矫正,需要建立一个带标签数据的训练模型,可以更新机器人的学习网络参数。在人类的协作下,一方面机器人可以通过人类的描述更好地了解未知物体的特征;另一方面,机器人可以通过人类的共享经验正确地认识物体。在学习过程中,目标是求出使系统的识别精度最佳的参数Θ。在本实例中,将人类辅助过程中产生的输入数据作为一组特征值及标签数据t=1,…,M。在最深层的学习工作中将使用两阶段学习方法。在第一阶段中,使用无监督特征学习方法来初始化隐藏层的权值W[1]和W[2],在训练前加权是避免过度拟合的关键。在本实例中,采用稀疏自动编码(SAE)算法,将g(h)定义为关于隐藏单元激活的稀疏惩罚函数,λ控制它的权值。在学习算法的监督阶段,需要获得分类器权值W[3]及用于识别的隐藏层的权值W[1]和W[2]进行精细化。在两级检测的推理过程中,根据网络参数Θ1,首先用一个较小的网络产生一组相似目标的最高概率的分类,然后用一个具有一组独立参数Θ2的较大网络来重新排列这些分类集,并且得到一个最好的类型。两级模型学习的唯一的不同是用相同的方法来独立地得到这两组参数。
所述步骤S3包括以下步骤:
1)任务示教
在任务示教过程中,本发明通过人机交互模块,机器人可以通过操作者的手势和语言感知操作者的意图。在示教前,操作者先检查机器人是否有与任务相关的知识、工作环境以及操纵对象的相关能力,接着将所需要的知识授予给机器人。操作者通过陈述任务名称、子任务的数量和操作对象的属性等,同时包括用相应的手势动作辅助语音进行相关的讲解。操作者接着将整个任务分析给机器人,允许机器人了解相邻的子任务和总体的任务目标之间的过渡动作,从而可以整合所有子任务的信息。通过使用自然的手势交互和基于自然语言理解交互方式对整个任务进行完整的描述,在本实例中,通过诸如“首先”、“然后”、“下一个子任务”等语音对子任务片段进行分割,在子任务的安排时,充分利用操作者的经验帮助机器人对任务的轨迹进行分段规划。在操作者对整个任务进行描述后,机器人可以利用运动学原理通过分段的示教任务轨迹进行学习。
2)任务学习
在机器人作业过程中,操作者可以始终保持在线教导机器人,以不断地修正机器人的决策。在本实例中,操作者主要“告诉”机器人“那些可以做”,“那些不可以做”,“那些应该这样做”,“那些不应该这样做”等,以调整机器人的行为。对此,本发明利用强化学习模型进行建模。操作者通过不断的给予机器人行为评价,通过奖励和惩罚信号不断修正机器人的行为。强化学习用一个4元组(S,A,T,R)来表示,其中S表示有限的环境状态集,A为对应每一状态可能的有限动作集;T表示从状态-动作对到另一状态的转换函数,T:S×A→S;R为状态-动作对的强化函数,一般返回一个实数强化值,如果已知环境的状态模型,即在状态s下执行动作a,环境转移到状态s的概率P(s'|s,a),在本实例中,采用动态规划方法通过求解贝尔曼方程来迭代计算出最优策略。在强化学习问题中,P(s'|s,a)是未知的,蒙特卡罗方法根据状态、动作和与实际环境交互中得到的奖励样本序列,采用样本平均回报值来估计策略的值函数,不需要预先知道环境的动力学特性,但必须等到阶段性任务完成以后才能学习值函数。
机器人如果在完成学习任务的过程中遇到困难,就向操作者寻求帮助。接着,机器人可以将学习到的任务付诸实际并完善自身的知识库。机器人可以通过手眼相机观察工作环境,确定关键的目标和物件的位姿,通过将自身学习到的任务轨迹应用到给定的任务计划中来形成它的实际工作轨迹,接着通过操作者的实时反馈不断地修正自身学习到的任务经验。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (6)
1.基于人机协作的机器人感知与理解方法,其特征在于,包括如下步骤:
S1、视听模态感知的自然交互,包括三维手势数据获取和自然语言指令获取;
S2、目标描述和目标理解:通过操作者向机器人讲解环境使得机器人快速地了解环境,采用深度学习方法进行目标识别;
S3、任务示教和学习:在任务示教过程中,通过人机交互模块,机器人能通过操作者的手势和语言感知操作者的意图;在机器人作业过程中,操作者可以始终保持在线教导机器人,以不断地修正机器人的决策。
2.根据权利要求1所述的基于人机协作的机器人感知与理解方法,其特征在于,步骤S1中所述三维手势数据获取具体包括:
采用非接触测量系统,以立体视觉或红外成像方式对人体进行跟踪识别,并对人手的三维手势进行捕捉,从而可以识别操作者的交互意图并转换成交互指令;在非接触测量系统所获取的三维手势数据中,采用结合自适应区间卡尔曼滤波(Adaptive IntervalKalman Filter)与改进粒子滤波(Improved Particle filter)进行手势位置数据和姿态数据的融合估计;通过信息融合算法对位置和姿态的时空相关性进行约束,从而尽可能地消除三维手势数据的非稳定性和歧义性;采用过阻尼方法对非意图输入数据进行过滤,并通过引入虚拟弹簧系数进一步提高交互精度;
粒子滤波基于蒙特卡洛方法,利用粒子集表示目标,通过寻找一组在状态空间中传播的随机样本来近似地表示概率密度函数,用样本均值代替积分运算,进而获得系统状态的最小方差估计;在改进粒子滤波(IPF)算法中,采用马尔可夫链蒙特卡罗方法对重采样后的粒子进行处理,而粒子的权重计算需要通过结合卡尔曼滤波的位置估计结果得到;
由于三维手势数据的位置和姿态在时空上存在一定的关联:手势的位置、速度和加速度具有方向性,而方向则需要姿态所确定的本体坐标系进行计算得到,手势的位置在三维方向上的叠加量需要姿态进行估计,故通过结合自适应区间卡尔曼滤波估计得到位置和姿态的时空约束性;结合自适应区间卡尔曼滤波和改进粒子滤波对人手位置和姿态数据进行融合,估计三维手势数据,提高数据的准确性和鲁棒性。
3.根据权利要求1所述的基于人机协作的机器人感知与理解方法,其特征在于,步骤S1中所述自然语言指令获取包括设计控制指令语料库和提取控制指令:
根据收集大量的控制指令语料库Dcontrol进行分析所得,对于机器人的控制指令能通过四个变量组成的一个控制向量形式进行描述(Cdir,Copt,Cval,Cunit),其中Cdir为对操作方位关键词,Copt和Cval为一对操作描述,分别为操作关键词和操作值,Cunit为操作单位;自然语言理解的关键在于对一连串的文本提取出所包含的控制向量,采用最大熵模型进行分类,采用向量空间模型对文本进行描述,对给定包含N个词的文本,可定义N维特征向量表示该文本,用词频-逆文档频率(Term Frequency-Inverse Document Frequency)对特征向量进行加权分析;最大熵模型是对已知的进行建模,对未知的不做任何假设,即建模时尽量符合已知信息,对未知信息部分使模型的熵最大,即不确定性最大;最大熵的原则是承认已知事物;设文本特征向量为x,需要估计的操作者意图向量为y,则利用最大熵方法对条件概率p(y|x)进行建模,通过引入条件熵H(p(y|x))衡量条件概率p(y|x)分布的均匀性;通过最大熵模型,能对操作者语音提取的文本中所包含的交互指令识别,并转换成机器人控制指令控制机器人运动。
4.根据权利要求1所述的基于人机协作的机器人感知与理解方法,其特征在于,所述步骤S2包括以下步骤:
1)目标描述
在目标描述中,操作者主要是辅助机器人对目标进行识别和理解;定义一个六元组Obj={种类,颜色,形状,纹理,尺寸,柔软性}对目标进行描述;机器人通过视觉对目标进行初步观察后对目标有一个大概的理解,包括目标的颜色、形状和纹理,机器人通过带有力觉反馈的末端接触目标,以了解其软硬程度;在机器人对目标的操作过程中,操作者在线地对机器人进行目标描述和讲解,以辅助机器人不断深入地了解目标,并做正确的决策;当机器人对目标做出模棱两可或错误的决策时,操作者辅助机器人或矫正机器人的错误决策;
2)目标理解
采取一个两阶段的方法来进行学习,首先,使用一个缩减的特征集来确定最佳候选集,然后,使用一个更大、更可靠的特征集来排列这些候选集;利用深度学习训练两个不同大小的网络,小的用于计算候选集,大的用于重新排列候选检测结果,从而避免复杂的手动调整特征值;
机器人视觉系统是用于获取外界视觉信息的工具,是通过计算机技术对类似于人类视觉信息处理的一种探索和模拟,机器视觉主要包括图像获取、预处理、分割、描述、识别和理解,其中理解是对环境的最高层次的认知行为,识别出当前目标物体的标记,与特征库或模板相匹配,对目标分类,为机器人的决策、行为控制以及人机交互提供依据;在图像描述方面,采用HOG特征描述符对图像中的特征进行描述,HOG算法首先将整幅图像分成设定数量的子图像,再将各个子图像按照设定的规则分割成细胞单元,然后采集细胞单元中各像素点的梯度方向直方图,计算各直方图在子图像中的密度,然后根据这个密度对子图像中的各个细胞单元做归一化处理;最后把这些直方图组合起来构成特征描述器;为了识别出目标的类型,对HOG特征进行概率G(t)建模,特征值N维向量x是目标类型,利用一个随机变量表示预测概率G(t)的大小;使用一个有两层S型隐藏单元h[1]和h[2]的深层网络,其中每一层分别有K1和K2单元,第一层隐藏单元的输出是第二层隐藏单元的输入,第二层隐藏单元输出的逻辑分类器预测其中x(t)为第t个样本,Θ为参数空间;两层隐藏单元有一系列由它的输入到输出的映射权值W[1]和W[2];通过深度学习更准确地对目标进行分类识别,从而达到在大量数据的支撑下进行快速地学习的效果;
在人机协作模式中,机器人借助于人类的经验知识对未知的物体进行识别,或者从识别错误中得到矫正,需要建立一个带标签数据的训练模型,以更新机器人的学习网络参数;在人类的协作下,一方面机器人通过人类的描述更好地了解未知物体的特征;另一方面,机器人通过人类的共享经验正确地认识物体;在学习过程中,目标是求出使识别精度最佳的参数Θ;将人类辅助过程中产生的输入数据作为一组特征值x及标签数据t=1,…,M,t为样本序号,M为样本总数;在最深层的学习工作中将使用两阶段学习方法;在第一阶段中,使用无监督特征学习方法来初始化隐藏层的权值W[1]和W[2],在训练前加权是避免过度拟合的关键。
5.根据权利要求1所述的基于人机协作的机器人感知与理解方法,其特征在于,所述步骤S3具体包括:
1)任务示教
在示教前,操作者先检查机器人是否有与任务相关的知识、工作环境以及操纵对象的相关能力,接着将所需要的知识授予给机器人;操作者通过陈述任务名称、子任务的数量和操作对象的属性,同时包括用相应的手势动作辅助语音进行相关的讲解;操作者接着将整个任务分析给机器人,允许机器人了解相邻的子任务和总体的任务目标之间的过渡动作,从而整合所有子任务的信息;通过使用自然的手势交互和基于自然语言理解交互方式对整个任务进行完整的描述,在子任务的安排时,充分利用操作者的经验帮助机器人对任务的轨迹进行分段规划;在操作者对整个任务进行描述后,机器人可以利用运动学原理通过分段的示教任务轨迹进行学习;
2)任务学习
利用强化学习模型进行建模;操作者通过不断的给予机器人行为评价,通过奖励和惩罚信号不断修正机器人的行为;强化学习用一个四元组(S,A,T,R)来表示,其中S表示有限的环境状态集,A为对应每一状态可能的有限动作集;T表示从状态-动作对到另一状态的转换函数,T:S×A→S;R为状态-动作对的强化函数,用于返回一个实数强化值,其中是R的集合;如果已知环境的状态模型,即在状态s下执行动作a,环境转移到状态s的概率P(s'|s,a);在强化学习问题中,P(s'|s,a)是未知的,蒙特卡罗方法根据状态、动作和与实际环境交互中得到的奖励样本序列,采用样本平均回报值来估计策略的值函数,不需要预先知道环境的动力学特性,但必须等到阶段性任务完成以后才能学习值函数。
6.根据权利要求5所述的基于人机协作的机器人感知与理解方法,其特征在于,机器人如果在完成学习任务的过程中遇到困难,就向操作者寻求帮助,接着,机器人将学习到的任务付诸实际并完善自身的知识库;机器人通过手眼相机观察工作环境,确定关键的目标和物件的位姿,通过将自身学习到的任务轨迹应用到给定的任务计划中来形成它的实际工作轨迹,接着通过操作者的实时反馈不断地修正自身学习到的任务经验。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710429518.0A CN107150347B (zh) | 2017-06-08 | 2017-06-08 | 基于人机协作的机器人感知与理解方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710429518.0A CN107150347B (zh) | 2017-06-08 | 2017-06-08 | 基于人机协作的机器人感知与理解方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107150347A true CN107150347A (zh) | 2017-09-12 |
CN107150347B CN107150347B (zh) | 2021-03-30 |
Family
ID=59795383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710429518.0A Active CN107150347B (zh) | 2017-06-08 | 2017-06-08 | 基于人机协作的机器人感知与理解方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107150347B (zh) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107622523A (zh) * | 2017-09-21 | 2018-01-23 | 深圳市晟达机械设计有限公司 | 一种智能机器人 |
CN108133259A (zh) * | 2017-12-14 | 2018-06-08 | 深圳狗尾草智能科技有限公司 | 人工虚拟生命与外界交互的系统及方法 |
CN108381529A (zh) * | 2018-05-28 | 2018-08-10 | 上海优尼斯工业服务有限公司 | 一种工业机械臂的人机协作示教方法 |
CN108406767A (zh) * | 2018-02-13 | 2018-08-17 | 华南理工大学 | 面向人机协作的机器人自主学习方法 |
WO2018219198A1 (zh) * | 2017-06-02 | 2018-12-06 | 腾讯科技(深圳)有限公司 | 一种人机交互方法、装置及人机交互终端 |
CN109116854A (zh) * | 2018-09-16 | 2019-01-01 | 南京大学 | 一种基于强化学习的多组机器人协作控制方法及控制系统 |
CN109859274A (zh) * | 2018-12-24 | 2019-06-07 | 深圳市银星智能科技股份有限公司 | 机器人、其物体标定方法及视教交互方法 |
CN110132282A (zh) * | 2019-05-24 | 2019-08-16 | 北京航空航天大学 | 无人机路径规划方法及装置 |
CN110134028A (zh) * | 2018-02-09 | 2019-08-16 | 西门子公司 | 控制装置、设备及其方法 |
CN110216693A (zh) * | 2019-06-21 | 2019-09-10 | 北京猎户星空科技有限公司 | 基于智能机器人的讲解方法、装置、设备和存储介质 |
CN110795836A (zh) * | 2019-10-17 | 2020-02-14 | 浙江大学 | 一种基于区间与有界概率混合不确定性的机械臂稳健优化设计方法 |
CN110928302A (zh) * | 2019-11-29 | 2020-03-27 | 华中科技大学 | 一种人机协同自然语言空间导航方法及系统 |
CN111768773A (zh) * | 2020-05-26 | 2020-10-13 | 同济大学 | 一种智能决策会议机器人 |
CN112005197A (zh) * | 2018-04-27 | 2020-11-27 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN112525194A (zh) * | 2020-10-28 | 2021-03-19 | 北京工业大学 | 一种基于海马-纹状体内源性和外源性信息的认知导航方法 |
CN112518756A (zh) * | 2020-12-10 | 2021-03-19 | 深圳市优必选科技股份有限公司 | 机械臂的运动轨迹规划方法及装置、机械臂及存储介质 |
CN112734044A (zh) * | 2020-11-26 | 2021-04-30 | 清华大学 | 人机共生方法与系统 |
CN112861726A (zh) * | 2021-02-09 | 2021-05-28 | 北京工业大学 | 基于规则意图表决器的d-s证据理论多模态融合人机交互方法 |
CN114174008A (zh) * | 2019-07-30 | 2022-03-11 | 西门子股份公司 | 通过机器人操纵对象的方法和操纵系统 |
CN115407750A (zh) * | 2022-08-12 | 2022-11-29 | 北京津发科技股份有限公司 | 人机协同智能系统决策能力的测评方法及系统 |
WO2023010870A1 (zh) * | 2021-08-02 | 2023-02-09 | 达闼机器人股份有限公司 | 机器人导航的方法、机器人、机器人系统、装置及介质 |
CN115946130A (zh) * | 2023-03-13 | 2023-04-11 | 中国人民解放军国防科技大学 | 基于黎曼流形的人机协同方法 |
CN116962817A (zh) * | 2023-09-21 | 2023-10-27 | 世优(北京)科技有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN117718971A (zh) * | 2024-01-29 | 2024-03-19 | 深圳威洛博机器人有限公司 | 一种关节机器人输出力矩控制系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110125524A (ko) * | 2010-05-13 | 2011-11-21 | 한국과학기술연구원 | 멀티모달 상호작용을 이용한 로봇의 물체 학습 시스템 및 방법 |
CN104134071A (zh) * | 2014-06-20 | 2014-11-05 | 北京工业大学 | 一种基于颜色描述的可变形部件模型物体检测方法 |
CN104827457A (zh) * | 2014-02-07 | 2015-08-12 | 广明光电股份有限公司 | 机器手臂的教导装置及方法 |
CN105205454A (zh) * | 2015-08-27 | 2015-12-30 | 深圳市国华识别科技开发有限公司 | 自动捕捉目标物的系统和方法 |
CN105468145A (zh) * | 2015-11-18 | 2016-04-06 | 北京航空航天大学 | 一种基于手势和语音识别的机器人人机交互方法和装置 |
CN106095109A (zh) * | 2016-06-20 | 2016-11-09 | 华南理工大学 | 基于手势和语音进行机器人在线示教的方法 |
CN106125925A (zh) * | 2016-06-20 | 2016-11-16 | 华南理工大学 | 基于手势和语音控制的智能抓捕方法 |
-
2017
- 2017-06-08 CN CN201710429518.0A patent/CN107150347B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110125524A (ko) * | 2010-05-13 | 2011-11-21 | 한국과학기술연구원 | 멀티모달 상호작용을 이용한 로봇의 물체 학습 시스템 및 방법 |
CN104827457A (zh) * | 2014-02-07 | 2015-08-12 | 广明光电股份有限公司 | 机器手臂的教导装置及方法 |
CN104134071A (zh) * | 2014-06-20 | 2014-11-05 | 北京工业大学 | 一种基于颜色描述的可变形部件模型物体检测方法 |
CN105205454A (zh) * | 2015-08-27 | 2015-12-30 | 深圳市国华识别科技开发有限公司 | 自动捕捉目标物的系统和方法 |
CN105468145A (zh) * | 2015-11-18 | 2016-04-06 | 北京航空航天大学 | 一种基于手势和语音识别的机器人人机交互方法和装置 |
CN106095109A (zh) * | 2016-06-20 | 2016-11-09 | 华南理工大学 | 基于手势和语音进行机器人在线示教的方法 |
CN106125925A (zh) * | 2016-06-20 | 2016-11-16 | 华南理工大学 | 基于手势和语音控制的智能抓捕方法 |
Non-Patent Citations (1)
Title |
---|
李备: "《中国优秀硕士学位论文全文数据库 信息科技辑》", 15 May 2017 * |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018219198A1 (zh) * | 2017-06-02 | 2018-12-06 | 腾讯科技(深圳)有限公司 | 一种人机交互方法、装置及人机交互终端 |
CN107622523B (zh) * | 2017-09-21 | 2018-08-21 | 石器时代(内蒙古)智能机器人科技有限公司 | 一种智能机器人 |
CN107622523A (zh) * | 2017-09-21 | 2018-01-23 | 深圳市晟达机械设计有限公司 | 一种智能机器人 |
CN108133259A (zh) * | 2017-12-14 | 2018-06-08 | 深圳狗尾草智能科技有限公司 | 人工虚拟生命与外界交互的系统及方法 |
CN110134028A (zh) * | 2018-02-09 | 2019-08-16 | 西门子公司 | 控制装置、设备及其方法 |
CN108406767A (zh) * | 2018-02-13 | 2018-08-17 | 华南理工大学 | 面向人机协作的机器人自主学习方法 |
US11954240B2 (en) | 2018-04-27 | 2024-04-09 | Sony Corporation | Information processing device, information processing method, and program |
CN112005197B (zh) * | 2018-04-27 | 2024-02-09 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN112005197A (zh) * | 2018-04-27 | 2020-11-27 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN108381529A (zh) * | 2018-05-28 | 2018-08-10 | 上海优尼斯工业服务有限公司 | 一种工业机械臂的人机协作示教方法 |
CN109116854A (zh) * | 2018-09-16 | 2019-01-01 | 南京大学 | 一种基于强化学习的多组机器人协作控制方法及控制系统 |
CN109859274A (zh) * | 2018-12-24 | 2019-06-07 | 深圳市银星智能科技股份有限公司 | 机器人、其物体标定方法及视教交互方法 |
CN110132282A (zh) * | 2019-05-24 | 2019-08-16 | 北京航空航天大学 | 无人机路径规划方法及装置 |
CN110216693A (zh) * | 2019-06-21 | 2019-09-10 | 北京猎户星空科技有限公司 | 基于智能机器人的讲解方法、装置、设备和存储介质 |
CN114174008A (zh) * | 2019-07-30 | 2022-03-11 | 西门子股份公司 | 通过机器人操纵对象的方法和操纵系统 |
CN110795836A (zh) * | 2019-10-17 | 2020-02-14 | 浙江大学 | 一种基于区间与有界概率混合不确定性的机械臂稳健优化设计方法 |
CN110928302A (zh) * | 2019-11-29 | 2020-03-27 | 华中科技大学 | 一种人机协同自然语言空间导航方法及系统 |
CN111768773B (zh) * | 2020-05-26 | 2023-08-29 | 同济大学 | 一种智能决策会议机器人 |
CN111768773A (zh) * | 2020-05-26 | 2020-10-13 | 同济大学 | 一种智能决策会议机器人 |
CN112525194B (zh) * | 2020-10-28 | 2023-11-03 | 北京工业大学 | 一种基于海马-纹状体内源性和外源性信息的认知导航方法 |
CN112525194A (zh) * | 2020-10-28 | 2021-03-19 | 北京工业大学 | 一种基于海马-纹状体内源性和外源性信息的认知导航方法 |
CN112734044A (zh) * | 2020-11-26 | 2021-04-30 | 清华大学 | 人机共生方法与系统 |
CN112518756B (zh) * | 2020-12-10 | 2022-08-05 | 深圳市优必选科技股份有限公司 | 机械臂的运动轨迹规划方法及装置、机械臂及存储介质 |
CN112518756A (zh) * | 2020-12-10 | 2021-03-19 | 深圳市优必选科技股份有限公司 | 机械臂的运动轨迹规划方法及装置、机械臂及存储介质 |
CN112861726B (zh) * | 2021-02-09 | 2024-07-12 | 北京工业大学 | 基于规则意图表决器的d-s证据理论多模态融合人机交互方法 |
CN112861726A (zh) * | 2021-02-09 | 2021-05-28 | 北京工业大学 | 基于规则意图表决器的d-s证据理论多模态融合人机交互方法 |
WO2023010870A1 (zh) * | 2021-08-02 | 2023-02-09 | 达闼机器人股份有限公司 | 机器人导航的方法、机器人、机器人系统、装置及介质 |
CN115407750B (zh) * | 2022-08-12 | 2023-11-21 | 北京津发科技股份有限公司 | 人机协同智能系统决策能力的测评方法及系统 |
CN115407750A (zh) * | 2022-08-12 | 2022-11-29 | 北京津发科技股份有限公司 | 人机协同智能系统决策能力的测评方法及系统 |
CN115946130A (zh) * | 2023-03-13 | 2023-04-11 | 中国人民解放军国防科技大学 | 基于黎曼流形的人机协同方法 |
CN116962817B (zh) * | 2023-09-21 | 2023-12-08 | 世优(北京)科技有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN116962817A (zh) * | 2023-09-21 | 2023-10-27 | 世优(北京)科技有限公司 | 视频处理方法、装置、电子设备及存储介质 |
CN117718971A (zh) * | 2024-01-29 | 2024-03-19 | 深圳威洛博机器人有限公司 | 一种关节机器人输出力矩控制系统 |
CN117718971B (zh) * | 2024-01-29 | 2024-06-25 | 深圳威洛博机器人有限公司 | 一种关节机器人输出力矩控制系统 |
Also Published As
Publication number | Publication date |
---|---|
CN107150347B (zh) | 2021-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107150347A (zh) | 基于人机协作的机器人感知与理解方法 | |
Calinon et al. | Statistical learning by imitation of competing constraints in joint space and task space | |
CN103003846B (zh) | 关节区域显示装置、关节区域检测装置、关节区域归属度计算装置、关节状区域归属度计算装置以及关节区域显示方法 | |
CN104899561A (zh) | 一种并行化的人体行为识别方法 | |
CN110135249A (zh) | 基于时间注意力机制和lstm的人体行为识别方法 | |
Mania et al. | A framework for self-training perceptual agents in simulated photorealistic environments | |
Zambelli et al. | Online multimodal ensemble learning using self-learned sensorimotor representations | |
Sturm et al. | Body schema learning for robotic manipulators from visual self-perception | |
Seepanomwan et al. | Generalisation, decision making, and embodiment effects in mental rotation: A neurorobotic architecture tested with a humanoid robot | |
Nishide et al. | Tool–body assimilation of humanoid robot using a neurodynamical system | |
CN107146237A (zh) | 一种基于在线状态学习与估计的目标跟踪方法 | |
JP2023524252A (ja) | 生成的非線形人間形状モデル | |
CN106406518A (zh) | 手势控制装置及手势识别方法 | |
Hafez et al. | Improving robot dual-system motor learning with intrinsically motivated meta-control and latent-space experience imagination | |
Azad et al. | Real-time human-computer interaction based on face and hand gesture recognition | |
Ren et al. | Insactor: Instruction-driven physics-based characters | |
CN118261192A (zh) | 一种通用智能体及其控制方法 | |
Shukla et al. | Learning human utility from video demonstrations for deductive planning in robotics | |
Wang et al. | Research on Computer Aided Interaction Design based on Virtual reality Technology | |
Zhou et al. | Learning cloth folding tasks with refined flow based spatio-temporal graphs | |
Atanasov et al. | Nonmyopic view planning for active object detection | |
CN111311648A (zh) | 基于协作差分进化滤波的人手-物体交互过程跟踪方法 | |
Matthews et al. | Crowd grounding: finding semantic and behavioral alignment through human robot interaction. | |
Cachique et al. | Intelligent digital tutor to assemble puzzles based on artificial intelligence techniques | |
Liang et al. | Interactive Experience Design of Traditional Dance in New Media Era Based on Action Detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220608 Address after: 510000 floors 5-6, building B4, No. 11, Kaiyuan Avenue, Science City, Guangzhou high tech Industrial Development Zone, Guangzhou, Guangdong Province Patentee after: GUANGZHOU LONGEST SCIENCE & TECHNOLOGY Co.,Ltd. Address before: 510640 No. five, 381 mountain road, Guangzhou, Guangdong, Tianhe District Patentee before: SOUTH CHINA University OF TECHNOLOGY |