CN105956517A - 一种基于密集轨迹的动作识别方法 - Google Patents

一种基于密集轨迹的动作识别方法 Download PDF

Info

Publication number
CN105956517A
CN105956517A CN201610249911.7A CN201610249911A CN105956517A CN 105956517 A CN105956517 A CN 105956517A CN 201610249911 A CN201610249911 A CN 201610249911A CN 105956517 A CN105956517 A CN 105956517A
Authority
CN
China
Prior art keywords
track
intensive
video
subcharacter
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610249911.7A
Other languages
English (en)
Other versions
CN105956517B (zh
Inventor
胡海峰
肖翔
张伟
顾建权
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
SYSU CMU Shunde International Joint Research Institute
Original Assignee
SYSU CMU Shunde International Joint Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SYSU CMU Shunde International Joint Research Institute filed Critical SYSU CMU Shunde International Joint Research Institute
Priority to CN201610249911.7A priority Critical patent/CN105956517B/zh
Publication of CN105956517A publication Critical patent/CN105956517A/zh
Application granted granted Critical
Publication of CN105956517B publication Critical patent/CN105956517B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines

Abstract

本发明公开一种基于密集轨迹的动作识别方法,包括:1)对输入视频每一帧的用密集采样法获取密集点,并对密集点在光流域中进行跟踪,形成该视频的轨迹;2)对轨迹进行筛选,提取位于中心区域的轨迹视作前景的轨迹,将区域外的轨迹视作背景轨迹进行删除;3)提取轨迹的形状特征,梯度方向直方图特征,光流直方图特征,运动边缘直方图特征,以及运动邻域特征;4)对每一种特征分别采用增强型局部级联描述子向量方法进行特征表示,得到3)中五种特征的向量表示,将这五种特征向量级联起来,得到最终这个视频的中层表示;5)采用支持向量机进行特征分类,得到识别准确率。

Description

一种基于密集轨迹的动作识别方法
技术领域
本发明涉及计算机视觉领域,更具体地,涉及一种基于密集轨迹的动作识别方法。
背景技术
科技的发展使得摄像设备得到了普及,数量巨大的视频数据也随之产生。同时,针对视频的应用也应运而生:智能视频监控、视频数据分类、高级人机交互等。在这些应用中,针对人的动作进行理解是最核心的关注点,也是人们研究的核心内容。
由于人体动作识别有很大的潜在价值,所以此课题作为一个研究热点已经持续了至少五年时间,很多种方法都被提出,例如:基于密集轨迹(DT)的方法、基于时空兴趣点的方法以及基于卷积神经网络的方法等。其中,基于DT的方法和基于CNN的方法研究的人数最多,因为这两种方法能够取得目前最好的结果。然而,深层CNN网络由于有大量的参数需要通过学习获得,而目前绝大部分数据集并不能满足深层CNN网络学习所需的规模,因此限制了深层CNN网络在动作识别领域的应用。此外,深层CNN网络的训练过程所耗费的时间相当多,对参数进行优化是一个长期的过程,这个条件进一步限制了CNN方法在基于视频的动作识别领域的延伸。所以,我们的动作识别研究将会针对基于密集轨迹的方法。
基于密集轨迹的方法的主要思想是:首先,对视频帧进行密集采样以提取兴趣点,然后使用基于光流的方法在不同的尺度空间中跟踪这些兴趣点以形成轨迹;接下来通过计算轨迹的各种特征:形状特征、静态特征、动态特征等,组成轨迹的描述子;这些轨迹描述子将会使用词袋模型进行编码,生成最终的视频层表达特征;这些特征会被放入分类器中进行分类,以完成最终的识别过程。很多学者在这个基础上进行了探索和改进。Jain等人提出了一种将轨迹的运动分解成前景运动和摄像头运动,去除摄像头运动,以此提升识别效果。Murthy等人将相邻轨迹结合成一条轨迹,减少了轨迹的冗余,提高了计算速度。Wang等人采用了人体检测方法将场景中的人检测出来,然后提取前景目标的轨迹,取得了更好的效果。Jiang等人提出了全局参考点和局部参考点来获取轨迹的运动信息同时抑制摄像头导致的全局运动。上述方法都取得了较好的效果,但是现存的基于轨迹的研究通常忽略了轨迹之间的相对位置关系和运动关系,而这些线索对于提高基于轨迹的识别准确率是有帮助的。
发明内容
为了克服上述现有技术的不足,本发明提供了一种基于密集轨迹的动作识别方法。该方法将视频数据集的视频作为输入,进行视频特征提取和识别,最后输出视频的分类结果,该方法具有计算量低,识别效果好的特点。
为了达到上述目的,本发明采用的技术方案是:
一种基于密集轨迹的动作识别方法,包括以下步骤:
(1)输入待识别的视频,对输入视频的每一帧,利用密集采样得到密集的抽样点,对抽样点进行跟踪形成密集轨迹;
(2)筛选出视频帧中心区域的轨迹作为前景轨迹,区域以外的轨迹视作背景轨迹予以删除;
(3)提取视频帧中心区域内的前景轨迹的五种描述子特征:形状特征(TS),梯度方向直方图特征(HOG),光流直方图特征(HOF),运动边缘直方图特征(MBH)以及轨迹运动邻域特征(TMNF);
(4)对步骤(3)提取的每一种描述子特征分别采用增强型局部级联描述子向量方法(IVLAD)进行特征建模,得到每一种描述子特征的向量表示,然后将这五种特征向量级联起来,形成该视频最终的向量表示;
(5)采用支持向量机(SVM)进行特征分类,最终输出分类结果,获取视频的动作识别结果,在YouTube人体行为数据集上实现了91.4%的准确率。
本发明基于密集轨迹方法,并且通过探索邻域轨迹之间的关系,提出了一种新的运动邻域描述子,它能够有效地获取相邻轨迹的位置信息和运动信息,并且结合了增强型的局部级联描述子向量,显著提高了动作识别的准确率。
优选的,步骤(1)中,利用密集采样在多个尺度空间得到不同尺度的密集抽样点,计算密集光流域,在密集光流域中采用中值滤波的方法对密集抽样点进行跟踪,形成密集的轨迹。
优选的,步骤(2)中,选取视频帧大小的2/3区域作为中心区域,该中心区域作为前景轨迹,大多数动作的发生均位于这个区域内,从密集轨迹中筛选出位于此区域内的轨迹,对区域外的轨迹予以删除。
优选的,步骤(3)中,根据前景轨迹在当前帧与上一帧的相对位移,形成前景轨迹的形状特征(TS);根据前景轨迹的梯度的方向信息,形成方向梯度直方图特征(HOG);根据前景轨迹的光流方向特征,形成光流直方图特征(HOF);根据光流导数的方向信息,形成运动边缘直方图特征(MBH);根据邻域轨迹的空间位置和运动关系,形成前景轨迹运动邻域特征(TMNF)。
优选的,步骤(4)中,描述子特征表示为{x1,...xi,...xd},d表示该描述子特征的总维数,对描述子特征{x1,...xi,...xd},假设利用k-means聚类已经学习得到的码本(codebook)和k个中心(c1,...cj,...ck),采用增强型局部级联描述子向量方法(IVLAD)对特征进行特征建模,具体过程如下:
(5-1)描述子特征的每一维xi赋给码本(codebook)中离该描述子特征最近的聚类中心cj,然后得到量化后的索引:NN(xi)=argminj||xi-cj||
(5-2)将所有离聚类中心cj最近的描述子特征,计算这些描述子特征和中心cj的差的累积和并且进行归一化,获得子向量:
u j = Σ i : N N ( x i ) = j x i - c j | | x i - c j | |
(5-3)将各子向量uj连接起来,得到k×d维的向量表示u=[u1...uk];
(5-4)对向量u先采用“power-law”归一化处理,即:
vj=|vj|α×sign(vj),j=1...k×d,α=0.2
随后用2范数归一化(L2-normalized),最终得到该描述子特征的IVLAD表示。
本发明相对于现有技术具有如下的优点及效果:
1、本发明提出了一种新的描述子特征来获取轨迹之间的位置方向信息和运动邻域信息。
2、本发明利用的中心区域能够有效地减少背景的轨迹,同时也降低了计算量。
3、本发明将增强型局部级联描述子结合轨迹特征进行识别,提升了识别效果。
附图说明
附图为本发明的总体流程图;
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
附图给出了本发明的操作过程,如图所示,一种基于视频分析的人群计数方法,包括以下步骤:
(1)对输入视频,利用密集采样得到密集的抽样点,对抽样点进行跟踪形成密集轨迹;
(2)筛选出视频帧中心区域的轨迹作为前景轨迹,区域以外的轨迹视作背景轨迹予以删除;
(3)提取区域内的轨迹的五种描述子特征:形状特征(TS),梯度方向直方图特征(HOG),光流直方图特征(HOF),运动边缘直方图特征(MBH),以及轨迹运动邻域特征(TMNF);
(4)对每一种特征分别采用增强型局部级联描述子向量方法(IVLAD)进行特征建模,得到每一种特征的向量表示,然后将这五种特征向量级联起来,形成该视频最终的向量表示;
(5)采用支持向量机(SVM)进行特征分类,最终输出动作视频的识别准确率。
进一步地,步骤(1)中的具体过程如下:利用密集采样在多个尺度空间得到不同尺度的密集抽样点,计算密集光流域,在密集光流域中采用中值滤波的方法对密集抽样点进行跟踪,形成密集的轨迹。
步骤(2)中的具体过程如下:选取视频帧大小的2/3区域作为中心区域,大多数动作的发生均位于这个区域内,从密集轨迹中筛选出位于此区域内的轨迹,对区域外的轨迹予以删除。
步骤(3)中的具体过程如下:根据轨迹在当前帧与上一帧的相对位移,形成轨迹的形状特征(TS);根据轨迹的梯度的方向信息,形成方向梯度直方图特征(HOG);根据轨迹的光流方向特征,形成光流直方图特征(HOF);根据光流导数的方向信息,形成运动边缘直方图特征(MBH);根据邻域轨迹的空间位置和运动关系,形成轨迹运动邻域特征(TMNF);
步骤(4)中的具体过程如下:对每一种特征{x1,...xi,...xd},假设利用k-means聚类已经学习得到的码本(codebook)和k个中心(c1,...cj,...ck),采用IVLAD对特征进行特征建模,具体过程如下:
(1)特征的每一维xi赋给码本中离它最近的中心,然后得到量化后的索引:
NN(xi)=argminj||xi-cj||
(2)将描述子集合指派给一个中心cj,通过这些描述子和它的中心的差的累积和并且进行归一化,获得子向量:
u j = Σ i : N N ( x i ) = j x i - c j | | x i - c j | |
(3)将子向量uj连接起来,得到k×d维的向量表示u=[u1...uk]。
(4)对向量u先采用“power-law”归一化,即:
vj=|vj|α×sign(vj),j=1...k×d,α=0.2
随后用2范数归一化(L2-normalized),最终得到特征的IVLAD表示。

Claims (5)

1.一种基于密集轨迹的动作识别方法,其特征在于,包括以下步骤:
(1)输入待识别的视频,对输入视频的每一帧,利用密集采样得到密集的抽样点,对抽样点进行跟踪形成密集轨迹;
(2)筛选出视频帧中心区域的轨迹作为前景轨迹,区域以外的轨迹视作背景轨迹予以删除;
(3)提取视频帧中心区域内的前景轨迹的五种描述子特征:形状特征(TS),梯度方向直方图特征(HOG),光流直方图特征(HOF),运动边缘直方图特征(MBH)以及轨迹运动邻域特征(TMNF);
(4)对步骤(3)提取的每一种描述子特征分别采用增强型局部级联描述子向量方法(IVLAD)进行特征建模,得到每一种描述子特征的向量表示,然后将这五种特征向量级联起来,形成该视频最终的向量表示;
(5)采用支持向量机(SVM)进行特征分类,最终输出分类结果,获取视频的动作识别结果,在YouTube人体行为数据集上实现了91.4%的准确率。
2.根据权利要求1所述的基于密集轨迹的动作识别方法,其特征在于,所述步骤(1)中,是利用密集采样方式在视频的多个尺度空间得到不同尺度的密集抽样点,计算密集光流域,在密集光流域中采用中值滤波的方法对密集抽样点进行跟踪,形成密集的轨迹。
3.根据权利要求1所述的基于密集轨迹的动作识别方法,其特征在于,所述步骤(2)中,选取视频帧2/3的区域作为中心区域,该中心区域作为前景轨迹。
4.根据权利要求1所述的基于密集轨迹的动作识别方法,其特征在于,所述步骤(3)中,根据前景轨迹在当前帧与上一帧的相对位移,形成前景轨迹的形状特征(TS);根据前景轨迹的梯度的方向信息,形成方向梯度直方图特征(HOG);根据前景轨迹的光流方向特征,形成光流直方图特征(HOF);根据光流导数的方向信息,形成运动边缘直方图特征(MBH);根据邻域轨迹的空间位置和运动关系,形成前景轨迹运动邻域特征(TMNF)。
5.根据权利要求1所述的基于密集轨迹的动作识别方法,其特征在于,所述步骤(4)中,描述子特征表示为{x1,...xi,...xd},d表示该描述子特征的总维数,对描述子特征{x1,...xi,...xd},假设利用k-means聚类已经学习得到的码本(codebook)和k个中心(c1,...cj,...ck),采用增强型局部级联描述子向量方法(IVLAD)对特征进行特征建模,具体过程如下:
(5-1)描述子特征的每一维xi赋给码本(codebook)中离该描述子特征最近的聚类中心cj,然后得到量化后的索引:NN(xi)=argminj||xi-cj||
(5-2)将所有离聚类中心cj最近的描述子特征,计算这些描述子特征和中心cj的差的累积和并且进行归一化,获得子向量:
u j = Σ i : N N ( x i ) = j x i - c j | | x i - c j | |
(5-3)将各子向量uj连接起来,得到k×d维的向量表示u=[u1...uk];
(5-4)对向量u先采用“power-law”归一化处理,即:
v j = | v j | α × s i g n ( v j ) , j = 1 ... k × d , α = 0.2
随后用2范数归一化(L2-normalized),最终得到该描述子特征的IVLAD表示。
CN201610249911.7A 2016-04-20 2016-04-20 一种基于密集轨迹的动作识别方法 Active CN105956517B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610249911.7A CN105956517B (zh) 2016-04-20 2016-04-20 一种基于密集轨迹的动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610249911.7A CN105956517B (zh) 2016-04-20 2016-04-20 一种基于密集轨迹的动作识别方法

Publications (2)

Publication Number Publication Date
CN105956517A true CN105956517A (zh) 2016-09-21
CN105956517B CN105956517B (zh) 2019-08-02

Family

ID=56917903

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610249911.7A Active CN105956517B (zh) 2016-04-20 2016-04-20 一种基于密集轨迹的动作识别方法

Country Status (1)

Country Link
CN (1) CN105956517B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106571014A (zh) * 2016-10-24 2017-04-19 上海伟赛智能科技有限公司 一种在视频中识别异常动作的方法和系统
CN106709419A (zh) * 2016-11-18 2017-05-24 中山大学 一种基于显著轨迹空间信息的视频人体行为识别方法
CN106815600A (zh) * 2016-12-27 2017-06-09 浙江工业大学 用于人类行为识别的深度联合结构化和结构化学习方法
CN106845329A (zh) * 2016-11-11 2017-06-13 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于深度卷积特征多通道金字塔池化的动作识别方法
CN107169414A (zh) * 2017-04-13 2017-09-15 南京邮电大学 一种基于稠密轨迹小片段的异常行为检测方法
CN107705324A (zh) * 2017-10-20 2018-02-16 中山大学 一种基于机器学习的视频目标检测方法
CN109376696A (zh) * 2018-11-28 2019-02-22 北京达佳互联信息技术有限公司 视频动作分类的方法、装置、计算机设备和存储介质
CN110163144A (zh) * 2019-05-17 2019-08-23 成都信息工程大学 一种从视频中自动识别人体行为的方法
CN110236560A (zh) * 2019-06-06 2019-09-17 深圳市联邦佳维工业装备有限公司 智能穿戴设备的六轴姿态检测方法、系统
CN110533088A (zh) * 2019-08-16 2019-12-03 湖北工业大学 一种基于区分式卷积神经网络的场景文字语种识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140169663A1 (en) * 2012-12-19 2014-06-19 Futurewei Technologies, Inc. System and Method for Video Detection and Tracking
CN104794446A (zh) * 2015-04-22 2015-07-22 中南民族大学 基于合成描述子的人体动作识别方法及系统
CN105069434A (zh) * 2015-08-12 2015-11-18 河海大学常州校区 一种视频中人体动作行为识别方法
CN105095866A (zh) * 2015-07-17 2015-11-25 重庆邮电大学 一种快速行为识别方法和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140169663A1 (en) * 2012-12-19 2014-06-19 Futurewei Technologies, Inc. System and Method for Video Detection and Tracking
CN104794446A (zh) * 2015-04-22 2015-07-22 中南民族大学 基于合成描述子的人体动作识别方法及系统
CN105095866A (zh) * 2015-07-17 2015-11-25 重庆邮电大学 一种快速行为识别方法和系统
CN105069434A (zh) * 2015-08-12 2015-11-18 河海大学常州校区 一种视频中人体动作行为识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HAIYAN XU 等: "Human action recognition using late fusion and dimensionality reduction", 《2014 19TH INTERNATIONAL CONFERENCE ON DIGITAL SIGNAL PROCESSING》 *
WANG, HENG 等: "Action Recognition with Improved Trajectories", 《2013 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106571014A (zh) * 2016-10-24 2017-04-19 上海伟赛智能科技有限公司 一种在视频中识别异常动作的方法和系统
CN106845329A (zh) * 2016-11-11 2017-06-13 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于深度卷积特征多通道金字塔池化的动作识别方法
CN106709419A (zh) * 2016-11-18 2017-05-24 中山大学 一种基于显著轨迹空间信息的视频人体行为识别方法
CN106815600A (zh) * 2016-12-27 2017-06-09 浙江工业大学 用于人类行为识别的深度联合结构化和结构化学习方法
CN106815600B (zh) * 2016-12-27 2019-07-30 浙江工业大学 用于人类行为识别的深度联合结构化和结构化学习方法
CN107169414A (zh) * 2017-04-13 2017-09-15 南京邮电大学 一种基于稠密轨迹小片段的异常行为检测方法
CN107705324A (zh) * 2017-10-20 2018-02-16 中山大学 一种基于机器学习的视频目标检测方法
CN109376696A (zh) * 2018-11-28 2019-02-22 北京达佳互联信息技术有限公司 视频动作分类的方法、装置、计算机设备和存储介质
CN110163144A (zh) * 2019-05-17 2019-08-23 成都信息工程大学 一种从视频中自动识别人体行为的方法
CN110236560A (zh) * 2019-06-06 2019-09-17 深圳市联邦佳维工业装备有限公司 智能穿戴设备的六轴姿态检测方法、系统
CN110533088A (zh) * 2019-08-16 2019-12-03 湖北工业大学 一种基于区分式卷积神经网络的场景文字语种识别方法

Also Published As

Publication number Publication date
CN105956517B (zh) 2019-08-02

Similar Documents

Publication Publication Date Title
CN105956517A (zh) 一种基于密集轨迹的动作识别方法
CN110175596B (zh) 基于双流卷积神经网络的虚拟学习环境微表情识别与交互方法
CN110598005B (zh) 一种面向公共安全事件的多源异构数据知识图谱构建方法
CN105069434B (zh) 一种视频中人体动作行为识别方法
CN110096950A (zh) 一种基于关键帧的多特征融合行为识别方法
CN108288015B (zh) 基于时间尺度不变性的视频中人体动作识别方法及系统
CN109902748A (zh) 一种基于多层信息融合全卷积神经网络的图像语义分割方法
CN103123619B (zh) 基于情感上下文的视觉语音多模态协同分析方法
Kim et al. Fast pedestrian detection in surveillance video based on soft target training of shallow random forest
Yan et al. Cross-domain facial expression recognition based on transductive deep transfer learning
CN101894276A (zh) 人体动作识别的训练方法和识别方法
CN109493364A (zh) 一种结合残差注意力和上下文信息的目标跟踪算法
CN106845329A (zh) 一种基于深度卷积特征多通道金字塔池化的动作识别方法
CN111079547B (zh) 一种基于手机惯性传感器的行人移动方向识别方法
Zhao et al. ME-PLAN: A deep prototypical learning with local attention network for dynamic micro-expression recognition
CN109508686B (zh) 一种基于层次化特征子空间学习的人体行为识别方法
CN107146237A (zh) 一种基于在线状态学习与估计的目标跟踪方法
Kindiroglu et al. Temporal accumulative features for sign language recognition
CN111709284B (zh) 基于cnn-lstm的舞蹈情感识别方法
CN110096991A (zh) 一种基于卷积神经网络的手语识别方法
Zhang et al. 3-D deconvolutional networks for the unsupervised representation learning of human motions
Yang et al. A fast vehicle counting and traffic volume estimation method based on convolutional neural network
Jarabese et al. Sign to speech convolutional neural network-based filipino sign language hand gesture recognition system
Lv et al. Traditional Chinese medicine recognition based on target detection
CN112258557B (zh) 一种基于空间注意力特征聚合的视觉跟踪方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20170316

Address after: 528300 Guangdong province Foshan city Shunde District Daliang South Road No. 9 Research Institute

Applicant after: Internation combination research institute of Carnegie Mellon University of Shunde Zhongshan University

Applicant after: Sun Yat-sen University

Address before: 528300 Guangdong province Foshan city Shunde District Daliang South Road No. 9 Research Institute

Applicant before: Internation combination research institute of Carnegie Mellon University of Shunde Zhongshan University

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant