CN106203318B - 基于多层次深度特征融合的摄像机网络行人识别方法 - Google Patents
基于多层次深度特征融合的摄像机网络行人识别方法 Download PDFInfo
- Publication number
- CN106203318B CN106203318B CN201610524455.2A CN201610524455A CN106203318B CN 106203318 B CN106203318 B CN 106203318B CN 201610524455 A CN201610524455 A CN 201610524455A CN 106203318 B CN106203318 B CN 106203318B
- Authority
- CN
- China
- Prior art keywords
- network
- pedestrian
- training
- database
- svm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多层次深度特征融合的摄像机网络行人识别方法,其通过迁移预训练网络的参数到行人数据库,在行人数据库上学习了一个新的网络模型,利用新的网络模型提取多个不同层次的深度特征,并通过将卷积神经网络最后一层的Softmax分类器替换为SVM分类器,达到了充分利用多层深度特征的目的;进而利用不同层次的深度特征构造多组二分类的SVM分类器,并对这些二分类器的决策值进行线性加权得到最终分类结果。本发明在SVM分类器的决策层进行多层特征融合的方式能够有效提高对行人目标进行识别的准确率。
Description
技术领域
本发明属于计算机视觉监控技术领域,具体涉及一种基于多层次深度特征融合的摄像机网络行人识别方法。
背景技术
近年来,摄像机网络已经越来越多地应用于机场、地铁站、广场、银行等公共场所的视频监控。在无重叠视域的多摄像机之间匹配行人目标的问题,我们称之为行人识别问题,其目的在于从整个摄像机网络中找到一个或者几个感兴趣的行人目标。
行人识别问题一直是计算机视觉领域的研究热点,利用该技术可以对监控视频中的行人进行自动分析,从而改变了传统人工对大量视频数据进行监察的方式,大大节约了人力成本,提高了视频处理的效率。然而在摄像机网络中,由于不同摄像头的拍摄视角变化、监控环境的光照变化、行人的姿态变化,加上复杂变换的背景和遮挡等问题,导致了相同的人在不同视频中的视觉外观产生较大的差异,这给行人识别带来了巨大的挑战。针对同一个人在不同光照和拍摄环境下的图像外观会出现不一致的问题,已有很多研究人员在行人特征提取方面做了大量的研究工作,致力于找到一种对光照、拍摄角度、人体姿态等具有不变性的特征表示,比如ELF、SDALF、kBiCov、LDFV等。这些手工提取或基于学习的特征描述子在行人识别领域取得了一定的成果,但都属于浅层特征,对行人图片的表征能力有限。
深度特征是利用深度卷积神经网络提取的特征,近年来,深度学习在语音识别、图像识别、自然语言处理等领域都获得了突破性的进展,其采用的模型为深层神经网络模型,即包含多个隐层的神经网络,多层非线性结构使其具备强大的特征表达能力和对复杂任务的建模能力。但是目前还没有有效的方法来充分利用多层次的深度特征用于行人识别任务。一方面,在实际的监控场景中,由于带标签的行人样本量往往较少,不足以对深度网络进行充分训练,因此难以提取行人图片的鲁棒性深度特征;另一方面,由于卷积神经网络的最后一层为Softmax分类器,它的局限在于只能将前一层的输出作为输入的特征进行分类,不能充分利用不同层次的深度特征。
发明内容
基于上述,本发明提供了一种基于多层次深度特征融合的摄像机网络行人识别方法,适用于对多摄像机网络中的行人样本进行分类以实现行人识别,能够有效提高对行人目标进行识别的准确率。
一种基于多层次深度特征融合的摄像机网络行人识别方法,包括如下步骤:
(1)根据AlexNet图像分类模型的八层卷积神经网络结构,在ImageNet数据库上进行训练得到一个预训练网络;
(2)通过对所述的预训练网络进行微调,在行人数据库上学习一个新的网络模型,即目标网络;
(3)根据所述的目标网络提取所有训练样本第l层的深度特征,l=5、6或7,并用不同层次特征表示的训练样本分别训练k个二分类的SVM(支持向量机),k为行人数据库的行人类别数,其中第j个SVM用于将第j类与其他所有类别划分开,j为自然数且1≤j≤k;
(4)对于行人数据库中任一测试样本,在SVM的决策层对其不同层次的深度特征进行融合,得到该测试样本对应的决策值向量V,取决策值向量V中最大元素值所对应的类别即为该测试样本的类别标签。
所述预训练网络的网络结构及其训练方法已有文献公开披露,具体参见作者AlexKrizhevsky,Ilya Sutskever and Geoffrey E.Hinton发表的标题为ImageNetClassification with Deep Convolutional Neural Networks的文献(出版源:Advancesin Neural Information Processing Systems,2012,25(2):2012)。
所述步骤(2)的具体实现过程为:首先修改预训练网络的网络结构,即将该预训练网络最后一层的输出单元个数修改为行人数据库的行人类别数,其余保持不变,得到目标网络的网络结构;然后迁移预训练网络第1~7层的网络参数至目标网络的第1~7层,并用行人数据库中的训练数据重新学习目标网络最后一层的参数,最终学习完成后得到所述的目标网络。
所述步骤(3)的具体实现过程为:首先将行人数据库中的训练样本集分为若干个批次,并分批输入至目标网络中,对所有批次提取目标网络第l层的输出,得到整个训练样本集的第l层深度特征;然后将第j类训练样本的第l层深度特征作为正样本,其余训练样本的第l层深度特征作为负样本,训练二分类的SVM,训练得到的SVM记为SVMlj,并依此遍历k个类别。
所述步骤(4)的具体实现过程为:对于行人数据库中任一测试样本,首先将该测试样本输入至目标网络中,提取目标网络第l层的输出作为该测试样本第l层深度特征;进而将该测试样本第l层深度特征输入至各SVM中,得到对应的决策函数值并组成向量Gl;最后根据下式对各层次进行融合得到决策值向量V:
其中:al为第l层深度特征所占的权重(可通过交叉验证的方法获得各层次特征的权重)。
本发明通过迁移预训练网络的参数到行人数据库,在行人数据库上学习了一个新的网络模型,利用新的网络模型提取多个不同层次的深度特征,并通过将卷积神经网络最后一层的Softmax分类器替换为SVM分类器,达到了充分利用多层深度特征的目的;进而利用不同层次的深度特征构造多组二分类的SVM分类器,并对这些二分类器的决策值进行线性加权得到最终分类结果。本发明在SVM分类器的决策层进行多层特征融合的方式能够有效提高对行人目标进行识别的准确率。
附图说明
图1为本发明构建行人数据库深度网络模型的流程示意图。
图2为本发明多层次深度特征提取与融合的流程示意图。
具体实施方式
为了更为具体地描述本发明,下面结合附图及具体实施方式对本发明的技术方案进行详细说明。
本发明方法包括行人数据库上的深度网络模型构建和多层次深度特征的提取与融合这样两个部分。我们通过迁移预训练网络参数到行人数据库的方法,帮助行人数据库上目标网络的学习,利用目标网络提取了行人样本的多个层次的深度特征,再利用不同层次的深度特征构造多组二分类的SVM分类器,并对这些二分类器的决策值进行线性加权以得到最终的分类结果。下面结合附图对本发明方法作进一步说明:
图1所示了构建行人数据库深度网络模型的流程,具体方案如下:
(1)步骤100根据AlexNet的八层卷积神经网络结构搭建网络;步骤101在ImageNet数据库上进行预训练得到一个预训练网络模型。预训练网络的网络结构和训练方法具体参见:Krizhevsky A,Sutskever I and Hinton G E.ImageNet classification with deepconvolutional neural networks.Advances in Neural Information ProcessingSystems,2012,25(2):2012。
(2)通过对步骤101的预训练网络进行微调,在行人数据库上学习一个新的网络模型,即目标网络;其步骤如下:
步骤102修改预训练网络的网络结构,即将该网络最后一层Softmax层的输出单元个数修改为行人数据库的行人类别数,作为目标网络的网络结构;
步骤103迁移预训练网络第一至第七层的网络参数到目标网络的第一至第七层;
步骤104用行人数据库中的训练数据重新学习目标网络最后一层的参数,最终得到一个目标网络。
(3)得到目标网络以后,利用目标网络提取行人的深度特征;图2所示了多层次深度特征提取与融合的流程,本发明采用构造多个二分类SVM分类器的方法来实现多分类;假设目标域的类别数为k,则需要训练k个二分类SVM,其中第j个分类器把第j类同其他类别划分开,其步骤如下:
先把行人数据库的n个训练样本记为{(x(i),y(i))|i=1,2,...,n},其中y(i)∈{1,2,...,k}表示第i个训练样本对应的类别标签。步骤200将这n个训练样本输入到目标网络,将网络第l层的输出提取出来,作为训练样本的第l层的深度特征表示,记为其中l=5,6,7。
步骤201将第j类的训练样本作为正样本,将其余类别的训练样本作为负样本,训练二分类的SVM,记为SVMlj,其中l=5,6,7,j=1,2,...,k。
(4)在分类器的决策层对不同层次的深度特征进行融合,其步骤如下:
先将行人数据库的m个测试样本{x(τ)|τ=1,2,...,m}输入到目标网络,步骤200将网络第l层的输出提取出来,作为测试样本的第l层的深度特征表示,记为其中l=5,6,7。
假设二分类器SVMlj对应的决策函数为glj其中l=5,6,7,j=1,2,...,k。步骤202将用第l层的深度特征表示的测试样本输入到二分类器SVMlj中,得到对应的决策函数值为
步骤203对于每个测试样本x(τ),第l层特征所训练的k个二分类器的决策值组成一个决策值向量,记为:
Gl=[gl1 gl2 … glk]T
其中,k为行人数据库的类别数。
步骤204对不同特征得到的分类器决策值进行线性加权,得到测试样本最终的决策值向量,也即本发明融合特征所对应的决策值向量,如下式所示:
其中,αl表示第l层特征在融合特征中所占的权重,通过交叉验证的方法可以获得不同层次特征的权重。
步骤205判定测试样本x(τ)的类别标签C,判定公式如下:
其中,vj表示向量V的第j个元素。
上述对实施例的描述是为便于本技术领域的普通技术人员能理解和应用本发明。熟悉本领域技术的人员显然可以容易地对上述实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,对于本发明做出的改进和修改都应该在本发明的保护范围之内。
Claims (2)
1.一种基于多层次深度特征融合的摄像机网络行人识别方法,包括如下步骤:
(1)根据AlexNet图像分类模型的八层卷积神经网络结构,在ImageNet数据库上进行训练得到一个预训练网络;
(2)通过对所述的预训练网络进行微调,在行人数据库上学习一个新的网络模型,即目标网络;具体实现过程为:首先修改预训练网络的网络结构,即将该预训练网络最后一层的输出单元个数修改为行人数据库的行人类别数,其余保持不变,得到目标网络的网络结构;然后迁移预训练网络第1~7层的网络参数至目标网络的第1~7层,并用行人数据库中的训练数据重新学习目标网络最后一层的参数,最终学习完成后得到所述的目标网络;
(3)根据所述的目标网络提取所有训练样本第l层的深度特征,l=5、6或7,并用不同层次特征表示的训练样本分别训练k个二分类的SVM,k为行人数据库的行人类别数,其中第j个SVM用于将第j类与其他所有类别划分开,j为自然数且1≤j≤k;具体实现过程为:首先将行人数据库中的训练样本集分为若干个批次,并分批输入至目标网络中,对所有批次提取目标网络第l层的输出,得到整个训练样本集的第l层深度特征;然后将第j类训练样本的第l层深度特征作为正样本,其余训练样本的第l层深度特征作为负样本,训练二分类的SVM,训练得到的SVM记为SVMlu,并依此遍历k个类别;
(4)对于行人数据库中任一测试样本,在SVM的决策层对其不同层次的深度特征进行融合,得到该测试样本对应的决策值向量V,取决策值向量V中最大元素值所对应的类别即为该测试样本的类别标签;具体实现过程为:对于行人数据库中任一测试样本,首先将该测试样本输入至目标网络中,提取目标网络第l层的输出作为该测试样本第l层深度特征;进而将该测试样本第l层深度特征输入至各SVM中,得到对应的决策函数值并组成向量Gl;最后根据下式对各层次进行融合得到决策值向量V:
其中:al为第l层深度特征所占的权重。
2.根据权利要求1所述的摄像机网络行人识别方法,其特征在于:所述的权重al通过交叉验证的方法获得。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610524455.2A CN106203318B (zh) | 2016-06-29 | 2016-06-29 | 基于多层次深度特征融合的摄像机网络行人识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610524455.2A CN106203318B (zh) | 2016-06-29 | 2016-06-29 | 基于多层次深度特征融合的摄像机网络行人识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106203318A CN106203318A (zh) | 2016-12-07 |
CN106203318B true CN106203318B (zh) | 2019-06-11 |
Family
ID=57464799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610524455.2A Active CN106203318B (zh) | 2016-06-29 | 2016-06-29 | 基于多层次深度特征融合的摄像机网络行人识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106203318B (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106504190B (zh) * | 2016-12-29 | 2019-09-13 | 浙江工商大学 | 一种基于3d卷积神经网络的立体视频生成方法 |
CN106991668B (zh) * | 2017-03-09 | 2020-08-18 | 南京邮电大学 | 一种天网摄像头拍摄画面的评价方法 |
CN106951872B (zh) * | 2017-03-24 | 2020-11-06 | 江苏大学 | 一种基于无监督深度模型与层次属性的行人再识别方法 |
CN108230291B (zh) * | 2017-03-30 | 2020-09-29 | 北京市商汤科技开发有限公司 | 物体识别系统训练方法、物体识别方法、装置和电子设备 |
CN107330463B (zh) * | 2017-06-29 | 2020-12-08 | 南京信息工程大学 | 基于cnn多特征联合和多核稀疏表示的车型识别方法 |
CN107578091B (zh) * | 2017-08-30 | 2021-02-05 | 电子科技大学 | 一种基于轻量级深度网络的行人车辆实时检测方法 |
CN107506740B (zh) * | 2017-09-04 | 2020-03-17 | 北京航空航天大学 | 一种基于三维卷积神经网络和迁移学习模型的人体行为识别方法 |
CN110019983B (zh) * | 2017-12-14 | 2021-06-04 | 北京三快在线科技有限公司 | 标签结构的扩展方法、装置及电子设备 |
CN108229588B (zh) * | 2018-02-08 | 2020-04-07 | 重庆师范大学 | 一种基于深度学习的机器学习识别方法 |
CN110443266B (zh) * | 2018-05-04 | 2022-06-24 | 上海商汤智能科技有限公司 | 对象预测方法及装置、电子设备和存储介质 |
CN109002761A (zh) * | 2018-06-13 | 2018-12-14 | 中山大学新华学院 | 一种基于深度卷积神经网络的行人重识别监控系统 |
CN108830236A (zh) * | 2018-06-21 | 2018-11-16 | 电子科技大学 | 一种基于深度特征的行人重识别方法 |
CN109214346B (zh) * | 2018-09-18 | 2022-03-29 | 中山大学 | 基于层次信息传递的图片人体动作识别方法 |
CN109460787B (zh) * | 2018-10-26 | 2020-08-18 | 北京交通大学 | 入侵检测模型建立方法、装置及数据处理设备 |
CN109508663B (zh) * | 2018-10-31 | 2021-07-13 | 上海交通大学 | 一种基于多层次监督网络的行人重识别方法 |
CN111310520B (zh) * | 2018-12-11 | 2023-11-21 | 阿里巴巴集团控股有限公司 | 菜品识别方法、收银方法、菜品催单方法及相关装置 |
CN109858305A (zh) * | 2019-01-17 | 2019-06-07 | 柳州康云互联科技有限公司 | 一种基于深度学习的二维码定位识别系统及方法 |
CN110399796A (zh) * | 2019-09-02 | 2019-11-01 | 国网上海市电力公司 | 一种基于改进深度学习算法的电能质量扰动识别方法 |
CN111461169B (zh) * | 2020-03-04 | 2023-04-07 | 浙江工商大学 | 基于正反卷积和多层分支深度网络的行人属性识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104063719A (zh) * | 2014-06-27 | 2014-09-24 | 深圳市赛为智能股份有限公司 | 基于深度卷积网络的行人检测方法及装置 |
CN104616032A (zh) * | 2015-01-30 | 2015-05-13 | 浙江工商大学 | 基于深度卷积神经网络的多摄像机系统目标匹配方法 |
CN104992142A (zh) * | 2015-06-03 | 2015-10-21 | 江苏大学 | 一种基于深度学习和属性学习相结合的行人识别方法 |
CN105631415A (zh) * | 2015-12-25 | 2016-06-01 | 中通服公众信息产业股份有限公司 | 一种基于卷积神经网络的视频行人识别方法 |
-
2016
- 2016-06-29 CN CN201610524455.2A patent/CN106203318B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104063719A (zh) * | 2014-06-27 | 2014-09-24 | 深圳市赛为智能股份有限公司 | 基于深度卷积网络的行人检测方法及装置 |
CN104616032A (zh) * | 2015-01-30 | 2015-05-13 | 浙江工商大学 | 基于深度卷积神经网络的多摄像机系统目标匹配方法 |
CN104992142A (zh) * | 2015-06-03 | 2015-10-21 | 江苏大学 | 一种基于深度学习和属性学习相结合的行人识别方法 |
CN105631415A (zh) * | 2015-12-25 | 2016-06-01 | 中通服公众信息产业股份有限公司 | 一种基于卷积神经网络的视频行人识别方法 |
Non-Patent Citations (2)
Title |
---|
Deep Learning Strong Parts for Pedestrian Detection;Yonglong Tian et al;《 2015 IEEE International Conference on Computer Vision (ICCV)》;20151213;1904-1912 * |
Pedestrian detection based on deep convolutional neural network with ensemble inference network;Hiroshi Fukui et al;《2015 IEEE Intelligent Vehicles Symposium (IV)》;20150701;1-6 * |
Also Published As
Publication number | Publication date |
---|---|
CN106203318A (zh) | 2016-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106203318B (zh) | 基于多层次深度特征融合的摄像机网络行人识别方法 | |
Jain et al. | Hybrid deep neural networks for face emotion recognition | |
Dong et al. | Automatic age estimation based on deep learning algorithm | |
Nia et al. | Building damage assessment using deep learning and ground-level image data | |
CN109002834B (zh) | 基于多模态表征的细粒度图像分类方法 | |
CN110163236A (zh) | 模型的训练方法和装置、存储介质、电子装置 | |
CN109034044A (zh) | 一种基于融合卷积神经网络的行人再识别方法 | |
CN110135295A (zh) | 一种基于迁移学习的无监督行人重识别方法 | |
CN104077447B (zh) | 基于纸质平面数据的城市三维空间矢量建模方法 | |
CN114912612A (zh) | 鸟类识别方法、装置、计算机设备及存储介质 | |
CN106529499A (zh) | 基于傅里叶描述子和步态能量图融合特征的步态识别方法 | |
CN108427740B (zh) | 一种基于深度度量学习的图像情感分类与检索算法 | |
CN107636691A (zh) | 用于识别图像中的文本的方法和设备 | |
CN111832573B (zh) | 一种基于类激活映射和视觉显著性的图像情感分类方法 | |
CN110619059B (zh) | 一种基于迁移学习的建筑物标定方法 | |
Xu et al. | Research on ResNet101 network chemical reagent label image classification based on transfer learning | |
CN108416295A (zh) | 一种基于局部嵌入深度特征的行人再识别方法 | |
Ajagbe et al. | Investigating the efficiency of deep learning models in bioinspired object detection | |
CN113761259A (zh) | 一种图像处理方法、装置以及计算机设备 | |
Huang et al. | Research on urban modern architectural art based on artificial intelligence and GIS image recognition system | |
Wang et al. | Quantifying legibility of indoor spaces using Deep Convolutional Neural Networks: Case studies in train stations | |
CN108154156A (zh) | 基于神经主题模型的图像集成分类方法及装置 | |
Setialana et al. | Intelligent attendance system with face recognition using the deep convolutional neural network method | |
CN116310647A (zh) | 一种基于增量学习的劳保物品目标检测方法及系统 | |
CN114782752A (zh) | 基于自训练的小样本图像集成分类方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20190226 Address after: 310018 18 learning street, Xiasha Higher Education Park, Hangzhou, Zhejiang Applicant after: Zhejiang Gongshang University Applicant after: Zhejiang Uniview Technology Co., Ltd. Address before: 310018 18 learning street, Xiasha Higher Education Park, Hangzhou, Zhejiang Applicant before: Zhejiang Gongshang University |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |