CN114202740A - 一种基于多尺度特征融合的行人重识别方法 - Google Patents

一种基于多尺度特征融合的行人重识别方法 Download PDF

Info

Publication number
CN114202740A
CN114202740A CN202111483359.5A CN202111483359A CN114202740A CN 114202740 A CN114202740 A CN 114202740A CN 202111483359 A CN202111483359 A CN 202111483359A CN 114202740 A CN114202740 A CN 114202740A
Authority
CN
China
Prior art keywords
features
feature
scale
fusion
expressed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111483359.5A
Other languages
English (en)
Inventor
张国文
戚金清
王一帆
卢湖川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Weishi Technology Co ltd
Dalian University of Technology
Ningbo Research Institute of Dalian University of Technology
Original Assignee
Dalian Weishi Technology Co ltd
Ningbo Research Institute of Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Weishi Technology Co ltd, Ningbo Research Institute of Dalian University of Technology filed Critical Dalian Weishi Technology Co ltd
Priority to CN202111483359.5A priority Critical patent/CN114202740A/zh
Publication of CN114202740A publication Critical patent/CN114202740A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

一种基于多尺度特征融合的行人重识别方法,1)构建基于多尺度融合的模型,并预训练主干网络暨多尺度特征提取器。2)利用多尺度特征提取器生成图像的多尺度特征。3)采用基于Transformer的特征校准模型融合两个不同尺度的特征。4)利用深监督融合从浅层特征到深层特征不断融合不同层级的特征。5)用交叉熵损失和三元组损失监督融合过程。6)将目标测试集图像输入训练好的模型提取特征,根据特征相似度进行排序得到行人重识别的结果,进而实现行人重识别。本发明采用卷积神经网络提取多尺度特征,使用Transformer从全局的角度融合多尺度信息,使得特征同时具有细节和语义信息,有效的提高了行人重识别的准确率。

Description

一种基于多尺度特征融合的行人重识别方法
技术领域
本发明属于图像识别领域,尤其涉及图像检索中特定行人的行人重识别方法。
背景技术
行人重识别(Person Re-identification)旨在从不同摄像机视角,不同时间下采集的参考图像集中检索相同的行人。行人重识别在公共安全,智能视频监控,维护社会治安等方面发挥着重要的作用。姿态,服装,背景,遮挡,光照等人体属性和环境因素的变化导致行人的外观在不同摄像机下存在差异。
随着深度学习技术的发展,卷积神经网络能够在行人重识别任务中取得很好的性能。然而,卷积神经网络由于受限于卷积核的大小,导致网络无法从全局的角度来提取行人的特征。此外,Transformers技术在处理空间和时序信息上有着比卷积神经网络更强的能力,但是Transformers缺少像卷积神经网络的一些特性,如位移,缩放,平移不变性和层次结构。因此,当前亟待提出一种能够融合卷积神经网络和Transformers各自优点的行人重识别方法。
此外,在计算机视觉领域中先前的一些工作证明了融合卷积神经网络的多尺度信息可以带来性能的提升。卷积神经网络浅层的特征包含丰富的细节信息(如纹理,颜色信息)和较少的语义信息(如人的身份信息),而深层的特征包含更多语义信息和较少的细节信息。在一些计算机视觉的框架中,合理的利用和融合深层和浅层的信息可以为算法带来很大的性能提升。但是行人重识别是一个需要丰富语义信息的特征的任务,简单的融合多尺度的特征会导致算法性能的下降,所以需要找到一种既能保证语义信息,又能补充细节信息的融合方法,以提升算法的表征能力。
发明内容
为解决上述现有技术的缺陷,本发明提供一种行人重识别的方法,其可以融合多尺度的信息,使得网络提取的特征包含足够的语义信息和细节信息。不仅如此,该发明采用卷积神经网络提取多层级特征,使用Transformers来融合多层级特征,进一步增强了网络的表征能力。
本发明的目的可以通过采取如下技术方案达到:
步骤一:多尺度特征提取器:
卷积神经网络作为特征提取的方法广泛应用于计算机视觉的多个领域,包括图像分类,目标检测等,卷积神经网络提供了图像多尺度的特征。本发明采用卷积神经网络来提取多尺度的特征。我们的主干网络采用ResNet网络,将ResNet在ImageNet数据集上进行预训练,使得网络获得理想的初始化参数。
定义多尺度特征提取器输出的第s级特征为
Figure BDA0003395711340000021
其中Cs表示该层级特征的通道数,Hs,Ws表示特征的高和宽,我们使用ResNet网络的conv2,conv3,conv4,conv5的输出作为要被融合的特征。
步骤二:基于Transformers的特征校准:
卷积神经网络虽然具有平移不变性等特性,但是由于卷积核大小的限制,卷积神经网络无法从全局的角度校准特征,因此我们提出了基于Transformers的特征校准方法(Transformer-based Feature Calibration,简称为TFC)。本方法旨在从全局的角度来融合当前层级和上一层级的特征,在保证语义信息完整的前提下增加特征中的细节信息。
根据步骤1,我们可以得到不同层级输出的特征。该方法插入到每个需要被融合的层级特征之后,其以特征提取器输出的当前层级特征Xs和上一层级经过该方法融合后的特征
Figure BDA0003395711340000022
作为输入,通过瓶颈层和尺度变换将Xs和Zs-1调整到同一尺寸(长为H,宽为W)。为了融合当前和上一层级的特征,我们将级联后的特征
Figure BDA0003395711340000031
送入到Transformers中。
Transformers以像素块的序列作为输入,因此我们将输入Zs通过扁平化从三维转换为二维特征
Figure BDA0003395711340000032
其中N=(H×W)/P2,Cp=(Cs+Cs-1)×P2,P为像素块的分辨率大小,本发明中设置为1,此外本发明在序列的最前端加入类别元(class token)来作为图像信息的表征,同时每一个像素块与一个可学习的位置编码向量相加,最终得到输入的序列
Figure BDA0003395711340000033
Transformer模块包含多头自注意力层(Multi-head self-attention layer,简称为MSA),前向传播网络(Feed-forward network,简称为FFN),归一化层和残差连接。输入的特征
Figure BDA0003395711340000034
首先被输入到多头自注意力层中,在每一个头中,三个独立的线性映射层将特征
Figure BDA0003395711340000035
映射成query,key,value三个特征矩阵
Figure BDA0003395711340000036
其中
Figure BDA0003395711340000037
其中Nh是多头注意力层中头的数目,Cp为特征通道数。自注意力权重向量基于query和key之间的关联关系计算得到,本发明使用softmax函数对自注意力权重归一化。多头注意力最终的输出为V和注意力的权重的乘积,计算公式表示为:
Figure BDA0003395711340000038
然后本发明将多头自注意力层的输出的特征和输入的特征
Figure BDA0003395711340000039
通过残差连接,并输入到归一化层(LayerNormalization)之中,计算公式表示为:
Figure BDA00033957113400000310
接着将特征送入到前向传播网络之中,前向传播网络包含两个线性层和GELU激活函数。计算公式表示为:
Figure BDA00033957113400000311
Figure BDA00033957113400000312
其中W1,W2是全连接层的参数,σ表示GELU激活函数。
由于Transformers缺少对局部信息的加强,本发明将Transformers的输出(不包括类别元)重塑为三维特征,并使用近邻调整模块(由卷积层组成)来增强局部信息。同时为了保证融合后特征语义信息不减少,我们使用三元组损失函数和交叉熵损失函数来对类别元监督。
紧邻调整模块可以表示为:
Figure BDA0003395711340000041
其中Conv表示为卷积层,Reshape表示为重塑操作。
步骤三:深监督融合:
深监督融合(Deep Supervised Aggregation,简称为DSA)遵循多尺度提取器的层级堆叠,基于融合浅层和深层特征会导致语义信息减少这一发现,本发明通过多粒度监督逐步融合和优化表征。
深监督融合从具有更多细节信息与较少语义信息的浅层特征开始,反复融合具有更多语义信息和更少细节信息的深层特征。此外,为了保证融合后特征中语义信息的完整,我们使用辅助损失函数(三元组损失和交叉熵损失)来监督融合的过程,计算公式可以表示为:
Figure BDA0003395711340000042
其中,Concat表示级联操作。
本发明的有益效果:本发明基于多尺度特征融合的方法提取行人特征,将浅层的信息作为深层信息的全局先验信息,使得特征可以关注到一些细节的信息,有效的提高了行人重识别的准确率。此外,本发明使用卷积神经网络提取多尺度信息,使用Transformers来融合特征,使得网络同时具有卷积神经网络和Transformers的优点。
附图说明
图1是行人重识别整体流程示意图。
图2是行人重识别模型结构框。
图3是基于Transformer的特征校准模型的结构图。
具体实施方式
为了更好的解释本公开,以便于理解,下面结合附图,通过具体实施方式,对本公开做详细描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获的的其他所有实施例,都属于本发明保护的范围。
S1:构建基于多尺度融合的深度学习网络,并在ImageNet上预训练多尺度特征提取器ResNet50。对于得到conv2,conv3,conv4,conv5层级输出的多尺度特征X1,X2,X3,X4。设置输入图像的大小位256×128×3,则不同层级输出的特征图为X1∈R256×64×32,X2∈R512 ×32×16,X3∈R1024×16×8,X4∈R2048×8×4
S2:不同层级的多尺度特征X1,X2,X3,X4分别经过瓶颈层(由具有1×1,3×3,1×1的卷积核大小的三层卷积层组成)和尺度变换层(池化层或者双线性插值),最终将所有尺度的特征变换到统一分辨率,如附图2所示。在本实施例中将所有特征图分辨率变换到16×8的大小,则得到
Figure BDA0003395711340000051
S3:从最浅层的特征X1开始,特征X1经过扁平化得到X1∈R128×256,加入类别元后得到特征X1∈R129×256,再与位置编码相加,然后经过公式(1)-(4)的处理后,再将得到的序列通过重塑变回输入时的尺寸,然后经过近邻调整模块得到输出Z1,近邻模块由三层卷积核、大小分别为1×1、3×3、1×1的卷积层组成,如附图3所示。同时对于当前层级的类别元使用辅助函数(三元组损失和交叉熵损失)进行监督,辅助损失函数的权重设置为λ1
其中三元组损失函数表示为:
Figure BDA0003395711340000061
其中dpos表示为正样本对之间的欧式距离,dneg表示为负样本对之间的欧式距离,m表示为距离常数,[d]+表示为d与0之间取最大值。
交叉熵损失函数可以表示为:
Figure BDA0003395711340000062
其中pi表示为预测样本属于类别i的概率,qi表示样本的真实标签。
辅助函数可以表示为:
Figure BDA0003395711340000063
S4:将得到的特征Z1与X2级联,并经过同S3中处理特征X1相同的方式处理,得到输出特征Z2,该过程中辅助损失函数的权重设置为λ2
S5:对后面所有层级特征采取相同操作,该过程可以表示为公式(6)。
S6:我们使用交叉熵损失和三元组损失共同监督多尺度特征提取器和深监督特征融合的过程,如附图2所示。所以网络的整体损失函数可以表示为:
Figure BDA0003395711340000064
其中nal表示为融合模块的数量
S7:将目标测试集图片输入到训练好的模型提取器,多尺度特征提取器conv5输出的特征和深度融合模型输出的特征Z4经过全局平均池化后级联在一起,求两个向量的相似度,采用欧式距离。然后根据特征的相似度进行排序得到行人重识别结果,进而实现行人重识别。

Claims (1)

1.一种基于多尺度特征融合的行人重识别方法,其特征在于,包括如下步骤:
S1.构建基于多尺度融合的模型,并预训练主干网络即多尺度特征提取器;
采用卷积神经网络来提取多尺度的特征,主干网络采用ResNet网络,将ResNet在ImageNet数据集上进行预训练,使得卷积神经网络获得理想的初始化参数;
多尺度特征提取器输出的第s级特征为
Figure FDA0003395711330000011
其中Cs表示该层级特征的通道数,Hs,Ws表示该层级特征的高和宽;使用ResNet网络的conv2,conv3,conv4,conv5的输出作为待被融合的特征;
S2.采用基于Transformer的特征校准模型融合两个不同尺度的特征;
将特征校准模型插入到每个待被融合的层级特征之后,以多尺度特征提取器输出的当前层级特征Xs和上一层级经过融合后的特征
Figure FDA0003395711330000012
作为输入,通过瓶颈层和尺度变换将Xs和Zs-1调整到同一尺寸;将前一层级特征Xs和上一层级经过融合后的特征Zs-1级联,级联后的特征
Figure FDA0003395711330000013
送入到基于Transformers的特征校准模型中;基于Transformers的特征校准模型以像素块的序列作为输入,因此将输入的特征Zs通过扁平化从三维转换为二维特征
Figure FDA0003395711330000014
其中,N=(H×W)/P2,Cp=(Cs+Cs-1)×P2,P为像素块的分辨率大小,设置为1,此外在序列的最前端加入类别元来作为图像信息的表征,同时每一个像素块与一个可学习的位置编码向量相加,最终得到输入的序列
Figure FDA0003395711330000015
基于Transformers的特征校准模型包含多头自注意力层、前向传播网络、归一化层和残差连接;输入的特征
Figure FDA0003395711330000016
首先被输入到多头自注意力层中,在每一个头中,三个独立的线性映射层将特征
Figure FDA0003395711330000017
映射成query,key,value三个特征矩阵
Figure FDA0003395711330000018
其中
Figure FDA0003395711330000019
其中Nh是多头注意力层中头的数目,Cp为特征通道数;自注意力权重向量基于query和key之间的关联关系计算得到;多头自注意力层最终的输出为V和注意力的权重的乘积,计算公式表示为:
Figure FDA0003395711330000021
然后将多头自注意力层输出的特征和输入的特征
Figure FDA0003395711330000022
通过残差连接,并输入到归一化层中,计算公式表示为:
Figure FDA0003395711330000023
接着将特征送入到前向传播网络之中,前向传播网络包含两个线性层和GELU激活函数,计算公式表示为:
Figure FDA0003395711330000024
Figure FDA0003395711330000025
其中,W1,W2是全连接层的参数,σ表示GELU激活函数;
将得到的序列通过重塑变回输入时的尺寸,然后经过近邻调整模块得到输出Zs,同时对于当前层级的类别元使用辅助函数进行监督,辅助损失函数的权重设置为λ1,辅助函数包括三元组损失和交叉熵损失;
其中三元组损失函数表示为:
Figure FDA0003395711330000026
其中,dpos表示为正样本对之间的欧式距离,dneg表示为负样本对之间的欧式距离,m表示为距离常数,[d]+表示为d与0之间取最大值;
交叉熵损失函数表示为:
Figure FDA0003395711330000027
其中,pi表示为预测样本属于类别i的概率,qi表示样本的真实标签;
辅助函数表示为:
Figure FDA0003395711330000028
S3.用深监督融合从浅层特征到深层特征迭代融合不同层级的特征,并用交叉熵损失和三元组损失监督融合过程;
深监督融合从具有更多细节信息与较少语义信息的浅层特征开始,反复融合具有更多语义信息和更少细节信息的深层特征;此外,为了保证融合后特征中语义信息的完整,使用辅助损失函数来监督融合的过程,计算公式表示为:
Figure FDA0003395711330000031
使用交叉熵损失和三元组损失共同监督多尺度特征提取器和深监督特征融合的过程,所以网络的整体损失函数表示为:
Figure FDA0003395711330000032
其中,nal表示为融合模块的数量;
S5.对多尺度特征提取器和深监督融合输出特征进行全局平均池化并串联;
S6.将目标测试集图像输入训练好的模型提取特征,根据特征相似度进行排序得到行人重识别的结果,进而实现行人重识别;
将目标测试集图像输入到训练好的模型,对多尺度特征提取器conv5输出的特征和深监督融合模型输出的特征进行全局平均池化并串联,根据欧式距离计算特征之间的相似度,然后根据特征的相似度进行排序得到行人重识别结果,进而实现行人重识别。
CN202111483359.5A 2021-12-07 2021-12-07 一种基于多尺度特征融合的行人重识别方法 Pending CN114202740A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111483359.5A CN114202740A (zh) 2021-12-07 2021-12-07 一种基于多尺度特征融合的行人重识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111483359.5A CN114202740A (zh) 2021-12-07 2021-12-07 一种基于多尺度特征融合的行人重识别方法

Publications (1)

Publication Number Publication Date
CN114202740A true CN114202740A (zh) 2022-03-18

Family

ID=80651041

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111483359.5A Pending CN114202740A (zh) 2021-12-07 2021-12-07 一种基于多尺度特征融合的行人重识别方法

Country Status (1)

Country Link
CN (1) CN114202740A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115169673A (zh) * 2022-07-01 2022-10-11 扬州大学 一种智慧校园疫情风险监测与预警系统及方法
CN115393953A (zh) * 2022-07-28 2022-11-25 深圳职业技术学院 基于异构网络特征交互的行人重识别方法、装置及设备
CN115406815A (zh) * 2022-11-02 2022-11-29 杭州华得森生物技术有限公司 基于多源数据融合的肿瘤细胞检测设备及其方法
CN115631513A (zh) * 2022-11-10 2023-01-20 杭州电子科技大学 基于Transformer的多尺度行人重识别方法
CN116311387A (zh) * 2023-05-25 2023-06-23 浙江工业大学 一种基于特征交集的跨模态行人重识别方法
CN116912518A (zh) * 2023-09-12 2023-10-20 深圳须弥云图空间科技有限公司 图像的多尺度特征处理方法及装置
WO2024093466A1 (zh) * 2023-07-14 2024-05-10 西北工业大学 一种基于模型结构自主进化的行人图像重识别方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115169673A (zh) * 2022-07-01 2022-10-11 扬州大学 一种智慧校园疫情风险监测与预警系统及方法
CN115393953A (zh) * 2022-07-28 2022-11-25 深圳职业技术学院 基于异构网络特征交互的行人重识别方法、装置及设备
CN115393953B (zh) * 2022-07-28 2023-08-08 深圳职业技术学院 基于异构网络特征交互的行人重识别方法、装置及设备
CN115406815A (zh) * 2022-11-02 2022-11-29 杭州华得森生物技术有限公司 基于多源数据融合的肿瘤细胞检测设备及其方法
CN115631513A (zh) * 2022-11-10 2023-01-20 杭州电子科技大学 基于Transformer的多尺度行人重识别方法
CN115631513B (zh) * 2022-11-10 2023-07-11 杭州电子科技大学 基于Transformer的多尺度行人重识别方法
CN116311387A (zh) * 2023-05-25 2023-06-23 浙江工业大学 一种基于特征交集的跨模态行人重识别方法
CN116311387B (zh) * 2023-05-25 2023-09-01 浙江工业大学 一种基于特征交集的跨模态行人重识别方法
WO2024093466A1 (zh) * 2023-07-14 2024-05-10 西北工业大学 一种基于模型结构自主进化的行人图像重识别方法
CN116912518A (zh) * 2023-09-12 2023-10-20 深圳须弥云图空间科技有限公司 图像的多尺度特征处理方法及装置
CN116912518B (zh) * 2023-09-12 2024-01-05 深圳须弥云图空间科技有限公司 图像的多尺度特征处理方法及装置

Similar Documents

Publication Publication Date Title
CN114202740A (zh) 一种基于多尺度特征融合的行人重识别方法
CN112801015B (zh) 一种基于注意力机制的多模态人脸识别方法
CN111639692A (zh) 一种基于注意力机制的阴影检测方法
CN113642634A (zh) 一种基于混合注意力的阴影检测方法
CN114255238A (zh) 一种融合图像特征的三维点云场景分割方法及系统
CN111639544A (zh) 基于多分支跨连接卷积神经网络的表情识别方法
CN115496928B (zh) 基于多重特征匹配的多模态图像特征匹配方法
Liu et al. Action recognition based on 3d skeleton and rgb frame fusion
CN112766186B (zh) 一种基于多任务学习的实时人脸检测及头部姿态估计方法
Haque et al. Two-handed bangla sign language recognition using principal component analysis (PCA) and KNN algorithm
CN112183240B (zh) 一种基于3d时间流和并行空间流的双流卷积行为识别方法
CN112232184B (zh) 一种基于深度学习和空间转换网络的多角度人脸识别方法
CN108537196B (zh) 基于运动历史点云生成的时空分布图的人体行为识别方法
Estrela et al. Sign language recognition using partial least squares and RGB-D information
CN111242181A (zh) 基于图像语义和细节的rgb-d显著性物体检测器
CN113361493B (zh) 一种对不同图像分辨率鲁棒的人脸表情识别方法
CN110111365B (zh) 基于深度学习的训练方法和装置以及目标跟踪方法和装置
CN111401116A (zh) 基于增强卷积和空时lstm网络的双模态情感识别方法
CN112016592B (zh) 基于交叉领域类别感知的领域适应语义分割方法及装置
CN117373062A (zh) 一种基于联合学习的实时端到端跨分辨率行人重识别方法
Ameur et al. Unconstrained face verification based on monogenic binary pattern and convolutional neural network
CN115147932A (zh) 一种基于深度学习的静态手势识别方法及系统
CN115273046A (zh) 一种用于智能视频分析的驾驶员行为识别方法
CN114926900A (zh) 一种前背景分离的人体动作在线检测方法
CN111898671B (zh) 激光成像仪和彩色相机编码融合目标识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20220815

Address after: 116024 No. 2 Ling Road, Ganjingzi District, Liaoning, Dalian

Applicant after: DALIAN University OF TECHNOLOGY

Applicant after: Ningbo Research Institute of Dalian University of Technology

Applicant after: Dalian Weishi Technology Co.,Ltd.

Address before: 315016 No. 23, Yucai Road, Jiangbei District, Ningbo City, Zhejiang Province

Applicant before: Ningbo Research Institute of Dalian University of Technology

Applicant before: Dalian Weishi Technology Co.,Ltd.

CB02 Change of applicant information
CB02 Change of applicant information

Address after: No.26 Yucai Road, Jiangbei District, Ningbo City, Zhejiang Province

Applicant after: Ningbo Research Institute of Dalian University of Technology

Applicant after: Dalian Weishi Technology Co.,Ltd.

Applicant after: DALIAN University OF TECHNOLOGY

Address before: 116024 No. 2 Ling Road, Ganjingzi District, Liaoning, Dalian

Applicant before: DALIAN University OF TECHNOLOGY

Applicant before: Ningbo Research Institute of Dalian University of Technology

Applicant before: Dalian Weishi Technology Co.,Ltd.