CN109389621A - 基于多模式深度特征融合的rgb-d目标跟踪方法 - Google Patents

基于多模式深度特征融合的rgb-d目标跟踪方法 Download PDF

Info

Publication number
CN109389621A
CN109389621A CN201811054223.0A CN201811054223A CN109389621A CN 109389621 A CN109389621 A CN 109389621A CN 201811054223 A CN201811054223 A CN 201811054223A CN 109389621 A CN109389621 A CN 109389621A
Authority
CN
China
Prior art keywords
depth
rgb
mode
fusion
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811054223.0A
Other languages
English (en)
Other versions
CN109389621B (zh
Inventor
姜明新
荣康
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dragon Totem Technology Hefei Co ltd
Shanghai Mingyang Marine Engineering Co.,Ltd.
Original Assignee
Huaiyin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huaiyin Institute of Technology filed Critical Huaiyin Institute of Technology
Priority to CN201811054223.0A priority Critical patent/CN109389621B/zh
Publication of CN109389621A publication Critical patent/CN109389621A/zh
Application granted granted Critical
Publication of CN109389621B publication Critical patent/CN109389621B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于多模式深度特征融合的RGB‑D目标跟踪方法,它将Depth图像编码为深度、高度和角度三个通道,利用基于Depth模式的CNN网络提取其多层深度特征;利用基于RGB模式的CNN网络提取RGB图像的多层深度特征;将基于Depth模式的和基于RGB模式的CNN网络的底层输出特征输入到RGB和Depth相关计算的CNN提取相关特征;计算RGB图像序列光流图,将光流图输入到基于运动模式的CNN网络中提取深度特征。将上述各种模式下的深度特征输入到深度特征融合模块中,将模块的输出送入C‑COT跟踪器中,完成目标跟踪。本方法与现有技术相比,既提取了RGB、Depth模式的各自的特征,又提取了两种模式的相关特征,还提取了视频中帧与帧之间的动态特征,有效提高了视频目标跟踪的准确性和鲁棒性。

Description

基于多模式深度特征融合的RGB-D目标跟踪方法
技术领域
本发明涉及RGB-D目标跟踪方法,特别涉及一种多模式深度特征融合的RGB-D目标跟踪方法。
背景技术
近年来,视频目标跟踪作为计算机视觉领域的一个热点问题,在很多应用领域扮演着重要的角色,比如:增强现实、自动驾驶、智能视频监控、机器人导航等。随着RGB-D传感器的普及,我们可以获取目标更加准确的深度(Depth)信息,将RGB模式和深度模式信息相融合,将会在很大程度上提高视频目标跟踪的性能。但是目前已有的RGB-D视频目标跟踪算法仅考虑如何提取RGB和Depth模式的特征,没有考虑RGB和Depth模式之间的相关性,以及视频帧与帧间的动态信息,这会导致它们存在一定的局限性,特别对于复杂运动的目标,跟踪的准确性和鲁棒性较差。
发明内容
发明目的:本发明要解决的技术问题是提供一种RGB-D目标跟踪方法,这种方法能够提取RGB、Depth和光流图三种模式下的特征利用深度学习方法进行融合,克服现有方法鲁棒性不够强、准确性不够高的技术缺点。
技术方案:本发明所述的一种基于多模式深度特征融合的RGB-D目标跟踪方法,包括以下步骤:
(1)将Depth图像编码为三个通道:物体的深度、高度和角度,获取目标的几何信息,然后在VGG-16网络的基础上,利用基于Depth模式的CNN网络提取其特征进行融合,融合后提取的输出特征进入深度特征融合模块。
(2)在VGG-16网络的基础上,利用基于RGB模式的CNN网络提取RGB图像的卷积特征进行融合,融合后提取的输出特征进入深度特征融合模块。
(3)将步骤(1)中基于Depth模式的CNN网络的输出特征和步骤(2)中基于RGB模式的CNN网络的输出特征,输入到RGB和Depth相关计算的CNN中,融合后提取的输出特征进入深度特征融合模块。
(4)通过RGB图像序列计算其光流图,将光流图输入到基于运动模式的CNN网络中,融合后提取的输出特征进入深度特征融合模块。
(5)将深度特征融合模块的输出,送入C-COT跟踪器中,完成目标跟踪。
为了达到更好性能,步骤(1)中所述的基于Depth模式的CNN网络和步骤(2)中所述基于RGB模式的CNN网络包含5个池化层,分别为Conv1_2、Conv2_2、Conv3_3、Conv4_3、Conv5_3。
为了进一步融合底层和高层特征,提高目标跟踪的准确性和鲁棒性,步骤(1)中所述的基于Depth模式的CNN网络和步骤(2)中所述的基于RGB模式的CNN网络的输出特征为Conv3_3和Conv5_3输出的特征。
为了达到更好性能,步骤(3)中所述的RGB和Depth相关计算的CNN包含3个池化层,分别为Conv3_3、Conv4_3、Conv5_3,输入RGB和Depth相关计算的CNN的特征为基于Depth模式的CNN网络的输出特征Conv2_2和基于RGB模式的CNN网络输出特征Conv2_2,输出到深度特征融合模块的特征为Conv5_3。
为了达到更好性能,步骤(4)中所述的基于运动模式的CNN网络包含5个池化层,分别为Conv1_2、Conv2_2、Conv3_3、Conv4_3、Conv5_3,输出到深度特征融合模块的特征为Conv5_3。
作为一种实现方式,所述的深度特征融合模块可以按照下述公式实现融合:
其中,为基于RGB模式的CNN网络Conv3_3输出的深度特征,为conv5_3输出的深度特征,为基于Depth模式的CNN网络Conv3_3输出的深度特征,为conv5_3输出的深度特征,为RGB和Depth相关计算的CNN的conv5_3输出的深度特征,为基于运动模式的CNN网络的conv5_3输出的深度特征。
为了更易于实现,步骤(1)中Depth图像编码技术为HHA编码技术。
有益效果:本方法与现有技术相比,既提取了RGB、Depth模式的各自的特征,又提取了两种模式的相关特征,还提取了视频中帧与帧之间的动态特征,有效提高了视频目标跟踪的准确性和鲁棒性。
附图说明
图1是本发明方法的系统框图;
图2是基于BTB数据库中测试视频的跟踪对比结果图;
图3是基于PTB数据库中测试视频的跟踪对比结果图;;
图4是基于PTB数据库的SR对比结果;
图5是基于BTB数据库的AUC对比结果。
具体实施方式
如图1所示,本发明方法流程包括:
(1)将Depth图像编码为三个通道:物体的深度、高度和角度,获取目标的几何信息,实现这一目的可以采用HHA编码技术也可以采用其他编码手段实现。然后在VGG-16网络的基础上,利用基于Depth模式的CNN网络提取其多层特征进行融合,此CNN网络包含5个池化层,分别为Conv1_2、Conv2_2、Conv3_3、Conv4_3、Conv5_3,选取Conv3_3和Conv5_3作为输出特征,进入深度特征融合模块。选取conv3_3和conv5_3作为输出特征,是因为conv3_3属于底层卷积层,提取的特征有利于区分目标和背景,conv5_3属于高层卷积层,提取出的特征有利于区分同类目标之间的不同。融合底层和高层特征有助于提高本方法目标跟踪的准确性和鲁棒性。
(2)在VGG-16网络的基础上,利用基于RGB模式的CNN网络提取RGB图像的卷积特征进行融合,此CNN网络同样包含5个池化层,分别为Conv1_2、Conv2_2、Conv3_3、Conv4_3、Conv5_3,选取Conv3_3和Conv5_3作为输出特征,进入深度特征融合模块。
(3)将步骤(1)中基于Depth模式的CNN网络的输出特征Conv2_2和步骤(2)中基于RGB模式的CNN网络的输出特征Conv2_2,共同输入到RGB和Depth相关计算的CNN中,通过这个CNN的3个池化层Conv3_3、Conv4_3、Conv5_3来学习RGB和Depth模式的相关特征,融合后提取的输出特征进入深度特征融合模块。
(4)通过RGB图像序列计算其光流图,将光流图输入到基于运动模式的CNN网络中,此CNN网络也包含5个池化层Conv1_2、Conv2_2、Conv3_3、Conv4_3、Conv5_3,融合后将提取出来的运动特征进入深度特征融合模块。
(5)将深度特征融合模块的输出,送入C-COT跟踪器中,完成目标跟踪。
所述的深度特征融合模块按照下述公式实现融合:
其中,为基于RGB模式的CNN网络Conv3_3输出的深度特征,为conv5_3输出的深度特征,为基于Depth模式的CNN网络Conv3_3输出的深度特征,为conv5_3输出的深度特征,为RGB和Depth相关计算的CNN的conv5_3输出的深度特征,为基于运动模式的CNN网络的conv5_3输出的深度特征。
为了验证本实施例的实验效果,采用Windows 10操作系统,用MATLAB R2015a作为软件平台.计算机的主要配置为Intel(R)Core(TM)i7-4712MQ CPU@3.40GHz(with16Gmemory),带有TITAN GPU(12.00GB memory)。选用两种大型数据库对实验进行验证,一种是普林斯顿大学的RGB-D跟踪数据库PTB Dataset,另外一种是伯明翰大学RGB-D跟踪数据库BTB Dataset。为了直观的看出深度depth特征和深度运动特征对RGB-D跟踪方法的影响,在图2和图3中列举部分基于BTB和PTB数据库的实验结果,其中,仅用RGB特征的跟踪框用1表示,用RGB和Depth融合特征的用2表示,用RGB、depth和深度运动特征的用3表示。从图2和图3中可以看出,加入depth特征和运动特征后,跟踪的准确性得到有效提高。
为了说明本发明提出的方法与其他RGB-D跟踪器方法相比,性能方面有所提升,我们选用了当前性能最好的几个RGB-D跟踪器Prin Tracker、DS-KCF*Tracker、GBMTracker、和Berming Tracker进行性能对比。分别基于BTB和PTB数据库进行计算,将准确率successrate(SR)和曲线下面积area-under-curve(AUC)作为评价标准。
如图4所示,在PTB数据库中,本发明(Our Tracker)的整体SR为87%,在目标快速运动(fast move)时的SR为86%,目标运动活跃(active motion)的状态下SR为84%。
如图5所示,在BTB数据库中,本发明的整体AUC为9.30,当相机静止(stationary)时,AUC为9.84,相机运动(moving)时,AUC为8.27。
从图4和图5可以看出,本发明获得了性能上的提升,尤其是在目标快速运动,或者相机运动时,跟踪的准确率明显高于现有的RGB-D跟踪器。

Claims (8)

1.一种基于多模式深度特征融合的RGB-D目标跟踪方法,其特征在于,包括以下步骤:
(1)将Depth图像编码为三个通道:物体的深度、高度和角度,获取目标的几何信息,然后在VGG-16网络的基础上,利用基于Depth模式的CNN网络提取其特征进行融合,融合后提取的输出特征进入深度特征融合模块;
(2)在VGG-16网络的基础上,利用基于RGB模式的CNN网络提取RGB图像的卷积特征进行融合,融合后提取的输出特征进入深度特征融合模块;
(3)将步骤(1)中基于Depth模式的CNN网络的输出特征和步骤(2)中基于RGB模式的CNN网络的输出特征,输入到RGB和Depth相关计算的CNN中,融合后提取的输出特征进入深度特征融合模块;
(4)通过RGB图像序列计算其光流图,将光流图输入到基于运动模式的CNN网络中,融合后提取的输出特征进入深度特征融合模块;
(5)将深度特征融合模块的输出,送入C-COT跟踪器中,完成目标跟踪。
2.根据权利要求1所述的基于多模式深度特征融合的RGB-D目标跟踪方法,其特征在于,步骤(1)和(2)中所述的CNN网络包含5个池化层,分别为Conv1_2、Conv2_2、Conv3_3、Conv4_3、Conv5_3。
3.根据权利要求2所述的基于多模式深度特征融合的RGB-D目标跟踪方法,其特征在于,步骤(1)中所述的基于Depth模式的CNN网络输出特征为Conv3_3和Conv5_3输出的特征。
4.根据权利要求2所述的基于多模式深度特征融合的RGB-D目标跟踪方法,其特征在于,步骤(2)中所述的基于RGB模式的CNN网络输出特征为Conv3_3和Conv5_3输出的特征。
5.根据权利要求2所述的基于多模式深度特征融合的RGB-D目标跟踪方法,其特征在于,步骤(3)中所述的RGB和Depth相关计算的CNN包含3个池化层,分别为Conv3_3、Conv4_3、Conv5_3,其输入特征为步骤(1)和(2)中所述CNN网络的输出特征Conv2_2,输出特征Conv5_3输出到深度特征融合模块。
6.根据权利要求5所述的基于多模式深度特征融合的RGB-D目标跟踪方法,其特征在于,步骤(4)中所述的基于运动模式的CNN网络包含5个池化层,分别为Conv1_2、Conv2_2、Conv3_3、Conv4_3、Conv5_3,输出到深度特征融合模块的特征为Conv5_3。
7.根据权利要求6所述的基于多模式深度特征融合的RGB-D目标跟踪方法,其特征在于,所述的深度特征融合模块按照下述公式实现融合:
其中,为基于RGB模式的CNN网络Conv3_3输出的深度特征,为conv5_3输出的深度特征,为基于Depth模式的CNN网络Conv3_3输出的深度特征,为conv5_3输出的深度特征,为RGB和Depth相关计算的CNN的conv5_3输出的深度特征,为基于运动模式的CNN网络的conv5_3输出的深度特征。
8.根据权利要求1至7任一项所述的基于多模式深度特征融合的RGB-D目标跟踪方法,其特征在于,步骤(1)中Depth图像编码技术为HHA编码技术。
CN201811054223.0A 2018-09-11 2018-09-11 基于多模式深度特征融合的rgb-d目标跟踪方法 Active CN109389621B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811054223.0A CN109389621B (zh) 2018-09-11 2018-09-11 基于多模式深度特征融合的rgb-d目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811054223.0A CN109389621B (zh) 2018-09-11 2018-09-11 基于多模式深度特征融合的rgb-d目标跟踪方法

Publications (2)

Publication Number Publication Date
CN109389621A true CN109389621A (zh) 2019-02-26
CN109389621B CN109389621B (zh) 2021-04-06

Family

ID=65418675

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811054223.0A Active CN109389621B (zh) 2018-09-11 2018-09-11 基于多模式深度特征融合的rgb-d目标跟踪方法

Country Status (1)

Country Link
CN (1) CN109389621B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110009661A (zh) * 2019-03-29 2019-07-12 大连理工大学 一种视频目标跟踪的方法
CN110244710A (zh) * 2019-05-16 2019-09-17 深圳前海达闼云端智能科技有限公司 自动寻迹方法、装置、存储介质及电子设备
CN110276754A (zh) * 2019-06-21 2019-09-24 厦门大学 一种表面缺陷检测方法、终端设备及存储介质
CN111127519A (zh) * 2019-12-25 2020-05-08 中国电子科技集团公司信息科学研究院 一种双模型融合的目标跟踪控制系统及其方法
CN112307892A (zh) * 2020-09-24 2021-02-02 国网浙江省电力有限公司衢州供电公司 一种基于第一视角rgb-d数据的手部动作识别方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105550687A (zh) * 2015-12-02 2016-05-04 西安电子科技大学 一种基于isa模型的rgb-d图像的多通道融合特征提取方法
CN106127804A (zh) * 2016-06-17 2016-11-16 淮阴工学院 基于稀疏深度去噪自编码器的rgb‑d数据跨模式特征学习的目标跟踪方法
CN106127806A (zh) * 2016-06-17 2016-11-16 淮阴工学院 一种基于深度玻尔兹曼机跨模式特征学习的rgb‑d目标跟踪方法
WO2017088125A1 (zh) * 2015-11-25 2017-06-01 中国科学院自动化研究所 基于密集匹配子自适应相似性度量的rgb-d物体识别方法和装置
CN107680136A (zh) * 2017-09-25 2018-02-09 西北工业大学 一种辅助遥操作执行空间任务的三维目标跟踪方法
CN107944459A (zh) * 2017-12-09 2018-04-20 天津大学 一种rgb‑d物体识别方法
CN108171141A (zh) * 2017-12-25 2018-06-15 淮阴工学院 基于注意力模型的级联多模式融合的视频目标跟踪方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017088125A1 (zh) * 2015-11-25 2017-06-01 中国科学院自动化研究所 基于密集匹配子自适应相似性度量的rgb-d物体识别方法和装置
CN105550687A (zh) * 2015-12-02 2016-05-04 西安电子科技大学 一种基于isa模型的rgb-d图像的多通道融合特征提取方法
CN106127804A (zh) * 2016-06-17 2016-11-16 淮阴工学院 基于稀疏深度去噪自编码器的rgb‑d数据跨模式特征学习的目标跟踪方法
CN106127806A (zh) * 2016-06-17 2016-11-16 淮阴工学院 一种基于深度玻尔兹曼机跨模式特征学习的rgb‑d目标跟踪方法
CN107680136A (zh) * 2017-09-25 2018-02-09 西北工业大学 一种辅助遥操作执行空间任务的三维目标跟踪方法
CN107944459A (zh) * 2017-12-09 2018-04-20 天津大学 一种rgb‑d物体识别方法
CN108171141A (zh) * 2017-12-25 2018-06-15 淮阴工学院 基于注意力模型的级联多模式融合的视频目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
WANG JIANHUA等: "Convolutional Neural Network for 3D Object Recognition Based on RGB-D Dataset", 《PROCEEDINGS OF THE 2015 10TH IEEE CONFERENCE ON INDUSTRIAL ELECTRONICS AND APPLICATIONS》 *
刘帆等: "基于双流卷积神经网络的RGB-D图像联合检测", 《激光与光电子学进展》 *
姜明新等: "基于颜色与深度信息特征融合的一种多目标跟踪新算法", 《光电子·激光》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110009661A (zh) * 2019-03-29 2019-07-12 大连理工大学 一种视频目标跟踪的方法
CN110244710A (zh) * 2019-05-16 2019-09-17 深圳前海达闼云端智能科技有限公司 自动寻迹方法、装置、存储介质及电子设备
CN110244710B (zh) * 2019-05-16 2022-05-31 达闼机器人股份有限公司 自动寻迹方法、装置、存储介质及电子设备
CN110276754A (zh) * 2019-06-21 2019-09-24 厦门大学 一种表面缺陷检测方法、终端设备及存储介质
CN110276754B (zh) * 2019-06-21 2021-08-20 厦门大学 一种表面缺陷检测方法、终端设备及存储介质
CN111127519A (zh) * 2019-12-25 2020-05-08 中国电子科技集团公司信息科学研究院 一种双模型融合的目标跟踪控制系统及其方法
CN111127519B (zh) * 2019-12-25 2024-03-12 中国电子科技集团公司信息科学研究院 一种双模型融合的目标跟踪控制系统及其方法
CN112307892A (zh) * 2020-09-24 2021-02-02 国网浙江省电力有限公司衢州供电公司 一种基于第一视角rgb-d数据的手部动作识别方法

Also Published As

Publication number Publication date
CN109389621B (zh) 2021-04-06

Similar Documents

Publication Publication Date Title
CN109389621A (zh) 基于多模式深度特征融合的rgb-d目标跟踪方法
An et al. Performance evaluation of model-based gait on multi-view very large population database with pose sequences
Costante et al. Exploring representation learning with cnns for frame-to-frame ego-motion estimation
Jiang et al. Vad: Vectorized scene representation for efficient autonomous driving
Zhang et al. Joint human detection and head pose estimation via multistream networks for RGB-D videos
Chiu et al. Segmenting the future
CN109509230A (zh) 一种应用于多镜头组合式全景相机的slam方法
Tang et al. ESTHER: Joint camera self-calibration and automatic radial distortion correction from tracking of walking humans
Styles et al. Forecasting pedestrian trajectory with machine-annotated training data
Tian et al. Robust 3-d human detection in complex environments with a depth camera
CN108470355A (zh) 融合卷积网络特征和判别式相关滤波器的目标跟踪方法
Zhu et al. Multi-drone-based single object tracking with agent sharing network
López et al. Character navigation in dynamic environments based on optical flow
CN103903282A (zh) 一种基于LabVIEW的目标跟踪方法
Zhou et al. A novel depth and color feature fusion framework for 6d object pose estimation
Zhou et al. Vehicle detection and disparity estimation using blended stereo images
Lu et al. A CNN-transformer hybrid model based on CSWin transformer for UAV image object detection
Zhang et al. Two-stream RGB-D human detection algorithm based on RFB network
CN109919107A (zh) 一种基于深度学习的交警手势识别方法及无人车
CN113076891B (zh) 基于改进高分辨率网络的人体姿态预测方法及系统
Fan et al. Skip connection aggregation transformer for occluded person reidentification
Bao et al. Semantic-direct visual odometry
CN112509009A (zh) 一种基于自然语言信息辅助的目标追踪方法
CN116503739A (zh) 一种机器人上下楼梯运动的场景识别方法及系统
Wang et al. Simple but effective: Upper-body geometric features for traffic command gesture recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20190226

Assignee: Huaian xiaobaihu coating Engineering Co.,Ltd.

Assignor: Huaiyin Institute of Technology

Contract record no.: X2021980011987

Denomination of invention: Rgb-d target tracking method based on multi-mode depth feature fusion

Granted publication date: 20210406

License type: Common License

Record date: 20211108

EE01 Entry into force of recordation of patent licensing contract
TR01 Transfer of patent right

Effective date of registration: 20230926

Address after: 2 / F, 979 Yunhan Road, Lingang New District, China (Shanghai) pilot Free Trade Zone, Pudong New Area, Shanghai

Patentee after: Shanghai Mingyang Marine Engineering Co.,Ltd.

Address before: 230000 floor 1, building 2, phase I, e-commerce Park, Jinggang Road, Shushan Economic Development Zone, Hefei City, Anhui Province

Patentee before: Dragon totem Technology (Hefei) Co.,Ltd.

Effective date of registration: 20230926

Address after: 230000 floor 1, building 2, phase I, e-commerce Park, Jinggang Road, Shushan Economic Development Zone, Hefei City, Anhui Province

Patentee after: Dragon totem Technology (Hefei) Co.,Ltd.

Address before: 223003 Jiangsu Huaian economic and Technological Development Zone, 1 East Road.

Patentee before: HUAIYIN INSTITUTE OF TECHNOLOGY

TR01 Transfer of patent right