CN106295509B - 一种面向非均匀退化视频中对象的结构化跟踪方法 - Google Patents
一种面向非均匀退化视频中对象的结构化跟踪方法 Download PDFInfo
- Publication number
- CN106295509B CN106295509B CN201610597025.3A CN201610597025A CN106295509B CN 106295509 B CN106295509 B CN 106295509B CN 201610597025 A CN201610597025 A CN 201610597025A CN 106295509 B CN106295509 B CN 106295509B
- Authority
- CN
- China
- Prior art keywords
- image
- tracking
- degradation
- superpixel
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims abstract description 17
- 230000000694 effects Effects 0.000 claims abstract description 7
- 230000015556 catabolic process Effects 0.000 claims description 29
- 238000006731 degradation reaction Methods 0.000 claims description 29
- 238000011156 evaluation Methods 0.000 claims description 19
- 239000013598 vector Substances 0.000 claims description 19
- 238000012706 support-vector machine Methods 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000005311 autocorrelation function Methods 0.000 claims description 6
- 238000005381 potential energy Methods 0.000 claims description 4
- 230000005484 gravity Effects 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims 1
- 230000007850 degeneration Effects 0.000 abstract 3
- 238000010586 diagram Methods 0.000 abstract 1
- 230000011218 segmentation Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
一种面向非均匀退化视频中对象的结构化跟踪方法,在非均匀退化的目标视频中,利用自相关产生的方向图和Tenengrad提取的每个目标部分的退化程度结合在我们的基于超像素结构化模型,一个目标的一个未分配的干涉图是用来跟踪目标,图的节点是超像素中心点,边缘是超像素间的连线。本发明方法跟踪效果跟好,特别是在退化的视频目标跟踪中可以有效避免因为严重模糊导致的跟踪失败问题。
Description
技术领域
本发明属于计算机视觉技术领域,尤其是涉及到模糊对象的跟踪方法。
背景技术
一般的追踪算法将目标表示为一个包围盒模板,其中不包含结构信息。Lim模型中的在线增量空间可以鲁棒地代表目标。
一些其他的跟踪器使用支持向量机或者改善不同目标和背景的分类器模型的效果。同样,对结构信息的忽略导致了结构变形和闭塞的糟糕性能。目标模型作为一种词典结构的稀疏表示,对于历史部分的表面特征并不敏感。历史部分对结构的改变也不敏感。分布模型在目标识别与检测中得到广泛应用。也有一部分的追踪领域在模型基础上发展形成。
最近,Han et al发现了一种可替换的稀疏表示的外观模型公式。通过从目标周围找到子图像特征集的稀疏表示来达到追踪目的。追踪结果和拥有与追踪目标最相似的系数分布的部分密切相关。该方法在闭塞的实验案例中比较成功。但是,这种方法是否可以在经历较大的光照和姿态变化下高效地追踪目标还不明确。
另外,Yang et al发现应用数据挖掘技术来辅助和结合他们的目标,形成星型拓扑图模型来鲁棒性地进行视觉追踪。然而,我们的分割是用来收集部分候选目标,因此,对于这里的超像素而言,粗分割而不是像素级分割已经足够有效了。
发明内容
为了克服现有的模糊对象的跟踪方法在跟踪严重非均匀退化目标时的准确率较低的不足,本发明提供一种在跟踪严重非均匀退化目标时的准确率较高的面向非均匀退化视频中对象的结构化跟踪方法,本发明对图像进行超像素分割并计算每个超像素的模糊信息,并对目标区域进行结构化建模。根据建立的目标结构化模型及目标区域的模糊信息,通过建立合适的能量函数可以成功地提升算法在跟踪严重非均匀退化目标时的准确率。
本发明解决其技术问题所采用的技术方案是:
一种面向非均匀退化视频中对象的结构化跟踪方法,包括如下步骤:
1)退化评价
给每一个超像素方向矢量来描述运动退化,单一超像素的方向评估是通过一个局部自相关函数而获得,并且该模糊度由Tenengrad函数计算得到的,然后,构建定向矢量来表示一个超像素的运动,以这种方式来生成图像的方向的地图,过程如下:
1.1)方向评价
通过局部自相关函数来计算位置(x,y)的值:
f(x,y)=∑(xi,yi)∈p[I(xi,yi)-I(xi+Δx,yi+Δy)]2 (1)
其中I(xi,yi)为图像中3*3矩阵的中心位置的梯度值,Δx和Δy表示在x和y方向上的移位;
该公式近似的表示为:
其中
通过计算出的矩阵M,得到了矩阵M的两个特征值。较小的特征值表示像素的方向,将每个像素的这些值转化到指定的方向空间[0,180),因此,每个值表示在一条线上的相反方向;
然后,将运动方向Im归一化,通过同等地划分然后将在数量上最多的作为背景的方向,得到图像模糊方向Up;
1.2)模糊度评估
Tenengrad评价函数为
其中,sx(i,j)和sy(i,j)分别是图像f(i,j)与在水平方向和垂直方向与Sobel算子的卷积结果;M和N分别是图像的高和宽;
将图像通过Tenengrad评价得到的值除以所有结果中的最大值Fp来表示图像退化程度,被看作是
其中,Ften是Tenengrad评价得到的值,max(F)是所有结果中的最大值。
通过这样的方式,Tenengrad评价得到的结果被归一化为区间(0,1]之间的值,退化程度估计的结果决定方向向量的长度;
2)构建结构模型,过程如下:
首先,将追踪窗口中的图像通过SLIC划分成一些小的部分,通过颜色信息来追踪目标;
给定一组超像素集{Tp},收集候选目标部分{Ti}p然后重建候选图像G(V,E),通过建立一个配对的马尔科夫随机场来从背景中分离候选的前景部,同时使用目标颜色直方图和判别支持向量机分类器来计算单点势能,马尔科夫随机场能量被优化为:
其中B={bp|bp∈{0,1},p∈S}是超像素集{Tp}的标签,bp是Tp的指示器,当Tp属于前景时bp=1,其他情况bp=0,Dp(bp)是一个与超像素Tp结合的单点势能,Vp,q(bp,bq)一对结合超像素Tp和Tq的潜能。S是在跟踪窗口中的超像素集,N是共享边界的超像素集对;
单点势能::
Dp(bp)是一个可生成的颜色直方图潜能和一个判别支持向量机分类器潜能的加权组合,α=0.1,是一个用于平衡两个潜能影响的常量,生成的潜能形式为:
其中,Hf和Hb分别是目标和背景的归一化的RGB颜色直方图,Ci是像素I的RGB值,Np在超像素Tp中的像素数量,P(Ci|H)是在直方图H中的Ci的概率。判别潜能是一个在线支持向量机分类器的分类评分,这个分类器是通过从目标和背景超像素中提取的RGB颜色特征训练得到的;
其中,y(fp)=w·Φ(fp)+b是一种支持向量机判断,fp是Tp的颜色信息,当把Tp分类为前景时,λ是一个用于增强支持向量机分类器比重的常量,Vp,q(bp,bq)用于捕获两个相邻超像素的不连续性。
平滑项:
Vp,q(bp,bq)=exp{-D(fp,fq)}-βδ(dp,dq), (11)
其中,D(fp,fq)是颜色特征间的X2距离,dp是退化特征向量。δ(dp,dq)是退化特征距离,β是一个用于平衡退化向量距离影响的常量。
本发明的有益效果主要表现在:采用模糊评价方法得出了基于超像素块的退化程度信息,并以向量来表示,通过对超像素块的块间结构信息进行建图,得到了目标的结构化的量化信息,大大减少了跟踪时的数据量。最后通过对退化程度信息的利用,提高了算法对退化视频内目标的跟踪准确率。
附图说明
图1是面向非均匀退化视频中对象的结构化跟踪方法的一些追踪结果,其中,白框是结果,黑框是标注值。
图2是面向非均匀退化视频中对象的结构化跟踪方法的流程图。
图3是退化评价的方向示意图。
图4是不同超像素的退化向量距离示意图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图4,一种面向非均匀退化视频中对象的结构化跟踪方法,包括如下步骤:
本发明所采用的技术方案为引进了一种结构退化模型,通过对目标的退化估计来解决追踪问题。具体的跟踪方法如下:
针对剧烈运动的目标有良好的跟踪效果(如图1),算法的流程图在图2中给出(如图2)。
1)退化评价
给每一个超像素方向矢量来描述运动退化,单一超像素的方向评估是通过一个局部自相关函数而获得,并且该模糊度由Tenengrad函数计算得到的,然后,构建定向矢量来表示一个超像素的运动,以这种方式来生成图像的方向的地图,过程如下:
1.2)方向评价
通过局部自相关函数来计算位置(x,y)的值:
f(x,y)=∑(xi,yi)∈P[I(xi,yi)-I(xi+Δx,yi+Δy)]2 (3)
其中I(xi,yi)为图像中3*3矩阵的中心位置的梯度值,Δx和Δy表示在x和y方向上的移位;
该公式近似的表示为:
其中
通过计算出的矩阵M,得到了矩阵M的两个特征值。较小的特征值表示像素的方向,将每个像素的这些值转化到指定的方向空间[0,180),因此,每个值表示在一条线上的相反方向;
然后,将运动方向Im归一化,通过同等地划分然后将在数量上最多的作为背景的方向,得到图像模糊方向Up;
1.3)模糊度评估
Tenengrad评价函数为
其中,sx(i,j)和sy(i,j)分别是图像f(i,j)与在水平方向和垂直方向与Sobel算子的卷积结果;M和N分别是图像的高和宽;
将图像通过Tenengrad评价得到的值除以所有结果中的最大值Fp来表示图像退化程度,被看作是
其中,Ften是Tenengrad评价得到的值,max(F)是所有结果中的最大值。
通过这样的方式,Tenengrad评价得到的结果被归一化为区间(0,1]之间的值,退化程度估计的结果决定方向向量的长度(如图3);
2)构建结构模型,过程如下:
首先,将追踪窗口中的图像通过SLIC划分成一些小的部分,通过颜色信息来追踪目标;
给定一组超像素集{Tp},收集候选目标部分{Ti}p然后重建候选图像G(V,E),通过建立一个配对的马尔科夫随机场来从背景中分离候选的前景部,同时使用目标颜色直方图和判别支持向量机分类器来计算单点势能,马尔科夫随机场能量被优化为:
其中B={bp|bp∈{0,1},p∈S}是超像素集{Tp}的标签,bp是Tp的指示器,当Tp属于前景时bp=1,其他情况bp=0,Dp(bp)是一个与超像素Tp结合的单点势能,Vp,q(bp,bq)一对结合超像素Tp和Tq的潜能。S是在跟踪窗口中的超像素集,N是共享边界的超像素集对;
单点势能::
Dp(bp)是一个可生成的颜色直方图潜能和一个判别支持向量机分类器潜能的加权组合,α=0.1,是一个用于平衡两个潜能影响的常量,生成的潜能形式为:
其中,Hf和Hb分别是目标和背景的归一化的RGB颜色直方图,Ci是像素I的RGB值,Np在超像素Tp中的像素数量,P(Ci|H)是在直方图H中的Ci的概率。判别潜能是一个在线支持向量机分类器的分类评分,这个分类器是通过从目标和背景超像素中提取的RGB颜色特征训练得到的;
其中,y(fp)=w·Φ(fp)+b是一种支持向量机判断,fp是Tp的颜色信息,当把Tp分类为前景时,λ是一个用于增强支持向量机分类器比重的常量,Vp,q(bp,bq)用于捕获两个相邻超像素的不连续性。
平滑项:
Vp,q(bp,bq)=exp{-D(fp,fq)}-βδ(dp,dq), (11)
其中,D(fp,fq)是颜色特征间的X2距离,dp是退化特征向量。δ(dp,dq)是退化特征距离(如图4),β是一个用于平衡退化向量距离影响的常量。
本实施例采用模糊评价方法得出了基于超像素块的退化程度信息,并以向量来表示,通过对超像素块的块间结构信息进行建图,得到了目标的结构化的量化信息,大大减少了跟踪时的数据量。最后通过对退化程度信息的利用,提高了算法对退化视频内目标的跟踪准确率。
Claims (1)
1.一种面向非均匀退化视频中对象的结构化跟踪方法,其特征在于:包括如下步骤:
1)退化评价
给每一个超像素方向矢量来描述运动退化,单一超像素的方向评估是通过一个局部自相关函数而获得,并且模糊度由Tenengrad函数计算得到的,然后,构建定向矢量来表示一个超像素的运动,以这种方式来生成图像的方向的地图,过程如下:
1.1)方向评价
通过局部自相关函数来计算位置(x,y)的值:
f(x,y)=∑(xi,yi)∈P[I(xi,yi)-I(xi+Δx,yi+Δy)]2 (1)
其中I(xi,yi)为图像中3*3矩阵的中心位置的梯度值,Δx和Δy表示在x和y方向上的移位;
该公式近似的表示为:
其中
通过计算出的矩阵M,得到了矩阵M的两个特征值,较小的特征值表示像素的方向,将每个像素的这些值转化到指定的方向空间[0,180),因此,每个值表示在一条线上的相反方向;
然后,将运动方向Im归一化,通过同等地划分然后将在数量上最多的作为背景的方向,得到图像模糊方向;
1.2)模糊度评估
Tenengrad评价函数为
其中,sx(i,j)和sy(i,j)分别是图像f(i,j)与在水平方向和垂直方向与Sobel算子的卷积结果;M和N分别是图像的高和宽;
将图像通过Tenengrad评价得到的值除以所有结果中的最大值来表示图像退化程度,被看作是
其中,Ften是Tenengrad评价得到的值,max(F)是所有结果中的最大值;
通过这样的方式,Tenengrad评价得到的结果被归一化为区间(0,1]之间的值,退化程度估计的结果决定方向向量的长度;
2)构建结构模型,过程如下:
首先,将追踪窗口中的图像通过SLIC划分成一些小的部分,通过颜色信息来追踪目标;
给定一组超像素集{Tp},收集候选目标部分{Ti}p然后重建候选图像G(V,E),通过建立一个配对的马尔科夫随机场来从背景中分离候选的前景部,同时使用目标颜色直方图和判别支持向量机分类器来计算单点势能,马尔科夫随机场能量被优化为:
其中B={bp|bp∈{0,1},p∈S}是超像素集{Tp}的标签,bp是Tp的指示器,当Tp属于前景时bp=1,其他情况bp=0,Dp(bp)是一个与超像素Tp结合的单点势能,Vp,q(bp,bq)一对结合超像素Tp和Tq的潜能,S是在跟踪窗口中的超像素集,N是共享边界的超像素集对;
单点势能:
Dp(bp)是一个可生成的颜色直方图潜能和一个判别支持向量机分类器潜能的加权组合,α=0.1,是一个用于平衡两个潜能影响的常量,生成的潜能形式为:
其中,Hf和Hb分别是目标和背景的归一化的RGB颜色直方图,Ci是像素I的RGB值,Np在超像素Tp中的像素数量,P(Ci|H)是在直方图H中的Ci的概率,判别潜能是一个在线支持向量机分类器的分类评分,这个分类器是通过从目标和背景超像素中提取的RGB颜色特征训练得到的;
其中,是一种支持向量机判断,fp是Tp的颜色信息,当把Tp分类为前景时,λ是一个用于增强支持向量机分类器比重的常量,Vp,q(bp,bq)用于捕获两个相邻超像素的不连续性;
平滑项:
Vp,q(bp,bq)=exp{-D(fp,fq)}-βδ(dp,dq), (11)
其中,D(fp,fq)是颜色特征间的X2距离,dp是退化特征向量,δ(dp,dq)是退化特征距离,β是一个用于平衡退化向量距离影响的常量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610597025.3A CN106295509B (zh) | 2016-07-27 | 2016-07-27 | 一种面向非均匀退化视频中对象的结构化跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610597025.3A CN106295509B (zh) | 2016-07-27 | 2016-07-27 | 一种面向非均匀退化视频中对象的结构化跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106295509A CN106295509A (zh) | 2017-01-04 |
CN106295509B true CN106295509B (zh) | 2019-11-08 |
Family
ID=57652669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610597025.3A Active CN106295509B (zh) | 2016-07-27 | 2016-07-27 | 一种面向非均匀退化视频中对象的结构化跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106295509B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104123566A (zh) * | 2013-04-24 | 2014-10-29 | 信帧电子技术(北京)有限公司 | 视频模糊不变性目标追踪的方法与系统 |
CN104268532A (zh) * | 2014-09-30 | 2015-01-07 | 郑州轻工业学院 | 网络环境下大规模图像与视频数据高效处理的方法 |
CN104517116A (zh) * | 2013-09-30 | 2015-04-15 | 北京三星通信技术研究有限公司 | 在图像中确定目标区域的装置和方法 |
CN104637064A (zh) * | 2015-02-28 | 2015-05-20 | 中国科学院光电技术研究所 | 一种基于边缘强度权重的离焦模糊图像清晰度检测方法 |
CN104915946A (zh) * | 2015-02-10 | 2015-09-16 | 浙江工业大学 | 一种适用于严重退化图像的基于显著性的对象分割方法 |
CN105046714A (zh) * | 2015-08-18 | 2015-11-11 | 浙江大学 | 一种非监督的基于超像素和目标发现机制的图像分割方法 |
CN105205161A (zh) * | 2015-09-29 | 2015-12-30 | 浙江大学 | 一种基于互联网图片的同时目标搜索与分割方法 |
-
2016
- 2016-07-27 CN CN201610597025.3A patent/CN106295509B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104123566A (zh) * | 2013-04-24 | 2014-10-29 | 信帧电子技术(北京)有限公司 | 视频模糊不变性目标追踪的方法与系统 |
CN104517116A (zh) * | 2013-09-30 | 2015-04-15 | 北京三星通信技术研究有限公司 | 在图像中确定目标区域的装置和方法 |
CN104268532A (zh) * | 2014-09-30 | 2015-01-07 | 郑州轻工业学院 | 网络环境下大规模图像与视频数据高效处理的方法 |
CN104915946A (zh) * | 2015-02-10 | 2015-09-16 | 浙江工业大学 | 一种适用于严重退化图像的基于显著性的对象分割方法 |
CN104637064A (zh) * | 2015-02-28 | 2015-05-20 | 中国科学院光电技术研究所 | 一种基于边缘强度权重的离焦模糊图像清晰度检测方法 |
CN105046714A (zh) * | 2015-08-18 | 2015-11-11 | 浙江大学 | 一种非监督的基于超像素和目标发现机制的图像分割方法 |
CN105205161A (zh) * | 2015-09-29 | 2015-12-30 | 浙江大学 | 一种基于互联网图片的同时目标搜索与分割方法 |
Non-Patent Citations (1)
Title |
---|
A Novel Saliency-based Object Segmentation Method for Seriously Degenerated Images;Jianfeng Wang 等;《IEEE International Conference on Information and Automation》;20150810;第1172-1177页 * |
Also Published As
Publication number | Publication date |
---|---|
CN106295509A (zh) | 2017-01-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103325112B (zh) | 动态场景中运动目标快速检测方法 | |
US10049277B2 (en) | Method and apparatus for tracking object, and method and apparatus for calculating object pose information | |
Deori et al. | A survey on moving object tracking in video | |
CN110334762B (zh) | 一种基于四叉树结合orb和sift的特征匹配方法 | |
CN109961506A (zh) | 一种融合改进Census图的局部场景三维重建方法 | |
WO2017201751A1 (zh) | 虚拟视点视频、图像的空洞填充方法、装置和终端 | |
US10249046B2 (en) | Method and apparatus for object tracking and segmentation via background tracking | |
WO2019057197A1 (zh) | 运动目标的视觉跟踪方法、装置、电子设备及存储介质 | |
WO2019071976A1 (zh) | 基于区域增长和眼动模型的全景图像显著性检测方法 | |
CN102184550A (zh) | 一种动平台地面运动目标检测方法 | |
CN106204637A (zh) | 光流计算方法 | |
CN107909085A (zh) | 一种基于Harris算子的图像特征角点提取方法 | |
CN107527348B (zh) | 基于多尺度分割的显著性检测方法 | |
Wang et al. | Hand posture recognition from disparity cost map | |
Mukherjee et al. | A hybrid algorithm for disparity calculation from sparse disparity estimates based on stereo vision | |
Gallego et al. | Joint multi-view foreground segmentation and 3d reconstruction with tolerance loop | |
CN106295509B (zh) | 一种面向非均匀退化视频中对象的结构化跟踪方法 | |
Fan et al. | Collaborative three-dimensional completion of color and depth in a specified area with superpixels | |
Pertuz et al. | Region-based depth recovery for highly sparse depth maps | |
CN108596950B (zh) | 一种基于主动漂移矫正的刚体目标跟踪方法 | |
San et al. | Feature based disparity estimation using hill-climbing algorithm | |
Gupta et al. | 3dfs: Deformable dense depth fusion and segmentation for object reconstruction from a handheld camera | |
San et al. | Local stereo matching under radiometric variations | |
Wu et al. | Learning depth from single image using depth-aware convolution and stereo knowledge | |
TWI831183B (zh) | 影像物件標籤方法與電路系統 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20200611 Address after: Room 1504-2, Dikai International Center, Jianggan District, Hangzhou, Zhejiang Province Patentee after: HANGZHOU SHISHANG TECHNOLOGY Co.,Ltd. Address before: The city Zhaohui six districts Chao Wang Road Hangzhou City, Zhejiang province 310014 18 Patentee before: ZHEJIANG University OF TECHNOLOGY |