CN113643330B - 一种基于动态语义特征的目标跟踪方法及系统 - Google Patents
一种基于动态语义特征的目标跟踪方法及系统 Download PDFInfo
- Publication number
- CN113643330B CN113643330B CN202111213534.9A CN202111213534A CN113643330B CN 113643330 B CN113643330 B CN 113643330B CN 202111213534 A CN202111213534 A CN 202111213534A CN 113643330 B CN113643330 B CN 113643330B
- Authority
- CN
- China
- Prior art keywords
- similarity
- dynamic
- image
- static
- target tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于动态语义特征的目标跟踪方法及系统,属于图像处理技术领域,所述方法包括以下过程:获取待处理的视频帧图像;对获取的视频图像进行实例分割,得到每帧图像的目标检测框和实例语义分割结果;对相邻帧图像的语义分割结果进行动态匹配,得到动态相似度;对上述相邻帧图像的目标检测框进行静态匹配,得到静态相似度;以动态相似度和静态相似度的加权和为总相似度,根据总相似度得得到目标跟踪结果;本发明利用时序语义的显著性,根据动态相似度和静态相似度的加权和得到相邻帧图像的总相似度,根据总相似度实现了更准确的目标匹配跟踪。
Description
技术领域
本发明涉及图像处理技术领域,特别涉及一种基于动态语义特征的目标跟踪方法及系统。
背景技术
本部分的陈述仅仅是提供了与本发明相关的背景技术,并不必然构成现有技术。
视觉目标跟踪是指对视频序列中的运动目标进行检测、提取、识别和跟踪,获得运动目标的运动参数,如位置、速度、加速度和运动轨迹等,从而进行下一步的处理与分析,实现对运动目标的行为理解,以完成更高一级的检测任务。相比单目标跟踪而言,多目标跟踪问题需要考虑视频序列中多个独立目标的位置和大小等数据,多个目标各自外观的变化、不同的运动方式以及多个目标之间相互遮挡等情况均是难点。目前广泛应用在体育赛事、安防监控和无人机、无人车、机器人以及人体、人脸和手势等领域。
行人检测问题通常都被建模成对一些候选区域进行分类和回归的问题。在单阶段检测器中,这些候选区域就是通过滑窗方式产生的Anchor;在两阶段检测器中,候选区域是RPN生成的Proposal,但是RPN本身仍然是对滑窗方式产生的Anchor进行分类和回归。近些年来随着深度学习技术的逐步深入,图像分割技术有了突飞猛进的发展,该技术相关的场景物体分割、人体前背景分割、人脸人体Parsing、三维重建等技术已经在无人驾驶、增强现实、安防监控等行业都得到广泛的应用。
发明人发现,现有的目标检测算法,没有考虑相邻帧图相间的动态相似度和静态相似度,使得得到的目标检测结果与真实情况存在较大的差异。
发明内容
为了解决现有技术的不足,本发明提供了一种基于动态语义特征的目标跟踪方法及系统,利用时序语义的显著性,根据动态相似度和静态相似度的加权和得到相邻帧图像的总相似度,根据总相似度实现了更准确的目标匹配跟踪。
为了实现上述目的,本发明采用如下技术方案:
本发明第一方面提供了一种基于动态语义特征的目标跟踪方法。
一种基于动态语义特征的目标跟踪方法,包括以下过程:
获取待处理的视频帧图像;
对获取的视频图像进行实例分割,得到每帧图像的目标检测框和实例语义分割结果;
对相邻帧图像的语义分割结果进行动态匹配,得到动态相似度;
对上述相邻帧图像的目标检测框进行静态匹配,得到静态相似度;
以动态相似度和静态相似度的加权和为总相似度,根据总相似度得得到目标跟踪结果。
进一步的,根据总相似度得得到目标跟踪结果,包括:
根据总相似度,查找下一帧图像中与当前帧图像中每个目标实例对应的目标实例,得到目标跟踪结果。
进一步的,对相邻帧图像的语义分割结果进行动态匹配,得到动态相似度,包括:
根据实例语义分割结果,得到两相邻帧图像的实例语义分割结果的动态差分,以动态差分的倒数为动态相似度。
更进一步的,取两帧图像的所有像素匹配距离的中位数作为距离阈值,根据距离到相似度的映射关系以及距离阈值,得到相似度阈值,当动态相似度大于相似度阈值时,视为检测到相邻两帧之间的目标运动。
更进一步的,相似度阈值为距离阈值的倒数。
进一步的,对上述相邻帧图像的目标检测框进行静态匹配,得到静态相似度,包括:
根据实例语义分割结果对原始帧图像进行处理,得到各帧图像的实例图像;
根据实例图像和预设表征学习网络,得到相邻帧图像的两实例图像对应的词向量,以两词向量的欧氏距离为静态相似度。
更进一步的,根据实例语义分割结果对原始帧图像进行处理,包括:
对各实例语义分割结果对应的原始图像帧中的每个行人实例进行裁切并缩放。
更进一步的,表征学习网络包括ResNet网络、分类子网络和验证子网络;
ResNet网络根据每个实例图像生成一个词向量;
分类子网络根据ResNet生成的词向量得到对应行人ID;
验证子网络根据行人ID相同的两个词向量的距离输出静态相似度。
进一步的,利用YOLACT对获取的视频图像进行实例分割。
本发明第二方面提供了一种基于动态语义特征的目标跟踪系统。
一种基于动态语义特征的目标跟踪系统,包括:
图像获取模块,被配置为:获取待处理的视频帧图像;
图像分割模块,被配置为:对获取的视频图像进行实例分割,得到每帧图像的目标检测框和实例语义分割结果;
动态相似度计算模块,被配置为:对相邻帧图像的语义分割结果进行动态匹配,得到动态相似度;
静态相似度计算模块,被配置为:对上述相邻帧图像的目标检测框进行静态匹配,得到静态相似度;
目标跟踪模块,被配置为:以动态相似度和静态相似度的加权和为总相似度,根据总相似度得得到目标跟踪结果。
与现有技术相比,本发明的有益效果是:
1、本发明所述的基于动态语义特征的目标跟踪方法及系统,利用时序语义的显著性,根据动态相似度和静态相似度的加权和得到相邻帧图像的总相似度,根据总相似度实现了更准确的目标匹配跟踪。
2、本发明所述的基于动态语义特征的目标跟踪方法及系统,通过设置自适应阈值的方法,取所有匹配距离的中位数作为距离阈值,提高了动态相似度的准确度。
3、本发明所述的基于动态语义特征的目标跟踪方法及系统,提出了利用时序语义显著性实现目标跟踪的方案,充分利用静态语义分割结果计算帧间动态差分特征,并考虑实例信息结合静态匹配相似度判断目标跟踪结果,提高了目标跟踪的准确度。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为本发明实施例1提供的基于动态语义特征的目标跟踪方法的流程示意图。
图2为本发明实施例1提供的基于动态语义特征的目标跟踪方法的细节示意图。
具体实施方式
下面结合附图与实施例对本发明作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
实施例1:
如图1和图2所示,本发明实施例1提供了一种基于动态语义特征的目标跟踪方法,以某行人检测目标跟踪数据集T为例,包含30000个左右视频,大约1.1T,包括以下过程:
步骤S0:对输入图像帧进行实例分割,得到结果。
取数据集中第K个视频序列,包含n帧。对输入的第1帧、第2帧图像,记为F1、F2,进行YOLACT实例分割。
YOLACT通过两个并行的子网络来实现:
(1)Protonet分支生成一组原型mask,包括跟踪目标检测框(Anchor)和语义分割结果,记实例语义分割结果图像为A1、A2;
(2)Prediction Head分支对Protonet分支输出的每个Anchor进行分类,输出每个Anchor的类别置信度。
步骤S1,对语义分割结果进行相邻帧之间动态匹配。
所述动态匹配,利用第F1、F2帧语义分割结果A1、A2计算相邻帧间动态差分(即两帧图像逐像素的差),两帧间差异记为D:
D=|A1-A2|
通过自适应方式选取阈值dT,即取所有像素间匹配距离的中位数作为距离阈值dT。
(D<dT)=0;
(D≥dT)=255。
根据距离到相似度的映射关系f,计算相似度阈值σT=f(d T )。
f(d
T
)=1/ d
T
当σ>σT,则检测到两帧间运动。
步骤S2:重复步骤S0、S1,对第F1、F2帧,第F2、F3帧以此类推,完成所有相邻帧间目标跟踪动态匹配。
步骤S3:对目标检测框(Anchor)进行相邻帧之间静态匹配。
将每个目标检测框作为一个行人实例,本步骤中,下述行人实例均指代对应的目标检测框。
所述静态匹配,根据步骤S0中实例语义分割的结果A1、A2对原始输入图像帧F1、F2中每个行人实例进行裁切并缩放,完成预处理。图像帧F1、F2中的行人实例记为E1i、E2i,其中i为该帧中的实例标号。
训练阶段,将行人实例图片Eni成对输入给表征学习网络进行训练。表征学习网络包括ResNet基础网络(Base Network),分类子网络(Classification Subnet)和验证子网络(Verification Subnet)。ResNet网络对每个输入的行人实例图片生成一个词向量Cni;分类子网络根据ResNet输出的词向量输出对应行人ID;验证子网络接收一对词向量,输出一个(0,1)间的浮点数,输入的两个词向量越接近,输出的数值越大。将两帧中同一行人ID对应的词向量成对送入验证子网络中,取验证子网络的输出作为静态相似度σStatic。
测试阶段,将原始输入图像帧Fn-1、Fn的每个行人实例图片E(n-1)i、Eni输入给表征学习网络,得到其基础网络输出的词向量C(n-1)i、Cni,用于相邻帧间目标跟踪静态匹配。
步骤S4:基于类别置信度加权计算动静态匹配总相似度。
取步骤S1中定义的帧间动态差异D的倒数作为动态相似度σDynamic,取步骤S3中的表征学习网络的验证子网络的输出作为静态相似度σStatic,对静态相似度和动态相似度加权求和得到加总相似度σ。动态相似度权重为1,静态相似度权重为λ,λ取所有帧中全部Anchor的类别置信度的均值。
σ=σDynamic+λ*σStatic
根据加总相似度σ,从第Fn帧中找到第Fn-1帧中每个行人实例与之对应的行人实例,从而实现目标跟踪。
实施例2:
本发明实施例2提供了一种基于动态语义特征的目标跟踪系统,包括:
图像获取模块,被配置为:获取待处理的视频帧图像;
图像分割模块,被配置为:对获取的视频图像进行实例分割,得到每帧图像的目标检测框和实例语义分割结果;
动态相似度计算模块,被配置为:对相邻帧图像的语义分割结果进行动态匹配,得到动态相似度;
静态相似度计算模块,被配置为:对上述相邻帧图像的目标检测框进行静态匹配,得到静态相似度;
目标跟踪模块,被配置为:以动态相似度和静态相似度的加权和为总相似度,根据总相似度得得到目标跟踪结果。
所述系统的工作方法与实施例1提供的基于动态语义特征的目标跟踪方法相同,这里不再赘述。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于动态语义特征的目标跟踪方法,其特征在于:
包括以下过程:
获取待处理的视频帧图像;
对获取的视频图像进行实例分割,得到每帧图像的目标检测框和实例语义分割结果;
对相邻帧图像的语义分割结果进行动态匹配,得到动态相似度;
对上述相邻帧图像的目标检测框进行静态匹配,得到静态相似度;
以动态相似度和静态相似度的加权和为总相似度,根据总相似度得到目标跟踪结果;
对相邻帧图像的语义分割结果进行动态匹配,得到动态相似度,包括:
根据实例语义分割结果,得到两相邻帧图像的实例语义分割结果的动态差分,以动态差分的倒数为动态相似度,取两帧图像的所有像素匹配距离的中位数作为距离阈值dT;
两帧间动态差分记为D,对动态差分进行二值化处理,(D<dT)=0,(D≥dT)=255;
根据距离到相似度的映射关系以及距离阈值,得到相似度阈值,当动态相似度大于相似度阈值时,视为检测到相邻两帧之间的目标运动,相似度阈值为距离阈值的倒数。
2.如权利要求1所述的基于动态语义特征的目标跟踪方法,其特征在于:
根据总相似度得到目标跟踪结果,包括:
根据总相似度,查找下一帧图像中与当前帧图像中每个目标实例对应的目标实例,得到目标跟踪结果。
3.如权利要求1所述的目标跟踪方法,其特征在于:
对上述相邻帧图像的目标检测框进行静态匹配,得到静态相似度,包括:
根据实例语义分割结果对原始帧图像进行处理,得到各帧图像的实例图像;
根据实例图像和预设表征学习网络,得到相邻帧图像的两实例图像对应的静态相似度。
4.如权利要求3所述的基于动态语义特征的目标跟踪方法,其特征在于:
根据实例语义分割结果对原始帧图像进行处理,包括:
对各实例语义分割结果对应的原始图像帧中的每个行人实例进行裁切并缩放。
5.如权利要求3所述的基于动态语义特征的目标跟踪方法,其特征在于:
表征学习网络包括ResNet网络、分类子网络和验证子网络;
ResNet网络根据每个实例图像生成一个词向量;
分类子网络根据ResNet生成的词向量得到对应行人ID;
验证子网络根据行人ID相同的两个词向量的距离输出静态相似度。
6.如权利要求1所述的基于动态语义特征的目标跟踪方法,其特征在于:
利用YOLACT对获取的视频图像进行实例分割。
7.一种基于动态语义特征的目标跟踪系统,其特征在于:
包括:
图像获取模块,被配置为:获取待处理的视频帧图像;
图像分割模块,被配置为:对获取的视频图像进行实例分割,得到每帧图像的目标检测框和实例语义分割结果;
动态相似度计算模块,被配置为:对相邻帧图像的语义分割结果进行动态匹配,得到动态相似度;
静态相似度计算模块,被配置为:对上述相邻帧图像的目标检测框进行静态匹配,得到静态相似度;
目标跟踪模块,被配置为:以动态相似度和静态相似度的加权和为总相似度,根据总相似度得到目标跟踪结果;
对相邻帧图像的语义分割结果进行动态匹配,得到动态相似度,包括:
根据实例语义分割结果,得到两相邻帧图像的实例语义分割结果的动态差分,以动态差分的倒数为动态相似度,取两帧图像的所有像素匹配距离的中位数作为距离阈值dT;
两帧间动态差分记为D,对动态差分进行二值化处理,(D<dT)=0,(D≥dT)=255;
根据距离到相似度的映射关系以及距离阈值,得到相似度阈值,当动态相似度大于相似度阈值时,视为检测到相邻两帧之间的目标运动,相似度阈值为距离阈值的倒数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111213534.9A CN113643330B (zh) | 2021-10-19 | 2021-10-19 | 一种基于动态语义特征的目标跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111213534.9A CN113643330B (zh) | 2021-10-19 | 2021-10-19 | 一种基于动态语义特征的目标跟踪方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113643330A CN113643330A (zh) | 2021-11-12 |
CN113643330B true CN113643330B (zh) | 2022-03-25 |
Family
ID=78427378
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111213534.9A Active CN113643330B (zh) | 2021-10-19 | 2021-10-19 | 一种基于动态语义特征的目标跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113643330B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114119674B (zh) * | 2022-01-28 | 2022-04-26 | 深圳佑驾创新科技有限公司 | 一种静态目标跟踪方法、装置及存储介质 |
CN114783071B (zh) * | 2022-03-16 | 2023-04-28 | 湖南三湘银行股份有限公司 | 从视频中进行人员身份判断的方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334849A (zh) * | 2018-01-31 | 2018-07-27 | 中山大学 | 一种基于黎曼流形的行人重识别方法 |
CN111046856A (zh) * | 2020-03-13 | 2020-04-21 | 南京晓庄学院 | 基于动静态特征提取并行位姿跟踪与地图创建的方法 |
CN111311918A (zh) * | 2020-05-12 | 2020-06-19 | 南京云析科技有限公司 | 一种基于视觉分析的交通管理方法及装置 |
US20200349711A1 (en) * | 2019-04-30 | 2020-11-05 | L'oreal | Image processing using a convolutional neural network to track a plurality of objects |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108269269A (zh) * | 2016-12-30 | 2018-07-10 | 纳恩博(北京)科技有限公司 | 目标跟踪方法和装置 |
CN110298248A (zh) * | 2019-05-27 | 2019-10-01 | 重庆高开清芯科技产业发展有限公司 | 一种基于语义分割的多目标跟踪方法及系统 |
CN114981841A (zh) * | 2019-11-15 | 2022-08-30 | 巴黎欧莱雅 | 用于视频对象分割(vos)的端到端合并 |
-
2021
- 2021-10-19 CN CN202111213534.9A patent/CN113643330B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108334849A (zh) * | 2018-01-31 | 2018-07-27 | 中山大学 | 一种基于黎曼流形的行人重识别方法 |
US20200349711A1 (en) * | 2019-04-30 | 2020-11-05 | L'oreal | Image processing using a convolutional neural network to track a plurality of objects |
CN111046856A (zh) * | 2020-03-13 | 2020-04-21 | 南京晓庄学院 | 基于动静态特征提取并行位姿跟踪与地图创建的方法 |
CN111311918A (zh) * | 2020-05-12 | 2020-06-19 | 南京云析科技有限公司 | 一种基于视觉分析的交通管理方法及装置 |
Non-Patent Citations (2)
Title |
---|
YOLACT:Real-time Instance Segmentation;Daniel Bolya 等;《arXiv》;20191031;第1-11页 * |
基于深度学习的行人重识别研究进展;罗浩 等;《自动化学报》;20191130;第2032-2049页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113643330A (zh) | 2021-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Static and moving object detection using flux tensor with split Gaussian models | |
US10242266B2 (en) | Method and system for detecting actions in videos | |
Tsagkatakis et al. | Online distance metric learning for object tracking | |
Rout | A survey on object detection and tracking algorithms | |
CN113643330B (zh) | 一种基于动态语义特征的目标跟踪方法及系统 | |
CN109598735A (zh) | 使用马尔科夫链跟踪和分割图像中的目标对象的方法以及使用该方法的设备 | |
Blue et al. | Edge detection based boundary box construction algorithm for improving the precision of object detection in YOLOv3 | |
Wilson et al. | Avot: Audio-visual object tracking of multiple objects for robotics | |
Tyagi et al. | A review of deep learning techniques for crowd behavior analysis | |
Talukdar et al. | Human action recognition system using good features and multilayer perceptron network | |
Tu et al. | A biologically inspired vision-based approach for detecting multiple moving objects in complex outdoor scenes | |
Nandhini et al. | SIFT algorithm-based Object detection and tracking in the video image | |
CN107392246A (zh) | 一种基于特征模型到背景模型距离的背景建模方法 | |
Zheng et al. | Local-to-global background modeling for moving object detection from non-static cameras | |
Shaban et al. | Multi-person head segmentation in low resolution crowd scenes using convolutional encoder-decoder framework | |
CN108985216B (zh) | 一种基于多元logistic回归特征融合的行人头部检测方法 | |
Hashmi et al. | GAIT analysis: 3D pose estimation and prediction in defence applications using pattern recognition | |
Huda et al. | Effects of pre-processing on the performance of transfer learning based person detection in thermal images | |
Liu et al. | Online multi-object tracking under moving unmanned aerial vehicle platform based on object detection and feature extraction network | |
Vasilescu et al. | Collaborative object recognition for parking management | |
Duanmu et al. | A multi-view pedestrian tracking framework based on graph matching | |
Kim et al. | Directional pedestrian counting with a hybrid map-based model | |
Lin et al. | 3d point cloud segmentation oriented to the analysis of interactions | |
Goyal et al. | Moving Object Detection in Video Streaming Using Improved DNN Algorithm | |
Ghosh et al. | Comparative analysis and implementation of different human detection techniques |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right | ||
PE01 | Entry into force of the registration of the contract for pledge of patent right |
Denomination of invention: A Method and System for Target Tracking Based on Dynamic Semantic Features Effective date of registration: 20230506 Granted publication date: 20220325 Pledgee: Qingdao Jiaozhou Shengyu Financing Guarantee Co.,Ltd. Pledgor: Qingdao genjian Intelligent Technology Co.,Ltd. Registration number: Y2023980039931 |