CN106250878B - 一种结合可见光和红外图像的多模态目标跟踪方法 - Google Patents

一种结合可见光和红外图像的多模态目标跟踪方法 Download PDF

Info

Publication number
CN106250878B
CN106250878B CN201610697825.2A CN201610697825A CN106250878B CN 106250878 B CN106250878 B CN 106250878B CN 201610697825 A CN201610697825 A CN 201610697825A CN 106250878 B CN106250878 B CN 106250878B
Authority
CN
China
Prior art keywords
tracking
frame
mode
visible light
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610697825.2A
Other languages
English (en)
Other versions
CN106250878A (zh
Inventor
林倞
胡师艺
成慧
王青
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Yat Sen University
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201610697825.2A priority Critical patent/CN106250878B/zh
Publication of CN106250878A publication Critical patent/CN106250878A/zh
Application granted granted Critical
Publication of CN106250878B publication Critical patent/CN106250878B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明公开一种结合可见光和红外图像的多模态目标跟踪方法,步骤如下:分别获取可见光图像和红外图像;在任一模态下标定目标矩形框;两种模态下分别初始化目标模型;使用STRUCK算法分别跟踪T帧,在跟踪过程中判断是否要更新目标模型;跟踪T帧后,两种模态下分别往回跟踪T帧;分别计算两种模态下前向后向跟踪的误差;比较在这T帧两种模态下正向反向跟踪结果,选择可信度较高的模态作为这T帧的跟踪结果;这T帧下可信度比较小的模态位置更新为另一模态下的位置,并重新初始化目标模型;判断是否最后帧决定继续跟踪还是结束跟踪。本发明能在计算机上实现对视频的目标近乎实时跟踪,跟踪性能较普通方法也有很大的提高。

Description

一种结合可见光和红外图像的多模态目标跟踪方法
技术领域
本发明涉及计算机技术领域,特别是一种结合可见光和红外图像的多模态目标跟踪方法。本发明在现有的STRUCK算法上拓展创新为多模态跟踪算法,特别地,STRUCK算法可以替换成其余任何单目标跟踪方法。
背景技术
目标跟踪是计算机视觉一个非常重要的研究领域。目标跟踪在工业界有着广泛的应用领域如安防监控、自动驾驶、行为分析等。
目前,很多目标跟踪的方法都是基于单种模态(可见光,红外等)。基于可见光图像的跟踪方法往往因环境光照变化、目标形变、遮挡等情况下失效;而基于红外模态的方法因相似性目标的干扰不能得到一个很好的外观模型,当两个相似的目标靠近时,这种方法显得无能为力。所以,目前存在很多同时利用两种模态信息的方法,它们大多仅是把两种信息简单地融合相加,这些方法在一些场景下跟踪性能会有提高,但是,当某个模态存在噪声时会对整体造成干扰,使得跟踪不可靠。
Sam Hare等在文献“Struck:Structured Output Tracking with Kernels”(IEEEInternational Conference on Computer Vision,ICCV 2011)提出一种单目标跟踪的方法(下简称STRUCK),该方法基于结构化的核方法支持向量机,通过学习目标和背景的判别模型分类器,直接输出目标的位置。STRUCK算法在单目标跟踪上具有较高的跟踪性能,在外观变化、遮挡等情况下具有比较好的鲁棒性。Dae-Youn Lee等在文献“MultihypothesisTrajectory Analysis for Robust Visual Tracking”(IEEE Conference on ComputerVision and Pattern Recognition,CVPR2015)中在STRUCK的基础上提出一种多路径猜想的目标跟踪方法,分别在Haar特征、颜色直方图特征、梯度直方图特征下跟踪,选择比较好的特征作为跟踪结果。但是,直接使用这些方法在多模态跟踪却不能得到好的性能。
本发明的目的在于获得更好的跟踪性能,克服单模态目标跟踪信息少和多模态跟踪下直接融合特征造成干扰等问题,提出一种结合可见光和红外图像的多模态目标跟踪方法。
一种结合可见光和红外图像的多模态目标跟踪方法,步骤如下:分别获取可见光图像和红外图像;在任一模态下标定目标矩形框;两种模态下分别初始化目标模型;使用STRUCK算法分别跟踪T帧,在跟踪过程中判断是否要更新目标模型;跟踪T帧后,两种模态下分别往回跟踪T帧;分别计算两种模态下前向后向跟踪的误差;比较在这T帧两种模态下正向反向跟踪结果,选择可信度较高的模态作为这T帧的跟踪结果;这T帧下可信度比较小的模态位置更新为另一模态下的位置,并重新初始化目标模型;判断是否最后帧决定继续跟踪还是结束跟踪。本发明能在计算机上实现对视频的目标近乎实时跟踪,跟踪性能较普通方法也有很大的提高,解决了仅依靠单模态跟踪下信息较少和融合多模态信息造成干扰的缺点。
进一步的,上述多模态目标跟踪方法具体包括以下步骤:
(1)读入图像:分别读入可见光和红外图像,将其转换成单通道图像后计算积分图,方便之后计算haar特征使用。
(2)在任一图像上手动框选目标框,框选后算法分别在两种模态下通过粒子滤波采样正负样本(与目标框重合率大于0.5的是正样本,重合率小于0.5的为负样本),在目标跟踪评测中一般认为跟踪矩形框和真实目标矩形框重合率大于0.5为跟踪成功,完成分类器的初始化。
(3)读入下一帧的两种图像,在上一帧跟踪结果(第一帧为手动框选的位置)的基础上通过粒子滤波采样200个(选取200的原因是为了在选取足够的样本和跟踪效率上做的一个权衡)具有平移、尺度变化的样本。
(4)分别通过两种模态的分类器在上面获得的样本中得到最好的样本作为该帧的跟踪结果。
(5)判断分类器得到的最好的样本的分类得分是否大于某个阈值,如果是,更新分类器,否则不更新。
(6)判断该帧是否为预设T的倍数或者最后一帧(T为大于0的值),如果是,从该帧开始重新初始化两种模态的分类器,往回跟踪T帧,继续步骤(7)。否则返回(3)。
(7)记这T帧的起始时间帧是τs,终止时间是τe,从τs到τe的正向跟踪结果的矩形框为:可见光模态下在红外模态下为从τs到τe的跟踪结果的矩形框中心坐标为:可见光模态下红外模态下从τe到τs的反向跟踪结果的矩形框为中心坐标为
(8)在这T帧下,计算可见光模态下跟踪结果正向、反向的平均重合率(其中overlap函数是两个矩形交集面积和并集面积之比);
计算红外模态下跟踪结果正向、反向的平均重合率
(9)在这T帧下,计算可见光模态下跟踪结果中心的正向方向平均距离计算红外模态下的平均距离
(10)在这T帧下,计算可见光模态下目标正向运动的总路程计算红外模态下目标正向运动的总路程
(11)在两种模态下定义一个有效值:可见光模态下,有效值红外模态下的有效值为
(12)如果那么可见光模态在这T帧的跟踪结果要好于红外模态,跟踪结果选择可见光模态的跟踪结果,红外模态在第e帧选择可见光的跟踪结果并重新初始化;否则选择红外模态的跟踪结果,可见光模态在第e帧的跟踪结果选择红外模态的并重新初始化。如果是最后一帧,则跟踪结束,否则返回(3)。
上述各式中:表示在模态m下从时间τs到τs的正向跟踪结果矩形框集合,元素表示在m模态下τi时刻正向跟踪的矩形框;其中m=1是可见光,m=2是红外模态,i=s,s+1,…,e;表示在模态m下从时间τs到τs的正向跟踪结果矩形中心坐标集合,元素表示在m模态下τi时刻正向跟踪的矩形中心坐标,α是平衡参数,λ1和λ2是权重值;相应地,当标记的上方是←时表示的是反向跟踪
与现有技术相比,本发明的有益效果为:本发明能在计算机上实现对视频的目标近乎实时跟踪,跟踪性能较普通方法也有很大的提高,解决了仅依靠单模态跟踪下信息较少和融合多模态信息造成干扰的缺点。该方法能自动选择较好的模态进行跟踪,使跟踪性能大大提升。
附图说明
图1是本发明的流程图.
图2是本发明中可见光和红外图像正向反向跟踪示意图。
图3是本发明展示的两个视频的跟踪结果,虚线矩形是STRUCK算法跟踪结果,实线矩形是本发明的跟踪结果。右边的饼状图分别表示跟踪过程中挑选的模态所占的比重。
具体实施方式
下面结合附图对本发明做进一步的描述,但本发明的实施方式并不限于此。
本发明调用开源计算机视觉库OpenCV,开源矩阵运算库Eigen,下面结合附图对本发明进一步描述。
两种模态下正向跟踪与反向跟踪(图1左右虚线框)
读入图像:分别读入可见光和红外图像,都转换成灰度图然后计算积分图。
在任一图像上手动框选目标框,框选后算法分别在两种模态下通过粒子滤波采样正负样本(与目标框重合率大于0.5的是正样本,重合率小于0.5的为负样本),每个样本都计算haar特征。haar特征使用6种特征子,共192维特征。
由正负样本完成两种模态下分类器的初始化。具体就是求解下面的目标函数。
φ(x,y)表示样本(x,y)的特征,y是样本的变换位置变量,ξi是松弛变量。
读入下一帧的一组图像,在上一帧跟踪结果(第一帧为手动框选的位置)的基础上通过粒子滤波采样200个具有平移、尺度变化的样本,具体是使用多维高斯分布Ν(xt-1;σ2),xt-1是上一帧跟踪结果,σ2是一个对角协方差矩阵代表x方向,y方向,尺度的方差。
上述得到的样本,经过各自模态分类器都会得到一个得分,选择得分最高的样本中得到最好的样本作为该帧的跟踪结果。两种模态下,判断分类器得到的最好的样本的分类得分是否大于某个阈值,如果是,更新分类器,否则不更新。更新的方法是设定最大的支持向量个数,对支持向量权重排序,去除掉超过固定值个数的支持向量,重新学习分类器。
判断该帧是否是T的倍数或者最后一帧,如果是,从该帧开始重新初始化两种模态的分类器,往回跟踪T帧,跟踪方式与正向跟踪一样。否则继续正向跟踪。
正向方向跟踪整合(图1中间部分)
记这T帧的起始时间帧是τs,终止时间是τe,从τs到τe的正向跟踪结果的矩形框为:可见光模态下在红外模态下为从τs到τe的跟踪结果的矩形框中心坐标为:可见光模态下红外模态下从τe到τs的反向跟踪结果的矩形框为中心坐标为
在这T帧下,计算可见光模态下跟踪结果正向、反向的平均重合率
计算红外模态下跟踪结果正向、反向的平均重合率
在这T帧下,计算可见光模态下跟踪结果中心的正向方向平均距离计算红外模态下的平均距离
在这T帧下,计算可见光模态下目标正向运动的总路程计算红外模态下目标正向运动的总路程
平均重合率越大,平均距离越小,表明前后跟踪的结果越吻合,也就越可信(见图2(a))。同时,在红外图像上往往存在这么一种情况:如夜晚场景时,可见光模态失效,跟踪的时候在可见光图片上会跟踪框基本不会变化(见图2(b)),那么在可见光模态下平均重合率非常大,平均距离非常小,最后的跟踪结果就会选择可见光模态的,造成跟踪错误。所以,这里我们引入了总路程约束,我们希望目标运动的总距离越大越好,同时需要保证正方向平均重合率大,平均距离误差小。这样在两种模态下定义一个可信度:可见光模态下,可信度红外模态下的可信度为
其中α是平衡参数,λ1和λ2是权重值,λ1越大,表示重合率贡献越大,λ2越大,表示距离贡献越大,且两者满足λ12=1。
如果那么可见光模态在这T帧的跟踪结果要好于红外模态,跟踪结果选择可见光模态的跟踪结果,红外模态在第e帧选择可见光的跟踪结果并重新初始化;否则选择红外模态的跟踪结果,可见光模态在第e帧的跟踪结果选择红外模态的并重新初始化。如果是最后一帧,跟踪结束,继续读入下一帧进行跟踪。
以上所述的本发明的实施方式,并不构成对本发明保护范围的限定。任何在本发明的精神原则之内所做出的修改、等同替换和改进等,均应包含在本发明的权利要求保护范围之内。

Claims (4)

1.一种结合可见光和红外图像的多模态目标跟踪方法,其特征在于,步骤如下:分别获取可见光图像和红外图像;在任一模态下标定目标框;两种模态下分别初始化目标模型;使用STRUCK算法分别跟踪T帧,在跟踪过程中判断是否要更新目标模型;跟踪T帧后,两种模态下分别往回跟踪T帧;分别计算两种模态下前向后向跟踪的误差;比较在这T帧两种模态下正向反向跟踪结果,选择可信度较高的模态作为这T帧的跟踪结果;这T帧下可信度比较小的模态位置更新为另一模态下的位置,并重新初始化目标模型;判断是否最后帧决定继续跟踪还是结束跟踪;
其具体过程如下:
(1)读入图像:分别读入可见光和红外图像,分别将其转换成单通道图像后计算积分图;
(2)在任一可见光或红外图像上手动框选目标框,框选后分别在可见光模态和红外模态这两种模态下通过粒子滤波采样正负样本,完成分类器的初始化;
(3)读入下一帧的两种图像,在上一帧跟踪结果的基础上通过粒子滤波采样M个具有平移、尺度变化的样本,其中第一帧为步骤(2)中手动框选的位置;
(4)分别采用在可见光模态和红外模态这两种模态的分类器在步骤(3)获得的样本中得到最好的样本作为该帧的跟踪结果;
(5)判断分类器得到的最好的样本的分类得分是否大于预设的阈值,如果是,更新分类器,否则不更新;
(6)判断该帧是否为预设T的倍数或者最后一帧,如果不是,则返回(3);如果是,从该帧开始重新初始化两种模态的分类器,并从该帧开始,往回跟踪T帧,继续步骤(7);
(7)记这T帧的起始时间帧是τs,终止时间是τe,从τs到τe的正向跟踪结果的矩形框为:可见光模态下为在红外模态下为从τs到τe的跟踪结果的矩形框中心坐标为:可见光模态下红外模态下从τe到τs的反向跟踪结果的矩形框为中心坐标为
(8)在这T帧下,计算可见光模态下跟踪结果正向、反向的平均重合率其中overlap函数是两个矩形交集面积和并集面积之比;
计算红外模态下跟踪结果正向、反向的平均重合率
(9)在这T帧下,计算可见光模态下跟踪结果中心的正向方向平均距离计算红外模态下的平均距离
(10)在这T帧下,计算可见光模态下目标正向运动的总路程计算红外模态下目标正向运动的总路程
(11)在两种模态下定义一个有效值:可见光模态下,有效值红外模态下的有效值为
(12)如果那么可见光模态在这T帧的跟踪结果要好于红外模态,跟踪结果选择可见光模态的跟踪结果,红外模态在第e帧选择可见光的跟踪结果并重新初始化;否则选择红外模态的跟踪结果,可见光模态在第e帧的跟踪结果选择红外模态的并重新初始化;如果是最后一帧,则跟踪结束,否则返回步骤(3);
上述各式中:表示在模态m下从时间τs到τs的正向跟踪结果矩形框集合,元素表示在m模态下τi时刻正向跟踪的矩形框;其中m=1是可见光,m=2是红外模态,i=s,s+1,…,e;表示在模态m下从时间τs到τs的正向跟踪结果矩形中心坐标集合,元素表示在m模态下τi时刻正向跟踪的矩形中心坐标,α是平衡参数,λ1和λ2是权重值;相应地,当标记的上方是←时表示的是反向跟踪。
2.根据权利要求1所述的多模态目标跟踪方法,其特征在于,所述步骤(2)中,正样本是指与目标框重合率大于预设值的是样本,负样本是指重合率小于预设值的样本。
3.根据权利要求2所述的多模态目标跟踪方法,其特征在于,所述预设值为0.5。
4.根据权利要求1所述的多模态目标跟踪方法,其特征在于,所述步骤(3)中M的取值为200。
CN201610697825.2A 2016-08-19 2016-08-19 一种结合可见光和红外图像的多模态目标跟踪方法 Active CN106250878B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610697825.2A CN106250878B (zh) 2016-08-19 2016-08-19 一种结合可见光和红外图像的多模态目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610697825.2A CN106250878B (zh) 2016-08-19 2016-08-19 一种结合可见光和红外图像的多模态目标跟踪方法

Publications (2)

Publication Number Publication Date
CN106250878A CN106250878A (zh) 2016-12-21
CN106250878B true CN106250878B (zh) 2019-12-31

Family

ID=57592662

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610697825.2A Active CN106250878B (zh) 2016-08-19 2016-08-19 一种结合可见光和红外图像的多模态目标跟踪方法

Country Status (1)

Country Link
CN (1) CN106250878B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107066922B (zh) * 2016-12-30 2021-05-07 西安天和防务技术股份有限公司 用于国土资源监控的目标追踪方法
CN106897731B (zh) * 2016-12-30 2020-08-21 西安天和防务技术股份有限公司 用于国土资源监控的目标跟踪系统
CN106971401B (zh) * 2017-03-30 2020-09-25 联想(北京)有限公司 多目标跟踪装置和方法
CN107730535B (zh) * 2017-09-14 2020-03-24 北京空间机电研究所 一种可见光红外级联视频跟踪方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102231191A (zh) * 2011-07-17 2011-11-02 西安电子科技大学 基于asift的多模态图像特征提取与匹配方法
CN102324023A (zh) * 2011-09-05 2012-01-18 华中科技大学 多模态的多目标特征获取方法
CN104462489A (zh) * 2014-12-18 2015-03-25 北京邮电大学 一种基于深层模型的跨模态检索方法
CN104680558A (zh) * 2015-03-14 2015-06-03 西安电子科技大学 使用GPU硬件加速的Struck目标跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102231191A (zh) * 2011-07-17 2011-11-02 西安电子科技大学 基于asift的多模态图像特征提取与匹配方法
CN102324023A (zh) * 2011-09-05 2012-01-18 华中科技大学 多模态的多目标特征获取方法
CN104462489A (zh) * 2014-12-18 2015-03-25 北京邮电大学 一种基于深层模型的跨模态检索方法
CN104680558A (zh) * 2015-03-14 2015-06-03 西安电子科技大学 使用GPU硬件加速的Struck目标跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于可见光与红外图像特征融合的目标跟踪;闫钧华;《中国惯性技术学报》;20130831;第517-523页 *
局部鉴别分析驱动的红外与可见光图像协同目标跟踪;王江涛等;《计算机辅助设计与图形学学报》;20140630;第870-878页 *

Also Published As

Publication number Publication date
CN106250878A (zh) 2016-12-21

Similar Documents

Publication Publication Date Title
US11256955B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
CN108985186B (zh) 一种基于改进YOLOv2的无人驾驶中行人检测方法
CN111914664A (zh) 基于重识别的车辆多目标检测和轨迹跟踪方法
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
Li et al. Tracking in low frame rate video: A cascade particle filter with discriminative observers of different life spans
US20180330183A1 (en) Image recognition apparatus, learning apparatus, image recognition method, learning method, and storage medium
KR101964397B1 (ko) 정보처리장치 및 정보처리방법
JP5726125B2 (ja) 奥行き画像内の物体を検出する方法およびシステム
KR101434205B1 (ko) 다수의 쓰레숄드 적응적 부스팅을 가진 객체 검출 및 분류를 위한 시스템 및 방법
US9639748B2 (en) Method for detecting persons using 1D depths and 2D texture
EP2518661A2 (en) System and method for human detection and counting using background modeling, hog and haar features
Lin et al. Learning a scene background model via classification
CN106250878B (zh) 一种结合可见光和红外图像的多模态目标跟踪方法
CN110929593A (zh) 一种基于细节辨别区别的实时显著性行人检测方法
CN111144207B (zh) 一种基于多模态信息感知的人体检测和跟踪方法
CN110569782A (zh) 一种基于深度学习目标检测方法
CN113592911B (zh) 表观增强深度目标跟踪方法
JP2016015045A (ja) 画像認識装置、画像認識方法及びプログラム
CN108734200B (zh) 基于bing特征的人体目标视觉检测方法和装置
CN109544592A (zh) 针对相机移动的运动目标检测算法
CN110599463A (zh) 一种基于轻量级联神经网络的舌像检测及定位算法
Song et al. Target detection via HSV color model and edge gradient information in infrared and visible image sequences under complicated background
Zheng et al. Online depth image-based object tracking with sparse representation and object detection
CN110827327B (zh) 一种基于融合的长期目标跟踪方法
Schulz et al. Object-class segmentation using deep convolutional neural networks

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Lin Jing

Inventor after: Hu Shiyi

Inventor after: Cheng Hui

Inventor after: Wang Qing

Inventor before: Hu Shiyi

Inventor before: Lin Jing

Inventor before: Cheng Hui

Inventor before: Wang Qing

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20161221

Assignee: GUANGDONG TECSUN TECHNOLOGY Co.,Ltd.

Assignor: SUN YAT-SEN University

Contract record no.: X2023980054810

Denomination of invention: A multimodal target tracking method combining visible light and infrared images

Granted publication date: 20191231

License type: Common License

Record date: 20240102

Application publication date: 20161221

Assignee: SHENDAYUN NETWORK (SHENZHEN) Co.,Ltd.

Assignor: SUN YAT-SEN University

Contract record no.: X2023980054642

Denomination of invention: A multimodal target tracking method combining visible light and infrared images

Granted publication date: 20191231

License type: Common License

Record date: 20231229

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20161221

Assignee: Guangdong Runyu Information Technology Co.,Ltd.

Assignor: SUN YAT-SEN University

Contract record no.: X2023980054829

Denomination of invention: A multimodal target tracking method combining visible light and infrared images

Granted publication date: 20191231

License type: Common License

Record date: 20240104

Application publication date: 20161221

Assignee: Guangzhou Angu Information Technology Co.,Ltd.

Assignor: SUN YAT-SEN University

Contract record no.: X2023980054827

Denomination of invention: A multimodal target tracking method combining visible light and infrared images

Granted publication date: 20191231

License type: Common License

Record date: 20240104

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20161221

Assignee: Guangzhou Xianghui Engineering Technology Co.,Ltd.

Assignor: SUN YAT-SEN University

Contract record no.: X2024980001984

Denomination of invention: A multimodal target tracking method combining visible light and infrared images

Granted publication date: 20191231

License type: Common License

Record date: 20240205

Application publication date: 20161221

Assignee: Guangzhou Liren Digital Technology Co.,Ltd.

Assignor: SUN YAT-SEN University

Contract record no.: X2024980001991

Denomination of invention: A multimodal target tracking method combining visible light and infrared images

Granted publication date: 20191231

License type: Common License

Record date: 20240205

Application publication date: 20161221

Assignee: Spectrum Blue Cloud (Guangzhou) Digital Technology Co.,Ltd.

Assignor: SUN YAT-SEN University

Contract record no.: X2024980001990

Denomination of invention: A multimodal target tracking method combining visible light and infrared images

Granted publication date: 20191231

License type: Common License

Record date: 20240205

EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20161221

Assignee: Guangzhou Love Time Information Technology Co.,Ltd.

Assignor: SUN YAT-SEN University

Contract record no.: X2024980002610

Denomination of invention: A multimodal target tracking method combining visible light and infrared images

Granted publication date: 20191231

License type: Common License

Record date: 20240307

Application publication date: 20161221

Assignee: Zhongyuan Technology (Guangdong) Co.,Ltd.

Assignor: SUN YAT-SEN University

Contract record no.: X2024980002582

Denomination of invention: A multimodal target tracking method combining visible light and infrared images

Granted publication date: 20191231

License type: Common License

Record date: 20240307

EE01 Entry into force of recordation of patent licensing contract