CN110163887B - 基于运动插值估计与前景分割相结合的视频目标跟踪方法 - Google Patents
基于运动插值估计与前景分割相结合的视频目标跟踪方法 Download PDFInfo
- Publication number
- CN110163887B CN110163887B CN201910375504.4A CN201910375504A CN110163887B CN 110163887 B CN110163887 B CN 110163887B CN 201910375504 A CN201910375504 A CN 201910375504A CN 110163887 B CN110163887 B CN 110163887B
- Authority
- CN
- China
- Prior art keywords
- module
- frame
- model
- target
- foreground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于运动插值估计与前景分割相结合的视频目标跟踪方法,该方法是通过使用运动估计插值产生的中间信息,结合前景背景的分割,优势互补,在确保产生足够充足中间帧的同时,利用前景背景分割降低背景对目标模型带来的干扰,两个方面共同作用,优势互补,既达到了增加模型应对快速变化目标的适应能力,又增加了模型应对干扰例如遮挡的鲁棒性。使得目标跟踪工作的更加准确,提升目标跟踪的准确率。
Description
技术领域
本发明涉及目标跟踪领域,尤其是涉及一种基于运动插值估计与前景分割相结合的视频目标跟踪方法。
背景技术
目标跟踪问题,是利用计算机视觉技术确定视频序列中的特定目标位置的问题。目标跟踪问题一般分解为三部分,获取的目标视觉特征,进行特征匹配,求解目标当前位置。
它们面临两方面问题:
第一方面,快速变化的目标,跟踪器更新速度相对过慢失效。
由于目标可能变化较快(包括空间位置变化和特征变化),可能出现跟踪器由于搜索区域不足不能精确地跟上目标的情况,运动估计插值可以一定程度上解决这类问题,但是引入的插值可能由于目标本身特征变化较大(如变形)导致跟踪模型与目标区别过大导致跟踪失效的情况。近年,在目标跟踪领域,许多算法都着力快速变化的问题。(Correlation filters with limited boundaries.In: 2015IEEE Conference onComputer Vision andPattern Recognition (CVPR).pp.4630–4638)有限边界的CF(CFLB)),空间正则化CF(SRDCF)(Learning spatially regularized correlationfilters for visual tracking.In: 2015 IEEEInternational Conference on ComputerVision.pp. 4310–431) 和背景相关滤波器(BACF)(Learning background-awarecorrelation filters for visual tracking. In: 2017 IEEE InternationalConference on Computer Vision (ICCV).pp.1144–1152) 都为了从训练样本中获取更重要的信息,提出了不同的方法,以实现更好的跟踪模型。提出有限边界的CF(CFLB)(Correlation filters with limited boundaries.In: 2015 IEEE Conference onComputer Vision andPattern Recognition (CVPR).pp.4630–4638) 方法能够学习边界效应较少的CF。然而,它使用的特征仅仅是基于像素,这被证明不足以在图像中表达规律(Multi-channel correlation filters.In:2013 IEEE International Conference onComputer Vision.pp.3072–3079) 。空间正则化CF算法(SRDCF)修改了跟踪器的优化目标,以便在图像包的中心周围保留更多信息。
第二方面,干扰如遮挡,跟踪器更新速度相对过快失效。
目标在被遮挡时,如果更新速度相对过快,那么跟踪模型与目标区别过大,导致遮挡结束时,跟踪失效。前景背景分割可以一定长度上解决这类问题,如果被标识为背景的区域,就不会被作为跟踪模型的一部分纳入考虑。近年,在目标跟踪领域,许多算法都着力干扰的问题。背景相关滤波器(BACF)通过包含来自帧的更多背景信息并生成负面训练样本的方法,来促使分类器将背景与前景区分开。然而这种方法仅仅考虑了模型干扰问题,没有考虑目标快速变化问题,对快速变化目标效果依然不佳。
对国内外相关专利分析可得出以下结论:目前没有结合运动估计插值和前景分割提升目标跟踪方法上的应用。
发明内容
本发明的目的在于提供一种通过使用运动估计插值产生的中间信息来获得中间响应图、结合前景背景分割、使用目标跟踪工作更加准确的基于运动插值估计与前景分割相结合的视频目标跟踪方法。
本发明的目的是这样实现的:
一种基于运动插值估计与前景分割相结合的视频目标跟踪方法,特征是:具体步骤如下:
A、使用运动插值估计,根据原始视频数据,增广一组携带时空信息的样本,首先计算运动矢量场;对于第t帧ft和第t+1帧ft+1之间的运动矢量场uλ(c),令δt表示第t帧ft和第t+1帧ft+1的时间间隔,那么在时间t + λ · δt上生成的uλ(c)可被表示为: uλ(c+λut(c))=ut(c);对于插值运动场中的每个空洞区域,通过最邻近的运动矢量填充;
B、利用计算所得的运动矢量场uλ(c),生成内插帧,由前帧ft和后帧ft+1插值产生的第i个内插结果fλ(c)被表示为:fλ(c)=(1-λ)ft(c-λuλ(c)+λft+1(c+(1-λ)uλ(c));
C、使用增广之后的数据,输入跟踪模块:根据给定位置p0,提取出原始模型mdl0;
D、利用基于光流的前景背景检测方法,区分前景和背景,生成前景掩膜M0;
E、根据目标模型,对下一帧进行检测,计算响应R0,并且利用之前的前景掩膜对检测结果进行加权,R0·M0并取响应峰值max(R)作为预测出的跟踪目标位置p;
F、利用预测的跟踪目标位置p1生成一个预测位置的目标模型Tmp1;
G、根据预测位置的目标模型Tmp1,按照固定的学习率α,更新原有目标模型,生成更新过的模型mdl1;
H、对于第t帧,重复步骤C至步骤第G,根据上一帧位置pt-1和上一帧更新过的模型mdlt-1,逐帧生成跟踪结果pt和更新过的模型mdlt。
所述步骤B中:利用运动矢量场ut对原始视频数据进行增广,不需要额外标定,生成的数据也作为新的样本输入。
所述步骤C至步骤第G中:经过数据增广的视频数据输入跟踪模块后,与前景掩膜生成模块相结合,共同确定响应峰值。
对于视频目标跟踪方法所采用的视频目标跟踪系统,包括运动插值估计模块和结合前景分割的目标跟踪模块,其中:
运动插值估计模块包括运动估计模块和数据增广模块;
结合前景分割的目标跟踪模块包括目标模型提取模块、前景掩膜生成模块、响应计算模块和模型更新模块;
经过运动插值估计模块生成的数据,输入结合前景分割的目标跟踪模块,即:
A、运动插值估计模块根据输入的原始视频数据,对视频相邻帧进行运动估计,生成内插的中间帧,与原始数据一同输入结合前景分割的目标跟踪模块;其中:
所述运动估计模块:根据输入的原始视频数据,根据相邻帧的数据计算所有像素的运动矢量场u,对于空洞区域,采用最邻近法进行填充,将计算得到的运动矢量场u输入数据增广模块;
所述数据增广模块:利用原始视频数据,和从运动估计模块输入的运动矢量场u,对原始视频数据进行数据增广,对于第t帧ft和第t+1帧ft+1之间的运动矢量场uλ(c),令δt表示第t帧ft和第t+1帧ft+1的时间间隔,那么在时间t + λ · δt上生成的uλ(c)可被表示为:uλ(c+λut(c))=ut(c);利用第t帧ft和第t+1帧ft+1,内插出误差最小的中间帧fλ,fλ(c)=(1-λ)ft(c-λuλ(c)+λft+1(c+(1-λ)uλ(c));并将中间帧fλ与原始视频数据全部输入目标跟踪模块中的目标模型提取模块;
B、结合前景分割的目标跟踪模块根据输入的增广后的视频数据,结合邻近帧的运动信息进行前景分割,生成跟踪结果;其中:
所述目标模型提取模块:当t=1时,mdlt-1= mdl0根据给定位置p0计算原始模型mdl0,当t>1时,由模型更新模块输入的更新模型mdlt-1,作为原始模型:mdlt-1,与增广后视频数据一同输入前景掩膜生成模块;
所述前景掩膜生成模块:根据增广后视频数据,生成光流,结合光流与原始模型mdlt-1,生成前景背景的分割,对帧中的每一个像素,以像素是前景的可能性对每个像素赋值,生成一个前景掩膜M,输入响应计算模块;
所述响应计算模块:使用原始模型mdlt-1,选取第t-1的跟踪结果pt-1作为的第t帧ft的目标位置pt-1附近的区域计算相关性,获得响应R,使用前景掩膜M对响应R进行加权:M·R,并取峰值作为预测位置pt,预测位置pt作为系统的输出结果;
所述模型更新模块:根据预测位置pt,计算预测模型tmpt,按照固定的学习率α=0.01更新模型,计算更新模型mdlt=(1-α)mdlt-1+αtmpt,进入下一时刻,令t=t+1,则mdlt=mdlt-1,将mdlt-1输入目标模型提取模块。
与现有技术相比,本发明具有以下效果:
本发明通过使用运动估计插值产生的中间信息,结合前景背景的分割,优势互补,在确保产生足够充足中间帧的同时,利用前景背景分割降低背景对目标模型带来的干扰,两个方面共同作用,优势互补,既达到了增加模型应对快速变化目标的适应能力,又增加了模型应对干扰例如遮挡的鲁棒性。使得目标跟踪工作的更加准确,提升目标跟踪的准确率。
附图说明
图1为本发明中视频目标跟踪系统的结构示意图;
图2为本发明中运动内插估计模块的示意图;
图3为本发明中结合前景分割的目标跟踪模块的示意图。
具体实施方式
下面结合实施例并对照附图对本发明作进一步详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进。这些都属于本发明的保护范围。
一种基于运动插值估计与前景分割相结合的视频目标跟踪方法,具体步骤如下:
第一步:为了提取运动信息,所提出的方法利用运动插值估计(运动估计内插方法),增广一组携带时空信息的样本。优选地,运动估计(ME)通过依赖于块匹配或特征点匹配,匹配两个相邻帧中的相同实体并计算运动矢量场(MVF)来完成。首先将两个相邻帧分成具有长度的方块,并通过匹配块并记录两帧之间的移动,计算运动矢量场u(MVF)。对于具有中心c 和大小p·p 的块,通过最小化来自两个帧的块之间的能量差来完成块匹配:其形式取决于代价函数,优选地,使用平均绝对差(MAD)或均方误差(MSE)。通过最小化代价,可以将每个块(δc) 的运动估计生成为MVF u(c),MVF记录每个块的运动估计。为了计算中间帧,首先计算插值字段。从第t帧ft和第t+1帧ft+1之间的运动场ut。令δt表示时间间隔,那么在时间t + λ · δt上生成的运动场c 可被表示为: uλ(c+λut(c))=ut(c),对于插值运动场中的每个空洞区域,通过最邻近的运动矢量填充。由第t帧ft和第t+1帧ft+1插值产生的第i个内插结果被表示为:fλ(c)=(1-λ)ft(c-λuλ(c)+λft+1(c+(1-λ)uλ(c));
第二步:使用增广后的视频数据,作为跟踪任务的输入。根据给定的目标位置p0,提取出目标的模型mdl0,优选地,使用correlation滤波器选取目标模型;
第三步:利用基于光流和手工特征的前景背景检测方法,区分前景和背景生成前景掩膜M0;
第四步:根据目标模型,对下一帧进行检测,计算响应R0,并且利用之前的前景掩膜M0对检测结果进行加权,R0·M0并取响应峰值max(R)作为预测出的预测位置p1,通过搜索最大响应的位置来检测新位置;
第五步:预测位置p1为新目标模型提供新的训练样本,利用预测的跟踪目标位置p1生成一个预测位置的目标模型Tmp1;
第六步:根据预测位置的目标模型Tmp1,更新原有目标模型,生成更新过的模型mdl1。
对于第t帧,重复第二步至第六步,根据第t-1帧位置pt-1和第t-1帧的更新模型mdlt-1逐帧生成跟踪结果pt和更新模型mdlt。
本实施例所述装置实现的功能如下:
(1)利用运动信息估计,生成包含时空一致性信息的中间视频数据,为视频分析增广的数据;
(2)结合前景背景分割与增广的数据,对目标模型进行自适应更新,实现目标跟踪。
综上,利用视频数据中的目标运动信息,实时计算目标的运动向量场,对原有视频数据进行插值,融入运动信息,再结合前景背景分割,优势互补,既达到了增加模型应对快速变化目标的适应能力,又增加了模型应对干扰例如遮挡的鲁棒性,使用目标跟踪工作的更加准确。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,这并不影响本发明的实质内容。
Claims (4)
1.一种基于运动插值估计与前景分割相结合的视频目标跟踪方法,其特征在于:具体步骤如下:
A、使用运动插值估计,根据原始视频数据,增广一组携带时空信息的样本,首先计算运动矢量场:对于第t帧ft和第t+1帧ft+1之间的时刻tλ = t + λ · δt,图像块c生成的运动矢量场uλ (c)可被表示为:uλ(c+λut(c))=ut(c);对于插值运动场中的每个空洞区域,通过最邻近的运动矢量填充;
B、利用计算所得的运动矢量场,生成内插帧;由前帧ft和后帧ft+1插值产生中间帧fλ(c):fλ(c)=(1-λ)ft(c-λuλ(c)+λft+1(c+(1-λ)uλ(c));
C、使用增广之后的数据,输入跟踪模块:根据给定位置p0,提取出原始模型mdl0;
D、利用基于光流的前景背景检测方法,区分前景和背景,生成前景掩膜M0;
E、根据目标模型,对下一帧进行检测,计算响应R0,并且利用之前的前景掩膜对检测结果进行加权,R0·M0并取响应峰值max(R)作为预测出的跟踪目标位置p1;
F、利用预测的跟踪目标位置p1生成一个预测位置的目标模型Tmp1;
G、根据预测位置的目标模型Tmp1,按照固定的学习率α,更新原有目标模型,生成更新过的模型mdl1;
H、对于第t帧,重复步骤C至步骤第G,根据上一帧位置pt-1和上一帧更新过的模型mdlt-1,逐帧生成跟踪结果pt和更新过的模型mdlt。
2.根据权利要求1所述的基于运动插值估计与前景分割相结合的视频目标跟踪方法,其特征在于:所述步骤B中:利用运动矢量场ut对原始视频数据进行增广,不需要额外标定,生成的数据也作为新的样本输入。
3.根据权利要求1所述的基于运动插值估计与前景分割相结合的视频目标跟踪方法,其特征在于:所述步骤C至步骤第G中:经过数据增广的视频数据输入跟踪模块后,与前景掩膜生成模块相结合,共同确定响应峰值。
4.一种基于运动插值估计与前景分割相结合的视频目标跟踪方法,其特征在于:视频目标跟踪方法所采用的视频目标跟踪系统,包括运动插值估计模块和结合前景分割的目标跟踪模块,其中:
运动插值估计模块包括运动估计模块和数据增广模块;
结合前景分割的目标跟踪模块包括目标模型提取模块、前景掩膜生成模块、响应计算模块和模型更新模块;
经过运动插值估计模块生成的数据,输入结合前景分割的目标跟踪模块,即:
A、运动插值估计模块根据输入的原始视频数据,对视频相邻帧进行运动估计,生成内插的中间帧,与原始数据一同输入结合前景分割的目标跟踪模块;其中:
所述运动估计模块:根据输入的原始视频数据,根据相邻帧的数据计算所有像素的运动矢量场u,对于空洞区域,采用最邻近法进行填充,将计算得到的运动矢量场u输入数据增广模块;
所述数据增广模块:所述权利要求1步骤A中,根据原始视频数据,增广一组携带时空信息的样本,首先计算运动矢量场,具体为:对于第t帧ft和第t+1帧ft+1之间的时刻tλ = t + λ· δt,图像块c生成的运动矢量场uλ (c)可被表示为:uλ(c+λut(c))=ut(c);所述权利要求1步骤B中,利用计算所得的运动矢量场,生成内插帧,具体为:利用第t帧ft和第t+1帧ft+1,内插出误差最小的中间帧fλ(c):fλ(c)=(1-λ)ft(c-λuλ(c)+λft+1(c+(1-λ)uλ(c));并将中间帧fλ(c)与原始视频数据全部输入目标跟踪模块中的目标模型提取模块;
B、结合前景分割的目标跟踪模块根据输入的增广后的视频数据,结合邻近帧的运动信息进行前景分割,生成跟踪结果;其中:
所述目标模型提取模块:当t=1时,mdlt-1 = mdl0根据给定位置p0计算原始模型mdl0,当t>1时,由模型更新模块输入的更新模型mdlt-1,作为原始模型:mdlt-1,与增广后视频数据一同输入前景掩膜生成模块;
所述前景掩膜生成模块:根据增广后视频数据,生成光流,结合光流与原始模型mdlt-1,生成前景背景的分割,对帧中的每一个像素,以像素是前景的可能性对每个像素赋值,生成一个前景掩膜M,输入响应计算模块;
所述响应计算模块:使用原始模型mdlt-1,选取第t-1的跟踪结果pt-1作为的第t帧ft的目标位置pt-1附近的区域计算相关性,获得响应R,使用前景掩膜M对响应R进行加权:M·R,并取峰值作为预测位置pt,预测位置pt作为系统的输出结果;
所述模型更新模块:根据预测位置pt,计算预测模型tmpt,按照固定的学习率α=0.01更新模型,计算更新模型mdlt=(1-α)mdlt-1+αtmpt,进入下一时刻,令t=t+1,则mdlt= mdlt-1,将mdlt-1输入目标模型提取模块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910375504.4A CN110163887B (zh) | 2019-05-07 | 2019-05-07 | 基于运动插值估计与前景分割相结合的视频目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910375504.4A CN110163887B (zh) | 2019-05-07 | 2019-05-07 | 基于运动插值估计与前景分割相结合的视频目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110163887A CN110163887A (zh) | 2019-08-23 |
CN110163887B true CN110163887B (zh) | 2023-10-20 |
Family
ID=67633558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910375504.4A Active CN110163887B (zh) | 2019-05-07 | 2019-05-07 | 基于运动插值估计与前景分割相结合的视频目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110163887B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111260687B (zh) * | 2020-01-10 | 2022-09-27 | 西北工业大学 | 一种基于语义感知网络和相关滤波的航拍视频目标跟踪方法 |
CN111968155B (zh) * | 2020-07-23 | 2022-05-17 | 天津大学 | 一种基于分割目标掩模更新模板的目标跟踪方法 |
US11889227B2 (en) | 2020-10-05 | 2024-01-30 | Samsung Electronics Co., Ltd. | Occlusion processing for frame rate conversion using deep learning |
CN112966723B (zh) * | 2021-02-08 | 2022-05-03 | 北京百度网讯科技有限公司 | 视频数据增广方法、装置、电子设备及可读存储介质 |
CN113077516B (zh) * | 2021-04-28 | 2024-02-23 | 深圳市人工智能与机器人研究院 | 一种位姿确定方法及相关设备 |
CN116665177B (zh) * | 2023-07-31 | 2023-10-13 | 福思(杭州)智能科技有限公司 | 数据处理方法、装置、电子装置和存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108182388A (zh) * | 2017-12-14 | 2018-06-19 | 哈尔滨工业大学(威海) | 一种基于图像的运动目标跟踪方法 |
CN109146911A (zh) * | 2018-07-23 | 2019-01-04 | 北京航空航天大学 | 一种目标跟踪的方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7701508B2 (en) * | 2005-11-30 | 2010-04-20 | Lsi Corporation | Accurate motion detection for the combination of motion adaptive and motion compensation de-interlacing applications |
TW201322769A (zh) * | 2011-11-28 | 2013-06-01 | Sunplus Technology Co Ltd | 運動向量改善裝置及其影像改善方法 |
-
2019
- 2019-05-07 CN CN201910375504.4A patent/CN110163887B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108182388A (zh) * | 2017-12-14 | 2018-06-19 | 哈尔滨工业大学(威海) | 一种基于图像的运动目标跟踪方法 |
CN109146911A (zh) * | 2018-07-23 | 2019-01-04 | 北京航空航天大学 | 一种目标跟踪的方法及装置 |
Non-Patent Citations (1)
Title |
---|
LEARNING A PERSPECTIVE-EMBEDDED DECONVOLUTION NETWORK FOR CROWD COUNTING;Muming Zhao et al.;《IEEE International Conference on Multimedia and Expo (ICME) 2017》;IEEE Explore;20170714;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110163887A (zh) | 2019-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163887B (zh) | 基于运动插值估计与前景分割相结合的视频目标跟踪方法 | |
CN110111366B (zh) | 一种基于多级损失量的端到端光流估计方法 | |
EP3540637B1 (en) | Neural network model training method, device and storage medium for image processing | |
JP7177062B2 (ja) | 統計モデルを用いた画像データからの深度予測 | |
CN109271933B (zh) | 基于视频流进行三维人体姿态估计的方法 | |
CN109670474B (zh) | 一种基于视频的人体姿态估计方法、装置及设备 | |
CN111860504B (zh) | 基于深度学习的视觉多目标跟踪方法及装置 | |
CN110378348B (zh) | 视频实例分割方法、设备及计算机可读存储介质 | |
CN113286194A (zh) | 视频处理方法、装置、电子设备及可读存储介质 | |
CN104966286B (zh) | 一种3d视频显著性检测方法 | |
CN102077250B (zh) | 移动体检测方法及移动体检测装置 | |
CN111861880B (zh) | 基于区域信息增强与块自注意力的图像超分与融合方法 | |
CN106210449B (zh) | 一种多信息融合的帧率上变换运动估计方法及系统 | |
CN106331723B (zh) | 一种基于运动区域分割的视频帧率上变换方法及系统 | |
CN101236657A (zh) | 单一运动目标轨迹的跟踪与记录方法 | |
KR102201297B1 (ko) | 다중 플로우 기반 프레임 보간 장치 및 방법 | |
CN112270691B (zh) | 一种基于动态滤波器网络的单目视频结构和运动预测方法 | |
CN112330589A (zh) | 估计位姿的方法、装置及计算机可读存储介质 | |
CN111598928A (zh) | 一种基于具有语义评估和区域建议的突变运动目标跟踪方法 | |
CN111931603A (zh) | 基于竞合网络的双流卷积网络的人体动作识别系统及方法 | |
CN117561540A (zh) | 使用帧序列执行计算机视觉任务的系统和方法 | |
CN114842047A (zh) | 基于运动先验的孪生网络卫星视频目标跟踪方法 | |
KR20220145792A (ko) | 비디오 신원 복원 모델을 이용한 얼굴 이미지 재구성 방법 및 장치 | |
CN113033283B (zh) | 一种改进的视频分类系统 | |
CN110163892B (zh) | 基于运动估计插值的学习率渐进更新方法及动态建模系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |