CN117314975A - 低算力环境下基于模型推理的跟踪目标丢失再捕获方法 - Google Patents

低算力环境下基于模型推理的跟踪目标丢失再捕获方法 Download PDF

Info

Publication number
CN117314975A
CN117314975A CN202311578366.2A CN202311578366A CN117314975A CN 117314975 A CN117314975 A CN 117314975A CN 202311578366 A CN202311578366 A CN 202311578366A CN 117314975 A CN117314975 A CN 117314975A
Authority
CN
China
Prior art keywords
target
subregion
computational
tracking
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311578366.2A
Other languages
English (en)
Other versions
CN117314975B (zh
Inventor
李毅捷
陈益
陈春
李东晨
肖枭
夏添
罗瀚森
何建
李非桃
高升久
冉欢欢
李和伦
褚俊波
王丹
董平凯
陈未东
杨伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Desheng Xinda Brain Intelligence Technology Co ltd
Original Assignee
Sichuan Desheng Xinda Brain Intelligence Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Desheng Xinda Brain Intelligence Technology Co ltd filed Critical Sichuan Desheng Xinda Brain Intelligence Technology Co ltd
Priority to CN202311578366.2A priority Critical patent/CN117314975B/zh
Publication of CN117314975A publication Critical patent/CN117314975A/zh
Application granted granted Critical
Publication of CN117314975B publication Critical patent/CN117314975B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了低算力环境下基于模型推理的跟踪目标丢失再捕获方法,涉及视频跟踪领域。包括:输入图像帧,并记录目标历史帧位置和瞬时速度;跟踪丢失时,根据历史帧数据采用卡尔曼滤波预测目标运动轨迹;将整个图像帧区域等分为多个子区域,并根据卡尔曼滤波结果划分子区域优先级;训练小型yolov5n检测模型,使用双线程按照优先级从大到小的顺序,将各个子区域图像输入到yolov5n检测模型进行推理,直到检测到目标的位置;根据目标在子区域中的坐标和目标所在区域编号,反算目标在整个图像帧区域中的坐标,完成捕获;利用小型yolov5n检测模型的检测结果更新卡尔曼滤波的参数。本发明通过减少捕获时的运算量,在算力较低的情况下,能快速的重新捕获丢失的跟踪目标。

Description

低算力环境下基于模型推理的跟踪目标丢失再捕获方法
技术领域
本发明涉及视频跟踪领域,具体涉及低算力环境下基于模型推理的跟踪目标丢失再捕获方法。
背景技术
目标跟踪及丢失再捕获任务中,需要在给定的图像序列的第一帧中获取目标的尺寸和位置信息,然后能够从接下来的图像序列中精确地定位并追踪目标,并在尽可能长的时间内预测目标在图像序列中的运动路径和状态。当跟踪目标丢失以后,需要在尽量短的时间内重新捕获目标,而重新捕获目标往往需要较大的运算量。因此,在低算力情况下,重新捕获通常需要较长时间,找到一种快捷的捕获方式具有重要的意义。
发明内容
本发明的目的在于克服现有技术的不足,提供一种低算力环境下基于模型推理的跟踪目标丢失再捕获方法。
本发明的目的是通过以下技术方案来实现的:
低算力环境下基于模型推理的跟踪目标丢失再捕获方法,包括以下步骤:
S1:输入图像帧,并记录目标历史帧位置和瞬时速度;
S2:跟踪丢失时,根据历史帧数据采用卡尔曼滤波预测目标运动轨迹;
S3:将整个图像帧区域等分为多个子区域,并根据卡尔曼滤波结果划分子区域优先级;
S4:训练小型yolov5n检测模型,使用双线程按照优先级从大到小的顺序,将各个子区域图像输入到yolov5n检测模型进行推理,直到检测到目标的位置;
S5:根据目标在子区域中的坐标和目标所在区域编号,反算目标在整个图像帧区域中的坐标,完成捕获;
S6:利用小型yolov5n检测模型的检测结果更新卡尔曼滤波的参数。
进一步地,所述的小型yolov5n检测模型的输入分辨率为划分后子区域图像分辨率的一半。
进一步地,所述的步骤S2具体包括:
S201:设目标初始位置为,目标瞬时速度/>为0,则目标初始状态为:
S202:设当前帧为第k帧,上一帧为第k-1帧,计算当前帧的先验状态估计值和先验误差协方差矩阵/>
其中A为状态转移矩阵,Q为过程噪声协方差矩阵,为上一帧的后验状态值,P k-1为上一帧的后验误差协方差矩阵;
S203:若跟踪未丢失,记录当前跟踪位置, 计算瞬时速度:
使用跟踪结果作为卡尔曼滤波的观测值:
S204:迭代并更新状态估计矩阵和后验误差协方差矩阵/>
其中,H为状态观测矩阵,P为误差协方差矩阵,R为观测噪声协方差矩阵。
进一步地,所述的步骤S3的过程具体为:分别计算目标运动轨迹的预测点到各子区域中心点距离,按照距离越短优先级越高的原则划分区域优先级。
进一步地,所述的步骤S4中,所述的双线程具体为:设划分后的四个子区域按优先级从高到低排序为第一至第四子区域,将第一和第三子区域划分为一组,第二和第四子区域划分为另一组,将第一和第二子区域通过两个线程并行计算,第一和第二子区域并行计算完成后,再将第三和第四子区域通过相同的两个线程并行计算。
进一步地,步骤S3中所述的将整个图像帧区域等分为多个子区域具体为将整个跟踪的图像帧区域等分为四个大小相同的正方形区域。
进一步地,步骤S5中所述的反算目标在整个图像帧区域中的坐标通过以下公式:
其中,(x, y)为目标在子区域中的坐标,n为目标所在区域编号,p、q分别为划分子区域的长和宽。
进一步地,步骤S6具体过程包括:
S601:根据小型yolov5n检测模型检测到的当前目标位置,计算当前目标的瞬时速度;
S602:将当前检测到的目标位置和瞬时速度作为卡尔曼滤波的观测值;
S603:更新卡尔曼滤波中的状态估计矩阵和后验误差协方差矩阵/>
本发明的有益效果是:
1)分割图像后所需检测网络分辨率变小,推理所需时间减少。
2)理想情况下,只需要进行一次推理可得到目标位置,大幅缩短捕获时间;最坏情况下,需进行4次256x256的模型推理,在双线程情况下,每个线程需进行2次256x256的模型推理。256x256模型推理速度约等于512x512模型的2.5倍,通过增加可接受范围内的CPU消耗,从而弥补AI芯片算力不足的问题,使得推理时间略小于单次512x512模型。
附图说明
图1为一个实施例提供的低算力环境下基于模型推理的跟踪目标丢失再捕获方法的流程图;
图2为一个实施例提供的低算力环境下基于模型推理的跟踪目标丢失再捕获方法的子区域划分示意图。
具体实施方式
下面将结合实施例,对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有付出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
参阅图1-图2,本发明提供一种技术方案:
低算力环境下基于模型推理的跟踪目标丢失再捕获方法,如图1所示,包括以下步骤:
S1:输入图像帧,并记录目标历史帧位置和瞬时速度。
本实施例中,输入图像帧分辨率为1024x1024,设每帧中目标的坐标为,目标的瞬时速度为/>
S2:跟踪丢失时,根据历史帧数据采用卡尔曼滤波预测目标运动轨迹;具体包括:
S201:设目标初始位置为,目标瞬时速度/>为0,则目标初始状态为:
S202:设当前帧为第k帧,上一帧为第k-1帧,计算当前帧的先验状态估计值和先验误差协方差矩阵/>
其中,为状态转移矩阵,/>为过程噪声协方差矩阵,/>为上一帧的后验状态值,P k-1为上一帧的后验误差协方差矩阵;误差协方差矩阵
S203:若跟踪未丢失,记录当前跟踪位置, 计算瞬时速度:
使用跟踪结果作为卡尔曼滤波的观测值:
S204:迭代并更新状态估计矩阵和后验误差协方差矩阵/>
其中,为状态观测矩阵,/>为误差协方差矩阵,/>为观测噪声协方差矩阵。
S3:将整个图像帧区域等分为多个子区域,并根据卡尔曼滤波结果划分子区域优先级。
将整个图像帧区域等分为多个子区域具体为将整个跟踪的图像帧区域等分为四个大小相同的正方形区域。本实施例中,将整个跟踪区域划分为4个四个大小相同的正方形子区域,每个区域分辨率为512x512,如图2所示。
进一步地,所述的步骤S3的过程具体为:分别计算目标运动轨迹的预测点到各子区域中心点距离,按照距离越短优先级越高的原则划分区域优先级。本实施例中,设优先级为1-4,1为最高。
S4:训练小型yolov5n检测模型,使用双线程按照优先级从大到小的顺序,将各个子区域图像输入到yolov5n检测模型进行推理,直到检测到目标的位置。
本实施例中,所述的小型yolov5n检测模型的输入分辨率为划分后子区域图像分辨率的一半,小型yolov5n检测模型的输入分辨率具体为256x256。
所述的步骤S4中,所述的双线程具体为:设划分后的四个子区域按优先级从高到低排序为第一至第四子区域,将第一和第三子区域划分为一组,第二和第四子区域划分为另一组,将第一和第二子区域通过两个线程并行计算,第一和第二子区域并行计算完成后,再将第三和第四子区域通过相同的两个线程并行计算。
S5:根据目标在子区域中的坐标和目标所在区域编号,反算目标在整个图像帧区域中的坐标,完成捕获;反算目标在整个图像帧区域中的坐标通过以下公式:
其中,(x, y)为目标在子区域中的坐标,n为目标所在区域编号,p、q分别为划分子区域的长和宽。
S6:利用小型yolov5n检测模型的检测结果更新卡尔曼滤波的参数;具体过程包括:
S601:根据小型yolov5n检测模型检测到的当前目标位置,计算当前目标的瞬时速度;
S602:将当前检测到的目标位置和瞬时速度作为卡尔曼滤波的观测值;
S603:更新卡尔曼滤波中的状态估计矩阵和后验误差协方差矩阵/>
本发明通过对检测区域进行划分,分割图像后基于模型推理所需检测网络分辨率变小,推理所需时间减少;理想情况下,只需要进行一次推理可得到目标位置,大幅缩短捕获时间,最坏情况下,需进行4次256x256的模型推理,在双线程情况下,每个线程需进行2次256x256的模型推理。经测试256x256模型推理速度约等于512x512模型的2.5倍。通过增加可接受范围内的CPU消耗,从而弥补AI芯片算力不足的问题,使得推理时间略小于单次512x512模型,设512x512模型单次推理时间为v p
以上所述仅是本发明的优选实施方式,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。

Claims (8)

1.低算力环境下基于模型推理的跟踪目标丢失再捕获方法,其特征在于,包括以下步骤:
S1:输入图像帧,并记录目标历史帧位置和瞬时速度;
S2:跟踪丢失时,根据历史帧数据采用卡尔曼滤波预测目标运动轨迹;
S3:将整个图像帧区域等分为多个子区域,并根据卡尔曼滤波结果划分子区域优先级;
S4:训练小型yolov5n检测模型,使用双线程按照优先级从大到小的顺序,将各个子区域图像输入到yolov5n检测模型进行推理,直到检测到目标的位置;
S5:根据目标在子区域中的坐标和目标所在区域编号,反算目标在整个图像帧区域中的坐标,完成捕获;
S6:利用小型yolov5n检测模型的检测结果更新卡尔曼滤波的参数。
2.根据权利要求1所述的低算力环境下基于模型推理的跟踪目标丢失再捕获方法,其特征在于:所述的小型yolov5n检测模型的输入分辨率为划分后子区域图像分辨率的一半。
3.根据权利要求1所述的低算力环境下基于模型推理的跟踪目标丢失再捕获方法,其特征在于:所述的步骤S2具体包括:
S201:设目标初始位置为,目标瞬时速度/>为0,则目标初始状态为:
S202:设当前帧为第k帧,上一帧为第k-1帧,计算当前帧的先验状态估计值 和先验误差协方差矩阵/>
其中A为状态转移矩阵,Q为过程噪声协方差矩阵,为上一帧的后验状态值,P k-1为上一帧的后验误差协方差矩阵;
S203:若跟踪未丢失,记录当前跟踪位置, 计算瞬时速度:
使用跟踪结果作为卡尔曼滤波的观测值:
S204:迭代并更新状态估计矩阵和后验误差协方差矩阵/>
其中,H为状态观测矩阵,P为误差协方差矩阵,R为观测噪声协方差矩阵。
4.根据权利要求3所述的低算力环境下基于模型推理的跟踪目标丢失再捕获方法,其特征在于:所述的步骤S3的过程具体为:分别计算目标运动轨迹的预测点到各子区域中心点距离,按照距离越短优先级越高的原则划分区域优先级。
5.根据权利要求1所述的低算力环境下基于模型推理的跟踪目标丢失再捕获方法,其特征在于:步骤S3中所述的将整个图像帧区域等分为多个子区域具体为将整个跟踪的图像帧区域等分为四个大小相同的正方形区域。
6.根据权利要求5所述的低算力环境下基于模型推理的跟踪目标丢失再捕获方法,其特征在于:所述的步骤S4中,所述的双线程具体为:设划分后的四个子区域按优先级从高到低排序为第一至第四子区域,将第一和第三子区域划分为一组,第二和第四子区域划分为另一组,将第一和第二子区域通过两个线程并行计算,第一和第二子区域并行计算完成后,再将第三和第四子区域通过相同的两个线程并行计算。
7.根据权利要求6所述的低算力环境下基于模型推理的跟踪目标丢失再捕获方法,其特征在于:步骤S5中所述的反算目标在整个图像帧区域中的坐标通过以下公式:
其中,(x,y)为目标在子区域中的坐标,n为目标所在区域编号,p、q分别为划分子区域的长和宽。
8.根据权利要求3所述的低算力环境下基于模型推理的跟踪目标丢失再捕获方法,其特征在于:步骤S6具体过程包括:
S601:根据小型yolov5n检测模型检测到的当前目标位置,计算当前目标的瞬时速度;
S602:将当前检测到的目标位置和瞬时速度作为卡尔曼滤波的观测值;
S603:更新卡尔曼滤波中的状态估计矩阵和后验误差协方差矩阵/>
CN202311578366.2A 2023-11-24 2023-11-24 低算力环境下基于模型推理的跟踪目标丢失再捕获方法 Active CN117314975B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311578366.2A CN117314975B (zh) 2023-11-24 2023-11-24 低算力环境下基于模型推理的跟踪目标丢失再捕获方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311578366.2A CN117314975B (zh) 2023-11-24 2023-11-24 低算力环境下基于模型推理的跟踪目标丢失再捕获方法

Publications (2)

Publication Number Publication Date
CN117314975A true CN117314975A (zh) 2023-12-29
CN117314975B CN117314975B (zh) 2024-01-26

Family

ID=89255446

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311578366.2A Active CN117314975B (zh) 2023-11-24 2023-11-24 低算力环境下基于模型推理的跟踪目标丢失再捕获方法

Country Status (1)

Country Link
CN (1) CN117314975B (zh)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104063835A (zh) * 2014-04-02 2014-09-24 中国人民解放军第二炮兵指挥学院 一种卫星遥感图像实时并行处理系统及处理方法
WO2014182156A1 (en) * 2013-05-08 2014-11-13 Mimos Berhad A system and method for detecting an object
CN106204644A (zh) * 2016-07-01 2016-12-07 屈桢深 一种基于视频的目标长期跟踪方法
CN110222581A (zh) * 2019-05-13 2019-09-10 电子科技大学 一种基于双目相机的四旋翼无人机视觉目标跟踪方法
US20190285881A1 (en) * 2018-03-16 2019-09-19 Magic Leap, Inc. Facial expressions from eye-tracking cameras
CN113763431A (zh) * 2021-09-15 2021-12-07 深圳大学 一种目标跟踪方法、系统、电子装置及存储介质
CN114596332A (zh) * 2022-04-26 2022-06-07 四川迪晟新达类脑智能技术有限公司 提升跟踪目标特征信息的方法、系统、设备及存储介质
CN116758732A (zh) * 2023-05-18 2023-09-15 内蒙古工业大学 雾计算环境下的交叉路口车辆检测和公交优先通行方法
CN117079095A (zh) * 2023-06-25 2023-11-17 江南大学 基于深度学习的高空抛物检测方法、系统、介质和设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014182156A1 (en) * 2013-05-08 2014-11-13 Mimos Berhad A system and method for detecting an object
CN104063835A (zh) * 2014-04-02 2014-09-24 中国人民解放军第二炮兵指挥学院 一种卫星遥感图像实时并行处理系统及处理方法
CN106204644A (zh) * 2016-07-01 2016-12-07 屈桢深 一种基于视频的目标长期跟踪方法
US20190285881A1 (en) * 2018-03-16 2019-09-19 Magic Leap, Inc. Facial expressions from eye-tracking cameras
CN110222581A (zh) * 2019-05-13 2019-09-10 电子科技大学 一种基于双目相机的四旋翼无人机视觉目标跟踪方法
CN113763431A (zh) * 2021-09-15 2021-12-07 深圳大学 一种目标跟踪方法、系统、电子装置及存储介质
CN114596332A (zh) * 2022-04-26 2022-06-07 四川迪晟新达类脑智能技术有限公司 提升跟踪目标特征信息的方法、系统、设备及存储介质
CN116758732A (zh) * 2023-05-18 2023-09-15 内蒙古工业大学 雾计算环境下的交叉路口车辆检测和公交优先通行方法
CN117079095A (zh) * 2023-06-25 2023-11-17 江南大学 基于深度学习的高空抛物检测方法、系统、介质和设备

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
YUMING CHEN 等: "An Improved Strong Tracking Kalman Filter Algorithm for the Initial Alignment of the Shearer", 《HINDAWI》, pages 1 - 13 *
ZHE WANG 等: "Video Key Frame Monitoring Algorithm and Virtual Reality Display Based on Motion Vector", 《IEEE》, pages 159027 - 159038 *
周祥增: "基于深度学习的运动目标检测与跟踪研究", 《中国博士学位论文全文数据库 信息科技辑》, pages 138 - 116 *
胖墩会武术: "yolo目标追踪:卡尔曼滤波 + 匈牙利匹配算法 + deepsort算法", pages 1 - 9, Retrieved from the Internet <URL:《https://blog.csdn.net/shinuone/article/details/129639864》> *

Also Published As

Publication number Publication date
CN117314975B (zh) 2024-01-26

Similar Documents

Publication Publication Date Title
JP3079196B2 (ja) フィードバックループ装置およびイメージデータピクセルの繰返し動作処理方法
EP2180695B1 (en) Apparatus and method for improving frame rate using motion trajectory
CN108961318B (zh) 一种数据处理方法及计算设备
US8295607B1 (en) Adaptive edge map threshold
CN105574891B (zh) 检测图像中的运动目标的方法及系统
CN108647694A (zh) 基于上下文感知和自适应响应的相关滤波目标跟踪方法
CN105890768B (zh) 一种红外图像非均匀性校正的方法及装置
CN110853077B (zh) 一种基于形态变化估计的自适应红外动态帧特征提取方法
CN110245641A (zh) 一种目标追踪拍摄方法、装置、电子设备
US20130141595A1 (en) Method for detecting dead pixels and computer program roduct thereof
CN110674886A (zh) 一种融合多层级特征的视频目标检测方法
CN111310759A (zh) 双模式协作的目标检测抑制优化方法及设备
CN117314975B (zh) 低算力环境下基于模型推理的跟踪目标丢失再捕获方法
EP3296749B1 (en) Motion encoder
Zhou et al. Video text processing method based on image stitching
CN115550632A (zh) 一种视频抖动检测方法、装置以及设备
KR101483549B1 (ko) 입자 생성 및 선별을 통한 카메라 위치 추정 방법 및 이동 시스템
CN106683113A (zh) 特征点跟踪方法和装置
CN109033924A (zh) 一种视频中人形检测的方法及装置
JPH04345396A (ja) 移動物体追跡方法
Zhang et al. A traffic flow detection system combining optical flow and shadow removal
JP2000011134A (ja) 移動量検出装置及びその方法
CN114830178A (zh) 控制传感器激活和解激活以实现节能定位
CN113689467B (zh) 一种适用于平面跟踪的特征点优化方法、系统
CN109993078A (zh) 车载环境的图像识别方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant