CN117314975A - 低算力环境下基于模型推理的跟踪目标丢失再捕获方法 - Google Patents
低算力环境下基于模型推理的跟踪目标丢失再捕获方法 Download PDFInfo
- Publication number
- CN117314975A CN117314975A CN202311578366.2A CN202311578366A CN117314975A CN 117314975 A CN117314975 A CN 117314975A CN 202311578366 A CN202311578366 A CN 202311578366A CN 117314975 A CN117314975 A CN 117314975A
- Authority
- CN
- China
- Prior art keywords
- target
- subregion
- computational
- tracking
- low
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000001514 detection method Methods 0.000 claims abstract description 26
- 238000001914 filtration Methods 0.000 claims abstract description 18
- 239000011159 matrix material Substances 0.000 claims description 31
- 230000007704 transition Effects 0.000 claims description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了低算力环境下基于模型推理的跟踪目标丢失再捕获方法,涉及视频跟踪领域。包括:输入图像帧,并记录目标历史帧位置和瞬时速度;跟踪丢失时,根据历史帧数据采用卡尔曼滤波预测目标运动轨迹;将整个图像帧区域等分为多个子区域,并根据卡尔曼滤波结果划分子区域优先级;训练小型yolov5n检测模型,使用双线程按照优先级从大到小的顺序,将各个子区域图像输入到yolov5n检测模型进行推理,直到检测到目标的位置;根据目标在子区域中的坐标和目标所在区域编号,反算目标在整个图像帧区域中的坐标,完成捕获;利用小型yolov5n检测模型的检测结果更新卡尔曼滤波的参数。本发明通过减少捕获时的运算量,在算力较低的情况下,能快速的重新捕获丢失的跟踪目标。
Description
技术领域
本发明涉及视频跟踪领域,具体涉及低算力环境下基于模型推理的跟踪目标丢失再捕获方法。
背景技术
目标跟踪及丢失再捕获任务中,需要在给定的图像序列的第一帧中获取目标的尺寸和位置信息,然后能够从接下来的图像序列中精确地定位并追踪目标,并在尽可能长的时间内预测目标在图像序列中的运动路径和状态。当跟踪目标丢失以后,需要在尽量短的时间内重新捕获目标,而重新捕获目标往往需要较大的运算量。因此,在低算力情况下,重新捕获通常需要较长时间,找到一种快捷的捕获方式具有重要的意义。
发明内容
本发明的目的在于克服现有技术的不足,提供一种低算力环境下基于模型推理的跟踪目标丢失再捕获方法。
本发明的目的是通过以下技术方案来实现的:
低算力环境下基于模型推理的跟踪目标丢失再捕获方法,包括以下步骤:
S1:输入图像帧,并记录目标历史帧位置和瞬时速度;
S2:跟踪丢失时,根据历史帧数据采用卡尔曼滤波预测目标运动轨迹;
S3:将整个图像帧区域等分为多个子区域,并根据卡尔曼滤波结果划分子区域优先级;
S4:训练小型yolov5n检测模型,使用双线程按照优先级从大到小的顺序,将各个子区域图像输入到yolov5n检测模型进行推理,直到检测到目标的位置;
S5:根据目标在子区域中的坐标和目标所在区域编号,反算目标在整个图像帧区域中的坐标,完成捕获;
S6:利用小型yolov5n检测模型的检测结果更新卡尔曼滤波的参数。
进一步地,所述的小型yolov5n检测模型的输入分辨率为划分后子区域图像分辨率的一半。
进一步地,所述的步骤S2具体包括:
S201:设目标初始位置为,目标瞬时速度/>为0,则目标初始状态为:
S202:设当前帧为第k帧,上一帧为第k-1帧,计算当前帧的先验状态估计值和先验误差协方差矩阵/>:
其中A为状态转移矩阵,Q为过程噪声协方差矩阵,为上一帧的后验状态值,P k-1为上一帧的后验误差协方差矩阵;
S203:若跟踪未丢失,记录当前跟踪位置, 计算瞬时速度:
使用跟踪结果作为卡尔曼滤波的观测值:
S204:迭代并更新状态估计矩阵和后验误差协方差矩阵/>:
其中,H为状态观测矩阵,P为误差协方差矩阵,R为观测噪声协方差矩阵。
进一步地,所述的步骤S3的过程具体为:分别计算目标运动轨迹的预测点到各子区域中心点距离,按照距离越短优先级越高的原则划分区域优先级。
进一步地,所述的步骤S4中,所述的双线程具体为:设划分后的四个子区域按优先级从高到低排序为第一至第四子区域,将第一和第三子区域划分为一组,第二和第四子区域划分为另一组,将第一和第二子区域通过两个线程并行计算,第一和第二子区域并行计算完成后,再将第三和第四子区域通过相同的两个线程并行计算。
进一步地,步骤S3中所述的将整个图像帧区域等分为多个子区域具体为将整个跟踪的图像帧区域等分为四个大小相同的正方形区域。
进一步地,步骤S5中所述的反算目标在整个图像帧区域中的坐标通过以下公式:
其中,(x, y)为目标在子区域中的坐标,n为目标所在区域编号,p、q分别为划分子区域的长和宽。
进一步地,步骤S6具体过程包括:
S601:根据小型yolov5n检测模型检测到的当前目标位置,计算当前目标的瞬时速度;
S602:将当前检测到的目标位置和瞬时速度作为卡尔曼滤波的观测值;
S603:更新卡尔曼滤波中的状态估计矩阵和后验误差协方差矩阵/>。
本发明的有益效果是:
1)分割图像后所需检测网络分辨率变小,推理所需时间减少。
2)理想情况下,只需要进行一次推理可得到目标位置,大幅缩短捕获时间;最坏情况下,需进行4次256x256的模型推理,在双线程情况下,每个线程需进行2次256x256的模型推理。256x256模型推理速度约等于512x512模型的2.5倍,通过增加可接受范围内的CPU消耗,从而弥补AI芯片算力不足的问题,使得推理时间略小于单次512x512模型。
附图说明
图1为一个实施例提供的低算力环境下基于模型推理的跟踪目标丢失再捕获方法的流程图;
图2为一个实施例提供的低算力环境下基于模型推理的跟踪目标丢失再捕获方法的子区域划分示意图。
具体实施方式
下面将结合实施例,对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有付出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
参阅图1-图2,本发明提供一种技术方案:
低算力环境下基于模型推理的跟踪目标丢失再捕获方法,如图1所示,包括以下步骤:
S1:输入图像帧,并记录目标历史帧位置和瞬时速度。
本实施例中,输入图像帧分辨率为1024x1024,设每帧中目标的坐标为,目标的瞬时速度为/>。
S2:跟踪丢失时,根据历史帧数据采用卡尔曼滤波预测目标运动轨迹;具体包括:
S201:设目标初始位置为,目标瞬时速度/>为0,则目标初始状态为:
S202:设当前帧为第k帧,上一帧为第k-1帧,计算当前帧的先验状态估计值和先验误差协方差矩阵/>:
其中,为状态转移矩阵,/>为过程噪声协方差矩阵,/>为上一帧的后验状态值,P k-1为上一帧的后验误差协方差矩阵;误差协方差矩阵
。
S203:若跟踪未丢失,记录当前跟踪位置, 计算瞬时速度:
使用跟踪结果作为卡尔曼滤波的观测值:
S204:迭代并更新状态估计矩阵和后验误差协方差矩阵/>:
其中,为状态观测矩阵,/>为误差协方差矩阵,/>为观测噪声协方差矩阵。
S3:将整个图像帧区域等分为多个子区域,并根据卡尔曼滤波结果划分子区域优先级。
将整个图像帧区域等分为多个子区域具体为将整个跟踪的图像帧区域等分为四个大小相同的正方形区域。本实施例中,将整个跟踪区域划分为4个四个大小相同的正方形子区域,每个区域分辨率为512x512,如图2所示。
进一步地,所述的步骤S3的过程具体为:分别计算目标运动轨迹的预测点到各子区域中心点距离,按照距离越短优先级越高的原则划分区域优先级。本实施例中,设优先级为1-4,1为最高。
S4:训练小型yolov5n检测模型,使用双线程按照优先级从大到小的顺序,将各个子区域图像输入到yolov5n检测模型进行推理,直到检测到目标的位置。
本实施例中,所述的小型yolov5n检测模型的输入分辨率为划分后子区域图像分辨率的一半,小型yolov5n检测模型的输入分辨率具体为256x256。
所述的步骤S4中,所述的双线程具体为:设划分后的四个子区域按优先级从高到低排序为第一至第四子区域,将第一和第三子区域划分为一组,第二和第四子区域划分为另一组,将第一和第二子区域通过两个线程并行计算,第一和第二子区域并行计算完成后,再将第三和第四子区域通过相同的两个线程并行计算。
S5:根据目标在子区域中的坐标和目标所在区域编号,反算目标在整个图像帧区域中的坐标,完成捕获;反算目标在整个图像帧区域中的坐标通过以下公式:
其中,(x, y)为目标在子区域中的坐标,n为目标所在区域编号,p、q分别为划分子区域的长和宽。
S6:利用小型yolov5n检测模型的检测结果更新卡尔曼滤波的参数;具体过程包括:
S601:根据小型yolov5n检测模型检测到的当前目标位置,计算当前目标的瞬时速度;
S602:将当前检测到的目标位置和瞬时速度作为卡尔曼滤波的观测值;
S603:更新卡尔曼滤波中的状态估计矩阵和后验误差协方差矩阵/>。
本发明通过对检测区域进行划分,分割图像后基于模型推理所需检测网络分辨率变小,推理所需时间减少;理想情况下,只需要进行一次推理可得到目标位置,大幅缩短捕获时间,最坏情况下,需进行4次256x256的模型推理,在双线程情况下,每个线程需进行2次256x256的模型推理。经测试256x256模型推理速度约等于512x512模型的2.5倍。通过增加可接受范围内的CPU消耗,从而弥补AI芯片算力不足的问题,使得推理时间略小于单次512x512模型,设512x512模型单次推理时间为v p :
以上所述仅是本发明的优选实施方式,应当理解本发明并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本发明的精神和范围,则都应在本发明所附权利要求的保护范围内。
Claims (8)
1.低算力环境下基于模型推理的跟踪目标丢失再捕获方法,其特征在于,包括以下步骤:
S1:输入图像帧,并记录目标历史帧位置和瞬时速度;
S2:跟踪丢失时,根据历史帧数据采用卡尔曼滤波预测目标运动轨迹;
S3:将整个图像帧区域等分为多个子区域,并根据卡尔曼滤波结果划分子区域优先级;
S4:训练小型yolov5n检测模型,使用双线程按照优先级从大到小的顺序,将各个子区域图像输入到yolov5n检测模型进行推理,直到检测到目标的位置;
S5:根据目标在子区域中的坐标和目标所在区域编号,反算目标在整个图像帧区域中的坐标,完成捕获;
S6:利用小型yolov5n检测模型的检测结果更新卡尔曼滤波的参数。
2.根据权利要求1所述的低算力环境下基于模型推理的跟踪目标丢失再捕获方法,其特征在于:所述的小型yolov5n检测模型的输入分辨率为划分后子区域图像分辨率的一半。
3.根据权利要求1所述的低算力环境下基于模型推理的跟踪目标丢失再捕获方法,其特征在于:所述的步骤S2具体包括:
S201:设目标初始位置为,目标瞬时速度/>为0,则目标初始状态为:
S202:设当前帧为第k帧,上一帧为第k-1帧,计算当前帧的先验状态估计值 和先验误差协方差矩阵/>:
其中A为状态转移矩阵,Q为过程噪声协方差矩阵,为上一帧的后验状态值,P k-1为上一帧的后验误差协方差矩阵;
S203:若跟踪未丢失,记录当前跟踪位置, 计算瞬时速度:
使用跟踪结果作为卡尔曼滤波的观测值:
S204:迭代并更新状态估计矩阵和后验误差协方差矩阵/>:
其中,H为状态观测矩阵,P为误差协方差矩阵,R为观测噪声协方差矩阵。
4.根据权利要求3所述的低算力环境下基于模型推理的跟踪目标丢失再捕获方法,其特征在于:所述的步骤S3的过程具体为:分别计算目标运动轨迹的预测点到各子区域中心点距离,按照距离越短优先级越高的原则划分区域优先级。
5.根据权利要求1所述的低算力环境下基于模型推理的跟踪目标丢失再捕获方法,其特征在于:步骤S3中所述的将整个图像帧区域等分为多个子区域具体为将整个跟踪的图像帧区域等分为四个大小相同的正方形区域。
6.根据权利要求5所述的低算力环境下基于模型推理的跟踪目标丢失再捕获方法,其特征在于:所述的步骤S4中,所述的双线程具体为:设划分后的四个子区域按优先级从高到低排序为第一至第四子区域,将第一和第三子区域划分为一组,第二和第四子区域划分为另一组,将第一和第二子区域通过两个线程并行计算,第一和第二子区域并行计算完成后,再将第三和第四子区域通过相同的两个线程并行计算。
7.根据权利要求6所述的低算力环境下基于模型推理的跟踪目标丢失再捕获方法,其特征在于:步骤S5中所述的反算目标在整个图像帧区域中的坐标通过以下公式:
其中,(x,y)为目标在子区域中的坐标,n为目标所在区域编号,p、q分别为划分子区域的长和宽。
8.根据权利要求3所述的低算力环境下基于模型推理的跟踪目标丢失再捕获方法,其特征在于:步骤S6具体过程包括:
S601:根据小型yolov5n检测模型检测到的当前目标位置,计算当前目标的瞬时速度;
S602:将当前检测到的目标位置和瞬时速度作为卡尔曼滤波的观测值;
S603:更新卡尔曼滤波中的状态估计矩阵和后验误差协方差矩阵/>。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311578366.2A CN117314975B (zh) | 2023-11-24 | 2023-11-24 | 低算力环境下基于模型推理的跟踪目标丢失再捕获方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311578366.2A CN117314975B (zh) | 2023-11-24 | 2023-11-24 | 低算力环境下基于模型推理的跟踪目标丢失再捕获方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117314975A true CN117314975A (zh) | 2023-12-29 |
CN117314975B CN117314975B (zh) | 2024-01-26 |
Family
ID=89255446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311578366.2A Active CN117314975B (zh) | 2023-11-24 | 2023-11-24 | 低算力环境下基于模型推理的跟踪目标丢失再捕获方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117314975B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104063835A (zh) * | 2014-04-02 | 2014-09-24 | 中国人民解放军第二炮兵指挥学院 | 一种卫星遥感图像实时并行处理系统及处理方法 |
WO2014182156A1 (en) * | 2013-05-08 | 2014-11-13 | Mimos Berhad | A system and method for detecting an object |
CN106204644A (zh) * | 2016-07-01 | 2016-12-07 | 屈桢深 | 一种基于视频的目标长期跟踪方法 |
CN110222581A (zh) * | 2019-05-13 | 2019-09-10 | 电子科技大学 | 一种基于双目相机的四旋翼无人机视觉目标跟踪方法 |
US20190285881A1 (en) * | 2018-03-16 | 2019-09-19 | Magic Leap, Inc. | Facial expressions from eye-tracking cameras |
CN113763431A (zh) * | 2021-09-15 | 2021-12-07 | 深圳大学 | 一种目标跟踪方法、系统、电子装置及存储介质 |
CN114596332A (zh) * | 2022-04-26 | 2022-06-07 | 四川迪晟新达类脑智能技术有限公司 | 提升跟踪目标特征信息的方法、系统、设备及存储介质 |
CN116758732A (zh) * | 2023-05-18 | 2023-09-15 | 内蒙古工业大学 | 雾计算环境下的交叉路口车辆检测和公交优先通行方法 |
CN117079095A (zh) * | 2023-06-25 | 2023-11-17 | 江南大学 | 基于深度学习的高空抛物检测方法、系统、介质和设备 |
-
2023
- 2023-11-24 CN CN202311578366.2A patent/CN117314975B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014182156A1 (en) * | 2013-05-08 | 2014-11-13 | Mimos Berhad | A system and method for detecting an object |
CN104063835A (zh) * | 2014-04-02 | 2014-09-24 | 中国人民解放军第二炮兵指挥学院 | 一种卫星遥感图像实时并行处理系统及处理方法 |
CN106204644A (zh) * | 2016-07-01 | 2016-12-07 | 屈桢深 | 一种基于视频的目标长期跟踪方法 |
US20190285881A1 (en) * | 2018-03-16 | 2019-09-19 | Magic Leap, Inc. | Facial expressions from eye-tracking cameras |
CN110222581A (zh) * | 2019-05-13 | 2019-09-10 | 电子科技大学 | 一种基于双目相机的四旋翼无人机视觉目标跟踪方法 |
CN113763431A (zh) * | 2021-09-15 | 2021-12-07 | 深圳大学 | 一种目标跟踪方法、系统、电子装置及存储介质 |
CN114596332A (zh) * | 2022-04-26 | 2022-06-07 | 四川迪晟新达类脑智能技术有限公司 | 提升跟踪目标特征信息的方法、系统、设备及存储介质 |
CN116758732A (zh) * | 2023-05-18 | 2023-09-15 | 内蒙古工业大学 | 雾计算环境下的交叉路口车辆检测和公交优先通行方法 |
CN117079095A (zh) * | 2023-06-25 | 2023-11-17 | 江南大学 | 基于深度学习的高空抛物检测方法、系统、介质和设备 |
Non-Patent Citations (4)
Title |
---|
YUMING CHEN 等: "An Improved Strong Tracking Kalman Filter Algorithm for the Initial Alignment of the Shearer", 《HINDAWI》, pages 1 - 13 * |
ZHE WANG 等: "Video Key Frame Monitoring Algorithm and Virtual Reality Display Based on Motion Vector", 《IEEE》, pages 159027 - 159038 * |
周祥增: "基于深度学习的运动目标检测与跟踪研究", 《中国博士学位论文全文数据库 信息科技辑》, pages 138 - 116 * |
胖墩会武术: "yolo目标追踪:卡尔曼滤波 + 匈牙利匹配算法 + deepsort算法", pages 1 - 9, Retrieved from the Internet <URL:《https://blog.csdn.net/shinuone/article/details/129639864》> * |
Also Published As
Publication number | Publication date |
---|---|
CN117314975B (zh) | 2024-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3079196B2 (ja) | フィードバックループ装置およびイメージデータピクセルの繰返し動作処理方法 | |
EP2180695B1 (en) | Apparatus and method for improving frame rate using motion trajectory | |
CN108961318B (zh) | 一种数据处理方法及计算设备 | |
JP2018533805A (ja) | 顔位置追跡方法、装置及び電子デバイス | |
CN110245641A (zh) | 一种目标追踪拍摄方法、装置、电子设备 | |
US8643751B2 (en) | Method for detecting dead pixels and computer program product thereof | |
CN110853077B (zh) | 一种基于形态变化估计的自适应红外动态帧特征提取方法 | |
CN110674886A (zh) | 一种融合多层级特征的视频目标检测方法 | |
CN117314975B (zh) | 低算力环境下基于模型推理的跟踪目标丢失再捕获方法 | |
CN110689554B (zh) | 用于红外图像序列的背景运动估计方法、装置及存储介质 | |
US20080316174A1 (en) | Motion estimation with adaptation of the correlation block size | |
TWI570666B (zh) | 電子裝置及其影片物體追蹤方法 | |
EP3296749B1 (en) | Motion encoder | |
CN107977986B (zh) | 一种运动轨迹的预测方法及装置 | |
KR101483549B1 (ko) | 입자 생성 및 선별을 통한 카메라 위치 추정 방법 및 이동 시스템 | |
CN114830178A (zh) | 控制传感器激活和解激活以实现节能定位 | |
US20220311910A1 (en) | Corner detection method and corner detection device | |
CN113205079B (zh) | 一种人脸检测方法、装置、电子设备及存储介质 | |
JPH04345396A (ja) | 移動物体追跡方法 | |
CN113469993A (zh) | 一种检测运动状态异常的对象的方法、装置及电子设备 | |
JP3747230B2 (ja) | 動画解析システム | |
Zhang et al. | A traffic flow detection system combining optical flow and shadow removal | |
JP2000011134A (ja) | 移動量検出装置及びその方法 | |
CN113689467B (zh) | 一种适用于平面跟踪的特征点优化方法、系统 | |
CN111310824A (zh) | 多角度稠密目标检测抑制优化方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |