CN109544590B - 一种目标跟踪方法及计算设备 - Google Patents

一种目标跟踪方法及计算设备 Download PDF

Info

Publication number
CN109544590B
CN109544590B CN201811428965.5A CN201811428965A CN109544590B CN 109544590 B CN109544590 B CN 109544590B CN 201811428965 A CN201811428965 A CN 201811428965A CN 109544590 B CN109544590 B CN 109544590B
Authority
CN
China
Prior art keywords
target object
target
image frame
distance
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811428965.5A
Other languages
English (en)
Other versions
CN109544590A (zh
Inventor
牟晓正
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Howay sensor (Shanghai) Co.,Ltd.
Original Assignee
Celepixel Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Celepixel Technology Co Ltd filed Critical Celepixel Technology Co Ltd
Priority to CN201811428965.5A priority Critical patent/CN109544590B/zh
Priority to PCT/CN2018/120049 priority patent/WO2020107524A1/zh
Priority to EP18941851.0A priority patent/EP3889897A4/en
Publication of CN109544590A publication Critical patent/CN109544590A/zh
Application granted granted Critical
Publication of CN109544590B publication Critical patent/CN109544590B/zh
Priority to US17/324,208 priority patent/US11657516B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30212Military
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种目标跟踪方法,适于在计算设备中执行,方法包括步骤:利用来自动态视觉传感器的一系列事件数据生成光流图像,事件由目标对象和动态视觉传感器的相对运动而触发;基于光流图像确定当前图像帧中至少一个目标对象的运动速度和运动方向;根据运动方向和运动速度,预测对应的目标对象在下一图像帧中的位置;以及当所预测的位置在视场范围内时,将对应的目标对象作为待跟踪目标。本发明一并公开了相应的计算设备。

Description

一种目标跟踪方法及计算设备
技术领域
本发明涉及目标跟踪技术领域,尤其涉及一种目标跟踪方法及计算设备。
背景技术
目标跟踪在军事和民用领域都具有广泛的应用,如空中监视、卫星和飞船跟踪以及智能视频监控等领域。精准跟踪目标有利于精确了解对方目标的位置,是高科技武器系统及GPS系统的核心技术。同时,随着辅助驾驶系统的应用,如何合理的运用目标跟踪处理技术来保护行人和车辆的安全也是当前的一个热门研究方向。
传统的基于光流的目标跟踪方法需要先通过前后两帧图像计算出光流信息,在此计算过程中需要耗费大量的算力,对算法的实时性是一个很大的挑战。另一方面,目标在快速运动的状态下,传统的跟踪方法很容易产生跟踪丢失。
鉴于此,需要一种有效的目标跟踪方案,能够既减少光流计算上的算力、又具有较好的鲁棒性。
发明内容
本发明提供了一种目标跟踪的方案,以力图解决或者至少缓解上面存在的至少一个问题。
根据本发明的一个方面,提供了一种目标跟踪方法,适于在计算设备中执行,包括步骤:利用来自动态视觉传感器的一系列事件数据生成光流图像,事件由目标对象和动态视觉传感器的相对运动而触发;基于光流图像确定当前图像帧中至少一个目标对象的运动速度和运动方向;根据运动方向和运动速度,预测对应的目标对象在下一图像帧中的位置;以及当所预测的位置在视场范围内时,将对应的目标对象作为待跟踪目标。
可选地,根据本发明的方法还包括步骤:存储所预测的待跟踪目标的位置,以便与下一图像帧中检测到的至少一个目标对象进行匹配。其具体包括步骤:分别计算下一图像帧中至少一个目标对象与所述待跟踪目标的预测位置的距离;当距离满足预定条件时,确定下一图像帧中的该目标对象与待跟踪目标是同一目标。
可选地,在根据本发明的方法中,事件数据包括被触发事件的坐标位置和时间戳,利用来自动态视觉传感器的一系列事件数据生成光流图像的步骤包括:按照时间戳的先后顺序将预定时间段内的事件数据分为预定数目个事件片段;为不同事件片段内的事件分配不同的像素值;以及根据事件的坐标位置和像素值生成光流图像。
可选地,在根据本发明的方法中,基于光流图像确定当前图像帧中至少一个目标对象的运动速度和运动方向的步骤包括:计算当前图像帧中每个目标对象所对应的目标区域;对各目标区域内的像素分别进行聚类处理,来得到各目标对象所对应的第一区域和第二区域;以及将自第一区域指向第二区域的方向作为对应目标对象的运动方向。
可选地,在根据本发明的方法中,基于光流图像确定当前图像帧中至少一个目标对象的运动速度和运动方向的步骤还包括:计算目标对象对应的第一区域与第二区域的距离作为所述目标对象的运动距离;基于第一区域和第二区域内像素的像素值确定所述目标对象的运动时间;以及根据运动距离和运动时间来确定目标对象的运动速度。
可选地,在根据本发明的方法中,将自第一区域指向第二区域的方向作为对应目标对象的运动方向的步骤还包括:分别确定第一区域和第二区域的中心像素,作为第一中心和第二中心;以及将自第一中心指向第二中心的方向作为目标对象的运动方向。
可选地,在根据本发明的方法中,计算目标对象对应的第一区域与第二区域的距离作为目标对象的运动距离的步骤包括:计算第一中心到第二中心的距离作为对应目标对象的运动距离。
可选地,在根据本发明的方法中,基于第一区域和第二区域内像素的像素值确定目标对象的运动时间的步骤包括:基于事件片段对应的像素值和时间段长度来确定单位像素的时长;计算目标对象对应的第一区域内像素的像素均值与第二区域内像素的像素均值的差值;以及根据差值和单位像素的时长确定出目标对象的运动时间。
可选地,根据本发明的方法还包括步骤:当所预测的位置不在视场范围内时,不再跟踪对应的目标对象。
可选地,根据本发明的方法还包括步骤:当下一图像帧中的目标对象与待跟踪目标的预测位置的距离均不满足预定条件时,将该目标对象作为一个新的待跟踪目标。
根据本发明的另一方面,提供了一种计算设备,包括:一个或多个处理器;和存储器;一个或多个程序,其中所述一个或多个程序存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行如上所述目标跟踪方法中的任一方法的指令。
根据本发明的又一方面,提供了一种存储一个或多个程序的计算机可读存储介质,一个或多个程序包括指令,指令当计算设备执行时,使得计算设备执行如上所述目标跟踪方法中的任一方法。
综上所述,根据本发明的方案,基于DVS输出的每一个变化的事件数据生成光流图像,并通过光流图像中所携带的光流信息来预测目标对象的运动方向和运动速度,以便确定待跟踪的目标。同时,根据本发明的方案提供了一种利用上一图像帧中的待跟踪目标对下一图像帧中检测到的至少一个目标对象进行匹配的方法,不仅确保了目标跟踪的准确性,还大大减少了算力。
附图说明
为了实现上述以及相关目的,本文结合下面的描述和附图来描述某些说明性方面,这些方面指示了可以实践本文所公开的原理的各种方式,并且所有方面及其等效方面旨在落入所要求保护的主题的范围内。通过结合附图阅读下面的详细描述,本公开的上述以及其它目的、特征和优势将变得更加明显。遍及本公开,相同的附图标记通常指代相同的部件或元素。
图1示出了根据本发明一些实施例的计算设备100的示意图;
图2示出了根据本发明一个实施例的目标跟踪方法200的流程图;
图3示出了根据本发明一个实施例的生成的光流图像的示意图;
图4示出了根据本发明一个实施例的光流图像中目标对象的运动速度和运动方向的示意图;
图5A和图5B示出了根据本发明一个实施例的在连续两帧图像中确定目标对象的示意图;以及
图6A-6C示出了根据本发明一个实施例的匹配目标对象的过程示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
近年来,动态视觉传感器(Dynamic Vision Sensor,DVS)在计算机视觉领域中得到了越来越多的关注和应用。DVS是一种模拟基于脉冲触发式神经元的人类视网膜的生物拟态视觉传感器。传感器内部具有由多个像素单元构成的像素单元阵列,其中每个像素单元只有在感应到光强变化时,才会响应并记录光强快速变化的区域。关于动态视觉传感器的具体组成此处不做过多阐述。由于DVS采用事件触发的处理机制,故其输出是异步的事件数据流,事件数据流例如是光强变化信息(如,光强变化的时间戳和光强阈值)以及被触发像素单元的坐标位置。基于以上工作原理特性,申请人发现,相比于传统视觉传感器,DVS具有如下优势:1)DVS的响应速度不再受传统的曝光时间和帧速率限制,可以侦测到高达万帧/秒速率运动的高速物体;2)DVS具有更大的动态范围,在低光照或者高曝光环境下都能准确感应并输出场景变化;3)DVS功耗更低;4)由于DVS每个像素单元都是独立响应光强变化,因此DVS不会受运动模糊的影响。
鉴于此,根据本发明的实施方式,提出了一种基于DVS的目标跟踪方案,以解决现有技术要消耗大量算力和鲁棒性不足问题。此外,根据本发明实施方式的目标跟踪方案侧重于解决在多目标跟踪场景中,对多个感兴趣目标进行定位和匹配的问题,以便于维持场景中多个目标的ID、并记录多个目标的运动轨迹。
根据一种实施例,将布置在场景中的DVS所输出的事件数据流传送至一个或多个计算设备,由计算设备对事件数据流进行一系列处理,如,根据事件数据流生成对应的光流图像、预测出当前图像帧中检测出的目标在下一图像帧中可能会出现的位置、将预测的目标位置与实际检测到的目标位置进行匹配,等等,最终实现根据本发明实施例的目标跟踪方案。
根据本发明的一种实施方式,上述执行目标跟踪方案的一个或多个计算设备可以通过图1所示出的计算设备100来实现。图1是示例计算设备100的框图。
在基本的配置102中,计算设备100典型地包括系统存储器106和一个或者多个处理器104。存储器总线108可以用于在处理器104和系统存储器106之间的通信。
取决于期望的配置,处理器104可以是任何类型的处理器,包括但不限于:微处理器(μP)、微控制器(μC)、数字信息处理器(DSP)或者它们的任何组合。处理器104可以包括诸如一级高速缓存110和二级高速缓存112之类的一个或者多个级别的高速缓存、处理器核心114和寄存器116。示例的处理器核心114可以包括运算逻辑单元(ALU)、浮点数单元(FPU)、数字信号处理核心(DSP核心)或者它们的任何组合。示例的存储器控制器118可以与处理器104一起使用,或者在一些实现中,存储器控制器118可以是处理器104的一个内部部分。
取决于期望的配置,系统存储器106可以是任意类型的存储器,包括但不限于:易失性存储器(诸如RAM)、非易失性存储器(诸如ROM、闪存等)或者它们的任何组合。系统存储器106可以包括操作系统120、一个或者多个应用122以及程序数据124。在一些实施方式中,应用122可以布置为在操作系统上利用程序数据124进行操作。如前文所述,在一些实施例中,计算设备100被配置为执行目标跟踪方法,程序数据124中就包含了用于执行根据本发明实施例的目标跟踪方法的指令。
计算设备100还可以包括有助于从各种接口设备(例如,输出设备142、外设接口144和通信设备146)到基本配置102经由总线/接口控制器130的通信的接口总线140。示例的输出设备142包括图形处理单元148和音频处理单元150。它们可以被配置为有助于经由一个或者多个A/V端口152与诸如显示器或者扬声器之类的各种外部设备进行通信。示例外设接口144可以包括串行接口控制器154和并行接口控制器156,它们可以被配置为有助于经由一个或者多个I/O端口158和诸如输入设备(例如,键盘、鼠标、笔、语音输入设备、图像输入设备)或者其他外设(例如打印机、扫描仪等)之类的外部设备进行通信。示例的通信设备146可以包括网络控制器160,其可以被布置为便于经由一个或者多个通信端口164与一个或者多个其他计算设备162通过网络通信链路的通信。
网络通信链路可以是通信介质的一个示例。通信介质通常可以体现为在诸如载波或者其他传输机制之类的调制数据信号中的计算机可读指令、数据结构、程序模块,并且可以包括任何信息递送介质。“调制数据信号”可以是这样的信号,它的数据集中的一个或者多个或者它的改变可以在信号中以编码信息的方式进行。作为非限制性的示例,通信介质可以包括诸如有线网络或者专线网络之类的有线介质,以及诸如声音、射频(RF)、微波、红外(IR)或者其它无线介质在内的各种无线介质。这里使用的术语计算机可读介质可以包括存储介质和通信介质二者。
计算设备100可以实现为包括桌面计算机和笔记本计算机配置的个人计算机。当然,计算设备100也可以实现为小尺寸便携(或者移动)电子设备的一部分,这些电子设备可以是诸如蜂窝电话、数码照相机、个人数字助理(PDA)、个人媒体播放器设备、无线网络浏览设备、个人头戴设备、应用专用设备、或者可以包括上面任何功能的混合设备。本发明的实施例对此均不做限制。
图2示出了根据本发明一个实施例的目标跟踪方法200的流程图。如图2所示,方法200始于步骤S210。
在步骤S210中,利用来自动态视觉传感器的一系列事件数据生成光流图像。如前文所述,事件是由场景中的目标对象和动态视觉传感器的相对运动而触发的,动态视觉传感器输出的事件数据包括被触发事件的坐标位置和被触发时刻的时间戳。
在根据本发明的实施方式中,每隔预定时间段就将DVS输出的一系列事件数据生成光流图像。预定时间段的长度可以根据经验和实际场景设置,例如20毫秒、40毫秒、60毫秒等,本发明的实施例对此不做过多限制。可选地,采用如下方式生成光流图像。
首先,按照时间戳的先后顺序将预定时间段内的事件数据分为预定数目个事件片段。在根据本发明的一个实施例中,预定数目取255。例如,将预定时间段内的事件数据按照时间戳的先后顺序分成255个事件片段。需要说明的是,本发明实施例对分得的各事件片段的长度不做限制,在一些优选的实施例中,各事件片段的长度基本保持一致。
其次,为不同事件片段内的事件分配不同的像素值。在根据本发明的一种实施方式中,一个事件片段内的全部事件赋给同一个灰度值,且灰度值越大表示该事件被触发的时间戳离现在越近,反之越远。例如,将1~255这255个灰度值按照时间戳的先后顺序依次分配给255个事件片段内的事件。
最后,根据事件的坐标位置和像素值生成光流图像。根据一种实施例,设置光流图像的尺寸与DVS中像素单元阵列的尺寸一致,这样,光流图像中的每个像素点对应DVS中的每个像素单元。在光流图像的各像素点写入对应被触发事件所分配到的像素值,而其它没有被触发事件对应的像素点的像素值均为0。
应当指出,上文中提及的预定数目也可以是其它任何大于1的整数值(不限于255),只要事件片段的预定数目与分配给各事件的像素值相关联即可。这里预定数目取255,是为了与传统的灰度图像的像素值(8bit量化,像素值为0~255)保持一致,以便生成的光流图像具有很好的视觉效果。本领域技术人员据此可以想到,在10bit量化的场景中,可以将预定数目设为1023,将1~1023这1023个灰度值按照时间戳的先后顺序依次分配给1023个事件片段内的事件,等等,此处不做过多限制。
图3示出了根据本发明一个实施例的生成的光流图像的示意图。图3示出的光流图像为灰度图。在实际应用中,为了可视化效果,亦可以将对应不同事件片段内的像素点用不同的颜色来表示,例如用红色表示时间戳较大的事件片段内的像素值,用蓝色表示时间戳较小的事件片段内的像素值,本发明的实施例不受限于此。
基于生成的光流图像,通过目标检测算法能够检测出光流图像中所包含的目标对象。一般地,采用矩形框包围住每个被检测出的目标对象并返回矩形框的坐标位置,作为该目标对象的位置。本发明的实施例对所采用的目标检测算法不做限制,任何已知或未来可知的目标检测算法均可与本发明的实施例相结合,以实现根据本发明的目标跟踪方法200。需要说明的是,本发明的实施例所讨论的情况是从光流图像中检测出至少一个目标对象。如图3所示,在对该光流图像进行目标检测处理后得到图像中包含2个目标对象,用2个矩形框分别包围住了这2个目标对象。
在随后的步骤S220中,基于上述光流图像,确定当前图像帧中所检测出的各目标对象的运动速度和运动方向。
以下示出根据本发明一种实施方式的确定目标对象的运动速度的过程。
1)首先,计算当前图像帧中每个目标对象所对应的目标区域。
根据一种实施例,通过目标检测算法检测出光流图像中的至少一个目标对象、并得到表征目标对象位置的矩形框,将矩形框所包围的矩形区域作为目标对象对应的目标区域。即每个目标对象对应一个目标区域。
2)其次,对各目标区域内的像素分别进行聚类处理,来得到各目标对象所对应的第一区域和第二区域。
在一种实施例中,针对每个目标区域,根据像素值的大小对该目标区域内的像素进行聚类处理,得到两类。其中一类中像素的像素值较小,将这一类像素对应的区域作为该目标对象的第一区域;另一类中像素的像素值较大,将这一类像素对应的区域作为该目标对象的第二区域。本发明的实施例对采用何种聚类算法进行聚类并不做限制。
在另一种实施例中,按照经验设置阈值,根据阈值将目标区域内的像素划分成两类,以得到目标对象所对应的第一区域和第二区域。例如,还是以光流图像是像素值范围为0~255的灰度图像为例,设阈值为127,若目标区域内像素的像素值属于1~127,则将该像素归入第一区域;若目标区域内像素的像素值属于128~255,则将该像素归入第二区域。应当指出,本发明实施例对阈值的选取不做限制。
总之,本发明实施例对采用何种方式得到各目标对象的第一区域和第二区域并不做限制。结合前文描述可知,本发明旨在保护的是,第一区域中的像素对应的事件是在先触发的,第二区域中的像素对应的事件是在后触发的。
3)最后,将自第一区域指向第二区域的方向作为对应目标对象的运动方向。
在一种实施例中,先分别确定目标对象所对应的第一区域的中心像素和第二区域的中心像素,以作为第一中心和第二中心。例如,计算第一区域中所有像素坐标的均值,作为第一中心的坐标,同样计算第二区域中所有像素坐标的均值,作为第二中心的坐标。而后,将自第一中心指向第二中心的方向作为该目标对象的运动方向。
以下示出根据本发明一种实施方式的确定目标对象的运动速度的过程。
根据一种实施例,目标对象的运动速度由运动距离和运动时间计算得到,故而在如下的过程中,先确定目标对应的运动距离和运动时间。
a)首先,针对各目标对象,计算目标对象对应的第一区域与第二区域的距离作为该目标对象的运动距离。参考前文在确定目标对象的运动方向时的描述,针对各目标对象,先确定出第一区域和第二区域的中心像素,作为第一中心和第二中心。然后,计算第一中心到第二中心的距离作为对应目标对象的运动距离。
b)接着,基于第一区域和第二区域内像素的像素值确定对应目标对象的运动时间。
根据本发明的一种实施方式,利用步骤S210中所获取的事件数据的预定时间段的长度来计算运动时间。以下示出了一种计算运动时间的方法。
第一步,基于事件片段对应的像素值和时间段长度来确定单位像素的时长。例如,在步骤S210中获取了预定时间段T内的事件数据,并将其分成255个事件片段,那么可以得出,各事件片段对应的时间段长度为:T/255。如前文所述,将255个像素值依序赋给这255个事件片段,即,事件片段对应的像素值为1。这样,单位像素对应的时长(记作t)就是T/255。
第二步,计算目标对象对应的第一区域内像素的像素均值与第二区域内像素的像素均值的差值。展开来说,针对各目标对象,先计算第一区域内所有像素的像素值的平均值,记作A1,同时计算第二区域内所有像素的像素值的平均值,记作A2,然后用A2减去A1,作为该目标对象对应的差值(记作a)。
第三步,对于每个目标对象,根据第二步计算出的差值a和第一步计算出的单位像素的时长t,确定出该目标对象的运动时间。根据一种实施例,用单位像素的时长t乘以差值a,就是目标对象的运动时间。
c)根据步骤a)求得的目标对象的运动距离和步骤b)求得的目标对象的运动时间,来确定目标对象的运动速度。可选地,用运动距离除以运动时间,即可得到运动速度。本发明对此不再赘述。
图4示出了根据本发明一个实施例的光流图像中目标对象的运动速度和运动方向的示意图。如图4所示,在对图3中的光流图像执行步骤S220的处理后,确定了图像帧中两个目标对象的运动速度和运动方向。图4中,用矩形框标注出了各目标对象,矩形框上面的数字表示该目标对象的运动速度,箭头指向了该目标对象的运动方向。应当指出,图4仅作为示意,以便于更形象地说明预测出的目标对象的运动方向和运动速度,本发明的实施例并不限于此。
随后在步骤S230中,根据运动方向和运动速度,预测对应的目标对象在下一图像帧中的位置。
在一种实施例中,将表征目标对象位置的矩形框沿该目标对象的运动方向移动一定距离后,得到的矩形框的位置,就是预测出的该目标对象在下一图像帧中的位置。其中,“一定距离”是根据该目标对象的运动速度所确定的。例如,目标对象的运动速度为v,在步骤S210中,每隔预定时间段T获取事件数据并生成光流图像,那么,将目标对象的矩形框沿运动方向移动的距离就是v*T。
随后,针对当前图像帧中的各目标对象,根据所预测的位置来判断是否跟踪对应的目标对象。为便于说明,图5A-5B相应示出了根据本发明一个实施例的在连续多帧图像中确定目标对象的示意图。图5A示出了当前图像帧510及检测出的目标对象(分别记作P1、P2、P3),图5B示出了下一图像帧520及检测出的目标对象(分别记作S1、S2)。
在步骤S240中,当所预测的位置在视场范围内时,将对应的目标对象作为待跟踪目标。
如图5A所示,用实线圈出的矩形框表示当前图像帧510中的目标对象(分别记作P1、P2、P3),用虚线圈出的矩形框表示所预测的目标对象(P1、P2、P3)在下一图像帧中520的位置(分别记作P1’、P2’、P3’)。从图5A中可以看出,预测的位置P1’和P2’还在光流图像的画面之中,故将这两个目标对象(P1和P2)作为待跟踪目标;而P3’超出了光流图像的范围,故不再将P3作为待跟踪目标。
根据本发明的一些实施方式,在确认了待跟踪目标后,存储所预测的待跟踪目标的位置,以便与下一图像帧中检测到的目标对象进行匹配。以图5A为例,存储待跟踪目标P1和P2对应的预测位置P1’和P2’。当然,可以利用所存储的预测位置构建待匹配池。
根据一种实施例,当利用下一预定时间段内的事件数据生成光流图像(记作下一图像帧)并检测出下一图像帧中的目标对象时,将检测出的目标对象与待匹配池中的目标对象进行匹配:若下一图像帧中检测到的目标对象在待匹配池中能够找到与之匹配的目标对象,则确认该从下一图像帧中检测到的目标对象与所匹配到的目标对象为同一目标;若下一图像帧中检测到的目标对象在待匹配池中未能找到与之匹配的目标对象,则确认该从下一图像帧中检测到的目标对象是一个新的目标对象。对于新的目标对象,重复执行上述步骤S220和步骤S230,以预测出其在再下一图像帧中的位置,而后判断该新的目标对象是否要作为待跟踪目标,此处不再赘述。
以下示出根据本发明一个实施例的对下一图像帧中检测到的至少一个目标对象进行匹配的过程。
首先,分别计算下一图像帧中至少一个目标对象与待跟踪目标的预测位置的距离。也就是说,对于下一图像帧中的每个目标对象,分别计算其与待匹配池中各待跟踪目标的预测位置的距离。一般地,计算两个目标对象所对应的两个矩形框的欧式距离值(如计算两个矩形框的中心点的欧氏距离值)作为这两个目标对象之间的距离,关于欧氏距离的计算,属于本领域已知内容,此处不再展开描述。需要说明的是,本发明实施例并不限于以欧氏距离来表示目标对象之间的距离,任何计算距离的方式均可以应用到本发明的方法200中,以实现本发明的目标跟踪方案。其次,当计算出的距离满足预定条件时,确定下一图像帧中的该目标对象与待跟踪目标是同一目标。预定条件例如是距离最小,即,当下一图像帧中的目标对象从待匹配池中匹配到与其距离最小的预测位置时,就确定该预测位置对应的待跟踪目标与下一图像帧中的这个目标对象是同一个目标。
还是以图5A示出的光流图像为例,图5B是图5A对应的下一图像帧520。经目标检测算法处理后从图5B中检测出两个目标对象S1和S2。此时,待匹配池中包含两个预测位置P1’和P2’,分别计算S1、S2与P1’、P2’的距离,即,计算S1与P1’的距离d1、S1和P2’的距离d2、S2与P1’的距离d3、S2和P2’的距离d4。而后比较各距离值的大小,若d1<d2,则确定图5B中的S1与图5A中的P1为同一目标;若d3>d4,则确定图5B中的S2与图5A中的P2为同一目标。
此后,就可以明确各目标对象的ID、记录各目标对象的运动轨迹等等,得到相应的跟踪结果。本发明对此不做过多阐述,本发明实施例旨在保护如何基于光流信息从视场中快速确定出待跟踪目标、并确定待跟踪目标在前后两帧中的位置。
在另一些实施例中,预设条件除了距离最小外,还包括计算出的距离大于预设距离值。例如,预先设置一个预设距离值,若计算出的下一图像帧中的目标对象与待跟踪目标的预测位置的距离大于预设距离值,则确认计算出的距离不满足预定条件,即不再进行匹配,直接将下一图像帧中的该目标对象作为一个新的待跟踪目标。
根据再一些实施例,为尽可能多地匹配到对应的目标对象,基于两个目标对象之间的距离,采用匈牙利算法(Hungarian Algorithm)来对目标对象进行匹配。图6A-6C示出了根据本发明再一些实施例的通过匈牙利算法匹配目标对象的过程示意图。以下结合图6A-6C,对匹配过程进行进一步说明。
(1)假设从下一图像帧中检测到三个目标对象(记作A、B、C),待匹配池中有三个待跟踪目标的预测位置(记作a、b、c)。首先从目标对象A开始,分别计算A到待匹配池中的a、b、c的距离。如前文所述,取距离最小的预测位置对应的目标对象作为匹配到的目标对象。假设此处匹配到的是a,如图6A所示。
(2)采用同(1)的方法,从待匹配池中为目标对象B匹配距离最小的预测位置。假设此处为B匹配到的是b,如图6B所示。
(3)继续为目标对象C匹配距离最小的预测位置,假设此时计算到C与a的距离最小,但是在步骤(1)中a已被匹配,为了让C也能够匹配到合适的预测位置,先将A与a的匹配关系解除,如图6C中用“×”表示关系解除,并使C与a配对,而后尝试重新为A匹配距离第二小的预测位置,此时找到b,但是在步骤(2)中b也已被匹配。同样地,解除B与b的匹配关系。这样,就将A与b配对,B最终与c配对。
鉴于匈牙利算法已经是已知内容,关于利用匈牙利算法进行匹配的更详细描述此处不再进行过多阐述。需要说明的是,此处仅作为示例,给出了一些对目标对象进行匹配的方式,本发明并不限制于此。在实际场景中,本领域技术人员可以依据上述所阐述的实施例设置相应的匹配方式。
在步骤S250中,当所预测的位置不在视场范围内时,不再跟踪对应的目标对象。如图5A中,目标对象P3的预测位置P3’已经超出了光流图像的范围,故不再跟踪目标对象P3。
针对现有技术中算力大且鲁棒性不足的问题,本发明提出了一种基于DVS的目标跟踪方案。根据本发明的方案,考虑到经DVS输出的每一个变化的事件数据都带有时间信息,因此基于这些事件数据生成光流图像,这样就直接得到了光流信息。同时,通过光流信息估计目标对象的运动方向和运动速度,来对目标对象进行跟踪,确保跟踪的准确性。此外,当目标对象在视场中快速运动时,传统的目标跟踪方法很容易产生跟踪丢失,但根据本发明的目标跟踪方法可以大大减少在光流计算上的算力,具有较好的鲁棒性。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下被实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员应当理解在本文所公开的示例中的设备的模块或单元或组件可以布置在如该实施例中所描述的设备中,或者可替换地可以定位在与该示例中的设备不同的一个或多个设备中。前述示例中的模块可以组合为一个模块或者此外可以分成多个子模块。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
此外,所述实施例中的一些在此被描述成可以由计算机系统的处理器或者由执行所述功能的其它装置实施的方法或方法元素的组合。因此,具有用于实施所述方法或方法元素的必要指令的处理器形成用于实施该方法或方法元素的装置。此外,装置实施例的在此所述的元素是如下装置的例子:该装置用于实施由为了实施该发明的目的的元素所执行的功能。
如在此所使用的那样,除非另行规定,使用序数词“第一”、“第二”、“第三”等等来描述普通对象仅仅表示涉及类似对象的不同实例,并且并不意图暗示这样被描述的对象必须具有时间上、空间上、排序方面或者以任意其它方式的给定顺序。
尽管根据有限数量的实施例描述了本发明,但是受益于上面的描述,本技术领域内的技术人员明白,在由此描述的本发明的范围内,可以设想其它实施例。此外,应当注意,本说明书中使用的语言主要是为了可读性和教导的目的而选择的,而不是为了解释或者限定本发明的主题而选择的。因此,在不偏离所附权利要求书的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。对于本发明的范围,对本发明所做的公开是说明性的,而非限制性的,本发明的范围由所附权利要求书限定。

Claims (12)

1.一种目标跟踪方法,适于在计算设备中执行,所述方法包括步骤:
利用来自动态视觉传感器的一系列事件数据生成光流图像,所述事件由目标对象和动态视觉传感器的相对运动而触发;
基于所述光流图像确定当前图像帧中至少一个目标对象的运动速度和运动方向;
根据所述运动方向和运动速度,预测对应的目标对象在下一图像帧中的位置;以及
当所预测的位置在视场范围内时,将对应的目标对象作为待跟踪目标,
其中,所述基于光流图像确定当前图像帧中至少一个目标对象的运动速度和运动方向的步骤包括:
计算当前图像帧中每个目标对象所对应的目标区域,
对各目标区域内的像素分别进行聚类处理,来得到各目标对象所对应的第一区域和第二区域,
将自第一区域指向第二区域的方向作为对应目标对象的运动方向。
2.如权利要求1所述的方法,其中,在将对应的目标对象作为待跟踪目标之后,还包括步骤:
存储所预测的待跟踪目标的位置,以便与下一图像帧中检测到的至少一个目标对象进行匹配。
3.如权利要求2所述的方法,其中,所述存储所预测的待跟踪目标的位置,以便与下一图像帧中检测到的至少一个目标对象进行匹配的步骤包括:
分别计算下一图像帧中至少一个目标对象与所述待跟踪目标的预测位置的距离;
当所述距离满足预定条件时,确定下一图像帧中的该目标对象与待跟踪目标是同一目标。
4.如权利要求3所述的方法,其中,所述事件数据包括被触发事件的坐标位置和时间戳,
所述利用来自动态视觉传感器的一系列事件数据生成光流图像的步骤包括:
按照时间戳的先后顺序将预定时间段内的事件数据分为预定数目个事件片段;
为不同事件片段内的事件分配不同的像素值;以及
根据所述事件的坐标位置和像素值生成光流图像。
5.如权利要求4所述的方法,其中,所述基于光流图像确定当前图像帧中至少一个目标对象的运动速度和运动方向的步骤还包括:
计算目标对象对应的第一区域与第二区域的距离作为所述目标对象的运动距离;
基于所述第一区域和第二区域内像素的像素值确定所述目标对象的运动时间;以及
根据所述运动距离和运动时间来确定所述目标对象的运动速度。
6.如权利要求5所述的方法,其中,所述将自第一区域指向第二区域的方向作为对应目标对象的运动方向的步骤还包括:
分别确定第一区域和第二区域的中心像素,作为第一中心和第二中心;以及
将自第一中心指向第二中心的方向作为所述目标对象的运动方向。
7.如权利要求6所述的方法,其中,所述计算目标对象对应的第一区域与第二区域的距离作为目标对象的运动距离的步骤包括:
计算第一中心到第二中心的距离作为对应目标对象的运动距离。
8.如权利要求7所述的方法,其中,所述基于第一区域和第二区域内像素的像素值确定所述目标对象的运动时间的步骤包括:
基于事件片段对应的像素值和时间段长度来确定单位像素的时长;
计算所述目标对象对应的第一区域内像素的像素均值与第二区域内像素的像素均值的差值;以及
根据所述差值和单位像素的时长确定出所述目标对象的运动时间。
9.如权利要求8所述的方法,还包括步骤:
当所预测的位置不在视场范围内时,不再跟踪对应的目标对象。
10.如权利要求3-9中任一项所述的方法,还包括步骤:
当下一图像帧中的目标对象与待跟踪目标的预测位置的距离均不满足预定条件时,将该目标对象作为一个新的待跟踪目标。
11.一种计算设备,包括:
一个或多个处理器;和
存储器;
一个或多个程序,其中所述一个或多个程序存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序包括用于执行根据权利要求1-10所述方法中的任一方法的指令。
12.一种存储一个或多个程序的计算机可读存储介质,所述一个或多个程序包括指令,所述指令当计算设备执行时,使得所述计算设备执行根据权利要求1-10所述的方法中的任一方法。
CN201811428965.5A 2018-11-27 2018-11-27 一种目标跟踪方法及计算设备 Active CN109544590B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201811428965.5A CN109544590B (zh) 2018-11-27 2018-11-27 一种目标跟踪方法及计算设备
PCT/CN2018/120049 WO2020107524A1 (zh) 2018-11-27 2018-12-10 一种目标跟踪方法及计算设备
EP18941851.0A EP3889897A4 (en) 2018-11-27 2018-12-10 TARGET TRACKING METHOD AND COMPUTER DEVICE
US17/324,208 US11657516B2 (en) 2018-11-27 2021-05-19 Target tracking method and computing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811428965.5A CN109544590B (zh) 2018-11-27 2018-11-27 一种目标跟踪方法及计算设备

Publications (2)

Publication Number Publication Date
CN109544590A CN109544590A (zh) 2019-03-29
CN109544590B true CN109544590B (zh) 2020-05-15

Family

ID=65851710

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811428965.5A Active CN109544590B (zh) 2018-11-27 2018-11-27 一种目标跟踪方法及计算设备

Country Status (4)

Country Link
US (1) US11657516B2 (zh)
EP (1) EP3889897A4 (zh)
CN (1) CN109544590B (zh)
WO (1) WO2020107524A1 (zh)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3690736A1 (en) * 2019-01-30 2020-08-05 Prophesee Method of processing information from an event-based sensor
TWI719409B (zh) * 2019-02-23 2021-02-21 和碩聯合科技股份有限公司 追蹤系統及其方法
CN110533699B (zh) * 2019-07-30 2024-05-24 平安科技(深圳)有限公司 基于光流法的像素变化的动态多帧测速方法
WO2021021839A1 (en) * 2019-07-30 2021-02-04 Qsinx Management Llc Tracking using pixel sensors of an event camera
CN110533693B (zh) * 2019-08-29 2023-02-07 北京精英路通科技有限公司 一种目标跟踪方法及目标跟踪装置
CN110909592B (zh) * 2019-10-11 2020-12-18 重庆特斯联智慧科技股份有限公司 一种基于多尺度特征量的目标跟踪方法和系统
CN111083354A (zh) * 2019-11-27 2020-04-28 维沃移动通信有限公司 一种视频录制方法及电子设备
KR102311798B1 (ko) * 2019-12-12 2021-10-08 포항공과대학교 산학협력단 다중 객체 추적 방법 및 장치
US11330219B2 (en) * 2019-12-17 2022-05-10 Samsung Electronics Co., Ltd. Dynamic vision sensor system
CN111951313B (zh) * 2020-08-06 2024-04-26 北京灵汐科技有限公司 图像配准方法、装置、设备及介质
CN112037258B (zh) * 2020-08-25 2024-03-08 广州视源电子科技股份有限公司 目标跟踪方法、装置、设备和存储介质
CN112037259A (zh) * 2020-08-27 2020-12-04 北京极智嘉科技有限公司 动态目标的跟踪系统及方法
CN112153301B (zh) * 2020-09-27 2021-07-27 维沃移动通信有限公司 拍摄方法和电子设备
CN112966556B (zh) * 2021-02-02 2022-06-10 豪威芯仑传感器(上海)有限公司 一种运动物体检测方法及系统
CN112989925B (zh) * 2021-02-02 2022-06-10 豪威芯仑传感器(上海)有限公司 一种识别手部滑动方向的方法及系统
CN112949440A (zh) * 2021-02-22 2021-06-11 豪威芯仑传感器(上海)有限公司 一种提取行人的步态特征的方法、步态识别方法及系统
CN112949512B (zh) * 2021-03-08 2022-07-08 豪威芯仑传感器(上海)有限公司 一种动态手势识别方法、手势交互方法及交互系统
CN113066104B (zh) * 2021-03-25 2024-04-19 三星(中国)半导体有限公司 角点检测方法和角点检测装置
CN113163254B (zh) * 2021-04-06 2023-03-28 广州津虹网络传媒有限公司 直播图像处理方法、装置及电子设备
CN113344978A (zh) * 2021-06-29 2021-09-03 北京搜狗科技发展有限公司 一种目标跟踪方法、装置和用于目标跟踪的装置
CN114155278A (zh) * 2021-11-26 2022-03-08 浙江商汤科技开发有限公司 目标跟踪及相关模型的训练方法和相关装置、设备、介质
WO2023108411A1 (zh) * 2021-12-14 2023-06-22 华为技术有限公司 一种目标跟踪方法和装置
CN114390209A (zh) * 2022-02-23 2022-04-22 维沃移动通信有限公司 拍摄方法、拍摄装置、电子设备和可读存储介质
CN114842047B (zh) * 2022-03-29 2024-07-30 武汉大学 基于运动先验的孪生网络卫星视频目标跟踪方法
CN114842045B (zh) * 2022-04-01 2024-04-16 深圳市九天睿芯科技有限公司 目标跟踪方法及装置
CN114723776B (zh) * 2022-04-01 2024-04-19 深圳市九天睿芯科技有限公司 目标跟踪方法及装置
CN114777764B (zh) * 2022-04-20 2023-06-30 中国科学院光电技术研究所 一种基于事件相机的高动态星敏感器星点提取方法
WO2024101210A1 (ja) * 2022-11-11 2024-05-16 ソニーセミコンダクタソリューションズ株式会社 情報処理装置
CN117808847B (zh) * 2024-02-29 2024-07-23 中国科学院光电技术研究所 融合仿生动态视觉的空间非合作目标特征跟踪方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680122A (zh) * 2013-11-29 2015-06-03 展讯通信(天津)有限公司 一种基于肤色检测的跟踪方法及装置
CN106371459A (zh) * 2016-08-31 2017-02-01 京东方科技集团股份有限公司 目标跟踪方法及装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100630088B1 (ko) * 2004-12-28 2006-09-27 삼성전자주식회사 옵티컬 플로우를 이용한 차량 감시 장치 및 방법
CN102800106A (zh) * 2012-06-29 2012-11-28 刘怡光 基于光流场估计的自适应均值漂移目标跟踪方法
CN102881024B (zh) * 2012-08-24 2015-03-11 南京航空航天大学 一种基于tld的视频目标跟踪方法
CN104517125B (zh) * 2014-12-26 2018-05-22 湖南天冠电子信息技术有限公司 高速物体的图像实时跟踪方法与系统
CN105844659B (zh) * 2015-01-14 2019-04-26 北京三星通信技术研究有限公司 运动部件的跟踪方法和装置
US9734587B2 (en) * 2015-09-30 2017-08-15 Apple Inc. Long term object tracker
KR102530219B1 (ko) * 2015-10-30 2023-05-09 삼성전자주식회사 동작 인식의 오류를 검출하는 방법 및 장치
CN105578034A (zh) * 2015-12-10 2016-05-11 深圳市道通智能航空技术有限公司 一种对目标进行跟踪拍摄的控制方法、控制装置及系统
CN105761277B (zh) * 2016-02-01 2018-09-14 西安理工大学 一种基于光流的运动目标跟踪方法
US9934557B2 (en) * 2016-03-22 2018-04-03 Samsung Electronics Co., Ltd Method and apparatus of image representation and processing for dynamic vision sensor
CN108073929B (zh) * 2016-11-15 2023-11-24 北京三星通信技术研究有限公司 基于动态视觉传感器的物体检测方法及设备
US10510160B2 (en) * 2016-12-20 2019-12-17 Samsung Electronics Co., Ltd. Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking
CN107862704B (zh) * 2017-11-06 2021-05-11 广东工业大学 一种目标跟踪方法、系统及其使用的云台相机
US10477355B1 (en) * 2017-12-13 2019-11-12 Amazon Technologies, Inc. System for locating users
CN108764078B (zh) * 2018-05-15 2019-08-02 上海芯仑光电科技有限公司 一种事件数据流的处理方法及计算设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680122A (zh) * 2013-11-29 2015-06-03 展讯通信(天津)有限公司 一种基于肤色检测的跟踪方法及装置
CN106371459A (zh) * 2016-08-31 2017-02-01 京东方科技集团股份有限公司 目标跟踪方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于光流法和卡尔曼滤波的多目标跟踪;石龙伟等;《计算机应用》;20170615;第37卷(第S1期);全文 *

Also Published As

Publication number Publication date
CN109544590A (zh) 2019-03-29
EP3889897A1 (en) 2021-10-06
US20210279890A1 (en) 2021-09-09
WO2020107524A1 (zh) 2020-06-04
US11657516B2 (en) 2023-05-23
EP3889897A4 (en) 2022-08-24

Similar Documents

Publication Publication Date Title
CN109544590B (zh) 一种目标跟踪方法及计算设备
US10937169B2 (en) Motion-assisted image segmentation and object detection
US11288507B2 (en) Object detection in image based on stochastic optimization
CN113286194A (zh) 视频处理方法、装置、电子设备及可读存储介质
JP2020052694A (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
CN107920257B (zh) 视频关键点实时处理方法、装置及计算设备
CN107944381B (zh) 人脸跟踪方法、装置、终端及存储介质
CN108876758B (zh) 人脸识别方法、装置及系统
CN109716392B (zh) 一种光流计算方法及计算设备
WO2019218388A1 (zh) 一种事件数据流的处理方法及计算设备
JPWO2014061342A1 (ja) 情報処理システム、情報処理方法及びプログラム
CN109685797A (zh) 骨骼点检测方法、装置、处理设备及存储介质
CN113168520A (zh) 跟踪场景中的对象的方法
Zhong et al. A general moving detection method using dual-target nonparametric background model
CN111860346A (zh) 动态手势识别方法、装置、电子设备及存储介质
CN110414514A (zh) 图像处理方法及装置
Weimer et al. Gpu architecture for stationary multisensor pedestrian detection at smart intersections
CN113610835B (zh) 看护摄像机的人形检测方法
JP2020109644A (ja) 転倒検出方法、転倒検出装置及び電子機器
CN117576634A (zh) 基于密度检测的异常分析方法、设备以及存储介质
US20210174079A1 (en) Method and apparatus for object recognition
CN116309710B (zh) 目标追踪方法和电子设备
CN112037148A (zh) 区块链的大数据运动目标检测识别方法及系统
CN117132515A (zh) 一种图像处理方法及电子设备
CN112966556B (zh) 一种运动物体检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 200333 room 505, no.6, Lane 600, Yunling West Road, Putuo District, Shanghai

Patentee after: Howay sensor (Shanghai) Co.,Ltd.

Address before: 200333 room 505, no.6, Lane 600, Yunling West Road, Putuo District, Shanghai

Patentee before: Shanghai Xinlun Optoelectronics Technology Co.,Ltd.