CN107240117A - 视频中运动目标的跟踪方法和装置 - Google Patents

视频中运动目标的跟踪方法和装置 Download PDF

Info

Publication number
CN107240117A
CN107240117A CN201710344191.7A CN201710344191A CN107240117A CN 107240117 A CN107240117 A CN 107240117A CN 201710344191 A CN201710344191 A CN 201710344191A CN 107240117 A CN107240117 A CN 107240117A
Authority
CN
China
Prior art keywords
mrow
frame
offset
positioning
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710344191.7A
Other languages
English (en)
Other versions
CN107240117B (zh
Inventor
毛丽娟
盛斌
李震
郑鹭宾
赵刚
柏钧文
陈天睿
段之昊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Shanghai University of Sport
Original Assignee
Shanghai Jiaotong University
Shanghai University of Sport
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University, Shanghai University of Sport filed Critical Shanghai Jiaotong University
Priority to CN201710344191.7A priority Critical patent/CN107240117B/zh
Publication of CN107240117A publication Critical patent/CN107240117A/zh
Application granted granted Critical
Publication of CN107240117B publication Critical patent/CN107240117B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种视频中运动目标的跟踪方法和装置。将上一帧的跟踪结果作为当前帧跟踪的初始坐标;计算出上一帧和当前帧标定框的颜色直方图特征;根据初始坐标,颜色直方图特征和初始位置标定框内的像素点的坐标计算出偏移坐标;计算出偏移坐标和初始坐标的差为偏移量;当偏移量小于或等于预设偏移阈值时,跟踪过程结束,偏移坐标为跟踪目标坐标。该方法能够减少了图像的处理范围,减少了计算花销,能够提高多目标重叠时识别的准确率,大大提高该方法跟踪效率和跟踪准确率。相应地,本发明还提供一种视频中运动目标的跟踪装置。

Description

视频中运动目标的跟踪方法和装置
技术领域
本发明涉及图像处理领域,特别是涉及一种视频中运动目标的跟踪方法和装置。
背景技术
随着信息技术的蓬勃发展,计算机视觉技术在视频跟踪领域的应用越来越广泛,尤其在体育赛事视频分析中,通过计算机视觉跟踪运动目标进行体育赛事分析能够大大减少人工成本,提高分析准确度。近年来基于在线机器学习的跟踪算法得到了快速发展,如差分法和基于时空上下文学习的快速跟踪算法等,然而上述各种基于在线机器学习的跟踪方法由于背景场地单一化或不同帧间整幅图片像素点作差,使得计算量大,在多人靠近重叠时,容易出现跟踪出错,跟踪准确性低。
发明内容
基于此,有必要针对传统运动目标的跟踪方法跟踪效率低,跟踪准确率低的问题,提供一种视频中运动目标的跟踪方法以及装置。
一种视频中运动目标的跟踪方法,包括以下步骤:
将上一帧中跟踪目标的标定框的定位点的定位坐标作为当前帧中标定框的定位点在当前帧中的初始定位坐标,并将上一帧中跟踪目标的标定框中每个像素点的坐标作为当前帧中标定框中每个像素点在当前帧中的初始坐标;
计算上一帧中标定框的第一颜色直方图特征及当前帧中标定框的第二颜色直方图特征;
根据初始定位坐标、当前帧中标定框中每个像素点的初始坐标、第一颜色直方图特征和第二颜色直方图特征,计算当前帧中标定框的定位点的第一偏移定位坐标;
计算得到当前帧中标定框的偏移量为第一偏移定位坐标和初始定位坐标之间的差值;
当偏移量小于或等于预设偏移量阈值时,选取第一偏移定位坐标为当前帧中标定框的定位点在当前帧中的定位坐标。
在一个实施例中,上述视频中运动目标的跟踪方法还包括:
当偏移量大于预设偏移量阈值时,循环执行以下步骤,直至偏移量小于或等于预设偏移量阈值时,选取当前得到的偏移定位坐标为当前帧中标定框的定位点在当前帧中的定位坐标:
根据第一偏移定位坐标计算偏移后的当前帧中标定框中每个像素点的偏移坐标;
根据第一偏移定位坐标、每个像素点的偏移坐标、第一颜色直方图特征和第二颜色直方图特征,计算当前帧中标定框的第二偏移定位坐标;
计算得到当前帧标定框的偏移量为第二偏移定位坐标和第一偏移定位坐标之间的差值;
当当前帧中标定框的偏移量小于或等于预设偏移量阈值时,选取当前得到的第二偏移定位坐标为当前帧中标定框的跟踪坐标;
当当前帧中标定框的偏移量大于预设偏移量阈值时,将第二偏移定位坐标作为第一偏移定位坐标并返回执行根据第一偏移定位坐标计算偏移后的当前帧中标定框中每个像素点的偏移坐标的步骤。
在一个实施例中,在计算上一帧中标定框的颜色直方图特征及当前帧中标定框的颜色直方图特征的步骤相同,均包括:
获取标定框的每个像素点的RGB颜色特征值;
根据像素点的RGB颜色特征值确定每个像素点所属的颜色区间,统计每个颜色区间内包含的像素点个数,得到标定框的颜色直方图特征。
在一个实施例中,统计每个颜色区间内包含的像素点个数的步骤包括:
获取视频帧图像中每个像素点的RGB颜色特征值,计算具有相同RGB颜色特征值的像素点的数量,根据不同的RGB颜色特征值对应的像素点数量确定每个RGB颜色特征值的颜色特征权重,为每个像素点赋予颜色特征权重值;
根据每个像素点的颜色特征权重值,对每个颜色区间内包含的像素点数量进行加权求和得到每个颜色区间内包含的像素点个数。
在一个实施例中,统计每个颜色区间内包含的像素点个数的步骤包括:
根据标定框内每个像素点距离定位点的距离为每个像素点赋予距离权重值;
根据每个像素点的距离权重值,对每个颜色区间内包含的像素点数量进行加权求和得到每个颜色区间内包含的像素点个数。
在一个实施例中,采用以下公式计算偏移定位坐标:
其中:
j为迭代次数;
为当前帧中第j次迭代的标定框定位坐标;
为当前帧中第j次迭代的偏移后的标定框定位坐标;
xi为跟踪框的第i个像素点的坐标;
h为常数变量;
g(x)是距离权重函数k(x)的导函数;
u(i)是第i个像素点的RGB颜色特征值对应的颜色直方图特征上颜色区间;
pu(i)(yn)是上一帧颜色区间u(i)包含的像素点数;
pu(i)(y(0) n+1)当前帧颜色区间u(i)包含的像素点数。
在一个实施例中,上述视频中运动目标的跟踪方法还包括:
提取跟踪场地边线区域,建立跟踪场地俯视二维模型,将跟踪目标的位置投影到跟踪场地俯视二维模型中。
一种视频中运动目标的跟踪装置,包括:
初始化模块,用于将上一帧中跟踪目标的标定框的定位点的定位坐标作为标定框的定位点在当前帧中的初始定位坐标,并将上一帧中跟踪目标的标定框中每个像素点的坐标作为标定框中每个像素点在当前帧中的初始坐标;
特征计算模块,用于计算上一帧中标定框的第一颜色直方图特征及当前帧中标定框的第二颜色直方图特征;
偏移定位坐标计算模块,用于根据初始定位坐标、当前帧中标定框中每个像素点的初始坐标、第一颜色直方图特征和第二颜色直方图特征,计算当前帧中标定框的定位点的第一偏移定位坐标;
偏移量计算模块,用于计算得到当前帧中标定框的偏移量为第一偏移定位坐标和初始定位坐标之间的差值;
跟踪定位模块,用于当偏移量小于或等于预设偏移量阈值时,选取偏移定位坐标为当前帧中标定框的定位点在当前帧中的定位坐标。
一种计算机设备,包括:存储器、处理器及存储在存储器上并可在处理器上运行的视频中运动目标的跟踪方法的应用程序,处理器执行视频中运动目标的跟踪方法的应用程序时实现以下步骤:
将上一帧中跟踪目标的标定框的定位点的定位坐标作为当前帧中标定框的定位点在当前帧中的初始定位坐标,并将上一帧中跟踪目标的标定框中每个像素点的坐标作为当前帧中标定框中每个像素点在当前帧中的初始坐标;
计算上一帧中标定框的第一颜色直方图特征及当前帧中标定框的第二颜色直方图特征;
根据初始定位坐标、当前帧中标定框中每个像素点的初始坐标、第一颜色直方图特征和第二颜色直方图特征,计算当前帧中标定框的定位点的第一偏移定位坐标;
计算得到当前帧中标定框的偏移量为第一偏移定位坐标和初始定位坐标之间的差值;
当偏移量小于或等于预设偏移量阈值时,选取第一偏移定位坐标为当前帧中标定框的定位点在当前帧中的定位坐标。
一种计算机可读存储介质,其上存储有视频中运动目标的跟踪方法的应用程序,该视频中运动目标的跟踪方法的应用程序被处理器执行时实现上述方法的步骤。
上述视频中运动目标的跟踪方法,根据上一帧中跟踪目标的标定框的定位点的定位坐标及每个像素点的坐标确定当前帧中定位点的初始定位坐标及每个像素点的初始坐标;计算上一帧中标定框的颜色直方图特征及当前帧中标定框的颜色直方图特征;再根据初始定位坐标、当前帧中标定框中每个像素点的初始坐标、上一帧中标定框的颜色直方图特征和当前帧中标定框的颜色直方图特征确定当前帧中标定框的定位点的偏移定位坐标;根据偏移定位坐标和初始定位坐标的差值确定标定框的偏移量;当偏移量小于或等于预设偏移量阈值时,选取偏移定位坐标为标定框的定位点在当前帧中的定位坐标,完成运动目标跟踪。上述视频中运动目标的跟踪方法利用颜色直方图特征对标定框进行定位,每一帧跟踪以上一帧跟踪目标标定框的定位坐标为初始位置,不断与上一帧跟踪目标标定框的颜色直方图作比较来确定跟踪目标标定框位置,减少了图像的处理范围,减少了计算花销,能够提高多目标重叠时识别的准确率,大大提高该方法跟踪效率和跟踪准确率。
附图说明
图1为一个实施例中视频中运动目标的跟踪方法流程图;
图2为又一个实施例中视频中运动目标的跟踪方法流程图;
图3为另一个实施例中视频中运动目标的跟踪方法流程图;
图4为一个实施例中视频中运动目标的跟踪方法的运行结果界面显示示意图;
图5为一个实施例中视频中运动目标的跟踪装置的结构示意图;
图6为又一个实施例中视频中运动目标的跟踪装置的结构示意图;
图7为另一个实施例中视频中运动目标的跟踪装置的结构示意图;
图8为一个实施例中计算机设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
请参阅图1,一种视频中运动目标的跟踪方法,包括以下步骤:
步骤102:将上一帧中跟踪目标的标定框的定位点的定位坐标作为当前帧中标定框的定位点在当前帧中的初始定位坐标,并将上一帧中跟踪目标的标定框中每个像素点的坐标作为当前帧中标定框中每个像素点在当前帧中的初始坐标。
具体地,跟踪目标的标定框的定位点的定位坐标即为跟踪目标的跟踪位置。本实施例中,通过人工标定跟踪框确定初始帧中跟踪目标的初始位置。具体地,人工标定跟踪目标的标定框时,可采用鼠标选定标定框,完成跟踪目标标定框标定后,终端进一步选取标定框的定位点,并计算标定框的定位点的坐标,确定跟踪目标的初始位置。
进一步地,在一个实施例中,跟踪目标的标定框的定位点为标定框的中心点,跟踪目标的的标定框的定位点坐标为标定框的中心点坐标。
更进一步地,为了保证跟踪目标第一帧初始位置的准确性,为以后的跟踪计算打下良好的基础,在一个实施例中,通过人机交互对视频中第一帧中跟踪目标进行人工标定,人工选定第一帧中跟踪目标的标定框,确定各跟踪目标在第一帧中的初始位置。整个视频的跟踪过程中就是对视频中每一帧的目标进行跟踪,每一帧开始跟踪时都以上一帧计算的跟踪目标的标定框的定位点的定位坐标作为当前帧中跟踪目标的标定框的定位点的初始位置。
步骤104:计算上一帧中标定框的第一颜色直方图特征及当前帧中标定框的第二颜色直方图特征。
具体地,本实施例中,为了提高跟踪准确性,根据标定框内每个像素点的 RGB颜色特征值值计算得到标定框的颜色直方图特征。在一个实施例中,还可以根据标定框内每个像素点的灰度特征值计算标定框的颜色直方图特征,实际应用中,具体标定框颜色直方图特征的计算方式可根据实际需要任意设置,本实施例并不做具体限定。步骤106:根据初始定位坐标、当前帧中标定框中每个像素点的初始坐标、第一颜色直方图特征和第二颜色直方图特征,计算当前帧中标定框的定位点的第一偏移定位坐标。
具体地,标定框的定位点在跟踪过程中由初始坐标不断向目标位置偏移,本实施例中,由初始定位坐标、当前帧中标定框中每个像素点的初始坐标、第一颜色直方图特征和第二颜色直方图特征,计算当前帧中标定框的定位点的第一偏移定位坐标,计算得到第一偏移定位坐标后执行步骤108至步骤110,计算标定框定位点的偏移量,并根据标定框定位点的偏移量确定跟踪位置。步骤108:计算得到当前帧中标定框的偏移量为第一偏移定位坐标和初始定位坐标之间的差值。
具体地,得到第一定位偏移坐标后,计算第一偏移定位坐标和初始定位坐标之间的差值做为当前帧中标定框定位点的偏移量,偏移量为第一偏移定位坐标和初始定位坐标的在一帧图像上的直线距离。
步骤110:当偏移量小于或等于预设偏移量阈值时,选取第一偏移定位坐标为当前帧中标定框的定位点在当前帧中的定位坐标。
具体地,标定框的定位点在跟踪过程中由初始坐标不断向目标位置偏移,得到标定框定位点的偏移坐标即可计算偏移量,当偏移量小于或等于预设偏移量阈值时,即跟踪目标偏移到目标位置,得到跟踪位置。都以上一帧的结果来作为当前帧的初始标定框,上一帧的跟踪结果能够较好的反映运动目标的信息并且上一帧的运动目标是独立的,如果当前帧中出现两个运动目标重合,上一次独立的标定框的特征能够很好的区分两个运动员各自的特征。因此,选取第一次迭代前的特征作为基准,可以避免两个运动目标重叠后,无法将两个球员分开的情况。在一个实施例中,可以将第一帧的跟踪目标的标定框特征作为跟踪过程中的基准。
本实施例中,当得到偏移量后,将偏移量与预设偏移量阈值进行比较,判断偏移量是否小于或等于预设偏移量阈值,当偏移量小于或等于预设偏移量阈值时,选取第一偏移定位坐标为当前帧中标定框的定位点在当前帧中的定位坐标,确定当前帧中跟踪目标的跟踪位置。
上述视频中运动目标的跟踪方法,根据上一帧中跟踪目标的标定框的定位点的定位坐标及每个像素点的坐标确定当前帧中定位点的初始定位坐标及每个像素点的初始坐标;计算上一帧中标定框的颜色直方图特征及当前帧中标定框的颜色直方图特征;再根据初始定位坐标、当前帧中标定框中每个像素点的初始坐标、上一帧中标定框的颜色直方图特征和当前帧中标定框的颜色直方图特征确定当前帧中标定框的定位点的偏移定位坐标;根据偏移定位坐标和初始定位坐标的差值确定标定框的偏移量;当偏移量小于或等于预设偏移量阈值时,选取偏移定位坐标为标定框的定位点在当前帧中的定位坐标,完成运动目标跟踪。上述视频中运动目标的跟踪方法利用颜色直方图特征对标定框进行定位,每一帧跟踪以上一帧跟踪目标标定框的定位坐标为初始位置,不断与上一帧跟踪目标标定框的颜色直方图作比较来确定跟踪目标标定框位置,减少了图像的处理范围,减少了计算花销,能够提高多目标重叠时识别的准确率,大大提高该方法跟踪效率和跟踪准确率。
请参阅图2,在一个实施例中,上述视频中运动目标的跟踪方法还包括:当偏移量大于预设偏移量阈值时,循环执行以下步骤1102至步骤1110,直至偏移量小于或等于预设偏移量阈值时,选取当前得到的偏移定位坐标为当前帧中标定框的定位点在当前帧中的定位坐标:
步骤1102:根据第一偏移定位坐标计算偏移后的当前帧中标定框中每个像素点的偏移坐标。
此步骤是将跟踪目标的初始位置做一次偏移后得到的第一偏移定位坐标不是跟踪目标后所执行的操作。
步骤1104:根据第一偏移定位坐标、每个像素点的偏移坐标、第一颜色直方图特征和第二颜色直方图特征,计算当前帧中标定框的第二偏移定位坐标。
步骤1106:计算得到当前帧标定框的偏移量为第二偏移定位坐标和第一偏移定位坐标之间的差值。
步骤1108:当当前帧中标定框的偏移量小于或等于预设偏移量阈值时,选取当前得到的第二偏移定位坐标为当前帧中标定框的跟踪坐标。
步骤1110:当当前帧中标定框的偏移量大于预设偏移量阈值时,将第二偏移定位坐标作为第一偏移定位坐标并返回执行步骤1102。
具体地,若计算出的偏移量小于或等于预设偏移量阈值时,迭代过程结束,此次迭代计算出偏移坐标为跟踪目标坐标。若计算出的偏移量大于预设偏移量阈值,则不断地迭代以下过程直到满足偏移量小于或等于预设偏移量阈值:结合偏移前标定框内的所有像素点坐标,当前帧初始标定框的颜色直方图特征以及上一帧标定框的颜色直方图特征将偏移前坐标偏移为偏移后坐标;计算出偏移后坐标和偏移前坐标的偏移值;将偏移后坐标代入下一次迭代继续偏移。
请参阅图3,在一个实施例中,步骤104中计算上一帧中标定框的颜色直方图特征及当前帧中标定框的颜色直方图特征的步骤相同,均包括以下步骤:
步骤1042:获取标定框的每个像素点的RGB颜色特征值。
步骤1044:根据像素点的RGB颜色特征值确定每个像素点所属的颜色区间,统计每个颜色区间内包含的像素点个数,得到标定框的颜色直方图特征。
具体地,颜色直方图特征是将某一标定框内的RGB像素点进行统计建立颜色直方图,每一个标定框的颜色直方图都作为各自标定框的特征。本实施例中,根据标定框内每个像素点的RGB颜色特征值值计算得到标定框的颜色直方图特征,RGB颜色特征值可以以三维坐标形式表示,每一维坐标的范围为0-255,在每一维坐标上以X为长度平均分为[256/X]份,[256/X]为256/X向上取整,在三维中将RGB的颜色范围划分为[256/X]3个颜色区间间,在建立标定框的颜色直方图特征时将标定框内所有像素点按RGB值统计到各个颜色区间内,得到每个颜色区间内像素点的数量,再将所有的颜色区间按照顺序排列形成一维向量,此一维向量即为每个标定框的颜色直方图特征。
本实施例中,以40为长度将每一维平均分成7份,即每一个维度上,颜色特征值被划分为(256/7)=7个颜色区间,共计将RGB三维坐标系分为73=343个颜色区间,给予各颜色区间一个一维索引Index=i*7*7+j*7+k,则若某像素点RGB 值为(45,89,145),该像素点则被统计入(1,2,3)位置的颜色区间内,此位置的颜色区间的一维索引为1*7*7+2*7+3=66,那么,此颜色区间为颜色直方图特征的一维向量第66个数值所对应的颜色区间。
在一个实施例中,步骤1044中统计每个颜色区间内包含的像素点个数的步骤包括:获取视频帧图像中每个像素点的RGB颜色特征值,计算具有相同RGB 颜色特征值的像素点的数量,根据不同的RGB颜色特征值对应的像素点数量确定每个RGB颜色特征值的颜色特征权重,为每个像素点赋予颜色特征权重值;根据每个像素点的颜色特征权重值,对每个颜色区间内包含的像素点数量进行加权求和得到每个颜色区间内包含的像素点个数。
具体地,对于一个标定框内的所有像素点,由于引入人机交互,初始化的跟踪目标由手工标定,标定时引入了不可忽略的误差,误差为标定跟踪标定框时引入了过多的背景像素点,过多的背景像素点对颜色直方图特征的计算结果有不可忽略的影响。为了减少这一部分误差对跟踪方法结果的影响,在统计每个颜色区间内包含的像素点个数时引入颜色特征权重来对颜色直方图特征进行修正。具体地,预先对整帧图片进行预处理,进行初步筛选,对于出现次数较高的像素特征,在本实施例中,草地和纯黑色对应的像素特征出现的次数较高。将这些出现次数像素特征赋予低的颜色特征权重,颜色特征权重取值0~1之间。最后根据标定框中每个像素点的颜色特征权重值,对每个颜色区间内包含的像素点数量进行加权求和得到每个颜色区间内所包含的像素点个数。经过颜色特征权重的修正,人工标定的过程就算较粗糙,也不影响跟踪方法的跟踪结果,而且此操作为预处理,在导入视频第一帧时就可以进行计算,之后的实时跟踪过程中只需要调用之前计算的颜色特征权重就可以了,操作耗费小,不影响整体算法的复杂度,不降低跟踪的速度。
在一个实施例中,步骤1044中统计每个颜色区间内包含的像素点个数的步骤包括:根据标定框内每个像素点距离定位点的距离为每个像素点赋予距离权重值;根据每个像素点的距离权重值,对每个颜色区间内包含的像素点数量进行加权求和得到每个颜色区间内包含的像素点个数。
具体地,对于一个标定框而言,越靠近标定框中心的像素点在做越重要,在统计每个颜色区间内包含的像素点个数时可以作修正来弱化边缘影响。具体地,根据标定框内像素点与标定框中心坐标的距离来确定像素点的距离权重,赋予距离较远的一个像素点一个较小的距离权重,赋予距离较近的一个像素的一个较大的距离权重。在本实施例中,像素点与标定框中心坐标的距离和像素点的距离权重的关系可以表示为:
其中,d为像素点与标定框中心坐标的距离;
k(d)为像素点的距离权重。
进一步的,对于以y为中心的标定框,当应用上述距离权重k(d)对统计每个颜色区间内包含的像素点个数进行修正时,根据每个像素点的举例权重对颜色直方图中颜色区间u包含的像素点进行加权求和,得到该颜色区间内的像素点数量。具体地,根据以下公式,应用上述距离权重k(d)对统计每个颜色区间内包含的像素点个数进行修正:
其中,b(fi)表示第i个像素点所对应的颜色空间;
C(Dn)则表示标定框Dn像素点的总个数,该项用于归一化。
在一个实施例中,采用以下公式计算偏移定位坐标:
其中:
j为迭代次数;
为当前帧中第j次迭代的标定框定位坐标;
为当前帧中第j次迭代的偏移后的标定框定位坐标;
xi为跟踪框的第i个像素点的坐标;
h为常数变量;
g(x)是距离权重函数k(x)的导函数;
u(i)是第i个像素点的RGB颜色特征值对应的颜色直方图特征上颜色区间;
pu(i)(yn)是上一帧颜色区间u(i)包含的像素点数;
pu(i)(y(0) n+1)当前帧颜色区间u(i)包含的像素点数。
具体地,为了在新一帧中找到颜色直方图特征相同的标定框的跟踪位置,需要设计一套比较不同直方图的衡量方法。首先,定义Dn表示在第n帧中,跟踪目标的标定框内的图像;yn表示在第n帧中,跟踪目标的标记框图像的中心点坐标,即左上角坐标与右下角坐标的平均值,用这个中心坐标来表示之后运算中的标记框;再定义B表示颜色区间的数量;pu(y)表示y所对应的直方图中,桶u里面放的数据个数,即直方图高度;p(y)表示y所对应的所有桶所组成的的整个正方图特征向量,即p(y)=(p1(y),p2(y),...,pB(y))。
进一步的,定义两颜色直方图特征间的距离为d(p(y),p(yn)),则:
其中,
yn表示在第n帧中,某一运动员标定框图像的中心坐标,即左上角坐标与右下角坐标的平均值,用以表示标定框位置;
pu(y)表示标定框y所对应颜色直方图特征中,颜色区间u内所对应的值;
p(y)表示标定框y所对应颜色直方图特征中,所有颜色区间所对应的值,即 p(y)=(p1(y),p2(y),...,pB(y));
用两颜色直方图特征间的距离来衡量两个标定框的相似程度,距离的值越大,则两标定框的差别越大;距离的值越小,则两标定框的差别越小。所以跟踪的过程就是在一帧图片中找寻一个标定框与跟踪目标的标定框间的颜色直方图特征间的距离最小,结合公式(4)和公式(5)可知,当公式(5)值最大时,两颜色直方图特征的距离最小。则问题转化为公式(5)最大化时。所对应的标定框中心坐标y的值。
若直接通过公式(4)计算所有后一帧中所有同样大小的标定框中颜色直方图特征与当前跟踪目标的颜色直方图特征之间的距离,显然花销最大,因此,将求公式(4)的最大数值问题转化为求公式(5)的最小值问题,具体地,对ρ(p(y),p(yn))在某个候选的下一帧标定框p(y(0) n+1)进行泰勒展开如下:
可以看出,想要最大化公式(6),则需要最大化
由以上公式(2)对公式(7)进行修正,则最大化公式(7)可转化为:
其中u(i)表示第i个像素点属于的颜色直方图中的颜色区间。
最后,将公式(8)关于y(n+1)求导获得迭代公式:
通过公式(9)对当前帧标定框的初始坐标迭代计算,可得出当前坐标的漂移量,随之将当前坐标漂移到计算得到的漂移位置,当某次迭代过程漂移量为小于设定值时,则漂移结束,当前偏移坐标即为跟踪位置。在本实施例中,为了保证跟踪目标特征与第一帧的特征类似或一致,将上一帧的跟踪结果作为当前帧的初始位置,并以此初始位置出发通过均值漂移算法往目标位置靠近即可。
在一个实施例中,还包括:提取跟踪场地边线区域,建立跟踪场地俯视二维模型,将跟踪目标的位置投影到跟踪场地俯视二维模型中。
具体地,要将视频的摄像头视角转化为二维平面图的俯视视角需要进行广义上的投影变换或称为单应变换。本实施例中,根据摄像机所在位置及角度进行视角以及数据尺度的转换,将运动目标的跟踪位置同步显示在跟踪场地的俯视二维模型上。具体地,本实施例通过齐次变换建立原视频图像与二维模型的转化关系。首先,将二维平面的投影变换表示为齐次坐标下向量与一个3x3矩阵的乘积,即为x’=Hx,具体单应变换矩阵表示如下:
由以上单应变换矩阵可知,平面单应变换为八个自由度,求解变换矩阵中的八个未知数即可求得单应变换矩阵,完成目标投影变换。由于一组对应点坐标可由上述矩阵乘式得到两个方程,要求原变换矩阵中所有未知数,需要四组方程,故若要求得单应变换矩阵,只需知道对应的四组点坐标即可。具体地,本实施例中,通过提取追踪场地边线区域确定追踪场地的四组顶点坐标,以求得变换矩阵,实现二维投影变换。本实施例中,将整张图进行变换后,在离摄像头较近的地方,球员所处的位置较为清晰可变,但是离摄像头较远的地方,球员由于发生形变拉伸,所处的具体位置较为模糊,可以选取运动员脚所处的为位置的映射作为运动的位置,默认标定框底边中点作为运动员脚位置。最终将标定框底边中点投影到二维图上的位置作为运动在二维图上的位置。本实施例中通过单应变换矩阵计算三维视频图像的二维投影变换,无需获取摄像设备的参数信息,视频分析系统简单易用,转换灵活性高。
进一步地,依据上述方法实现对足球视频中运动目标进行跟踪,跟踪操作在PC计算机上实现,硬件环境:中央处理器Intel Core i5、主频为2.5GHz,内存为4GB。编译环境为win7+Visual Studio 2012,所使用的工具库为openCV2.4.9。载入两段视频格式为avi,每帧图片大小为1696×1080,视频大小约为20MB,两个视频长度均为约18s,每秒取30帧,共计约540帧。本实施例中,跟踪目标为守门员2位,两队队员各7人,共16人。运行处理中,仅考虑数据处理时间,每帧跟踪只需要10ms,跟踪准确率达到100%,实现效果界面显示如图4 所示。
请参阅图5,一种视频中运动目标的跟踪装置500,包括:
初始化模块502,用于将上一帧中跟踪目标的标定框的定位点的定位坐标作为标定框的定位点在当前帧中的初始定位坐标,并将上一帧中跟踪目标的标定框中每个像素点的坐标作为标定框中每个像素点在当前帧中的初始坐标。
特征计算模块504,用于计算上一帧中标定框的第一颜色直方图特征及当前帧中标定框的第二颜色直方图特征。
偏移定位坐标计算模块506,用于根据初始定位坐标、当前帧中标定框中每个像素点的初始坐标、第一颜色直方图特征和第二颜色直方图特征,计算当前帧中标定框的定位点的第一偏移定位坐标。
偏移量计算模块508,用于计算得到当前帧中标定框的偏移量为第一偏移定位坐标和初始定位坐标之间的差值。
跟踪定位模块509,用于当偏移量小于或等于预设偏移量阈值时,选取偏移定位坐标为当前帧中标定框的定位点在当前帧中的定位坐标。
请参阅图6或图7,在一个实施例中,上述视频中运动目标的跟踪装置500,还包括迭代模块510,用于当偏移量大于预设偏移量阈值时,循环执行以下步骤,直至偏移量小于或等于预设偏移量阈值时,选取当前得到的偏移定位坐标为标定框的定位点在当前帧中的定位坐标;
迭代模块510包括:
像素点坐标获取子模块5140,用于计算当前帧中标定框中每一个像素点的坐标;
偏移定位坐标计算子模块5142,用于根据偏移定位坐标、当前帧中标定框中每个像素点的坐标、上一帧中标定框的颜色直方图特征和当前帧中标定框的颜色直方图特征,计算标定框的新的偏移定位坐标;
偏移量计算子模块5144,用于计算偏移定位坐标和初始定位坐标的差值得到标定框的偏移量;
跟踪目标确定子模块5146,用于当标定框的偏移量小于或等于预设偏移量阈值时,选取当前得到的偏移坐标为标定框的跟踪坐标;
在一个实施例中,上述视频中运动目标的跟踪装置500,还包括颜色直方图统计模块512,用于获取当前帧中标定框的每个像素点的RGB颜色特征值,据像素点的RGB颜色特征值确定像素点的颜色区间,统计每个颜色区间内包含的像素点的个数,得到颜色直方图特征。
在一个实施例中,上述视频中运动目标的跟踪装置500,还包括颜色特征权重计算模块5120,用于获取视频帧图像中每个像素点的RGB颜色特征值,计算具有相同RGB颜色特征值的像素点的数量,根据不同的RGB颜色特征值对应的像素点数量确定每个RGB颜色特征值的颜色特征权重,为每个像素点赋予颜色特征权重值;根据每个像素点的颜色特征权重值,对每个颜色区间内包含的像素点数量进行加权求和得到每个颜色区间内包含的像素点个数。
在一个实施例中,上述视频中运动目标的跟踪装置500,还包括距离权重计算模块5122,用于根据标定框内每个像素点距离定位点的距离为每个像素点赋予距离权重值;根据每个像素点的距离权重值,对每个颜色区间内包含的像素点数量进行加权求和得到每个颜色区间内包含的像素点个数。
在一个实施例中,上述视频中运动目标的跟踪装置500,还包括二维转换模块514,用于提取跟踪场地边线区域,建立跟踪场地俯视二维模型,将跟踪目标的位置投影到跟踪场地俯视二维模型中。
请参阅图8,一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,处理器执行视频跟踪应用程序时实现以下步骤步骤:
将上一帧中跟踪目标的标定框的定位点的定位坐标作为当前帧中标定框的定位点在当前帧中的初始定位坐标,并将上一帧中跟踪目标的标定框中每个像素点的坐标作为当前帧中标定框中每个像素点在当前帧中的初始坐标;
计算上一帧中标定框的第一颜色直方图特征及当前帧中标定框的第二颜色直方图特征;
根据初始定位坐标、当前帧中标定框中每个像素点的初始坐标、第一颜色直方图特征和第二颜色直方图特征,计算当前帧中标定框的定位点的第一偏移定位坐标;
计算得到当前帧中标定框的偏移量为第一偏移定位坐标和初始定位坐标之间的差值;
当偏移量小于或等于预设偏移量阈值时,选取第一偏移定位坐标为当前帧中标定框的定位点在当前帧中的定位坐标。
具体地,如图8所示,在一个实施例中,上述的计算机设备包括通过系统总线连接的处理器和存储器,存储器包括非易失性存储介质和内存储器。其中,计算机的非易失性存储介质存储有操作系统,还包括一种视频中运动目标的跟踪装置。视频中运动目标的跟踪装置用于实现一种视频中运动目标的跟踪方法。在一个实施例中,处理器为计算机CPU,用于提供计算和控制能力,支撑整个视频中运动目标的跟踪的运行。计算机中的内存储器为非易失性存储介质中的视频中运动目标的跟踪装置的运行提供环境,该内存储器中可储存计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器执行一种视频中运动目标的跟踪方法。本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的视频中运动目标的跟踪装置的限定,具体的视频中运动目标的跟踪装置可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同部件布置。
在一个实施例中,处理器执行视频中运动目标跟踪应用程序时还实现以下步骤:
当偏移量大于预设偏移量阈值时,循环执行以下步骤,直至偏移量小于或等于预设偏移量阈值时,选取当前得到的偏移定位坐标为当前帧中标定框的定位点在当前帧中的定位坐标:
根据第一偏移定位坐标计算偏移后的当前帧中标定框中每个像素点的偏移坐标;
根据第一偏移定位坐标、每个像素点的偏移坐标、第一颜色直方图特征和第二颜色直方图特征,计算当前帧中标定框的第二偏移定位坐标;
计算得到当前帧标定框的偏移量为第二偏移定位坐标和第一偏移定位坐标之间的差值;
当当前帧中标定框的偏移量小于或等于预设偏移量阈值时,选取当前得到的第二偏移定位坐标为当前帧中标定框的跟踪坐标;
当当前帧中标定框的偏移量大于预设偏移量阈值时,将第二偏移定位坐标作为第一偏移定位坐标并返回执行根据第一偏移定位坐标计算偏移后的当前帧中标定框中每个像素点的偏移坐标的步骤。
在一个实施例中,处理器执行视频中运动目标跟踪应用程序时还实现以下步骤:
获取标定框的每个像素点的RGB颜色特征值;根据像素点的RGB颜色特征值确定每个像素点所属的颜色区间,统计每个颜色区间内包含的像素点个数,得到标定框的颜色直方图特征。
在一个实施例中,处理器执行视频中运动目标跟踪应用程序时还实现以下步骤:
获取视频帧图像中每个像素点的RGB颜色特征值,计算具有相同RGB颜色特征值的像素点的数量,根据不同的RGB颜色特征值对应的像素点数量确定每个RGB颜色特征值的颜色特征权重,为每个像素点赋予颜色特征权重值;根据每个像素点的颜色特征权重值,对每个颜色区间内包含的像素点数量进行加权求和得到每个颜色区间内包含的像素点个数。
在一个实施例中,处理器执行视频中运动目标跟踪应用程序时还实现以下步骤:
根据标定框内每个像素点距离定位点的距离为每个像素点赋予距离权重值;根据每个像素点的距离权重值,对每个颜色区间内包含的像素点数量进行加权求和得到每个颜色区间内包含的像素点个数。
在一个实施例中,处理器执行视频中运动目标跟踪应用程序时还实现以下步骤:
提取跟踪场地边线区域,建立跟踪场地俯视二维模型,将跟踪目标的位置投影到跟踪场地俯视二维模型中。
一种计算机可读存储介质,其上存储有计算机程序,该视频中运动目标的跟踪应用程序被处理器执行时实现以下步骤:
将上一帧中跟踪目标的标定框的定位点的定位坐标作为当前帧中标定框的定位点在当前帧中的初始定位坐标,并将上一帧中跟踪目标的标定框中每个像素点的坐标作为当前帧中标定框中每个像素点在当前帧中的初始坐标;
计算上一帧中标定框的第一颜色直方图特征及当前帧中标定框的第二颜色直方图特征;
根据初始定位坐标、当前帧中标定框中每个像素点的初始坐标、第一颜色直方图特征和第二颜色直方图特征,计算当前帧中标定框的定位点的第一偏移定位坐标;
计算得到当前帧中标定框的偏移量为第一偏移定位坐标和初始定位坐标之间的差值;
当偏移量小于或等于预设偏移量阈值时,选取第一偏移定位坐标为当前帧中标定框的定位点在当前帧中的定位坐标。
在一个实施例中,该视频中运动目标跟踪应用程序被处理器执行时还实现以下步骤:
当偏移量大于预设偏移量阈值时,循环执行以下步骤,直至偏移量小于或等于预设偏移量阈值时,选取当前得到的偏移定位坐标为当前帧中标定框的定位点在当前帧中的定位坐标:
根据第一偏移定位坐标计算偏移后的当前帧中标定框中每个像素点的偏移坐标;
根据第一偏移定位坐标、每个像素点的偏移坐标、第一颜色直方图特征和第二颜色直方图特征,计算当前帧中标定框的第二偏移定位坐标;
计算得到当前帧标定框的偏移量为第二偏移定位坐标和第一偏移定位坐标之间的差值;
当当前帧中标定框的偏移量小于或等于预设偏移量阈值时,选取当前得到的第二偏移定位坐标为当前帧中标定框的跟踪坐标;
当当前帧中标定框的偏移量大于预设偏移量阈值时,将第二偏移定位坐标作为第一偏移定位坐标并返回执行根据第一偏移定位坐标计算偏移后的当前帧中标定框中每个像素点的偏移坐标的步骤。
在一个实施例中,该视频中运动目标跟踪应用程序被处理器执行时还实现以下步骤:
获取标定框的每个像素点的RGB颜色特征值;根据像素点的RGB颜色特征值确定每个像素点所属的颜色区间,统计每个颜色区间内包含的像素点个数,得到标定框的颜色直方图特征。
在一个实施例中,该视频中运动目标跟踪应用程序被处理器执行时还实现以下步骤:
获取视频帧图像中每个像素点的RGB颜色特征值,计算具有相同RGB颜色特征值的像素点的数量,根据不同的RGB颜色特征值对应的像素点数量确定每个RGB颜色特征值的颜色特征权重,为每个像素点赋予颜色特征权重值;根据每个像素点的颜色特征权重值,对每个颜色区间内包含的像素点数量进行加权求和得到每个颜色区间内包含的像素点个数。
在一个实施例中,该视频中运动目标跟踪应用程序被处理器执行时还实现以下步骤:
根据标定框内每个像素点距离定位点的距离为每个像素点赋予距离权重值;根据每个像素点的距离权重值,对每个颜色区间内包含的像素点数量进行加权求和得到每个颜色区间内包含的像素点个数。
在一个实施例中,该视频中运动目标跟踪应用程序被处理器执行时还实现以下步骤:
提取跟踪场地边线区域,建立跟踪场地俯视二维模型,将跟踪目标的位置投影到跟踪场地俯视二维模型中。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种视频中运动目标的跟踪方法,其特征在于,包括以下步骤:
将上一帧中跟踪目标的标定框的定位点的定位坐标作为当前帧中标定框的定位点在当前帧中的初始定位坐标,并将上一帧中跟踪目标的标定框中每个像素点的坐标作为所述当前帧中标定框中每个像素点在当前帧中的初始坐标;
计算所述上一帧中标定框的第一颜色直方图特征及所述当前帧中标定框的第二颜色直方图特征;
根据所述初始定位坐标、当前帧中所述标定框中每个像素点的初始坐标、所述第一颜色直方图特征和第二颜色直方图特征,计算所述当前帧中标定框的定位点的第一偏移定位坐标;
计算得到所述当前帧中标定框的偏移量为所述第一偏移定位坐标和所述初始定位坐标之间的差值;
当所述偏移量小于或等于预设偏移量阈值时,选取所述第一偏移定位坐标为所述当前帧中标定框的定位点在当前帧中的定位坐标。
2.根据权利要求1所述的方法,其特征在于,还包括:
当所述偏移量大于所述预设偏移量阈值时,循环执行以下步骤,直至所述偏移量小于或等于所述预设偏移量阈值时,选取当前得到的所述偏移定位坐标为所述当前帧中标定框的定位点在当前帧中的定位坐标:
根据所述第一偏移定位坐标计算偏移后的所述当前帧中标定框中每个像素点的偏移坐标;
根据所述第一偏移定位坐标、每个像素点的偏移坐标、第一颜色直方图特征和第二颜色直方图特征,计算当前帧中标定框的第二偏移定位坐标;
计算得到所述当前帧标定框的偏移量为所述第二偏移定位坐标和所述第一偏移定位坐标之间的差值;
当所述当前帧中标定框的偏移量小于或等于预设偏移量阈值时,选取当前得到的第二偏移定位坐标为所述当前帧中标定框的跟踪坐标;
当所述当前帧中标定框的偏移量大于预设偏移量阈值时,将所述第二偏移定位坐标作为第一偏移定位坐标并返回执行所述根据所述第一偏移定位坐标计算偏移后的所述当前帧中标定框中每个像素点的偏移坐标的步骤。
3.根据权利要求1或2所述的方法,其特征在于,计算上一帧中标定框的颜色直方图特征及当前帧中标定框的颜色直方图特征的步骤相同,均包括:
获取标定框的每个像素点的RGB颜色特征值;
根据所述像素点的RGB颜色特征值确定每个像素点所属的颜色区间,统计每个颜色区间内包含的像素点个数,得到所述标定框的颜色直方图特征。
4.根据权利要求3所述的方法,其特征在于,所述统计每个颜色区间内包含的像素点个数的步骤包括:
获取视频帧图像中每个像素点的RGB颜色特征值,计算具有相同RGB颜色特征值的像素点的数量,根据不同的RGB颜色特征值对应的像素点数量确定每个RGB颜色特征值的颜色特征权重,为每个像素点赋予颜色特征权重值;
根据每个像素点的颜色特征权重值,对每个颜色区间内包含的像素点数量进行加权求和得到每个颜色区间内包含的像素点个数。
5.根据权利要求3所述的方法,其特征在于,所述统计每个颜色区间内包含的像素点个数的步骤包括:
根据标定框内每个像素点距离所述定位点的距离为每个像素点赋予距离权重值;
根据每个像素点的距离权重值,对每个颜色区间内包含的像素点数量进行加权求和得到每个颜色区间内包含的像素点个数。
6.根据权利要求1或2所述的视频中运动目标的跟踪方法,其特征在于,采用以下公式计算所述偏移定位坐标:
<mrow> <msubsup> <mi>y</mi> <mrow> <mi>n</mi> <mo>+</mo> <mn>1</mn> </mrow> <mrow> <mo>(</mo> <mrow> <mi>j</mi> <mo>+</mo> <mn>1</mn> </mrow> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mi>P</mi> <mrow> <mo>(</mo> <msubsup> <mi>y</mi> <mrow> <mi>n</mi> <mo>+</mo> <mn>1</mn> </mrow> <mrow> <mo>(</mo> <mi>j</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>&amp;Sigma;</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mrow> <msqrt> <mfrac> <mrow> <msub> <mi>p</mi> <mrow> <mi>u</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> </msub> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>n</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <msub> <mi>p</mi> <mrow> <mi>u</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> </msub> <mrow> <mo>(</mo> <mrow> <msub> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mn>0</mn> <mo>)</mo> </mrow> </msup> <mrow> <mi>n</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> </mrow> <mo>)</mo> </mrow> </mrow> </mfrac> </msqrt> <msub> <mi>x</mi> <mi>i</mi> </msub> <mi>g</mi> <mrow> <mo>(</mo> <mrow> <mo>|</mo> <mo>|</mo> <mfrac> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msubsup> <mi>y</mi> <mrow> <mi>n</mi> <mo>+</mo> <mn>1</mn> </mrow> <mrow> <mo>(</mo> <mi>j</mi> <mo>)</mo> </mrow> </msubsup> </mrow> <mi>h</mi> </mfrac> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> <mo>)</mo> </mrow> </mrow> <mo>)</mo> </mrow> <mo>/</mo> <msub> <mi>&amp;Sigma;</mi> <mi>i</mi> </msub> <mrow> <mo>(</mo> <mrow> <msqrt> <mfrac> <mrow> <msub> <mi>p</mi> <mrow> <mi>u</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> </msub> <mrow> <mo>(</mo> <msub> <mi>y</mi> <mi>n</mi> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <msub> <mi>p</mi> <mrow> <mi>u</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </mrow> </msub> <mrow> <mo>(</mo> <mrow> <msub> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mn>0</mn> <mo>)</mo> </mrow> </msup> <mrow> <mi>n</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> </mrow> <mo>)</mo> </mrow> </mrow> </mfrac> </msqrt> <mi>g</mi> <mrow> <mo>(</mo> <mrow> <mo>|</mo> <mo>|</mo> <mfrac> <mrow> <msub> <mi>x</mi> <mi>i</mi> </msub> <mo>-</mo> <msubsup> <mi>y</mi> <mrow> <mi>n</mi> <mo>+</mo> <mn>1</mn> </mrow> <mrow> <mo>(</mo> <mi>j</mi> <mo>)</mo> </mrow> </msubsup> </mrow> <mi>h</mi> </mfrac> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> <mo>)</mo> </mrow> </mrow> <mo>)</mo> </mrow> <mo>;</mo> </mrow>
其中:
j为迭代次数;
为当前帧中第j次迭代的标定框定位坐标;
为当前帧中第j次迭代的偏移后的标定框定位坐标;
xi为所述跟踪框的第i个像素点的坐标;
h为常数变量;
g(x)是所述距离权重函数k(x)的导函数;
u(i)是第i个像素点的RGB颜色特征值对应的颜色直方图特征上颜色区间;
pu(i)(yn)是上一帧颜色区间u(i)包含的像素点数;
pu(i)(y(0) n+1)当前帧颜色区间u(i)包含的像素点数。
7.根据权利要求1所述的方法,其特征在于,还包括:
提取跟踪场地边线区域,建立跟踪场地俯视二维模型,将所述跟踪目标的位置投影到所述跟踪场地俯视二维模型中。
8.一种视频中运动目标的跟踪装置,其特征在于,包括:
初始化模块,用于将上一帧中跟踪目标的标定框的定位点的定位坐标作为标定框的定位点在当前帧中的初始定位坐标,并将上一帧中跟踪目标的标定框中每个像素点的坐标作为标定框中每个像素点在当前帧中的初始坐标;
特征计算模块,用于计算上一帧中标定框的第一颜色直方图特征及当前帧中标定框的第二颜色直方图特征;
偏移定位坐标计算模块,用于根据所述初始定位坐标、当前帧中标定框中每个像素点的初始坐标、所述第一颜色直方图特征和所述第二颜色直方图特征,计算当前帧中标定框的定位点的第一偏移定位坐标;
偏移量计算模块,用于计算得到所述当前帧中标定框的偏移量为所述第一偏移定位坐标和所述初始定位坐标之间的差值;
跟踪定位模块,用于当所述偏移量小于或等于预设偏移量阈值时,选取所述偏移定位坐标为所述当前帧中标定框的定位点在当前帧中的定位坐标。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1至7中任意一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-7任意一项所述方法的步骤。
CN201710344191.7A 2017-05-16 2017-05-16 视频中运动目标的跟踪方法和装置 Active CN107240117B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710344191.7A CN107240117B (zh) 2017-05-16 2017-05-16 视频中运动目标的跟踪方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710344191.7A CN107240117B (zh) 2017-05-16 2017-05-16 视频中运动目标的跟踪方法和装置

Publications (2)

Publication Number Publication Date
CN107240117A true CN107240117A (zh) 2017-10-10
CN107240117B CN107240117B (zh) 2020-05-15

Family

ID=59985639

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710344191.7A Active CN107240117B (zh) 2017-05-16 2017-05-16 视频中运动目标的跟踪方法和装置

Country Status (1)

Country Link
CN (1) CN107240117B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107564063A (zh) * 2017-08-30 2018-01-09 广州华多网络科技有限公司 一种基于卷积神经网络的虚拟物显示方法及装置
CN108072385A (zh) * 2017-12-06 2018-05-25 爱易成技术(天津)有限公司 移动目标的空间坐标定位方法、装置及电子设备
CN108682021A (zh) * 2018-04-18 2018-10-19 平安科技(深圳)有限公司 快速手部跟踪方法、装置、终端及存储介质
CN109714623A (zh) * 2019-03-12 2019-05-03 北京旷视科技有限公司 图像展示方法、装置、电子设备及计算机可读存储介质
CN110933435A (zh) * 2019-11-29 2020-03-27 上海依图网络科技有限公司 动图延时优化处理方法、装置、设备及可读存储介质
CN112348898A (zh) * 2019-08-07 2021-02-09 杭州海康微影传感科技有限公司 一种标定方法、装置及摄像机
CN113538523A (zh) * 2021-09-17 2021-10-22 魔视智能科技(上海)有限公司 车位检测跟踪方法、电子设备及车辆

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101324956A (zh) * 2008-07-10 2008-12-17 上海交通大学 基于均值漂移的抗遮挡运动目标跟踪方法
CN102999920A (zh) * 2012-10-25 2013-03-27 西安电子科技大学 基于最近邻分类器和均值漂移的目标跟踪方法
CN104166996A (zh) * 2014-08-06 2014-11-26 北京航空航天大学 一种基于边缘及颜色双特征空间直方图的人眼跟踪方法
CN105488815A (zh) * 2015-11-26 2016-04-13 北京航空航天大学 一种支持目标尺寸变化的实时对象跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101324956A (zh) * 2008-07-10 2008-12-17 上海交通大学 基于均值漂移的抗遮挡运动目标跟踪方法
CN102999920A (zh) * 2012-10-25 2013-03-27 西安电子科技大学 基于最近邻分类器和均值漂移的目标跟踪方法
CN104166996A (zh) * 2014-08-06 2014-11-26 北京航空航天大学 一种基于边缘及颜色双特征空间直方图的人眼跟踪方法
CN105488815A (zh) * 2015-11-26 2016-04-13 北京航空航天大学 一种支持目标尺寸变化的实时对象跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
闫德莹 等: "面向交通流检测的Mean Shift多目标自适应跟踪算法", 《计算机应用与软件》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107564063A (zh) * 2017-08-30 2018-01-09 广州华多网络科技有限公司 一种基于卷积神经网络的虚拟物显示方法及装置
CN108072385A (zh) * 2017-12-06 2018-05-25 爱易成技术(天津)有限公司 移动目标的空间坐标定位方法、装置及电子设备
CN108682021A (zh) * 2018-04-18 2018-10-19 平安科技(深圳)有限公司 快速手部跟踪方法、装置、终端及存储介质
CN109714623A (zh) * 2019-03-12 2019-05-03 北京旷视科技有限公司 图像展示方法、装置、电子设备及计算机可读存储介质
CN109714623B (zh) * 2019-03-12 2021-11-16 北京旷视科技有限公司 图像展示方法、装置、电子设备及计算机可读存储介质
CN112348898A (zh) * 2019-08-07 2021-02-09 杭州海康微影传感科技有限公司 一种标定方法、装置及摄像机
CN112348898B (zh) * 2019-08-07 2024-04-05 杭州海康微影传感科技有限公司 一种标定方法、装置及摄像机
CN110933435A (zh) * 2019-11-29 2020-03-27 上海依图网络科技有限公司 动图延时优化处理方法、装置、设备及可读存储介质
CN110933435B (zh) * 2019-11-29 2022-07-12 上海依图网络科技有限公司 动图延时优化处理方法、装置、设备及可读存储介质
CN113538523A (zh) * 2021-09-17 2021-10-22 魔视智能科技(上海)有限公司 车位检测跟踪方法、电子设备及车辆
CN113538523B (zh) * 2021-09-17 2021-12-31 魔视智能科技(上海)有限公司 车位检测跟踪方法、电子设备及车辆

Also Published As

Publication number Publication date
CN107240117B (zh) 2020-05-15

Similar Documents

Publication Publication Date Title
CN107240117B (zh) 视频中运动目标的跟踪方法和装置
US8824781B2 (en) Learning-based pose estimation from depth maps
EP3745339A1 (en) Method for implanting advertisements in video, and computer device
US9208395B2 (en) Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
US11037325B2 (en) Information processing apparatus and method of controlling the same
CN113177977B (zh) 一种非接触式三维人体尺寸的测量方法
CN112184757B (zh) 运动轨迹的确定方法及装置、存储介质、电子装置
CN104487999B (zh) 姿势估计装置和姿势估计方法
JP2021105887A (ja) 3dポーズ取得方法及び装置
US20110115921A1 (en) Context Constrained Novel View Interpolation
CN108961286B (zh) 一种顾及建筑物三维及边缘形状特征的无人机影像分割方法
KR102608956B1 (ko) 스테레오 이미지의 정류를 위한 방법 및 시스템
Taketomi et al. Real-time and accurate extrinsic camera parameter estimation using feature landmark database for augmented reality
CN107240120B (zh) 视频中运动目标的跟踪方法及装置
US20240303859A1 (en) 3d position acquisition method and device
CN106204422B (zh) 基于区块子图搜索的超大幅影像快速匹配拼接方法
CN111210478A (zh) 一种无共同视野多相机系统外参标定方法、介质及系统
CN117593650B (zh) 基于4d毫米波雷达与sam图像分割的动点滤除视觉slam方法
EP2946360B1 (en) Foot tracking
CN112668445A (zh) 一种基于yolov5的蔬菜种类检测与识别方法
CN116051537A (zh) 基于单目深度估计的农作物株高测量方法
CN113240656B (zh) 视觉定位方法及相关装置、设备
CN104978558B (zh) 目标的识别方法及装置
CN111126508A (zh) 一种基于hopc改进的异源图像匹配方法
CN114511631A (zh) 摄像机视觉物体高度测量方法、装置及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant