CN106997477B - 一种图像处理方法及装置 - Google Patents

一种图像处理方法及装置 Download PDF

Info

Publication number
CN106997477B
CN106997477B CN201710202909.9A CN201710202909A CN106997477B CN 106997477 B CN106997477 B CN 106997477B CN 201710202909 A CN201710202909 A CN 201710202909A CN 106997477 B CN106997477 B CN 106997477B
Authority
CN
China
Prior art keywords
tracking
weight
detection
algorithm
operation object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710202909.9A
Other languages
English (en)
Other versions
CN106997477A (zh
Inventor
白天翔
董培
柯海滨
徐霄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201710202909.9A priority Critical patent/CN106997477B/zh
Publication of CN106997477A publication Critical patent/CN106997477A/zh
Application granted granted Critical
Publication of CN106997477B publication Critical patent/CN106997477B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种图像处理方法及装置,该方法包括:针对操作对象的图像特征使用物体跟踪算法获取相应的跟踪权值;针对操作对象的图像特征使用物体检测算法获取相应的检测权值;其中,所述跟踪权值用来表示所述物体跟踪算法在所述图像处理方法中具有的贡献度,所述检测权值用来表示所述物体检测算法在所述图像处理方法中具有的贡献度;根据所述跟踪权值和检测权值对所述物体跟踪算法和物体检测算法的计算结果进行融合,以获得所述操作对象的目标位置信息。该方法针对不同的情况发挥了物体跟踪算法和物体检测算法各自的优势,从而能够精准的确定操作对象的位置,并使得跟踪操作对象的过程更加平滑,满足用户多种需求。

Description

一种图像处理方法及装置
技术领域
本发明涉及图像处理领域,特别涉及一种图像处理方法及装置。
背景技术
在进行图像处理时经常会涉及到对图像中的操作对象的识别和追踪,例如使用相机拍照时,需要对变化中的人物或风景进行捕捉(如将图像中的人脸进行圈画),进而对操作对象进行对焦和其他图像清晰化处理。但是目前在进行上述图像处理时由于操作对象可能在不断的运动中,或者时而静止时而运动,这种情况下使用目前的图像处理算法不能对操作对象进行精确的定位,进而影响拍摄效果,不能满足用户需求。
发明内容
本发明实施例的目的在于提供一种图像处理方法及装置,该方法能够精准的确定操作对象的位置,并使得跟踪操作对象的过程更加平滑,满足用户需求。
为了解决上述技术问题,本发明的实施例采用了如下技术方案:一种图像处理方法,包括:
针对操作对象的图像特征使用物体跟踪算法获取相应的跟踪权值;
针对操作对象的图像特征使用物体检测算法获取相应的检测权值;其中,所述跟踪权值用来表示所述物体跟踪算法在所述图像处理方法中具有的贡献度,所述检测权值用来表示所述物体检测算法在所述图像处理方法中具有的贡献度;
根据所述跟踪权值和检测权值对所述物体跟踪算法和物体检测算法的计算结果进行融合,以获得所述操作对象的目标位置信息。
作为优选,获取所述跟踪权值和检测权值的步骤包括:分别获取物体跟踪算法和物体检测算法针对操作对象的跟踪算法评估值和检测算法评估值;根据所述跟踪算法评估值和检测算法评估值生成所述跟踪权值和检测权值。
作为优选,根据图像中操作对象的先后视频帧的特征点匹配精度和操作对象当前帧与模板的相似度,分别获取所述跟踪算法评估值和检测算法评估值。
作为优选,获取所述跟踪权值和检测权值的步骤还包括:根据操作对象在图像中先后视频帧的位置变化程度计算所述跟踪权值,并由所述跟踪权值计算所述检测权值。
作为优选,根据操作对象在先后视频帧中形成的像素距离计算所述位置变化程度。
作为优选,根据所述跟踪权值和检测权值对所述物体跟踪算法和物体检测算法的计算结果进行融合的步骤具体为:利用所述跟踪权值和检测权值,对所述物体跟踪算法和物体检测算法分别输出的操作对象的位置信息进行加权计算,生成所述目标位置信息。
本发明实施例还提供了一种图像处理装置,包括存储器和处理器,所述处理器和存储器电连接,所述存储器存储有操作对象的图像,物体跟踪算法的相应程序和物体检测算法的相应程序;
所述处理器执行:
针对操作对象的图像特征使用物体跟踪算法获取相应的跟踪权值;
针对操作对象的图像特征使用物体检测算法获取相应的检测权值;其中,所述跟踪权值用来表示所述物体跟踪算法在所述图像处理方法中具有的贡献度,所述检测权值用来表示所述物体检测算法在所述图像处理方法中具有的贡献度;
根据所述跟踪权值和检测权值对所述物体跟踪算法和物体检测算法的计算结果进行融合,以获得所述操作对象的目标位置信息。
作为优选,所述处理器获取所述跟踪权值和检测权值执行:分别获取物体跟踪算法和物体检测算法针对操作对象的跟踪算法评估值和检测算法评估值;根据所述跟踪算法评估值和检测算法评估值生成所述跟踪权值和检测权值。
作为优选,所述处理器获取所述跟踪权值和检测权值还执行:根据操作对象在图像中先后视频帧的位置变化程度计算所述跟踪权值,并由所述跟踪权值计算所述检测权值。
作为优选,所述处理器根据所述跟踪权值和检测权值对所述物体跟踪算法和物体检测算法的计算结果进行融合具体执行:利用所述跟踪权值和检测权值,对所述物体跟踪算法和物体检测算法分别输出的操作对象的位置信息进行加权计算,生成所述目标位置信息。
本发明实施例的有益效果在于:针对不同的情况发挥了物体跟踪算法和物体检测算法各自的优势,从而能够精准的确定操作对象的位置,并使得跟踪操作对象的过程更加平滑,满足用户多种需求。
附图说明
图1为本发明实施例的图像处理方法的流程图;
图2为本发明实施例的图像处理方法的一种具体流程图;
图3为本发明实施例的图像处理方法的另一种具体流程图;
图4为本发明实施例的跟踪权值与像素距离的线性关系图;
图5为本发明实施例的图像处理装置的结构框图。
附图标记说明
1-处理器 2-存储器
具体实施方式
此处参考附图描述本发明的各种方案以及特征。
应理解的是,可以对此处公开的实施例做出各种修改。因此,上述说明书不应该视为限制,而仅是作为实施例的范例。本领域的技术人员将想到在本发明的范围和精神内的其他修改。
包含在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且与上面给出的对本发明的大致描述以及下面给出的对实施例的详细描述一起用于解释本发明的原理。
通过下面参照附图对给定为非限制性实例的实施例的优选形式的描述,本发明的这些和其它特性将会变得显而易见。
还应当理解,尽管已经参照一些具体实例对本发明进行了描述,但本领域技术人员能够确定地实现本发明的很多其它等效形式,它们具有如权利要求所述的特征并因此都位于借此所限定的保护范围内。
当结合附图时,鉴于以下详细说明,本发明的上述和其他方面、特征和优势将变得更为显而易见。
此后参照附图描述本发明的具体实施例;然而,应当理解,所公开的实施例仅仅是本发明的实例,其可采用多种方式实施。熟知和/或重复的功能和结构并未详细描述以避免不必要或多余的细节使得本发明模糊不清。因此,本文所公开的具体的结构性和功能性细节并非意在限定,而是仅仅作为权利要求的基础和代表性基础用于教导本领域技术人员以实质上任意合适的详细结构多样地使用本发明。
本说明书可使用词组“在一种实施例中”、“在另一个实施例中”、“在又一实施例中”或“在其他实施例中”,其均可指代根据本发明的相同或不同实施例中的一个或多个。
图1为图像处理方法的流程图,本发明实施例的一种图像处理方法,包括:针对操作对象的图像特征使用物体跟踪算法获取相应的跟踪权值;针对操作对象的图像特征使用物体检测算法获取相应的检测权值;其中,跟踪权值用来表示物体跟踪算法在图像处理方法中具有的贡献度,检测权值用来表示物体检测算法在图像处理方法中具有的贡献度;
物体跟踪算法(目标跟踪算法)是以目标跟踪为目的,是定位目标在每帧视频图像中的位置,产生目标运动轨迹,目前,基于视觉的物体跟踪算法(目标跟踪算法)依据目标类型大致可以分为两类:点目标跟踪、以及对于目标占有一定区域有纹理、轮廓等特征的目标跟踪,其中后者可分为基于特征点检测的方法、基于背景相减的帧差法、基于分割思想的方法及基于目标形状轮廓等特征的方法等。例如物体跟踪算法(目标跟踪算法)包括有Mean-Shift算法(均值漂移算法),CamShift算法和TLD算法等。跟踪权值是物体跟踪算法在整个图像处理方法中的贡献程度,如果该跟踪权值大意味着物体跟踪算法的计算结果可信度较高,反之则认为物体跟踪算法的计算结果可信度较低,而物体检测算法的可信度较高;
物体检测算法(物体识别算法)是选取有效的图像特征点以解决在物品识别过程中图像平移、图像旋转、尺度变化,同时降低在物品识别过程中出现的遮挡、图像噪声带来的影响,以达到检测(识别)物品的目的,例如物体检测算法(物体识别算法)包括有SIFT/SURT算法,haar特征算法和广义hough变换算法等。检测权值是物体检测算法(物体识别算法)在整个图像处理方法中的贡献程度,如果该检测权值大意味着物体检测算法的计算结果可信度较高,反之则认为物体检测算法的计算结果可信度较低,而物体跟踪算法的可信度较高;
根据跟踪权值和检测权值对物体跟踪算法和物体检测算法的计算结果进行融合,以获得操作对象的目标位置信息。对于两种算法的融合方式可以通过多种方式进行,例如对物体跟踪算法和物体检测算法的计算结果(如两种算法计算出的位置数据)进行加权平均,从而得到融合结果(如得到最终的位置数据),根据该融合结果能够获得操作对象的目标位置信息,该融合的技术特征使得物体跟踪算法和物体检测算法同时作用于所述的图像处理方法(作用的程度可能不相同),能够针对不同的情况分别体现出两种算法各自的优势。此外该目标位置信息从本质上来说针对了实际的操作对象的图像特征得出的,例如操作对象是在静止的,移动的或是在快速移动的,对于同一个操作对象处于不同的状态时,得到的目标位置信息也是不同的。
在本发明的一个实施例中,结合图2并结合以下的公式(1),公式(2)和公式(3),获取跟踪权值和检测权值的步骤包括:分别获取物体跟踪算法和物体检测算法针对操作对象的跟踪算法评估值和检测算法评估值;根据跟踪算法评估值和检测算法评估值生成跟踪权值和检测权值。跟踪算法评估值和检测算法评估值分别为预先评估的物体跟踪算法的计算精度,和物体检测算法的计算精度。
优选的,根据图像中操作对象的先后视频帧的特征点匹配精度和操作对象当前帧与模板的相似度,分别获取所述跟踪算法评估值和检测算法评估值。在具体来说,跟踪算法评估值为根据前后视频帧的特征点匹配精度,判断当前帧目标图像与跟踪模板的相似程度等方法评估物体跟踪算法的精度,并会将该跟踪算法评估值归一化到[0,1]区间;检测算法评估值与此类似,检测算法评估值为根据前后视频帧的特征点匹配精度,判断当前帧目标图像与检测模板的相似程度等方法评估物体检测算法的精度,并会将该检测算法评估值归一化到[0,1]区间。
结合以下的公式(2)和公式(3),在根据跟踪算法评估值和检测算法评估值计算跟踪权值和检测权值时,可以首先根据跟踪算法评估值和检测算法评估值计算出跟踪权值,在根据跟踪权值计算检测权值。
以下为公式(1),公式(2)和公式(3)的数学表达式:
Wtracking=atracking/adetection+atracking (1)
Wdetection=1-Wtracking (2)
Rfusion=Wtracking*Rtracking+Wdetection*Rdetection (3)
其中,公式(1)中atracking为跟踪算法评估值,adetection为检测算法评估值,Wtracking为跟踪权值;
公式(2)中Wdetection为检测权值;
公式(3)中Rtracking为物体跟踪算法的计算结果,通常为物体的位置数据,Rdetection为物体检测算法的计算结果,通常也是为物体的位置数据,Rfusion为图像处理方法最终得到的物体的位置数据。
在本发明的一个实施例中,结合图3并结合以下的公式(4),公式(5)和公式(6),获取跟踪权值和检测权值的步骤还包括:根据操作对象在图像中先后视频帧的位置变化程度计算跟踪权值,并由跟踪权值计算检测权值。该步骤主要依据是物体跟踪算法通常对物体运动做出假设,包括运动平滑性、匀速及匀加速等假设,当物体运动位置变化较大时,跟踪算法评估值通常会降低,相反地,物体检测算法通常无需根据物体运动做出假设,在物体位置发生大幅度变化时检测算法评估值通常较高。
优选的,根据操作对象在先后视频帧中形成的像素距离计算位置变化程度,由于现实的图像实际上是由很多的像素点构成的,像素距离是指显示的图像中相邻两个象素点之间的距离,像素距离值较大则说明对象的位置变化较大,像素距离值较小则说明对象的位置没有变化或者位置变化较小,可以根据这些先后视频帧中形成的像素距离计算位置变化程度。
在本发明的一个实施例中,结合公式(3)和公式(6),根据跟踪权值和检测权值对物体跟踪算法和物体检测算法的计算结果进行融合的步骤具体为:利用跟踪权值和检测权值,对物体跟踪算法和物体检测算法分别输出的操作对象的位置信息进行加权计算,生成目标位置信息。该加权计算可以为加权平均计算,也可以为插值计算,还可以为其他利用操作对象的位置信息和相应的权值进行的计算。
以下为公式(4),公式(5)和公式(6)的数学表达式:
Figure BDA0001259101700000071
Wdetection=1-Wtracking (5)
Rfusion=Wtracking*Rtracking+Wdetection*Rdetection (6)
其中,公式(4)中的Wtracking为跟踪权值,d为操作对象在先后视频帧中形成的像素距离,W0 t和W1 t为常数,在一个实施例中,W0 t为0.1,W1 t为0.9;d1和d0为常数,在一个实施例中,d1为0.9,d0为0.1,在另一个实施例中,d1为100,d0为10;
公式(5)中Wdetection为检测权值;
公式(6)中Rtracking为物体跟踪算法的计算结果,通常为物体的位置数据,Rdetection为物体检测算法的计算结果,通常也是为物体的位置数据,Rfusion为图像处理方法最终得到的物体的位置数据。
下面结合图4和公式(4)对d0,d1,W0 t和W1 t关系进行详细的说明,d1和d0为像素的位置数值(通常为常数),W0 t和W1 t为跟踪权值(通常为常数),d0,d1,W0 t和W1 t之间形成了线性关系,当像素距离d按照图4中线性关系发生变化时,对应的Wtracking也随之变化,该线性关系能够直观清楚的表达出d和Wtracking的对应关系,进而可以确定Wdetection
本发明实施例还提供了一种图像处理装置,如图5所示包括存储器2和处理器1,处理器1和存储器2电连接,存储器2存储有操作对象的图像,物体跟踪算法的相应程序和物体检测算法的相应程序;
处理器1执行:针对操作对象的图像特征使用物体跟踪算法获取相应的跟踪权值;针对操作对象的图像特征使用物体检测算法获取相应的检测权值;其中,跟踪权值用来表示物体跟踪算法在图像处理方法中具有的贡献度,检测权值用来表示物体检测算法在图像处理方法中具有的贡献度;
物体跟踪算法(目标跟踪算法)是以目标跟踪为目的,是定位目标在每帧视频图像中的位置,产生目标运动轨迹,目前,基于视觉的物体跟踪算法(目标跟踪算法)依据目标类型大致可以分为两类:点目标跟踪、以及对于目标占有一定区域有纹理、轮廓等特征的目标跟踪,其中后者可分为基于特征点检测的方法、基于背景相减的帧差法、基于分割思想的方法及基于目标形状轮廓等特征的方法等。例如物体跟踪算法(目标跟踪算法)包括有Mean-Shift算法(均值漂移算法),CamShift算法和TLD算法等。跟踪权值是物体跟踪算法在整个图像处理方法中的贡献程度,如果该跟踪权值大意味着物体跟踪算法的计算结果可信度较高,反之则认为物体跟踪算法的计算结果可信度较低,而物体检测算法的可信度较高;
物体检测算法(物体识别算法)是选取有效的图像特征点以解决在物品识别过程中图像平移、图像旋转、尺度变化,同时降低在物品识别过程中出现的遮挡、图像噪声带来的影响,以达到检测(识别)物品的目的,例如物体检测算法(物体识别算法)包括有SIFT/SURT算法,haar特征算法和广义hough变换算法等。检测权值是物体检测算法(物体识别算法)在整个图像处理方法中的贡献程度,如果该检测权值大意味着物体检测算法的计算结果可信度较高,反之则认为物体检测算法的计算结果可信度较低,而物体跟踪算法的可信度较高;
处理器1根据跟踪权值和检测权值对物体跟踪算法和物体检测算法的计算结果进行融合,以获得操作对象的目标位置信息,并将其存储在存储器2中。对于两种算法的融合方式可以通过多种方式进行,例如对物体跟踪算法和物体检测算法的计算结果(如两种算法计算出的位置数据)进行加权平均,从而得到融合结果(如得到最终的位置数据),处理器1根据该融合结果能够获得操作对象的目标位置信息,该融合的技术特征使得物体跟踪算法和物体检测算法同时作用于所述的图像处理装置的处理过程(作用的程度可能不相同),能够针对不同的情况分别体现出两种算法各自的优势。此外该目标位置信息从本质上来说针对了实际的操作对象的图像特征得出的,例如操作对象是在静止的,移动的或是在快速移动的,对于同一个操作对象处于不同的状态时,得到的目标位置信息也是不同的。
在本发明的一个实施例中,结合图2并结合以下的公式(1),公式(2)和公式(3),处理器1获取跟踪权值和检测权值执行:分别获取物体跟踪算法和物体检测算法针对操作对象的跟踪算法评估值和检测算法评估值;根据跟踪算法评估值和检测算法评估值生成跟踪权值和检测权值。跟踪算法评估值和检测算法评估值分别为预先评估的物体跟踪算法的计算精度,和物体检测算法的计算精度。
优选的,处理器1根据图像中操作对象的先后视频帧的特征点匹配精度和操作对象当前帧与模板的相似度,分别获取跟踪算法评估值和检测算法评估值。在具体来说,处理器1跟踪算法评估值为根据前后视频帧的特征点匹配精度,判断当前帧目标图像与跟踪模板的相似程度等方法评估物体跟踪算法的精度,并会将该跟踪算法评估值归一化到[0,1]区间,将跟踪算法评估值存储到存储器2中;检测算法评估值与此类似,检测算法评估值为根据前后视频帧的特征点匹配精度,处理器1判断当前帧目标图像与检测模板的相似程度等方法评估物体检测算法的精度,并会将该检测算法评估值归一化到[0,1]区间,将检测算法评估值存储到存储器2中。
结合以下的公式(2)和公式(3),在处理器1根据跟踪算法评估值和检测算法评估值计算跟踪权值和检测权值时,可以首先根据跟踪算法评估值和检测算法评估值计算出跟踪权值,在根据跟踪权值计算检测权值。
以下为公式(1),公式(2)和公式(3)的数学表达式:
Wtracking=atracking/adetection+atracking (1)
Wdetection=1-Wtracking (2)
Rfusion=Wtracking*Rtracking+Wdetection*Rdetection (3)
其中,公式(1)中atracking为跟踪算法评估值,adetection为检测算法评估值,Wtracking为跟踪权值;
公式(2)中Wdetection为检测权值;
公式(3)中Rtracking为物体跟踪算法的计算结果,通常为物体的位置数据,Rdetection为物体检测算法的计算结果,通常也是为物体的位置数据,Rfusion为图像处理方法最终得到的物体的位置数据。
在本发明的一个实施例中,结合图3并结合以下的公式(4),公式(5)和公式(6),处理器1获取跟踪权值和检测权值还执行:根据操作对象在图像中先后视频帧的位置变化程度计算跟踪权值,并由跟踪权值计算检测权值。该方式主要依据是物体跟踪算法通常对物体运动做出假设,包括运动平滑性、匀速及匀加速等假设,当物体运动位置变化较大时,跟踪算法评估值通常会降低,相反地,物体检测算法通常无需根据物体运动做出假设,在物体位置发生大幅度变化时检测算法评估值通常较高。
优选的,处理器1根据操作对象在先后视频帧中形成的像素距离计算位置变化程度,由于现实的图像实际上是由很多的像素点构成的,像素距离是指显示的图像中相邻两个象素点之间的距离,像素距离值较大则说明对象的位置变化较大,像素距离值较小则说明对象的位置没有变化或者位置变化较小,可以根据这些先后视频帧中形成的像素距离计算位置变化程度。
在本发明的一个实施例中,结合公式(3)和公式(6),处理器1根据跟踪权值和检测权值对物体跟踪算法和物体检测算法的计算结果进行融合具体执行:利用跟踪权值和检测权值,对物体跟踪算法和物体检测算法分别输出的操作对象的位置信息进行加权计算,生成目标位置信息。该加权计算可以为加权平均计算,也可以为插值计算,还可以为其他利用操作对象的位置信息和相应的权值进行的计算。
以下为公式(4),公式(5)和公式(6)的数学表达式:
Figure BDA0001259101700000101
Wdetection=1-Wtracking (5)
Rfusion=Wtracking*Rtracking+Wdetection*Rdetection (6)
其中,公式(4)中的Wtracking为跟踪权值,d为操作对象在先后视频帧中形成的像素距离,W0 t和W1 t为常数,在一个实施例中,W0 t为0.1,W1 t为0.9;d1和d0为常数,在一个实施例中,d1为0.9,d0为0.1,在另一个实施例中,d1为100,d0为10;
公式(5)中Wdetection为检测权值;
公式(6)中Rtracking为物体跟踪算法的计算结果,通常为物体的位置数据,Rdetection为物体检测算法的计算结果,通常也是为物体的位置数据,Rfusion为图像处理方法最终得到的物体的位置数据。
下面结合图4和公式(4)对d0,d1,W0 t和W1 t关系进行详细的说明,d1和d0为像素的位置数值(通常为常数),W0 t和W1 t为跟踪权值(通常为常数),d0,d1,W0 t和W1 t之间形成了线性关系,当像素距离d按照图4中线性关系发生变化时,对应的Wtracking也随之变化,该线性关系能够直观清楚的表达出d和Wtracking的对应关系,进而可以确定Wdetection
以上实施例仅为本发明的示例性实施例,不用于限制本发明,本发明的保护范围由权利要求书限定。本领域技术人员可以在本发明的实质和保护范围内,对本发明做出各种修改或等同替换,这种修改或等同替换也应视为落在本发明的保护范围内。

Claims (8)

1.一种图像处理方法,包括:
针对操作对象的图像特征使用物体跟踪算法获取相应的跟踪权值;
针对操作对象的图像特征使用物体检测算法获取相应的检测权值;其中,所述跟踪权值用来表示所述物体跟踪算法在所述图像处理方法中具有的贡献度,所述检测权值用来表示所述物体检测算法在所述图像处理方法中具有的贡献度;
根据所述跟踪权值和检测权值对所述物体跟踪算法和物体检测算法的计算结果进行融合,以获得所述操作对象的目标位置信息;其中,所述跟踪权值和检测权值根据操作对象所处状态的不同而不同;
获取所述跟踪权值和检测权值的步骤还包括:根据操作对象在图像中先后视频帧的位置变化程度计算所述跟踪权值,并由所述跟踪权值计算所述检测权值。
2.根据权利要求1所述的方法,获取所述跟踪权值和检测权值的步骤包括:分别获取物体跟踪算法和物体检测算法针对操作对象的跟踪算法评估值和检测算法评估值;根据所述跟踪算法评估值和检测算法评估值生成所述跟踪权值和检测权值。
3.根据权利要求2所述的方法,根据图像中操作对象的先后视频帧的特征点匹配精度和操作对象当前帧与模板的相似度,分别获取所述跟踪算法评估值和检测算法评估值。
4.根据权利要求1所述的方法,根据操作对象在先后视频帧中形成的像素距离计算所述位置变化程度。
5.根据权利要求1所述的方法,根据所述跟踪权值和检测权值对所述物体跟踪算法和物体检测算法的计算结果进行融合的步骤具体为:利用所述跟踪权值和检测权值,对所述物体跟踪算法和物体检测算法分别输出的操作对象的位置信息进行加权计算,生成所述目标位置信息。
6.一种图像处理装置,包括存储器和处理器,所述处理器和存储器电连接,所述存储器存储有操作对象的图像,物体跟踪算法的相应程序和物体检测算法的相应程序;
所述处理器执行:
针对操作对象的图像特征使用物体跟踪算法获取相应的跟踪权值;
针对操作对象的图像特征使用物体检测算法获取相应的检测权值;其中,所述跟踪权值用来表示所述物体跟踪算法在所述图像处理方法中具有的贡献度,所述检测权值用来表示所述物体检测算法在所述图像处理方法中具有的贡献度;
根据所述跟踪权值和检测权值对所述物体跟踪算法和物体检测算法的计算结果进行融合,以获得所述操作对象的目标位置信息;其中,所述跟踪权值和检测权值根据操作对象所处状态的不同而不同;
所述处理器获取所述跟踪权值和检测权值还执行:根据操作对象在图像中先后视频帧的位置变化程度计算所述跟踪权值,并由所述跟踪权值计算所述检测权值。
7.根据权利要求6所述的装置,所述处理器获取所述跟踪权值和检测权值执行:分别获取物体跟踪算法和物体检测算法针对操作对象的跟踪算法评估值和检测算法评估值;根据所述跟踪算法评估值和检测算法评估值生成所述跟踪权值和检测权值。
8.根据权利要求6所述的装置,所述处理器根据所述跟踪权值和检测权值对所述物体跟踪算法和物体检测算法的计算结果进行融合具体执行:利用所述跟踪权值和检测权值,对所述物体跟踪算法和物体检测算法分别输出的操作对象的位置信息进行加权计算,生成所述目标位置信息。
CN201710202909.9A 2017-03-30 2017-03-30 一种图像处理方法及装置 Active CN106997477B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710202909.9A CN106997477B (zh) 2017-03-30 2017-03-30 一种图像处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710202909.9A CN106997477B (zh) 2017-03-30 2017-03-30 一种图像处理方法及装置

Publications (2)

Publication Number Publication Date
CN106997477A CN106997477A (zh) 2017-08-01
CN106997477B true CN106997477B (zh) 2021-01-15

Family

ID=59434008

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710202909.9A Active CN106997477B (zh) 2017-03-30 2017-03-30 一种图像处理方法及装置

Country Status (1)

Country Link
CN (1) CN106997477B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102855637A (zh) * 2012-07-17 2013-01-02 沈阳大学 一种用于视频图像的融合双边滤波的协方差跟踪方法
CN103259962A (zh) * 2013-04-17 2013-08-21 深圳市捷顺科技实业股份有限公司 一种目标追踪方法和相关装置
CN103426179A (zh) * 2012-05-17 2013-12-04 深圳中兴力维技术有限公司 一种基于均值偏移多特征融合的目标跟踪方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103426179A (zh) * 2012-05-17 2013-12-04 深圳中兴力维技术有限公司 一种基于均值偏移多特征融合的目标跟踪方法及装置
CN102855637A (zh) * 2012-07-17 2013-01-02 沈阳大学 一种用于视频图像的融合双边滤波的协方差跟踪方法
CN103259962A (zh) * 2013-04-17 2013-08-21 深圳市捷顺科技实业股份有限公司 一种目标追踪方法和相关装置

Also Published As

Publication number Publication date
CN106997477A (zh) 2017-08-01

Similar Documents

Publication Publication Date Title
US9235751B2 (en) Method and apparatus for image detection and correction
Srinivasan et al. Head pose estimation using view based eigenspaces
JP4459137B2 (ja) 画像処理装置及びその方法
US7848548B1 (en) Method and system for robust demographic classification using pose independent model from sequence of face images
KR20180105876A (ko) 색상과 형태를 동시에 고려한 실시간 영상 추적 방법 및 이를 위한 장치
CN109559330B (zh) 运动目标的视觉跟踪方法、装置、电子设备及存储介质
JP6007682B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2005530278A (ja) ポーズ角度を推定するためのシステムおよび方法
Yu et al. HeadFusion: 360${^\circ} $ Head Pose Tracking Combining 3D Morphable Model and 3D Reconstruction
JP2013065119A (ja) 顔認証装置及び顔認証方法
CN109725721B (zh) 用于裸眼3d显示系统的人眼定位方法及系统
KR101558547B1 (ko) 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템
WO2021084972A1 (ja) 物体追跡装置および物体追跡方法
CN112418153B (zh) 图像处理方法、装置、电子设备和计算机存储介质
CN111382606A (zh) 摔倒检测方法、摔倒检测装置和电子设备
JP6430102B2 (ja) 人物属性推定装置、人物属性推定方法及びプログラム
CN106997477B (zh) 一种图像处理方法及装置
Moteki et al. Fast and accurate relocalization for keyframe-based SLAM using geometric model selection
Knežević et al. Blur and motion blur influence on face recognition performance
CN110781712B (zh) 一种基于人脸检测与识别的人头空间定位方法
CN108346158B (zh) 基于主块数据关联的多目标跟踪方法及系统
JP5643147B2 (ja) 動きベクトル検出装置、動きベクトル検出方法及び動きベクトル検出プログラム
He et al. Recent advance on mean shift tracking: A survey
Mohammadi et al. Enhanced adaptive bandwidth tracking using mean shift algorithm
Zhou et al. Improving video segmentation by fusing depth cues and the ViBe algorithm

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant