CN105404884A - 图像分析方法 - Google Patents

图像分析方法 Download PDF

Info

Publication number
CN105404884A
CN105404884A CN201510558102.XA CN201510558102A CN105404884A CN 105404884 A CN105404884 A CN 105404884A CN 201510558102 A CN201510558102 A CN 201510558102A CN 105404884 A CN105404884 A CN 105404884A
Authority
CN
China
Prior art keywords
target
detection
image
algorithm
methods according
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510558102.XA
Other languages
English (en)
Other versions
CN105404884B (zh
Inventor
伊利亚·罗曼年科
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apical Ltd
Original Assignee
Apical Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apical Ltd filed Critical Apical Ltd
Publication of CN105404884A publication Critical patent/CN105404884A/zh
Application granted granted Critical
Publication of CN105404884B publication Critical patent/CN105404884B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种图像分析方法。一种方法,包括使用目标检测算法检测至少一个图像中目标的存在,所述目标检测算法使用训练图像数据来训练检测算法至少部分地基于图像的第一区域中的图像数据与至少部分地从所述训练图像数据得出的数据的外观相似性来检测目标,所述方法包括:a.提供指示图像的第一区域的至少部分与至少部分地从所述训练图像数据得出的数据的相对高的外观相似性的第一输出;b.确定能够检测到目标的图像的第二区域的特征;以及c.基于所确定的特征,和所述第二区域的至少部分与至少部分地从所述训练图像数据得出的数据的外观相似性,提供指示第二检测置信度足够高以指示所述第二目标有可能存在于所述第二区域中的第二输出。

Description

图像分析方法
技术领域
本发明涉及一种分析图像并且确定是否输出与图像的区域相关联的图像数据方法。这样的图像数据可以用于目标检测算法的进一步训练。
背景技术
目标检测算法可用于检测并且跟踪图像中的目标,诸如静止视频或者直播视频,例如由数字摄像机中的图像传感器获取的。
检测和跟踪目标可以基于通过离线训练得出的分类器模型。在一个这样的方法中,建立肯定数据集和否定数据集,数据集由分别存在或不存在感兴趣的目标的大量实例组成。
感兴趣的目标的大的样本集是允许足够的性能所需要的。另外,实际获取环境的条件的改变会降低精确度。例如,在面部检测的情况下,所共用的是基于视平线处观察的人类面部的实例训练分类器。然而,在一些应用程序中,希望将摄像机放置在升高的角度,这样就降低了面部检测的精确度,导致相对于放置在视平线处的摄像机误报和漏报(falsepositivesandnegatives)的增加。
克服这些问题的一个方法是手动生成许多训练数据集并且为每个集合训练分类器,产生均对于给定环境最优化的许多模型。然而,这需要生成额外的大的样本数据集,进而包括在选择和注释数据集元素中的显著的人工干预。另外,在升高的摄像机位置的情况下,由于例如根据仰角的面部比例的变化,人类难以手动选择合适的肯定训练集和否定训练集。现有的数据集的改善同样地包括大量人为努力。
发明内容
根据本发明的第一方面,提供一种方法,该方法包括使用目标检测算法检测至少一个图像中目标的存在,该目标检测算法使用训练图像数据来训练检测算法至少部分地基于图像的第一区域中的图像数据与至少部分地从训练图像数据得出的数据的外观相似性来检测目标,该方法包括:
a.提供指示图像的第一区域的至少部分与至少部分地从训练图像数据得出的数据的相对高的外观相似性的第一输出,第一输出指示第一检测置信度足够高以指示有可能已经在图像的第一区域中检测到第一目标;
b.确定能够检测到目标的图像的第二区域的特征,该特征从与第一区域有关的数据中得到并且能够指示第二目标存在于第二区域中的可能性;以及
c.基于所确定的特征,以及第二区域的至少部分与至少部分地从训练图像数据得出的数据的外观相似性,提供指示第二检测置信度足够高以指示第二目标有可能存在于第二区域中的第二输出。
第一目标和第二目标可以是相同的目标或者不同的目标。
优选地,特征至少部分地基于第二区域与图像内的第二目标的估计位置的接近度。
优选地,方法包括基于在图像的序列内对目标的运动的跟踪来估计位置。
优选地,位置包括轨迹,或者图像的区域。
在某些方面,特征至少部分地基于待检测的目标的尺寸,至少部分地基于待检测的目标的形状,至少部分地基于第一区域与第二区域的接近度,至少部分地基于第一区域与第二区域的相对位置,和/或至少部分地基于与第一目标相关联的颜色信息。
第一区域和第二区域可以在相同的图像或者不同的图像中。
优选地,方法包括输出与图像的第二区域相关联的图像数据。
图像数据可以包括不包含第二目标的图像的区域。图像数据可以至少包括来自第二区域的图像数据。
图像数据可以包括来自从图像裁剪的区域的图像数据,该区域包含第二区域。
图像数据可以被输出以便在目标检测算法的进一步训练中使用。
方法可以包括将输出的图像数据加入至数据集,该数据集用于训练目标检测算法,从而生成修正数据集。另外,方法可以包括利用修正数据数据集训练目标检测算法,从而生成修正训练目标检测算法。
目标检测算法的性能可以相对修正训练目标检测算法的性能来测试。
在另一方面中,该方法包括:
尝试使用目标检测算法检测目标存在于图像中;并且
响应于检测算法弱检测到而不是强检测到的目标,基于与弱检测到的目标相关联的至少一个特征确定是否输出与弱检测到的目标相关联的图像数据以便在目标检测算法的进一步训练中使用。
优选地,该方法包括输出图像数据以便在进一步训练中使用。
在一个方面,该方法包括基于输出的图像数据重新训练由检测算法使用的模型。
在一个方面,该方法包括重复重新训练直至使模型最优化。当进一步重复没有提高检测的精确度时模型被最优化。
在另一方面,提供一种改善使用数据集训练的目标检测算法的性能的方法,包括:
将与由通过目标检测算法在图像中弱检测到而不是强检测到的目标有关的图像数据加入至数据集,从而生成修正数据集;
利用修正数据集训练目标检测算法,从而生成修正训练目标检测数据库。
优选地,方法包括测试修正训练目标检测数据库的性能相对于目标检测数据库的性能是否改善。测试可以基于确定目标的强检测的数量和弱检测的数量的改变。几个其他方面在下文中的详细说明和权利要求中描述。
附图说明
通过参照附图进行的、仅以示例的方式给出的本发明的优选实施方式的以下描述,本发明的另外的特征和优点将变得显而易见。
图1示出尝试检测目标存在的方法。
图2示出指示强弱检测阈值的尺度。
图3示出在视频流的一系列图像内示出检测的目标运动的重叠延时图像。
图4示出具有显示边界框的检测目标的图像。
图5继目标检测算法的重新训练之后显示图3的检测目标的运动的重叠延时图像。
图6示出训练目标检测算法的方法。
图7示出已被检测的两个相关联目标的图像。
图8示出将图像数据经由网络输出至计算机的摄像机。
具体实施方式
图像分析技术可以应用于存储在存储器中的例如由摄像机的镜头预记录的静止图像或视频,以及实时图像或视频。图像或视频可以是在摄像机模块内的图像处理的结果或者可以例如由CMOS或CCD传感器输出的原始数据流组成。图像或视频流可以被分析以产生与图像或视频的内容有关的数据,诸如元数据。例如,目标检测算法可以应用于识别或检测存在于图像或视频流之中的目标。多个目标可以在图像或视频流中被检测和/或识别。
可以由目标检测算法生成的信息的实例包括每个目标的标识符,图像或视频帧内的每个目标的位置和大小,目标类型(例如“人”或“狗”),对象的部分(例如“头部”、“上身”)以及他们的方位的角度,描述检测的精确度的检测得分,以及每个目标的最可能的方位角的指示(例如,将向着摄像机定向的人类面部与向侧面定向的人类面部区分开)。
如上所述,检测算法可以输出几种类型的有关其检测的目标的信息。这些条信息中的一个或多个可以指示已经多么强地在图像内检测到目标。在优选实施方式中,目标检测算法输出描述每个潜在目标的检测的精确度的检测得分。通常,将这个检测得分与检测阈值相比较以确定目标是否由目标检测算法认为已经正式“检测到”。检测阈值通常是根据经验的得出的值,该值基于用于训练目标检测算法的特定数据集(或者数据集集合)来优化目标检测。
目标检测算法可以经由离线训练产生一个或多个分类器模型向量。训练基于感兴趣的目标的实例的大的数据集,连同不包含目标的实例的集合而执行。数据集通常利用至少一些人工干预生成。这样的目标检测算法的训练是本领域技术人员所理解的,因此这里不作详细描述。
使用中,目标检测算法的特征提取器应用于图像。特征提取器可以基于定向梯度的柱状图来分析图像。例如通过使用支持向量机来将特征提取器的输出与分类器模型相比较。特征向量和模型向量之间的重叠或者标积表示检测得分,该检测得分当与预定阀值相比较时,可用于确定在图像内的特定位置处目标的存在或不存在。阈值是根据经验得出的以便在最小化假肯定和假否定比率的同时最大化真的肯定检测的比率。典型的阈值是0.5。
特定数据集的质量或完整的测量可以通过将分类器应用至训练数据集中的肯定集合和否定集合并且测量获得的分离度(假肯定和假否定数量)来获得。具有大量支持向量的极度o分离可以良好训练的模型。然而当应用于未知的视频序列时,这个测量不足以产生模型的精确度的可靠的测量。
图1示出根据一个实施方式的方法,其中可以分析图像或系列图像(例如视频流)。本发明将参照以下实施方式描述,该实施方式包括系列图像或帧的分析,诸如视频流。然而,本领域技术人员将理解,许多所描述的实施方式包括可以应用于单独的图像的技术,诸如由数字静物摄影机生成的或者从视频流提取的那些。
视频源,例如产生实况录像的摄像机或者存储有视频文件的存储器,提供图像数据101。通过目标检测算法来分析图像数据以求检测到目标的存在。目标检测算法可以上述类型中的任意一个,尽管可以使用其他算法。目标检测算法使用训练图像数据以训练检测算法至少部分地基于图像的区域中的图像数据与至少部分地从训练图像数据得出的数据的外观相似性来检测目标。
指出图像的第一区域的至少部分与至少部分地从训练图像数据得出的数据的相对强的外观相似性的第一输出是输出102。第一输出指示第一检测置信度足够高以指示很可能已经在图像的第一区域中检测到目标。第一输出可以是例如已经在具有检测阈值以上的检测得分的第一区域的至少部分中检测到目标的指示。
确定可以检测到目标的图像的第二区域的特征103。特征从与第一区域有关的数据得出并且能够指示在第二区域中第二目标存在的可能性。
基于确定的特征和第二区域的至少部分与至少部分地从训练图像数据得出的数据的外观相似性提供第二输出104。第二输出指示第二检测置信度足够高以指示第二目标很可能存在于第二区域。
第二输出可以采取以下指示的形式,即第二区域是在训练目标检测算法中使用的潜在感兴趣的。
如以下更详细地描述的,特征可以是许多因素中的任意一个,包括但不限于,
·在包含第二区域的图像内第二目标与目标的估计位置的接近度。
·第二目标和第一目标的相对尺寸。
·第二目标和第一目标(或者第一区域中检测到的目标)的形状。
·第二目标与第一目标的接近度,其中第一目标区域和第二目标区域
与相同的多类别目标相关联。
·第二目标和第一目标的颜色。
相关性也可以基于结合方式的几个特征来执行。另外,在一些情况下,特征可以从目标的相应的区域的相应的特征推断。例如,目标的位置可以从其位于的区域的位置推断,目标的位置可以是通过算法生成的边界框例如。
以上所述特征仅仅是实例。可以选择能够指示第二目标存在于第二区域中的可能性的任何特征。
估计位置
在应用于典型的视频序列的实施方式中,其中目标从帧到帧运动,目标检测算法输出目标的从帧到帧改变的检测得分。例如,目标在特定帧中可具有更高的检测得分而在其他帧中可具有更低的检测得分。如果检测阈值降低使得具有更低的得分的检测被认为是真的检测,则假的肯定检测的数量增加。相反地,如果检测阈值增加,则假否定检测的数量增加。
为了解决这个问题,跟踪算法可以应用于每帧检测。这个通常包括基于例如在其他帧(诸如具体地先前帧和/或后续帧)中的运动预测在特定帧中目标和可选地目标几何形状的位置。这样的预测的典型的方法包括运动矢量提取,光流和Kalman的使用或者颗粒过滤。这些方法可以产生预测目标沿着的估计轨迹。
使用这个信息,每帧检测是弱的,例如在目标存在的阈值以下,如果其沿着预测轨迹并且另外匹配预测目标特征,诸如尺寸、方位或颜色,则其可以重新分类为强。一般地说,在位置处的目标存在的可能性可以根据目标检测算法的得分以及与由跟踪算法确定的目标轨迹有关的其位置来确定。
转向图3,存在以边界框301-309的形式示出的一系列区域,表示由目标检测算法在以视频帧的形式的九个图像上识别的目标。边界框301-304和308具有实线,指示目标检测算法已经确定第一检测置信度足够高以指示很可能已经在图像的区域中检测到目标。边界框305-307和309具有虚线,指示检测算法已经确定第二检测置信度足够高以指示在区域中可以检测到的目标很可能存在于图像的那些区域中。在两种情况下,目标检测算法均确定图像的区域中的图像数据与至少部分地从用于训练目标检测算法的训练图像数据得出的数据的外观相似性。
线310是目标的估计位置,以随着时间的过去由边界框305-307表示的目标的预测轨迹的形式。预测轨迹310示出为单个线,暗示在这种情况下轨迹在正在被分析的图像的过程(course)上是静态的。技术人员将理解轨迹可以为每个图像更新,或者可以基于图像的子集更新。在那种情况下时间推移重叠将显示出一系列轨迹。
在这个实施方式中确定的特征是由例如边界框305-307和309表示的每个目标与估计轨迹310(上述第二区域)的接近度。由轨迹表示的位置从与一个或多个固态边界框有关的位置数据得出。基于确定的特征,和每个虚线有界框的至少部分与至少部分地从训练图像数据得出的数据的外观相似性,以以下指示的形式提供第二输出,即第二检测置信度足够高以指示第二目标很可能存在于第二区域中。
实际上,这个第二输出产生对于输出在进一步训练目标检测算法中使用的图像数据的决定。例如,边界框305-307中的每个位于轨迹310或者相对接近轨迹310。在这个基础上,每个边界框305-307中的每个与比方说产生指示第二检测置信度足够高以指示可以在边界框305-307中的每个中检测到目标的第二输出的边界框304之间的位置关系很可能分别存在于那些边界框中的每个中。
边界框309离轨迹310有一定距离。因此,没有第二检测置信度足够高以指示目标很可能存在于边界框309中的指示。
弱检测到的目标是否足够接近轨迹可以基于任何合适的技术。简单的技术确定边界框(通常已经被称为目标检测算法的输出)的中心与估计轨迹的直线距离。如果轨迹包括待预测的目标的估计点或部分,则可以基于那个点或部分测量接近度。如果位置是区域而不是轨迹,则可以从边界框的中心至区域的边缘或中心测量直线距离。如果位置是点,可以测量至那个点的直线距离。距离可以加权,增加的权重应用至更靠近位置的边界框。将理解可以使用任何其他方便的确定的接近度。
应当注意的是目标的位置可以是其相关联的边界框的位置。这在使用这样的边界框的目标检测算法中是方便的。
在一个实施方式中,方法包括估计位置。这可以包括分析图像的序列中的至少一个其他图像(诸如其他视频帧,其中视频被分析)。通常的,分析是分析在时间上在分析的图像之前或之后的图像。在任何情况下,分析可以包括在另一个图像中确定当前图像中检测到的目标的位置,并且使用那个位置估计当前图像中的目标的可能位置。可以为多个其他图像确定位置,这样可以提高分析的图像中的目标的位置估计精确度。
在剩余实例中,术语“弱检测到(weaklydetected)”被用于指代第二区域的至少部分的外观与至少部分地从训练图像数据得出的数据具有相对低强度的外观相似性的情况。同样地,术语“强检测到(stronglydetected)”被用于指代以下情况,其中图像的第一区域的至少部分与至少部分地从训练图像数据得出的数据存在相对强的相似性,则指示第一检测置信度足够高以指示很可能已经在图像的第一区域中检测到目标。参照图2,例如,如果目标具有0.1以上0.4以下的检测得分,则目标可以被弱检测到,并且如果检测具有等于或超过0.4的检测得分,则目标可以被强检测到。
“目标”的参考资料也可以包括与目标相关联的区域。例如,“目标尺寸”还可以包括检测到的目标的区域尺寸。
目标尺寸
特征可以是目标尺寸。如果弱检测到的目标的尺寸与其他图像中的强检测到的目标的尺寸相似,那么可以确定与弱检测到的目标相关联的图像数据应当被输出以便在目标检测算法的进一步训练中使用。
尺寸可以以任何方便的方式确定。当目标检测算法在其分析期间应用几个尺度,则可以将具有弱检测到的目标的最高得分的尺度与给出另一个图像中的目标的最高得分的尺度相比较。例如,在识别面部的使用中存在五个尺度。如果面部基于第三尺度在一个图像中被强检测到,那么比较可以包括确定下一个图像中弱检测到的面部是否还是基于第三尺度检测的。如果弱检测到的面部是基于比方说第五尺度检测的,那么比较将失败。这个方法的优势是尺度信息是作为应用目标检测算法的结果可获得的。
将理解其中使用许多尺度的情况下,比较不需要弱检测到的目标基于与强检测到的目标准确相同的尺度来检测。如果弱检测到的目标的尺度在先前检测到的目标的一些数量的尺度内,则是可接受的。例如,如果二十个尺度是由目标检测算法使用的,则弱检测到的目标的缩放在先前图像的目标的尺度的比方说两个尺度内是可接受的。例如,如果在先前图像中强检测到的目标的尺度是10,那么如果弱检测到的目标的尺度是8-12中的任意一个,则比较可以是肯定的。
还将理解,可以应用权重,使得弱检测到的目标的尺度越靠近强检测到的目标的尺度,则给定越大的重要性。
目标形状
特征可以是目标形状。如果弱检测到的目标的形状与其他图像中的强检测到的目标的形状相似,那么可以确定与弱检测到的目标相关联的图像数据应当被输出以便在目标检测算法的进一步训练中使用。
形状可以以任何方便的方式确定。当目标检测算法在其分析期间应用几个分类器模型,则可以将给出弱检测到的目标的最高得分的分类器模型与给出另一个图像中的目标的最高得分的分类器模型相比较。例如,目标检测算法可以具有用于以下每个的分类器模型:
·向前看的面部
·向左看的面部
·向右看的面部
如果面部基于向前看的分类器模型在一个图像中被检测到,那么比较可以包括确定下一个图像中弱检测到的面部是否还是基于向前看的分类器模型检测的。如果弱检测到的面部是基于向左看的分类器模型或者向右看的分类器模型检测的,那么比较将失败。这个方法的优势是分类器模型信息是作为应用目标检测算法的结果可获得的。
理解为使用许多分类器模型的情况下,不需要精确地基于相同的分类器模型来检测弱检测到的目标的比较。如果弱检测到的目标的分类器模型与强检测到的目标的分类器模型在相同种类的分类器模型内,则是可接受的。例如,如果存在几个向前看的分类器模型,几个向左看的分类器模型和几个向右看的分类器模型,则在与强检测到的目标的分类器模型相同种类中的弱检测到的目标的特定分类器模型是可接受的。在那种情况下,如果在先前图像中检测到的目标的分类器模型是向左看模型(比方说5的)(of5,say)3,那么如果弱检测到的目标的分类模型是向左看模型4,则因为它们均是向左看模型分类器,所以比较可以是肯定的。
还将理解可以应用权重使得形状越相似,在确定中给予越多的重要性。
颜色
特征可以是颜色。如果弱检测到的目标的颜色与其他图像中的强检测到的目标的颜色相似,那么可以确定与弱检测到的目标相关联的图像数据应当被输出以便在目标检测算法的进一步训练中使用。
颜色可以以任何方便的方式确定。在一些情况下,目标检测算法可以将与目标(或潜在目标)相关联的颜色信息确定为其分析的部分。例如,如果第二区域或者目标(如弱检测到的目标)的颜色柱状图被确定为与第一区域或者目标(如强检测到的目标)的颜色柱状图截然不同,那么确定将失败。
还将理解可以应用权重使得两个区域或目标的颜色信息越相似,则在确定中给予越多的重要性。
相关联的目标
特征可以基于多类别目标检测,可适用于允许多类别分类的目标检测算法。这样的方法包括将目标划分成明显的部分。例如,人类“目标”可以分成以下部分,诸如头部、上身和全身。在这种情况下,相同的目标的相同的目标的不同的部分通常具有特定概率地可以基于目标部分的相对位置和几何尺寸相关的。
参照图7,多类别分类可以包括头部701和上身702(上身包括头部和肩部一起)。如果相关性可以在弱检测到的上身702和强检测到的头部701之间确定,那么可以确定与弱检测到的上身702相关联的图像数据应当被输出以便在目标检测算法的进一步训练中使用。
输出图像数据
如上所述,可以确定与第二区域相关联的图像数据被输出以便在目标检测算法的进一步训练中使用。
输出的图像数据可以包括弱检测到的目标。如果目标检测算法使用边界框,则可以便于使用弱地识别出的目标的边界框作为生成待输出的图像数据的基础。以简单的形式,图像数据可以简单地在边界框内。可替换地,包含目标(或者边界框)和周围面积的比例的区域可以从图像裁剪。
图4示出弱检测到的目标402的这样的边界框。裁剪区域403是从图像裁剪的。确定相对于目标或边界框尺寸的裁剪区域403的尺寸以便为训练数据集提供最合适的样本。裁剪的尺寸可以比目标大某个尺寸,以包括目标分界线并且消除特征向量计算期间的边缘失真效果,并且为作为训练样本的最优使用提供合适的量的背景。
期望保持平衡的数据集,其中包含感兴趣的目标的肯定样本的数量近似与不包含目标的否定样本的数量相匹配。在那种情况下,图像数据也可以包括不包含弱检测到的目标的图像的区域。对于包含弱检测到的目标的裁剪区域403,可以在远离弱检测到的感兴趣的目标的点处从相同的帧裁剪另一个区域404。
更新训练数据集以及重新训练算法
一旦输出图像数据,则图像数据可以被加入到数据集。在实施方式中,加入图像数据的数据集是用于训练目标检测算法的数据集,该目标检测算法用于检测弱检测到的目标,从而生成修正数据集。
图像数据(以及与后续弱检测到的目的相关联的可能的其他图像数据)已被加入到数据集,目标检测算法可以利用修正数据集训练,从而生成修正目标检测算法,该修正目标检测算法包括利用新的模型更新的分类器。因为数据集现已被放大以结合更适合于实际使用环境的目标,所以检测方法的精确度应当增加。对训练数据集的加入或者许多加入之后,期望检查数据集的完整性。通常,如果支持向量的数量与加入的样本的数量成比例地增加,并且可分离性(真的肯定/否定与假的肯定/否定的比例)不减少比加入的样本的比例大很多的比例,则可以认为数据集改善了。如果使用以上所述的标准数据集不被认为是改善的,则其会被预先(priori)拒绝。
在实施方式中,最初的目标检测算法的性能相对修正目标检测算法被测试。那个测试可以采用任何合适的形式。在一个实施方式中,测试包括比较对于目标检测模型和修正目标检测模型例如沿着跟踪的目标的轨迹发生的强检测与弱检测的比例。
强检测与弱检测的比例可以由如图像或系列图像中的强检测的数量除以由第二输出指示的弱检测的数量的总和来表示。
在示出原始目标检测算法的输出的图3中,这个比例是5/8,因为在轨迹310上存在五个强检测到的目标(由边界框301-304和308)和四个弱检测到的目标(由边界框305-307表示)。由边界框310表示的弱检测到的目标不在轨迹310上并且因此不包括在比例计算中。
其他测试可用于确定目标检测算法是否已改善。具体地,诸如那个描述的比例的使用不是必须的。然而,其对测试有用,该测试包括确定利用修正数据集训练目标检测算法而产生的弱和强检测到的目标的数量变化多少。尤其期望测试集中于具有上述需要的相关性的弱检测到的目标(例如,在轨迹上,在这是考虑的特征的实施方式中)。
如果对于修正目标检测算法这个比例高于最初的目标检测算法,则修正目标检测算法可以被认为改善了。无论使用哪个测试,如果注意到改善,则与其他弱检测到的目标相关联的另外的图像数据可以被加入到如上所述的修正数据集,并且进一步重复该过程。重复可以连续直至没有进一步改善。
如果测试示出存在性能降低,则可以确定回复到在对于加入新的图像数据之前的最初的数据集训练的目标检测算法。
测试可以在用作训练数据集的图像数据的来源的图像上进行,或者在对数据集没有贡献图像数据的新的集合的图像上进行。
图5示出以如图3所示的图像的相同顺序应用修正目标检测算法。将注意到作为算法的改善的性能的结果,边界框309不再是弱地识别出的。相似地,现在强地识别出边界框305和306。算法上的改善没有产生强地识别出的边界框307。如上所述计算出的新的比例是7/8。
大于一个测试的结果可以被平均。例如,使用以上比例实例,比例可以对几个不同的图像确定(或者在适当的情况下的图像序列)并且被平均。如果作为更新的目标检测算法的结果平均值增加,作为可以认为是改善了。平均值理想地应当在大量的图像上进行(或者图像序列),包括检测相同的目标类型的尝试。例如,求平均值可以在30个或更多个图像(或者图像序列)上进行。这个上下文中的序列可以指代导致特定目标的检测或潜在检测的图像的集合。图像的集合可以是图像的更大的集合的子集,诸如视频流,其中不是所有的帧都包括将检测的目标。
在进行运动跟踪的情况下,测试可以包括确定在轨迹上强检测到的目标的数量与在轨迹上弱地和强检测到的目标的数量的总和的比例。可以进行重新训练模型的重复过程直至没有进一步改善。在使用求平均值的情况下,当平均值上没有增加或者跟踪密度降低时改善可以被认为具有峰值。
在一些情况下,期望将目标检测(以及在相关的情况下的跟踪)方法应用至原始传感器数据,然而训练的数据集可以以亮度或RGB或YUV代表。在这种情况下,区域中的原始数据由通过标准后续处理被转换成目标代表。
图6示出重复改善目标检测算法的性能的方法。在框601中的“预测路径”是这个说明书中其它地方描述的轨迹。在框602中提到的“跟踪密度”是这个说明书中其它地方描述的强检测与强的和弱检测的总合的比例。重复该处理直至额外的图像数据被加入到训练数据集不再使得跟踪密度增加。
其他实施方式
如上所述的,可以确定是否基于大于一个相关性输出图像数据。同时可以使用特征的任何组合,希望将相关性基于位置估计或目标跟踪与另一相关性结合,诸如与目标尺寸、目标形状或目标颜色。
方法可以在装置内进行,诸如智能手机或摄像机。可替换地,方法的不同的部分可以应用在与彼此通信的不同的装置中。例如,图像可以从存储器提供至编程并且配置为实现本文中描述的任意方法的通用计算机。可替换地,已经描述的一些或者全部可以在装置内进行,诸如智能手机或者摄像机。
在图8中示出的实施方式中,摄像机801尝试检测如上所述的目标的存在。摄像机801可以包括诸如图像处理电路的电路,该图像处理电路设计成能实现如上所述的目标检测算法。可替换地或者此外,摄像机801可以包括在通用处理器或者图像处理器上运行的软件。摄像机电路可以执行确定是否输出图像数据需要的任何附加过程,如在以上详细描述的。
当确定与弱检测到的目标相关联的图像数据应当被输出时,摄像机通过连接803和网络804将图像数据发送至计算机802。可以是基于IP的连接和网络,但可以使用任何合适的协议。
网络可以是诸如局域网(LAN)或者专用网的专用网,并且可以包括有线或无线部分。计算机802可以接入包含数据集的数据库805,该数据集用于训练由摄像机使用的目标检测算法。
如上所述,计算机802将所接收的图像数据加入至数据集。技术人员将理解图像数据的额外的预处理可以在其被加入到数据库之前进行。任何这样的预处理可以在摄像机或计算机中进行。
计算机可以周期性地使用修正数据集重新训练目标检测算法。这可以在任何合适的时间完成,但是方便地,这可以在有特定数量的新的图像已被加入到数据集的时候完成,或者在自上次重新训练起已过去特定时间量的时候完成。重新训练还可以在计算机在相对低的负载下的时候完成,诸如在晚上计算机从用于停业时间几乎没有活动的区域的摄像机接收图像数据时,例如。
一旦确定重新训练产生最初的目标检测算法的改善的性能,则修正目标算法可以替换最初的目标检测算法。在目标检测算法在摄像机中实现的情况下,摄像机可以利用修正检测算法更新。在图8的实例中,将目标检测算法更新至修正版本需要的信息可以由计算机802经由网络804发送至摄像机801。在目标算法由进行训练的相同的计算机应用的实施方式中,目标检测算法可以本地更新。
在实施方式中,可以在远离摄像机的计算机(或者几个计算机)中进行所有处理。在那种情况下,视频流可以在存储之后从摄像机发送并且或者在到达时或者在一些最近点由计算机处理。但不论是哪种情况,处理图像,然后与弱检测到的目标相关联的图像数据被裁剪并且被加入到如上所述的数据集。
尽管已参照许多具体实施方式描述了本发明,但技术人员将理解本发明可以以许多其他形式体现。

Claims (50)

1.一种图像分析方法,包括使用目标检测算法检测至少一个图像中目标的存在,所述目标检测算法使用训练图像数据来训练检测算法至少部分地基于图像的第一区域中的图像数据与至少部分地从所述训练图像数据得出的数据的外观相似性来检测目标,所述方法包括:
a.提供指示图像的第一区域的至少部分与至少部分地从所述训练图像数据得出的数据的相对高的外观相似性的第一输出,所述第一输出指示第一检测置信度足够高以指示有可能已经在图像的第一区域中检测到第一目标;
b.确定能够检测到目标的图像的第二区域的特征,所述特征从与所述第一区域有关的数据中得到并且能够指示第二目标存在于所述第二区域中的可能性;以及
c.基于所确定的特征,以及所述第二区域的至少部分与至少部分地从所述训练图像数据得出的数据的外观相似性,提供指示第二检测置信度足够高以指示所述第二目标有可能存在于所述第二区域中的第二输出。
2.根据权利要求1所述的方法,其中,所述第一目标和所述第二目标是相同的目标。
3.根据权利要求1或2所述的方法,其中,所述特征至少部分地基于第二区域与图像内的所述第二目标的估计位置的接近度。
4.根据权利要求2所述的方法,包括,基于在图像的序列内对目标的运动的跟踪来估计位置。
5.根据权利要求4所述的方法,包括,通过分析除包含所述第二区域的图像以外的至少一个图像来估计所述位置。
6.根据权利要求3至5中的任一项所述的方法,其中,所述位置包括轨迹、或者图像的区域。
7.根据前述权利要求中的任一项所述的方法,其中,所述特征至少部分地基于待检测的目标的尺寸。
8.根据前述权利要求中的任一项所述的方法,其中,所述特征至少部分地基于待检测的目标的形状。
9.根据前述权利要求中的任一项所述的方法,其中,所述第一区域和所述第二区域在相同的图像中。
10.根据权利要求1至8中的任一项所述的方法,其中,所述第一区域和所述第二区域在不同的图像中。
11.根据权利要求9或10所述的方法,其中,所述特征至少部分地基于所述第一区域与所述第二区域的接近度。
12.根据权利要求9或10所述的方法,其中,所述特征至少部分地基于所述第一区域与所述第二区域的相对位置。
13.根据前述权利要求中的任一项所述的方法,其中,所述特征至少部分地基于与所述第一目标相关联的颜色信息。
14.根据前述权利要求中的任一项所述的方法,包括,输出与图像的所述第二区域相关联的图像数据。
15.根据权利要求14所述的方法,其中,所述图像数据包括不包含所述第二目标的图像的区域。
16.根据权利要求14或15所述的方法,其中,所述图像数据至少包括来自所述第二区域的图像数据。
17.根据权利要求16所述的方法,其中,所述图像数据包括来自从图像裁剪的区域的图像数据,所述区域包含所述第二区域。
18.根据权利要求14至17中的任一项所述的方法,包括,将输出的图像数据输出以便在所述目标检测算法的进一步训练中使用。
19.根据权利要求18所述的方法,包括:
将所述输出的图像数据加入至数据集,所述数据集用于训练所述目标检测算法,从而生成修正数据集。
20.根据权利要求19所述的方法,包括:
利用所述修正数据集训练所述目标检测算法,从而生成修正训练目标检测算法。
21.根据权利要求20所述的方法,包括:
相对所述修正训练目标检测算法的性能来测试所述目标检测算法的性能。
22.根据权利要求21所述的方法,其中,所述测试包括将所述修正训练目标检测算法应用至所述数据集,并且检查肯定检测和否定检测的可分离性或者支持向量机的支持向量的数量。
23.一种改善目标检测算法的性能的方法,包括:
利用根据权利要求19所述的修正数据集训练目标检测算法,从而生成修正训练目标检测算法;
相对所述修正训练目标检测算法的性能来测试所述目标检测算法的性能;以及
如果所述修正训练目标检测算法的性能超过所述目标检测算法的性能,则利用所述修正训练目标检测算法代替所述目标检测算法。
24.根据权利要求23所述的方法,包括,利用附加图像数据重复权利要求23的步骤直至所述修正训练目标检测算法的性能不再改善。
25.根据权利要求21或23或24所述的方法,其中,所述测试基于对第一输出的数量与第二输出的数量的比的确定。
26.根据权利要求25所述的方法,其中,所述比基于与所述第二输出的数量和所述第一输出的数量的总和相比的第一输出的数量。
27.根据权利要求25或26所述的方法,其中:
所述特征是与位置的接近度;
所述第一输出的数量是具有所述第一检测置信度并且接近于所述位置的所述第一目标的数量;以及
所述第二输出的数量是具有所述第二检测置信度并且接近于所述位置的所述第二目标的数量。
28.一种改善使用数据集训练的目标检测算法的性能的方法,包括:
将与通过目标检测算法在图像中弱检测到而不是强检测到的目标有关的图像数据加入到数据集,从而生成修正数据集;
利用所述修正数据集训练所述目标检测算法,从而生成修正训练目标检测数据库。
29.根据权利要求28所述的方法,包括,测试所述修正训练目标检测数据库的性能相对于目标检测数据库的性能是否改善。
30.根据权利要求29所述的方法,其中,所述测试基于对目标的强检测的数量和弱检测的数量的改变的确定。
31.根据权利要求30所述的方法,其中,所述图像数据基于对所述弱检测到而不是强检测到的目标与相对于包含第二目标的图像限定的轨迹的接近度的确定而被加入到所述数据集。
32.根据权利要求31所述的方法,其中,所述测试包括对接近于所述轨迹的强检测到和弱检测到的目标的密度变化的确定。
33.根据权利要求31或32所述的方法,包括,重复将所述图像数据加入至数据集的步骤,训练所述目标检测算法以及测试所产生的修正目标检测算法。
34.根据权利要求32所述的方法,其中,如果与先前的模型相比密度降低,则拒绝所述修正目标检测算法。
35.根据权利要求32或34所述的方法,其中重复更新所述模型的过程直至所述强检测的密度不再增加。
36.根据权利要求35所述的方法,其中,通过确定在所述目标的整个使用期限中强检测与弱检测的比来获得所述密度。
37.根据权利要求35所述的方法,其中,在出现在相似位置的目标的数目上或者在相似时间周期中平均所述密度。
38.根据前述权利要求中的任一项所述的方法,其中,通过分类器的响应强度确定相似性的强度。
39.根据权利要求38所述的方法,其中,所述分类器为支持向量机的分类器或者线性分类器。
40.根据前述权利要求中的任一项所述的方法,其中,所述目标是人或者它的部分。
41.根据前述权利要求中的任一项所述的方法,其中,在原始图像传感器数据上执行目标检测。
42.根据前述权利要求中的任一项所述的方法,其中,在第一位置执行目标检测并且在第二位置存储生成的数据集。
43.根据前述权利要求中的任一项所述的方法,其中,区域的尺寸被选择为包括占有所述区域的总尺寸的预定部分的目标。
44.根据前述权利要求中的任一项所述的方法,其中,所述图像数据在并入到数据集之前被进一步处理。
45.根据权利要求44所述的方法,其中,所述处理对应于从原始传感器数据转化为亮度表现度。
46.根据权利要求44或45所述的方法,其中,所述处理对应于从原始传感器数据转化为3分量的色域。
47.根据前述权利要求中的任一项所述的方法,其中,第一目标和第二目标是不同的目标。
48.一种非易失性计算机可读存储介质包括计算机可执行指令,当由处理器执行时,所述计算机可执行指令使得计算设备执行前述权利要求中的任一项所述的方法。
49.一种在目标检测中使用的系统,所述系统包括包含计算机程序代码的至少一个存储器,以及与所述至少一个存储器数据通信的至少一个处理器,其中所述至少一个处理器被配置为,当执行所述程序代码时,执行根据权利要求1至47中的任一项所述的方法。
50.一种在目标检测中使用的摄像机,所述摄像机包括包含计算机程序代码的至少一个存储器,以及与所述至少一个存储器数据通信的至少一个处理器,其中所述至少一个处理器被配置为,当执行所述程序代码时,执行根据权利要求1至47中的任一项所述的方法。
CN201510558102.XA 2014-09-05 2015-09-02 图像分析方法 Expired - Fee Related CN105404884B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB1415790.3A GB2529888B (en) 2014-09-05 2014-09-05 A method of image analysis
GB1415790.3 2014-09-05

Publications (2)

Publication Number Publication Date
CN105404884A true CN105404884A (zh) 2016-03-16
CN105404884B CN105404884B (zh) 2020-11-10

Family

ID=51796301

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510558102.XA Expired - Fee Related CN105404884B (zh) 2014-09-05 2015-09-02 图像分析方法

Country Status (3)

Country Link
US (1) US9858677B2 (zh)
CN (1) CN105404884B (zh)
GB (1) GB2529888B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107341484A (zh) * 2017-07-21 2017-11-10 金鹏电子信息机器有限公司 一种基于大数据的网络视频图像分析方法
CN108769803A (zh) * 2018-06-29 2018-11-06 北京字节跳动网络技术有限公司 带边框视频的识别方法、裁剪方法、系统、设备及介质
CN109584274A (zh) * 2018-11-22 2019-04-05 广东技术师范学院 一种水下动物的数量及其轨迹的检测方法及设备
CN110363061A (zh) * 2018-04-10 2019-10-22 精工爱普生株式会社 计算机可读介质、训练对象检测算法的方法及显示装置
CN113706475A (zh) * 2021-08-06 2021-11-26 福建自贸试验区厦门片区Manteia数据科技有限公司 基于图像分割的置信度分析方法及装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201410635D0 (en) 2014-06-13 2014-07-30 Univ Bangor Improvements in and relating to the display of images
WO2016183681A1 (en) 2015-05-19 2016-11-24 Irystec Software Inc. System and method for color retargeting
US10248839B2 (en) * 2015-11-30 2019-04-02 Intel Corporation Locating objects within depth images
JP6936957B2 (ja) * 2017-11-07 2021-09-22 オムロン株式会社 検査装置、データ生成装置、データ生成方法及びデータ生成プログラム
CA3033030A1 (en) * 2018-02-08 2019-08-08 Flaschebottle Technologies Inc. Estimating a number of containers by digital image analysis
US10872424B2 (en) * 2018-11-19 2020-12-22 Accenture Global Solutions Limited Object tracking using object attributes
US10929719B2 (en) * 2019-03-28 2021-02-23 GM Global Technology Operations LLC Adversarial attack on black box object detection algorithm
DE102021202681A1 (de) * 2021-03-19 2022-09-22 Robert Bosch Gesellschaft mit beschränkter Haftung Detektionseinrichtung zur Erkennung eines Objekts und/oder einer Person, Verfahren, Computerprogramm und Speichermedium
CN112990045A (zh) * 2021-03-25 2021-06-18 北京百度网讯科技有限公司 用于生成图像变化检测模型和图像变化检测的方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101216884A (zh) * 2007-12-29 2008-07-09 北京中星微电子有限公司 一种人脸认证的方法及系统
CN101751554A (zh) * 2008-12-10 2010-06-23 中国科学院自动化研究所 一种对互联网大麻图像进行的过滤方法
US20100226564A1 (en) * 2009-03-09 2010-09-09 Xerox Corporation Framework for image thumbnailing based on visual similarity
US20110251896A1 (en) * 2010-04-09 2011-10-13 Affine Systems, Inc. Systems and methods for matching an advertisement to a video

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4724638B2 (ja) * 2006-10-20 2011-07-13 株式会社日立製作所 オブジェクト検出方法
CN102803991B (zh) * 2009-06-03 2014-06-04 学校法人中部大学 物体检测设备
WO2013037702A1 (en) * 2011-09-14 2013-03-21 Siemens Aktiengesellschaft Method and a system for medical imaging
US9224066B2 (en) * 2013-03-01 2015-12-29 Adobe Systems Incorporated Object detection via validation with visual search

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101216884A (zh) * 2007-12-29 2008-07-09 北京中星微电子有限公司 一种人脸认证的方法及系统
CN101751554A (zh) * 2008-12-10 2010-06-23 中国科学院自动化研究所 一种对互联网大麻图像进行的过滤方法
US20100226564A1 (en) * 2009-03-09 2010-09-09 Xerox Corporation Framework for image thumbnailing based on visual similarity
US20110251896A1 (en) * 2010-04-09 2011-10-13 Affine Systems, Inc. Systems and methods for matching an advertisement to a video

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BORIS BABENKO等: "Robust Object Tracking with Online Multiple Instance Learning", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
SRI-KAUSHIK PAVANI: "An Experimental Evaluation of Three Classifiers for Use in Self-Updating Face Recognition Systems", 《IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107341484A (zh) * 2017-07-21 2017-11-10 金鹏电子信息机器有限公司 一种基于大数据的网络视频图像分析方法
CN110363061A (zh) * 2018-04-10 2019-10-22 精工爱普生株式会社 计算机可读介质、训练对象检测算法的方法及显示装置
CN108769803A (zh) * 2018-06-29 2018-11-06 北京字节跳动网络技术有限公司 带边框视频的识别方法、裁剪方法、系统、设备及介质
CN109584274A (zh) * 2018-11-22 2019-04-05 广东技术师范学院 一种水下动物的数量及其轨迹的检测方法及设备
CN113706475A (zh) * 2021-08-06 2021-11-26 福建自贸试验区厦门片区Manteia数据科技有限公司 基于图像分割的置信度分析方法及装置
CN113706475B (zh) * 2021-08-06 2023-07-21 福建自贸试验区厦门片区Manteia数据科技有限公司 基于图像分割的置信度分析方法及装置

Also Published As

Publication number Publication date
US20160070988A1 (en) 2016-03-10
GB201415790D0 (en) 2014-10-22
GB2529888B (en) 2020-09-23
US9858677B2 (en) 2018-01-02
GB2529888A (en) 2016-03-09
CN105404884B (zh) 2020-11-10

Similar Documents

Publication Publication Date Title
CN105404884A (zh) 图像分析方法
KR102560308B1 (ko) 외관 탐색을 위한 시스템 및 방법
US9710716B2 (en) Computer vision pipeline and methods for detection of specified moving objects
US9462160B2 (en) Color correction device, method, and program
EP2959454B1 (en) Method, system and software module for foreground extraction
US20170270674A1 (en) System and method for training object classifier by machine learning
US8891880B2 (en) Person clothing feature extraction device, person search device, and processing method thereof
US10395136B2 (en) Image processing apparatus, image processing method, and recording medium
US8472668B2 (en) Image analyzing apparatus, image analyzing method, and computer readable medium
US9773322B2 (en) Image processing apparatus and image processing method which learn dictionary
CN106778712B (zh) 一种多目标检测与跟踪方法
US9633264B2 (en) Object retrieval using background image and query image
US8922674B2 (en) Method and system for facilitating color balance synchronization between a plurality of video cameras and for obtaining object tracking between two or more video cameras
US20160217575A1 (en) Model-less background estimation for foreground detection in video sequences
US8718362B2 (en) Appearance and context based object classification in images
US20170091573A1 (en) Visual attention detector and visual attention detection method
CN106447701A (zh) 用于图像相似性确定、对象检测和跟踪的方法和装置
US20150071529A1 (en) Learning image collection apparatus, learning apparatus, and target object detection apparatus
Bouachir et al. Structure-aware keypoint tracking for partial occlusion handling
CN108491857B (zh) 一种视域重叠的多摄像机目标匹配方法
US9727780B2 (en) Pedestrian detecting system
KR20060121503A (ko) 무인 감시 로봇에서 중요 얼굴 추적 장치 및 방법
Piérard et al. A probabilistic pixel-based approach to detect humans in video streams
KR102584708B1 (ko) 과소 및 과밀 환경을 지원하는 군중위험관리시스템 및 방법
US11893084B2 (en) Object detection systems and methods including an object detection model using a tailored training dataset

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: cambridge

Applicant after: Apical Ltd.

Address before: London, England

Applicant before: Apical Ltd.

GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20201110