CN112950687B - 一种确定跟踪状态的方法、装置、存储介质和电子设备 - Google Patents
一种确定跟踪状态的方法、装置、存储介质和电子设备 Download PDFInfo
- Publication number
- CN112950687B CN112950687B CN202110532147.5A CN202110532147A CN112950687B CN 112950687 B CN112950687 B CN 112950687B CN 202110532147 A CN202110532147 A CN 202110532147A CN 112950687 B CN112950687 B CN 112950687B
- Authority
- CN
- China
- Prior art keywords
- training
- image classification
- tracking
- target
- classification result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供一种确定跟踪状态的方法、装置、存储介质和电子设备,该方法包括:获取待跟踪图像;利用目标跟踪算法对待跟踪图像中的跟踪对象进行跟踪处理,获得目标响应图;将目标响应图输入到预先训练好的图像分类模型中,以使预先训练好的图像分类模型对目标响应图进行分类识别,以获得用于表示跟踪对象的跟踪状态的目标图像分类结果;其中,预先训练好的图像分类模型是根据训练集对初始图像分类模型进行训练得到的,训练集包括训练响应图和训练响应图对应的训练图像分类结果。借助于上述技术方案,本申请实施例可提高对跟踪对象的跟踪状态的监测精度,减少误检率。
Description
技术领域
本申请涉及图像处理技术领域,具体而言,涉及一种确定跟踪状态的方法、装置、存储介质和电子设备。
背景技术
目标跟踪在视觉导航、行为识别和智能交通等众多领域有非常广泛的研究和应用。其中,在目标跟踪任务中,目标的跟踪状态是十分重要的。
目前,现有的确定跟踪状态的方法一般是通过对获得的响应图进行分析,并直接将响应图中的峰值和设定的阈值进行比较。如果峰值低于阈值,则认为跟踪失败。
在实现本发明的过程中,发明人发现现有技术中存在如下问题:由于现有的确定跟踪状态的方法是通过对响应图进行信息处理,然后通过与人为设定的阈值进行比较,简单的结构加上经验化的参数设置导致检测的效果不稳定,容易发生误检。
发明内容
本申请实施例的目的在于提供一种确定跟踪状态的方法、装置、存储介质和电子设备,以避免现有技术中存在着的跟踪状态的监测的精度不高的问题。
第一方面,本申请实施例提供了一种确定跟踪状态的方法,该方法包括:获取待跟踪图像;利用目标跟踪算法对待跟踪图像中的跟踪对象进行跟踪处理,获得目标响应图;将目标响应图输入到预先训练好的图像分类模型中,以使预先训练好的图像分类模型对目标响应图进行分类识别,以获得用于表示跟踪对象的跟踪状态的目标图像分类结果;其中,预先训练好的图像分类模型是根据训练集对初始图像分类模型进行训练得到的,训练集包括训练响应图和训练响应图对应的训练图像分类结果。
因此,本申请实施例可通过可训练的图像分类模型来替换现有的确定跟踪状态的方法,从而可提高对跟踪对象的跟踪状态的监测精度,减少误检率。
在一个可能的实施例中,训练响应图是利用目标跟踪算法对原始训练图像中的目标对象进行跟踪处理后获得的;其中,在将目标响应图输入到预先训练好的图像分类模型中之前,方法还包括:计算原始训练图像对应的预测框和原始训练图像对应的真实框的交并比值;根据交并比值和训练响应图的峰值,确定训练响应图对应的训练图像分类结果。
因此,借助于上述技术方案,本申请实施例根据交并比值和训练响应图的峰值,确定训练响应图对应的训练图像分类结果,从而可快速且精准地获取训练图像分类结果。
在一个可能的实施例中,训练图像分类结果包括正常跟踪目标对象;
其中,根据交并比值和训练响应图的峰值,确定训练响应图对应的训练图像分类结果,包括:在交并比值大于第一预设交并比值且峰值大于预设峰值的情况下,确定训练图像分类结果为正常跟踪目标对象。
在一个可能的实施例中,训练图像分类结果包括目标对象被遮挡;
其中,根据交并比值和训练响应图的峰值,确定训练响应图对应的训练图像分类结果,包括:在交并比值小于等于第一预设交并比值且大于等于第二预设交并比值的情况下,确定训练图像分类结果为目标对象被遮挡;或者,在交并比值大于第一预设交并比值且峰值小于等于预设峰值的情况下,确定训练图像分类结果为目标对象被遮挡。
在一个可能的实施例中,训练图像分类结果包括目标对象跟踪失败;
其中,根据交并比值和训练响应图的峰值,确定训练响应图对应的训练图像分类结果,包括:在交并比值小于第二预设交并比值的情况下,确定训练图像分类结果为目标对象跟踪失败。
在一个可能的实施例中,在将目标响应图输入到预先训练好的图像分类模型中之前,方法还包括:将训练响应图输入到初始图像分类模型中,以使初始图像分类模型对训练响应图进行分类识别,以获得预测图像分类结果;根据预测图像分类结果和训练图像分类结果,确定损失函数;利用损失函数调整初始图像分类模型中的参数,以获得预先训练好的图像分类模型。
在一个可能的实施例中,方法还包括:根据目标图像分类结果,对目标跟踪算法进行调整。
因此,借助于上述技术方案,本申请实施例可以针对性地对目标跟踪算法进行调整,以提高目标跟踪算法的稳定性。
第二方面,本申请实施例提供了一种确定跟踪状态的装置,该装置包括:获取模块,用于获取待跟踪图像;跟踪模块,用于利用目标跟踪算法对待跟踪图像中的跟踪对象进行跟踪处理,获得目标响应图;第一输入模块,用于将目标响应图输入到预先训练好的图像分类模型中,以使预先训练好的图像分类模型对目标响应图进行分类识别,以获得用于表示跟踪对象的跟踪状态的目标图像分类结果;其中,预先训练好的图像分类模型是根据训练集对初始图像分类模型进行训练得到的,训练集包括训练响应图和训练响应图对应的训练图像分类结果。
在一个可能的实施例中,训练响应图是利用目标跟踪算法对原始训练图像中的目标对象进行跟踪处理后获得的;
该装置包括:计算模块,用于在将目标响应图输入到预先训练好的图像分类模型中之前,计算原始训练图像对应的预测框和原始训练图像对应的真实框的交并比值;第一确定模块,用于根据交并比值和训练响应图的峰值,确定训练响应图对应的训练图像分类结果。
在一个可能的实施例中,训练图像分类结果包括正常跟踪目标对象;第一确定模块,具体用于:在交并比值大于第一预设交并比值且峰值大于预设峰值的情况下,确定训练图像分类结果为正常跟踪目标对象。
在一个可能的实施例中,训练图像分类结果包括目标对象被遮挡;第一确定模块,具体用于:在交并比值小于等于第一预设交并比值且大于等于第二预设交并比值的情况下,确定训练图像分类结果为目标对象被遮挡;或者,在交并比值大于第一预设交并比值且峰值小于等于预设峰值的情况下,确定训练图像分类结果为目标对象被遮挡。
在一个可能的实施例中,训练图像分类结果包括目标对象跟踪失败;第一确定模块,具体用于:在交并比值小于第二预设交并比值的情况下,确定训练图像分类结果为目标对象跟踪失败。
在一个可能的实施例中,该装置还包括:第二输入模块,用于在将目标响应图输入到预先训练好的图像分类模型中之前,将训练响应图输入到初始图像分类模型中,以使初始图像分类模型对训练响应图进行分类识别,以获得预测图像分类结果;第二确定模块,用于根据预测图像分类结果和训练图像分类结果,确定损失函数;第一调整模块,用于利用损失函数调整初始图像分类模型中的参数,以获得预先训练好的图像分类模型。
在一个可能的实施例中,该装置还包括:第二调整模块,用于根据目标图像分类结果,对目标跟踪算法进行调整。
第三方面,本申请实施例提供了一种存储介质,该存储介质上存储有计算机程序,该计算机程序被处理器运行时执行第一方面或第一方面的任一可选的实现方式所述的方法。
第四方面,本申请实施例提供了一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当所述电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行第一方面或第一方面的任一可选的实现方式所述的方法。
第五方面,本申请提供一种计算机程序产品,所述计算机程序产品在计算机上运行时,使得计算机执行第一方面或第一方面的任意可能的实现方式中的方法。
为使本申请实施例所要实现的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例提供的一种构建训练集的方法的流程图;
图2示出了本申请实施例提供的一种训练图像分类模型的方法的流程图;
图3示出了本申请实施例提供的一种确定跟踪状态的方法的流程图;
图4示出了本申请实施例提供的一种确定跟踪状态的装置的结构框图;
图5示出了本申请实施例提供的一种电子设备的结构框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在目标跟踪任务中,跟踪状态的监测功能对于目标跟踪算法有着十分重要的作用。例如,如果确定目标被遮挡,则可暂停目标跟踪算法中的跟踪模型的更新,从而能够防止发生漂移及跟踪失败。再例如,如果确定目标跟踪失败,则可调用目标跟踪算法或者其他跟踪算法重新找回目标,并修改目标的跟踪状态。
目前,现有的确定跟踪状态的方法一般包括以下三种方法:第一种方法可以是利用响应图的计算公式,计算相关滤波器的相关响应图比较中的最大值与检测阈值的大小,如果低于阈值,则认为跟踪失败了;第二种方法可以是对响应图进行峰值旁瓣比PSR分析,并且将其与设定的阈值进行比较,以判断跟踪算法的状态;第三种方法可以是对响应图进行多峰检测,以判断跟踪器的状态。
但是,由于现有的确定跟踪状态的方法需要对响应图进行信息处理或者波峰分析,然后通过与人为设定的阈值进行比较,简单的结构加上经验化的超参数的设置导致检测的结果不稳定,容易发生误检。
基于此,本申请实施例巧妙地提出了一种确定跟踪状态的方案,通过获取待跟踪图像,随后利用目标跟踪算法对待跟踪图像中的跟踪对象进行跟踪处理,获得目标响应图,最后将目标响应图输入到预先训练好的图像分类模型中,以使预先训练好的图像分类模型对目标响应图进行分类识别,以获得用于表示跟踪对象的跟踪状态的目标图像分类结果;其中,预先训练好的图像分类模型是根据训练集对初始图像分类模型进行训练得到的,训练集包括训练响应图和训练响应图对应的训练图像分类结果。
因此,本申请实施例可通过预先训练好的图像分类模型直接对目标响应图进行分类识别,可获得跟踪对象的跟踪状态,从而相比于现有的确定跟踪状态的方法,其能够提高跟踪对象的跟踪状态的监测的精准度,并且其无需和阈值进行比较,可有效解决现有的确定跟踪状态的方法存在着的容易发生误检的问题。
请参见图1,图1示出了本申请实施例提供的一种构建训练集的方法的流程图。应理解,图1所示的方法可以由构建训练集的装置或者确定跟踪状态的装置执行,上述装置可以是能够执行该方法的各种设备,例如,如个人计算机、服务器或网络设备等,本申请实施例并不限于此,具体包括如下步骤:
步骤S110,获取原始训练图像。
应理解,原始训练图像的获取方式可根据实际需求来进行设置,本申请实施例并不局限于此。
例如,该装置可读取多个原始训练图像所在的数据库来获得原始训练图像集。其中,原始训练图像集包括多个原始训练图像。
再例如,该装置可接收其他设备发送的多个原始训练图像,从而获得原始训练图像集。其中,原始训练图像集包括多个原始训练图像。
还应理解,原始训练图像集中每个原始训练图像具有对应的真实框(或者真实标注)。其中,该真实框用于表示目标对象的真实位置。
这里需要说明的是,原始训练图像集中多个原始训练图像对应的目标图像可以是全部相同的,也可以是部分相同的,也可以是完全不同的,本申请实施例并不局限于此。
步骤S120,利用目标跟踪算法对原始训练图像中的目标对象进行跟踪处理,获得预测框和训练响应图。其中,预测框用于表示目标对象的预测位置。
应理解,目标跟踪算法的具体算法可根据实际需求来进行设置,只要保证通过目标跟踪算法能够获得响应图即可,本申请实施例并不局限于此。
例如,目标跟踪算法可以为基于相关滤波的目标跟踪算法。
这里需要说明的是,可通过步骤S120对原始训练图像集中的每个原始训练图像进行跟踪处理。
步骤S130,计算预测框和真实框的交并比值(Intersection over Union,IoU)。
具体地,在包含多个原始训练图像的情况下,可将每个原始训练图像对应的预测框及其对应的真实框进行重合度计算,以获得每个原始训练图像对应的IoU。
步骤S140,根据交并比值和训练响应图的峰值,确定训练响应图对应的训练图像分类结果。
应理解,训练响应图的峰值可以为最大峰值Fmax。
还应理解,训练图像分类结果所包含的结果信息可根据实际需求来进行设置,本申请实施例并不局限于此。
例如,训练图像分类结果包括正常跟踪目标对象、目标对象被遮挡和目标对象跟踪失败。其中,正常跟踪目标对象用于表示目标对象的跟踪状态为正常跟踪;目标对象被遮挡用于表示目标对象的跟踪状态为被遮挡;目标对象跟踪失败用于表示目标对象的跟踪状态为跟踪失败。
这里需要说明的是,目标对象的跟踪状态也可以看作是目标跟踪算法对应的跟踪状态,本申请实施例并不局限于此。
还应理解,根据交并比值和训练响应图的峰值,确定训练响应图对应的训练图像分类结果对应的具体过程可根据实际需求来进行设置,本申请实施例并不局限于此。
为了便于理解本申请实施例,下面通过具体的实施例来进行描述。
具体地,可对原始训练图像集中的每个原始训练图像执行如下步骤:获取当前训练响应图(当前训练响应图和当前原始训练图像对应)的峰值,并通过对当前原始训练图像对应的交并比值和当前训练响应图的峰值进行比较,并可根据比较情况,确定当前响应图对应的训练图像分类结果。
其中,在交并比值大于第一预设交并比值且峰值大于预设峰值的情况下,确定训练图像分类结果为正常跟踪目标对象;在交并比值小于等于第一预设交并比值且大于等于第二预设交并比值的情况下,确定训练图像分类结果为目标对象被遮挡;在交并比值大于第一预设交并比值且峰值小于等于预设峰值的情况下,确定训练图像分类结果为目标对象被遮挡;在交并比值小于第二预设交并比值的情况下,确定训练图像分类结果为目标对象跟踪失败。
应理解,第一预设交并比值的具体值、预设峰值的具体值和第二预设交并比值的具体值均可根据实际需求来进行设置,本申请实施例并不局限于此。
可选地,在第一预设交并比值为0.75、预设峰值为0.6和第二预设交并比值为0.5的情况下,若交并比值大于0.75且峰值大于0.6,则可确定训练图像分类结果为正常跟踪目标对象;若交并比值小于等于0.75且大于等于0.5(或者,交并比值大于0.75并且峰值小于等于0.6),则可确定训练图像分类结果为目标对象被遮挡;若交并比值小于0.5,则可确定训练图像分类结果为标对象跟踪失败。
步骤S150,利用训练响应图和训练响应图对应的训练图像分类结果,构建训练集。
具体地,可对原始训练图像集中的每个原始训练图像执行如下步骤:可将当前训练响应图和当前训练响应图对应的训练图像分类结果作为训练集中的一个训练数据。
这里需要说明的是,通过图1所示的步骤是为了构建用于训练图像分类模型的训练集,并且其训练的具体过程可参见图2,在此不再详细赘述。
应理解,上述构建训练集的方法仅是示例性的,本领域技术人员根据上述的方法可以进行各种变形,修改或变形之后的内容也在本申请保护范围内。
请参见图2,图2示出了本申请实施例提供的一种训练图像分类模型的方法的流程图。应理解,图2所示的方法可以由训练图像分类模型的装置或者确定跟踪状态的装置执行,上述装置可以是能够执行该方法的各种设备,例如,如个人计算机、服务器或网络设备等,本申请实施例并不限于此,具体包括如下步骤:
步骤S210,将训练响应图输入到初始图像分类模型中,以使初始图像分类模型对训练响应图进行分类识别,以获得预测图像分类结果。
应理解,初始图像分类模型是指未训练完成的图像分类模型。
还应理解,初始图像分类模型对应的具体模型及其对应的模型结构等均可根据实际需求来进行设置,只要保证通过图像分类模型能够实现图像的分类即可,本申请实施例并不局限于此。
还应理解,预测图像分类结果所包含的结果信息也可根据实际需求来进行设置,本申请实施例并不局限于此。
例如,预测图像分类结果也可以包括正常跟踪目标对象、目标对象被遮挡和目标对象跟踪失败。
为了便于理解本申请实施例,下面通过具体的实施例来进行描述。
具体地,可对训练集中的每个训练响应图执行如下步骤:可将当前训练响应图作为初始图像分类模型的输入,并可通过初始图像分类模型前向处理,随后初始图像分类模型可输出预测图像分类结果。
步骤S220,根据预测图像分类结果和训练图像分类结果,确定损失函数。
应理解,预测图像分类结果为初始图像分类模型预测的图像分类结果,而训练图像分类结果可以看作是真实的图像分类结果,并且训练图像分类结果可以是通过图1所示的步骤来自动实现的。
还应理解,根据预测图像分类结果和训练图像分类结果,确定损失函数的具体过程可根据实际需求来进行设置,本申请实施例并不局限于此。
可选地,可对多个预测图像分类结果中每个预测图像分类结果执行如下步骤:可将当前预测图像分类结果和训练集中当前预测图像分类结果对应的当前训练图像分类结果进行对比,以计算获得损失函数。
例如,可根据当前预测图像分类结果和当前训练图像分类结果的差异,构建损失函数。
步骤S230,利用损失函数调整初始图像分类模型中的参数,以获得预先训练好的图像分类模型。
具体地,可根据损失函数在神经网络中进行梯度的反向传播,更新初始图像分类模型中的参数,并进行迭代训练,直至满足训练结束条件,则可停止训练,以获得训练好的图像分类模型。
应理解,训练结束条件对应的具体条件可根据实际需求来进行设置,本申请实施例并不局限于此。
这里需要说明的是,虽然图2示出了图像分类模型的训练过程,但本领域的技术人员应当理解,在图像分类模型为预先训练好的图像分类模型的情况下,可直接执行图3所示的确定跟踪状态的方法,而无需再执行图2所示的训练图像分类模型的方法。
应理解,上述训练图像分类模型的方法仅是示例性的,本领域技术人员根据上述的方法可以进行各种变形,修改或变形之后的内容也在本申请保护范围内。
请参见图3,图3示出了本申请实施例提供的一种确定跟踪状态的方法的流程图。应理解,图3所示的确定跟踪状态的方法可以由确定跟踪状态的装置执行,该装置可以与下文中的图4所示的确定跟踪状态的装置对应,该装置可以是能够执行该方法的各种设备,例如,如个人计算机、服务器或网络设备等,本申请实施例并不限于此,具体包括如下步骤:
步骤S310,获取待跟踪图像。
应理解,待跟踪图像可以是待跟踪视频中的任意一帧视频图像。
步骤S320,利用目标跟踪算法对所述待跟踪图像中的跟踪对象进行跟踪处理,获得目标响应图。
应理解,步骤S320的具体过程与步骤S120的步骤是类似的,具体可参见步骤S120的相关描述,在此不再赘述。
这里需要说明的是,虽然步骤S320中目标跟踪算法的处理结果也是获得了预测框和目标响应图,但是,本申请实施例是通过目标响应图来确定跟踪对象的跟踪状态的。
步骤S330,将目标响应图输入到预先训练好的图像分类模型中,以使预先训练好的图像分类模型对目标响应图进行分类识别,以获得用于表示跟踪对象的跟踪状态的目标图像分类结果。其中,预先训练好的图像分类模型是根据训练集对初始图像分类模型进行训练得到的,训练集包括训练响应图和训练响应图对应的训练图像分类结果。
具体地,可将获得的目标响应图输入到预先训练好的图像分类模型中,以通过预先训练好的图像分类模型进行推理,获得目标图像分类结果。
此外,在获得目标图像分类结果后,可根据目标图像分类结果,对目标跟踪算法对应的跟踪状态进行判断,并可根据跟踪状态,对目标跟踪算法进行对应的调整,从而可针对性地对目标跟踪算法进行操作,以提高目标跟踪算法的稳定性。
其中,在目标图像分类结果为正常跟踪目标对象的情况下,确定目标跟踪算法对应的跟踪状态为正常跟踪,随后可对目标跟踪算法中用到的目标跟踪模型进行正常更新。
这里需要说明的是,目标跟踪模型为目标跟踪算法中用到的模型,并且目标跟踪模型可用于确定待跟踪对象的位置,以实现跟踪。
此外,在目标图像分类结果为目标对象被遮挡的情况下,确定目标跟踪算法对应的跟踪状态为被遮挡,随后可暂停目标跟踪算法中用到的目标跟踪模型的更新,以防止目标跟踪模型被背景或者遮挡物所污染,导致跟踪发生漂移。
另外,在目标图像分类结果为目标对象跟踪失败的情况下,确定目标跟踪算法对应的跟踪状态为跟踪失败,随后可调用目标跟踪算法或者其他跟踪算法来重新找回跟踪对象的位置,并修正目标跟踪算法。
因此,本申请实施例可通过可训练的图像分类模型来替换现有的确定跟踪状态的方法,从而可提高对跟踪对象的跟踪状态的监测精度,减少误检率,并且可以确定目标跟踪算法对应的跟踪状态,进而针对性地对目标跟踪算法进行调整,以提高目标跟踪算法的稳定性。
也就是说,本申请实施例可通过训练用于图像分类任务的图像分类模型,从而可直接使用训练好的图像分类模型推理进行分类,以确定待跟踪图像中的跟踪对象的跟踪状态。由于是数据驱动类方法,以及模型可离线训练,通过合理设置图像分类模型,可以提升跟踪状态监测的精度,还可通过引入难例挖掘进行增强训练,还可以进一步降低误检率。
应理解,上述确定跟踪状态的方法仅是示例性的,本领域技术人员根据上述的方法可以进行各种变形,修改或变形之后的内容也在本申请保护范围内。
请参见图4,图4示出了本申请实施例提供的一种确定跟踪状态的装置400的结构框图,应理解,该装置400与上述方法实施例对应,能够执行上述方法实施例涉及的各个步骤,该装置400具体的功能可以参见上文中的描述,为避免重复,此处适当省略详细描述。该装置400包括至少一个能以软件或固件(firmware)的形式存储于存储器中或固化在装置400的操作系统(operating system,OS)中的软件功能模块。具体地,该装置400包括:
获取模块410,用于获取待跟踪图像;跟踪模块420,用于利用目标跟踪算法对待跟踪图像中的跟踪对象进行跟踪处理,获得目标响应图;第一输入模块430,用于将目标响应图输入到预先训练好的图像分类模型中,以使预先训练好的图像分类模型对目标响应图进行分类识别,以获得用于表示跟踪对象的跟踪状态的目标图像分类结果;其中,预先训练好的图像分类模型是根据训练集对初始图像分类模型进行训练得到的,训练集包括训练响应图和训练响应图对应的训练图像分类结果。
在一个可能的实施例中,训练响应图是利用目标跟踪算法对原始训练图像中的目标对象进行跟踪处理后获得的;
该装置400包括:计算模块(未示出),用于在将目标响应图输入到预先训练好的图像分类模型中之前,计算原始训练图像对应的预测框和原始训练图像对应的真实框的交并比值;第一确定模块(未示出),用于根据交并比值和训练响应图的峰值,确定训练响应图对应的训练图像分类结果。
在一个可能的实施例中,训练图像分类结果包括正常跟踪目标对象;第一确定模块,具体用于:在交并比值大于第一预设交并比值且峰值大于预设峰值的情况下,确定训练图像分类结果为正常跟踪目标对象。
在一个可能的实施例中,训练图像分类结果包括目标对象被遮挡;第一确定模块,具体用于:在交并比值小于等于第一预设交并比值且大于等于第二预设交并比值的情况下,确定训练图像分类结果为目标对象被遮挡;或者,在交并比值大于第一预设交并比值且峰值小于等于预设峰值的情况下,确定训练图像分类结果为目标对象被遮挡。
在一个可能的实施例中,训练图像分类结果包括目标对象跟踪失败;第一确定模块,具体用于:在交并比值小于第二预设交并比值的情况下,确定训练图像分类结果为目标对象跟踪失败。
在一个可能的实施例中,该装置400还包括:第二输入模块(未示出),用于在将目标响应图输入到预先训练好的图像分类模型中之前,将训练响应图输入到初始图像分类模型中,以使初始图像分类模型对训练响应图进行分类识别,以获得预测图像分类结果;第二确定模块(未示出),用于根据预测图像分类结果和训练图像分类结果,确定损失函数;第一调整模块(未示出),用于利用损失函数调整初始图像分类模型中的参数,以获得预先训练好的图像分类模型。
在一个可能的实施例中,该装置400还包括:第二调整模块(未示出),用于根据目标图像分类结果,对目标跟踪算法进行调整。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置的具体工作过程,可以参考前述方法中的对应过程,在此不再过多赘述。
请参见图5,图5示出了本申请实施例提供的一种电子设备500的结构框图。电子设备500可以包括处理器510、通信接口520、存储器530和至少一个通信总线540。其中,通信总线540用于实现这些组件直接的连接通信。其中,本申请实施例中的通信接口520用于与其他设备进行信令或数据的通信。处理器510可以是一种集成电路芯片,具有信号的处理能力。上述的处理器510可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器510也可以是任何常规的处理器等。
存储器530可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。存储器530中存储有计算机可读取指令,当所述计算机可读取指令由所述处理器510执行时,电子设备500可以执行上述方法实施例中的各个步骤。
电子设备500还可以包括存储控制器、输入输出单元、音频单元、显示单元。
所述存储器530、存储控制器、处理器510、外设接口、输入输出单元、音频单元、显示单元各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通信总线540实现电性连接。所述处理器510用于执行存储器530中存储的可执行模块。并且,电子设备500用于执行下述方法:获取待跟踪图像;利用目标跟踪算法对所述待跟踪图像中的跟踪对象进行跟踪处理,获得目标响应图;将所述目标响应图输入到预先训练好的图像分类模型中,以使所述预先训练好的图像分类模型对所述目标响应图进行分类识别,以获得用于表示所述跟踪对象的跟踪状态的目标图像分类结果;其中,所述预先训练好的图像分类模型是根据训练集对初始图像分类模型进行训练得到的,所述训练集包括训练响应图和所述训练响应图对应的训练图像分类结果。
输入输出单元用于提供给用户输入数据实现用户与所述服务器(或本地终端)的交互。所述输入输出单元可以是,但不限于,鼠标和键盘等。
音频单元向用户提供音频接口,其可包括一个或多个麦克风、一个或者多个扬声器以及音频电路。
显示单元在所述电子设备与用户之间提供一个交互界面(例如用户操作界面)或用于显示图像数据给用户参考。在本实施例中,所述显示单元可以是液晶显示器或触控显示器。若为触控显示器,其可为支持单点和多点触控操作的电容式触控屏或电阻式触控屏等。支持单点和多点触控操作是指触控显示器能感应到来自该触控显示器上一个或多个位置处同时产生的触控操作,并将该感应到的触控操作交由处理器进行计算和处理。
可以理解,图5所示的结构仅为示意,所述电子设备500还可包括比图5中所示更多或者更少的组件,或者具有与图5所示不同的配置。图5中所示的各组件可以采用硬件、软件或其组合实现。
本申请还提供一种存储介质,该存储介质上存储有计算机程序,该计算机程序被处理器运行时执行方法实施例所述的方法。
本申请还提供一种计算机程序产品,所述计算机程序产品在计算机上运行时,使得计算机执行方法实施例所述的方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统的具体工作过程,可以参考前述方法中的对应过程,在此不再过多赘述。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
Claims (6)
1.一种确定跟踪状态的方法,其特征在于,包括:
获取待跟踪图像;
利用目标跟踪算法对所述待跟踪图像中的跟踪对象进行跟踪处理,获得目标响应图;
将所述目标响应图输入到预先训练好的图像分类模型中,以使所述预先训练好的图像分类模型对所述目标响应图进行分类识别,以获得用于表示所述跟踪对象的跟踪状态的目标图像分类结果;其中,所述预先训练好的图像分类模型是根据训练集对初始图像分类模型进行训练得到的,所述训练集包括训练响应图和所述训练响应图对应的训练图像分类结果,所述训练响应图是利用所述目标跟踪算法对原始训练图像中的目标对象进行跟踪处理后获得的;
其中,在所述将所述目标响应图输入到预先训练好的图像分类模型中之前,所述方法还包括:
计算所述原始训练图像对应的预测框和所述原始训练图像对应的真实框的交并比值;
根据所述交并比值和所述训练响应图的峰值,确定所述训练响应图对应的训练图像分类结果;
所述训练图像分类结果包括正常跟踪目标对象;
其中,所述根据所述交并比值和所述训练响应图的峰值,确定所述训练响应图对应的训练图像分类结果,包括:
在所述交并比值大于第一预设交并比值且所述峰值大于预设峰值的情况下,确定所述训练图像分类结果为所述正常跟踪目标对象;
所述训练图像分类结果包括目标对象被遮挡;
其中,所述根据所述交并比值和所述训练响应图的峰值,确定所述训练响应图对应的训练图像分类结果,包括:
在所述交并比值小于等于第一预设交并比值且大于等于第二预设交并比值的情况下,确定所述训练图像分类结果为所述目标对象被遮挡;
或者,在所述交并比值大于第一预设交并比值且所述峰值小于等于预设峰值的情况下,确定所述训练图像分类结果为所述目标对象被遮挡;
所述训练图像分类结果包括目标对象跟踪失败;
其中,所述根据所述交并比值和所述训练响应图的峰值,确定所述训练响应图对应的训练图像分类结果,包括:
在所述交并比值小于第二预设交并比值的情况下,确定所述训练图像分类结果为所述目标对象跟踪失败;
在所述目标图像分类结果为所述目标对象被遮挡的情况下,确定所述目标跟踪算法对应的跟踪状态为被遮挡,并暂停所述目标跟踪算法中用到的目标跟踪模型的更新。
2.根据权利要求1所述的方法,其特征在于,在所述将所述目标响应图输入到预先训练好的图像分类模型中之前,所述方法还包括:
将所述训练响应图输入到所述初始图像分类模型中,以使所述初始图像分类模型对所述训练响应图进行分类识别,以获得预测图像分类结果;
根据所述预测图像分类结果和所述训练图像分类结果,确定损失函数;
利用所述损失函数调整所述初始图像分类模型中的参数,以获得所述预先训练好的图像分类模型。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述目标图像分类结果,对所述目标跟踪算法进行调整。
4.一种确定跟踪状态的装置,其特征在于,包括:
获取模块,用于获取待跟踪图像;
跟踪模块,用于利用目标跟踪算法对所述待跟踪图像中的跟踪对象进行跟踪处理,获得目标响应图;
第一输入模块,用于将所述目标响应图输入到预先训练好的图像分类模型中,以使所述预先训练好的图像分类模型对所述目标响应图进行分类识别,以获得用于表示所述跟踪对象的跟踪状态的目标图像分类结果;其中,所述预先训练好的图像分类模型是根据训练集对初始图像分类模型进行训练得到的,所述训练集包括训练响应图和所述训练响应图对应的训练图像分类结果,所述训练响应图是利用所述目标跟踪算法对原始训练图像中的目标对象进行跟踪处理后获得的;
所述装置还包括:计算模块,用于计算所述原始训练图像对应的预测框和所述原始训练图像对应的真实框的交并比值;
第一确定模块,用于根据所述交并比值和所述训练响应图的峰值,确定所述训练响应图对应的训练图像分类结果;
所述训练图像分类结果包括正常跟踪目标对象;所述第一确定模块,具体用于在所述交并比值大于第一预设交并比值且所述峰值大于预设峰值的情况下,确定所述训练图像分类结果为所述正常跟踪目标对象;
所述训练图像分类结果包括目标对象被遮挡;所述第一确定模块,具体用于:在所述交并比值小于等于第一预设交并比值且大于等于第二预设交并比值的情况下,确定所述训练图像分类结果为所述目标对象被遮挡;或者,在所述交并比值大于第一预设交并比值且所述峰值小于等于预设峰值的情况下,确定所述训练图像分类结果为所述目标对象被遮挡;
所述训练图像分类结果包括目标对象跟踪失败;所述第一确定模块,具体用于在所述交并比值小于第二预设交并比值的情况下,确定所述训练图像分类结果为所述目标对象跟踪失败;
第三确定模块,用于在所述目标图像分类结果为所述目标对象被遮挡的情况下,确定所述目标跟踪算法对应的跟踪状态为被遮挡,并暂停所述目标跟踪算法中用到的目标跟踪模型的更新。
5.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1至3任一所述的确定跟踪状态的方法。
6.一种电子设备,其特征在于,所述电子设备包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当所述电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如权利要求1至3任一所述的确定跟踪状态的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110532147.5A CN112950687B (zh) | 2021-05-17 | 2021-05-17 | 一种确定跟踪状态的方法、装置、存储介质和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110532147.5A CN112950687B (zh) | 2021-05-17 | 2021-05-17 | 一种确定跟踪状态的方法、装置、存储介质和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112950687A CN112950687A (zh) | 2021-06-11 |
CN112950687B true CN112950687B (zh) | 2021-08-10 |
Family
ID=76233872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110532147.5A Active CN112950687B (zh) | 2021-05-17 | 2021-05-17 | 一种确定跟踪状态的方法、装置、存储介质和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112950687B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113344974B (zh) * | 2021-06-15 | 2023-03-24 | 中冶赛迪信息技术(重庆)有限公司 | 一种长材识别跟踪方法、系统、设备及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564069A (zh) * | 2018-05-04 | 2018-09-21 | 中国石油大学(华东) | 一种工业佩戴安全帽视频检测方法 |
CN108596949A (zh) * | 2018-03-23 | 2018-09-28 | 云南大学 | 视频目标跟踪状态分析方法、装置和实现装置 |
CN110472594A (zh) * | 2019-08-20 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、信息插入方法及设备 |
US20200134837A1 (en) * | 2019-12-19 | 2020-04-30 | Intel Corporation | Methods and apparatus to improve efficiency of object tracking in video frames |
CN111242977A (zh) * | 2020-01-09 | 2020-06-05 | 影石创新科技股份有限公司 | 全景视频的目标跟踪方法、可读存储介质及计算机设备 |
CN111241965A (zh) * | 2020-01-06 | 2020-06-05 | 重庆邮电大学 | 一种基于多示例学习进行遮挡检测的目标跟踪方法 |
CN111354019A (zh) * | 2020-03-31 | 2020-06-30 | 中国人民解放军军事科学院军事医学研究院 | 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR940011229B1 (ko) * | 1992-07-07 | 1994-11-29 | 현대전자산업 주식회사 | 광디스크 장치의 트래킹 인입 시스팀 및 운용 방법 |
CN106874856A (zh) * | 2017-01-19 | 2017-06-20 | 博康智能信息技术有限公司 | 一种目标跟踪状态模型训练方法及装置 |
CN109146917B (zh) * | 2017-12-29 | 2020-07-28 | 西安电子科技大学 | 一种弹性更新策略的目标跟踪方法 |
CN109816690A (zh) * | 2018-12-25 | 2019-05-28 | 北京飞搜科技有限公司 | 基于深度特征的多目标追踪方法及系统 |
CN109903312B (zh) * | 2019-01-25 | 2021-04-30 | 北京工业大学 | 一种基于视频多目标跟踪的足球球员跑动距离统计方法 |
CN110135500B (zh) * | 2019-05-17 | 2023-03-24 | 南京大学 | 一种基于自适应深度特征滤波器的多场景下目标跟踪方法 |
CN110189365B (zh) * | 2019-05-24 | 2023-04-07 | 上海交通大学 | 抗遮挡相关滤波跟踪方法 |
CN110634153A (zh) * | 2019-09-19 | 2019-12-31 | 上海眼控科技股份有限公司 | 目标跟踪模板更新方法、装置、计算机设备和存储介质 |
CN111191516A (zh) * | 2019-12-05 | 2020-05-22 | 大连民族大学 | 样本可选择更新机制的目标跟踪方法、重新记忆有效样本的方法和距离估计方法 |
CN111160190B (zh) * | 2019-12-21 | 2023-02-14 | 华南理工大学 | 面向车载行人检测的分类辅助核相关滤波跟踪方法 |
CN112505684B (zh) * | 2020-11-17 | 2023-12-01 | 东南大学 | 恶劣环境路侧视角下雷达视觉融合的车辆多目标跟踪方法 |
-
2021
- 2021-05-17 CN CN202110532147.5A patent/CN112950687B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596949A (zh) * | 2018-03-23 | 2018-09-28 | 云南大学 | 视频目标跟踪状态分析方法、装置和实现装置 |
CN108564069A (zh) * | 2018-05-04 | 2018-09-21 | 中国石油大学(华东) | 一种工业佩戴安全帽视频检测方法 |
CN110472594A (zh) * | 2019-08-20 | 2019-11-19 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、信息插入方法及设备 |
US20200134837A1 (en) * | 2019-12-19 | 2020-04-30 | Intel Corporation | Methods and apparatus to improve efficiency of object tracking in video frames |
CN111241965A (zh) * | 2020-01-06 | 2020-06-05 | 重庆邮电大学 | 一种基于多示例学习进行遮挡检测的目标跟踪方法 |
CN111242977A (zh) * | 2020-01-09 | 2020-06-05 | 影石创新科技股份有限公司 | 全景视频的目标跟踪方法、可读存储介质及计算机设备 |
CN111354019A (zh) * | 2020-03-31 | 2020-06-30 | 中国人民解放军军事科学院军事医学研究院 | 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 |
Non-Patent Citations (3)
Title |
---|
"基于核相关滤波的TLD跟踪算法的研究";董春燕等;《南京师范大学学报(工程技术版)》;20201231;第20卷(第4期);第40页2.2节 * |
"基于遮挡检测机制的DDAT目标跟踪算法";周维等;《激光与光电子学进展》;20201231;第57卷(第24期);第1-11页 * |
"融入时序和速度信息的自适应更新目标跟踪";尹宽等;《中国图象图形学报》;20210430;第26卷(第4期);第883-897页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112950687A (zh) | 2021-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180174062A1 (en) | Root cause analysis for sequences of datacenter states | |
US20150193698A1 (en) | Data processing device | |
EP3407200B1 (en) | Method and device for updating online self-learning event detection model | |
US11403843B2 (en) | Image processing apparatus, display control apparatus, image processing method and recording medium | |
CN109145867B (zh) | 人体姿态估计方法、装置、系统、电子设备、存储介质 | |
US10733287B2 (en) | Resiliency of machine learning models | |
US20120237081A1 (en) | Anomalous pattern discovery | |
JP6585482B2 (ja) | 機器診断装置及びシステム及び方法 | |
CN111783665A (zh) | 一种动作识别方法、装置、存储介质和电子设备 | |
CN107612908B (zh) | 网页篡改监测方法及装置 | |
CN112818066A (zh) | 一种时序数据异常检测方法、装置及电子设备和存储介质 | |
CN110689734B (zh) | 车辆行驶状况识别方法、装置及电子设备 | |
CN111753724A (zh) | 一种异常行为识别方法及装置 | |
KR20220149508A (ko) | 이벤트 검출 방법, 장치, 전자 기기 및 판독 가능 기록 매체 | |
JP2016161950A (ja) | 検知プログラム、検知方法及び検知装置 | |
US11521392B2 (en) | Image processing apparatus and image processing method for image analysis process | |
CN112950687B (zh) | 一种确定跟踪状态的方法、装置、存储介质和电子设备 | |
CN108960136B (zh) | 人脸对齐算法中初始人脸形状的确定方法和装置 | |
US11455489B2 (en) | Device that updates recognition model and method of updating recognition model | |
US11036974B2 (en) | Image processing apparatus, image processing method, and storage medium | |
CN112612844B (zh) | 数据处理方法、装置、设备和存储介质 | |
JP2007164346A (ja) | 決定木変更方法、異常性判定方法およびプログラム | |
JP6882772B2 (ja) | 検査装置、検査方法及び検査プログラム | |
CN115565103A (zh) | 一种动态目标检测方法、装置、计算机设备及存储介质 | |
JP6451418B2 (ja) | 注視対象判定装置、注視対象判定方法、および、注視対象判定プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |