CN112396631B - 物件追踪方法及其电脑系统 - Google Patents

物件追踪方法及其电脑系统 Download PDF

Info

Publication number
CN112396631B
CN112396631B CN201910840471.6A CN201910840471A CN112396631B CN 112396631 B CN112396631 B CN 112396631B CN 201910840471 A CN201910840471 A CN 201910840471A CN 112396631 B CN112396631 B CN 112396631B
Authority
CN
China
Prior art keywords
tracking
image
target object
tracking result
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910840471.6A
Other languages
English (en)
Other versions
CN112396631A (zh
Inventor
黄国庭
刘政德
陈裕彦
卓卿安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wistron Corp
Original Assignee
Wistron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wistron Corp filed Critical Wistron Corp
Publication of CN112396631A publication Critical patent/CN112396631A/zh
Application granted granted Critical
Publication of CN112396631B publication Critical patent/CN112396631B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明提供了一种物件追踪方法及其电脑系统,此方法包括下列步骤。取得包括多张图像的图像序列,其中图像序列具有目标物。接收于图像序列中的起始两张图像以及末尾两张图像对应目标物的标记操作,以分别产生目标物的四个真实标记。根据起始两张图像的真实标记,针对图像序列进行目标物于时序上的正向追踪,以取得正向追踪结果。根据末尾两张图像的真实标记,针对图像序列进行目标物于时序上的逆向追踪,以取得逆向追踪结果。比对正向追踪结果与逆向追踪结果,据以产生目标物的最终追踪结果。在本发明中,当自图像序列中的开始与结束的数张图像中标记出目标物后,运算装置可自动地自其它图像中追踪出目标物,以加速对于目标物的追踪。

Description

物件追踪方法及其电脑系统
技术领域
本发明是有关于一种物件追踪技术,且特别是有关于一种物件追踪方法及其电脑系统。
背景技术
深度学习最常见的应用为图像辨识以及物件追踪,然而其最大的问题在于物件辨识的困难度。若是以一般人脸辨识、手掌辨识等常见用途,可以使用公开的资料库辅助辨识。若是以跌倒辨识、床铺动作辨识等少见用途,则必须要自行搜集资料才能进行少见用途的辨识。
发明内容
有鉴于此,本发明提供一种物件追踪方法及其电脑系统,当自图像序列的数张图像中标记出目标物后,可自动地自其它图像中追踪出目标物,以加速对于目标物的追踪。
在本发明的一实施例中,上述的方法适用于电脑系统,并且包括下列步骤。取得包括多张图像的图像序列,其中图像序列具有目标物。接收于图像序列中的起始两张图像以及末尾两张图像对应目标物的标记操作,以分别产生目标物的四个真实标记。根据起始两张图像的真实标记,针对图像序列进行目标物于时序上的正向追踪,以取得正向追踪结果。根据末尾两张图像的真实标记,针对图像序列进行目标物于时序上的逆向追踪,以取得逆向追踪结果。比对正向追踪结果与逆向追踪结果,据以产生目标物的最终追踪结果。
在本发明的一实施例中,上述的电脑系统包括显示器、输入装置以及运算装置。显示器用以显示画面。输入装置用以接收使用者的操作。运算装置用以:取得包括多张图像并且具有目标物的图像序列;通过输入装置接收于起始两张图像以及末尾两张图像针对目标物所进行的标记操作,以分别产生该目标物的四个真实标记;根据起始两张图像的真实标记,针对图像序列进行目标物于时序上的正向追踪,以取得正向追踪结果;根据末尾两张图像的真实标记,针对图像序列进行目标物于时序上的逆向追踪,以取得逆向追踪结果;以及比对正向追踪结果与逆向追踪结果,据以产生目标物的最终追踪结果。
本发明所提出的物件追踪方法及其电脑系统,当自图像序列中的开始与结束的数张图像中标记出目标物后,运算装置可自动地自其它图像中追踪出目标物,以加速对于目标物的追踪。
让本发明的上述特征和优点能更明显易懂,下文特举实施例,并配合所附图式作详细说明如下。
附图说明
图1为根据本发明一实施例所绘示的电脑系统的方块图。
图2为根据本发明一实施例所绘示的物件追踪方法的流程图。
图3为根据本发明一实施例所绘示的图像序列的示意图。
图4为根据本发明一实施例所绘示的物件追踪方法的流程图。
图5为根据本发明一实施例所绘示的正向追踪的示意图。
图6为根据本发明一实施例所绘示的正向追踪的示意图。
图7为根据本发明一实施例所绘示的其中一张图像的最终追踪结果的示意图。
图8为根据本发明一实施例所绘示的正向追踪、逆向追踪以及重叠率的示意图。
图9为根据本发明一实施例所绘示的正向追踪以及逆向追踪的流程示意图。
图10为根据本发明一实施例所绘示的正向追踪以及逆向追踪的流程示意图。
图11为根据本发明一实施例所绘示的正向追踪以及逆向追踪的流程示意图。
附图标记:
100:电脑系统
110:显示器
120:输入装置
130:运算装置
S202~S210、S402~S426、1000、1100:步骤
图像:F0~Fn
GT0、GT1、GTn-1、GTn:真实标记
D:距离差值
SR2:追踪范围
SR x+y:正向追踪的追踪范围
sr x+y:逆向追踪的追踪范围
LRm、LRx-1~Tx+y+1:目标物重叠率
Tm、Tn-1、Tn、Tx-1~Tx+y:正向追踪的预测位置
tm:逆向追踪的预测位置
TDm、TDx+y+1:最终追踪结果
具体实施方式
本发明的部份实施例接下来将会配合附图来详细描述,以下的描述所引用的元件符号,当不同附图出现相同的元件符号将视为相同或相似的元件。这些实施例只是本发明的一部份,并未揭示所有本发明的可实施方式。更确切的说,这些实施例只是本发明的专利申请范围中的方法与电脑系统的范例。
图1为根据本发明一实施例所绘示的电脑系统的方块图,但此仅是为了方便说明,并不用以限制本发明。首先图1先介绍电脑系统中的所有构件以及配置关系,详细功能将配合图2一并揭露。
在本实施例中,电脑系统100包括显示器110、输入装置120以及运算装置130。在一实施例中,显示器110、输入装置120以及运算装置130可以分属三个不同装置。运算装置130可以是以有线或是任何无线通信标准连接于显示器110以及输入装置120,并且可以例如是个人电脑、服务器电脑、工作站的系统或是平台等。在一实施例中,显示器110以及运算装置130可以整合成具有显示器的电子装置,例如一体成型电脑(All-In-One Computer),而输入装置120可以是以有线或是任何无线通信标准连接于运算装置110。在一实施例中,显示器110、输入装置120以及运算装置130亦可以整合成单一装置,例如笔记本电脑、平板电脑、智能手机等,本发明不在此设限。
显示器110用以显示画面,其可以例如是液晶显示器(Liquid-Crystal Display,LCD)、发光二极体(Light-Emitting Diode,LED)显示器或其他类似装置。输入装置120可以例如是具有动作感测器的手持控制器、滑鼠、摇杆、轨迹球等允许使用者与显示器110的显示画面互动的输入装置。在一实施例中,显示器110以及输入装置120更可以是同时提供显示以及输入功能的触控荧幕,即整合触碰检测元件的显示器。触碰检测元件成列、成行地配置在显示器上,用以检测使用者手指、手掌或其他物体对于触控荧幕的触碰。触碰检测元件可以例如是电容式触碰检测元件、电阻式触碰检测元件、表面声波触碰检测元件、电磁触碰检测元件、光学式触碰检测元件或近场成像触碰检测元件。
运算装置130包括存储器以及处理器。存储器用以储存图像、程序代码等资料,其可以例如是任意型式的固定式或可移动式随机存取存储器(random access memory,RAM)、只读存储器(read-only memory,ROM)、快闪存储器(flash memory)、硬盘或其他类似装置、集成电路及其组合。处理器用以控制运算装置100的构件之间的作动,其可以例如是中央处理单元(central processing unit,CPU)、图形处理单元(graphic processing unit,GPU),或是其他可编程之一般用途或特殊用途的微处理器(microprocessor)、数字信号处理器(digital signal processor,DSP)、可编程控制器、特殊应用集成电路(applicationspecific integrated circuits,ASIC)、可编程逻辑装置(programmable logic device,PLD)或其他类似装置、集成电路及其组合。
图2为根据本发明一实施例所绘示的物件追踪方法的流程图,而图2的步骤可以是以图1所绘示的电脑系统100的各元件来实现。
请同时参照图1以及图2,首先,电脑系统100的运算装置130将取得图像序列(步骤S202),其中图像序列包括具有目标物的多张图像。在本实施例中,图像序列可以是具有10秒的播放长度,而以30fps的播放速率来说,将会是300张图像。
接着,运算装置130将接收使用者于图像序列中的起始两张图像以及末尾两张图像针对目标物所进行的标记操作,以分别产生目标物的四个真实标记(步骤S204)。在此,运算装置130可以是先将起始两张图像以及末尾两张图像分别或者是同时显示于显示器110上,以供使用者观看,而使用者可通过输入装置120来进行目标物的标记操作。接着,运算装置130将接收使用者通过输入装置120于起始两张图像以及末尾两张图像针对目标物所进行的标记操作,以分别产生目标物的四个真实标记。
在此的标记操作可以是使用者通过输入装置120以框选、角落点选的方式来自起始两张图像以及末尾两张图像标记出目标物,而此四张图像中的目标物是人工标记的结果,因此可视为真实值(ground truth)。以图3根据本发明一实施例所绘示的图像序列的示意图为例,使用者将针对起始两张图像F0、F1以及末尾两张图像Fn-1、Fn进行目标物的标记操作,而分别得到真实标记GT0、GT1、GTn-1、GTn。在此的预设可以是用矩形框对目标物进行标记操作,然而本发明不以此为限。
接着,运算装置130将根据起始两张图像的真实标记,针对图像序列进行目标物于时序上的正向追踪,以取得正向追踪结果(步骤S206)。在此,运算装置130将利用起始两张图像的真实标记,依时序由前向后,针对目标物于图像序列中排序于起始两张图像之后的其它后续图像往后进行追踪(即,自图像序列中的第三张图像往后至最后一张图像),以获得目标物的正向追踪结果。
另一方面,运算装置130将根据末尾两张图像的真实标记,针对图像序列进行目标物于时序上的逆向追踪,以取得逆向追踪结果(步骤S208)。在此,运算装置130将利用末尾两张图像的真实标记,依时序由后向前,针对目标物于图像序列中排序于末尾两张图像之前的其它先前图像往前进行追踪(即,自图像序列中的倒数第三张图像往前至第一张图像),以获得目标物的逆向追踪结果。
之后,运算装置130将比对正向追踪结果与逆向追踪结果,据以产生目标物的最终追踪结果(步骤S210)。详细来说,由于正向追踪结果以及逆向追踪结果为针对图像序列的同一个目标物进行时序上的预测。因此,当正向追踪结果以及逆向追踪结果皆正确时,目标物在图像序列中无论是正向追踪以及逆向追踪的两个结果将会有很高的重叠率,而产生可信任的最终追踪结果。由此可知,在本实施例中,一旦使用者自图像序列中的开始与结束的数张图像中标记出目标物后,运算装置130可自动地自其它图像中追踪出目标物,以加速对于目标物的追踪。
为了更清楚明了上述流程,以下将以图4根据本发明一实施例所绘示的物件追踪方法的流程图来针对上述流程的细节加以说明,而图4的步骤可以是以图1所绘示的电脑系统100的各元件来实现。
请同时参照图1以及图4,首先,电脑系统100的运算装置130在取得一个输入影片时,可先检测输入影片的播放长度,以进行影片分割(步骤S402)。详细来说,在此每段影片的播放长度上限可以是设定为10秒(以30fps的播放速率来说,将会是300张图像)。例如,当输入影片的播放长度为16秒时,运算装置130会将输入影片分割成10秒以及6秒两个影片。分割的原因在于,本实施例中的后续处理上,在采取正向追踪以及逆向追踪的比对之后,将会针对不可信任的追踪结果进行修正。若输入影片的播放长度过长,则修正追踪结果的次数过多,反而造成修正上的困难,因此将会针对输入影片的播放长度进行限制,然而,设定的影片播放长度可视需求而调整,本发明不在此设限。
运算装置130在进行完影片分割后,则会产生一个图像序列,而此图像序列即包括具有目标物的多张图像。接着,运算装置130将提供使用者利用显示器110以及输入装置120对于图像序列中的起始两张图像以及末尾两张图像进行目标物标记(步骤S404)。步骤S404的细节类似于步骤S204,于此不再赘述。
之后,运算装置130将根据起始两张图像的真实标记,针对图像序列进行目标物于时序上的正向追踪(步骤S406),以取得正向追踪结果。详细来说,运算装置130将计算起始两张图像的两个真实标记之间的真实距离差值,再根据此真实距离差值,依时序由前向后,预测目标物于图像序列中排序于起始两张图像之后的其它图像(以下称为「其它后续图像」)的追踪范围以及预测位置,以作为目标物的正向追踪结果。
具体来说,图5为根据本发明一实施例所绘示的正向追踪的示意图。
请同时参照图1以及图5,运算装置130将取得起始两张图像F0、F1中使用者对于目标物的真实标记GT0、GT1,并且计算真实标记GT0、GT1之间于水平方向的距离差值D。由于此距离差值D是依照两个真实标记GT0、GT1所计算出,因此又称为「真实距离差值」。接着,运算装置130将根据距离差值D来预测目标物于下一张图像(第三张图像)F2的追踪范围SR2。在此,由于目标物于起始两张图像F0、F1之间的距离差值为D,因此可以假设目标物于图像F1与图像F2的距离差值也会是D。也就是说,运算装置130可以由图像F1的真实标记GT1为中心,于水平方向两侧扩大距离D,以定义出追踪范围SR2。附带说明的是,在本实施例中仅是假设目标物只有进行水平方向的移动,因此在预测追踪范围时没有往垂直方向扩大。然而,在实际应用中,运算装置130可同时考虑到水平方向以及垂直方向的距离差值而设定追踪范围,本发明不在此设限。
接着,运算装置130将利用例如是均值漂移(Mean Shift)等物件追踪演算法在追踪范围SR2内取得目标物于第三张图像F2的预测位置,详细来说,通过均值漂移演算法,利用真实标记GT1中的特征在追踪范围SR2内追踪目标物以取得目标物于第三张图像F2的预测位置。此外,运算装置130将会计算目标物于第三张图像F2与第二张图像F1之间的距离差值,而由于此距离差值已是依照预测位置所计算出,因此又称为「预测距离差值」。类似地,运算装置130将会根据第三张图像与第二张图像之间的预测距离差值,计算目标物于第四张图像的追踪范围以及预测位置,并且再递回地计算目标物于第四张图像及其之后的其它后续图像中的追踪范围以及预测位置,直到进行到图像序列中的最后一张图像为止。换句话说,以正向追踪而言,图像序列中除了初始两张图像,其余每张图像将会得到一个追踪范围以及一个目标物的预测位置,以作为目标物的正向追踪结果。
请回到图4,另一方面,运算装置130将根据末尾两张图像的真实标记,针对图像序列进行目标物于时序上的逆向追踪,(步骤S408),以取得逆向追踪结果。详细来说,运算装置130将计算末尾两张图像的两个真实标记之间的真实距离差值,再根据此真实距离差值,依时序由后向前,预测目标物于图像序列中排序于末尾两张图像之前的其它图像(以下称为「其它先前图像」)的追踪范围以及预测位置,以作为目标物的逆向追踪结果。
逆向追踪的细节类似于正向追踪,差异仅是在于正向追踪是由图像序列中的第一张图像开始往后处理,而逆向追踪是由图像序列中的最后一张图像开始往前处理。也就是说,运算装置130将根据末尾两张图像的两个真实标记之间的真实距离差值,计算目标物于图像序列中的倒数第三张图像的追踪范围,并且于倒数第三张图像的追踪范围内以物件追踪演算法取得目标物的预测位置。此外,运算装置130将会计算目标物于倒数第三张图像与倒数第二张图像之间的距离差值,而由于此距离差值已是依照预测位置所计算出,因此又称为「预测距离差值」。
类似地,运算装置130将会根据倒数第三张图像与倒数第二张图像之间的预测距离差值,计算目标物于倒数第四张图像的追踪范围,并且再递回地计算目标物于倒数第四张图像及其之前的先前图像中的追踪范围以及预测位置,直到进行到图像序列中的第一张图像为止。换句话说,以逆向追踪而言,图像序列中除了末尾两张图像,其余每张图像将会得到一个追踪范围以及一个目标物的预测位置,以作为目标物的逆向追踪结果。
运算装置130在执行完正向追踪以及逆向追踪后,将会判断正向追踪以及逆向追踪是否有至少一者的准确度高(步骤S410),以作为之后产生目标物的最终追踪结果的重要依据。在此,正向追踪的准确度将是以最后一张图像的真实标记以及正向追踪结果来判定,而逆向追踪的准确度将是以第一张图像的真实标记以及逆向追踪结果来判定。
以正向追踪来说,运算装置130将会判断目标物于最后一张图像的真实标记与正向追踪结果的预测位置的重叠率(以下称为「目标物重叠率」)。当目标物重叠率大于重叠阀值时,运算装置130将会判定正向追踪的准确度高,而当目标物重叠率不大于重叠阀值时,运算装置130将会判定正向追踪的准确度低。
以图6根据本发明一实施例所绘示的正向追踪的示意图为例,图像序列F0~Fn中的起始两张图像F0、F1已有使用者针对目标物的标记操作所得到的真实标记GT0、GT1。另一方面,Tn为目标物于最后一张图像Fn中以正向追踪所获得的预测位置,而Tn-1为目标物于倒数第二张图像Fn-1中以正向追踪所获得的预测位置。运算装置130将会判断目标物于最后一张图像Fn的真实标记GTn与最后一张图像Fn的预测位置Tn的重叠率LRn,即交集部份(intersection)。假设重叠阀值为90%。若最后一张图像Fn中的真实标记GTn与预测位置Tn的重叠率LRn大于90%,则表示正向追踪的准确度高。反之,若最后一张图像Fn中的真实标记GTn与预测位置Tn的重叠率LRn不大于90%,则表示正向追踪的准确度低。
另一方面,以逆向追踪来说,运算装置130将会判断目标物于第一张图像的真实标记与逆向追踪结果的预测位置的目标物重叠率。当目标物重叠率大于重叠阀值时,运算装置130将会判定逆向追踪的准确度高,而当目标物重叠率不大于重叠阀值时,运算装置130将会判定逆向追踪的准确度低。
请回到图4,当运算装置130判断正向追踪以及逆向追踪的准确度两者皆低时,则将判定最终追踪结果为不可信任(步骤S412)。在此状况下,即代表两个方向的追踪结果皆不正确,其有可能是图像杂信过多或是背景特别复杂所造成的结果。在本实施例中,运算装置130可以是将图像序列显示于显示器110上,以交由使用者判断问题所在,或者是通过输入装置120进行人工标记,并且再自输入装置120接收使用者对图像序列中的其它图像分别地进行目标物的标记操作,以让图像序列得以进行后续的应用。
当运算装置130判断正向追踪的准确度以及逆向追踪的准确度至少有一者高时,将进一步地判断目标物于正向追踪结果与逆向追踪结果中的各个预测位置的重叠率(即「目标物重叠率」),据以判定是否需要修正正向追踪结果以及逆向追踪结果。在此,运算装置130可先判断正向追踪结果与逆向追踪结果的各个目标物重叠率是否皆高(步骤S414)。当两者的各个目标物重叠率皆高时,运算装置130将不修正正向追踪结果以及逆向追踪结果,并且判定最终追踪结果为可信任(步骤S416),而结束对于目标物于图像序列的追踪。
以图7根据本发明一实施例所绘示的其中一张图像Fm的最终追踪结果的示意图为例,假设Tm为目标物于图像Fm中以正向追踪所获得的预测位置,tm为目标物于图像Fm中以逆向追踪所获得的预测位置。在此,运算装置130将判定图像Fm中的预测位置Tm与预测位置tm的目标物重叠率LRm大于重叠阀值TH。在本实施例中,运算装置130可以是将正向追踪结果的预测位置Tm与逆向追踪结果的预测位置tm的联集(union)TDm作为目标物于图像Fm中的最终追踪结果。
请再回到图4,当运算装置130判定正向追踪结果与逆向追踪结果的各个目标物重叠率并非皆高时,即代表不会产生可信任的最终追踪结果,因此将进入修正追踪结果420的程序,以针对正向追踪结果以及逆向追踪结果至少之一者进行修正。
以图8根据本发明一实施例所绘示的正向追踪FT、逆向追踪BT以及重叠率LR的示意图为例,在此假设目标物于图像序列中的图像Fx-1~Fx+y+1以正向追踪FT以及逆向追踪BT的预测位置分别为Tx-1~Tx+y+1以及tx-1~tx+y+1,其中目标物重叠率LRx-1与LRx+y+1大于重叠阀值TH(例如重叠阀值为90%),而目标物重叠率LRx~LRx+y皆小于重叠阀值TH。因此,运算装置130将针对图像Fx~Fx+y的正向追踪结果以及逆向追踪结果至少之一者进行修正。
根据正向追踪以及逆向追踪的准确度来看,将会有三种情况:两个方向的准确度皆高、一个方向的准确度高而另一个方向的准确度低、两个方向的准确度皆低。因此,请回到图4,运算装置130在进入到修正追踪结果420的程序后,会先定义预设基准(步骤S422),也就是以正向追踪以及逆向追踪的其中之一者来作为预设基准。接着,运算装置130将开始修正追踪范围(步骤S424),并且重新执行追踪(步骤S426),再回到步骤S414,以判断重新追踪后的各个目标物重叠率是否皆高。若否,则运算装置130仍将进入修正追踪结果420的程序,一直到各个目标物重叠率皆高为止。
以两个方向的准确度皆高但中间有部份图像的目标物重叠率不高的第一种情况来说,运算装置130将会先取一个方向为预设基准。假设预设基准为正向追踪,运算装置130将会先取得图像序列中时序上最后一张目标物重叠率低的图像(以逆向的观点而言,即第一张目标物重叠率低的图像),在此将定义为「第一逆向执行图像」。接着,运算装置130将根据第一逆向执行图像的正向追踪结果的追踪范围,修正第一逆向执行图像的逆向追踪结果的追踪范围以及预测位置,并且再递回地计算目标物于第一逆向执行图像之前的其它先前图像中的追踪范围以及预测位置,以作为修正后的逆向追踪结果。
另一方面,假设预设基准为逆向追踪,运算装置130将会先取得图像序列中时序上第一张目标物重叠率低的图像,在此将定义为「第一正向执行图像」。接着,运算装置130将根据第一正向执行图像的逆向追踪结果的追踪范围,修正第一正向执行图像的正向追踪结果的追踪范围以及预测位置,并且再递回地计算目标物于第一正向执行图像之后的其它后续图像中的追踪范围以及预测位置,以作为修正后的正向追踪结果。
具体来说,图9~图11为根据本发明一实施例所绘示的正向追踪FT以及逆向追踪BT的流程示意图。
请先参照图9,假设目标物于图像序列中的图像Fx-1~Fx+y+1以正向追踪FT以及逆向追踪BT的预测位置分别为Tx-1~Tx+y+1以及tx-1~tx+y+1,其中对应于图像Fx~Fx+y的目标物重叠率LRx,x+1,…x+y皆小于重叠阀值TH。假设在本实施例中,运算装置130是以正向追踪FT为预设基准,则会是针对图像Fx~Fx+y的逆向追踪结果进行修正。
请再参照图10,由于运算装置130是以正向追踪FT为预设基准,因此第一逆向执行图像为图像Fx+y,也就是最后一张目标物重叠率低的图像。此外,运算装置130已先将目标物于前一张图像Fx+y+1的正向追踪的预测位置Tx+y+1提供给逆向追踪(1000),以取得联集TDx+y+1来作为图像Fx+y+1的最终追踪结果。由于图像Fx+y+1所对应的目标物重叠率高,因此图像Fx+y+1的追踪结果为可信赖。
请再参照图11,由于运算装置130是以正向追踪FT为预设基准,因此将会提供图像Fx+y于正向追踪FT的追踪范围SRx+y给逆向追踪BT来使用(1100),以作为图像Fx+y于逆向追踪BT的追踪范围srx+y。接着,运算装置130将会利用目标物于Fx+y+1的预测位置TDx+y+1以及目标物于图像Fx+y的追踪范围srx+y重新对图像Fx+y及其先前的图像Fx+y-1~Fx重新进行逆向追踪。接着,运算装置130会将对应于逆向追踪BT的修正后的预测位置与对应于正向追踪FT的预测位置Tx+y~Tx重新进行目标物重叠率的判别。假设若再产生目标物重叠率低的结果(例如图像Fx+a~Fx+y-b的目标物重叠率小于TH),则也会再重新执行修正追踪结果的程序。
另一方面,以一个方向的准确度高而另一个方向的准确度低的第二种情况来说,运算装置130将根据准确度高的追踪方向的追踪结果来修正准确度低的追踪方向的追踪结果。也就是说,当正向追踪的准确度高时,运算装置130将根据正向追踪结果的追踪范围(即,正向追踪作为预设基准),修正逆向追踪结果中的追踪范围以及预测位置。当逆向追踪的准确度高时(即,逆向追踪作为预设基准),运算装置130将根据逆向追踪结果的追踪范围,修正正向追踪结果中的追踪范围以及预测位置。在此修正追踪结果的细节请参照图9~图11的相关说明,于此不再赘述。此外,以两个方向的准确度皆低的第三种情况来说,则请参照步骤S412的相关说明,于此亦不再赘述。
在本实施例中,图2以及图4的物件追踪方法可以快速增加训练资料的种类与数量,以利于深度学习的相关应用。详细来说,运算装置130在取得图像序列后,使用者仅需要在图像序列中的开始与结束的数张图像中通过输入装置120指定目标物,运算装置130即可自动地自其它图像中追踪并且标记出目标物,以大幅节省准备训练资料所需大量时间与人力的人工标记。换言之,运算装置在执行完图2或是图4的物件追踪方法流程后,图像序列及其所产生出的目标物的最终追踪结果即可作为追踪相同目标物的训练资料。
在其它实施例中,运算装置130在取得图像序列中的目标物的追踪结果后,可以针对图像序列中的目标物进行图像处理,以产生处理后的图像序列。举例来说,运算装置130可以在图像序列中的目标物所在邻近处标示文字、将目标物以马赛克或模糊化处理以提供隐私保护、将目标物进行清晰度以及彩度等图像增强处理、进行目标物的轨迹分析等。
综上所述,本发明所提出的物件追踪方法及其电脑系统,当自图像序列中的开始与结束的数张图像中标记出目标物后,运算装置可自动地自其它图像中追踪出目标物,以加速对于目标物的追踪。
虽然本发明已以实施例揭露如上,然其并非用以限定本发明,任何所属技术领域中技术人员,在不脱离本发明的精神和范围内,当可作些许的更动与润饰,故本发明的保护范围当视权利要求范围所界定者为准。

Claims (18)

1.一种物件追踪方法,其特征在于,适用于电脑系统,包括:
取得包括多张图像的图像序列,其中该图像序列具有目标物;
接收于该图像序列中的起始两张图像以及末尾两张图像对应该目标物的标记操作,以分别产生该目标物的四个真实标记;
根据所述起始两张图像的所述真实标记,针对该图像序列进行该目标物于时序上的正向追踪,以取得正向追踪结果;
根据所述末尾两张图像的所述真实标记,针对该图像序列进行该目标物于时序上的逆向追踪,以取得逆向追踪结果;以及
比对该正向追踪结果与该逆向追踪结果,据以产生该目标物的最终追踪结果;
比对该目标物于该正向追踪结果与该逆向追踪结果,据以产生该目标物的该最终追踪结果的步骤包括:
根据所述末尾两张图像的最后一张图像的该真实标记以及该正向追踪结果,取得该正向追踪的准确度;
根据所述起始两张图像的第一张图像的该真实标记以及该逆向追踪结果,取得该逆向追踪的准确度;以及
根据该正向追踪的该准确度以及该逆向追踪的该准确度,产生该目标物的该最终追踪结果。
2.如权利要求1所述的方法,其中根据所述起始两张图像的所述真实标记,针对该图像序列进行该目标物于时序上的该正向追踪,以取得该正向追踪结果的步骤包括:
计算所述起始两张图像的所述真实标记之间的真实距离差值;以及
根据该真实距离差值,依时序由前向后,预测该目标物于该图像序列中排序于所述起始两张图像之后的其它后续图像的追踪范围以及预测位置,以作为该目标物的该正向追踪结果。
3.如权利要求2所述的方法,其特征在于,根据该真实距离差值,依时序由前向后,预测该目标物于该图像序列中排序于所述起始两张图像之后的所述其它后续图像的所述预测位置,以作为该目标物的该正向追踪结果的步骤包括:
根据该真实距离差值,计算该目标物于该图像序列中的第三张图像的追踪范围;
于该第三张图像的该追踪范围内,取得该目标物的该预测位置以及该第三张图像的该预测位置与其前一张图像的所述真实标记之间的预测距离差值,以计算该目标物于该图像序列中的第四张图像的追踪范围;以及
递回地计算该目标物于该第四张图像及其之后的各所述其它后续图像中的该追踪范围以及该预测位置,以作为该目标物的该正向追踪结果。
4.如权利要求1所述的方法,其特征在于,根据所述末尾两张图像的所述真实标记,针对该图像序列进行该目标物于时序上的该逆向追踪,以取得该逆向追踪结果的步骤包括:
计算所述末尾两张图像的所述真实标记之间的真实距离差值;以及
根据该真实距离差值,依时序由后向前,预测该目标物于该图像序列中排序于所述末尾两张图像之前的其它先前图像的追踪范围以及预测位置,以作为该目标物的该逆向追踪结果。
5.如权利要求4所述的方法,其特征在于,根据该真实距离差值,依时序由后向前,预测该目标物于该图像序列中排序于所述末尾两张图像之前的所述其它先前图像的预测位置,以作为该目标物的该逆向追踪结果的步骤包括:
根据该真实距离差值,计算该目标物于该图像序列中的倒数第三张图像的追踪范围;
于该倒数第三张图像的该追踪范围内,取得该目标物的该预测位置以及该倒数第三张图像的该预测位置与其后一张图像的所述真实标记之间的预测距离差值,以计算该目标物于该图像序列中的倒数第四张图像的追踪范围;以及
递回地计算该目标物于该倒数第四张图像及其之前的各所述其它先前图像中的该追踪范围以及该预测位置,以作为该目标物的该逆向追踪结果。
6.如权利要求1所述的方法,其特征在于,根据所述末尾两张图像的该最后一张图像的该真实标记以及该正向追踪结果,取得该正向追踪的该准确度的步骤包括:
判断该目标物于该最后一张图像的该真实标记以及关联于该正向追踪结果的预测位置的目标物重叠率;
当该目标物重叠率大于重叠阀值时,判定该正向追踪的该准确度高;以及
当该重叠率不大于重叠阀值时,判定该正向追踪的该准确度低。
7.如权利要求1所述的方法,其特征在于,根据所述起始两张图像的该第一张图像的该真实标记以及该逆向追踪结果,取得该逆向追踪的该准确度的步骤包括:
判断该目标物于该第一张图像的该真实标记以及关联于该逆向追踪的预测位置的目标物重叠率;
当该目标物重叠率大于重叠阀值时,判定该逆向追踪的该准确度高;以及
当该目标物重叠率不大于重叠阀值时,判定该逆向追踪的该准确度低。
8.如权利要求1所述的方法,其特征在于,根据该正向追踪的该准确度以及该逆向追踪的该准确度,产生该目标物的该最终追踪结果的步骤包括:
当该正向追踪的该准确度以及该逆向追踪的该准确度两者皆低时,判定该最终追踪结果为不可信任。
9.如权利要求1所述的方法,其特征在于,根据该正向追踪的该准确度以及该逆向追踪的该准确度,产生该目标物的该最终追踪结果的步骤包括:
当该正向追踪的该准确度以及该逆向追踪的该准确度至少有一者高时,判断该正向追踪结果与该逆向追踪结果的各个目标物重叠率,据以判定是否修正该正向追踪结果或修正该逆向追踪结果,以产生该目标物的该最终追踪结果。
10.如权利要求9所述的方法,其特征在于,当该正向追踪的该准确度以及该逆向追踪的该准确度两者皆高时,判断该正向追踪结果与该逆向追踪结果的各所述目标物重叠率,据以判定是否修正该正向追踪结果或修正该逆向追踪结果的步骤包括:
判断该正向追踪结果与该逆向追踪结果的各所述目标物重叠率是否皆高;
若是,不修正该正向追踪结果以及该逆向追踪结果,并且判定该最终追踪结果为可信任;以及
若否,修正该正向追踪结果以及该逆向追踪结果至少之一者。
11.如权利要求10所述的方法,其特征在于,修正该正向追踪结果以及该逆向追踪结果至少之一者的步骤包括:
当以该正向追踪为预设基准时:
取得该图像序列中的第一逆向执行图像,其中该第一逆向执行图像为该图像序列中最后一张目标物重叠率低的图像;
根据该第一逆向执行图像的该正向追踪结果的追踪范围,修正该第一逆向执行图像的该逆向追踪结果的追踪范围以及预测位置;以及
递回地计算该目标物于该第一逆向执行图像之前的各个其它先前图像中的该追踪范围以及该预测位置,以作为该目标物的修正后的逆向追踪结果;以及
当以该逆向追踪为预设基准时:
取得该图像序列中的第一正向执行图像,其中该第一正向执行图像为该图像序列中第一张目标物重叠率低的图像;
根据该第一正向执行图像的该逆向追踪结果的该追踪范围,修正该第一正向执行图像的该正向追踪结果的该追踪范围以及该预测位置;以及
递回地计算该目标物于该第一正向执行图像之后的各个其它后续图像中的该追踪范围以及该预测位置,以作为该目标物的修正后的正向追踪结果。
12.如权利要求9所述的方法,其特征在于,当该正向追踪的该准确度以及该逆向追踪的该准确度仅有其中一者高时,判断该正向追踪结果与该逆向追踪结果的各所述目标物重叠率,据以判定是否修正该正向追踪结果以及该逆向追踪结果的步骤包括:
当该正向追踪的该准确度高时:
取得该图像序列中的第一逆向执行图像,其中该第一逆向执行图像为该图像序列中最后一张目标物重叠率低的图像;
根据该第一逆向执行图像的该正向追踪结果的追踪范围,修正该第一逆向执行图像的该逆向追踪结果的追踪范围以及预测位置;以及
递回地计算该目标物于该第一逆向执行图像之前的各个其它先前图像中的该追踪范围以及该预测位置,以作为该目标物的修正后的逆向追踪结果;
当该逆向追踪的该准确度高时:
取得该图像序列中的第一正向执行图像,其中该第一正向执行图像为该图像序列中第一张目标物重叠率低的图像;
根据该第一正向执行图像的该逆向追踪结果的该追踪范围,修正该第一正向执行图像的该正向追踪结果的该追踪范围以及该预测位置;
递回地计算该目标物于该第一正向执行图像之后的各个其它后续图像中的该追踪范围以及该预测位置,以作为该目标物的修正后的正向追踪结果。
13.如权利要求1所述的方法,其特征在于,当该目标物的该最终追踪结果为可信任时,该方法更包括:
根据该最终追踪结果,以该图像序列作为追踪该目标物的训练资料。
14.如权利要求1所述的方法,其特征在于,当该目标物的该最终追踪结果为可信任时,该方法更包括:
根据该最终追踪结果,针对该图像序列中的该目标物进行图像处理,以产生处理后的图像序列。
15.一种电脑系统,其特征在于,包括:
显示器,用以显示画面;
输入装置,用以接收使用者的操作;
运算装置,用以:
取得包括多张图像的图像序列,其中该图像序列具有目标物;
通过该输入装置接收于起始两张图像以及末尾两张图像针对该目标物的标记操作,以分别产生该目标物的四个真实标记;
根据所述起始两张图像的所述真实标记,针对该图像序列进行该目标物于时序上的正向追踪,以取得正向追踪结果;
根据所述末尾两张图像的所述真实标记,针对该图像序列进行该目标物于时序上的逆向追踪,以取得逆向追踪结果;以及
比对该正向追踪结果与该逆向追踪结果,据以产生该目标物的最终追踪结果;该运算装置根据所述末尾两张图像的最后一张图像的该真实标记以及该正向追踪结果,取得该正向追踪的准确度,根据所述起始两张图像的第一张图像的该真实标记以及该逆向追踪结果,取得该逆向追踪的准确度,以及根据该正向追踪的该准确度以及该逆向追踪的该准确度,产生该目标物的该最终追踪结果。
16.如权利要求15所述的电脑系统,其特征在于,当该正向追踪的该准确度以及该逆向追踪的该准确度至少有一者高时,该运算装置判断该正向追踪结果与该逆向追踪结果的各个目标物重叠率,据以判定是否修正该正向追踪结果或修正该逆向追踪结果,以产生该目标物的该最终追踪结果。
17.如权利要求15所述的电脑系统,其特征在于,当该目标物的该最终追踪结果为可信任时,该运算装置更根据该最终追踪结果,以该图像序列作为追踪该目标物的训练资料。
18.如权利要求15所述的电脑系统,其特征在于,当该目标物的该最终追踪结果为可信任时,该运算装置更根据该最终追踪结果,针对该图像序列中的该目标物进行图像处理,以产生处理后的图像序列。
CN201910840471.6A 2019-08-16 2019-09-06 物件追踪方法及其电脑系统 Active CN112396631B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW108129314 2019-08-16
TW108129314A TWI719591B (zh) 2019-08-16 2019-08-16 物件追蹤方法及其電腦系統

Publications (2)

Publication Number Publication Date
CN112396631A CN112396631A (zh) 2021-02-23
CN112396631B true CN112396631B (zh) 2023-08-25

Family

ID=74567310

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910840471.6A Active CN112396631B (zh) 2019-08-16 2019-09-06 物件追踪方法及其电脑系统

Country Status (3)

Country Link
US (1) US10922818B1 (zh)
CN (1) CN112396631B (zh)
TW (1) TWI719591B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113014955B (zh) * 2019-12-19 2022-11-15 北京百度网讯科技有限公司 视频帧处理方法、装置、电子设备和计算机可读存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001229488A (ja) * 2000-02-15 2001-08-24 Hitachi Ltd 車両追跡方法および交通状況追跡装置
JP2002063579A (ja) * 2000-08-17 2002-02-28 Hitachi Plant Eng & Constr Co Ltd 画像解析装置及びその方法
JP2005099953A (ja) * 2003-09-22 2005-04-14 Fuji Xerox Co Ltd 画像処理装置、それを備えるオブジェクト追跡システム、画像処理方法及び画像処理プログラム
CN102480615A (zh) * 2010-11-30 2012-05-30 财团法人工业技术研究院 图像目标区域追踪系统与方法及计算机程序产品
CN104252629A (zh) * 2013-06-26 2014-12-31 范钦雄 目标检测与追踪方法及系统
CN105760826A (zh) * 2016-02-03 2016-07-13 歌尔声学股份有限公司 一种人脸跟踪方法、装置和智能终端
CN110032914A (zh) * 2018-01-12 2019-07-19 北京京东尚科信息技术有限公司 一种标注图片的方法和装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101221620B (zh) * 2007-12-20 2011-04-06 北京中星微电子有限公司 人脸跟踪方法
EP2395456A1 (en) * 2010-06-12 2011-12-14 Toyota Motor Europe NV/SA Methods and systems for semantic label propagation
US10176408B2 (en) * 2015-08-14 2019-01-08 Elucid Bioimaging Inc. Systems and methods for analyzing pathologies utilizing quantitative imaging
CN106920251A (zh) * 2016-06-23 2017-07-04 阿里巴巴集团控股有限公司 人手检测跟踪方法及装置
US10514799B2 (en) * 2016-09-08 2019-12-24 Google Llc Deep machine learning to perform touch motion prediction
US11308350B2 (en) * 2016-11-07 2022-04-19 Qualcomm Incorporated Deep cross-correlation learning for object tracking
JP6659524B2 (ja) * 2016-11-18 2020-03-04 株式会社東芝 移動体追跡装置、表示装置および移動体追跡方法
US10592786B2 (en) * 2017-08-14 2020-03-17 Huawei Technologies Co., Ltd. Generating labeled data for deep object tracking
US10796142B2 (en) * 2017-08-28 2020-10-06 Nutech Ventures Systems for tracking individual animals in a group-housed environment
US11004209B2 (en) * 2017-10-26 2021-05-11 Qualcomm Incorporated Methods and systems for applying complex object detection in a video analytics system
US10397747B2 (en) * 2017-12-24 2019-08-27 Celect, Inc. Entity tracking
US10963700B2 (en) * 2018-09-15 2021-03-30 Accenture Global Solutions Limited Character recognition

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001229488A (ja) * 2000-02-15 2001-08-24 Hitachi Ltd 車両追跡方法および交通状況追跡装置
JP2002063579A (ja) * 2000-08-17 2002-02-28 Hitachi Plant Eng & Constr Co Ltd 画像解析装置及びその方法
JP2005099953A (ja) * 2003-09-22 2005-04-14 Fuji Xerox Co Ltd 画像処理装置、それを備えるオブジェクト追跡システム、画像処理方法及び画像処理プログラム
CN102480615A (zh) * 2010-11-30 2012-05-30 财团法人工业技术研究院 图像目标区域追踪系统与方法及计算机程序产品
CN104252629A (zh) * 2013-06-26 2014-12-31 范钦雄 目标检测与追踪方法及系统
CN105760826A (zh) * 2016-02-03 2016-07-13 歌尔声学股份有限公司 一种人脸跟踪方法、装置和智能终端
CN110032914A (zh) * 2018-01-12 2019-07-19 北京京东尚科信息技术有限公司 一种标注图片的方法和装置

Also Published As

Publication number Publication date
TWI719591B (zh) 2021-02-21
US20210049771A1 (en) 2021-02-18
US10922818B1 (en) 2021-02-16
TW202109451A (zh) 2021-03-01
CN112396631A (zh) 2021-02-23

Similar Documents

Publication Publication Date Title
US20190050994A1 (en) Control method, non-transitory computer-readable storage medium, and control apparatus
US7342572B2 (en) System and method for transforming an ordinary computer monitor into a touch screen
US10217221B2 (en) Place recognition algorithm
US8467575B2 (en) Moving-object detection apparatus, moving-object detection method and moving-object detection program
US10636165B2 (en) Information processing apparatus, method and non-transitory computer-readable storage medium
US10438412B2 (en) Techniques to facilitate accurate real and virtual object positioning in displayed scenes
US20200175717A1 (en) Information processing apparatus and method of controlling the same
JP2013122763A (ja) 映像処理装置及び映像処理方法
CN107240120B (zh) 视频中运动目标的跟踪方法及装置
WO2020220809A1 (zh) 目标对象的动作识别方法、装置和电子设备
US20150104067A1 (en) Method and apparatus for tracking object, and method for selecting tracking feature
KR20120044484A (ko) 이미지 처리 시스템에서 물체 추적 장치 및 방법
US6542087B2 (en) System and method for extracting a point of interest of an object in front of a computer controllable display captured by an imaging device
CN110781823A (zh) 录屏检测方法、装置、可读介质及电子设备
CN112396631B (zh) 物件追踪方法及其电脑系统
JP2006215655A (ja) 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体
KR102344227B1 (ko) 동체 검출 장치, 동체 검출 방법, 동체 검출 프로그램
US10346680B2 (en) Imaging apparatus and control method for determining a posture of an object
US10671881B2 (en) Image processing system with discriminative control
CN116433767B (zh) 目标对象检测方法、装置、电子设备以及存储介质
JP2012226403A (ja) 画像領域追跡装置、画像領域追跡方法、および、コンピュータ・プログラム
CN110781888B (zh) 回归视频画面中屏幕的方法、装置、可读介质及电子设备
CN112614181B (zh) 一种基于高亮目标的机器人定位方法及装置
US20240037976A1 (en) Information processing device, information processing method, and computer-readable recording medium
JPH11331829A (ja) 特徴点追跡方法及び装置、並びに特徴点追跡プログラムを記録した記録媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant