CN107633526B - 一种图像跟踪点获取方法及设备、存储介质 - Google Patents
一种图像跟踪点获取方法及设备、存储介质 Download PDFInfo
- Publication number
- CN107633526B CN107633526B CN201710788265.6A CN201710788265A CN107633526B CN 107633526 B CN107633526 B CN 107633526B CN 201710788265 A CN201710788265 A CN 201710788265A CN 107633526 B CN107633526 B CN 107633526B
- Authority
- CN
- China
- Prior art keywords
- image
- feature point
- point
- video frame
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000012216 screening Methods 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims description 38
- 238000004422 calculation algorithm Methods 0.000 claims description 33
- 238000000605 extraction Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 4
- 239000013589 supplement Substances 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000272194 Ciconiiformes Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/14—Transformations for image registration, e.g. adjusting or mapping for alignment of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开一种图像跟踪点获取方法及设备、存储介质。其中方法步骤包括:在当前视频帧包含目标对象的第一图像时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置;在所述第一图像中标记与所述第二特征点对应的第一特征点;在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域;当所述第一区域和所述第二区域的图像相似度满足筛选条件时,将所述第一特征点确定为所述当前视频帧的跟踪点。采用本申请,提高对当前视频帧中目标对象的准确跟踪。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种图像跟踪点获取方法及设备、存储介质。
背景技术
增强现实技术(Augmented Reality,AR)是一种通过实时地计算拍摄到的图像中目标对象的位置,然后在相应的图像位置处加上虚拟图像、视频等虚拟内容的技术,基于AR可以将虚拟场景与现实环境相结合,并进行有效的互动。目前主要是基于图像识别技术的实现方式来实现AR场景,也就是说,通过图像识别技术分别在摄像装置拍摄到的各个视频帧中识别出某个需要叠加虚拟内容的图像对象,再确定该图像对象在视频帧中的位置,根据确定的位置叠加虚拟内容。目前,增强现实技术最重要的环节就是对图像对象的跟踪,在实际应用中,在用户快速移动或者抖动时,会因为连续视频帧之间的差别较大,而导致图像对象跟踪失败。
在这种情形下,怎么提高对视频帧中目标对象的准确跟踪,是一个值得考虑的问题。
发明内容
本发明实施例提供一种图像跟踪点获取方法及设备、存储介质,能够提高对当前视频帧中目标对象的准确跟踪。
一方面,为本发明实施例提供了一种图像跟踪点获取方法,包括:
在当前视频帧包含目标对象的第一图像时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置;
在所述第一图像中标记与所述第二特征点对应的第一特征点;
在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域;
当所述第一区域和所述第二区域的图像相似度满足筛选条件时,将所述第一特征点确定为所述当前视频帧的跟踪点。
在一种实施例中,所述获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置,包括:
根据所述第一图像在所述当前视频帧中的位置和大小,将所述目标对象的第三图像进行对齐处理,生成第二图像,并利用该第三图像上标记的第三特征点的位置,确定所述第二图像上与该第三特征点位置对应的第二特征点;及计算该第二特征点在所述第二图像中的坐标位置。
在一种实施例中,所述根据所述第一图像在所述当前视频帧中的位置和大小,将所述目标对象的第三图像进行对齐处理,生成第二图像,包括:
获取所述目标对象的第三图像,确定在所述第三图像中标记的第三特征点的位置;根据所述第一图像在视频帧中的位置和大小,确定将所述第三图像与所述第一图像对齐的对齐处理方式;基于所述第一图像和所述对齐处理方式对所述第三图像进行对齐处理,生成第二图像。
在一种实施例中,所述利用该第三图像上标记的第三特征点的位置,确定所述第二图像上与该第三特征点位置对应的第二特征点,包括:
按照所述对齐处理方式对所述第三特征点的位置进行转换处理;根据转换处理后的位置在所述第二图像中标记与所述第三特征点对应的第二特征点。
在一种实施例中,所述利用该第三图像上标记的第三特征点的位置,确定所述第二图像上与该第三特征点位置对应的第二特征点之前,还包括:
采用特征点提取算法在所述目标对象的第三图像中确定出多个参考点的位置和所述多个参考点中每个参考点的区分度;将所述多个参考点中区分度最高的参考点确定为第三特征点,计算所述第三特征点在该第三图像中的坐标位置。
在一种实施例中,还包括:在所述多个参考点中除去所述区分度最高的参考点,以及除去与所述区分度最高的参考点的坐标位置间距离小于像素阈值的参考点,并执行将所述多个参考点中区分度最高的参考点确定为第三特征点,计算所述第三特征点在该第三图像中的坐标位置的步骤。
在一种实施例中,所述采用特征点提取算法在所述目标对象的第三图像中确定出多个参考点的位置和所述多个参考点中每个参考点的区分度之前,还包括:按照当前视频帧的尺寸大小调整所述目标对象的第三图像的尺寸大小。
在一种实施例中,所述第一区域的尺寸大小等于所述第二区域的尺寸大小;
所述当所述第一区域和所述第二区域的图像相似度满足筛选条件时,将所述第一特征点确定为所述当前视频帧的跟踪点,包括:获取所述第一区域和所述第二区域的图像相似度;若所述第一区域和所述第二区域的图像相似度大于第一相似度阈值,则确定所述第一特征点为所述当前视频帧的跟踪点。
在一种实施例中,所述第一区域的尺寸大小大于所述第二区域的尺寸大小;
所述当所述第一区域和所述第二区域的图像相似度满足筛选条件时,将所述第一特征点确定为所述当前视频帧的跟踪点,包括:从所述第一区域确定出多个参考区域,所述多个参考区域中每个参考区域的尺寸大小等于所述第二区域的尺寸大小;获取所述每个参考区域与所述第二区域的图像相似度;若在所述多个参考区域中存在与所述第二区域的图像相似度大于第二相似度阈值的第一参考区域,则确定所述第一特征点为所述当前视频帧的跟踪点。
在一种实施例中,所述在当前视频帧包含目标对象的第一图像时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置,包括:在当前视频帧包含目标对象的第一图像的情况下,当所述当前视频帧的跟踪点的数量小于数量阈值时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置。
在一种实施例中,所述在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域之前,还包括:确定所述当前视频帧中存在的跟踪点在第一图像中的位置;在所述第一图像的多个第一特征点中,获取所述多个第一特征点中除去所述跟踪点外的各第一特征点,并在所述第二图像的多个第二特征点中获取与该除去所述跟踪点外的各第一特征点分别对应的各第二特征点,所述各第一特征点与所述各第二特征点一一对应;
所述在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域,包括:在所述第一图像中获取所述各第一特征点分别所属的第一区域,以及在所述第二图像中获取所述各第二特征点分别所属的第二区域。
在一种可选的实施例中,所述在当前视频帧包含目标对象的第一图像的情况下,当所述当前视频帧的跟踪点的数量小于数量阈值时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置,包括:
在获取到当前视频帧之后且获取到下一个视频帧之前,在当前视频帧包含目标对象的第一图像的情况下,当所述当前视频帧的跟踪点的数量小于数量阈值时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置。
另一方面,为本发明实施例提供了一种图像跟踪点获取设备,包括:
获取模块,用于在当前视频帧包含目标对象的第一图像时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置;
标记模块,用于在所述第一图像中标记与所述第二特征点对应的第一特征点;
所述获取模块,还用于在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域;
确定模块,用于当所述第一区域和所述第二区域的图像相似度满足筛选条件时,将所述第一特征点确定为所述当前视频帧的跟踪点。
另一方面,为本发明实施例提供了一种图像跟踪点获取设备,包括:处理器和存储装置;所述存储装置,用于存储计算机程序指令;
所述处理器,调用所述计算机程序指令,用于
在当前视频帧包含目标对象的第一图像时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置;
在所述第一图像中标记与所述第二特征点对应的第一特征点;
在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域;
当所述第一区域和所述第二区域的图像相似度满足筛选条件时,将所述第一特征点确定为所述当前视频帧的跟踪点。
本发明实施例还提供了一种计算机存储介质,该计算机存储介质存储有计算机程序指令,该计算机程序指令被执行时,实现第一方面所述的方法。
在本发明实施例中,图像跟踪点获取设备在获取的当前视频帧包含目标对象的第一图像时,获取目标对象的第二图像并确定在第二图像中标记的第二特征点的位置;在第一图像中标记与第二特征点对应的第一特征点;在第一图像中获取第一特征点所属的第一区域,以及在第二图像中获取第二特征点所属的第二区域;当第一区域和第二区域的图像相似度满足筛选条件时,图像跟踪点获取设备将第一特征点确定为当前视频帧的跟踪点。通过两个特征点所属区域的比较,能够更加准确的确定视频帧的跟踪点,提高了对目标对象的跟踪准确性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种图像跟踪点获取的场景示例图;
图2是本发明实施例提供的一种图像跟踪点获取方法的流程示意图;
图3是本发明实施例提供的另一种图像跟踪点获取方法的流程示意图;
图4是本发明实施例提供的一种第三特征点确定的示例图;
图5是本发明实施例提供了一种区域确定的示例图;
图6是本发明实施例提供的另一种图像跟踪点获取方法的流程示意图;
图7是本发明实施例提供了一种视频帧中跟踪点数量变化的示例图;
图8是本发明实施例提供了一种图像跟踪点获取方法的示例图;
图9是本发明实施例提供的一种图像跟踪点获取设备的结构示意图;
图10是本发明实施例提供的另一种图像跟踪点获取设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参见图1,为本发明实施例提供的一种图像跟踪点获取的场景示例图。其中,在该图像跟踪点获取的增强现实(Augmented reality,AR)场景示例图中,包括显示设备、摄像头以及图像跟踪点获取设备,其中,图像跟踪点获取设备可以与显示设备、摄像头进行通信连接,例如,通过摄像头获取所拍摄到的视频帧,并将该视频帧显示在显示设备上,以及在显示设备上显示虚拟信息(物体、图片、视频、声音等等),实现虚拟与现实的融合。在本发明实施例中,图像跟踪点获取设备通过摄像头获取的当前视频帧包含目标对象的第一图像时,获取目标对象的第二图像,并确定在第二图像中标记的第二特征点的位置;在第一图像中标记与第二特征点对应的第一特征点;在第一图像中获取第一特征点所属的第一区域,以及在第二图像中获取第二特征点所属的第二区域;当第一区域和第二区域的图像相似度满足筛选条件时,图像跟踪点获取设备将第一特征点确定为当前视频帧的跟踪点。通过两个特征点所属区域的比较,能够更加准确的确定视频帧的跟踪点,提高了对目标对象的跟踪准确性。
在本发明实施例中,显示设备和摄像头也可以是嵌入在图像跟踪点获取设备中的外设模块,本发明实施例对此不做限定。例如,图像跟踪点获取设备可以为手机、智能眼镜、导航设备、AR设备等等。
下面将结合图2-图8,对本发明实施例提供的图像跟踪点获取方法进行详细介绍。
请参见图2,为本发明实施例提供了一种图像跟踪点获取方法的流程示意图。如图2所示,本发明实施例的所述方法可以包括以下步骤201-步骤204。
201,在当前视频帧包含目标对象的第一图像时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置。
具体的,图像跟踪点获取设备确定当前视频帧包含目标对象的第一图像,可以是第一次识别到当前视频帧包含第一图像的情况,这样本发明实施例的方案是为了确定当前视频帧的跟踪点;或者可以是,非第一次识别到当前视频帧包含第一图像的情况,这样本发明实施例的方案是为了实现当前视频帧中跟踪点的补充。可选的,当前视频帧是图像跟踪点获取设备通过摄像头获取到的。这一情况下,图像跟踪点获取设备获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置。其中,第二图像为与第一图像在视频帧中的位置、大小均对齐的图像。通过确定第二图像中第二特征点的位置,能够实现对第一图像的第一特征点进行标记,进而确定当前视频帧的跟踪点。
进一步的,图像跟踪点获取设备在识别到当前视频帧包含目标对象的第一图像的情况下,能够确定第一图像在视频帧中的位置。
202,在所述第一图像中标记与所述第二特征点对应的第一特征点。
具体的,由于图像跟踪点获取设备能够确定出第一图像在视频帧中的位置,以及第二图像和第一图像在位置、大小上均是对齐的,因此可以按照步骤201确定出的第二特征点的位置,在第一图像中标记出与第二特征点对应的第一特征点。进一步的,图像跟踪点获取设备计算第一特征点在第一图像的坐标位置。
203,在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域。
204,当所述第一区域和所述第二区域的图像相似度满足筛选条件时,将所述第一特征点确定为所述当前视频帧的跟踪点。
针对步骤203和步骤204而言,图像跟踪点获取设备可以通过区域的比较,进而确定步骤204所标记的第一特征点是否准确,若准确,则可以将该第一特征点确定为当前视频帧的跟踪点。这样能够提高跟踪点确定的准确性。
本实施例中,第一特征点所属的第一区域、第二特征点所属的第二区域可以自定义设定。在本发明实施例中对第一区域的尺寸大小或第二区域的尺寸大小不做限定。例如,图像跟踪点获取设备可以按照第一特征点所在位置为第一区域的中心点来确定第一特征点所属区域;或者,可以按照第一特征点为第一区域的某个预设方位来确定第一特征点所属区域。
进一步的,对于第一区域和第二区域的尺寸大小相同的情况,第二特征点在第二区域的位置与第一特征点在第一区域的位置相同。
其中,一个特征点对应一个所属区域。例如,由于第一特征点的位置是根据第二特征的位置来确定,可以理解,一个第一特征点对应一个第二特征点。因此,在第一图像中标记出多个第一特征点的情况下,步骤203对每个第一特征点获取一个该第一特征点所属的第一区域,并获取与该第一特征点相对应的第二特征点所属的第二区域;继而在执行步骤204时,对每个第一特征点所属的第一区域和与该第一特征点对应的第二特征点所属的第二区域进行判断,以确定是否满足筛选条件。
其中,所述第一区域的尺寸大小等于所述第二区域的尺寸大小。这一情况下,步骤204具体实现方式为:获取所述第一区域和所述第二区域的图像相似度;若所述第一区域和所述第二区域的图像相似度大于第一相似度阈值,则确定所述第一特征点为所述当前视频帧的跟踪点。其中,图像跟踪点获取设备可以通过归一化互相关算法(normalized crosscorrelation,NCC)计算第一区域和第二区域的图像相似度。例如,假设第一区域的图像的尺寸为10*10,第二区域的图像的尺寸为10*10,构造一个2*2的小窗口T,其中10代表图像像素点的数量。按照小窗口T在第一区域和第二区域的相同位置上分别获取第一区域的第一子图像和第二区域的第二子图像,通过相关函数计算第一子图像与第二子图像的灰度相关值,对第一区域的图像和第二区域的图像自上面下、自左面右遍历搜索,记录下相对应的子图位置的灰度相关值,最大的灰度相关值即为第一区域和第二区域的图像相似度。
在其他实施例中,所述第一区域的尺寸大小大于所述第二区域的尺寸大小。这一情况下,步骤204具体实现方式为:从所述第一区域确定出多个参考区域,所述多个参考区域中每个参考区域的尺寸大小等于所述第二区域的尺寸大小;获取所述每个参考区域与所述第二区域的图像相似度;若在所述多个参考区域中存在与所述第二区域的图像相似度大于第二相似度阈值的第一参考区域,则确定所述第一特征点为所述当前视频帧的跟踪点。其中,多个参考区域的两两参考区域之间可以有重叠区域,或者,没有重叠区域,本发明实施例对此不做限定。
在本发明实施例中,图像跟踪点获取设备在获取的当前视频帧包含目标对象的第一图像时,获取目标对象的第二图像并确定在第二图像中标记的第二特征点的位置;在第一图像中标记与第二特征点对应的第一特征点;在第一图像中获取第一特征点所属的第一区域,以及在第二图像中获取第二特征点所属的第二区域;当第一区域和第二区域的图像相似度满足筛选条件时,图像跟踪点获取设备将第一特征点确定为当前视频帧的跟踪点。通过两个特征点所属区域的比较,能够更加准确的确定视频帧的跟踪点,提高了对目标对象的跟踪准确性。
请参见图3,为本发明实施例提供了一种图像跟踪点获取方法的流程示意图。如图3所示,本发明实施例的所述方法可以包括以下步骤301-步骤307。
301,当识别到当前视频帧包含目标对象的第一图像时,根据所述第一图像在所述当前视频帧中的位置和大小,将所述目标对象的第三图像进行对齐处理,生成第二图像。
具体的,图像跟踪点获取设备识别到当前视频帧包含第一图像的情况下,首先,根据第一图像所包含的目标对象,获取包含该目标对象的第三图像。其中,第一图像和第三图像均是包含目标对象的图像。例如,目标对象为一张照片,第一图像为对该照片进行拍摄时,视频帧包含的该照片的图像;第三图像为该张照片的电子图像。又如,目标对象为地球仪,第一图像为对该地球仪进行拍摄的图像时,视频帧包含的该地球仪的图像;第三图像为该地球仪的电子图像。
其次,图像跟踪点获取设备在当前视频帧中识别到第一图像的情况下,还可以确定第一图像在当前视频帧的位置和大小。这样,图像跟踪点获取设备根据所述第一图像在所述当前视频帧中的位置和大小,将所述目标对象的第三图像进行对齐处理,生成第二图像。具体是:先确定在所述第三图像中标记的第三特征点的位置;再根据所述第一图像在视频帧中的位置和大小,确定将所述第三图像与所述第一图像对齐的对齐处理方式;最后,基于所述第一图像和所述对齐处理方式对所述第三图像进行对齐处理,生成第二图像,比如,根据确定的对齐处理方式,以第三图像的中心点及轮廓点为基点,调整其角度,使得该第三图像与第一图像角度保持一致,并根据第一图像的尺寸调整第三图像的尺寸。
例如,在确定当前视频帧识别到目标对象的情况下,能通过目标对象识别的最后一步确定出第三图像与第一图像对齐的单映射矩阵(Homography矩阵),这样在对第三图像按照该单映射矩阵进行对齐处理之后,生成第二图像,第二图像的尺寸大小与第一图像的尺寸大小相同,且第二图像的角度与第一图像在当前视频帧的角度相同或者相接近(对应于单映射矩阵计算有误差的情况下)。
可选的,当前视频帧是图像跟踪点获取设备通过摄像头获取到的。可选的,在图像跟踪点获取设备第一次识别到当前视频帧包含第一图像的情况下,执行步骤301。
进一步的,第一次识别到当前视频帧中包含第一图像可以是图像跟踪点获取设备从开始打开摄像头之后,第一次识别到当前视频帧中包含第一图像;或者,第一次识别到当前视频帧中包含第一图像可以是图像跟踪点获取设备在上一个视频帧(或者在当前视频帧的连续前N个视频帧,N为正整数)没有识别到第一图像,且在当前视频帧中识别到第一图像;或者,若设定当前视频帧对应的时刻为当前时刻,以及设定早于当前时刻的第一时刻到当前时刻且不包含当前时刻为第一时间段,第一次识别到当前视频帧中包含第一图像可以是在第一时间段范围内图像跟踪点获取设备没有识别到第一图像,且在当前视频帧中识别到第一图像。以上仅为举例说明,本发明实施例对第一次识别到当前视频帧包含第一图像的情况的不做限定。
本实施例中,所述图像跟踪点获取设备可以通过识别算法来实现对当前视频帧中目标对象的识别;例如,识别算法可以是基于ORB(ORiented Brief,是一种图像特征检测算子)特征的特征点匹配算法,该算法首先分别对第三图像和当前视频帧提取ORB特征;接着,再使用强力匹配(Brute-Force,BF)算法或者快速最近邻搜索包(Fast_Library_for_Approximate_Nearest_Neighbors,FLNN)算法将两者的特征进行匹配,得到匹配结果;最后,对于匹配结果使用随机抽样一致性(Random Sample Consensus,ransac)算法过滤外点,当外点过滤后的内点数满足要求时,确定当前视频帧识别到目标对象。
进一步的,图像跟踪点获取设备可以通过识别算法来确定第一图像在视频帧中的位置和大小,这样便于图像跟踪点获取设备确定第一图像和第三图像的对齐处理方式。
另外,图像跟踪点获取设备存储了多个对象的对象标识,对象标识用于唯一识别该对象,例如对象标识可以为编号、序列号等。以及,图像跟踪点获取设备可以根据对象标识获取到与该对象标识对应的第三图像,与该对象标识对应的第三图像表示该第三图像包含对象标识对应的对象,例如,在本发明实施例中,在图像跟踪点获取设备确定识别到目标对象的第一图像的情况下,确定目标对象的目标对象标识,再根据目标对象标识获取到与目标对象标识对应的第三图像。
302,利用该第三图像上标记的第三特征点的位置,确定所述第二图像上与该第三特征点位置对应的第二特征点;及计算该第二特征点在所述第二图像中的坐标位置。
具体的,图像跟踪点获取设备在确定对齐处理方式之后,利用该第三图像上标记的第三特征点的位置,按照所述对齐处理方式对所述第三特征点的位置进行转换处理,根据转换处理后的位置在所述第二图像中标记与所述第三特征点对应的第二特征点。进一步的,图像跟踪点获取设备计算第二特征点在第二图像中的坐标位置。其中,第三图像的一个第三特征点对应一个坐标位置,一个第三特征点的坐标位置转换处理之后得到的坐标位置即为与该第三特征点对应的第二特征点的坐标位置。
303,在所述第一图像中标记与所述第二特征点对应的第一特征点。
具体的,由于图像跟踪点获取设备能够确定出第一图像在视频帧中的位置,以及第二图像和第一图像在位置、大小上均是对齐的,因此可以按照步骤302确定出的第二特征点的坐标位置,在第一图像中标记出与第二特征点对应的第一特征点。进一步的,图像跟踪点获取设备计算第一特征点在第一图像的坐标位置。
可以理解的是,对于第三图像中的某一个第三特征点而言,在第二图像中存在与该第三特征点相对应的第二特征点,在第一图像中存在与该第三特征点相对应的第一特征点。
304,在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域。
305,在所述第一区域和所述第二区域的图像相似度满足筛选条件的情况下,将所述第一特征点确定为所述当前视频帧的跟踪点。
针对步骤304和步骤305而言,图像跟踪点获取设备可以通过区域的比较,进而确定步骤303所标记的第一特征点是否准确,若准确,则可以将该第一特征点确定为当前视频帧的跟踪点。这样能够提高跟踪点确定的准确性。
可选的其中,第一特征点所属的第一区域、第二特征点所属的第二区域可以自定义设定。在本发明实施例中对第一区域的尺寸大小或第二区域的尺寸大小不做限定。例如,图像跟踪点获取设备可以按照第一特征点所在位置为第一区域的中心点来确定第一特征点所属区域;或者,可以按照第一特征点为第一区域的某个预设方位来确定第一特征点所属区域。
进一步的,对于第一区域和第二区域的尺寸大小相同的情况,第二特征点在第二区域的位置与第一特征点在第一区域的位置相同。
在本发明是实例中,所述第一区域的尺寸大小等于所述第二区域的尺寸大小。这一情况下,步骤305具体实现方式为:获取所述第一区域和所述第二区域的图像相似度;若所述第一区域和所述第二区域的图像相似度大于第一相似度阈值,则确定所述第一特征点为所述当前视频帧的跟踪点。其中,图像跟踪点获取设备可以通过归一化互相关算法(normalized cross correlation,NCC)计算第一区域和第二区域的图像相似度。计算第一区域和第二区域的图像相似度的算法还可以包括:误差平方和算法(SSD)、绝对误差和算法(SAD)、增强的相关系数(Enhanced Correlation Coefficient,ECC)。第一相似度阈值是可以自定义设定的,本发明实施例对此不做限定。
在另一种可选的方案中,所述第一区域的尺寸大小大于所述第二区域的尺寸大小。这一情况下,步骤305具体实现方式为:从所述第一区域确定出多个参考区域,所述多个参考区域中每个参考区域的尺寸大小等于所述第二区域的尺寸大小;获取所述每个参考区域与所述第二区域的图像相似度;若在所述多个参考区域中存在与所述第二区域的图像相似度大于第二相似度阈值的第一参考区域,则确定所述第一特征点为所述当前视频帧的跟踪点。其中,多个参考区域的两两参考区域之间可以有重叠区域,或者,没有重叠区域,本发明实施例对此不做限定。
针对步骤301中涉及的确定在所述第三图像中标记的第三特征点的位置的步骤,在图像跟踪点获取设备在获取到第三图像的情况下,可以是实现标记第三图像中每个第三特征点并计算第三特征点在第三图像的坐标位置的过程;或者可以是获取已在第三图像中完成标记的第三特征点的位置的过程,本发明实施例对此不做限定。
可选的方案中,图像跟踪点在第三图像中标记第三特征点及计算第三特征点在第三图像的坐标位置可以通过以下步骤A1-A3来实现。
A1,采用特征点提取算法在所述目标对象的第三图像中确定出多个参考点的位置和所述多个参考点中每个参考点的区分度。
具体的,图像跟踪点获取设备采用特征点提取算法,从第三图像中查找出多个参考点,这里的参考点是通过特征提取算法提取到的特征点,在本发明实施例将A1步骤中提到的特征点命名为参考点。接着,通过特征点提取算法,还可以获得多个参考点中每个参考点的区分度,这里的区分度用于表示每个参考点通过该算法计算得到的特征响应值,特征响应值用于表示该参考点与周边其他参考点的差异大小。例如,区分度也可以用量化值、度量值来表示,本发明实施例对此不做限定。
可选的,特征点提取算法可以包括但不限定于Harris角点算法、FAST(Featuresfrom Accelerated Segment Test,)算法、AGAST(Adaptive and Generic AcceleratedSegment Test,)算法、GFTT(Good Feature to Track)算法等。
A2,将所述多个参考点中区分度最高的参考点确定为第三特征点,计算所述第三特征点在该第三图像中的坐标位置。
具体的,图像跟踪点获取设备从多个参考点中筛选出一些最具代表性的参考点作为第三图像的多个第三特征。其中,对于挑选一个第三特征点的方案是:图像跟踪点获取设备将多个参考点中区分度最高的参考点确定为第三特征点,并通过步骤A1中确定的参考点的位置,进而确定出该第三特征点的位置,例如将该区分度最高的参考点在第三图像的坐标位置,确定为第三特征点在该第三图像中的坐标位置。
A3,在所述多个参考点中除去所述区分度最高的参考点,以及除去与所述区分度最高的参考点的坐标位置间距离小于像素阈值的参考点,并执行将所述多个参考点中区分度最高的参考点确定为第三特征点,计算所述第三特征点在该第三图像中的坐标位置的步骤。
具体的,图像跟踪点获取设备为了再确定其他的第三特征点,还需在执行步骤A2之后,执行步骤A3。首先,图像跟踪点获取设备去除所述区分度最高的参考点(即,在A2步骤中被确定为第三特征点的参考点);其次,再确定与所述区分度最高的参考点的位置间距离小于像素阈值的参考点,例如,像素阈值为10个像素点,图像跟踪点获取设备从多个参考点中查找与区分度最高的参考点的坐标位置相距小于10个像素点的参考点,并将查找到的参考点进行去除,这样使得各个参考点分散式的分布在第三图像中。最后,图像跟踪点获取设备从当前剩余的参考点中在执行步骤A2,将所述多个参考点中区分度最高的参考点确定为第三特征点,计算所述第三特征点在该第三图像中的坐标位置,以确定出第三图像的另一个第三特征点。
可选的,图像跟踪点获取设备在确定第三特征点之后,还可以执行亚像素精度处理,以使其更精确。其中,亚像素精度是指相邻两像素之间细分情况。输入值通常为二分之一,三分之一或四分之一,这意味着每个像素将被分为更小的单元从而对这些更小的单元实施插值算法。例如,如果选择四分之一,就相当于每个像素在横向和纵向上都被当作四个像素来计算。因此,如果一张5x5像素的图像选择了四分之一的亚像素精度之后,就等于创建了一张20x20的离散点阵。图像跟踪点获取设备可以将第三特征点的坐标位置确定在经过亚像素精度处理之后的离散点阵上。
可选的,图像跟踪点获取设备可以设定所需确定的第三特征点的数量。一种可选的方案中,第三特征点的数量可以根据A1步骤中所提取到的参考点的数量来确定,例如,A1步骤中确定的参考点的数量为100,则设定第三特征点的数量为50。另一种可选的方案中,图像跟踪点获取设备可以自定义设定第三特征点的数量。这样,图像跟踪点获取设备可以在确定出满足第三特征点的数量的情况下,停止执行步骤A2和步骤A3。
可选的,图像跟踪点获取设备可以在不存在剩余参考点的情况下,停止执行步骤A2和A3。
在一种可选的是实施方案中,图像跟踪点获取设备按照当前视频帧的尺寸大小调整所述目标对象的第三图像的尺寸大小,使得当前视频帧的尺寸大小和第三图像的尺寸消息更为接近。例如,在当第一次识别到当前视频帧包含目标对象的第一图像时,获取所述目标对象的第三图像之后,以及执行A1步骤之前,调整第三图像的尺寸大小,以便于对第一图像的识别。
举例来说,图像跟踪点获取设备可以按照第三图像的固定高宽比进行调整,使得第三图像的像素面积的大小与当前视频帧的像素面积的大小更为接近。若第三图像的原始尺寸大小为:1024x768;当前视频帧的尺寸大小为:1280*960;由于第三图像的高宽比和当前视频帧的高宽比相同,因此,可以将第三图像放大,调整为1280*960。若第三图像的原始尺寸为:1280x800;当前视频帧的尺寸为:640*480;由于第三图像的高宽比和当前视频帧的高宽比不同,因此,可以将第三图像按照自身的高宽比进行缩小,调整为640*400。本发明实施例不限定对第三图像的调整方式,同样也不限定调整之后的第三图像的尺寸大小与当前视频帧的尺寸大小的关系,例如,调整之后的第三图像的尺寸大小可以大于、等于或小于当前视频帧的尺寸大小。
又举例来说,请一并参见图4,为本发明实施例提供了一种第三特征点确定的示例图。如图4所示,401为第三图像,402为视频帧,可以明显看出,401的尺寸大小大于视频帧的尺寸大小,在本示例图中,将第三图像401按照视频帧402的尺寸大小进行调整,得到调整后的第三图像403。接着,通过步骤A1至A3的步骤,在调整后的第三图像403中标记出第三特征点,如图4中的404,表示完成第三特征点标记的图像,其中,每个圆圈表示所标记的第三特征点。
针对步骤301至步骤305进行举例说明,请参见图5,为本发明实施例提供了一种区域确定的示例图。如图5所示,500为包含第一图像的视频帧,501为所包含的第一图像,503为第三图像,502为第二图像,其中,目标对象为企鹅。通过步骤303确定将第三图像与第一图像对齐的对齐处理方式之后,可以生成第二图像502,可以看出第二图像502与视频帧501中第一图像的大小和角度均相近。
一种可选的区域比较方案中,M1为第二图像502中的一个第二特征点,N1为第一图像501中与M1对应的第一特征点,M1所属第二区域为R11,N1所述第一区域为R12,这里R11和R12的尺寸大小相同,例如,R11和R12均为10*10的正方形区域,可选的,M1和N1可以为该正方形区域的中心点,或者M1和N1为该正方形区域相同方位上的点。首先,计算R11和R12的图像相似度;接着,若R11和R12的图像相似度大于第一相似度阈值,则确定N1为视频帧500的跟踪点。可选的,若R11和R12的图像相似度不大于第一相似度阈值,则确定N1不是视频帧500的跟踪点。
另一种可选的区域比较方案中,M2为第二图像502中的另一个第二特征点,N2为第一图像501中与M2对应的第一特征点,M2所属第二区域为R21,N1所述第一区域为R22,这里R21和R22的尺寸大小不相同,且R22的尺寸大小大于R21的尺寸大小,例如,R21为10*10的正方形区域,R22均为20*20的的正方形区域,可选的,M2和N2可以为该正方形的区域的中心点,或者M1和N1为该正方形区域相同方位上的点。首先,图像跟踪点获取设备可以从R22中划分出多个参考区域R221,其中R221与R21的尺寸大小相同,以便于计算R21和R221的图像相似度。其次,遍历计算R21和每个R221的图像相似度;接着,若存在一个第一参考区域使得R21和R221的图像相似度大于第二相似度阈值,则确定N2为视频帧500的跟踪点。可选的,若不存在第一参考区域使得R21和R221的图像相似度大于第二相似度阈值,则确定N2不是视频帧500的跟踪点。
在本发明实施例中,图像跟踪点获取设备在识别到当前视频帧包含目标对象的第一图像时,获取目标对象的第二图像,并确定在第二图像中标记的第二特征点的位置;在第一图像中标记与第二特征点对应的第一特征点;在第一图像中获取第一特征点所属的第一区域,以及在第二图像中获取第二特征点所属的第二区域;当第一区域和第二区域的图像相似度满足筛选条件时,图像跟踪点获取设备将第一特征点确定为当前视频帧的跟踪点。这样实现了对当前视频帧的跟踪点的确定,进一步通过两个特征点所属区域的比较,能够更加准确的确定视频帧的跟踪点,提高了对目标对象的跟踪准确性。
请参见图6,为本发明实施例提供了一种图像跟踪点获取方法的流程示意图。如图6所示,本发明实施例的所述方法可以包括以下步骤601-步骤609。
601,在当前视频帧包含目标对象的第一图像的情况下,当所述当前视频帧的跟踪点的数量小于数量阈值时,根据所述第一图像在所述当前视频帧中的位置和大小,将所述目标对象的第三图像进行对齐处理,生成第二图像。
具体的,在当前视频帧包含目标对象的第一图像的情况下,当所述当前视频帧的跟踪点的数量小于数量阈值时,表示当前视频帧的跟踪点数量较少,无法准确实现对目标对象的跟踪,因此图像跟踪点获取设备执行获取目标对象的第三图像,以实现对当前视频帧的跟踪点进行补充。其中,数量阈值可以自定义设定,本发明实施例对此不做限定。
当所述当前视频帧的跟踪点的数量不小于数量阈值时,表示当前视频帧的跟踪点数量较多,依旧可以实现对目标对象的跟踪,因此图像跟踪点获取设备不执行步骤601,即对当前视频帧的跟踪点不进行补充。
举例来说,请一并参见图7,为本发明实施例提供了一种视频帧中跟踪点数量变化的示例图。如图7所示,视频帧1中跟踪点的数量为5,随着时间的推移,视频帧N中跟踪点的数量变为了2,若图像跟踪点获取设备设定的数量阈值为3,则需要对视频帧N进行补充跟踪点,即通过获取目标对象的第三图像来实现跟踪点的补充。
其中,步骤601中“根据所述第一图像在所述当前视频帧中的位置和大小,将所述目标对象的第三图像进行对齐处理,生成第二图像”的具体实现可以参考图3所示实施例中步骤301的详细描述,在此不再赘述。
在另一种实现方式中,对于当前视频帧并非第一次识别到目标对象的视频帧,图像跟踪点获取设备采用跟踪的方式确定将所述第三图像与所述第一图像对齐的对齐处理方式。例如,根据当前视频帧存在的跟踪点的位置和步骤601中确定的第三特征点的位置,计算第三图像由当前的位置与第一图像进行对齐的单映射矩阵,这样在对第三图像按照该单映射矩阵进行对齐处理之后,生成第二图像,第二图像的尺寸大小与第一图像的尺寸大小相同,且第二图像的角度与第一图像在当前视频帧的角度相同或者相接近(对应于单映射矩阵计算有误差的情况下)。
602,利用该第三图像上标记的第三特征点的位置,确定所述第二图像上与该第三特征点位置对应的第二特征点;及计算该第二特征点在所述第二图像中的坐标位置。
603,在所述第一图像中标记与所述第二特征点对应的第一特征点。
其中,步骤602和步骤603可以参考图3所示实施例中步骤302和步骤303的详细描述,在此不再赘述。
604,确定所述当前视频帧中存在的跟踪点在第一图像中的位置。
具体的,图像跟踪点获取设备通过识别算法确定第一图像在视频帧中的位置之后,进一步确定当前存在的跟踪点在第一图像中的位置,这样以便于根据第一特征点的位置,来判断该第一特征点是否为当前存在的跟踪点。
605,在所述第一图像的多个第一特征点中,获取所述多个第一特征点中除去所述跟踪点外的各第一特征点,并在所述第二图像的多个第二特征点中获取与该除去所述跟踪点外的各第一特征点分别对应的各第二特征点。
具体的,通过上述步骤601至步骤603,可以确定出第三图像所标记的第三特征点的数量为多个,继而在第二图像标记的第二特征点的数量也为多个,以及在第一图像中与第二特征点相对应的第一特征点的数量也为多个。在这一基础上,图像跟踪点获取设备通过步骤605可以确定出跟踪点在第一图像中的位置,接着,与多个第一特征点的位置进行比较,以确定出与跟踪点位置一样的第一特征点。由于与跟踪点位置一样的第一特征点已被确定为跟踪点,因此不需要在对该第一特征点执行是否为跟踪点的步骤。这样可以提高跟踪点的确定效率。
进一步在可选的实现方式中,在当前存在至少两个跟踪点的情况下,对于其中一个跟踪点而言,由于在步骤603中已确定出第一图像中一个第一特征点的位置,通过跟踪点在第一图像中的位置和该第一特征点在第一图像中的位置进行对比,以确定两者的位置是否位置重叠,若位置重叠,则对该第一特征点不再执行步骤606和步骤607;若位置不重叠,则对该第一特征点执行步骤606和步骤607。这里对一个跟踪点和一个第一特征点的比较进行了详细介绍,其他跟踪点与这一个第一特征点的比较可以参考这一方式进行执行,在此不再赘述。
进一步的,在所述第一图像的多个第一特征点中,在除去所述跟踪点外之后,还存在多个第一特征点的情况下,图像跟踪点获取设备根据步骤603中第一特征点和第二特征点的对应关系,分别查找到与该除去所述跟踪点外的每个第一特征点对应的每个第二特征点。
606,在所述第一图像中获取所述各第一特征点分别所属的第一区域,以及在所述第二图像中获取所述各第二特征点分别所属的第二区域。
607,在所述第一区域和所述第二区域的图像相似度满足筛选条件的情况下,将所述第一特征点确定为所述当前视频帧的跟踪点。
举例来说,在所述第一图像的多个第一特征点中,在除去所述跟踪点外之后,还剩余3个第一特征点,分别为N3、N4、N5。而在第二图像中与N3对应的第二特征点为M3,与N4对应的第二特征点为M4,与N5对应的第二特征点为M5。图像跟踪点获取设备执行步骤606和步骤607具体是:对于N3和M3而言,获取N3所属的第一区域R31,以及获取M3所属的第二区域R32,判断第一区域R31和第二区域R32的图像相似度是否满足筛选条件,若是,将所述第一特征点N3确定为所述当前视频帧的跟踪点。对于N4和M4而言,对于N5和M5而言,也可以按照N3和M3执行步骤606和步骤607的方式实现,这里不再赘述。
其中,步骤606和步骤607可以参考图3所示实施例中步骤304和步骤305的详细描述,在此不再赘述。
在一种可选的实现方式中,在获取到当前视频帧之后且获取到下一个视频帧之前,在当前视频帧包含目标对象的第一图像的情况下,当所述当前视频帧的跟踪点的数量小于数量阈值时,执行步骤601中根据所述第一图像在所述当前视频帧中的位置和大小,将所述目标对象的第三图像进行对齐处理,生成第二图像以及至步骤607的方案。这样不影响第一个视频帧的获取,还可以实现对当前视频帧中跟踪点的补充,提高了图像跟踪点获取设备的处理效率。
举例来说,请一并参见图8,为本发明实施例提供了一种图像跟踪点获取方法的示例图。如图8所示,随着时间t的推移,图像跟踪点获取设备能够获取到多个视频帧,例如视频帧1、视频帧2、视频帧3、视频帧4等等。而获取每个视频帧都需要花费一定时间,例如,在获取视频帧3后,还需要经过t1时间段,才能获取到视频帧4。因此,在t1时间段内,图像跟踪点获取设备不仅可以实现对视频帧4的获取,还可以实现对视频帧3的跟踪点的补充,即对视频帧3执行图6所示实施例的方案。
在本发明实施例中,图像跟踪点获取设备在当前视频帧包含目标对象的第一图像的情况下,当所述当前视频帧的跟踪点的数量小于数量阈值时,获取目标对象的第二图像,并确定在第二图像中标记的第二特征点的位置;在第一图像中标记与第二特征点对应的第一特征点;在第一图像中获取第一特征点所属的第一区域,以及在第二图像中获取第二特征点所属的第二区域;当第一区域和第二区域的图像相似度满足筛选条件时,图像跟踪点获取设备将第一特征点确定为当前视频帧的跟踪点。这样针对跟踪点数量较少的当前视频帧,实现了对跟踪点的补充,进一步通过两个特征点所属区域的比较,能够更加准确的确定视频帧的跟踪点,提高了对目标对象的跟踪准确性。
请参见图9,为本发明实施例提供了一种图像跟踪点获取设备的结构示意图。如图9所示,本发明实施例的所述图像跟踪点获取设备1可以包括:获取模块901、标记模块902和确定模块903。
获取模块901,用于在当前视频帧包含目标对象的第一图像时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置;
标记模块902,用于在所述第一图像中标记与所述第二特征点对应的第一特征点;
所述获取模块901,还用于在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域;
确定模块903,用于当所述第一区域和所述第二区域的图像相似度满足筛选条件时,将所述第一特征点确定为所述当前视频帧的跟踪点。
在一个可能的实施例中,所述获取模块901在所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置方面,包括:
图像生成单元,用于根据所述第一图像在所述当前视频帧中的位置和大小,将所述目标对象的第三图像进行对齐处理,生成第二图像;
特征点确定单元,用于利用该第三图像上标记的第三特征点的位置,确定所述第二图像上与该第三特征点位置对应的第二特征点;
位置计算单元,用于计算该第二特征点在所述第二图像中的坐标位置。
在一个可能的实施例中,所述图像生成单元具体用于:
获取所述目标对象的第三图像,确定在所述第三图像中标记的第三特征点的位置;根据所述第一图像在视频帧中的位置和大小,确定将所述第三图像与所述第一图像对齐的对齐处理方式;基于所述第一图像和所述对齐处理方式对所述第三图像进行对齐处理,生成第二图像。
在一个可能的实施例中,所述特征点确定单元具体用于:
按照所述对齐处理方式对所述第三特征点的位置进行转换处理;
根据转换处理后的位置在所述第二图像中标记与所述第三特征点对应的第二特征点。
在一个可能的实施例中,所述图像生成单元在确定在所述第三图像中标记的第三特征点的位置方面,具体用于:
采用特征点提取算法在所述目标对象的第三图像中确定出多个参考点的位置和所述多个参考点中每个参考点的区分度;
将所述多个参考点中区分度最高的参考点确定为第三特征点,计算所述第三特征点在该第三图像中的坐标位置。
在一个可能的实施例中,所述图像生成单元还用于在所述多个参考点中除去所述区分度最高的参考点,以及除去与所述区分度最高的参考点的坐标位置间距离小于像素阈值的参考点,并执行将所述多个参考点中区分度最高的参考点确定为第三特征点,计算所述第三特征点在该第三图像中的坐标位置的步骤。
在一个可能的实施例中,所述图像生成单元还用于按照当前视频帧的尺寸大小调整所述目标对象的第三图像的尺寸大小。
在一个可能的实施例中,所述第一区域的尺寸大小等于所述第二区域的尺寸大小;
所述确定模块903具体用于:获取所述第一区域和所述第二区域的图像相似度;若所述第一区域和所述第二区域的图像相似度大于第一相似度阈值,则确定所述第一特征点为所述当前视频帧的跟踪点。
在一个可能的实施例中,所述第一区域的尺寸大小大于所述第二区域的尺寸大小;
所述确定模块903具体用于:从所述第一区域确定出多个参考区域,所述多个参考区域中每个参考区域的尺寸大小等于所述第二区域的尺寸大小;获取所述每个参考区域与所述第二区域的图像相似度;若在所述多个参考区域中存在与所述第二区域的图像相似度大于第二相似度阈值的第一参考区域,则确定所述第一特征点为所述当前视频帧的跟踪点。
在一个可能的实施例中,所述获取模块901在当前视频帧包含目标对象的第一图像时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置方面,具体用于:
在当前视频帧包含目标对象的第一图像的情况下,当所述当前视频帧的跟踪点的数量小于数量阈值时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置。
在一个可能的实施例中,所述确定模块903,还用于确定所述当前视频帧中存在的跟踪点在第一图像中的位置;
所述获取模块901,还用于在所述第一图像的多个第一特征点中,获取所述多个第一特征点中除去所述跟踪点外的各第一特征点,并在所述第二图像的多个第二特征点中获取与该除去所述跟踪点外的各第一特征点分别对应的各第二特征点;
所述获取模块901在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域方面,具体用于:在所述第一图像中获取所述各第一特征点分别所属的第一区域,以及在所述第二图像中获取所述各第二特征点分别所属的第二区域。
在一个可能的实施例中,所述获取模块901在当前视频帧包含目标对象的第一图像的情况下,当所述当前视频帧的跟踪点的数量小于数量阈值时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置方面,具体用于:在获取到当前视频帧之后且获取到下一个视频帧之前,在当前视频帧包含目标对象的第一图像的情况下,当所述当前视频帧的跟踪点的数量小于数量阈值时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置。
需要说明的是,本发明实施例所描述的图像跟踪点获取设备1所执行的单元及带来的有益效果可根据上述图2至图8所示方法实施例中图像跟踪点获取设备所执行的步骤的具体实现,此处不再赘述。
本发明实施例还提供了一种计算机存储介质,所述计算机存储介质可以存储有多条指令,所述指令适于由处理器加载并执行如上述图2至图8所示实施例中图像跟踪点获取设备所执行的方法步骤,具体执行过程可以参见图2至图8所示实施例的具体说明,在此不进行赘述。
请参见图10,为本发明实施例提供了另一种图像跟踪点获取设备的结构示意图。如图10所示,所述图像跟踪点获取设备1000可以包括:至少一个处理器1001,例如CPU,通信接口,例如通信接口包括至少一个网络接口1004以及用户接口1003,存储器1005,至少一个通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,用户接口1003可以包括显示屏(Display)等,可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。存储器1005可选的还可以是至少一个位于远离前述处理器1001的存储装置。如图10所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及图像跟踪点获取应用程序。
在图10所示的图像跟踪点获取设备1000中,用户接口1003主要用于为用户提供输入的接口,例如,获取用户对配置文件的操作指令等;网络接口1004主要用于与用户终端进行数据通信;而处理器1001可以用于调用存储器1005中存储的图像跟踪点获取应用程序,并具体执行以下操作:
在当前视频帧包含目标对象的第一图像时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置;
在所述第一图像中标记与所述第二特征点对应的第一特征点;
在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域;
当所述第一区域和所述第二区域的图像相似度满足筛选条件时,将所述第一特征点确定为所述当前视频帧的跟踪点。
在一个可能的实施例中,所述处理器1001在执行所述获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置,具体执行:
根据所述第一图像在所述当前视频帧中的位置和大小,将所述目标对象的第三图像进行对齐处理,生成第二图像,并利用该第三图像上标记的第三特征点的位置,确定所述第二图像上与该第三特征点位置对应的第二特征点;及
计算该第二特征点在所述第二图像中的坐标位置。
在一个可能的实施例中,所述处理器1001在执行根据所述第一图像在所述当前视频帧中的位置和大小,将所述目标对象的第三图像进行对齐处理,生成第二图像,具体执行:
获取所述目标对象的第三图像,确定在所述第三图像中标记的第三特征点的位置;根据所述第一图像在视频帧中的位置和大小,确定将所述第三图像与所述第一图像对齐的对齐处理方式;基于所述第一图像和所述对齐处理方式对所述第三图像进行对齐处理,生成第二图像。
在一个可能的实施例中,所述处理器1001在执行利用该第三图像上标记的第三特征点的位置,确定所述第二图像上与该第三特征点位置对应的第二特征点,具体执行:
按照所述对齐处理方式对所述第三特征点的位置进行转换处理;根据转换处理后的位置在所述第二图像中标记与所述第三特征点对应的第二特征点。
在一个可能的实施例中,所述处理器1001在执行确定在所述第三图像中标记的第三特征点的位置,具体执行:
采用特征点提取算法在所述目标对象的第三图像中确定出多个参考点的位置和所述多个参考点中每个参考点的区分度;
将所述多个参考点中区分度最高的参考点确定为第三特征点,计算所述第三特征点在该第三图像中的坐标位置。
在一个可能的实施例中,所述处理器1001还执行:在所述多个参考点中除去所述区分度最高的参考点,以及除去与所述区分度最高的参考点的坐标位置间距离小于像素阈值的参考点,并执行将所述多个参考点中区分度最高的参考点确定为第三特征点,计算所述第三特征点在该第三图像中的坐标位置的步骤。
在一个可能的实施例中,所述处理器1001在执行所述采用特征点提取算法在所述目标对象的第三图像中确定出多个参考点的位置之前,还执行:
按照当前视频帧的尺寸大小调整所述目标对象的第三图像的尺寸大小。
在一个可能的实施例中,所述第一区域的尺寸大小等于所述第二区域的尺寸大小;所述处理器1001在执行当所述第一区域和所述第二区域的图像相似度满足筛选条件时,将所述第一特征点确定为所述当前视频帧的跟踪点,具体执行:
获取所述第一区域和所述第二区域的图像相似度;
若所述第一区域和所述第二区域的图像相似度大于第一相似度阈值,则确定所述第一特征点为所述当前视频帧的跟踪点。
在一个可能的实施例中,所述第一区域的尺寸大小大于所述第二区域的尺寸大小;所述处理器1001在执行当所述第一区域和所述第二区域的图像相似度满足筛选条件时,将所述第一特征点确定为所述当前视频帧的跟踪点,具体执行:
从所述第一区域确定出多个参考区域,所述多个参考区域中每个参考区域的尺寸大小等于所述第二区域的尺寸大小;
获取所述每个参考区域与所述第二区域的图像相似度;
若在所述多个参考区域中存在与所述第二区域的图像相似度大于第二相似度阈值的第一参考区域,则确定所述第一特征点为所述当前视频帧的跟踪点。
在一个可能的实施例中,所述处理器1001在执行在当前视频帧包含目标对象的第一图像的时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置,具体执行:
当第一次识别到当前视频帧包含目标对象的第一图像时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置。
在一个可能的实施例中,所述处理器1001在执行在当前视频帧包含目标对象的第一图像时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置,具体执行:
在当前视频帧包含目标对象的第一图像的情况下,当所述当前视频帧的跟踪点的数量小于数量阈值时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置。
在一个可能的实施例中,所述处理器1001在执行在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域之前,还执行:
确定所述当前视频帧中当前的跟踪点在第一图像中的位置;
在所述第一图像的多个第一特征点中,获取所述多个第一特征点中除去所述跟踪点外的各第一特征点,并在所述第二图像的多个第二特征点中获取与该除去所述跟踪点外的各第一特征点分别对应的各第二特征点;
所述在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域,包括:
在所述第一图像中获取所述各第一特征点分别所属的第一区域,以及在所述第二图像中获取所述各第二特征点分别所属的第二区域。
在一个可能的实施例中,所述处理器1001在执行在当前视频帧包含目标对象的第一图像的情况下,当所述当前视频帧的跟踪点的数量小于数量阈值时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置,具体执行:
在获取到当前视频帧之后且获取到下一个视频帧之前,在当前视频帧包含目标对象的第一图像的情况下,当所述当前视频帧的跟踪点的数量小于数量阈值时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置。
本发明实施例的所述处理器的具体实现可参考前述实施例中相关内容的描述,在此不赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random AccessMemory,RAM)等。
以上所揭露的仅为本发明的部分实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。
Claims (12)
1.一种图像跟踪点获取方法,其特征在于,包括:
在当前视频帧包含目标对象的第一图像时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置,其中,所述获取所述目标对象的第二图像包括:确定目标对象的目标对象标识,根据所述目标对象标识获取到与所述目标对象标识对应的第三图像,根据所述第一图像在所述当前视频帧中的位置和大小,将所述第三图像进行对齐处理,生成第二图像,所述第三图像为目标图像的电子图像;
在所述第一图像中标记与所述第二特征点对应的第一特征点;
在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域;
当所述第一区域和所述第二区域的图像相似度满足筛选条件时,将所述第一特征点确定为所述当前视频帧的跟踪点;
其中,所述确定在所述第二图像中标记的第二特征点的位置,包括:
采用特征点提取算法在所述目标对象的第三图像中确定出多个参考点的位置和所述多个参考点中每个参考点的区分度,将所述多个参考点中区分度最高的参考点确定为第三特征点,计算所述第三特征点在该第三图像中的坐标位置;在所述多个参考点中除去所述区分度最高的参考点,以及除去与所述区分度最高的参考点的坐标位置间距离小于像素阈值的参考点以得到当前剩余的参考点,并在当前剩余的参考点中执行将所述多个参考点中区分度最高的参考点确定为第三特征点计算所述第三特征点在该第三图像中的坐标位置的步骤,直至确定出的所述第三特征点的数量满足预定数量或者不存在剩余的参考点;
利用所述第三图像上标记的所述第三特征点的位置,确定所述第二图像上与所述第三特征点位置对应的第二特征点;及
计算所述第二特征点在所述第二图像中的坐标位置。
2.根据权利要求1所述的方法,其特征在于,所述根据所述第一图像在所述当前视频帧中的位置和大小,将所述目标对象的第三图像进行对齐处理,生成第二图像,包括:
获取所述目标对象的第三图像,确定在所述第三图像中标记的第三特征点的位置;
根据所述第一图像在视频帧中的位置和大小,确定将所述第三图像与所述第一图像对齐的对齐处理方式;
基于所述第一图像和所述对齐处理方式对所述第三图像进行对齐处理,生成第二图像。
3.根据权利要求2所述的方法,其特征在于,所述利用所述第三图像上标记的所述第三特征点的位置,确定所述第二图像上与所述第三特征点位置对应的第二特征点,包括:
按照所述对齐处理方式对所述第三特征点的位置进行转换处理;
根据转换处理后的位置在所述第二图像中标记与所述第三特征点对应的第二特征点。
4.根据权利要求3所述的方法,其特征在于,所述采用特征点提取算法在所述目标对象的第三图像中确定出多个参考点的位置和所述多个参考点中每个参考点的区分度之前,还包括:
按照当前视频帧的尺寸大小调整所述目标对象的第三图像的尺寸大小。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述第一区域的尺寸大小等于所述第二区域的尺寸大小;
所述当所述第一区域和所述第二区域的图像相似度满足筛选条件时,将所述第一特征点确定为所述当前视频帧的跟踪点,包括:
获取所述第一区域和所述第二区域的图像相似度;
若所述第一区域和所述第二区域的图像相似度大于第一相似度阈值,则确定所述第一特征点为所述当前视频帧的跟踪点。
6.根据权利要求1-4任一项所述的方法,其特征在于,所述第一区域的尺寸大小大于所述第二区域的尺寸大小;
所述当所述第一区域和所述第二区域的图像相似度满足筛选条件时,将所述第一特征点确定为所述当前视频帧的跟踪点,包括:
从所述第一区域确定出多个参考区域,所述多个参考区域中每个参考区域的尺寸大小等于所述第二区域的尺寸大小;
获取所述每个参考区域与所述第二区域的图像相似度;
若在所述多个参考区域中存在与所述第二区域的图像相似度大于第二相似度阈值的第一参考区域,则确定所述第一特征点为所述当前视频帧的跟踪点。
7.根据权利要求1-4任一项所述的方法,其特征在于,所述在当前视频帧包含目标对象的第一图像时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置,包括:
在当前视频帧包含目标对象的第一图像的情况下,当所述当前视频帧的跟踪点的数量小于数量阈值时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置。
8.根据权利要求7所述的方法,其特征在于,所述在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域之前,还包括:
确定所述当前视频帧中存在的跟踪点在第一图像中的位置;
在所述第一图像的多个第一特征点中,获取所述多个第一特征点中除去所述跟踪点外的各第一特征点,并在所述第二图像的多个第二特征点中获取与该除去所述跟踪点外的各第一特征点分别对应的各第二特征点;
所述在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域,包括:
在所述第一图像中获取所述各第一特征点分别所属的第一区域,以及在所述第二图像中获取所述各第二特征点分别所属的第二区域。
9.根据权利要求7所述的方法,其特征在于,所述在当前视频帧包含目标对象的第一图像的情况下,当所述当前视频帧的跟踪点的数量小于数量阈值时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置,包括:
在获取到当前视频帧之后且获取到下一个视频帧之前,在当前视频帧包含目标对象的第一图像的情况下,当所述当前视频帧的跟踪点的数量小于数量阈值时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置。
10.一种图像跟踪点获取设备,其特征在于,包括:
获取模块,用于在当前视频帧包含目标对象的第一图像时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置,所述获取模块还用于,确定目标对象的目标对象标识,根据所述目标对象标识获取到与所述目标对象标识对应的第三图像,根据所述第一图像在所述当前视频帧中的位置和大小,将所述第三图像进行对齐处理,生成第二图像,所述第三图像为目标图像的电子图像;
标记模块,用于在所述第一图像中标记与所述第二特征点对应的第一特征点;
所述获取模块,还用于在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域;
确定模块,用于当所述第一区域和所述第二区域的图像相似度满足筛选条件时,将所述第一特征点确定为所述当前视频帧的跟踪点;
其中,所述获取模块包括:
特征点确定单元,用于采用特征点提取算法在所述目标对象的第三图像中确定出多个参考点的位置和所述多个参考点中每个参考点的区分度,将所述多个参考点中区分度最高的参考点确定为第三特征点,计算所述第三特征点在该第三图像中的坐标位置;在所述多个参考点中除去所述区分度最高的参考点,以及除去与所述区分度最高的参考点的坐标位置间距离小于像素阈值的参考点以得到当前剩余的参考点,并在当前剩余的参考点中执行将所述多个参考点中区分度最高的参考点确定为第三特征点计算所述第三特征点在该第三图像中的坐标位置的步骤,直至确定出的所述第三特征点的数量满足预定数量或者不存在剩余的参考点;利用所述第三图像上标记的所述第三特征点的位置,确定所述第二图像上与所述第三特征点位置对应的第二特征点,所述第三特征点为在所述第三图像中确定出的多个参考点中区分度最高的参考点;
位置计算单元,用于计算所述第二特征点在所述第二图像中的坐标位置。
11.一种图像跟踪点获取设备,其特征在于,包括:处理器和存储装置;
所述存储装置,用于存储计算机程序指令;
所述处理器,调用所述计算机程序指令,用于
在当前视频帧包含目标对象的第一图像时,获取所述目标对象的第二图像,并确定在所述第二图像中标记的第二特征点的位置;
在所述第一图像中标记与所述第二特征点对应的第一特征点;
在所述第一图像中获取所述第一特征点所属的第一区域,以及在所述第二图像中获取所述第二特征点所属的第二区域;
当所述第一区域和所述第二区域的图像相似度满足筛选条件时,将所述第一特征点确定为所述当前视频帧的跟踪点;
其中,所述处理器具体执行:
采用特征点提取算法在所述目标对象的第三图像中确定出多个参考点的位置和所述多个参考点中每个参考点的区分度,将所述多个参考点中区分度最高的参考点确定为第三特征点,计算所述第三特征点在该第三图像中的坐标位置;在所述多个参考点中除去所述区分度最高的参考点,以及除去与所述区分度最高的参考点的坐标位置间距离小于像素阈值的参考点以得到当前剩余的参考点,并在当前剩余的参考点中执行将所述多个参考点中区分度最高的参考点确定为第三特征点计算所述第三特征点在该第三图像中的坐标位置的步骤,直至确定出的所述第三特征点的数量满足预定数量或者不存在剩余的参考点;利用所述第三图像上标记的所述第三特征点的位置,确定所述第二图像上与所述第三特征点位置对应的第二特征点,所述第三特征点为在所述第三图像中确定出的多个参考点中区分度最高的参考点;及
计算所述第二特征点在所述第二图像中的坐标位置。
12.一种计算机存储介质,其特征在于,该计算机存储介质存储有计算机程序指令,该计算机程序指令被执行时,实现如权利要求1-9任一项所述的方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710788265.6A CN107633526B (zh) | 2017-09-04 | 2017-09-04 | 一种图像跟踪点获取方法及设备、存储介质 |
PCT/CN2018/103585 WO2019042419A1 (zh) | 2017-09-04 | 2018-08-31 | 图像跟踪点获取方法、设备及存储介质 |
US16/679,128 US11164323B2 (en) | 2017-09-04 | 2019-11-08 | Method for obtaining image tracking points and device and storage medium thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710788265.6A CN107633526B (zh) | 2017-09-04 | 2017-09-04 | 一种图像跟踪点获取方法及设备、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107633526A CN107633526A (zh) | 2018-01-26 |
CN107633526B true CN107633526B (zh) | 2022-10-14 |
Family
ID=61100480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710788265.6A Active CN107633526B (zh) | 2017-09-04 | 2017-09-04 | 一种图像跟踪点获取方法及设备、存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11164323B2 (zh) |
CN (1) | CN107633526B (zh) |
WO (1) | WO2019042419A1 (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107633526B (zh) | 2017-09-04 | 2022-10-14 | 腾讯科技(深圳)有限公司 | 一种图像跟踪点获取方法及设备、存储介质 |
CN108335319A (zh) * | 2018-02-06 | 2018-07-27 | 中南林业科技大学 | 一种基于自适应阈值及ransac的图像角点匹配方法 |
CN108540715B (zh) * | 2018-03-27 | 2020-07-24 | 联想(北京)有限公司 | 一种图片处理方法、电子设备和计算机可读存储介质 |
CN108665508B (zh) * | 2018-04-26 | 2022-04-05 | 腾讯科技(深圳)有限公司 | 一种即时定位与地图构建方法、装置及存储介质 |
CN108805989B (zh) * | 2018-06-28 | 2022-11-11 | 百度在线网络技术(北京)有限公司 | 场景穿越的方法、装置、存储介质和终端设备 |
CN109034214B (zh) * | 2018-07-09 | 2019-12-27 | 百度在线网络技术(北京)有限公司 | 用于生成标记的方法和装置 |
CN108985233B (zh) * | 2018-07-19 | 2021-08-03 | 常州智行科技有限公司 | 一种基于数字图像相关的高精度车辆跟踪方法 |
CN110147708B (zh) * | 2018-10-30 | 2023-03-31 | 腾讯科技(深圳)有限公司 | 一种图像数据处理方法和相关装置 |
CN110807728B (zh) | 2019-10-14 | 2022-12-13 | 北京字节跳动网络技术有限公司 | 对象的显示方法、装置、电子设备及计算机可读存储介质 |
CN110856014B (zh) * | 2019-11-05 | 2023-03-07 | 北京奇艺世纪科技有限公司 | 动态图像生成方法、装置、电子设备及存储介质 |
CN110930436B (zh) * | 2019-11-27 | 2023-04-14 | 深圳市捷顺科技实业股份有限公司 | 一种目标跟踪方法及设备 |
CN111767839B (zh) * | 2020-06-28 | 2024-05-31 | 平安科技(深圳)有限公司 | 一种车辆行驶轨迹确定方法、装置、设备及介质 |
CN113450252A (zh) * | 2021-05-11 | 2021-09-28 | 点智芯科技(北京)有限公司 | 一种超像素分割单映矩阵聚类图像拼接方法 |
CN115393405A (zh) * | 2021-05-21 | 2022-11-25 | 北京字跳网络技术有限公司 | 一种图像对齐方法及装置 |
CN113689403B (zh) * | 2021-08-24 | 2023-09-19 | 中国科学院长春光学精密机械与物理研究所 | 基于特征间方位距的特征描述系统 |
CN115082509B (zh) * | 2022-08-22 | 2022-11-04 | 成都大公博创信息技术有限公司 | 一种对无特征目标的追踪方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004030191A (ja) * | 2002-06-25 | 2004-01-29 | Nec Corp | 特徴点データの区画分類による照合方法、その照合プログラムおよびその照合システム |
AU2008200301A1 (en) * | 2008-01-22 | 2009-08-06 | The University Of Western Australia | Image recognition |
CN105989572A (zh) * | 2015-02-10 | 2016-10-05 | 腾讯科技(深圳)有限公司 | 图片处理方法及装置 |
CN106874259A (zh) * | 2017-02-23 | 2017-06-20 | 腾讯科技(深圳)有限公司 | 一种基于状态机的语义解析方法及装置、设备 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3576987B2 (ja) * | 2001-03-06 | 2004-10-13 | 株式会社東芝 | 画像のテンプレートマッチング方法及び画像処理装置 |
CA2556082A1 (en) | 2004-03-12 | 2005-09-29 | Bracco Imaging S.P.A. | Accuracy evaluation of video-based augmented reality enhanced surgical navigation systems |
GB0901263D0 (en) * | 2009-01-26 | 2009-03-11 | Mitsubishi Elec R&D Ct Europe | Detection of similar video segments |
JP2012033022A (ja) * | 2010-07-30 | 2012-02-16 | Panasonic Corp | 空間における変化領域検出装置及び方法 |
CN102402691A (zh) * | 2010-09-08 | 2012-04-04 | 中国科学院自动化研究所 | 一种对人脸姿态和动作进行跟踪的方法 |
US9727586B2 (en) * | 2012-10-10 | 2017-08-08 | Samsung Electronics Co., Ltd. | Incremental visual query processing with holistic feature feedback |
CN103971400B (zh) * | 2013-02-06 | 2018-02-02 | 阿里巴巴集团控股有限公司 | 一种基于标识码的三维交互的方法和系统 |
US9147113B2 (en) * | 2013-10-07 | 2015-09-29 | Hong Kong Applied Science and Technology Research Institute Company Limited | Deformable surface tracking in augmented reality applications |
CN103632374B (zh) * | 2013-12-10 | 2017-04-26 | 深圳先进技术研究院 | 无标记增强现实系统及无标记增强现实系统目标跟踪方法 |
CN105809654B (zh) * | 2014-12-29 | 2018-11-23 | 深圳超多维科技有限公司 | 目标对象跟踪方法、装置和立体显示设备及方法 |
KR102476897B1 (ko) * | 2016-10-05 | 2022-12-12 | 삼성전자주식회사 | 객체 추적 방법 및 장치, 및 이를 이용한 3d 디스플레이 장치 |
CN106683113B (zh) * | 2016-10-27 | 2020-02-04 | 纳恩博(北京)科技有限公司 | 特征点跟踪方法和装置 |
US10453204B2 (en) * | 2016-12-06 | 2019-10-22 | Adobe Inc. | Image alignment for burst mode images |
CN106650965B (zh) * | 2016-12-30 | 2020-11-06 | 触景无限科技(北京)有限公司 | 一种远程视频处理方法及装置 |
CN106920247A (zh) * | 2017-01-19 | 2017-07-04 | 博康智能信息技术有限公司上海分公司 | 一种基于比对网络的目标跟踪方法及装置 |
CN107633526B (zh) * | 2017-09-04 | 2022-10-14 | 腾讯科技(深圳)有限公司 | 一种图像跟踪点获取方法及设备、存储介质 |
-
2017
- 2017-09-04 CN CN201710788265.6A patent/CN107633526B/zh active Active
-
2018
- 2018-08-31 WO PCT/CN2018/103585 patent/WO2019042419A1/zh active Application Filing
-
2019
- 2019-11-08 US US16/679,128 patent/US11164323B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004030191A (ja) * | 2002-06-25 | 2004-01-29 | Nec Corp | 特徴点データの区画分類による照合方法、その照合プログラムおよびその照合システム |
AU2008200301A1 (en) * | 2008-01-22 | 2009-08-06 | The University Of Western Australia | Image recognition |
CN105989572A (zh) * | 2015-02-10 | 2016-10-05 | 腾讯科技(深圳)有限公司 | 图片处理方法及装置 |
CN106874259A (zh) * | 2017-02-23 | 2017-06-20 | 腾讯科技(深圳)有限公司 | 一种基于状态机的语义解析方法及装置、设备 |
Non-Patent Citations (2)
Title |
---|
一种基于兴趣点特征匹配的图像镶嵌技术;仵建宁等;《光电子.激光》;20060625(第06期);93-97 * |
基于显著区域检测的SURF特征匹配优化算法;陈谦等;《软件导刊》;20170331;第16卷(第03期);22-26 * |
Also Published As
Publication number | Publication date |
---|---|
US20200074646A1 (en) | 2020-03-05 |
US11164323B2 (en) | 2021-11-02 |
WO2019042419A1 (zh) | 2019-03-07 |
CN107633526A (zh) | 2018-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107633526B (zh) | 一种图像跟踪点获取方法及设备、存储介质 | |
CN109242913B (zh) | 采集器相对参数的标定方法、装置、设备和介质 | |
CN110322500B (zh) | 即时定位与地图构建的优化方法及装置、介质和电子设备 | |
CN107292949B (zh) | 场景的三维重建方法、装置及终端设备 | |
KR101457313B1 (ko) | 템플릿 스위칭 및 특징 적응을 이용한 오브젝트 추적을 제공하는 방법, 장치 및 컴퓨터 프로그램 제품 | |
WO2019042426A1 (zh) | 增强现实场景的处理方法、设备及计算机存储介质 | |
CN110956131B (zh) | 单目标追踪方法、装置及系统 | |
US20140270362A1 (en) | Fast edge-based object relocalization and detection using contextual filtering | |
CN110866497B (zh) | 基于点线特征融合的机器人定位与建图方法和装置 | |
CN109919971B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
JP6997369B2 (ja) | プログラム、測距方法、及び測距装置 | |
CN113112542A (zh) | 一种视觉定位方法、装置、电子设备及存储介质 | |
US10354409B2 (en) | Image processing device, image processing method, and non-transitory computer-readable recording medium | |
CN113763466A (zh) | 一种回环检测方法、装置、电子设备和存储介质 | |
CN113228105A (zh) | 一种图像处理方法、装置和电子设备 | |
CN113240656B (zh) | 视觉定位方法及相关装置、设备 | |
CN113129332A (zh) | 执行目标对象跟踪的方法和装置 | |
CN113298871B (zh) | 地图生成方法、定位方法及其系统、计算机可读存储介质 | |
CN112861652B (zh) | 基于卷积神经网络的视频目标跟踪与分割方法及系统 | |
CN113435367A (zh) | 社交距离评估方法、装置及存储介质 | |
CN112085842B (zh) | 深度值确定方法及装置、电子设备和存储介质 | |
CN109785367B (zh) | 三维模型追踪中外点滤除方法和装置 | |
CN113570667B (zh) | 视觉惯导补偿方法、装置及存储介质 | |
JP4550768B2 (ja) | 画像検出方法および画像検出装置 | |
JP5975484B2 (ja) | 画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |