CN114926508B - 视野分界线确定方法、装置、设备及存储介质 - Google Patents

视野分界线确定方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN114926508B
CN114926508B CN202210855904.7A CN202210855904A CN114926508B CN 114926508 B CN114926508 B CN 114926508B CN 202210855904 A CN202210855904 A CN 202210855904A CN 114926508 B CN114926508 B CN 114926508B
Authority
CN
China
Prior art keywords
feature
point
characteristic
target image
extreme
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210855904.7A
Other languages
English (en)
Other versions
CN114926508A (zh
Inventor
梁书玉
周波
陈永刚
苗瑞
邹小刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Haiqing Zhiyuan Technology Co ltd
Original Assignee
Shenzhen HQVT Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen HQVT Technology Co Ltd filed Critical Shenzhen HQVT Technology Co Ltd
Priority to CN202210855904.7A priority Critical patent/CN114926508B/zh
Publication of CN114926508A publication Critical patent/CN114926508A/zh
Application granted granted Critical
Publication of CN114926508B publication Critical patent/CN114926508B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种视野分界线确定方法、装置、设备及存储介质。该方法包括:获取存在重叠视域的第一和第二目标图像;采用尺度不变特征转换算法分别提取第一和第二目标图像的第一和第二特征极值点组;根据第一和第二特征极值点组确定第一和第二目标图像的重叠视域;采用哈里斯角点检测算法分别提取第一和第二目标图像的第一和第二特征角点组;根据第一和第二特征角点组从第一和第二特征极值点组中确定第一和第二目标图像的K个目标特征点对;根据K个目标特征点对确定第一和第二目标图像所在的第一和第二监控视频的视野分界线。本申请的方法,能够确定出更准确的视野分界线。

Description

视野分界线确定方法、装置、设备及存储介质
技术领域
本申请涉及计算机视觉技术,尤其涉及一种视野分界线确定方法、装置、设备及存储介质。
背景技术
视频监控用于运动目标的检测和跟踪时,能够全天工作。多摄像头视频监控相比于单摄像头视频监控能够避免由于干扰、遮挡等造成的监控死角,更好的实现对运动目标的检测和跟踪。
多摄像头视频监控在跟踪运动目标的过程中,需要通过可见性判别函数来实现运动目标在多个摄像头视野之间的交接,视野分界线是确定可见性判别函数的前提,在现有技术中,视野分界线通过多个摄像头在同一时间的两帧图像上的特征点生成,而在环境光线较差时,由于环境光线的干扰,从图像上提取的特征点可能不够准确,进而导致生成的视野分界线不够准确。
发明内容
本申请提供一种视野分界线确定方法、装置、设备及存储介质,用以解决现有技术中的视野分界线不够准确的问题。
根据本申请的第一方面,提供一种视野分界线确定方法,包括:
获取第一目标图像和第二目标图像;第一目标图像和第二目标图像为第一监控视频和第二监控视频在同一时间的视频帧;第一监控视频和第二监控视频存在重叠视域;
采用尺度不变特征转换算法分别提取第一目标图像的第一特征极值点组和第二目标图像的第二特征极值点组;所述第一特征极值点组包括M个第一特征极值点,所述第二特征极值点组包括N个第二特征极值点,M和N均为自然数;
根据所述第一特征极值点组和所述第二特征极值点组确定第一目标图像和第二目标图像的重叠视域;
采用哈里斯角点检测算法分别提取第一目标图像在重叠视域的第一特征角点组和第二目标图像在重叠视域的第二特征角点组;第一特征角点组包括P个第一特征角点,第二特征角点组包括Q个第二特征角点,P和Q均为自然数;
根据所述第一特征角点组和所述第二特征角点组从所述第一特征极值点组和所述第二特征极值点组中确定第一目标图像和第二目标图像的K个目标特征点对;每个目标特征点对包括一个第一特征极值点和一个第二特征极值点;K为自然数,K≤P且K≤Q;
根据K个目标特征点对确定第一监控视频和第二监控视频的视野分界线;第一监控视频的视野分界线为第一监控视频中第二监控视频的视野边界;第二监控视频的视野分界线为第二监控视频中第一监控视频的视野边界。
根据本申请的第二方面,提供一种视野分界线确定装置,包括:
获取模块,获取第一目标图像和第二目标图像;第一目标图像和第二目标图像为第一监控视频和第二监控视频在同一时间的视频帧;第一监控视频和第二监控视频存在重叠视域;
第一提取模块,用于采用尺度不变特征转换算法分别提取第一目标图像的第一特征极值点组和第二目标图像的第二特征极值点组;所述第一特征极值点组包括M个第一特征极值点,所述第二特征极值点组包括N个第二特征极值点,M和N均为自然数;
第一确定模块,用于根据所述第一特征极值点组和所述第二特征极值点组确定第一目标图像和第二目标图像的重叠视域;
第二提取模块,用于采用哈里斯角点检测算法分别提取第一目标图像在重叠视域的第一特征角点组和第二目标图像在重叠视域的第二特征角点组;第一特征角点组包括P个第一特征角点,第二特征角点组包括Q个第二特征角点,P和Q均为自然数;
第二确定模块,用于根据所述第一特征角点组和所述第二特征角点组从所述第一特征极值点组和所述第二特征极值点组中确定第一目标图像和第二目标图像的K个目标特征点对;每个目标特征点对包括一个第一特征极值点和一个第二特征极值点;K为自然数,K≤P且K≤Q;
第三确定模块,用于根据K个目标特征点对确定第一监控视频和第二监控视频的视野分界线;第一监控视频的视野分界线为第一监控视频中第二监控视频的视野边界;第二监控视频的视野分界线为第二监控视频中第一监控视频的视野边界。
根据本申请的第三方面,提供一种电子设备,包括:处理器以及与所述处理器通信连接的存储器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,以实现如第一方面中所述的方法。
根据本申请的第四方面,提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如第一方面中所述的方法。
本申请提供的视野分界线确定方法、装置、设备及存储介质,通过获取第一目标图像和第二目标图像;第一目标图像和第二目标图像为第一监控视频和第二监控视频在同一时间的视频帧;第一监控视频和第二监控视频存在重叠视域;采用尺度不变特征转换算法分别提取第一目标图像的第一特征极值点组和第二目标图像的第二特征极值点组;所述第一特征极值点组包括M个第一特征极值点,所述第二特征极值点组包括N个第二特征极值点,M和N均为自然数;根据所述第一特征极值点组和所述第二特征极值点组确定第一目标图像和第二目标图像的重叠视域;采用哈里斯角点检测算法分别提取第一目标图像在重叠视域的第一特征角点组和第二目标图像在重叠视域的第二特征角点组;第一特征角点组包括P个第一特征角点,第二特征角点组包括Q个第二特征角点,P和Q均为自然数;根据所述第一特征角点组和所述第二特征角点组从所述第一特征极值点组和所述第二特征极值点组中确定第一目标图像和第二目标图像的K个目标特征点对;每个目标特征点对包括一个第一特征极值点和一个第二特征极值点;K为自然数,K≤P且K≤Q;根据K个目标特征点对确定第一监控视频和第二监控视频的视野分界线;第一监控视频的视野分界线为第一监控视频中第二监控视频的视野边界;第二监控视频的视野分界线为第二监控视频中第一监控视频的视野边界。由于尺度不变特征转换算法能够提取图像中不受光照、旋转、尺度变化影响的局部特征,并且能够在只有少量物体时提取出大量的特征极值点,哈里斯角点能够提取图像中有明显灰度变化的局部特征,提取出的各特征角点之间的相似度较低,因此,根据哈里斯角点提取算法提取的第一特征角点组和第二特征角点组从第一特征极值点组和第二特征极值点组中确定出的K个目标特征点对中,各第一特征极值点之间的相似性能够降低,各第二特征极值点之间的相似性能够降低,进而,各目标特征点对为同一局部特征分别在第一目标图像和第二目标图像中的特征点的准确率能够提高,进而,根据K个目标特征点对确定的第一监控视频和第二监控视频的视野分界线能够更准确。因此,本申请能够确定出更准确的视野分界线。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1是根据本申请实施例提供的应用场景对应的网络架构图;
图2是根据本申请实施例一提供的视野分界线确定方法的流程示意图;
图3是根据本申请实施例二提供的视野分界线确定方法的流程示意图;
图4是根据本申请实施例三提供的视野分界线确定方法的流程示意图;
图5是根据本申请实施例四提供的视野分界线确定方法的流程示意图;
图6是根据本申请实施例五提供的视野分界线确定装置的结构示意图;
图7是根据本申请实施例六提供的电子设备的结构示意图。
通过上述附图,已示出本申请明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本申请构思的范围,而是通过参考特定实施例为本领域技术人员说明本申请的概念。
具体实施方式
首先对本申请所涉及的名词进行解释。
尺度不变特征转换(Scale-invariant feature transform,简称SIFT)算法,是一种检测与描述影像中局部特征的计算机视觉算法,用于在空间尺度中寻找极值点,并提取出极值点的位置、尺度和旋转不变量。其中,旋转不变量也称为方向。
哈里斯角点检测(Harris Corner Detection,简称Harris)算法,是一种检测图像中角点的计算机视觉算法,其通过邻近像素点的灰度差值来确定角点、边缘和平滑区域。
以下对本申请所涉及的现有技术进行详细说明及分析。
现有技术中,在采用多个摄像头视频对运动目标进行跟踪时,对于存在重叠视域的多个摄像头,需要确定多个摄像头之间的视野分界线,视野分界线是一个摄像头的监控视频中另一个摄像头的视野边界,进而,才能通过可见性判别函数确定出现在多个摄像头的视频监控中的运动目标是否为同一个目标。现有技术中,可以利用投影空间几何不变量性质,将一个摄像头视野边界上的点投影至另一个摄像头视野中,以生成多个摄像头之间的视野分界线。因此,要想生成准确的视野分界线,就需要准确的投影不变量,而投影不变量是通过两个摄像头视频监控的图像帧中相互匹配的特征点生成的。多摄像头由于视角不同、坏境光线也可能不同,现有技术能够提取图像中大量的特征点,但在环境光线较差时,多个特征点之间距离较近,距离较近的特征点之间的相似度高,因此,各特征点的描述子向量之间的差别可能不大,通过描述子向量匹配的特征点出现错误匹配的概率较大,这使得匹配的特征点可能并不是场景中同一特征在不同图像帧中的特征点,因此,在环境光线较差时,现有技术中,从图像上提取的,用于计算投影不变量的特征点可能不够准确,进而导致生成的视野分界线不够准确。
所以,在面对现有技术中的问题时,发明人通过创造性研究,为了得到更准确的视野分界线,进而更好的实现多摄像头视频监控对运动目标的跟踪,就需要多个摄像头的图片帧中相互匹配的特征点更准确,而想要特征点匹配得更准确,就需要用于匹配的特征点更准确,进而,就需要降低各特征点之间的相似度。因此,发明人提出本申请的方案:获取第一目标图像和第二目标图像;第一目标图像和第二目标图像为第一监控视频和第二监控视频在同一时间的视频帧;第一监控视频和第二监控视频存在重叠视域;采用尺度不变特征转换算法分别提取第一目标图像的第一特征极值点组和第二目标图像的第二特征极值点组;第一特征极值点组包括M个第一特征极值点,第二特征极值点组包括N个第二特征极值点,M和N均为自然数;根据第一特征极值点组和第二特征极值点组确定第一目标图像和第二目标图像的重叠视域;采用哈里斯角点检测算法分别提取第一目标图像在重叠视域的第一特征角点组和第二目标图像在重叠视域的第二特征角点组;第一特征角点组包括P个第一特征角点,第二特征角点组包括Q个第二特征角点,P和Q均为自然数;根据第一特征角点组和第二特征角点组从第一特征极值点组和第二特征极值点组中确定第一目标图像和第二目标图像的K个目标特征点对;每个目标特征点对包括一个第一特征极值点和一个第二特征极值点;K为自然数,K≤P且K≤Q;根据K个目标特征点对确定第一监控视频和第二监控视频的视野分界线;第一监控视频的视野分界线为第一监控视频中第二监控视频的视野边界;第二监控视频的视野分界线为第二监控视频中第一监控视频的视野边界。由于尺度不变特征转换算法能够提取图像中不受光照、旋转、尺度变化影响的局部特征,并且能够在只有少量物体时提取出大量的特征极值点,哈里斯角点能够提取图像中有明显灰度变化的局部特征,提取出的各特征角点之间的相似度较低,因此,根据哈里斯角点提取算法提取的第一特征角点组和第二特征角点组从第一特征极值点组和第二特征极值点组中确定出的K个目标特征点对中,各第一特征极值点之间的相似性能够降低,各第二特征极值点之间的相似性能够降低,进而,各目标特征点对为同一局部特征分别在第一目标图像和第二目标图像中的特征点的准确率能够提高,进而,根据K个目标特征点对确定的第一监控视频和第二监控视频的视野分界线能够更准确。
本申请提供的视野分界线确定方法、装置、设备及存储介质,旨在解决现有技术的如上技术问题。下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面的描述涉及附图时,除非另有表示,不同附图中的相同数据表示相同或相似的要素。
下面将对本申请实施例提供的视野分界线确定方法的网络架构和应用场景进行介绍。
图1是根据本申请实施例提供的应用场景对应的网络架构图,如图1所示,本申请实施例提供的一种应用场景对应的网络架构中包括:电子设备10、第一摄像机11和第二摄像机12。
第一摄像机11和第二摄像机12存在重叠视域13。第一摄像机11所拍摄的视频为第一监控视频110,第二摄像机12所拍摄的视频为第二监控视频120,第一监控视频110和第二监控视频120为同步视频,第一监控视频110和第二监控视频120存在重叠视域13。同步视频是指起始时间相同、且由采样率相同的摄像机拍摄的视频。第一监控视频110和第二监控视频120在同一时间的视频帧分别为第一目标图像和第二目标图像。
电子设备10与能够获取第一监控视频110和第二监控视频120在同一时间的视频帧:第一目标图像和第二目标图像。
电子设备10采用尺度不变特征转换算法分别提取第一目标图像的第一特征极值点组和第二目标图像的第二特征极值点组;第一特征极值点组包括M个第一特征极值点,第二特征极值点组包括N个第二特征极值点,M和N均为自然数;根据第一特征极值点组和第二特征极值点组确定第一目标图像和第二目标图像的重叠视域;采用哈里斯角点检测算法分别提取第一目标图像在重叠视域的第一特征角点组和第二目标图像在重叠视域的第二特征角点组;第一特征角点组包括P个第一特征角点,第二特征角点组包括Q个第二特征角点,P和Q均为自然数;根据第一特征角点组和第二特征角点组从第一特征极值点组和第二特征极值点组中确定第一目标图像和第二目标图像的K个目标特征点对;每个目标特征点对包括一个第一特征极值点和一个第二特征极值点;K为自然数,K≤P且K≤Q;根据K个目标特征点对确定第一监控视频和第二监控视频的视野分界线;第一监控视频的视野分界线为第一监控视频中第二监控视频的视野边界;第二监控视频的视野分界线为第二监控视频中第一监控视频的视野边界。
下面将结合附图,对本申请的实施例进行描述。以下实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
实施例一
图2是根据本申请实施例一提供的视野分界线确定方法的流程示意图,如图2所示,本申请的执行主体为视野分界线确定装置,该视野分界线确定装置位于电子设备中。本实施例提供的视野分界线确定方法包括步骤201至步骤206。
步骤201,获取第一目标图像和第二目标图像;第一目标图像和第二目标图像为第一监控视频和第二监控视频在同一时间的视频帧;第一监控视频和第二监控视频存在重叠视域。
本实施例中,重叠视域是指相邻两个摄像机,在视野上重叠的区域。也就是说,重叠视域是能够被两个摄像机都拍摄到的区域。重叠视域只是摄像机之间的相对位置有关,两个位置不变的摄像机,其重叠视域也是不变的。
本实施例中,电子设备可以直接与拍摄第一监控视频的第一摄像机,以及拍摄第二监控视频的第二摄像机通信连接,以获取第一监控视频和第二监控视频,并可以对第一监控视频和第二监控视频进行分帧处理,以获得第一目标图像和第二目标图像。或者,电子设备中也可以包括预先存储有第一目标图像和第二目标图像的存储器,在需要执行本申请的方法时,直接从其存储器中获取第一目标图像和第二目标图像。或者,电子设备也可以直接接收其它设备,例如摄像机,发送的第一目标图像和第二目标图像。
步骤202,采用尺度不变特征转换算法分别提取第一目标图像的第一特征极值点组和第二目标图像的第二特征极值点组;第一特征极值点组包括M个第一特征极值点,第二特征极值点组包括N个第二特征极值点,M和N均为自然数。
本实施例中,尺度不变特征转换算法简称SIFT算法。SIFT算法可以通过尺度空间极值检测、关键点定位、方向确定和关键点描述四个步骤,在第一目标图像的空间尺度中确定出特征极值点,并提取特征极值点的位置信息、尺度信息和方向信息,以获得第一目标图像的第一特征极值点组中的M个特征极值点。
本实施例中,提取第二特征极值点组的方法与提取第一特征极值点组的方法相同。
步骤203,根据第一特征极值点组和第二特征极值点组确定第一目标图像和第二目标图像的重叠视域。
本实施例中,第一目标图像的重叠视域是指第一目标图像中同时存在于第二目标图像中的区域。第二目标图像的重叠视域是指第二目标图像中同时存在于第一目标图像中的区域。本实施例中,可以将第一特征极值点组中所有第一特征极值点所围合的区域确定为第一目标图像的重叠视域,并可以将第二特征极值点组中所有第二特征极值点所围合的区域确定为第二目标图像的重叠视域。
步骤204,采用哈里斯角点检测算法分别提取第一目标图像在重叠视域的第一特征角点组和第二目标图像在重叠视域的第二特征角点组;第一特征角点组包括P个第一特征角点,第二特征角点组包括Q个第二特征角点,P和Q均为自然数。
本实施例中,哈里斯角点检测算法简称Harris算法。Harris算法可以通过一个预设大小的,以点(x,y)为中心的窗口加权函数w(x,y)对第一目标图像I(x,y)进行积分,随着窗口w(x,y)的移动,根据窗口内像素灰度积分E(u,v)的变化值来判断像素点是否为角点。这是由于,在灰度变化平缓区域flat中,窗口w(x,y)向任何方向移动,灰度积分都会保持不变;在图像边缘区域edge,窗口w(x,y)沿着边缘移动时,灰度积分近似不变,沿着除边缘外的其它方向移动时,灰度积分变化剧烈;在角点orner处,窗口w(x,y)向任何方向移动,灰度积分都会剧烈变化。其中,灰度积分可以为
Figure 170553DEST_PATH_IMAGE001
因此,可以采用哈里斯交点检测算法提取第一目标图像在重叠视域的P个第一特征角点作为第一特征角点组;并提取第二目标图像在重叠视域的Q个第二特征角点作为第二特征角点组。
步骤205,根据第一特征角点组和第二特征角点组从第一特征极值点组和第二特征极值点组中确定第一目标图像和第二目标图像的K个目标特征点对;每个目标特征点对包括一个第一特征极值点和一个第二特征极值点;K为自然数,K≤P且K≤Q。
本实施例中,可以将第一特征极值点组中,与第一特征角点组中各特征角点的位置信息最接近的各特征极值点确定为目标特征点对中的各第一特征极值点。并且,可以将第二特征极值点组中,与第二特征角点组中各特征角点的位置信息最接近的各特征极值点确定为目标特征点对中的各第二特征极值点。其中,第一特征极值点的位置信息可以为第一特征极值点在第一目标图像中的坐标点,第一特征角点的位置信息可以为第一特征角点在第一目标图像中的坐标点,并且,可以将与第一特征角点的横坐标和纵坐标的差异最小的第一特征极值点确定为与第一特征角点最接近的第一特征极值点。
本实施例中,可以根据以各特征极值点为中心,确定各特征极值点周围n个的像素灰度值,并根据各第一特征极值点周围n个像素的灰度值,以及各第二特征极值点周围n个像素的灰度值,将周围n个像素灰度值差异最小的第一特征极值点和第二特征极值点确定为一个目标特征点对。其中,n为预设值,第一特征极值点周围n个像素的灰度值可以包括第一特征极值点自身的灰度值。示例性地,第一特征极值点周围3个像素的灰度值可以分别为第一特征极值点的左方第一个像素、上方第一个像素和右方第一个像素的灰度值;也可以为第一特征极值点的左方第一个像素,第一特征极值点本身,右方第一个像素的灰度值。
步骤206,根据K个目标特征点对确定第一监控视频和第二监控视频的视野分界线;第一监控视频的视野分界线为第一监控视频中第二监控视频的视野边界;第二监控视频的视野分界线为第二监控视频中第一监控视频的视野边界。
本实施例中,在K个目标特征点对中,任意3个第一特征极值点不共线且任意3个第二特征极值点不共线的5个目标特征点对:P1 (1)、P1 (2),P2 (1)、P2 (2),P3 (1)、P3 (2),P4 (1)、P4 (2),以及P5 (1)、P5 (2),存在以下投影不变量关系:
Figure 31062DEST_PATH_IMAGE002
Figure 964383DEST_PATH_IMAGE003
其中,
Figure 226737DEST_PATH_IMAGE004
,{a,b,c}∈{1,2,3,4,5},i∈{1,2},(xa 1,ya 1,1)是点Pa (1)在第一目标图像上的坐标,(xa 2,ya 2,1)是点Pa (2)在第二目标图像上的坐标。P1 (1)、P2 (1)、P3 (1)、P4 (1)和P5 (1)为第一目标图像的第一特征极值点,P1 (2)、P2 (2)、P3 (2)、P4 (2)和P5 (2)为第二目标图像的第二特征极值点。
因此,第一目标图像和第二目标图像之间的投影不变量为I1和I2
本实施例中,可以在K个目标特征点对中,任意挑选4对任意三点不共线的目标特征点对,建立这4对目标特征点对之间的投影关系,以获得第一目标图像和第二目标图像之间的投影关系。进而可以通过第一目标图像和第二目标图像之间的投影关系计算出第一目标图像视野边界上的两个点在第二目标图像上的两个投影点,并可以将这两个投影点进行连线,以获得第二目标图像的视野分界线,也就是第二监控视频中第一监控视频的视野边界。第一目标图像的视野分界线可以采用相同的方法获得。
本实施例提供的视野分界线确定方法,通过获取第一目标图像和第二目标图像;第一目标图像和第二目标图像为第一监控视频和第二监控视频在同一时间的视频帧;第一监控视频和第二监控视频存在重叠视域;采用尺度不变特征转换算法分别提取第一目标图像的第一特征极值点组和第二目标图像的第二特征极值点组;第一特征极值点组包括M个第一特征极值点,第二特征极值点组包括N个第二特征极值点,M和N均为自然数;根据第一特征极值点组和第二特征极值点组确定第一目标图像和第二目标图像的重叠视域;采用哈里斯角点检测算法分别提取第一目标图像在重叠视域的第一特征角点组和第二目标图像在重叠视域的第二特征角点组;第一特征角点组包括P个第一特征角点,第二特征角点组包括Q个第二特征角点,P和Q均为自然数;根据第一特征角点组和第二特征角点组从第一特征极值点组和第二特征极值点组中确定第一目标图像和第二目标图像的K个目标特征点对;每个目标特征点对包括一个第一特征极值点和一个第二特征极值点;K为自然数,K≤P且K≤Q;根据K个目标特征点对确定第一监控视频和第二监控视频的视野分界线;第一监控视频的视野分界线为第一监控视频中第二监控视频的视野边界;第二监控视频的视野分界线为第二监控视频中第一监控视频的视野边界;由于尺度不变特征转换算法能够提取图像中不受光照、旋转、尺度变化影响的局部特征,并且能够在只有少量物体时提取出大量的特征极值点,哈里斯角点能够提取图像中有明显灰度变化的局部特征,提取出的各特征角点之间的相似度较低,因此,根据哈里斯角点提取算法提取的第一特征角点组和第二特征角点组从第一特征极值点组和第二特征极值点组中确定出的K个目标特征点对中,各第一特征极值点之间的相似性能够降低,各第二特征极值点之间的相似性能够降低,进而,各目标特征点对为同一局部特征分别在第一目标图像和第二目标图像中的特征点的准确率能够提高,进而,根据K个目标特征点对确定的第一监控视频和第二监控视频的视野分界线能够更准确。
作为一种可选的实施方式,在实施例一的基础上,特征极值点包括位置信息、尺度信息和方向信息,并对步骤201,根据第一特征极值点组和第二特征极值点组确定第一目标图像和第二目标图像的重叠视域,进行细化,则步骤201细化包括步骤2011值步骤2013。
步骤2011,根据第一特征极值点组中各第一特征极值点的位置信息、尺度信息和方向信息生成各第一特征极值点的描述子向量,并根据第二特征极值点组中各第二特征极值点的位置信息、尺度信息和方向信息生成各第二特征极值点的描述子向量。
本实施例中,SIFT算法提取的特征极值点包括位置信息、尺度信息和方向信息。位置信息可以为特征极值点在目标图像中的坐标,尺度信息可以为获取到该特征极值点的尺度空间的尺度,方向信息可以为该特征点的方向直方图的峰值方向。
本实施例中,特征极值点的描述子向量是特征极值点邻域高斯图像中梯度分布情况的一种表示。通过对特征极值点周围图像区域分块,计算各区域块内梯度直方图,生成具有独特性的描述子向量,描述子向量是该区域图像信息的一种抽象,具有唯一性。特征极值点的描述子向量与特征极值点所在的尺度有关,因此,可以通过在特征极值点的尺度信息对应的高斯图像上求取梯度来获取特征极值点的描述子向量。示例性地,可以将特征极值点领域划分为d×d个子区域,并将d×d个子区域中像素的梯度信息确定为特征极值点的描述子向量。示例性地,d可以为4。
步骤2012,根据各第一特征极值点的描述子向量和各第二特征极值点的描述子向量将各第一特征极值点和各第二特征极值点进行匹配,以确定第一目标图像和第二目标图像的特征匹配点组。
本实施例中,特征匹配点组中包括多对匹配的特征点,一对匹配的特征点中包括一个第一特征极值点和一个第二特征极值点。针对每一个第一特征极值点,可以依次计算该第一特征极值点的描述子向量与各未匹配的第二特征极值点的描述子向量的距离,并将描述子向量之间距离最短的第二特征极值点确定为与该第一特征极值点匹配的第二特征极值点,以确定各特征匹配点组。本实施例中,描述子向量之间的距离可以是欧式距离、汉明距离等。
步骤2013,将第一目标图像和第二目标图像中特征匹配点组所在的区域确定为重叠视域。
本实施例中,第一目标图像中特征匹配点组所在的区域可以通过以下方法确定。根据各特征极值点的位置信息,从特征匹配点组中各第一特征极值点挑选出横坐标值和纵坐标值分别为最大或最小的至少四个点,并将这四个点在水平方向和垂直方向上的直线所围成的矩形区域确定为第一目标图像的重叠区域。第二目标图像的重叠区域可以通过相同的方法确定。
本实施例提供的视野分界线确定方法,通过根据第一特征极值点组中各第一特征极值点的位置信息、尺度信息和方向信息生成各第一特征极值点的描述子向量,并根据第二特征极值点组中各第二特征极值点的位置信息、尺度信息和方向信息生成各第二特征极值点的描述子向量;根据各第一特征极值点的描述子向量和各第二特征极值点的描述子向量将各第一特征极值点和各第二特征极值点进行匹配,以确定第一目标图像和第二目标图像的特征匹配点组;将第一目标图像和第二目标图像中特征匹配点组所在的区域确定为重叠视域,由于通过第一特征极值点的描述子向量和第二特征极值点的描述子向量将第一特征极值点和第二特征极值点进行匹配,确定出特征匹配点组,并将特征匹配点组所在的区域确定为重叠视域,因此,能够确定出完整的重叠视域,减少后续采用哈里斯角点检测算法需要检测的区域,以更快的确定出视野分界线。
实施例二
图3是根据本申请实施例二提供的视野分界线确定方法的流程示意图,如图3所示,本实施例提供的视野分界线确定方法,在上述任意一个实施例的基础上,特征极值点包括位置信息,特征角点包括位置信息,并对步骤205,根据第一特征角点组和第二特征角点组从第一特征极值点组和第二特征极值点组中确定第一目标图像和第二目标图像的K个目标特征点对,进行细化,则步骤205细化包括步骤301值步骤303。
步骤301,根据第一特征角点组中各第一特征角点的位置信息和第一特征极值点组中各第一特征极值点的位置信息,从第一特征极值点组中确定第一候选特征点组;第一候选特征点组包括I个第一候选特征点,I为自然数且I≤M。
本实施例中,可以根据位置信息计算各第一特征极值点与各第一特征角点之间的距离,示例性地,第一特征极值点的位置信息为第一目标图像上的坐标(x1,y1),第一特征角点的位置信息为第一目标图像上的坐标(x1′,y1′),则各第一特征极值点与各第一特征角点之间的距离
Figure 688942DEST_PATH_IMAGE005
。可以将距离各第一特征角点最近的一个第一特征极值点确定为第一候选特征点。遍历各第一特征角点,确定出距离各第一特征角点最近的第一特征极值点,以确定出第一候选特征点组。
步骤302,根据第二特征角点组中各第二特征角点的位置信息和第二特征极值点组中各第二特征极值点的位置信息,从第二特征极值点组中确定第二候选特征点组;第二候选特征点组包括J个第二候选特征点,J为自然数且J≤N。
本实施例中,可以采用与步骤301中相同的方法确定第二候选特征点组。计算各第二特征极值点与各第二特征角点之间的距离,再将距离各第二特征角点最近的一个第二特征极值点确定为第二候选特征点。遍历各第二特征角点,确定出距离各第二特征角点最近的第二特征极值点,以确定出第二候选特征点组。
步骤303,根据第一候选特征点组和第二候选特征点组确定K个目标特征点对,K≤I,K≤J。
本实施例中,可以根据各第一候选特征点和各第二候选特征点的位置信息将各第一候选特征点和各第二候选特征点进行匹配,以确定出K各目标特征点对。本实施例中,将各第一候选特征点和各第二候选特征点进行匹配的方法可以与步骤2012中的方法相同,也可以为其他方法,本实施例对此不做限定。
本实施例提供的视野分界线确定方法,通过根据第一特征角点组中各第一特征角点的位置信息和第一特征极值点组中各第一特征极值点的位置信息,从第一特征极值点组中确定第一候选特征点组;第一候选特征点组包括I个第一候选特征点,I为自然数且I≤M;根据第二特征角点组中各第二特征角点的位置信息和第二特征极值点组中各第二特征极值点的位置信息,从第二特征极值点组中确定第二候选特征点组;第二候选特征点组包括J个第二候选特征点,J为自然数且J≤N;根据第一候选特征点组和第二候选特征点组确定K个目标特征点对,K≤I,K≤J;由于通过特征角点的位置信息从特征极值点组中确定候选特征点,而哈里斯算法提取在提取特征角点时会采用非极大值抑制,使得各特征角点之间的差异性较大,因此,能够通过特征角点的位置信息对特征极值点进行筛选,从特征极值点中挑选出差异性更大的点作为候选特征点。
作为一种可选的实施方式,在实施例二的基础上,对步骤301中“根据第一特征角点组中各第一特征角点的位置信息和第一特征极值点组中各第一特征极值点的位置信息,从第一特征极值点组中确定第一候选特征点组”,进行细化,则步骤301细化包括以下步骤。
针对第一特征极值点组中每个第一特征极值点,执行以下操作:
步骤3011,确定第一特征角点组中是否存在与第一特征极值点的位置信息相同的第一特征角点;
步骤3012,若确定存在与第一特征极值点的位置信息相同的第一特征角点,则将第一特征极值点确定为第一候选特征点组中的第一候选特征点。
本实施例中,确定第一特征角点组中是否存在与第一特征极值点的位置信息相同的第一特征角点,也就是确定第一特征极值点的位置信息对应的位置是否也被检测到特征角点。若确定存在与第一极值点的位置信息相同的第一特征角点,则说明第一目标图像在该位置信息对应的位置处既被检测为特征极值点,也被检测为特征角点。因此,若确定存在与第一特征极值点的位置信息相同的第一特征角点,则可以将该第一特征极值点确定为第一候选特征点组中的第一候选特征点。遍历第一特征极值点组中所有的第一特征极值点,以确定出第一候选特征点组。
本实施例中,可以通过位置信息将被SIFT算法检测到但未被Harris角点检测算法检测到的第一特征极值点进行剔除,仅保留既被SIFT算法检测到又被Harris角点检测算法检测到的特征点,以降低各特征点之间的相似度,提高特征点匹配效率、降低误匹配精度,进而可以确定出更准确的视野分界线。
本实施例提供的视野分界线确定方法,通过针对第一特征极值点组中每个第一特征极值点,执行以下操作:确定第一特征角点组中是否存在与第一特征极值点的位置信息相同的第一特征角点;若确定存在与第一特征极值点的位置信息相同的第一特征角点,则将第一特征极值点确定为第一候选特征点组中的第一候选特征点;由于将与特征角点的位置信息相同的特征极值点确定为候选特征点,因此,能够通过特征角点之间的差异性将相似性高的特征极值点提出,进而确定出差异性更大的候选特征点,以在后续过程中提高匹配效率,确定出更准确的视野分界线。
作为一种可选的实施方式,在上述任意一个实施例的基础上,对步骤302中“根据第二特征角点组中各第二特征角点的位置信息和第二特征极值点组中各第二特征极值点的位置信息,从第二特征极值点组中确定第二候选特征点组”,进行细化,则步骤302细化包括以下步骤。
针对第二特征极值点组中每个第二特征极值点,执行以下操作:
步骤3021,确定第二特征角点组中是否存在与第二特征极值点的位置信息相同的第二特征角点;
步骤3022,若确定存在与第二特征极值点的位置信息相同的第二特征角点,则将第二特征极值点确定为第二候选特征点组中的第二候选特征点。
本实施例中,可以采用与确定第一候选特征点组相同的方法确定第二候选特征点组,并且,该方法的有益效果也与确定第一候选特征点组的有益效果相同,在此不做赘述。
作为一种可选的实施方式,在上述任意一个实施例的基础上,在步骤3012之后,还包括:将第一特征角点组中与第一特征极值点组中各第一特征极值点的位置信息均不同的第一特征角点确定为第一候选特征点组中的第一候选特征点。在步骤3022之后,还包括,将第二特征角点组中与第二特征极值点组中各第二特征极值点的位置信息均不同的第二特征角点确定为第二候选特征点组中的第二候选特征点。则在步骤205中,每个目标特征点对包括一个第一特征极值点和一个第二特征极值点,或者包括一个第一特征角点和一个第二特征角点。
这里,由于SIFT算法无法检测到光滑边缘的特征,而Harris角点检测算法能够实现光滑边缘特征点的提取,提取的特征角点中有代表目标图像中光滑边缘的局部特征,因此,将SIFT算法未检测到,但Harris角点检测算法检测到的局部特征:第一特征角点组中与第一特征极值点组中各第一特征极值点的位置信息不同的第一特征角点,确定为第一候选特征点组中的第一候选特征点,能够进一步提高特征点匹配效率,进而为生成视野分界线提供更多的目标特征点对的选择。
实施例三
图4是根据本申请实施例三提供的视野分界线确定方法的流程示意图,如图4所示,本实施例提供的视野分界线确定方法,在上述任意一个实施例的基础上,特征极值点还包括尺度信息和方向信息,并对步骤303,根据第一候选特征点组和第二候选特征点组确定K个目标特征点对,进行细化,则步骤303细化包括步骤401至步骤403。
步骤401,根据第一候选特征点组中各第一候选特征点的位置信息、尺度信息和方向信息生成各第一候选特征点的描述子向量。
步骤402,根据第二候选特征点组中各第二候选特征点的位置信息、尺度信息和方向信息生成各第二候选特征点的描述子向量。
本实施例中,可以采用与步骤2011中相同的方法生成第一候选特征点的描述子向量以及第二候选特征点的描述子向量。
步骤403,依次确定各第一候选特征点的描述子向量与各第二候选特征值极值点的描述子向量是否能够相互匹配,并将能够相互匹配的第一候选特征点和第二候选特征点确定为一个目标特征点对,以确定出K个目标特征点对。
本实施例中,可以计算各第一候选特征点的描述子向量与各第二候选特征值极值点的描述子向量之间的距离,并取距离最近的一个第二候选特征点作为各第一候选特征点的匹配点。同时,计算各第二候选特征值极值点的描述子向量与各第一候选特征点的描述子向量之间的距离,并取距离最近的一个第一候选特征点作为各第二候选特征点的匹配点。若第一候选特征点A的匹配点为第二候选特征点B,且第二候选特征点B的匹配点为第一候选特征点A,则确定第一候选特征点A和第二候选特征点B相互匹配,并将第一候选特征点A和第二候选特征点B确定为一个目标特征点对。
本实施例提供的视野分界线确定方法,通过根据第一候选特征点组中各第一候选特征点的位置信息、尺度信息和方向信息生成各第一候选特征点的描述子向量;根据第二候选特征点组中各第二候选特征点的位置信息、尺度信息和方向信息生成各第二候选特征点的描述子向量;依次确定各第一候选特征点的描述子向量与各第二候选特征值极值点的描述子向量是否能够相互匹配,并将能够相互匹配的第一候选特征点和第二候选特征点确定为一个目标特征点对,以确定出K个目标特征点对;由于描述子向量中携带了候选特征点的位置信息、尺度信息和方向信息,因此,通过描述子向量将候选特征点进行匹配能够准确的找到第一目标图像和第二目标图像中的局部特征对应的第一候选特征点和第二候选特征点,进行确定出准确的目标特征点对。
作为一种可选的实施方式,在实施例三的基础上,对步骤403,依次确定各第一候选特征点的描述子向量与各第二候选特征点的描述子向量是否能够相互匹配,进行细化,则步骤403细化包括步骤4031至步骤4033。
步骤4031,针对每一个第一候选特征点,执行以下操作:计算第一候选特征点的描述子向量与各第二候选特征点的描述子向量之间的距离;将描述子向量与第一候选特征点的描述子向量距离最近的第二候选特征点确定为第一候选特征点的匹配点。
本实施例中,描述子向量之间的距离可以为汉明距离。汉明距离可以通过以下步骤获得:将第一候选特征点的描述子向量和第二候选特征点的描述子向量执行逻辑异或操作,并确定异或操作的结果中1的数量,将1的数量确定为两个描述子向量之间的汉明距离。汉明距离的值越大,则异或结果中1的数量越多,两个描述子向量之间的距离越近;汉明距离的值越小,则异或结果中1的数量越少,两个描述子向量之间的距离越远。
本实施例中,可以将汉明距离的值最大的第二候选特征点确定为第一候选特征点的匹配点。
步骤4032,针对每一个第二候选特征点,执行以下操作:计算第二候选特征点的描述子向量与各第一候选特征点的描述子向量之间的距离;将描述子向量与第二候选特征点的描述子向量距离最近的第一候选特征点确定为第二候选特征点的匹配点。
本实施例中,可以通过与步骤4031相同的方法确定出第二候选特征点的匹配点,在此不做赘述。
步骤4033,若第一候选特征点与第二候选特征点相互为匹配点,则确定第一候选特征点与第二候选特征点能够相互匹配。
本实施例中,如果一个第一候选特征点为第二候选特征点的匹配点,且这个第二候选特征点为第一候选特征点的匹配点,则可以确定这两个第一候选特征点和第二候选特征点相互匹配。通过相互为匹配的方法确定两个候选特征点能够相互匹配,可以剔除匹配错误的候选特征点,降低误匹配率,获得更准确的目标特征点对。
本实施例提供的视野分界线确定方法,通过针对每一个第一候选特征点,执行以下操作:计算第一候选特征点的描述子向量与各第二候选特征点的描述子向量之间的距离;将描述子向量与第一候选特征点的描述子向量距离最近的第二候选特征点确定为第一候选特征点的匹配点;针对每一个第二候选特征点,执行以下操作:计算第二候选特征点的描述子向量与各第一候选特征点的描述子向量之间的距离;将描述子向量与第二候选特征点的描述子向量距离最近的第一候选特征点确定为第二候选特征点的匹配点;若第一候选特征点与第二候选特征点相互为匹配点,则确定第一候选特征点与第二候选特征点能够相互匹配;由于将相互为匹配点的第一候选特征点和第二候选特征点确定为能够相互匹配,降低了候选特征点之间的错误匹配,提高了目标特征点对的准确性,进而能够确定出更准确的视野分界线。
实施例四
图5是根据本申请实施例四提供的视野分界线确定方法的流程示意图,如图5所示,本实施例提供的视野分界线确定方法,在上述任意一个实施例的基础上,步骤206之后,还包括步骤501至步骤503。
步骤501,根据视野分界线生成运动目标的可见性判别函数;可见性判别函数用于判断运动目标在第一监控视频或第二监控视频中是否可见。
本实施例中,第一监控视频的视野分界线为第一监控视频中第二监控视频的视野边界,若在步骤206生成的第一监控视频的视野分界线为Ax+By+C=0,第二监控视频中,运动目标的中心位置为P(x2,y2),则运动目标在第一监控视频中的可见性判别函数定义为Q(x2,y2)=Ax2+By2+C,Q>0时,运动目标在第一监控视频中可见,Q=0时,运动目标在视野分界线上,Q<0时,运动目标在第一监控视频中不可见。
步骤502,获取第一监控视频和第二监控视频,并采用三帧差分法获取第一监控视频中的第一运动目标位置和第二监控视频中的第二运动目标位置。
本实施例中,电子设备可以获取第一监控视频和第二监控视频,并可以将第一监控视频和第二监控视频转换为视频帧。
本实施例中,可以采用前景检测vibe算法对构建第一监控视频和第二监控视频的背景模型,以提取出各视频帧中的前景图像,可以理解的是,视频帧中的前景图像即为运动目标在各视频帧中的轮廓。示例性地,对于视频帧中的一个像素点(x,y),vibe算法在其相邻的8个像素点中随机选择某一个像素点的值作为其背景模型样本值,同时也随机的更新其相邻像素点的背景模型样本值。然后将另一视频帧在像素点(x,y)处的像素值与背景模型样本值中的像素值进行比较,若确定另一视频帧在像素点(x,y)处的像素值与背景模型样本值中的像素值的距离大于预设距离值,则像素点(x,y)确定为前景像素点,反之,则确定为背景像素点。并且,vibe算法可以随时视频帧序列更新背景模型样本值。示例性地,对于一个像素点,它的样本集可以由它现在的像素值进行替换。
由于vibe算法采用视频序列的第一帧图像进行背景模型初始化,当视频的第一帧图像含有待检测的目标时,运动目标会被加入到背景模型样本集中,从而导致背景模型中的数值与采样得到的样本集中的数值不相等,造成背景点被判断为前景运动目标,从而产生了重影区域。因此,本实施例中,对vibe算法提取出的各帧前景图像中在视频序列上相邻的三帧前景图像行以下处理。
将三帧前景图像进行灰度化处理,并将在视频序列上相邻的两帧前景图像做图像差分运算,得到相邻两帧前景图像的差分图像。相邻三帧前景图像能够得到两个差分图像,将相邻三帧前景图像的两个差分图像进行图像二值化处理,并将二值化处理后的两个差分图像做逻辑与运算,获得一个二值图像。这个二值图像为相邻三帧前景图像的中间一帧前景图像对应的二值图像,为运动目标在间一帧前景图像对应的视频帧中的完整轮廓。
通过上述三帧差分的方法,能够将区分完整的前景目标和背景,完整检测得到运动目标的轮廓。进而,可以采用均值漂移meanshift算法对各视频帧中运动目标的完整轮廓进行检测,以确定第一监控视频的各视频帧中运动目标的位置,并将第一监控视频中运动目标的位置确定为第一监控视频中的第一运动目标位置。
本实施例中,第二监控视频中的第二运动目标位置可以也采用上述方法确定,在此不做赘述。
步骤503,采用可见性判别函数分别根据第一运动目标位置确定第一运动目标在第一监控视频中是否可见,以及根据第二运动目标位置确定第二运动目标在第二监控视频中是否可见;以确定第一运动目标与第二运动目标是否为同一运动目标。
本实施例中,可以通过可见性判别函数对运动目标在视野范围以及视野分界线的情况进行确认,以确定第一运动目标和第二运动目标是否为同一运动目标,若确定第一运动目标和第二运动目标为同一运动目标,则可以对第一运动目标或第二运动目标进行标识,以完成运动目标在第一监控视频和第二监控视频之间的交接。
本实施例中,对于第一监控视频中的连续三帧图像:H1、H2和H3。以及第二监控视频中与H1、H2和H3同步的连续三帧图像:G1、G2和G3。若通过可见性判别函数,若确定出第一监控视频中的第一运动目标在H1和H3中可见,在H2中处于第一监控视频的视野分界线上;第二运动目标在G1中不可见,在G2中处于视野边缘,在G3中可见,则可以确定第一运动目标与第二运动目标为同一运动目标。本实施例中对采用可见性判别函数确定第一运动目标和第二运动目标是否为同一运动目标的方法不做限定,除上述方法之前,还可以通过其它方法确定第一运动目标和第二运动目标是否为同一运动目标。
本实施例提供的视野分界线确定方法,通过根据视野分界线生成运动目标的可见性判别函数;可见性判别函数用于判断运动目标在第一监控视频或第二监控视频中是否可见;获取第一监控视频和第二监控视频,并采用三帧差分法获取第一监控视频中的第一运动目标位置和第二监控视频中的第二运动目标位置;采用可见性判别函数分别根据第一运动目标位置确定第一运动目标在第一监控视频中是否可见,以及根据第二运动目标位置确定第二运动目标在第二监控视频中是否可见;以确定第一运动目标与第二运动目标是否为同一运动目标;由于视野分界线为一个监控视频的视野边界在另一监控视频中的体现,因此,可以根据运动目标出现在视野分界线、以及各监控视频中的情况确定存在重叠视域的两个监控视频中的运动目标是否为同一运动目标,进而实现运动目标的连续跟踪。
实施例五
图6是根据本申请实施例五提供的视野分界线确定装置的结构示意图,如图6所示,本实施例提供的视野分界线确定装置60包括:获取模块61、第一提取模块62、第一确定模块63、第二提取模块64、第二确定模块65,第三确定模块66。
获取模块61用于,获取第一目标图像和第二目标图像;第一目标图像和第二目标图像为第一监控视频和第二监控视频在同一时间的视频帧;第一监控视频和第二监控视频存在重叠视域。
第一提取模块62用于,采用尺度不变特征转换算法分别提取第一目标图像的第一特征极值点组和第二目标图像的第二特征极值点组;第一特征极值点组包括M个第一特征极值点,第二特征极值点组包括N个第二特征极值点,M和N均为自然数。
第一确定模块63用于,根据第一特征极值点组和第二特征极值点组确定第一目标图像和第二目标图像的重叠视域。
第二提取模块64用于,采用哈里斯角点检测算法分别提取第一目标图像在重叠视域的第一特征角点组和第二目标图像在重叠视域的第二特征角点组;第一特征角点组包括P个第一特征角点,第二特征角点组包括Q个第二特征角点,P和Q均为自然数。
第二确定模块65用于,根据第一特征角点组和第二特征角点组从第一特征极值点组和第二特征极值点组中确定第一目标图像和第二目标图像的K个目标特征点对;每个目标特征点对包括一个第一特征极值点和一个第二特征极值点;K为自然数,K≤P且K≤Q。
第三确定模块66用于,根据K个目标特征点对确定第一监控视频和第二监控视频的视野分界线;第一监控视频的视野分界线为第一监控视频中第二监控视频的视野边界;第二监控视频的视野分界线为第二监控视频中第一监控视频的视野边界。
本实施例提供的视野分界线确定装置可以执行上述实施例一提供的视野分界线确定方法,具体的实现方式与原理类似,此处不再赘述。
作为一种可选的实施方式,在实施例五的基础上,特征极值点包括位置信息、尺度信息和方向信息,获取模块61在用于,根据第一特征极值点组和第二特征极值点组确定第一目标图像和第二目标图像的重叠视域时,具体用于,根据第一特征极值点组中各第一特征极值点的位置信息、尺度信息和方向信息生成各第一特征极值点的描述子向量,并根据第二特征极值点组中各第二特征极值点的位置信息、尺度信息和方向信息生成各第二特征极值点的描述子向量,根据各第一特征极值点的描述子向量和各第二特征极值点的描述子向量将各第一特征极值点和各第二特征极值点进行匹配,以确定第一目标图像和第二目标图像的特征匹配点组;将第一目标图像和第二目标图像中特征匹配点组所在的区域确定为重叠视域。
作为一种可选的实施方式,在上述任意一个实施例的基础上,第二确定模块65在用于,根据第一特征角点组和第二特征角点组从第一特征极值点组和第二特征极值点组中确定第一目标图像和第二目标图像的K个目标特征点对时,具体用于,根据第一特征角点组中各第一特征角点的位置信息和第一特征极值点组中各第一特征极值点的位置信息,从第一特征极值点组中确定第一候选特征点组;第一候选特征点组包括I个第一候选特征点,I为自然数且I≤M;根据第二特征角点组中各第二特征角点的位置信息和第二特征极值点组中各第二特征极值点的位置信息,从第二特征极值点组中确定第二候选特征点组;第二候选特征点组包括J个第二候选特征点,J为自然数且J≤N;根据第一候选特征点组和第二候选特征点组确定K个目标特征点对,K≤I,K≤J。
作为一种可选的实施方式,第二确定模块65在用于,根据第一特征角点组中各第一特征角点的位置信息和第一特征极值点组中各第一特征极值点的位置信息,从第一特征极值点组中确定第一候选特征点组时,具体用于,针对第一特征极值点组中每个第一特征极值点,执行以下操作:确定第一特征角点组中是否存在与第一特征极值点的位置信息相同的第一特征角点;若确定存在与第一特征极值点的位置信息相同的第一特征角点,则将第一特征极值点确定为第一候选特征点组中的第一候选特征点。
作为一种可选的实施方式,在上述任意一个实施例的基础上,第二确定模块65在用于,根据第一特征角点组中各第一特征角点的位置信息和第一特征极值点组中各第一特征极值点的位置信息,从第一特征极值点组中确定第一候选特征点组时,具体用于,针对第二特征极值点组中每个第二特征极值点,执行以下操作:确定第二特征角点组中是否存在与第二特征极值点的位置信息相同的第二特征角点;若确定存在与第二特征极值点的位置信息相同的第二特征角点,则将第二特征极值点确定为第二候选特征点组中的第二候选特征点。
作为一种可选的实施方式,在上述任意一个实施例的基础上,特征极值点还包括尺度信息和方向信息,第二确定模块65在用于,根据第一候选特征点组和第二候选特征点组确定K个目标特征点对时,具体用于,根据第一候选特征点组中各第一候选特征点的位置信息、尺度信息和方向信息生成各第一候选特征点的描述子向量;根据第二候选特征点组中各第二候选特征点的位置信息、尺度信息和方向信息生成各第二候选特征点的描述子向量;依次确定各第一候选特征点的描述子向量与各第二候选特征值极值点的描述子向量是否能够相互匹配,并将能够相互匹配的第一候选特征点和第二候选特征点确定为一个目标特征点对,以确定出K个目标特征点对。
作为一种可选的实施方式,在上述任意一个实施例的基础上,第二确定模块65在用于,依次确定各第一候选特征点的描述子向量与各第二候选特征点的描述子向量是否能够相互匹配时,具体用于,针对每一个第一候选特征点,执行以下操作:计算第一候选特征点的描述子向量与各第二候选特征点的描述子向量之间的距离;将描述子向量与第一候选特征点的描述子向量距离最近的第二候选特征点确定为第一候选特征点的匹配点;针对每一个第二候选特征点,执行以下操作:计算第二候选特征点的描述子向量与各第一候选特征点的描述子向量之间的距离;将描述子向量与第二候选特征点的描述子向量距离最近的第一候选特征点确定为第二候选特征点的匹配点;若第一候选特征点与第二候选特征点相互为匹配点,则确定第一候选特征点与第二候选特征点能够相互匹配。
作为一种可选的实施方式,在上述任意一个实施例的基础上,视野分界线确定装置60还包括第四确定模块。第四确定模块用于,根据视野分界线生成运动目标的可见性判别函数;可见性判别函数用于判断运动目标在第一监控视频或第二监控视频中是否可见;获取第一监控视频和第二监控视频,并采用三帧差分法获取第一监控视频中的第一运动目标位置和第二监控视频中的第二运动目标位置;采用可见性判别函数分别根据第一运动目标位置确定第一运动目标在第一监控视频中是否可见,以及根据第二运动目标位置确定第二运动目标在第二监控视频中是否可见;以确定第一运动目标与第二运动目标是否为同一运动目标。
本实施例提供的视野分界线确定装置可以执行上述实施例二至四中任意一个实施例提供的视野分界线确定方法,具体的实现方式与原理类似,此处不再赘述。
实施例六
图7是根据本申请实施例六提供的电子设备的结构示意图,如图7所示,本实施例提供的电子设备70包括:处理器72以及与处理器72通信连接的存储器71。
存储器71和处理器72之间可以通过总线连接。
存储器71存储计算机执行指令。
处理器72执行存储器71存储的计算机执行指令,以实现上述任意一个实施例提供的视野分界线确定方法。
在示例性实施例中,电子设备70可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述指令语音识别方法。
存储器71被配置为存储各种类型的数据以支持在电子设备70的操作,这些数据的示例包括用于在电子设备70上操作的任何应用程序或方法的指令。存储器71可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
作为一种可选的实施方式,电子设备70还包括收发器。
收发器用于收发数据。示例性地,收发器可以用于接收第一目标图像和第二目标图像;可以用于接收第一监控视频和第二监控视频。
收发器与存储器71和处理器72电路互连。存储器71、处理器72和收发器之间的电路可以通过总线连接。
处理器72执行存储器71存储的计算机执行指令,以实现上述任意一个实施例提供的视野分界线确定方法。
本申请的实施例还提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,计算机执行指令被处理器执行时用于实现如上述任意一个实施例提供的视野分界线确定方法。示例性地,计算机可读存储介质可以为只读存储器(ROM)、随机存取存储器(RAM)、磁带、软盘和光数据存储设备等。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于可选实施例,所涉及的动作和模块并不一定是本申请所必须的。
进一步需要说明的是,虽然流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求书指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求书来限制。

Claims (10)

1.一种视野分界线确定方法,其特征在于,包括:
获取第一目标图像和第二目标图像;第一目标图像和第二目标图像为第一监控视频和第二监控视频在同一时间的视频帧;第一监控视频和第二监控视频存在重叠视域;
采用尺度不变特征转换算法分别提取第一目标图像的第一特征极值点组和第二目标图像的第二特征极值点组;所述第一特征极值点组包括M个第一特征极值点,所述第二特征极值点组包括N个第二特征极值点,M和N均为自然数;
根据所述第一特征极值点组和所述第二特征极值点组确定第一目标图像和第二目标图像的重叠视域;
采用哈里斯角点检测算法分别提取第一目标图像在重叠视域的第一特征角点组和第二目标图像在重叠视域的第二特征角点组;第一特征角点组包括P个第一特征角点,第二特征角点组包括Q个第二特征角点,P和Q均为自然数;
根据所述第一特征角点组和所述第二特征角点组从所述第一特征极值点组和所述第二特征极值点组中确定第一目标图像和第二目标图像的K个目标特征点对;每个目标特征点对包括一个第一特征极值点和一个第二特征极值点;K为自然数,K≤P且K≤Q;
根据K个目标特征点对确定第一监控视频和第二监控视频的视野分界线;第一监控视频的视野分界线为第一监控视频中第二监控视频的视野边界;第二监控视频的视野分界线为第二监控视频中第一监控视频的视野边界;
所述根据所述第一特征角点组和所述第二特征角点组从所述第一特征极值点组和所述第二特征极值点组中确定第一目标图像和第二目标图像的K个目标特征点对,包括:
将第一特征极值点组中,与第一特征角点组中各特征角点的位置信息最接近的各特征极值点确定为目标特征点对中的各第一特征极值点;
将第二特征极值点组中,与第二特征角点组中各特征角点的位置信息最接近的各特征极值点确定为目标特征点对中的各第二特征极值点。
2.根据权利要求1所述的方法,其特征在于,特征极值点包括位置信息、尺度信息和方向信息,所述根据所述第一特征极值点组和所述第二特征极值点组确定第一目标图像和第二目标图像的重叠视域,包括:
根据所述第一特征极值点组中各第一特征极值点的位置信息、尺度信息和方向信息生成各第一特征极值点的描述子向量,并根据所述第二特征极值点组中各第二特征极值点的位置信息、尺度信息和方向信息生成各第二特征极值点的描述子向量;
根据各第一特征极值点的描述子向量和各第二特征极值点的描述子向量将各第一特征极值点和各第二特征极值点进行匹配,以确定第一目标图像和第二目标图像的特征匹配点组;
将第一目标图像和第二目标图像中所述特征匹配点组所在的区域确定为所述重叠视域。
3.根据权利要求1所述的方法,其特征在于,特征极值点包括位置信息;特征角点包括位置信息;所述根据所述第一特征角点组和所述第二特征角点组从所述第一特征极值点组和所述第二特征极值点组中确定第一目标图像和第二目标图像的K个目标特征点对,包括:
根据所述第一特征角点组中各第一特征角点的位置信息和所述第一特征极值点组中各第一特征极值点的位置信息,从第一特征极值点组中确定第一候选特征点组;第一候选特征点组包括I个第一候选特征点,I为自然数且I≤M;
根据所述第二特征角点组中各第二特征角点的位置信息和所述第二特征极值点组中各第二特征极值点的位置信息,从第二特征极值点组中确定第二候选特征点组;第二候选特征点组包括J个第二候选特征点,J为自然数且J≤N;
根据第一候选特征点组和第二候选特征点组确定K个目标特征点对,K≤I,K≤J。
4.根据权利要求3所述的方法,其特征在于,所述根据所述第一特征角点组中各第一特征角点的位置信息和所述第一特征极值点组中各第一特征极值点的位置信息,从第一特征极值点组中确定第一候选特征点组,包括:
针对所述第一特征极值点组中每个第一特征极值点,执行以下操作:
确定所述第一特征角点组中是否存在与第一特征极值点的位置信息相同的第一特征角点;
若确定存在与第一特征极值点的位置信息相同的第一特征角点,则将第一特征极值点确定为第一候选特征点组中的第一候选特征点。
5.根据权利要求3所述的方法,其特征在于,特征极值点还包括尺度信息和方向信息;所述根据第一候选特征点组和第二候选特征点组确定K个目标特征点对,包括:
根据第一候选特征点组中各第一候选特征点的位置信息、尺度信息和方向信息生成各第一候选特征点的描述子向量;
根据第二候选特征点组中各第二候选特征点的位置信息、尺度信息和方向信息生成各第二候选特征点的描述子向量;
依次确定各第一候选特征点的描述子向量与各第二候选特征值极值点的描述子向量是否能够相互匹配,并将能够相互匹配的第一候选特征点和第二候选特征点确定为一个目标特征点对,以确定出K个目标特征点对。
6.根据权利要求5所述的方法,其特征在于,所述依次确定各第一候选特征点的描述子向量与各第二候选特征点的描述子向量是否能够相互匹配,包括:
针对每一个第一候选特征点,执行以下操作:
计算第一候选特征点的描述子向量与各第二候选特征点的描述子向量之间的距离;
将描述子向量与第一候选特征点的描述子向量距离最近的第二候选特征点确定为第一候选特征点的匹配点;
针对每一个第二候选特征点,执行以下操作:
计算第二候选特征点的描述子向量与各第一候选特征点的描述子向量之间的距离;
将描述子向量与第二候选特征点的描述子向量距离最近的第一候选特征点确定为第二候选特征点的匹配点;
若第一候选特征点与第二候选特征点相互为匹配点,则确定第一候选特征点与第二候选特征点能够相互匹配。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述根据K个目标特征点对确定第一监控视频和第二监控视频的视野分界线之后,还包括:
根据所述视野分界线生成运动目标的可见性判别函数;可见性判别函数用于判断运动目标在第一监控视频或第二监控视频中是否可见;
获取第一监控视频和第二监控视频,并采用三帧差分法获取第一监控视频中的第一运动目标位置和第二监控视频中的第二运动目标位置;
采用可见性判别函数分别根据第一运动目标位置确定第一运动目标在第一监控视频中是否可见,以及根据第二运动目标位置确定第二运动目标在第二监控视频中是否可见;以确定第一运动目标与第二运动目标是否为同一运动目标。
8.一种重叠视域目标检测装置,其特征在于,包括:
获取模块,获取第一目标图像和第二目标图像;第一目标图像和第二目标图像为第一监控视频和第二监控视频在同一时间的视频帧;第一监控视频和第二监控视频存在重叠视域;
第一提取模块,用于采用尺度不变特征转换算法分别提取第一目标图像的第一特征极值点组和第二目标图像的第二特征极值点组;所述第一特征极值点组包括M个第一特征极值点,所述第二特征极值点组包括N个第二特征极值点,M和N均为自然数;
第一确定模块,用于根据所述第一特征极值点组和所述第二特征极值点组确定第一目标图像和第二目标图像的重叠视域;
第二提取模块,用于采用哈里斯角点检测算法分别提取第一目标图像在重叠视域的第一特征角点组和第二目标图像在重叠视域的第二特征角点组;第一特征角点组包括P个第一特征角点,第二特征角点组包括Q个第二特征角点,P和Q均为自然数;
第二确定模块,用于根据所述第一特征角点组和所述第二特征角点组从所述第一特征极值点组和所述第二特征极值点组中确定第一目标图像和第二目标图像的K个目标特征点对;每个目标特征点对包括一个第一特征极值点和一个第二特征极值点;K为自然数,K≤P且K≤Q;
第三确定模块,用于根据K个目标特征点对确定第一监控视频和第二监控视频的视野分界线;第一监控视频的视野分界线为第一监控视频中第二监控视频的视野边界;第二监控视频的视野分界线为第二监控视频中第一监控视频的视野边界;
所述第二确定模块,具体用于将第一特征极值点组中,与第一特征角点组中各特征角点的位置信息最接近的各特征极值点确定为目标特征点对中的各第一特征极值点;将第二特征极值点组中,与第二特征角点组中各特征角点的位置信息最接近的各特征极值点确定为目标特征点对中的各第二特征极值点。
9.一种电子设备,其特征在于,包括:处理器,以及与所述处理器通信连接的存储器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,以实现如权利要求1至7中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1至7中任一项所述的方法。
CN202210855904.7A 2022-07-21 2022-07-21 视野分界线确定方法、装置、设备及存储介质 Active CN114926508B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210855904.7A CN114926508B (zh) 2022-07-21 2022-07-21 视野分界线确定方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210855904.7A CN114926508B (zh) 2022-07-21 2022-07-21 视野分界线确定方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN114926508A CN114926508A (zh) 2022-08-19
CN114926508B true CN114926508B (zh) 2022-11-25

Family

ID=82815625

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210855904.7A Active CN114926508B (zh) 2022-07-21 2022-07-21 视野分界线确定方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN114926508B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116912517B (zh) * 2023-06-06 2024-04-02 阿里巴巴(中国)有限公司 相机视野边界的检测方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103279952A (zh) * 2013-05-17 2013-09-04 华为技术有限公司 一种目标跟踪方法和装置
CN104238558A (zh) * 2014-07-16 2014-12-24 宁波韦尔德斯凯勒智能科技有限公司 一种基于单摄像头的循迹机器人直角转弯检测方法及装置
CN112288878A (zh) * 2020-10-29 2021-01-29 字节跳动有限公司 增强现实预览方法及预览装置、电子设备及存储介质
CN112308977A (zh) * 2020-10-29 2021-02-02 字节跳动有限公司 视频处理方法、视频处理装置和存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102456225B (zh) * 2010-10-22 2014-07-09 深圳中兴力维技术有限公司 一种运动目标检测与跟踪方法和系统
US9581431B1 (en) * 2014-03-18 2017-02-28 Jeffrey M. Sieracki Method and system for parallactically synced acquisition of images about common target
CN103761768A (zh) * 2014-01-22 2014-04-30 杭州匡伦科技有限公司 一种三维重建的立体匹配方法
CN104036524A (zh) * 2014-06-18 2014-09-10 哈尔滨工程大学 一种改进sift算法的快速目标跟踪方法
CN106056046B (zh) * 2016-05-20 2019-01-18 北京集创北方科技股份有限公司 从图像中提取特征的方法和装置
CN107784269A (zh) * 2017-08-29 2018-03-09 深圳依偎控股有限公司 一种3d视频帧特征点提取的方法及系统
CN108038476B (zh) * 2018-01-03 2019-10-11 东北大学 一种基于边缘检测与sift的人脸表情识别特征提取方法
CN110472616B (zh) * 2019-08-22 2022-03-08 腾讯科技(深圳)有限公司 图像识别方法、装置、计算机设备及存储介质
CN111383204A (zh) * 2019-12-19 2020-07-07 北京航天长征飞行器研究所 视频图像融合方法、融合装置、全景监控系统及存储介质
CN111488812B (zh) * 2020-04-01 2022-02-22 腾讯科技(深圳)有限公司 障碍物位置识别方法、装置、计算机设备和存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103279952A (zh) * 2013-05-17 2013-09-04 华为技术有限公司 一种目标跟踪方法和装置
CN104238558A (zh) * 2014-07-16 2014-12-24 宁波韦尔德斯凯勒智能科技有限公司 一种基于单摄像头的循迹机器人直角转弯检测方法及装置
CN112288878A (zh) * 2020-10-29 2021-01-29 字节跳动有限公司 增强现实预览方法及预览装置、电子设备及存储介质
CN112308977A (zh) * 2020-10-29 2021-02-02 字节跳动有限公司 视频处理方法、视频处理装置和存储介质
WO2022088819A1 (zh) * 2020-10-29 2022-05-05 陈志立 视频处理方法、视频处理装置和存储介质

Also Published As

Publication number Publication date
CN114926508A (zh) 2022-08-19

Similar Documents

Publication Publication Date Title
US9177384B2 (en) Sequential rolling bundle adjustment
US8942418B2 (en) Method of providing a descriptor for at least one feature of an image and method of matching features
Coates et al. Multi-camera object detection for robotics
US20140270362A1 (en) Fast edge-based object relocalization and detection using contextual filtering
TWI639136B (zh) 即時視訊畫面拼接方法
Son et al. A multi-vision sensor-based fast localization system with image matching for challenging outdoor environments
CN109785357B (zh) 一种适用于战场环境的机器人智能化全景光电侦察的方法
CN111354038A (zh) 锚定物检测方法及装置、电子设备及存储介质
EP3035242B1 (en) Method and electronic device for object tracking in a light-field capture
Minematsu et al. Adaptive background model registration for moving cameras
CN114926508B (zh) 视野分界线确定方法、装置、设备及存储介质
Dinh et al. Disparity estimation using stereo images with different focal lengths
US11238309B2 (en) Selecting keypoints in images using descriptor scores
Zhou et al. Moving object detection using background subtraction for a moving camera with pronounced parallax
US10445620B2 (en) Method and system for object tracking in multiple non-linear distortion lenses
Brückner et al. Active self-calibration of multi-camera systems
Zhu et al. Tracking of multiple objects across multiple cameras with overlapping and non-overlapping views
WO2016005252A1 (en) Method and device for image extraction from a video
JPH07128017A (ja) 距離測定装置
Yu et al. Registration Based on ORB and FREAK Features for Augmented Reality Systems
Alam et al. A comparative analysis of feature extraction algorithms for augmented reality applications
Tian et al. High confidence detection for moving target in aerial video
CN111860051A (zh) 一种基于车辆的回环检测方法及装置、车载终端
Szlavik et al. Stochastic view registration of overlapping cameras based on arbitrary motion
Sotnikov et al. Algorithm for stabilizing video images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: 518100 Guangdong Shenzhen Baoan District Xixiang street, Wutong Development Zone, Taihua Indus Industrial Park 8, 3 floor.

Patentee after: Shenzhen Haiqing Zhiyuan Technology Co.,Ltd.

Address before: 518100 Guangdong Shenzhen Baoan District Xixiang street, Wutong Development Zone, Taihua Indus Industrial Park 8, 3 floor.

Patentee before: SHENZHEN HIVT TECHNOLOGY Co.,Ltd.

CP01 Change in the name or title of a patent holder