CN112449152A - 多路视频同步的方法、系统及设备 - Google Patents
多路视频同步的方法、系统及设备 Download PDFInfo
- Publication number
- CN112449152A CN112449152A CN201911209316.0A CN201911209316A CN112449152A CN 112449152 A CN112449152 A CN 112449152A CN 201911209316 A CN201911209316 A CN 201911209316A CN 112449152 A CN112449152 A CN 112449152A
- Authority
- CN
- China
- Prior art keywords
- video
- videos
- frame
- target
- paths
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
本申请提供了一种多路视频同步的方法。所述方法包括:获取N路视频,所述N路视频由N个摄像机对一个地理区域进行拍摄获得,所述N为不小于2的整数;获取所述N路视频中的每路视频的视频帧中的目标的地理坐标,根据所述每路视频的视频帧中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度;根据所述不同路视频中的视频帧之间的相似度,获得同步帧信息,其中,所述同步帧信息用于对所述N个摄像机拍摄的视频进行时间同步,所述同步帧信息包括N个时间同步的视频帧在对应的视频中的位置信息。
Description
技术领域
本申请涉及人工智能(Artificial Intelligence,AI)领域,尤其涉及多路视频同步的方法、系统及设备。
背景技术
随着网络摄像机(IP Camera/Network Camera,IPC)的发展创新,IPC逐渐广泛地应用于多个领域,如教育、商业、医疗、公共事业等。对于某个需要被监控的场景,通常存在多个不同视角的IPC对该场景进行多路视频监控。对多路监控同一地理区域的视频进行运用时,常常有严格的时间同步性要求。举例来说,对于多目识别的场景中,如果使用由不同拍摄角度的多个IPC发送的多路视频,来识别各个目标(如车辆、非机动车和行人),那么需要采用上述不同角度的多个IPC拍摄并传输的多路视频中的同一时刻的多路视频的视频帧进行目标的识别,否则将影响目标识别结果的精度。再例如,对于全景视频制作的场景中,通过拼接不同拍摄角度的多个IPC发送的视频,获得全景视频,那么接收到的上述不同角度的多个IPC 的视频也需要是时间同步的多路视频,否则拼接后的全景视频将产生图像模糊、运动鬼影等缺陷。因此,为了保证后续视频处理的准确度,需要保证多路视频的时间同步性。
但是,每个IPC由于型号、厂家难以统一,每个IPC的时间戳是不同的,加之网络传输存在时延等问题,往往会出现多个IPC发送的多路视频时间不同步的情况,进一步导致后续的目标识别、全景视频制作等以多路视频为输入源进行视频处理的过程存在障碍。
发明内容
本申请提供了一种多路视频同步的方法、系统及设备,该方法可以解决由于多路视频的时间不同步导致的视频处理存在障碍的问题。
第一方面,提供了一种多路视频同步的方法,该方法包括以下步骤:
获取N路视频,该N路视频由N个摄像机对一个地理区域进行拍摄获得,N为不小于2的整数;
获取该N路视频中的每路视频的视频帧中的目标的地理坐标,并根据每路视频的视频帧中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度;
根据不同路视频中的视频帧之间的相似度,获得同步帧信息,其中,同步帧信息用于对所述N个摄像机拍摄的视频进行时间同步,同步帧信息包括N个时间同步的视频帧在对应的视频中的位置信息。
上述方法中,通过计算N路视频中的每路视频的视频帧中的目标的地理坐标之间的相似度,确定N路视频的同步帧信息,该同步帧信息可以用于生成多路同步视频,也可以用于获取多个时间同步的视频帧,从而解决由于多路视频的时间不同步导致的视频处理存在障碍的问题。
在第一方面的一种可能的实现方式中,该N路视频为视频流,上述方法还包括:根据N 个时间同步的视频帧在对应的视频中的位置信息,获得N路时间同步的视频,每路时间同步的视频的起始视频帧为该路视频中的时间同步的视频帧。
上述实现方式中,根据同步帧信息将N路视频流调整为N路时间同步的视频流之后,可以将N路时间同步的视频流发送至显示设备进行N路同步视频的显示,比如监控中心或者演播室的显示屏幕,使其可以直接显示同步播放的实时监控。
在第一方面的一种可能的实现方式中,上述方法还包括:发送同步帧信息至其他设备;或者,发送N路时间同步的视频至其他设备。
上述实现方式使得本申请可以根据不同的应用场景,分别将同步后的N路视频或同步帧信息发送至所需的处理系统或处理设备,不但可以适用于需要N路同步后的视频进行显示的监控中心、演播室等应用场景,而且可以适用于帧级别的应用场景,比如全景视频制作、视频拼接和目标检测。还可以适用于全景视频制作、视频拼接和目标检测等需要对N个时间同步的视频帧进行处理的应用场景,因此应用场景非常广泛。
在第一方面的一种可能的实现方式中,获取N路视频中的每路视频的视频帧中的目标的地理坐标,包括:将每路视频的视频帧输入目标检测模型,获得每路视频的视频帧中的目标的像素坐标;根据每路视频的视频帧中的目标的像素坐标和所述每路视频对应的摄像机的标定参数,确定每路视频的视频帧中的目标的地理坐标,其中,摄像机的标定参数用于指示该摄像机拍摄的视频画面和被拍摄的地理区域的映射关系。
具体地,可以先对所述N个摄像头进行空间标定;然后对每路视频的每个视频帧输入目标检测模型,获得所述每个视频帧对应的输出结果图像,其中,所述输出结果图像中包含边界框,所述边界框用于指示目标在图像中的位置;接着根据所述每个视频帧对应的输出结果图像,获得所述每个视频帧中的目标的像素坐标;最后根据所述标定参数以及所述每个视频帧中的目标的像素坐标,获得所述每个视频帧中的目标的地理坐标。
在第一方面的一种可能的实现方式中,根据每路视频的视频帧中的目标的地理坐标,确定不同路视频的视频帧之间的相似度,包括:计算每路视频的视频帧中的目标的地理坐标与其他路视频的视频帧中的目标的地理坐标之间的距离;根据距离确定不同路视频的视频帧之间的相似度。
具体地,计算第一路视频中的视频帧Pi与第二路视频中的视频帧Qi之间地理坐标的相似度的具体流程可以包括:首先,确定视频帧Pi中的目标A1的地理坐标与视频帧Qi中的目标 B1,B2,…,BW的地理坐标之间的距离D11,D12,…,D1w,计算视频帧P中的目标A2的地理坐标与视频帧Qi中的目标B1,B2,…,BW的地理坐标之间的距离D21,D22,…,D2w,…,计算视频帧Pi中的目标Aw的地理坐标与视频帧Qi中的目标B1,B2,…,BW的地理坐标之间的距离Dw1,Dw2,…,Dww,其中,所述视频帧Pi与视频帧Qi是不同路视频中的视频帧;其次,获取距离D11,D12,…,D1w之间的最小值D1,获取距离D21,D22,…,D2w之间的最小值D2,…,获取距离Dw1,Dw2,…,Dww之间的最小值Dw;最后,确定所述最小值D1,D2,…,Dw之间的平均值获得视频帧Pi与视频帧Qi之间的地理坐标的相似度Si。
上述实现方式中,通过对视频帧进行目标检测,获得每个视频帧中的目标的像素坐标,再根据标定参数获得每个帧中的目标的地理坐标,从而根据视频帧中的目标的地理坐标确定不同路视频的视频帧之间的相似度,进而确定N路视频的同步帧信息。因此,确定N路视频的同步帧信息的整体流程无需额外布置任何的采集设备、视频捕捉装置等硬件装置,不对IPC 的类型、网络环境以及传输协议进行限制,方案整体通用性和鲁棒性更好,可以完全以软件的形式进行部署,且可以适用于帧级别的应用场景。
在第一方面的一种可能的实现方式中,上述方法还包括:确定共视区域,该共视区域为所述N个摄像机共同拍摄到的区域,该共视区域为所述地理区域的部分或全部;根据每路视频的视频帧中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度,包括:根据所述每路视频的视频帧中记录的共视区域中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度。
上述实现方式通过对每个视频帧中的目标的地理坐标进行二次处理,筛选出每一个视频帧的共视区域中目标的地理坐标,可以大大减少地理坐标相似度的计算量,提高获取多路视频同步方法的处理效率。
在第一方面的一种可能的实现方式中,根据不同路视频中的视频帧之间的相似度,获得同步帧信息包括:基于多个视频帧中的目标的地理坐标之间的相似度,计算所述N路视频中每两路视频之间的同步帧信息;根据每两路视频之间的同步帧信息,确定每两路视频的时间同步的两个帧的帧号关系;根据每两路视频的时间同步的两个帧的帧号关系,确定N路视频的时间同步的N个视频帧之间的帧号关系;根据N路视频的时间同步的N个视频帧之间的帧号关系,确定N路视频的同步帧信息。
上述实现方式通过确定每两路视频之间的同步帧信息,确定每两路视频之间的帧号关系,进而确定N路视频之间的帧号关系,从而得到N路视频之间的同步帧信息。由于每次计算2 路视频之间的同步帧信息,对服务器的计算压力很小,因此非常适合部署于于计算性能不高的服务器。比如,部署于道路两侧的边缘计算一体机,可以在不占用边缘计算一体机过多的计算资源的情况下,计算出路口多个IPC的同步帧信息。
在第一方面的另一种可能的实现方式中,根据不同路视频中的视频帧之间的相似度,获得同步帧信息包括:从所述N路视频中的每路视频中抽取一个视频帧组成1个视频帧组,获得tN个视频帧组;确定所述每一个视频帧组中每两个视频帧中的目标的地理坐标之间相似度的和;根据所述和最小的一个视频帧组中每个帧的帧号,确定所述N路视频的同帧信息。
上述实现方式根据不同路视频中的视频帧之间的相似度,确定N路视频的同步帧信息,适用于计算性能较高的服务器,比如云服务器,可以减少多路视频同步方法的计算时间,提高多路视频同步的效率。并且,通过计算多路视频的同步帧信息获得多路同步视频,获得的多路同步视频为视频帧级别同步的多路视频,因此应用场景更广泛,不仅可以适用于秒级别的应用场景,比如监控中心的视频同步显示,还可以适用于帧级别的应用场景,比如全景视频制作、视频拼接和目标检测。
第二方面,提供了一种多路视频同步系统,其特征在于,所述系统包括输入单元以及计算单元,其中,
所述输入单元用于获取N路视频,所述N路视频由N个摄像机对一个地理区域进行拍摄获得,所述N为不小于2的整数;
所述计算单元用于获取所述N路视频中的每路视频的视频帧中的目标的地理坐标,根据所述每路视频的视频帧中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度;
所述计算单元用于根据所述不同路视频中的视频帧之间的相似度,获得同步帧信息,其中,所述同步帧信息用于对所述N个摄像机拍摄的视频进行时间同步,所述同步帧信息包括 N个时间同步的视频帧在对应的视频中的位置信息。
在第二方面的一种可能的实现方式中,所述N路视频为视频流,所述系统还包括输出单元,所述输出单元用于根据所述N个时间同步的视频帧在对应的视频中的位置信息,获得N 路时间同步的视频,每路时间同步的视频的起始视频帧为所述每路视频中的时间同步的视频帧。
在第二方面的一种可能的实现方式中,所述输出单元还用于发送所述同步帧信息至其他设备;或者,所述输出单元还用于发送所述N路时间同步的视频至其他设备。
在第二方面的一种可能的实现方式中,所述计算单元用于将所述每路视频的视频帧输入目标检测模型,获得所述每路视频的视频帧中的目标的像素坐标;所述计算单元用于根据所述每路视频的视频帧中的目标的像素坐标和所述每路视频对应的摄像机的标定参数,确定所述每路视频的视频帧中的目标的地理坐标,其中,摄像机的标定参数用于指示该摄像机拍摄的视频画面和被拍摄的所述地理区域的映射关系。
在第二方面的一种可能的实现方式中,所述计算单元用于确定共视区域,所述共视区域为所述N个摄像机共同拍摄到的区域,所述共视区域为所述地理区域的部分或全部;所述计算单元用于根据所述每路视频的视频帧中记录的所述共视区域中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度。
在第二方面的一种可能的实现方式中,所述计算单元用于计算所述每路视频的视频帧中的目标的地理坐标与其他路视频的视频帧中的目标的地理坐标之间的距离;所述计算单元用于根据所述距离确定不同路视频的视频帧之间的相似度。
第三方面,提供了一种计算机程序产品,包括计算机程序,当所述计算机程序被计算设备读取并执行时,实现如第一方面所描述的方法。
第四方面,提供了一种计算机可读存储介质,包括指令,当所述指令在计算设备上运行时,使得所述计算设备实现如第一方面描述的方法。
第五方面,提供了一种电子设备,包括处理器和存储器,所述处理器执行所述存储器中的代码实现如第一方面描述的方法。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1A是本申请提供的一种多路视频同步系统的部署示意图;
图1B是本申请提供的另一种多路视频同步系统的部署示意图;
图2是本申请提供的一种多路视频同步系统的结构示意图;
图3是本申请提供的一种多路视频同步方法流程示意图;
图4是本申请提供的一种获取多个视频帧中目标的地理坐标的方法流程示意图;
图5是本申请提供的一应用场景下的两路视频的共视区域的示意图;
图6是本申请提供的一种拍摄范围的获取方法流程示意图;
图7是本申请提供的另一种拍摄范围的获取方法的流程示意图;
图8是本申请提供的一种获取两个视频帧中目标的地理坐标之间的相似度的流程示意图;
图9是本申请提供的一种获取两路视频的同步帧信息的流程示意图;
图10是本申请提供的一种获取N路视频的同步帧信息的流程示意图;
图11是本申请提供的另一种多获取N路视频的同步帧信息的流程示意图;
图12A-图12B是本申请提供的一应用场景下根据同步帧信息获得N路同步视频的流程示意图;
图13是本申请提供的一种电子设备的结构示意图。
具体实施方式
本申请的实施方式部分使用的术语仅用于对本申请的具体实施例进行解释,而非旨在限定本申请。
随着城市智能、交通智能等浪潮的兴起,网络摄像机(IP Camera/NetworkCamera,IPC) 的应用越来越广泛,IPC成为了重要的信息采集设备,通过IPC拍摄的视频可以更及时地获知某一场景发生的事件。对于某个需要被监控的场景,通常存在多个不同视角的IPC进行多路视频监控,获得多路视频。对多路监控同一地理区域的视频进行运用时,常常有严格的时间同步性要求。时间同步的多路视频中同一时刻的视频帧描述的是同一时刻的场景。举例来说,IPC1和IPC2在对同一路口进行拍摄时,IPC1获取的视频中T1时刻的视频帧为行人的右脚刚好踩在斑马线上的画面,如果IPC2获取的视频中T1时刻的视频帧不是该行人的右脚刚好踩在斑马线上的画面,而是行人还没有踩在斑马线上的画面,或者行人已经双脚踩在斑马线上的画面,那么IPC1和IPC2是两路时间不同步的视频。应理解,上述举例仅用于说明,并不能构成具体限定。
但是,由于获取多路视频的多个IPC的型号、厂家、时间戳、视频帧的帧率可能是不相同的,网络传输时延也可能会导致传输过程中出现个别视频丢帧,IPC本身的计算性也可能较差导致个别视频丢帧,使得多个IPC发送的多路视频难以保证时间的同步性。举例来说, IPC1和IPC2是同一个路口的两个监控视频,IPC1由于在T1时刻的对闯红灯的车辆进行了抓拍,使得IPC1传输的实时视频流中抓拍时刻T1对应的视频帧丢失,IPC2没有进行抓拍,也没有出现丢帧的情况,因此处理系统接收到的IPC1和IPC2发送的实时视频流在T1时刻起,IPC2比IPC1快1帧,进一步导致处理系统根据接收到的多路视频进行的目标识别、全景视频制作等视频处理的过程存在障碍。
为了解决上述由于多路视频时间不同步导致以多路视频为输入源进行视频处理的过程存在障碍的问题,本申请提供了一种多路视频同步系统。可以根据多路视频中每个视频的视频帧的内容,进行多路视频的同步帧信息的计算,从而获得时间同步的多路视频。
本申请提供的多路视频同步系统的部署灵活,可部署在边缘环境,具体可以是边缘环境中的一个边缘计算设备或运行在一个或者多个边缘计算设备上的软件系统。边缘环境指在地理位置上距离用于采集多路视频的IPC较近的,用于提供计算、存储、通信资源的边缘计算设备集群,比如位于道路两侧的边缘计算一体机。举例来说,如图1A所示,多路视频同步系统可以是距离路口较近的位置的一台边缘计算一体机或者是运行在距离路口较近的位置的边缘计算一体机的软件系统。该路口中设置有IPC1和IPC2两个网络摄像头对该路口进行监控,每个IPC可以将路口的实时视频流通过网络发送至所述多路视频同步系统,所述多路视频同步系统可以执行本申请提供的多路视频同步的方法,计算出所述多路视频的同步帧信息,所述同步帧信息可以用于多路IPC的矫正,或者监控播放平台的同步播放,或者用于全景视频制作、多目检测等等,多路视频同步系统可以根据应用场景将同步帧信息发送至相应的处理系统中。
本申请提供的多路视频同步系统还可以部署在云环境,云环境是云计算模式下利用基础资源向用户提供云服务的实体。云环境包括云数据中心和云服务平台,所述云数据中心包括云服务提供商拥有的大量基础资源(包括计算资源、存储资源和网络资源),云数据中心包括的计算资源可以是大量的计算设备(例如服务器)。多路视频同步系统可以是云数据中心的服务器;检测装置也可以是创建在云数据中心中的虚拟机;还可以是部署在云数据中心中的服务器或者虚拟机上的软件系统,该软件系统可以分布式地部署在多个服务器上、或者分布式地部署在多个虚拟机上、或者分布式地部署在虚拟机和服务器上。例如:如图1B所示,多路视频同步系统部署在云环境中,该路口中设置有IPC1和IPC2两个网络摄像头对该路口进行监控,每个IPC可以将路口的实时视频流通过网络发送至所述多路视频同步系统,所述多路视频同步系统可以执行本申请提供的多路视频同步的方法,计算出所述多路视频的同步帧信息,所述同步帧信息可以用于多路IPC的矫正,或者监控播放平台的同步播放,或者全景视频制作、多目检测等等,多路视频同步系统可以根据应用场景将同步帧信息发送至相应的处理系统中,接收同步帧信息的处理系统也可以部署在云环境中、边缘环境中,或者部署在终端设备中。
多路视频同步系统内部的单元模块也可以有多种划分,各个模块可以是软件模块,也可以是硬件模块,也可以部分是软件模块部分是硬件模块,本申请不对其进行限制。图2为一种示例性的划分方式,如图2所示,多路视频同步系统100包括输入单元110、计算单元120 和输出单元130。下面分别介绍每个功能单元的功能。
输入单元110用于接收N路视频,并将N路视频输入至计算单元120。具体地,所述输入单元110可以用于获取N路视频,所述N路视频由N个摄像机对一个地理区域进行拍摄获得,所述N为不小于2的整数。具体实现中,N路视频可以是同一个角度的多个IPC拍摄同一个地理区域获得的多个视频,也可以是不同角度的多个IPC拍摄同一个地理区域获得的多个视频。并且,N路视频可以是监控现场的IPC输入的多个直播视频,也可以是本地文件或者云存储服务器中读取的离线视频,本申请不作进行具体限定。场景可以是任意一个需要将监控目标区域的多个IPC回传的视频调整为同步播放的场景,比如交通路口、银行、小区、医院、数据中心、学校、考场、演播室等场景,本申请也不对此进行具体限定。
计算单元120用于对N路视频进行处理,获得N路视频的同步帧信息。具体地,所述计算单元120用于对每路视频的视频帧中的目标进行检测,获得所述每路视频的视频帧中的目标的地理坐标,所述目标的地理坐标指示所述目标在所述地理区域的位置;所述计算单元120 用于根据所述每路视频的视频帧中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度;所述计算单元120用于根据所述不同路视频中的视频帧之间的相似度,获得所述N路视频的同步帧信息,其中,所述同步帧信息包括N个时间同步的视频帧在对应的视频中的位置信息。这里,N个时间同步的视频帧描述的是同一时刻发生的场景,N个时间同步的视频帧在对应的视频中的位置信息可以是N个时间同步的视频帧在对应视频中的帧号。
输出单元130可以直接将所述同步帧信息组传输至不同应用场景的处理系统中,也可以根据所述同步帧信息对N路视频进行处理获得时间同步的N路同步视频后,再将所述N路同步视频传输至相应的处理系统中。具体地,所述输出单元130用于根据所述同步帧信息对所述N路视频进行时间同步,获得时间同步后的N路视频。所述N路视频为实时视频流,所述输出单元用于根据所述N个时间同步的视频帧在对应的视频中的位置信息,确定所述每路视频中的时间同步的视频帧为视频的起始视频帧,获得时间同步后的N路视频。所述输出单元130用于发送所述同步帧信息至其他设备或系统;或者,所述输出单元130用于发送所述时间同步后的N路视频至其他设备或系统。举例来说,如果应用场景为多路IPC的同步矫正,那么输出单元130可以直接将同步帧信息返回给每个IPC,使得每个IPC根据同步帧信息调整自身的输出视频时序;如果应用场景为监控视频的实时同步播放,那么输出单元130可以根据同步帧信息获得多路同步视频后,再将其发送至监控中心的显示屏幕,使得监控中心可以直接显示同步播放的实时监控;如果应用场景为目标检测的场景,那么输出单元130 可以直接将同步帧信息发送至目标检测的服务器,使其根据同步帧信息确定N个时间同步的视频帧,对所述N个时间同步的视频帧进行目标检测。应理解,上述举例仅用于说明,并不能构成具体限定。
本申请提供的多路视频同步系统,根据视频内容进行多路视频同步,无需额外布置任何的采集设备、视频捕捉装置等硬件装置,不对IPC的类型、网络环境以及传输协议进行限制,方案整体通用性和鲁棒性更好。并且,本申请提供的多路视频同步系统通过计算多路视频的同步帧信息获得多路同步视频,获得的多路同步视频为视频帧级别同步的多路视频,因此应用场景更广泛,不仅可以适用于秒级别的应用场景,比如监控中心的视频同步显示,还可以适用于帧级别的应用场景,比如全景视频制作、视频拼接和目标检测。
下面结合附图,对本申请提供的上述多路视频同步系统如何对多路视频进行同步矫正,获得多路同步视频的过程,进行详细介绍。
如图3所示,本申请提供了一种多路视频同步的方法,所述方法包括以下步骤:
S201:获取N路视频,其中,所述N路视频由N个摄像机对一个地理区域进行拍摄获得,所述N为不小于2的整数。
在一种实施例中,所述N路视频中的每路视频包括多个视频帧。可以理解的,如果同时对过多的视频帧进行计算,将会导致计算量过大,降低多路视频同步的处理效率。因此,每次进行多路视频同步时,可以根据历史同步记录和视频帧率确定多路视频同步时每一路视频的视频帧数量。举例来说,假设N个帧率为12每秒传输视频帧数(Frames PerSecond,FPS) 的摄像头,即每秒传输12个视频帧,而在历史计算帧率为12FPS的N路视频的视频同步过程中,确定每路视频最多比另一路视频快1秒,为了确保N路12FPS的视频可以同步直播,那么可以每两秒执行一次多路视频同步方法,也就是说,每路视频包括的视频帧数量为 12×2=24。应理解,上述举例仅用于说明,本申请不对此进行限定。
S202:获取所述N路视频中的每路视频的视频帧中的目标的地理坐标,根据所述每路视频的视频帧中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度。
在一实施例中,所述获取所述N路视频中的每路视频的视频帧中的目标的地理坐标,包括:将所述每路视频的视频帧输入目标检测模型,获得所述每路视频的视频帧中的目标的像素坐标;根据所述每路视频的视频帧中的目标的像素坐标和所述每路视频对应的摄像机的标定参数,确定所述每路视频的视频帧中的目标的地理坐标,其中,摄像机的标定参数用于指示该摄像机拍摄的视频画面和被拍摄的所述地理区域的映射关系。该步骤的具体内容将在后文的步骤S2021-S2025进行具体描述。
在另一实施例中,可以直接通过网络从其他系统或者设备中获取所述每路视频的视频帧中的目标的地理坐标。换句话说,向其他系统或者设备发送所述每路视频的视频帧,由其他系统或这边对所述每路视频的视频帧进行目标检测,获得所述每路视频的视频帧中的目标的像素坐标后,根据标定参数确定每路视频的视频帧中的目标的地理坐标。
在一实施例中,所述根据所述每路视频的视频帧中的目标的地理坐标,确定不同路视频的视频帧之间的相似度,包括:计算所述每路视频的视频帧中的目标的地理坐标与其他路视频的视频帧中的目标的地理坐标之间的距离;根据所述距离确定不同路视频的视频帧之间的相似度。该步骤的具体内容将在后文的步骤S2026-S2028进行具体描述。
S203:根据所述不同路视频中的视频帧之间的相似度,获得所述N路视频的同步帧信息,其中,所述同步帧信息包括N个时间同步的视频帧在对应的视频中的位置信息。应理解,N 个时间同步的视频帧描述的是同一时刻发生的场景,N个时间同步的视频帧在对应的视频中的位置信息可以包括N个时间同步的视频帧在对应视频中的帧号,N个时间同步的视频帧分别属于不同路的视频。其中,帧号指的是将每路视频中的多个视频帧按时间顺序排列成一个帧序列后,依次对帧序列中的每个视频帧进行编号,即为每个视频帧的帧号,比如,A路视频的第一个视频帧的帧号为1,第二个视频帧的帧号为2,依次类推,或者,第一个视频帧的帧号为0,第二个视频帧的帧号为1,依次类推。上述举例仅用于说明,并不能构成具体限定。
举例来说,三路视频A、B以及C的3个时间同步的视频帧可以是视频A的第2个帧,该帧对应的帧号为2,视频B的第3个帧,该帧对应的对应的帧号为3,以及视频C的第4 个帧,该帧对应的帧号为4,那么该三路视频A、B以及C的同步帧信息可以是(2,3,4)。换句话说,视频A比视频B快1帧,视频C比视频B慢1帧。可以理解的,同步帧信息可以用于供IPC调整自身的输出视频时序,也可以用于获得多路同步视频,具体可参考图2实施例中对输出单元130的描述,这里不再进行赘述。应理解,上述举例仅用于说明,并不能构成具体限定。该步骤的具体内容将在后文的步骤S2031A-S2034A以及步骤S2031B-S2033B 进行具体描述。
下面结合步骤S2021-步骤S2025,对前述步骤S202中获取所述N路视频中的每路视频的视频帧中的目标的地理坐标的具体流程进行详细地解释说明。
本申请实施例中,视频帧中的目标可以是根据N路视频的内容决定的,通常情况下,可以将视频中经常移动的人物或事物作为目标。举例来说,如果N路视频是交通路口的监控视频,那么目标可以是汽车、行人、非机动车等等。如果N路视频是考场,那么目标可以是学生、监考老师、巡考考官等等。应理解,上述举例仅用于说明,并不能构成具体限定。应理解,由于每个视频帧包含的目标的数量可以是1个或者多个,因此每个视频的视频帧中的目标的地理坐标可以包括1个或者多个地理坐标,本申请不对此进行具体限定。
进一步地,视频帧中的目标的地理坐标可以是该视频帧的共视区域中包含的目标的地理坐标。可以理解的,获取N路视频的多个IPC虽然拍摄的是同一地理区域,但是不同的IPC 的拍摄角度可能不同,因此每个IPC与其他IPC将存在一个共视区域。其中,共视区域指的是每个IPC与其他IPC都可以拍摄的区域,非共视区域指的是一些IPC可以拍摄到但是另一些IPC无法拍摄到的区域。参考前述内容可知,本申请根据视频帧中的目标的地理坐标之间的相似度确定不同路视频中的视频帧之间的相似度,而非共视区域中的目标是其他IPC无法拍摄到的目标,导致非共视区域中的目标的地理坐标与接下来计算视频帧中的目标的地理坐标之间的相似度无关系,因此,对于本申请来讲,非共视区域中的目标的地理坐标可以不参与接下来的相似度计算。如果对多个目标的地理坐标进行二次处理,筛选出每一个视频帧的共视区域中目标的地理坐标,可以大大减少地理坐标相似度的计算量,提高获取多路视频同步方法的处理效率。
具体实现中,可以通过训练好的目标检测模型,分别识别出每个视频帧中的目标后,根据目标基于该视频帧的像素坐标,获得每个视频帧中的目标的地理坐标之后,再筛选掉每路视频的非共视区域内的目标的地理坐标,从而获得所述每路视频的视频帧中的共视区域中的目标的地理坐标。因此,如图4所示,步骤S202中确定视频帧中的目标的地理坐标的具体流程可以包括以下步骤:
S2021:对所述N个摄像头进行空间标定,获取标定参数,其中,所述标定参数用于根据像素坐标获得所述像素坐标对应的地理坐标,每个摄像机的标定参数表示每个摄像机拍摄的视频画面和被拍摄的地理区域的映射关系。需要说明的,同一个应用场景下,步骤S2021 只需要执行一次空间标定的过程,在获取标定参数后,如图4所示,标定参数将存储于存储器中,以便下一次计算同场景下的视频帧中的目标的地理坐标时使用。可以理解的,N路视频可以是设置于固定位置N个摄像头拍摄得到视频,或者是通过设置于固定位置的N个摄像头记录的视频,因此,当拍摄的角度发生变化,需要重新进行空间标定,获得角度更改后的标定参数。或者,在另一种实施例中,可以直接通过网络从其他系统或者设备中获取该N个摄像头的标定参数,本申请不作具体限定。
其中,空间标定是指计算所述N个摄像头的标定参数的过程。标定参数是指摄像机拍摄的视频画面和被拍摄的地理区域的映射关系,具体指的是摄像头拍摄的图像中的点的像素坐标与该点对应的地理坐标之间的对应关系。而根据所述标定参数可以将图像中任一点的像素坐标转换为地理坐标。其中,像素坐标可以是图像中目标所在位置的像素点的坐标,像素坐标是二维坐标。地理坐标可以是一个地理区域中的点的三维坐标值。应理解,物理世界中,同一个点在不同的坐标系下其对应的坐标值是不同的。本申请中目标的地理坐标可以是根据实际情况设定的任意坐标系下的坐标值,例如,本申请中目标的地理坐标可以是目标对应的经度、纬度和海拔组成的三维坐标,也可以是目标对应的自然坐标系下的X坐标、Y坐标和 Z坐标组成的三维坐标,还可以是其它形式的坐标,只要该坐标可以唯一确定一个点在地理区域中的位置,本申请不作限定。
S2022:将每路视频的每个视频帧输入目标检测模型,获得所述每个视频帧对应的输出结果图像,其中,所述输出结果图像中包含边界框(Bounding Box),所述边界框用于指示目标在图像中的位置,边界框具体可以是矩形框、圆形框、椭圆框等,本申请不作具体限定,下文将统一以矩形框为例进行说明。
具体地,某一视频帧输入目标检测模型后,对应的输出结果图像可以如图4所示。可以理解的,图4中的目标检测模型是用于检测机动车的模型,因此图4中所示的视频帧在进行目标检测后,全部的机动车都被矩形框框选出来。需要说明的,目标检测模型可以是由一种 AI模型被训练后得到的,AI模型包括多种多类,神经网络模型为AI模型中的一类,在描述本申请实施例时,以神经网络模型为例。应理解,还可以使用其他AI模型完成本申请实施例描述的神经网络模型的功能,本申请不对此作任何限定。其中,神经网络模型是一类模仿生物神经网络(动物的中枢神经系统)的结构和功能的数学计算模型。一个神经网络模型也可以由多个已有的神经网络模型组合构成。不同结构的神经网络模型可用于不同的场景(例如:分类、识别)或在用于同一场景时提供不同的效果。神经网络模型结构不同具体包括以下一项或多项:神经网络模型中网络层的层数不同、各个网络层的顺序不同、每个网络层中的权重、参数或计算公式不同。业界已存在多种不同的用于识别或分类等应用场景的具有较高准确率的神经网络模型,其中,一些神经网络模型可以被特定的训练集进行训练后单独完成一项任务或与其他神经网络模型(或其他功能模块)组合完成一项任务。一些神经网络模型也可以被直接用于单独完成一项任务或与其他神经网络模型(或其他功能模块)组合完成一项任务。
具体实现中,本申请实施例中的目标检测模型可采用业界已有的用于目标检测具有较优效果的神经网络模型中的任意一种,例如:一阶段统一实时目标检测(You OnlyLook Once: Unified,Yolo)模型、单镜头多盒检测器(Single Shot multi box Detector,SSD)模型、区域卷积神经网络(Region ConvolutioNal Neural Network,RCNN)模型或快速区域卷积神经网络 (Fast Region Convolutional Neural Network,Fast-RCNN)模型等。本申请不作具体限定。
下面以Yolo模型为例,对步骤S2022进行阐述说明。
Yolo模型是一种带有卷积结构的深度神经网络(Deep Neural Network,DNN)。Yolo模型通过在图片上放置N×N的网格,并对每个网格进行目标位置的预测和目标分类识别,相比滑动窗口进行目标位置的预测和目标分类识别,可以大大减少计算量,能够实现高准确率的快速目标检测与识别。具体实现中,Yolo模型可以包含若干网络层,其中卷积层用于提取图像中目标的特征,全连接层用于对卷积层提取的目标特征预测目标位置和目标类别概率值。
首先需要对Yolo模型进行训练,以使得Yolo模型具备目标检测的功能。在进行训练时,首先获取多个训练集,训练集中包括多个样本图像,每个样本图像为包含目标(比如机动车或者行人)的图像,每个样本图像放置有n×n的网格,每个包含目标的网格中标注有目标的边界框的位置信息(x0,y0,w0,h0)和目标所属类别的概率值P0,其中,x0,y0是目标的边界框的中心坐标相对于当前网格中心坐标的偏移值,w0和,h0为边界框的长宽大小。其次,将yolo 模型的参数初始化,然后输入训练集的样本图像至Yolo模型,Yolo模型中的卷积层对每一个样本中的目标进行特征提取,全连接层对卷积层输出的目标的特征进行识别,预测出该目标在图像中的边界框的位置信息(x,y,w,h)以及目标所述类别的概率值P;将预测得到边界框的位置信息(x,y,w,h)与样本标注的边界框的位置信息(x0,y0,w0,h0)进行比对,将预测得到的目标所属类别的概率值P于样本标注的目标所述类别的概率值P0进行比对,并计算出损失函数,利用计算得到的损失函数调整Yolo模型中的参数。迭代执行上述计算过程,直到损失函数值收敛之后,且计算得到的损失函数值小于预设阈值时,则停止迭代,此时,Yolo模型已经训练完毕,即已经具备目标检测的功能,可以用来进行检测视频帧中的目标,该Yolo模型即为步骤 S2022中使用的目标检测模型。
得到训练完成的Yolo模型之后,利用该Yolo模型对摄像机拍摄的包含目标的待检测的视频帧进行目标检测,卷积层提取视频帧中的目标的特征,全连接层对该目标的特征进行检测识别,预测出该目标在待测视频帧中的边界框的位置信息(x’,y’,w’,h’)以及目标所属类别的概率值P’,根据位置信息(x’,y’,w’,h’)可以生成预测后的目标的边界框,根据目标所属类别的概率值P’将该目标的类别信息也标注出来,即可获得待检测的视频帧对应的输出结果图像。
S2023:根据所述每个视频帧对应的输出结果图像,获得所述每个视频帧中的目标的像素坐标。
可以理解的,如图4所示,某一视频帧在输入目标检测模型后,获得的输出结果图像中的目标将被矩形框框选出,因此可以将每个矩形框框选出的目标,用一个表示点代替,从而获得所述目标的像素坐标。
具体实现中,表示点可以是通过物体质心检测方法确定的,根据已被矩形框框选出目标的视频帧以及其他无线传感器反馈的信息,通过最大似然估计的加权等方法,检测到该目标不因其刚性运动而改变位置的唯一点(质点),并以质点位置代表其在视频帧中的位置。
表示点还可以是通过3D检测确定的,通过点云图、新增物体高度或深度等方法,将原有的2D物体检测转换为3D物体检测,得到目标物体的3D建模,根据其3D模型确定其中某一位置作为表示点,以此表示点代表目标的位置。
表示点还可以是结合视频内容,直接通过2D像素画面上矩形框确定的。举例来说,当目标为机动车时,直行车辆由于水平或垂直方向基本保持一致,因此常选择矩形框下沿的中点作为该目标的表示点;近景车辆由于尺寸较大且前后透视形变,因此常选择矩形框右下角点作为该目标的表示点;远景车辆由于尺寸较小,矩形框也很小,因此常选择矩形框的中心点作为该目标的表示点。
应理解,上述列举的多个表示点的获取方法仅用于举例说明,还可以使用其他方法获得矩形框框的表示点,本申请并不对此作具体限定。
需要说明的,将每个矩形框用表示点代替后,根据该表示点在视频帧中的像素坐标,即可获得该视频帧中的目标的的像素坐标。例如图4所示,视频帧经过目标检测模型获得输出结果图像(包含多个框选出机动车的矩形框),将该输出结果图像中的每个矩形框用一个表示点代替,即可获得以如图4所示的,该视频帧中的目标的像素坐标。应理解,图4显示的矩形框和像素坐标仅用于举例说明,不能构成具体限定。
S2024:根据所述标定参数以及所述每个视频帧中的目标的像素坐标,获得所述每个视频帧中的目标的地理坐标。
参考前述内容可知,如图4所示,根据步骤S2021获得的标定参数A以及视频帧中的目标的像素坐标,即可获取视频帧中的目标的像素坐标对应的地理坐标,具体步骤可以参考前述实施例,这里不再进行赘述。
S2025:对所述每个视频帧中的目标的地理坐标进行筛选,得到每个视频帧的共视区域内的目标的地理坐标。
在本申请实施例中,所述方法还包括:确定共视区域,所述共视区域为所述N个摄像机共同拍摄到的区域,所述共视区域为所述地理区域的部分或全部;所述根据所述每路视频的视频帧中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度,包括:根据所述每路视频的视频帧中记录的所述共视区域中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度。具体实现中,可以通过计算获得该N路视频的N个摄像头的拍摄范围,取N 个摄像头的拍摄范围的交集获得N路视频的共视区域。其中,拍摄范围具体可以指的是摄像头能够拍摄到的地理区域对应的地理坐标范围,两路视频的共视区域指的是该两路视频对应的两个摄像头都能够拍摄到的一个地理区域对应的地理坐标范围。因此可以依次通过确定步骤S2024获得的每个视频帧中的目标的地理坐标是否处于共视区域的地理坐标范围内,将不处于共视区域内的目标的地理坐标筛选掉,从而得到每个视频帧的共视区域内的目标的地理坐标。
例如图5所示,假设N=2,共两路视频,一路视频由IPC1拍摄得到,另一路视频由IPC2 得到,且IPC1的拍摄范围是扇形CDE,IPC2的拍摄范围是扇形FGH,由IPC1拍摄的一路视频中的视频帧P1中的目标的地理坐标为A1和A2,由IPC2拍摄的另一路视频中的视频帧 P2中的目标的地理坐标为B1和B2,那么IPC1和IPC2获取的两路视频的共视区域可以是图5 的阴影区域,经过步骤S2025后,视频帧P1的共视区域内的目标的地理坐标为A2,视频帧 P2的共视区域内的目标的地理坐标为B2。应理解,图5仅用于举例说明,并不能构成具体限定。并且,由于获取N路视频的N个IPC是固定位置的IPC,比如交通路口的监控摄像头,因此当获取某路视频的共视区域后,可以将其存储在存储器中,以便下一次计算同一个IPC 传输的视频的每一视频帧的目标的地理坐标时使用,从而减小不必要的计算量,提高多路视频同步的效率。
可以理解的,由于获取每路视频的IPC是固定的,因此每路视频的拍摄范围也是固定不变的,每路视频的拍摄范围是每个IPC拍摄的视频帧中记录的地理区域的范围。因此,可以通过确定每路视频的视频画面中能够显示的最边缘的边缘位置点,计算每个边缘位置点的像素坐标,并将其转换为地理坐标后,根据这些地理坐标组成的区域确定该路视频的拍摄范围。举例来说,如图6所示,可以在视频帧P1上选取边缘位置点C、D和E后,获取每个边缘位置点C、D和E的像素坐标,再根据标定参数确定点C、D和E的像素坐标对应的地理坐标,由点C、D和E的地理坐标组成的扇形CDE即为视频帧P1的拍摄范围。可以理解的,图6 仅用点C、D以及E作为边缘位置点进行了举例说明,具体实现中,视频帧P1可以在视频边缘处选择多个边缘位置点,边缘位置点的数量越多,获得的拍摄范围越精确,因此可以根据计算设备的处理能力确定边缘位置点的数量。图6仅用于举例说明,本申请不作具体限定。
可以理解的,由于每路视频均包含目标,比如行人、机动车等等,因此,还可以通过统计每路视频的每一个视频帧中的目标的地理坐标集合,根据该地理坐标集合组成的空间轮廓,确定该路视频对应的拍摄范围。举例来说,如图7所示,可以在分别获取视频帧P1,P2,…,Pm中目标的地理坐标后,多个地理坐标形成的阴影部分面积组成了IPC1的拍摄范围,也就是图 7所示的扇形CDE。应理解,图7仅用于举例说明,本申请不作具体限定。
下面结合步骤S2026-步骤S2028,对前述步骤S202中确定不同路视频中的视频帧之间的相似度的具体流程进行详细地解释说明。
在本申请实施例中,可以通过计算每个视频帧中的目标的地理坐标与其他视频帧中的目标的地理坐标之间的距离值,来确定视频帧之间的相似度。其中,距离值越大,相似度越高,距离值越小,相似度越低。并且,由于每个视频帧中的目标可以是多个,因此可以通过计算视频帧中的多个目标的地理坐标,与其他视频帧中的多个目标的地理坐标之间的距离的平均值,确定该视频帧与其他视频帧之间的相似度。
如图8所示,计算两个视频帧中的目标的地理坐标的相似度的具体步骤可以如图8所示,其中,视频帧Pi的目标包括A1,A2,…,Aw,视频帧Qi的目标包括B1,B2,…,Bw。需要说明的,一般来说,N个时间同步的视频帧中的目标的数量应该是相同的,但是,特殊情况下比如目标检测模型漏检一个或者多个目标,N个时间同步的视频帧中的目标的数量也可能不同。因此,计算两个视频帧中的目标的地理坐标的相似度时,两个视频帧中的目标的数量可能相同,也可能不同。图8以两个视频帧的目标数量相同(都是w个目标)为例进行了举例说明,两个视频帧中目标数量不同的情况下,也可以参考图8中的步骤S2026-步骤S2028进行计算,这里不再展开赘述。
计算第一路视频中的视频帧Pi与第二路视频中的视频帧Qi之间地理坐标的相似度的具体步骤可以如下:
S2026:确定视频帧Pi中的目标A1的地理坐标与视频帧Qi中的目标B1,B2,…,BW的地理坐标之间的距离D11,D12,…,D1w,计算视频帧P中的目标A2的地理坐标与视频帧Qi中的目标B1,B2,…,BW的地理坐标之间的距离D21,D22,…,D2w,…,计算视频帧Pi中的目标Aw的地理坐标与视频帧Qi中的目标B1,B2,…,BW的地理坐标之间的距离Dw1,Dw2,…,Dww,其中,所述视频帧Pi与视频帧Qi是不同路视频中的视频帧。
具体实现中,视频帧Pi的地理坐标A1与视频帧Qi的地理坐标B1之间的距离可以是地理坐标之间的欧氏矩阵,也可以是绝对值距离,还可以是地理坐标之间线段长度,具体的计算公式本申请不作具体限定。并且,视频帧Pi和视频帧Qi属于不同路的视频,如图8所示,视频帧Pi是A路视频中的某一视频帧,视频帧Qi是B路视频中的某一视频帧。
S2027:获取距离D11,D12,…,D1w之间的最小值D1,获取距离D21,D22,…,D2w之间的最小值D2,…,获取距离Dw1,Dw2,…,Dww之间的最小值Dw。
可以理解的,距离D11是地理坐标A1和地理坐标B1之间的距离值,距离D12是地理坐标 A1和地理坐标B2之间的距离值,…,距离D1w是地理坐标A1和地理坐标Bw之间的距离值,因此,D11,D12,…,D1w之间的最小值D1如果是D11,那么视频帧Pi中的地理坐标A1对应的目标(比如车牌号为A10000的机动车),与视频帧Qi中地理坐标B1对应的目标(车牌号为A10000的机动车)是相同的目标的可能性最大,同理,如果D1是D12,那么视频帧Pi中的地理坐标A1对应的目标,与视频帧Qi中地理坐标坐标B2对应的目标是同一个目标的而可能性最大。因此计算同一个目标在视频帧Pi和视频帧Qi中的地理坐标之间的距离,如果距离越近,则代表视频帧Pi中的目标和视频帧中的目标Qi的地理坐标越相似,如果距离越远,则代表视频帧Pi中的目标和视频帧中的目标Qi的地理坐标越不相似。
其中,平均值的计算可以是如图8所示的计算方法,还可以是其他计算平均数的方法,比如将最小值D1,D2,…,Dw之间的中值作为平均值,将最小值D1,D2,…,Dw之间的最大值和最小值去除后,剩余值的均值作为平均值等等,本申请不作具体限定。可以理解的,距离Si与平均值之间的关系为其中,y=f(x)为递减函数,即,平均值越小,相似度Si越大,具体实现中,y=f(x)可以是y=f(x)=1/x,即或者根据经验设定的其他递减函数,本申请不作具体限定。
下面对前述步骤S203进行详细地解释说明。
基于步骤S2026-步骤S2028计算两个视频帧的目标的地理坐标之间的相似度的方法,本申请提供了两种实现步骤S203的方法,第一种方法是先根据两个视频帧中的目标的地理坐标之间的相似度,确定两路视频之间的同步帧信息,再确定N路视频之间的同步帧信息,下文将在步骤S2031A-S2034A进行详细描述;另一种方法是直接根据两个视频帧中的目标的地理坐标之间的相似度,确定N路视频之间的同步帧信息,下文将在步骤S2031B-S2033B进行描述。下面分别对两种方法进行介绍。
首先对步骤S203的第一种实现方法,即先确定每两路视频之间的同步帧信息,再确定N 路视频之间的同步帧信息的方法进行介绍。
S2031A:基于所述每个视频帧中的目标的地理坐标之间的相似度,计算所述N路视频中每两路视频之间的同步帧信息。
具体地,可以根据每两路视频的每个帧中的目标的地理坐标之间的相似度的最小值,确定每两路视频之间的同步帧信息。举例来说,步骤S2031A的具体步骤可以如图9所示,其中,图9以本次多路视频同步过程中,A路视频中包括t个视频帧参与计算、B路视频包括t个视频帧参与计算为例进行了举例说明,A路视频和B路视频中视频帧数量不同的情况下,也可以参考图9中的步骤进行计算,这里不再展开赘述。
如图9所示,首先,计算A路视频的第一个视频帧P1分别与B路视频的t个视频帧 Q1,Q2,…,Qt之间的目标的地理坐标的相似度S11,S12,…,S1t,计算A路视频的第二个视频帧P2分别与B路视频的t个视频帧Q1,Q2,…,Qt的目标的地理坐标之间的相似度S21,S22,…,S2t,…,计算A路视频的第t个视频帧分别与B路视频的t个视频帧Q1,Q2,…,Qt的目标的地理坐标之间的相似度St1,St2,…,Stt,获得A路视频与B路视频的t×t个相似度。具体实现中,计算两个视频帧的目标的地理坐标之间的相似度的具体方法可以参考图8实施例中的步骤 S2026-S2028,这里不再进行赘述。
最后,获取所述t×t个相似度中的最小值Suv,获得所述A路视频和B路视频的同步帧信息。其中,所述同步帧信息包括A路视频的视频帧Pu在视频A中的位置信息和B路视频的视频帧Qv在视频B中的位置信息,也就是说,A路视频中的第u个视频帧Pu(假设帧号为u) 与B路视频的第v个视频帧Qv(假设帧号为v)是时间同步的两个视频帧,因此图9中A路视频以及B路视频之间的同步帧信息为(u,v),举例来说,假设A路视频和B路视频的2个时间同步的视频帧为视频帧P2和视频帧Q1,也就是说,A路视频比B路视频快1视频帧,那么A路视频和B路视频的同步帧信息为(2,1)。B路视频和C路视频的2个时间同步的视频帧分别为Q5和R7,也就是说,B路视频比C路视频慢2视频帧,因此B路视频和C路视频的同步帧信息为(5,7)。
因此,参照图9所示的计算A路视频和B路视频的同步帧信息的过程,可以获得第1路视频和第2路视频之间的第1个同步帧信息(u1,v1),所述第2路视频和第3路视频之间的第2个同步帧信息(u2,v2),…,第N-1路视频和第N路视频之间的第N-1个同步帧信息(uN-1,vN-1)。
S2032A:根据所述N路视频中每两路视频之间的同步帧信息,确定所述N路视频中每两路视频的时间同步的两个帧的帧号关系。
具体地,如图10所示,可以根据第1个同步帧信息(u1,v1)确定第1路视频比第2路视频快x1帧(其中,x1=v1-u1),获得第1路视频和第二路视频之间的帧号关系为(0,x2),根据第2个同步帧信息确定第2路视频比第3路视频快x2帧(其中,x2=v2-u2),获得第1路视频和第二路视频之间的帧号关系为(0,x2),…,根据第2个同步帧信息确定第2路视频比第3路视频快xN-1帧(其中,xN-1=vN-1-uN-1),获得第N-1路视频和第N路视频之间的帧号关系为(0,xN-1)。仍以上述例子为例,A路视频和B路视频的同步帧信息为(2,1),那么A 路视频和B路视频的2个时间同步的视频帧之间的帧号关系记为(0,-1)。B路视频和C路视频的同步帧信息为(5,7),那么B路视频和C路视频的2个时间同步的视频帧之间的帧号关系记为(0,2)。
S2033A:根据所述x1,x2,…,xN-1确定所述N路视频的时间同步的N个视频帧之间的帧号关系(0,x1,x1+x2,…,x1+x2+…+xN-1)。仍以上述例子为例,A路视频和B路视频的2 个时间同步的视频帧之间的帧号关系记为(0,-1),B路视频和C路视频的2个时间同步的视频帧之间的帧号关系记为(0,2),因此,A路视频、B路视频和C路视频之间的3个时间同步的视频帧的帧号关系为(0,-1,1)。
S2034A:根据所述N路视频的时间同步的N个视频帧之间的帧号关系(0,x1,x1+x2,…, x1+x2+…+xN-1),确定所述N路视频的同步帧信息。
参考前述内容可知,N路视频的同步帧信息包括N个时间同步的视频帧在对应视频中的帧号,而满足帧号关系(0,x1,x1+x2,…,x1+x2+…+xN-1)的帧号可以有很多,比如(1,1+x1, 1+x1+x2,…,1+x1+x2+…+xN-1),也可以是帧号(2,2+x1,2+x1+x2,…,2+x1+x2+…+xN-1) 等等,因此可以选择帧号全部都是正数、且帧号之和最小的一组帧号,作为N路视频的同步帧信息。仍以上述例子为例,A路视频、B路视频和C路视频之间的3个时间同步的视频帧的帧号关系为(0,-1,1),那么A路视频、B路视频和C路视频之间的同步帧信息可以为(2, 1,3)。也就是说,A路视频、B路视频和C路视频之间的时间同步的视频帧可以是P2、Q1和R3。应理解,上述举例仅用于说明,并不能构成具体限定。
可以理解的,上述第一种确定N路视频的同步帧信息的方法(步骤S2031A-步骤S2034A),即先确定每两路视频之间的同步帧信息,再确定N路视频之间的同步帧信息的方法,该方法每次只计算2路视频之间的同步帧信息,对服务器的计算压力很小,因此非常适合部署于于计算性能不高的服务器,比如图1A实施例中部署于道路两侧的边缘计算一体机,该种同步帧信息的计算方法的计算压力很小,可以在不占用边缘计算一体机过多的计算资源的情况下,计算出路口多个IPC的同步帧信息。应理解,上述举例仅用于说明,并不能造成具体限定。
其次,对步骤S203的第二种实现方法,即直接确定N路视频之间的同步帧信息进行介绍。具体流程可以如下:
S2031B:从所述N路视频中的每路视频中抽取一个视频帧组成1个视频帧组,获得tN个视频帧组。
举例来说,如图11所示,如果是3路视频,第一路视频包括视频帧P1和P2,第二路视频包括视频帧Q1和Q2,第三路视频包括视频帧R1和R2,那么视频帧组共有8个,比如,图 11中的第一个视频帧组包括P1、Q1和R1,第二个视频帧组包括视频帧P1、Q1和R2,第三个视频帧组包括视频帧P2、Q1和R1等等,这里不展开赘述。
S2032B:确定所述每一个视频帧组中每两个视频帧中的目标的地理坐标之间相似度的和。
举例来说,如图11所示,第一个视频帧组中包括视频帧P1、Q1和R1,因此步骤S1102可以先分别计算视频帧P1和Q1之间的目标的地理坐标的相似度S11、视频帧P1和R1之间的地理坐标的相似度S'11以及视频帧Q1和R1之间的目标的地理坐标的相似度S"11,获得第一个视频帧组中每两个视频帧之间的目标的地理坐标的相似度的和Y1=S11+S'11+S"11。同理,可以获得8个视频帧组中每两个视频帧之间的目标的地理坐标的相似度的和Y1,Y2,…,Y8。
S2033B:根据所述和最小的一个视频帧组中每个帧的帧号,确定所述N路视频的同帧信息。
举例来说,如图11所示,假设Y1,Y2,…,Y8中的最小值为Y3,也就是说,第三个视频帧组 (阴影区域中的视频帧P2、Q1和R1)中每两个视频帧之间的目标的地理坐标的相似度的和最小,因此图11所示的三路视频的3个时间同步的视频帧为P2、Q1和R1,同步帧信息为(2, 1,1)。
可以理解的,对于一些计算性能较高的服务器,比如图1B实施例中的云服务器,由于云服务器的计算力很高,可以不考虑计算压力的问题。因此,第二种直接确定N路视频之间的同步帧信息的方法(步骤S2031B-步骤S2033B),可以减少多路视频同步方法的计算时间,提高多路视频同步的效率。
需要说明的,如果选择第一种确定N路视频的同步帧信息的方法(步骤S2031A-步骤 S2034A),由于每次只计算两路视频之间的的同步帧信息,那么步骤S202计算每个视频帧中的目标的地理坐标时,可以获取全部目标的地理坐标,当计算A路视频和B路视频的的同步帧信息时,选择A路视频和B路视频的共视区域内的目标的地理坐标进行计算,当计算A路视频和C路视频的的同步帧信息时,选择A路视频和C路视频的共视区域内的目标的地理坐标进行计算,这里不在进行赘述。
如果选择第二种确定N路视频的同步帧信息的方法(步骤S2031B-步骤S2033B),由于需要同时计算N路视频之间的同步帧信息,那么步骤S202计算每个视频帧的地理坐标时,可以直接获取N路视频的共视区域内的地理坐标,将筛选后的公式区域内的地理坐标系作为每一个视频帧的目标的地理坐标,进行N路视频的同步帧信息的计算,本申请不对共视区域筛选地理坐标的具体步骤顺序进行限定。
参考图2实施例可知,在不同的应用场景下,有的处理系统需要根据同步帧信息进行处理,有的需要根据时间同步的视频进行处理。因此,在本申请实施例中,所述方法还包括:根据所述同步帧信息对所述N路视频进行时间同步,获得时间同步后的N路视频。
具体实现中,由于N路视频可以是实时视频流,也可以是本地存储的离线视频。在所述 N路视频为实时视频流的情况下,根据所述N个时间同步的视频帧在对应的视频中的位置信息,获得N路时间同步的视频,每路时间同步的视频的起始视频帧为所述每路视频中的时间同步的视频帧。同理,在所述N路视频为离线视频的情况下,在获得N路视频的同步帧信息后,可以将同步帧信息中每一个帧号对应的视频帧,作为每一路视频的播放起点,从而获得 N路同步视频。例如,经过步骤S201-步骤S203计算得到图12A所示的四路视频的同步帧信息为(3,5,1,8),也就是说,四路视频的4个时间同步的视频帧分别为第一路的第3个视频帧、第二路的第5个视频帧、第三路的第1个视频帧以及第四路的第8个视频帧。因此,如图12B所示,如果图12A所示的四路视频为实时视频流,那么可以将第一路视频的起始视频帧确认为第3个视频帧,第二路视频的起始视频帧确认为第5个视频帧,第三路视频从的起始视频帧确认为第1个视频帧,第四路视频的起始视频帧确认为第8个视频帧,从而得到 4路同步的实时视频流。同理,如果图12A所示的四路视频为离线视频,那么可以第一路视频的第3个视频帧,第二路视频的第5个视频帧,第三路视频的第1个视频帧,第四路视频的第8个视频帧,作为每一路视频的播放起点,从而获得N路同步视频。理解的,图12A- 图12B仅用于举例说明,并不能构成具体限定。
在本申请实施例中,所述方法还包括:发送所述同步帧信息至其他设备;或者,发送所述N路时间同步的视频至其他设备。可以理解的,参考图2实施例可知,如果是全景视频制作以及目标检测等需要根据多个时间同步的视频帧进行处理的场景,在计算单元102获得N 路视频的同步帧信息后,输出模块103可以根据应用场景,直接将同步帧信息发送至处理系统或者处理设备,使得所述处理系统或者处理设备可以根据所述N路时间同步的视频帧获得同一时刻拍摄同一地理区域的多个图像,并根据所述多个图像进行全景图像制作或者图像识别处理。如果应用场景为监控视频的实时同步播放,那么输出单元130可以根据同步帧信息获得多路同步视频后,再将其发送至监控中心的显示屏幕,使得监控中心可以直接显示同步播放的实时监控。
综上可知,本申请提供的多路视频同步的方法,由于根据视频内容进行多路视频同步,无需额外布置任何的采集设备、视频捕捉装置等硬件装置,适用于任何型号、厂家、参数、时间戳的IPC,适用于任何网络延迟状况、传输协议的通信环境,方案整体通用性和鲁棒性更好。并且,由于通过计算多路视频的同步帧信息获得多路同步视频,获得的多路同步视频为视频帧级别同步的多路视频,因此应用场景更广泛,不仅可以适用于秒级别的应用场景,比如监控中心的视频同步显示,还可以适用于帧级别的应用场景,比如全景视频制作、视频拼接和目标检测。
上述详细阐述了本申请实施例的方法,为了便于更好的实施本申请实施例上述方案,相应地,下面还提供用于配合实施上述方案的相关设备。
本申请还提供如图2所示的一种多路视频同步系统100,该多路视频同步系统100用于执行前述多路视频同步方法。本申请对该多路视频同步系统中的功能单元的划分不做限定,可以根据需要对该多路视频同步系统中的各个单元进行增加、减少或合并。图2示例性地提供了一种功能单元的划分:多路视频同步系统100包括输入单元110、计算单元120和输出单元130,其中,
所述输入单元110用于获取N路视频,其中,所述N路视频由N个摄像机对一个地理区域进行拍摄获得,所述N为不小于2的整数。
所述计算单元120用于获取所述N路视频中的每路视频的视频帧中的目标的地理坐标,根据所述每路视频的视频帧中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度;
所述计算单元120用于根据所述不同路视频中的视频帧之间的相似度,获得同步帧信息,其中,所述同步帧信息用于对所述N个摄像机拍摄的视频进行时间同步,所述同步帧信息包括N个时间同步的视频帧在对应的视频中的位置信息。
可选地,所述N路视频为视频流,所述系统还包括输出单元130,所述输出单元130用于根据所述N个时间同步的视频帧在对应的视频中的位置信息,获得N路时间同步的视频,每路时间同步的视频的起始视频帧为所述每路视频中的时间同步的视频帧。
可选地,所述输出单元130还用于发送所述同步帧信息至其他设备;或者,所述输出单元还用于发送所述N路时间同步的视频至其他设备。
可选地,所述计算单元120用于将所述每路视频的视频帧输入目标检测模型,获得所述每路视频的视频帧中的目标的像素坐标;所述计算单元120用于根据所述每路视频的视频帧中的目标的像素坐标和所述每路视频对应的摄像机的标定参数,确定所述每路视频的视频帧中的目标的地理坐标,其中,摄像机的标定参数用于指示该摄像机拍摄的视频画面和被拍摄的所述地理区域的映射关系。
可选地,所述计算单元120用于确定共视区域,所述共视区域为所述N个摄像机共同拍摄到的区域,所述共视区域为所述地理区域的部分或全部;所述计算单元120用于根据所述每路视频的视频帧中记录的所述共视区域中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度。
可选地,所述计算单元120用于计算所述每路视频的视频帧中的目标的地理坐标与其他路视频的视频帧中的目标的地理坐标之间的距离;所述计算单元120用于根据所述距离确定不同路视频的视频帧之间的相似度。
在一种实施例中,多路视频同步系统100中的输入单元110与计算单元120用于执行前述方法的步骤S201-步骤S203及其可选步骤。在另一种更具体的实施例中,计算单元120用于执行前述方法步骤S2021-步骤S2028、步骤S2031A-步骤S2034A、步骤S2031B-步骤S2033B 及其可选步骤。
上述三个单元之间互相可通过通信通路进行数据传输,应理解,多路视频同步系统100 包括的各单元可以为软件单元、也可以为硬件单元、或部分为软件单元部分为硬件单元。
参见图13,图13为本申请实施例提供的一种电子设备的结构示意图。其中,所述电子设备1300可以是前述内容中的多路视频同步系统100。如图13所示,电子设备1300包括:处理器1310、通信接口1320以及存储器1330,所示处理器1310、通信接口1320以及存储器1330通过内部总线1340相互连接。应理解,该电子设备1300可以为图1B所示的云环境中的电子设备,或为图1A所示的边缘环境中的电子设备。
处理器1310、通信接口1320和存储器1330可通过总线方式连接,也可通过无线传输等其他手段实现通信。本申请实施例以通过总线1340连接为例,其中,总线1340可以是外设部件互连标准(Peripheral Component Interconnect,PCI)总线或扩展工业标准结构(Extended Industry Standard Architecture,EISA)总线等。所述总线1340可以分为地址总线、数据总线、控制总线等。为便于表示,图13中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
所述处理器1310可以由一个或者多个通用处理器构成,例如中央处理器(CentralProcessing Unit,CPU),或者CPU和硬件芯片的组合。上述硬件芯片可以是专用集成电路(Application-Specific Inegrated Circuit,ASIC)、可编程逻辑器件(ProgrammableLogic Device, PLD)或其组合。上述PLD可以是复杂可编程逻辑器件(ComplexProgrammable Logic Device, CPLD)、现场可编程逻辑门阵列(Field-Programmable GateArray,FPGA)、通用阵列逻辑 (Generic Array Logic,GAL)或其任意组合。处理器1310执行各种类型的数字存储指令,例如存储在存储器1330中的软件或者固件程序,它能使计算设备1300提供较宽的多种服务。
具体地,所述处理器1310可以包括计算单元和输出单元,计算单元可以通过调用存储器 1330中的程序代码以实现处理功能,包括图2中的计算单元120所描述的功能,例如获取所述N路视频中的每路视频的视频帧中的目标的地理坐标,或者根据所述每路视频的视频帧中的目标的地理坐标确定不同路视频中的视频帧之间的相似度等等,具体可用于执行前述方法的S2021-步骤S2028、步骤S2031A-步骤S2034A、步骤S2031B-步骤S2033B及其可选步骤,还可以用于执行图3-图12B实施例描述的其他步骤,这里不再进行赘述。输出单元也可以通过调用存储器1330中的程序代码以实现处理功能,包括图2中的输出单元130所描述的功能,例如根据N路视频的同步帧信息获得N路时间同步的视频,或者发送同步帧信息至其他设备,或者发送所述N路时间同步的视频至其他设备等等,还可以用于执行图3-图12B实施例描述的其他步骤,这里不再进行赘述。
存储器1330可以包括易失性存储器(Volatile Memory),例如随机存取存储器(Random Access Memory,RAM);存储器1330也可以包括非易失性存储器(Non-VolatileMemory),例如只读存储器(Read-Only Memory,ROM)、快闪存储器(Flash Memory)、硬盘(Hard Disk Drive,HDD)或固态硬盘(Solid-State Drive,SSD);存储器1330还可以包括上述种类的组合。其中,存储器1330可以存储有应用程序代码以及程序数据。程序代码可以是计算N路视频共视区域的代码、计算每个帧中的目标的地理坐标的代码、计算同步帧信息的代码等等,程序数据可以是标定参数、共视区域的地理坐标范围等等。还可以用于执行图3-图12B实施例描述的其他步骤,这里不再进行赘述。
通信接口1320可以为有线接口(例如以太网接口),可以为内部接口(例如高速串行计算机扩展总线(Peripheral Component Interconnect express,PCIe)总线接口)、有线接口(例如以太网接口)或无线接口(例如蜂窝网络接口或使用无线局域网接口),用于与与其他设备或模块进行通信。
需要说明的,图13仅仅是本申请实施例的一种可能的实现方式,实际应用中,所述电子设备还可以包括更多或更少的部件,这里不作限制。关于本申请实施例中未示出或未描述的内容,可参见前述图3-图12B所述实施例中的相关阐述,这里不再赘述。图13所示的电子设备还可以是多个计算节点构成的计算机集群,本申请不作具体限定。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在处理器上运行时,图3-图12B所示的方法流程得以实现。
本申请实施例还提供一种计算机程序产品,当所述计算机程序产品在处理器上运行时,图3-图12B所示的方法流程得以实现。
上述实施例,可以全部或部分地通过软件、硬件、固件或其他任意组合来实现。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载或执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以为通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(Digital Subscriber Line,DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集合的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,高密度数字视频光盘(Digital Video Disc,DVD)、或者半导体介质。半导体介质可以是SSD。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (15)
1.一种多路视频同步的方法,其特征在于,所述方法包括:
获取N路视频,所述N路视频由N个摄像机对一个地理区域进行拍摄获得,所述N为不小于2的整数;
获取所述N路视频中的每路视频的视频帧中的目标的地理坐标,根据所述每路视频的视频帧中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度;
根据所述不同路视频中的视频帧之间的相似度,获得同步帧信息,其中,所述同步帧信息用于对所述N个摄像机拍摄的视频进行时间同步,所述同步帧信息包括N个时间同步的视频帧在对应的视频中的位置信息。
2.如权利要求1所述的方法,其特征在于,所述N路视频为视频流,所述方法还包括:
根据所述N个时间同步的视频帧在对应的视频中的位置信息,获得N路时间同步的视频,每路时间同步的视频的起始视频帧为所述每路视频中的时间同步的视频帧。
3.如权利要求2所述的方法,其特征在于,所述方法还包括:
发送所述同步帧信息至其他设备;
或者,发送所述N路时间同步的视频至其他设备。
4.如权利要求1-3任一项所述的方法,其特征在于,所述获取所述N路视频中的每路视频的视频帧中的目标的地理坐标,包括:
将所述每路视频的视频帧输入目标检测模型,获得所述每路视频的视频帧中的目标的像素坐标;
根据所述每路视频的视频帧中的目标的像素坐标和所述每路视频对应的摄像机的标定参数,确定所述每路视频的视频帧中的目标的地理坐标,其中,摄像机的标定参数用于指示该摄像机拍摄的视频画面和被拍摄的所述地理区域的映射关系。
5.如权利要求1-4任一项所述的方法,其特征在于,
所述方法还包括:
确定共视区域,所述共视区域为所述N个摄像机共同拍摄到的区域,所述共视区域为所述地理区域的部分或全部;
所述根据所述每路视频的视频帧中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度,包括:
根据所述每路视频的视频帧中记录的所述共视区域中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度。
6.如权利要求1-5任一项所述的方法,其特征在于,所述根据所述每路视频的视频帧中的目标的地理坐标,确定不同路视频的视频帧之间的相似度,包括:
计算所述每路视频的视频帧中的目标的地理坐标与其他路视频的视频帧中的目标的地理坐标之间的距离;
根据所述距离确定不同路视频的视频帧之间的相似度。
7.一种多路视频同步系统,其特征在于,所述系统包括输入单元以及计算单元,其中,
所述输入单元用于获取N路视频,所述N路视频由N个摄像机对一个地理区域进行拍摄获得,所述N为不小于2的整数;
所述计算单元用于获取所述N路视频中的每路视频的视频帧中的目标的地理坐标,根据所述每路视频的视频帧中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度;
所述计算单元用于根据所述不同路视频中的视频帧之间的相似度,获得同步帧信息,其中,所述同步帧信息用于对所述N个摄像机拍摄的视频进行时间同步,所述同步帧信息包括N个时间同步的视频帧在对应的视频中的位置信息。
8.如权利要求7所述的系统,其特征在于,所述N路视频为视频流,所述系统还包括输出单元,所述输出单元用于根据所述N个时间同步的视频帧在对应的视频中的位置信息,获得N路时间同步的视频,每路时间同步的视频的起始视频帧为所述每路视频中的时间同步的视频帧。
9.如权利要求8所述的系统,其特征在于,所述输出单元还用于发送所述同步帧信息至其他设备;或者,所述输出单元还用于发送所述N路时间同步的视频至其他设备。
10.如权利要求7-9任一项所述的系统,其特征在于,
所述计算单元用于将所述每路视频的视频帧输入目标检测模型,获得所述每路视频的视频帧中的目标的像素坐标;
所述计算单元用于根据所述每路视频的视频帧中的目标的像素坐标和所述每路视频对应的摄像机的标定参数,确定所述每路视频的视频帧中的目标的地理坐标,其中,摄像机的标定参数用于指示该摄像机拍摄的视频画面和被拍摄的所述地理区域的映射关系。
11.如权利要求7-10任一项所述的系统,其特征在于,
所述计算单元用于确定共视区域,所述共视区域为所述N个摄像机共同拍摄到的区域,所述共视区域为所述地理区域的部分或全部;
所述计算单元用于根据所述每路视频的视频帧中记录的所述共视区域中的目标的地理坐标,确定不同路视频中的视频帧之间的相似度。
12.如权利要求7-11任一项所述的系统,其特征在于,
所述计算单元用于计算所述每路视频的视频帧中的目标的地理坐标与其他路视频的视频帧中的目标的地理坐标之间的距离;
所述计算单元用于根据所述距离确定不同路视频的视频帧之间的相似度。
13.一种计算机可读存储介质,其特征在于,包括指令,当所述指令在计算设备上运行时,使得所述计算设备执行如权利要求1至6任一权利要求所述的方法。
14.一种电子设备,其特征在于,包括处理器和存储器,所述处理器执行所述存储器中的代码执行如权利要求1至6任一权利要求所述的方法。
15.一种计算机程序产品,其特征在于,包括计算机程序,当所述计算机程序被计算设备读取并执行时,使得所述计算设备执行如权利要求1至6任一权利要求所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2020/084356 WO2021036275A1 (zh) | 2019-08-29 | 2020-04-11 | 多路视频同步的方法、系统及设备 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019108093825 | 2019-08-29 | ||
CN201910809382 | 2019-08-29 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112449152A true CN112449152A (zh) | 2021-03-05 |
CN112449152B CN112449152B (zh) | 2022-12-27 |
Family
ID=74733109
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911209316.0A Active CN112449152B (zh) | 2019-08-29 | 2019-11-30 | 多路视频同步的方法、系统及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112449152B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114710228A (zh) * | 2022-05-31 | 2022-07-05 | 杭州闪马智擎科技有限公司 | 一种时间的同步方法、装置、存储介质及电子装置 |
CN114845150A (zh) * | 2022-04-28 | 2022-08-02 | 陕西科技大学 | 一种显示屏多视频显示同步系统、方法、设备及存储介质 |
US11457247B1 (en) | 2021-05-21 | 2022-09-27 | Sensetime International Pte. Ltd. | Edge computing method and apparatus, edge device and storage medium |
WO2022243736A1 (en) * | 2021-05-21 | 2022-11-24 | Sensetime International Pte. Ltd. | Edge computing method and apparatus, edge device and storage medium |
CN117156300A (zh) * | 2023-10-30 | 2023-12-01 | 北原科技(深圳)有限公司 | 基于图像传感器的视频流合成方法和装置、设备、介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120314077A1 (en) * | 2011-06-07 | 2012-12-13 | Verizon Patent And Licensing Inc. | Network synchronized camera settings |
CN205812269U (zh) * | 2016-06-21 | 2016-12-14 | 浩云科技股份有限公司 | 全空间同步监控摄像系统 |
CN107135330A (zh) * | 2017-07-04 | 2017-09-05 | 广东工业大学 | 一种视频帧同步的方法与装置 |
CN108234819A (zh) * | 2018-01-30 | 2018-06-29 | 西安电子科技大学 | 基于单应变换的视频同步方法 |
CN109919975A (zh) * | 2019-02-20 | 2019-06-21 | 中国人民解放军陆军工程大学 | 一种基于坐标标定的广域监控运动目标关联方法 |
CN110148223A (zh) * | 2019-06-03 | 2019-08-20 | 南京财经大学 | 三维地理场景模型中监控视频目标浓缩表达方法及系统 |
-
2019
- 2019-11-30 CN CN201911209316.0A patent/CN112449152B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120314077A1 (en) * | 2011-06-07 | 2012-12-13 | Verizon Patent And Licensing Inc. | Network synchronized camera settings |
CN205812269U (zh) * | 2016-06-21 | 2016-12-14 | 浩云科技股份有限公司 | 全空间同步监控摄像系统 |
CN107135330A (zh) * | 2017-07-04 | 2017-09-05 | 广东工业大学 | 一种视频帧同步的方法与装置 |
CN108234819A (zh) * | 2018-01-30 | 2018-06-29 | 西安电子科技大学 | 基于单应变换的视频同步方法 |
CN109919975A (zh) * | 2019-02-20 | 2019-06-21 | 中国人民解放军陆军工程大学 | 一种基于坐标标定的广域监控运动目标关联方法 |
CN110148223A (zh) * | 2019-06-03 | 2019-08-20 | 南京财经大学 | 三维地理场景模型中监控视频目标浓缩表达方法及系统 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11457247B1 (en) | 2021-05-21 | 2022-09-27 | Sensetime International Pte. Ltd. | Edge computing method and apparatus, edge device and storage medium |
WO2022243736A1 (en) * | 2021-05-21 | 2022-11-24 | Sensetime International Pte. Ltd. | Edge computing method and apparatus, edge device and storage medium |
CN114845150A (zh) * | 2022-04-28 | 2022-08-02 | 陕西科技大学 | 一种显示屏多视频显示同步系统、方法、设备及存储介质 |
CN114710228A (zh) * | 2022-05-31 | 2022-07-05 | 杭州闪马智擎科技有限公司 | 一种时间的同步方法、装置、存储介质及电子装置 |
CN114710228B (zh) * | 2022-05-31 | 2022-09-09 | 杭州闪马智擎科技有限公司 | 一种时间的同步方法、装置、存储介质及电子装置 |
CN117156300A (zh) * | 2023-10-30 | 2023-12-01 | 北原科技(深圳)有限公司 | 基于图像传感器的视频流合成方法和装置、设备、介质 |
CN117156300B (zh) * | 2023-10-30 | 2024-02-02 | 北原科技(深圳)有限公司 | 基于图像传感器的视频流合成方法和装置、设备、介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112449152B (zh) | 2022-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112449152B (zh) | 多路视频同步的方法、系统及设备 | |
US11048948B2 (en) | System and method for counting objects | |
US9570111B2 (en) | Clustering crowdsourced videos by line-of-sight | |
US8457355B2 (en) | Incorporating video meta-data in 3D models | |
KR102239530B1 (ko) | 복수의 카메라로부터 뷰를 결합하는 방법 및 카메라 시스템 | |
JP2020522067A (ja) | 動的視覚センサ用ブロックマッチングオプティカルフローとステレオ視 | |
KR101965878B1 (ko) | 시각적 피처들을 이용한 이미지들의 자동 연결 | |
CN104063867A (zh) | 一种多摄像机视频同步方法和装置 | |
US10096114B1 (en) | Determining multiple camera positions from multiple videos | |
US10163257B2 (en) | Constructing a 3D structure | |
CN113447923A (zh) | 目标检测方法、装置、系统、电子设备及存储介质 | |
CN110598590A (zh) | 基于多视角相机的紧密交互人体姿态估计方法及装置 | |
CN113711276A (zh) | 尺度感知单目定位和地图构建 | |
CN113256699B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN112950717A (zh) | 一种空间标定方法和系统 | |
Rao et al. | Real-time speed estimation of vehicles from uncalibrated view-independent traffic cameras | |
CN114299230A (zh) | 一种数据生成方法、装置、电子设备及存储介质 | |
CN112270748A (zh) | 基于图像的三维重建方法及装置 | |
CN116012609A (zh) | 一种环视鱼眼多目标跟踪方法、装置、电子设备及介质 | |
CN116523972A (zh) | 基于稀疏光流运动补偿的两阶段多目标追踪方法及产品 | |
WO2021036275A1 (zh) | 多路视频同步的方法、系统及设备 | |
Knorr et al. | A modular scheme for 2D/3D conversion of TV broadcast | |
Sandström et al. | Learning online multi-sensor depth fusion | |
Zhang et al. | Edge assisted real-time instance segmentation on mobile devices | |
CN112257666B (zh) | 目标图像内容的聚合方法、装置、设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |