CN115835023A - 多摄像头联动自适应锁定密集区域的抓拍方法 - Google Patents
多摄像头联动自适应锁定密集区域的抓拍方法 Download PDFInfo
- Publication number
- CN115835023A CN115835023A CN202310120851.9A CN202310120851A CN115835023A CN 115835023 A CN115835023 A CN 115835023A CN 202310120851 A CN202310120851 A CN 202310120851A CN 115835023 A CN115835023 A CN 115835023A
- Authority
- CN
- China
- Prior art keywords
- snapshot
- camera
- area
- time
- panoramic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Studio Devices (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
本发明具体涉及一种多摄像头联动自适应锁定密集区域的抓拍方法,其方法包括步骤:控制端控制全景摄像头在时间长度为t1的一段时间内对目标区域连续以均匀的时间间隔拍摄m次,得到m个全景图;根据m个全景图计算抓拍时间点,预测全景图,得到抓拍时间点预测全景图;对抓拍时间点预测全景图进行网格划分,然后以抓拍摄像头的视角区域做模板,将抓拍时间点预测全景图中网格组成与模板保持一致并且得到网格中对应的抓拍对象流量,然后再比较抓拍对象流量,在比较抓拍对象流量基础上得到流量最大的区域,并计算得到抓拍最高密度的区域;控制端控制抓拍摄像头机动对焦到“抓拍最高密度的区域”并且完成抓拍。
Description
技术领域
本发明具体涉及一种多摄像头联动自适应锁定密集区域的抓拍方法。
背景技术
现有技术中已经有多摄像头联动抓拍的技术,比如专利文献CN112929579B即公开了一种多摄像头联动抓拍的方法,该技术的核心在于通过确定全景摄像头拍摄的对象图像,从该图像中计算网格化后的图像的对象流量,然后将其根据抓拍摄像头的模板转换得到矩形的区域,基于此,比较矩形区域中对象流量的大小来确定流量最大的矩形区域,然后,在此基础上得到每个流量最大矩形区域的中心点坐标,进而得到抓拍区域的中心点,但该类技术在实现时并没有考虑到:得到全景摄像头图像到启动抓拍时的这段时间,很多情况中,该时间段内的时间可能很久,并且该类技术没有考虑抓拍摄像机在控制上的机动控制时间,换句话说,该类技术实际上根据的静态的已有的全景图像计算后获得最优的抓拍中心点(在抓拍时候的实际的全景图已经发生了很大的变化),然后由控制终端来控制抓拍摄像头实现机动调整再进行抓拍。虽然在实施中,该类技术在得到抓拍区域的中心点时,也进行间隔时间内的重复获取,以及进行动态的调整抓拍区域,但在应用中仍然存在一个难以解决的问题,即应用中,当获得第一个全景图像后,并且在抓拍摄像头机动控制聚焦到抓拍中心点的这段时间内,目标对象有可能存在较大的移动位置(基本上目标对象均为动态的),这就导致了在抓拍摄像头获得控制命令之后并实施完成抓拍区域的聚焦之后,实际的目标对象已经发生了较大的范围的变动,所以说抓拍得到的区域往往不是密集度最高的区域。
发明内容
本发明的目的在于提供一种多摄像头联动自适应锁定密集区域的抓拍方法,以解决上述背景技术中提出的问题。
为了解决上述技术问题,本发明提供如下技术方案:
多摄像头联动自适应锁定密集区域的抓拍方法,包括步骤有:
控制端控制全景摄像头在时间长度为t1的一段时间内对目标区域连续以均匀的时间间隔拍摄m次,得到m个全景图;
根据m个全景图计算抓拍时间点,预测全景图,得到抓拍时间点预测全景图;
对抓拍时间点预测全景图进行网格划分,然后以抓拍摄像头的视角区域做模板,将抓拍时间点预测全景图中网格组成与模板保持一致并且得到网格中对应的抓拍对象流量,然后再比较抓拍对象流量,在比较抓拍对象流量基础上得到流量最大的区域,并计算得到抓拍最高密度的区域;控制端控制抓拍摄像头机动对焦到“抓拍最高密度的区域”并且完成抓拍。
进一步,所述的全景图中包括若干个抓拍目标对象,抓拍目标对象包括行人或运动的物体。
进一步,得到抓拍时间点预测全景图过程包括:
提前统计获得拍摄最后一个全景图时到抓拍摄像头完成机动对焦后拍摄启动时的时间长度t2,从m个全景图中分别识别抓拍目标对象,由不同的全景图中所识别抓拍对象的位置坐标差计算最后一个全景图中每一个抓拍对象的瞬时速度,根据最后一个全景图中每一个抓拍对象的瞬时速度及时间长度t2预估每一个抓拍对象在最后一个全景图中的位置坐标并得到抓拍时间点预测全景图。
进一步,所述的时间长度t2包括:全景摄像头将全景图交付给控制端的时间t21,控制端对全景图处理的时间t22,控制端的计算时间t23,并且具体为计算得到抓拍最高密度的区域的时间,控制端得到抓拍最高密度的区域时到抓拍摄像头机动对焦到“抓拍最高密度的区域”时的时间t24。
进一步,所述计算最后一个全景图中每一个抓拍对象的瞬时速度,具体的:
S211首先计算第一个全景图中每一个抓拍对象的图上相对坐标;S212计算第二个全景图中每一个抓拍对象的图上相对坐标;计算抓拍对象的瞬时速度的长度量移动率与角度量变化率;
S213,重复S211-S212计算最后一个全景图中每一个抓拍对象的瞬时速度。
进一步,所述的重复S211-S212计算最后一个全景图中每一个抓拍对象的瞬时速度,具体包括:
首先重复S211-S212计算出每一个全景图中每一个抓拍对象的瞬时速度vj i,vj i表示第j个全景图中,第i个抓拍对象的瞬时速度,当共计有n个全景图,则共计能够计算出前n-1个全景图中每一个抓拍对象的瞬时速度,则最后一个全景图中第i个抓拍对象的瞬时速度为(,),其中的为长度量移动率,其中的为角度量变化率,其中的为第j个全景图中第i个抓拍对象瞬时速度的长度量移动率,其中的为第j个全景图中第i个抓拍对象瞬时速度的角度量变化率,其中的为第j个长度权重值,由统计获取;
多摄像头联动自适应锁定密集区域的抓拍系统,包括至少一个全景摄像头、至少一个抓拍摄像机以及控制端,所述的控制端采用PC机或嵌入式系统的主机,可选地PC机或嵌入式系统的主机与服务器电连接,所述的至少一个全景摄像头、至少一个抓拍摄像机均与控制端电连接,所述的控制端用于控制全景摄像头在时间长度为t1的一段时间内对目标区域连续以均匀的时间间隔拍摄m次,得到m个全景图;根据m个全景图计算抓拍时间点,预测全景图,得到抓拍时间点预测全景图;对抓拍时间点预测全景图进行网格划分,然后以抓拍摄像头的视角区域做模板,将抓拍时间点预测全景图中网格组成与模板保持一致并且得到网格中对应的抓拍对象流量,然后再比较抓拍对象流量,在比较抓拍对象流量基础上得到流量最大的区域,并计算得到抓拍最高密度的区域;控制抓拍摄像头机动对焦到“抓拍最高密度的区域”;所述的至少一个全景摄像头用于在时间长度为t1的一段时间内对目标区域连续以均匀的时间间隔拍摄m次,得到m个全景图;所述的至少一个抓拍摄像头用于接受控制端控制,机动对焦到“抓拍最高密度的区域”并且完成抓拍。
进一步,所述的控制端至少包括处理器,所述的处理器用于执行控制端的以下步骤:控制全景摄像头在时间长度为t1的一段时间内对目标区域连续以均匀的时间间隔拍摄m次,得到m个全景图;根据m个全景图计算抓拍时间点,预测全景图,得到抓拍时间点预测全景图;对抓拍时间点预测全景图进行网格划分,然后以抓拍摄像头的视角区域做模板,将抓拍时间点预测全景图中网格组成与模板保持一致并且得到网格中对应的抓拍对象流量,然后再比较抓拍对象流量,在比较抓拍对象流量基础上得到流量最大的区域,并计算得到抓拍最高密度的区域;控制抓拍摄像头机动对焦到“抓拍最高密度的区域”。
进一步,所述的控制端包括存储介质,存储介质用于存储处理器的命令代码。
与现有技术相比,本发明的有益效果:
本发明的一种多摄像头联动自适应锁定密集区域的抓拍方法通过由不同的全景图中所识别抓拍对象的位置坐标差计算最后一个全景图中每一个抓拍对象的瞬时速度,根据最后一个全景图中每一个抓拍对象的瞬时速度及时间长度t2预估每一个抓拍对象在最后一个全景图中的位置坐标并得到抓拍时间点预测全景图,然后在此基础上得到的抓拍时间点预测全景图即理论上直接体现在抓拍时间点每一个抓拍对象变化之后将有的分布状态,基于此计算得到抓拍最高密度的区域,控制端控制抓拍摄像头机动对焦到“抓拍最高密度的区域”并且完成抓拍这样的抓拍时抓拍的对焦区域即真正的抓拍最高密度的区域,所以本发明中在抓拍摄像头获得控制命令之后并实施完成抓拍区域的聚焦之后,即便实际的目标对象已经发生了较大的范围的变动,本发明抓拍得到的区域也为密集度最高的区域,解决了现有技术中的难题。
附图说明
图1为本发明的抓拍方法流程图。
图2为本发明的抓拍系统的组成结构图。
具体实施方式
下面将结合本发明实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种多摄像头联动自适应锁定密集区域的抓拍方法,多摄像头联动抓拍中,现有技术实际上根据的静态的已有的全景图像计算后获得最优的抓拍中心点(在抓拍时候的实际的全景图已经发生了很大的变化),然后由控制终端来控制抓拍摄像头实现机动调整再进行抓拍,换言之,现有技术存在一个难以解决的问题,即应用中,当获得第一个全景图像后,并且在抓拍摄像头机动控制聚焦到抓拍中心点的这段时间内,目标对象有可能存在较大的移动位置(基本上目标对象均为动态的),这就导致了在抓拍摄像头获得控制命令之后并实施完成抓拍区域的聚焦之后,实际的目标对象已经发生了较大的范围的变动,所以说抓拍得到的区域往往不是密集度最高的区域。本发明基于该实际应用问题,提出了一种多摄像头联动自适应锁定密集区域的抓拍方法。
本发明多摄像头联动自适应锁定密集区域的抓拍方法,如图1,包括流程:
S1控制端控制全景摄像头在时间长度为t1的一段时间内对目标区域连续以均匀的时间间隔拍摄m次,得到m个全景图。
其中的时间间隔为t1/(m-1)。
其中的全景图中包括若干个抓拍目标对象,抓拍目标对象包括行人或运动的物体等。
S2根据m个全景图计算抓拍时间点,预测全景图,得到抓拍时间点预测全景图。
其中S2包括s21:
提前统计获得拍摄最后一个全景图时到抓拍摄像头完成机动对焦后拍摄启动时的时间长度t2,从m个全景图中分别识别抓拍目标对象,由不同的全景图中所识别抓拍对象的位置坐标差计算最后一个全景图中每一个抓拍对象的瞬时速度,根据最后一个全景图中每一个抓拍对象的瞬时速度及时间长度t2预估每一个抓拍对象在最后一个全景图中的位置坐标并得到抓拍时间点预测全景图。
其中的时间长度t2包括:全景摄像头将全景图交付给控制端的时间t21,控制端对全景图处理的时间t22,控制端的计算时间t23,并且具体为计算得到抓拍最高密度的区域的时间,控制端得到抓拍最高密度的区域时到抓拍摄像头机动对焦到“抓拍最高密度的区域”时的时间t24。
S3对抓拍时间点预测全景图进行网格划分,然后以抓拍摄像头的视角区域做模板,将抓拍时间点预测全景图中网格组成与模板保持一致并且得到网格中对应的抓拍对象流量,然后再比较抓拍对象流量,在比较抓拍对象流量基础上得到流量最大的区域,并计算得到抓拍最高密度的区域。
其中,计算得到抓拍最高密度的区域,具体由流量最大的区域确定相应的坐标并且以层次聚类合并算法得到抓拍最高密度的区域。
S4控制端控制抓拍摄像头机动对焦到“抓拍最高密度的区域”并且完成抓拍。
基于本发明的一种多摄像头联动自适应锁定密集区域的抓拍方法,通过由不同的全景图中所识别抓拍对象的位置坐标差计算最后一个全景图中每一个抓拍对象的瞬时速度,根据最后一个全景图中每一个抓拍对象的瞬时速度及时间长度t2预估每一个抓拍对象在最后一个全景图中的位置坐标并得到抓拍时间点预测全景图,然后在此基础上得到的抓拍时间点预测全景图即理论上直接体现在抓拍时间点每一个抓拍对象变化之后将有的分布状态,基于此计算得到抓拍最高密度的区域,控制端控制抓拍摄像头机动对焦到“抓拍最高密度的区域”并且完成抓拍这样的抓拍时抓拍的对焦区域即真正的抓拍最高密度的区域,所以本发明中在抓拍摄像头获得控制命令之后并实施完成抓拍区域的聚焦之后,即便实际的目标对象已经发生了较大的范围的变动,本发明抓拍得到的区域也为密集度最高的区域,解决了现有技术中的难题。
其中的,S21中计算最后一个全景图中每一个抓拍对象的瞬时速度,具体的包括:
S211首先计算第一个全景图中每一个抓拍对象的图上相对坐标(x1 i,y1 i);
S212计算第二个全景图中每一个抓拍对象的图上相对坐标(x2 i,y2 i);
对于某一个(x1 i,y1 i),计算满足min((x1 i-x2 i)2+(y1 i-y2 i)2)的(x2 i,y2 i),则坐标为(x1 i,y1 i)的抓拍对象的瞬时速度为((((x1 i-x2 i)2+(y1 i-y2 i)2)1/2)*(m-1)/t1,arctan((y1 i-y2 i)/(x1 i-x2 i))*(m-1)/t1),其中的(((x1 i-x2 i)2+(y1 i-y2 i)2)1/2)*(m-1)/t1为长度量移动率,其中的arctan((y1 i-y2 i)/(x1 i-x2 i))*(m-1)/t1为角度量变化率;其中的m为全景图的个数,t1为全景摄像头对目标区域连续以均匀的时间间隔拍摄m次的时间长度;
S213,重复S211-S212计算最后一个全景图中每一个抓拍对象的瞬时速度。
其中的,重复S211-S212计算最后一个全景图中每一个抓拍对象的瞬时速度,具体包括:
首先重复S211-S212计算出每一个全景图中每一个抓拍对象的瞬时速度vj i,vj i表示第j个全景图中,第i个抓拍对象的瞬时速度,当共计有n个全景图,则共计能够计算出前n-1个全景图中每一个抓拍对象的瞬时速度,则最后一个全景图中第i个抓拍对象的瞬时速度为(,),其中的为长度量移动率,其中的为角度量变化率,其中的为第j个全景图中第i个抓拍对象瞬时速度的长度量移动率,其中的为第j个全景图中第i个抓拍对象瞬时速度的角度量变化率;其中的为第j个长度权重值,由统计获取,当共计有n个全景图,则共计有n-1个,分别为,,......且......;
本发明还提供了多摄像头联动自适应锁定密集区域的抓拍系统,如图2,其包括至少一个全景摄像头、至少一个抓拍摄像机以及控制端,所述的控制端采用PC机或嵌入式系统的主机,可选地PC机或嵌入式系统的主机与服务器电连接,所述的至少一个全景摄像头、至少一个抓拍摄像机均与控制端电连接,所述的控制端用于控制全景摄像头在时间长度为t1的一段时间内对目标区域连续以均匀的时间间隔拍摄m次,得到m个全景图;根据m个全景图计算抓拍时间点,预测全景图,得到抓拍时间点预测全景图;对抓拍时间点预测全景图进行网格划分,然后以抓拍摄像头的视角区域做模板,将抓拍时间点预测全景图中网格组成与模板保持一致并且得到网格中对应的抓拍对象流量,然后再比较抓拍对象流量,在比较抓拍对象流量基础上得到流量最大的区域,并计算得到抓拍最高密度的区域;控制抓拍摄像头机动对焦到“抓拍最高密度的区域”;所述的至少一个全景摄像头用于在时间长度为t1的一段时间内对目标区域连续以均匀的时间间隔拍摄m次,得到m个全景图;所述的至少一个抓拍摄像头用于接受控制端控制,机动对焦到“抓拍最高密度的区域”并且完成抓拍。
所述的多摄像头联动自适应锁定密集区域的抓拍系统,其中的控制端至少包括处理器和存储介质,所述的处理器用于执行控制端的以下步骤:控制全景摄像头在时间长度为t1的一段时间内对目标区域连续以均匀的时间间隔拍摄m次,得到m个全景图;根据m个全景图计算抓拍时间点,预测全景图,得到抓拍时间点预测全景图;对抓拍时间点预测全景图进行网格划分,然后以抓拍摄像头的视角区域做模板,将抓拍时间点预测全景图中网格组成与模板保持一致并且得到网格中对应的抓拍对象流量,然后再比较抓拍对象流量,在比较抓拍对象流量基础上得到流量最大的区域,并计算得到抓拍最高密度的区域;控制抓拍摄像头机动对焦到“抓拍最高密度的区域”。
其中的根据m个全景图计算抓拍时间点,预测全景图,得到抓拍时间点预测全景图过程中,需要计算最后一个全景图中每一个抓拍对象的瞬时速度,其具体的包括:
S211首先计算第一个全景图中每一个抓拍对象的图上相对坐标(x1 i,y1 i);
S212计算第二个全景图中每一个抓拍对象的图上相对坐标(x2 i,y2 i);
对于某一个(x1 i,y1 i),计算满足min((x1 i-x2 i)2+(y1 i-y2 i)2)的(x2 i,y2 i),则坐标为(x1 i,y1 i)的抓拍对象的瞬时速度为((((x1 i-x2 i)2+(y1 i-y2 i)2)1/2)*(m-1)/t1,arctan((y1 i-y2 i)/(x1 i-x2 i))*(m-1)/t1),其中的(((x1 i-x2 i)2+(y1 i-y2 i)2)1/2)*(m-1)/t1为长度量移动率,其中的arctan((y1 i-y2 i)/(x1 i-x2 i))*(m-1)/t1为角度量变化率;其中的m为全景图的个数,t1为全景摄像头对目标区域连续以均匀的时间间隔拍摄m次的时间长度;
S213,重复S211-S212计算最后一个全景图中每一个抓拍对象的瞬时速度。
其中的,重复S211-S212计算最后一个全景图中每一个抓拍对象的瞬时速度,具体包括:
首先重复S211-S212计算出每一个全景图中每一个抓拍对象的瞬时速度vj i,vj i表示第j个全景图中,第i个抓拍对象的瞬时速度,当共计有n个全景图,则共计能够计算出前n-1个全景图中每一个抓拍对象的瞬时速度,则最后一个全景图中第i个抓拍对象的瞬时速度为(,),其中的为长度量移动率,其中的为角度量变化率,其中的为第j个全景图中第i个抓拍对象瞬时速度的长度量移动率,其中的为第j个全景图中第i个抓拍对象瞬时速度的角度量变化率;其中的为第j个长度权重值,由统计获取,当共计有n个全景图,则共计有n-1个,分别为,,......且......;
所述的存储器用于存储处理器的命令代码。
本文中应用了具体的个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (9)
1.多摄像头联动自适应锁定密集区域的抓拍方法,其特征在于,包括步骤有:
控制端控制全景摄像头在时间长度为t1的一段时间内对目标区域连续以均匀的时间间隔拍摄m次,得到m个全景图;根据m个全景图计算抓拍时间点,预测全景图,得到抓拍时间点预测全景图;对抓拍时间点预测全景图进行网格划分,然后以抓拍摄像头的视角区域做模板,将抓拍时间点预测全景图中网格组成与模板保持一致并且得到网格中对应的抓拍对象流量,然后再比较抓拍对象流量,在比较抓拍对象流量基础上得到流量最大的区域,并计算得到抓拍最高密度的区域;控制端控制抓拍摄像头机动对焦到“抓拍最高密度的区域”并且完成抓拍。
2.根据权利要求1所述的多摄像头联动自适应锁定密集区域的抓拍方法,其特征在于,所述的全景图中包括若干个抓拍目标对象,抓拍目标对象包括行人或运动的物体。
3.根据权利要求1所述的多摄像头联动自适应锁定密集区域的抓拍方法,其特征在于,得到抓拍时间点预测全景图过程包括:
提前统计获得拍摄最后一个全景图时到抓拍摄像头完成机动对焦后拍摄启动时的时间长度t2,从m个全景图中分别识别抓拍目标对象,由不同的全景图中所识别抓拍对象的位置坐标差计算最后一个全景图中每一个抓拍对象的瞬时速度,根据最后一个全景图中每一个抓拍对象的瞬时速度及时间长度t2预估每一个抓拍对象在最后一个全景图中的位置坐标并得到抓拍时间点预测全景图。
4.根据权利要求3所述的多摄像头联动自适应锁定密集区域的抓拍方法,其特征在于,所述的时间长度t2包括:全景摄像头将全景图交付给控制端的时间t21,控制端对全景图处理的时间t22,控制端的计算时间t23,并且具体为计算得到抓拍最高密度的区域的时间,控制端得到抓拍最高密度的区域时到抓拍摄像头机动对焦到“抓拍最高密度的区域”时的时间t24。
5.根据权利要求3所述的多摄像头联动自适应锁定密集区域的抓拍方法,其特征在于,所述计算最后一个全景图中每一个抓拍对象的瞬时速度,具体的:
S211首先计算第一个全景图中每一个抓拍对象的图上相对坐标;S212计算第二个全景图中每一个抓拍对象的图上相对坐标;计算抓拍对象的瞬时速度的长度量移动率与角度量变化率;
S213重复S211-S212计算最后一个全景图中每一个抓拍对象的瞬时速度。
6.根据权利要求5所述的多摄像头联动自适应锁定密集区域的抓拍方法,其特征在于,所述的重复S211-S212计算最后一个全景图中每一个抓拍对象的瞬时速度,具体包括:
7.多摄像头联动自适应锁定密集区域的抓拍系统,其特征在于,包括至少一个全景摄像头、至少一个抓拍摄像机以及控制端,所述的控制端采用PC机或嵌入式系统的主机,PC机或嵌入式系统的主机与服务器电连接,所述的至少一个全景摄像头、至少一个抓拍摄像机均与控制端电连接,所述的控制端用于控制全景摄像头在时间长度为t1的一段时间内对目标区域连续以均匀的时间间隔拍摄m次,得到m个全景图;根据m个全景图计算抓拍时间点,预测全景图,得到抓拍时间点预测全景图;对抓拍时间点预测全景图进行网格划分,然后以抓拍摄像头的视角区域做模板,将抓拍时间点预测全景图中网格组成与模板保持一致并且得到网格中对应的抓拍对象流量,然后再比较抓拍对象流量,在比较抓拍对象流量基础上得到流量最大的区域,并计算得到抓拍最高密度的区域;控制抓拍摄像头机动对焦到“抓拍最高密度的区域”;所述的至少一个全景摄像头用于在时间长度为t1的一段时间内对目标区域连续以均匀的时间间隔拍摄m次,得到m个全景图;所述的至少一个抓拍摄像头用于接受控制端控制,机动对焦到“抓拍最高密度的区域”并且完成抓拍。
8.根据权利要求7所述的多摄像头联动自适应锁定密集区域的抓拍系统,其特征在于,所述的控制端至少包括处理器,所述的处理器用于执行控制端的以下步骤:控制全景摄像头在时间长度为t1的一段时间内对目标区域连续以均匀的时间间隔拍摄m次,得到m个全景图;根据m个全景图计算抓拍时间点,预测全景图,得到抓拍时间点预测全景图;对抓拍时间点预测全景图进行网格划分,然后以抓拍摄像头的视角区域做模板,将抓拍时间点预测全景图中网格组成与模板保持一致并且得到网格中对应的抓拍对象流量,然后再比较抓拍对象流量,在比较抓拍对象流量基础上得到流量最大的区域,并计算得到抓拍最高密度的区域;控制抓拍摄像头机动对焦到“抓拍最高密度的区域”。
9.根据权利要求7所述的多摄像头联动自适应锁定密集区域的抓拍系统,其特征在于,所述的控制端包括存储介质,存储介质用于存储处理器的命令代码。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310120851.9A CN115835023B (zh) | 2023-02-16 | 2023-02-16 | 多摄像头联动自适应锁定密集区域的抓拍方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310120851.9A CN115835023B (zh) | 2023-02-16 | 2023-02-16 | 多摄像头联动自适应锁定密集区域的抓拍方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115835023A true CN115835023A (zh) | 2023-03-21 |
CN115835023B CN115835023B (zh) | 2023-05-16 |
Family
ID=85521571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310120851.9A Active CN115835023B (zh) | 2023-02-16 | 2023-02-16 | 多摄像头联动自适应锁定密集区域的抓拍方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115835023B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111263118A (zh) * | 2020-02-18 | 2020-06-09 | 浙江大华技术股份有限公司 | 图像的获取方法、装置、存储介质及电子装置 |
CN111815517A (zh) * | 2020-07-09 | 2020-10-23 | 苏州万店掌网络科技有限公司 | 一种基于球机抓拍图片的自适应全景拼接方法 |
CN112929579A (zh) * | 2021-02-03 | 2021-06-08 | 广州市赋安电子科技有限公司 | 一种自适应锁定密集区域的多摄像头联动船舶抓拍方法 |
CN114187325A (zh) * | 2021-12-07 | 2022-03-15 | 浙江宇视科技有限公司 | 目标对象的抓拍方法、装置、计算机设备以及存储介质 |
CN115578867A (zh) * | 2021-12-28 | 2023-01-06 | 杭州电子科技大学 | 耦合物联网和边缘计算设备的低时延实时流量预测云平台 |
-
2023
- 2023-02-16 CN CN202310120851.9A patent/CN115835023B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111263118A (zh) * | 2020-02-18 | 2020-06-09 | 浙江大华技术股份有限公司 | 图像的获取方法、装置、存储介质及电子装置 |
CN111815517A (zh) * | 2020-07-09 | 2020-10-23 | 苏州万店掌网络科技有限公司 | 一种基于球机抓拍图片的自适应全景拼接方法 |
CN112929579A (zh) * | 2021-02-03 | 2021-06-08 | 广州市赋安电子科技有限公司 | 一种自适应锁定密集区域的多摄像头联动船舶抓拍方法 |
CN114187325A (zh) * | 2021-12-07 | 2022-03-15 | 浙江宇视科技有限公司 | 目标对象的抓拍方法、装置、计算机设备以及存储介质 |
CN115578867A (zh) * | 2021-12-28 | 2023-01-06 | 杭州电子科技大学 | 耦合物联网和边缘计算设备的低时延实时流量预测云平台 |
Also Published As
Publication number | Publication date |
---|---|
CN115835023B (zh) | 2023-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108848304B (zh) | 一种全景视频的目标跟踪方法、装置和全景相机 | |
TWI420906B (zh) | 興趣區域之追蹤系統與方法及電腦程式產品 | |
CN111314609B (zh) | 一种控制云台追踪摄像的方法及装置 | |
CN108564554A (zh) | 一种基于运动轨迹优化的视频稳定方法 | |
CN113506340B (zh) | 一种云台位姿预测的方法、设备和计算机可读存储介质 | |
JPH09212648A (ja) | 動画像処理方法 | |
CN102456226A (zh) | 兴趣区域的追踪系统、方法及计算机程序产品 | |
CN110111364B (zh) | 运动检测方法、装置、电子设备及存储介质 | |
CN113391644B (zh) | 一种基于图像信息熵的无人机拍摄距离半自动寻优方法 | |
KR101111503B1 (ko) | 전방향 피티지 카메라 제어 장치 및 그 방법 | |
CN110827321A (zh) | 一种基于三维信息的多相机协同的主动目标跟踪方法 | |
WO2022041014A1 (zh) | 云台及其控制方法、设备,拍摄装置、系统和存储介质 | |
CN109327656A (zh) | 全景影像的图像采集方法及系统 | |
Tu et al. | Content adaptive tiling method based on user access preference for streaming panoramic video | |
WO2021204298A1 (zh) | 一种拍摄方法、装置及系统 | |
CN115835023A (zh) | 多摄像头联动自适应锁定密集区域的抓拍方法 | |
CN113301257A (zh) | 一种基于全景图像的子图像采集方法及装置 | |
WO2022041119A1 (zh) | 三维点云处理方法及装置 | |
CN115705651A (zh) | 视频运动估计方法、装置、设备和计算机可读存储介质 | |
KR101210866B1 (ko) | 회전줌 카메라 기반 평균이동 알고리즘을 이용한 객체추적 시스템 | |
WO2022040988A1 (zh) | 图像处理方法、装置及可移动平台 | |
CN108830781B (zh) | 一种透视变换模型下的宽基线影像直线匹配方法 | |
CN111866377A (zh) | 一种增稳控制方法、装置及相机系统 | |
Zuo et al. | A distortion correction algorithm for fish-eye panoramic image of master-slave visual surveillance system | |
Guha et al. | DynaTracker: Target tracking in active video surveillance systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |