CN112383705B - 相机物距确定方法和装置、存储介质及电子装置 - Google Patents

相机物距确定方法和装置、存储介质及电子装置 Download PDF

Info

Publication number
CN112383705B
CN112383705B CN202011194084.9A CN202011194084A CN112383705B CN 112383705 B CN112383705 B CN 112383705B CN 202011194084 A CN202011194084 A CN 202011194084A CN 112383705 B CN112383705 B CN 112383705B
Authority
CN
China
Prior art keywords
target
object distance
camera
area
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011194084.9A
Other languages
English (en)
Other versions
CN112383705A (zh
Inventor
刘峰明
詹建华
陈明珠
况璐
陈天钧
李准
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN202011194084.9A priority Critical patent/CN112383705B/zh
Publication of CN112383705A publication Critical patent/CN112383705A/zh
Application granted granted Critical
Publication of CN112383705B publication Critical patent/CN112383705B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种相机物距确定方法和装置、存储介质及电子装置。其中,该方法包括:对目标相机所抓拍的全景区域进行分割,对分割的每个区域建立物距模型,确定目标相机当前所在目标区域,根据目标区域的物距模型确定目标相机与目标对象之间物距的目的,从而实现了根据目标相机抓拍的图像实时确定各个区域的物距模型,即物距模型的自学习过程,进而解决了现有技术中,确定目标相机物距准确度较低的技术问题。

Description

相机物距确定方法和装置、存储介质及电子装置
技术领域
本发明涉及摄像技术领域,具体而言,涉及一种相机物距确定方法和装置、存储介质及电子装置。
背景技术
目前,在智能抓拍过程中,为了保证抓拍质量和图像的清晰度,PTZ(Pan/Tilt/Zoom,云台全方位)摄像机往往会对一些拍摄的场景进行物距的标定,以便下一次再转到该场景时可以直接通过物距信息计算出对焦步数,省去自动聚焦的时间。
在现有技术中,CN108076281A《一种自动聚焦方法及PTZ摄像机》,其设计要点是:基于预先构建的空间物距模型,计算PTZ摄像机的镜头到所监控的目标监控平面的目标物距;空间物距模型中记录有参考监控平面的空间平面方程;参考监控平面为目标监控平面的等效平面;基于目标物距、PTZ摄像机的当前倍率和预设关系表,确定PTZ摄像机的聚焦马达的位置信息,预设关系表中记录有PTZ摄像机的镜头的焦点落在PTZ摄像机的图像传感器上时,物距、倍率和聚焦马达位置的对应关系;将聚焦马达驱动到位置信息所对应的位置。可见,上述实现方案中,设备更换地点后需要重新建模,使用不方便,以及预先建模,模型固定单一,效果不佳。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种相机物距确定方法和装置、存储介质及电子装置,以至少解决现有技术中,确定目标相机物距准确度较低的技术问题。
根据本发明实施例的一个方面,提供了一种相机物距确定方法,包括:获取目标相机在不同角度下的多张图像,其中,所述多张图像构成所述目标相机的全景图像;对所述多张图像进行分割,得到所述多张图像中每张图像中的各个区域块,并合并所述每张图像中各个区域块,确定所述目标相机全景图像中的多个目标区域,其中,所述多个目标区域对应不同的场景模型,所述场景模型对应物距模型,所述物距模型用于确定所述目标相机追踪目标对象的物距;根据所述目标相机当前所在的目标区域所对应的场景模型,确定所述目标相机物距信息。
根据本发明实施例的另一方面,还提供了一种相机物距确定装置,包括:第一获取单元,用于获取目标相机在不同角度下的多张图像,其中,所述多张图像构成所述目标相机的全景图像;第一确定单元,用于对所述多张图像进行分割,得到所述多张图像中每张图像中的各个区域块,并合并所述每张图像中各个区域块,确定所述目标相机全景图像中的多个目标区域,其中,所述多个目标区域对应不同的场景模型,所述场景模型对应物距模型,所述物距模型用于确定所述目标相机追踪目标对象的物距;第二确定单元,用于根据所述目标相机当前所在的目标区域所对应的场景模型,确定所述目标相机物距信息。
根据本发明实施例的又一方面,还提供了一种计算机可读的存储介质,该计算机可读的存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述相机物距确定方法。
根据本发明实施例的又一方面,还提供了一种电子装置,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,上述处理器通过计算机程序执行上述的相机物距确定方法。
在本发明实施例中,通过获取目标相机在不同角度下的多张图像,其中,多张图像构成目标相机的全景图像;对多张图像进行分割,得到多张图像中每张图像中的各个区域块,并合并每张图像中各个区域块,确定目标相机全景图像中的多个目标区域,其中,多个目标区域对应不同的场景模型,场景模型对应物距模型,物距模型用于确定目标相机追踪目标对象的物距;根据目标相机当前所在的目标区域所对应的场景模型,确定目标相机物距信息,达到了对目标相机所抓拍的全景区域进行分割,对分割的每个区域建立物距模型,确定目标相机当前所在目标区域,根据目标区域的物距模型确定目标相机与目标对象之间物距的目的,从而实现了根据目标相机抓拍的图像实时确定各个区域的物距模型,即物距模型的自学习过程,进而解决了现有技术中,确定目标相机物距准确度较低的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种可选的相机物距确定方法的流程图;
图2是根据本发明实施例的一种可选的区域分割示意图;
图3是根据本发明实施例的一种可选的区域拼接示意图;
图4是根据本发明实施例的一种可选的区域模型匹配结构图;
图5是根据本发明实施例的一种可选的场景模型对应的物距模型图(一);
图6是根据本发明实施例的一种可选的场景模型对应的物距模型图(二);
图7是根据本发明实施例的一种可选的场景模型对应的物距模型图(三);
图8是根据本发明实施例的一种可选的场景模型对应的物距模型图(四);
图9是根据本发明实施例的一种可选的区域识别的整体框图;
图10是根据本发明实施例的一种可选的区域识别流程图;
图11是根据本发明实施例的一种可选的相机物距确定装置的结构示意图;
图12是根据本发明实施例的一种可选的电子装置的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本发明实施例的一个方面,提供了一种相机物距确定方法,如图1所示,上述相机物距确定方法包括:
步骤S102,获取目标相机在不同角度下的多张图像,其中,多张图像构成目标相机的全景图。
步骤S104,对多张图像进行分割,得到多张图像中每张图像中的各个区域块,并合并每张图像中各个区域块,确定目标相机全景图像中的多个目标区域,其中,多个目标区域对应不同的场景模型,场景模型对应物距模型,物距模型用于确定目标相机追踪目标对象的物距。
步骤S106,根据目标相机当前所在的目标区域所对应的场景模型,确定目标相机物距信息。
可选的,在本实施例中相机物距确定方案可以包括但不限于应用于PTZ摄像机的物距确定。
需要说明的是,上述多张图像可以是PTZ设备在最小倍时抓拍图像。
可选的,对多张图像进行分割,得到多张图像中每张图像中的各个区域块可以包括:对多张图像进行分割,通过边缘信息得到多张图像中每张图像中的各个区域块。
通过本申请提供的实施例,获取目标相机在不同角度下的多张图像,其中,多张图像构成目标相机的全景图像;对多张图像进行分割,得到多张图像中每张图像中的各个区域块,并合并每张图像中各个区域块,确定目标相机全景图像中的多个目标区域,其中,多个目标区域对应不同的场景模型,场景模型对应物距模型,物距模型用于确定目标相机追踪目标对象的物距;根据目标相机当前所在的目标区域所对应的场景模型,确定目标相机物距信息,达到了对目标相机所抓拍的全景区域进行分割,对分割的每个区域建立物距模型,确定目标相机当前所在目标区域,根据目标区域的物距模型确定目标相机与目标对象之间物距的目的,从而实现了根据目标相机抓拍的图像实时确定各个区域的物距模型,即物距模型的自学习过程,进而解决了现有技术中,确定目标相机物距准确度较低的技术问题。
可选的,在步骤S104中,区域分割和拼接具体的实现如下:
PTZ设备上电后,变倍到最小倍,在当前P=0°,T=0°下抓图(PT初始角度可以根据实际情况调整)。通过图像边缘分割法或其它方法,将该图分割成n个小区域,分别标记为区域1,区域2,区域3等。T不变,P向右转动角度pan度,抓图,同理分割,直到转动角度P>360。此时T上转动tile角度。P从0°开始,依次转动pan角度,往复。当P>360°时,T继续转动tile角度。直到T>180°,结束。其中pan和tile的角度计算如下:
假设PTZ设备最小倍的水平视场角为P_pan度,垂直视场角为T_tile度,则
pan=360°/P_pan;
tile=180°/T_tilt;
区域分割完成后,需要将分割的区域在水平0°-360°和垂直0°-180°下进行拼接,最终所有的区域皆可由PT的坐标表示出来。如图2所示,区域分割示意图和图3所示,区域拼接示意图。
可选的,在本实施例中,根据目标相机当前所在的目标区域所对应的场景模型,确定目标相机物距信息之前,还可以包括:获取目标对象在目标区域中的轨迹信息;根据轨迹信息建立目标区域所对应场景模型的目标物距模型。
在本实施中,可以预先建立分割区域的目标模型。该目标物距模型用于目标相机的场景匹配。
通过上述的图像分割和区域拼接,可以将整个摄像区域划分为几个典型的区域场景。如为了更好的建模,需要不同区域对应的不同的模型,这些模型是预存在设备上的。当设备正常工作后,通过区域识别,识别出区域的模型后,自动匹配预设的模型,用来辅助快速聚焦。如图4所示,区域模型匹配结构图。
其中,典型的模型与物距之间的关系说明如下。
1.典型场景:路面区域、湖泊、沙漠等。
双线性模型(物距变化相对线性),如图5所示,场景模型对应的物距模型图(一)。
已知Q11、Q12、Q21、Q22点的坐标和自学习下物距对应的电机位置值f(Q11)、f(Q12)、f(Q21)、f(Q22),如图5所示,目标位置(x、y)的拟合物距公式(1)如下:
其中,x1≤x≤x2,y1≤y≤y2
2.典型场景:天空
无穷远模型(天空的物距一般大于10km,因此可以等效认为是无穷远),如图6所示,场景模型对应的物距模型图(二)。
已知(x1,y1)为区域下边界上的点,如图6所示。同时镜头无穷远物距对应的电机位置值为f(inf);则目标位置(x、y)的拟合物距公式(2)为:
f(x,y)=f(inf) (2)
其中,y≥y1。
3.典型场景:建筑物、树木。
平面模型(同一建筑物及树木区域,其物距可以等效的认为是一样的),如图7所示,场景模型对应的物距模型图(三)。
已知Q11的坐标和自学习下物距对应的电机位置值f(Q11),如图7所示,目标位置(x、y)的拟合物距公式(3)为:
f(x,y)=f(Q11) (3)
4.其它区域:除以上场景外的场景。
范围模型(无法用很好的公式表征物距,可以通过限定范围,快速聚焦),如图8所示,场景模型对应的物距模型图(四)。
已知Q11、Q22的坐标和自学习下物距对应的电机位置值f(Q11)、f(Q22),其中Q11为区域上边界最远物距对应的点,Q22为区域下边界最近物距对应的点,如图8所示,目标位置(x、y)的拟合物距公式(4)如下
f(x,y)=k (f(Q22)≤k≤f(Q11)) (4)
其中,y2≤y≤y1。
可选的,在本实施例中,根据目标相机当前所在目标区域所对应的场景模型,确定目标相机物距信息包括:
获取目标相机在当前所在的目标区域所对应的场景模型中的第一物距变化情况;
在第一物距变化情况与已知区域中第二物距变化情况满足目标条件的情况下,确定已知区域对应的场景模型为目标相机当前所在目标区域所对应的场景模型。
在本实施例中,需要匹配目标相机当前所在目标区域对应的场景模型,并根据场景模型确定目标物距模型。也就是说,先识别目标相机所在目标区域,即区域识别。如图9所示,区域识别的整体框图。区域识别主要结合三类信息进行识别:
步骤S41,图像分割得到的区域块;
步骤S42,智能跟踪信息。智能跟踪信息可以提供跟踪轨迹。根据轨迹线路,可以知道落在该轨迹的区域必然为路面,因而此类区域可以使用双线性模型。
步骤S43,云台转动过程中设备的聚焦清晰后的电机值。根据该信息,我们可以知道不同区域内的一些物距变化情况。根据不同模型的物距变化情况和已知区域的物距变化情况进行比较和适配,可以判断该区域满足的模型类别。
如图10所示,区域识别流程图。区域识别步骤如下:
步骤S101,分析智能跟踪轨迹
步骤S102,判断轨迹经过的区域,如轨迹经过,则标识为路面区域,并使用线性模型;否则进入下一步;
步骤S103,如果未经过区域,则判断该区域是否与路面相邻,相邻则标识为建筑物或者树木,使用平面模型;否则进入下一步;
步骤S104,如果该区域不与路面相邻,则判断该区域云台的垂直角度,如果云台垂直角度大于一定值,则标识为天空,使用无穷远模型;否则标识为其它区域,使用多线段模型。
可选的,在本实施例中,根据轨迹信息建立目标区域所对应场景模型的物距模型之后,可以包括:
获取目标相机在目标区域内的N个聚焦点,其中,N为大于1的正整数;
根据N个聚焦点以及目标相机当前所在的目标区域所对应的场景模型对应的目标物距模型确定目标相机与目标对象的物距信息。
在实际应用中,区域模型建立后,根据区域内少数的聚焦点的得到的物距信息,可以计算出模型区域的大部分物距值。当设备下一次来到该区域时,通过计算得到的物距值或者物距范围,可以大幅度的限制自动聚焦的搜索范围,减小聚焦时间,达到快速聚焦的目的。随着区域内的聚焦次数变多,模型足够精准时,计算出物距和实际物距可以相差无几。此时,设备转到该区域可以做到不聚焦但图像清晰。
通过上述实施例,PTZ设备在最小倍时抓拍图像,当前视场角下对图像进行分割,通过边缘信息得到各个区域块。转动相应角度,获取不同角度下的图像分割信息,合并后得到全景的区域分割图(区域内各点的坐标可由绝对PT坐标表征)。每个分割区域可以视为一种场景模型。设备在开启智能状态后会自动转动云台下并发变倍值,到位后设备自动聚焦,聚焦完成后,获取变倍和聚焦的电机值,保存PTZF值,该过程称为自学习过程。根据自学习保存的信息,判断当前分割区域满足的场景区域。获取智能跟踪轨迹坐标(需要转换成绝对PT坐标),分析轨迹穿过哪些区域。该信息也可以辅助判断分割区域的场景,利用设备端获取到的信息得到不同区域对应的不同场景。结合预设区域的不同模型,可以为自动聚焦提供相应的物距范围和物距信息。
通过本申请提供的实施例,不受安装位置及使用场景影响;自动适配,模型更准确,无需校准;拟合预测物距更准确,可以提高图像的清晰度,保证抓拍质量和效率。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
根据本发明实施例的另一个方面,还提供了一种用于实施上述相机物距确定方法的相机物距确定装置。如图11所示,该相机物距确定装置包括:第一获取单元1101、第一确定单元1103以及第二确定单元1105。
第一获取单元1101,用于获取目标相机在不同角度下的多张图像,其中,多张图像构成目标相机的全景图像。
第一确定单元1103,用于对多张图像进行分割,得到多张图像中每张图像中的各个区域块,并合并每张图像中各个区域块,确定目标相机全景图像中的多个目标区域,其中,多个目标区域对应不同的场景模型,场景模型对应物距模型,物距模型用于确定目标相机追踪目标对象的物距。
第二确定单元1105,用于根据目标相机当前所在的目标区域所对应的场景模型,确定目标相机物距信息。
通过本申请提供的实施例,第一获取单元1101获取目标相机在不同角度下的多张图像,其中,多张图像构成目标相机的全景图像;第一确定单元1103对多张图像进行分割,得到多张图像中每张图像中的各个区域块,并合并每张图像中各个区域块,确定目标相机全景图像中的多个目标区域,其中,多个目标区域对应不同的场景模型,场景模型对应物距模型,物距模型用于确定目标相机追踪目标对象的物距;第二确定单元1105根据目标相机当前所在的目标区域所对应的场景模型,确定目标相机物距信息。达到了对目标相机所抓拍的全景区域进行分割,对分割的每个区域建立物距模型,确定目标相机当前所在目标区域,根据目标区域的物距模型确定目标相机与目标对象之间物距的目的,从而实现了根据目标相机抓拍的图像实时确定各个区域的物距模型,即物距模型的自学习过程,进而解决了现有技术中,确定目标相机物距准确度较低的技术问题。
可选的,在本实施例中,上述第一获取单元1101可以包括:第一获取模块,用于获取目标相机在最小倍时不同角度下抓拍的多张图像。
可选的,在本实施例中,上述第一确定单元1103可以包括:第一确定模块,用于对多张图像进行分割,通过边缘信息得到多张图像中每张图像中的各个区域块。
可选的,在本实施例中,上述装置可以包括:第二获取单元,用于根据目标相机当前所在的目标区域所对应的场景模型,确定目标相机物距信息之前,获取目标对象在目标区域中的轨迹信息;建立单元,用于根据轨迹信息建立目标区域所对应场景模型的目标物距模型。
可选的,在本实施例中,上述第二确定单元1105可以包括:第二获取模块,用于获取目标相机在当前所在的目标区域所对应的场景模型中的第一物距变化情况;第二确定模块,用于在第一物距变化情况与已知区域中第二物距变化情况满足目标条件的情况下,确定已知区域对应的场景模型为目标相机当前所在目标区域所对应的场景模型。
可选的,在本实施例中,上述装置可以包括:第三获取单元,用于根据轨迹信息建立目标区域所对应场景模型的物距模型之后,获取目标相机在目标区域内的N个聚焦点,其中,N为大于1的正整数;第三确定单元,用于根据N个聚焦点以及目标相机当前所在的目标区域所对应的场景模型对应的目标物距模型确定目标相机与目标对象的物距信息。
根据本发明实施例的又一个方面,还提供了一种用于实施上述相机物距确定方法的电子装置,如图12所示,该电子装置包括存储器1202和处理器1204,该存储器1202中存储有计算机程序,该处理器1204被设置为通过计算机程序执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述电子装置可以位于计算机网络的多个网络设备中的至少一个网络设备。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,获取目标相机在不同角度下的多张图像,其中,多张图像构成目标相机的全景图;
S2,对多张图像进行分割,得到多张图像中每张图像中的各个区域块,并合并每张图像中各个区域块,确定目标相机全景图像中的多个目标区域,其中,多个目标区域对应不同的场景模型,场景模型对应物距模型,物距模型用于确定目标相机追踪目标对象的物距;
S3,根据目标相机当前所在的目标区域所对应的场景模型,确定目标相机物距信息。
可选地,本领域普通技术人员可以理解,图12所示的结构仅为示意,电子装置也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile Internet Devices,MID)、PAD等终端设备。图12其并不对上述电子装置的结构造成限定。例如,电子装置还可包括比图12中所示更多或者更少的组件(如网络接口等),或者具有与图12所示不同的配置。
其中,存储器1202可用于存储软件程序以及模块,如本发明实施例中的相机物距确定方法和装置对应的程序指令/模块,处理器1204通过运行存储在存储器1202内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的相机物距确定方法。存储器1202可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器1202可进一步包括相对于处理器1204远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。其中,存储器1202具体可以但不限于用于存储目标区域对应的目标物距模型。作为一种示例,如图12所示,上述存储器1202中可以但不限于包括上述相机物距确定装置中的第一获取单元1101、第一确定单元1103以及第二确定单元1105。此外,还可以包括但不限于上述相机物距确定装置中的其他模块单元,本示例中不再赘述。
可选地,上述的传输装置1206用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置1206包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置1206为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
此外,上述电子装置还包括:显示器1208,用于显示上述待确定的物距信息;和连接总线1210,用于连接上述电子装置中的各个模块部件。
根据本发明的实施例的又一方面,还提供了一种计算机可读的存储介质,该计算机可读的存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述计算机可读的存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取目标相机在不同角度下的多张图像,其中,多张图像构成目标相机的全景图;
S2,对多张图像进行分割,得到多张图像中每张图像中的各个区域块,并合并每张图像中各个区域块,确定目标相机全景图像中的多个目标区域,其中,多个目标区域对应不同的场景模型,场景模型对应物距模型,物距模型用于确定目标相机追踪目标对象的物距;
S3,根据目标相机当前所在的目标区域所对应的场景模型,确定目标相机物距信息。
可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random Access Memory,RAM)、磁盘或光盘等。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (12)

1.一种相机物距确定方法,其特征在于,包括:
获取目标相机在不同角度下的多张图像,其中,所述多张图像构成所述目标相机的全景图像;
对所述多张图像进行分割,得到所述多张图像中每张图像中的各个区域块,并合并所述每张图像中各个区域块,确定所述目标相机全景图像中的多个目标区域,其中,所述多个目标区域对应不同的场景模型,所述场景模型对应物距模型,所述物距模型用于确定所述目标相机追踪目标对象的物距,所述场景模型对应物距模型包括以下至少之一:路面、湖泊、沙漠区域的所述场景模型对应双线性模型,天空区域的所述场景模型对应无穷远模型,建筑物、树木区域的所述场景模型对应平面模型;
根据所述目标相机当前所在的目标区域所对应的场景模型,确定所述目标相机物距信息;
其中,根据所述目标相机当前所在目标区域所对应的场景模型,确定所述目标相机物距信息包括:获取所述目标相机在当前所在的目标区域所对应的场景模型中的第一物距变化情况;在所述第一物距变化情况与已知区域中第二物距变化情况满足目标条件的情况下,确定所述已知区域对应的场景模型为所述目标相机当前所在目标区域所对应的场景模型;
根据所述目标对象在所述目标区域中的轨迹信息建立所述目标区域所对应场景模型的物距模型之后,所述方法包括:获取所述目标相机在所述目标区域内的N个聚焦点,其中,N为大于1的正整数;根据所述N个聚焦点以及所述目标相机当前所在的目标区域所对应的场景模型对应的目标物距模型确定所述目标相机与所述目标对象的物距信息。
2.根据权利要求1所述的方法,其特征在于,所述获取目标相机在不同角度下的多张图像包括:
获取所述目标相机在最小倍时不同角度下抓拍的所述多张图像。
3.根据权利要求1所述的方法,其特征在于,对所述多张图像进行分割,得到所述多张图像中每张图像中的各个区域块包括:
对所述多张图像进行分割,通过边缘信息得到所述多张图像中每张图像中的各个区域块。
4.根据权利要求1所述的方法,其特征在于,根据所述目标相机当前所在的目标区域所对应的场景模型,确定所述目标相机物距信息之前,所述方法包括:
获取目标对象在所述目标区域中的轨迹信息;
根据所述轨迹信息建立所述目标区域所对应场景模型的目标物距模型。
5.一种相机物距确定装置,其特征在于,包括:
第一获取单元,用于获取目标相机在不同角度下的多张图像,其中,所述多张图像构成所述目标相机的全景图像;
第一确定单元,用于对所述多张图像进行分割,得到所述多张图像中每张图像中的各个区域块,并合并所述每张图像中各个区域块,确定所述目标相机全景图像中的多个目标区域,其中,所述多个目标区域对应不同的场景模型,所述场景模型对应物距模型,所述物距模型用于确定所述目标相机追踪目标对象的物距,所述场景模型对应物距模型包括以下至少之一:路面、湖泊、沙漠区域的所述场景模型对应双线性模型,天空区域的所述场景模型对应无穷远模型,建筑物、树木区域的所述场景模型对应平面模型;
第二确定单元,用于根据所述目标相机当前所在的目标区域所对应的场景模型,确定所述目标相机物距信息;
其中,所述第二确定单元还用于:获取所述目标相机在当前所在的目标区域所对应的场景模型中的第一物距变化情况;在所述第一物距变化情况与已知区域中第二物距变化情况满足目标条件的情况下,确定所述已知区域对应的场景模型为所述目标相机当前所在目标区域所对应的场景模型;
所述装置还用于根据所述目标对象在所述目标区域中的轨迹信息建立所述目标区域所对应场景模型的物距模型之后:获取所述目标相机在所述目标区域内的N个聚焦点,其中,N为大于1的正整数;根据所述N个聚焦点以及所述目标相机当前所在的目标区域所对应的场景模型对应的目标物距模型确定所述目标相机与所述目标对象的物距信息。
6.根据权利要求5所述的装置,其特征在于,所述第一获取单元包括:
第一获取模块,用于获取所述目标相机在最小倍时不同角度下抓拍的所述多张图像。
7.根据权利要求5所述的装置,其特征在于,所述第一确定单元包括:
第一确定模块,用于对所述多张图像进行分割,通过边缘信息得到所述多张图像中每张图像中的各个区域块。
8.根据权利要求5所述的装置,其特征在于,所述装置包括:
第二获取单元,用于根据所述目标相机当前所在的目标区域所对应的场景模型,确定所述目标相机物距信息之前,获取目标对象在所述目标区域中的轨迹信息;
建立单元,用于根据所述轨迹信息建立所述目标区域所对应场景模型的目标物距模型。
9.根据权利要求8所述的装置,其特征在于,所述第二确定单元包括:
第二获取模块,用于获取所述目标相机在当前所在的目标区域所对应的场景模型中的第一物距变化情况;
第二确定模块,用于在所述第一物距变化情况与已知区域中第二物距变化情况满足目标条件的情况下,确定所述已知区域对应的场景模型为所述目标相机当前所在目标区域所对应的场景模型。
10.根据权利要求9所述的装置,其特征在于,所述装置包括:
第三获取单元,用于根据所述轨迹信息建立所述目标区域所对应场景模型的物距模型之后,获取所述目标相机在所述目标区域内的N个聚焦点,其中,N为大于1的正整数;
第三确定单元,用于根据所述N个聚焦点以及所述目标相机当前所在的目标区域所对应的场景模型对应的目标物距模型确定所述目标相机与所述目标对象的物距信息。
11.一种计算机可读的存储介质,其特征在于,所述计算机可读的存储介质包括存储的程序,其中,所述程序运行时执行上述权利要求1至4任一项中所述的方法。
12.一种电子装置,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至4任一项中所述的方法。
CN202011194084.9A 2020-10-30 2020-10-30 相机物距确定方法和装置、存储介质及电子装置 Active CN112383705B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011194084.9A CN112383705B (zh) 2020-10-30 2020-10-30 相机物距确定方法和装置、存储介质及电子装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011194084.9A CN112383705B (zh) 2020-10-30 2020-10-30 相机物距确定方法和装置、存储介质及电子装置

Publications (2)

Publication Number Publication Date
CN112383705A CN112383705A (zh) 2021-02-19
CN112383705B true CN112383705B (zh) 2023-09-12

Family

ID=74576033

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011194084.9A Active CN112383705B (zh) 2020-10-30 2020-10-30 相机物距确定方法和装置、存储介质及电子装置

Country Status (1)

Country Link
CN (1) CN112383705B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5877809A (en) * 1996-04-15 1999-03-02 Eastman Kodak Company Method of automatic object detection in image
CN101106700A (zh) * 2007-08-01 2008-01-16 大连海事大学 视频监控系统中的智能化目标细节捕获装置及方法
CN106412426A (zh) * 2016-09-24 2017-02-15 上海大学 全聚焦摄影装置及方法
CN108076281A (zh) * 2016-11-15 2018-05-25 杭州海康威视数字技术股份有限公司 一种自动聚焦方法及ptz摄像机
CN110278383A (zh) * 2019-07-25 2019-09-24 浙江大华技术股份有限公司 聚焦方法、装置以及电子设备、存储介质
CN111541844A (zh) * 2020-04-22 2020-08-14 浙江大华技术股份有限公司 云台控制摄像机的物距预测方法、装置及存储设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5877809A (en) * 1996-04-15 1999-03-02 Eastman Kodak Company Method of automatic object detection in image
CN101106700A (zh) * 2007-08-01 2008-01-16 大连海事大学 视频监控系统中的智能化目标细节捕获装置及方法
CN106412426A (zh) * 2016-09-24 2017-02-15 上海大学 全聚焦摄影装置及方法
CN108076281A (zh) * 2016-11-15 2018-05-25 杭州海康威视数字技术股份有限公司 一种自动聚焦方法及ptz摄像机
CN110278383A (zh) * 2019-07-25 2019-09-24 浙江大华技术股份有限公司 聚焦方法、装置以及电子设备、存储介质
CN111541844A (zh) * 2020-04-22 2020-08-14 浙江大华技术股份有限公司 云台控制摄像机的物距预测方法、装置及存储设备

Also Published As

Publication number Publication date
CN112383705A (zh) 2021-02-19

Similar Documents

Publication Publication Date Title
CN103841374B (zh) 一种视频监控图像的显示方法及系统
CN110278382B (zh) 一种聚焦方法、装置、电子设备及存储介质
CN107087107A (zh) 基于双摄像头的图像处理装置及方法
KR20160028490A (ko) 화상 처리 장치, 화상 처리 방법, 및 촬상 시스템
KR101558467B1 (ko) 지피에스 수신기의 동선에 따라 수치지도에 링크된 수치좌표를 보정하는 수치정보 시스템
CN109413411B (zh) 一种监控线路的黑屏识别方法、装置及服务器
CN107424182B (zh) 一种热成像现场监控装置及方法
CN113850137A (zh) 一种输电线路图像在线监测方法、系统及设备
CN106652533A (zh) 反向寻车方法及装置
WO2021168804A1 (zh) 图像处理方法、图像处理装置和图像处理系统
JP6591594B2 (ja) 情報提供システム、サーバ装置、及び情報提供方法
CN103581562A (zh) 全景拍摄的方法和装置
WO2011096343A1 (ja) 撮影位置提案システム、撮影位置提案装置、撮影位置提案方法、及び撮影位置提案用プログラム
WO2022213833A1 (zh) 用于图像同步的方法、装置、电子设备和计算机存储介质
CN111279393A (zh) 相机标定方法、装置、设备及存储介质
CN112738394B (zh) 雷达与摄相机设备的联动方法和装置、存储介质
CN105467741A (zh) 一种全景拍照方法及终端
CN111294552A (zh) 图像采集设备确定方法及装置
CN112383705B (zh) 相机物距确定方法和装置、存储介质及电子装置
CN110930437B (zh) 目标跟踪方法和装置
CN107431751B (zh) 采集图像的方法、装置和系统
CN110913203B (zh) 图像质量检测方法、装置及计算机可读存储介质
KR102138333B1 (ko) 파노라마 영상 생성 장치 및 방법
CN108055456B (zh) 纹理采集方法及装置
KR20140039936A (ko) 대상물 정보제공시스템 및 대상물 정보제공장치와 대상물 정보제공방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant