CN115937667A - 一种目标位置的确定方法、装置、电子设备及存储介质 - Google Patents
一种目标位置的确定方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN115937667A CN115937667A CN202111150982.9A CN202111150982A CN115937667A CN 115937667 A CN115937667 A CN 115937667A CN 202111150982 A CN202111150982 A CN 202111150982A CN 115937667 A CN115937667 A CN 115937667A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- live
- virtual image
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 230000004927 fusion Effects 0.000 claims abstract description 79
- 238000004891 communication Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 14
- 230000003247 decreasing effect Effects 0.000 claims description 12
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 19
- 238000010586 diagram Methods 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000006748 scratching Methods 0.000 description 1
- 230000002393 scratching effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例提供了一种目标位置的确定方法、装置、电子设备及存储介质,可以快速准确地定位实景图像中被覆盖的预设目标。所述方法包括:获取目标场景的实景图像和该目标场景的虚拟图像;将该实景图像投影至该虚拟图像,生成融合图像;根据该融合图像,确定该虚拟图像中的预设目标在该实景图像中的位置。
Description
技术领域
本申请涉及视频处理技术领域,特别是涉及一种目标位置的确定方法、装置、电子设备及存储介质。
背景技术
在暴雨、连续降雨等天气状况下,城市内涝多有发生。在发生城市内涝时,路面等位置的下水井很可能会出现堵塞或者井盖被冲走的问题,会严重影响排水速度和人们的生命安全。所以在发生城市内涝时,需要及时疏通堵塞的下水井或者定位井盖被冲走的下水井,以便进行相应处理。
由于在城市内涝发生时,地面被水覆盖,无法直接看到下水井所在的位置,目前的方式都是通过人工来寻找下水井,这样不仅定位效率比较低,还存在人员掉入下水井的风险。
发明内容
本申请实施例的目的在于提供一种目标位置的确定方法、装置、电子设备及存储介质,以提高图像中目标的定位效率。具体技术方案如下:
第一方面,本申请实施例提供了一种目标位置的确定方法,所述方法包括:
获取目标场景的实景图像和所述目标场景的虚拟图像;
将所述实景图像投影至所述虚拟图像,生成融合图像;
根据所述融合图像,确定所述虚拟图像中的预设目标在所述实景图像中的位置。
可选的,所述将所述实景图像投影至所述虚拟图像,生成融合图像,包括:
将所述实景图像以第一透明度投影至所述虚拟图像,生成融合图像;其中,所述第一透明度大于所述虚拟图像的第二透明度。
可选的,所述根据所述融合图像,确定所述虚拟图像中的预设目标在所述实景图像中的位置,包括:
将所述预设目标覆盖所述融合图像,以得到所述预设目标在所述实景图像中的位置。
可选的,所述虚拟图像中还包括所述预设目标对应的标签,所述标签用于指示所述预设目标在所述虚拟图像中的位置;
所述根据所述融合图像,确定所述虚拟图像中的预设目标在所述实景图像中的位置,包括:
将所述标签覆盖所述融合图像;
根据所述标签,确定所述预设目标在所述实景图像中的位置。
可选的,所述根据所述融合图像,确定所述虚拟图像中的预设目标在所述实景图像中的位置,包括:
在所述融合图像中识别所述预设目标,得到所述虚拟图像中的预设目标在所述实景图像中的位置。
可选的,所述获取目标场景的实景图像和所述目标场景的虚拟图像,包括:
获取目标场景的实景图像和包括所述目标场景的全景图像;获取拍摄所述实景图像的目标球机的第一PTZ值;基于所述第一PTZ值,以及预先确定的所述目标球机的PTZ值与所述全景图像的投影坐标的对应关系,确定所述第一PTZ值对应的所述全景图像中的第一投影坐标;基于所述第一投影坐标从所述全景图像中获得所述目标场景的虚拟图像;
或者,
获取包括所述目标场景的全景图像;响应于用户操作改变所述全景图像的显示视角至所述目标场景,确定改变视角后的所述全景图像中的第二投影坐标,基于所述第二投影坐标,以及预先确定的目标球机的PTZ值与所述全景图像的投影坐标的对应关系,确定所述第二投影坐标对应的所述目标球机的第二PTZ值,并控制所述目标球机按照所述第二PTZ值运动,并获取运动后的所述目标球机采集的实景图像。
可选的,所述方法还包括:
接收针对所述融合图像中分界标识的操作,其中,所述操作指示目标方向;
响应于所述操作,控制所述分界标识沿所述目标方向运动;
响应于所述分界标识沿所述目标方向运动,沿所述目标方向减小所述融合图像、所述虚拟图像中一个图像的画面大小,并增大所述融合图像、所述虚拟图像中另一个图像的画面大小。
可选的,通过增大所述实景图像的透明度为100%以增大所述虚拟图像的画面大小,通过降低所述实景图像的透明度以增大所述融合图像的画面大小。
可选的,所述预设目标为以所述虚拟图像中的地面为基准的高度标尺。
第二方面,本申请实施例提供了一种目标位置的确定装置,所述装置包括:
图像获取模块,用于获取目标场景的实景图像和所述目标场景的虚拟图像;
图像融合模块,用于将所述实景图像投影至所述虚拟图像,生成融合图像;
位置确定模块,用于根据所述融合图像,确定所述虚拟图像中的预设目标在所述实景图像中的位置。
可选的,所述图像融合模块包括:
图像融合单元,用于将所述实景图像以第一透明度投影至所述虚拟图像,生成融合图像;其中,所述第一透明度大于所述虚拟图像的第二透明度。
所述位置确定模块包括:
第一位置确定单元,用于将所述预设目标覆盖所述融合图像,以得到所述预设目标在所述实景图像中的位置。
所述虚拟图像中还包括所述预设目标对应的标签,所述标签用于指示所述预设目标在所述虚拟图像中的位置;
所述位置确定模块包括:
标签覆盖单元,用于将所述标签覆盖所述融合图像;
第二位置确定单元,用于根据所述标签,确定所述预设目标在所述实景图像中的位置。
所述位置确定模块包括:
位置识别单元,用于在所述融合图像中识别所述预设目标,得到所述虚拟图像中的预设目标在所述实景图像中的位置。
所述图像获取模块包括:
第一获取单元,用于获取目标场景的实景图像和包括所述目标场景的全景图像;获取拍摄所述实景图像的目标球机的第一PTZ值;基于所述第一PTZ值,以及预先确定的所述目标球机的PTZ值与所述全景图像的投影坐标的对应关系,确定所述第一PTZ值对应的所述全景图像中的第一投影坐标;基于所述第一投影坐标从所述全景图像中获得所述目标场景的虚拟图像;
或者,
第二获取单元,用于获取包括所述目标场景的全景图像;响应于用户操作改变所述全景图像的显示视角至所述目标场景,确定改变视角后的所述全景图像中的第二投影坐标,基于所述第二投影坐标,以及预先确定的目标球机的PTZ值与所述全景图像的投影坐标的对应关系,确定所述第二投影坐标对应的所述目标球机的第二PTZ值,并控制所述目标球机按照所述第二PTZ值运动,并获取运动后的所述目标球机采集的实景图像。
所述装置还包括:
操作接收模块,用于接收针对所述融合图像中分界标识的操作,其中,所述操作指示目标方向;
标识运动模块,用于响应于所述操作,控制所述分界标识沿所述目标方向运动;
画面大小改变模块,用于响应于所述分界标识沿所述目标方向运动,沿所述目标方向减小所述融合图像、所述虚拟图像中一个图像的画面大小,并增大所述融合图像、所述虚拟图像中另一个图像的画面大小。
其中,通过增大所述实景图像的透明度为100%以增大所述虚拟图像的画面大小,通过降低所述实景图像的透明度以增大所述融合图像的画面大小。
所述预设目标为以所述虚拟图像中的地面为基准的高度标尺。
第三方面,本申请实施例提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述第一方面任一所述的方法步骤。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面任一所述的方法步骤。
本申请实施例有益效果:
本申请实施例提供的方案中,由于实景图像和虚拟图像都是目标场景的图像,因此,虚拟图像中的预设目标在实景图像中会有一个对应的位置。当预设目标在实景图像中的位置由于实景中出现的人或物被遮挡时,例如目标场景中的道路井盖由于内涝而被积水覆盖时,可以通过将预设目标被覆盖的目标场景的实景图像投影至该目标场景的虚拟图像,得到位置一一重合的融合图像,并在融合图像中识别出虚拟图像中的该预设目标在实景图像中的对应位置,这样,管理人员便可以在当前画面中确定预设目标的位置,从而快速准确地定位预设目标,可以大大提高目标的定位效率。当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本申请实施例所提供的一种目标位置的确定方法的流程图;
图2为基于图1所示实施例的显示画面的一种示意图;
图3为基于图1所示实施例的显示画面的另一种示意图;
图4为基于图1所示实施例的画面大小改变方式的一种流程图;
图5(a)为基于图4所示实施例的显示画面的另一种示意图;
图5(b)为基于图4所示实施例的显示画面的另一种示意图;
图6为基于图1所示实施例的视频投影方式的一种流程图;
图7(a)为基于图4所示实施例的显示画面的另一种示意图;
图7(b)为基于图4所示实施例的显示画面的另一种示意图;
图8为基于图1所示实施例的高度标尺显示方式的一种流程图;
图9为基于图8所示实施例的显示画面的一种示意图;
图10为本发明实施例所提供的一种目标位置的确定装置的结构示意图;
图11为本发明实施例所提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员基于本申请所获得的所有其他实施例,都属于本发明保护的范围。
为了提高目标的定位效率,本申请实施例提供了一种目标位置的确定方法、装置、电子设备、计算机可读存储介质以及计算机程序产品。下面首先对本申请实施例所提供的一种目标位置的确定方法进行介绍。
本申请实施例所提供的一种目标位置的确定方法可以应用于任意可以需要确定图像中目标位置的电子设备,例如,可以为笔记本电脑、平板电脑、手机等,在此不做具体限定,为了描述清楚,以下称为电子设备。该电子设备可以与图像采集设备通信连接,以获取图像采集设备采集的图像和视频。其中,图像采集设备可以为球机等能够改变采集视角的图像采集设备。
如图1所示,一种目标位置的确定方法,所述方法包括:
S101,获取目标场景的实景图像和所述目标场景的虚拟图像;
其中,实景图像可以为图像采集设备针对目标场景所采集的图像,或者可以为图像采集设备针对目标场景所采集的视频中的视频图像,这都是合理的。在一种实施方式中,该视频可以为图像采集设备针对目标场景所采集的实时视频。虚拟图像可以为全景图像中与目标场景对应的图像部分,或者为预先获取的目标场景的图像,只要虚拟图像中预设目标未被遮挡即可。其中,该全景图像可以是360全景图像或720全景图像,又称为VR(VirtualReality,虚拟现实)全景图,或者其他角度的全景图像,在此不做具体限定。
全景图像例如可以为包括路口A、公交站B、商场C等多个目标场景的全景图像,可以根据实际需要选择需查看的目标场景。例如,当需要查看路口A处是否有预设目标例如井盖时,可以获取路口A处的实景图像,同时获取包括路口A的全景图像,再从该全景图像中找到与路口A对应的虚拟图像,并后于后续步骤的处理。
作为一种实施方式,为了生成全景图像,电子设备可以获取目标球机拍摄的多张图像,其中,该多张图像可以包括目标球机旋转360度所拍摄的图像,这样,该多张图像可以包括目标场景下的所有内容。
为了方便采集图像,可以预先根据目标球机的拍摄视场角等,设置多个预置点,该多个预置点可以与目标球机的PTZ(Pan/Tilt/Zoom)值对应,使得目标球机分别转动至每个预置点后采集的图像可以包括当前场景的所有内容。电子设备可以控制目标球机按照预置点进行转动,也就是分别转动至各个预置点处。
目标球机在按照预置点进行旋转的同时,每转动至一个预置点时都会采集一张图像,电子设备便可以获取目标球机在每个预置点所采集的图像,也就可以得到上述多张图像。获取到该多张图像后,电子设备便可以将该多张图像合成全景图像。其中,合成全景图像的具体方式可以采用图像处理领域的任一全景图合成方式,在此不做具体限定及说明。
S102,将所述实景图像投影至所述虚拟图像,生成融合图像;
S103,根据所述融合图像,确定所述虚拟图像中的预设目标在所述实景图像中的位置。
由于实景图像和虚拟图像都是目标场景的图像,因此,虚拟图像中的预设目标在实景图像中会有一个对应的位置。当预设目标在实景图像中的位置由于实景中出现的人或物被遮挡时,例如目标场景中的道路井盖由于内涝而被积水覆盖时,可以通过将预设目标被覆盖的目标场景的实景图像投影至该目标场景的虚拟图像,得到位置一一重合的融合图像,并在融合图像中识别出虚拟图像中的该预设目标在实景图像中的对应位置,这样,管理人员便可以在当前画面中确定预设目标的位置,从而快速准确地定位预设目标,可以大大提高目标的定位效率;同时,还可以获知目标场景的实时情况。
例如,在发生城市内涝时,实景图像中的井盖被水淹没而无法观看到,电子设备可以将该实景图像投影至虚拟图像中,生成融合图像,进而根据该融合图像,确定虚拟图像中的井盖在实景图像中的位置,从而快速准确定位井盖的位置。
作为一种实施方式,为了方便将实景图像投影至虚拟图像中,可以预先建立图像采集设备的视角参数与投影坐标之间的对应关系,电子设备便可以根据图像采集设备当前的视角参数以及对应关系,确定投影坐标,进而按照该投影坐标进行视频投影。
其中,投影坐标即为标识实景图像在虚拟图像中对应的位置的坐标,例如,在实景图像画面为矩形区域的情况下,投影坐标即可以为能够标识该矩形区域位置的坐标。在矩形区域的长宽固定的情况下,投影坐标可以为该矩形区域的中心点坐标。
针对图像采集设备为上述目标球机的情况,可以预先建立目标球机的PTZ值与投影坐标之间的对应关系,在上述全景图像的合成过程中,由于目标球机旋转至各个角度后所采集的图像的中心点在全景图像中对应的位置是可以确定的,所以可以获得多个数据对:目标球机的PTZ值-全景图像中投影坐标,进而,基于该多组数据对,通过拟合等算法可以确定全景图像中投影坐标与目标球机的PTZ值之间的对应关系。
电子设备便可以根据目标球机当前的PTZ值以及对应关系,确定投影坐标,进而按照该投影坐标进行视频投影。在一种实施方式中,由于实景图像为目标球机处于当前的PTZ值时采集的图像,该实景图像必定对应于虚拟图像中的一部分区域,所以只要找到二者之间的一对相对应的位置,基于该位置将实景图像叠加于虚拟图像中即可完成视频投影。
而上述预先建立的投影坐标与目标球机的PTZ值之间的对应关系中,即可以表示目标球机处于各个PTZ值时所采集的图像的中心点与投影坐标之间的对应关系,那么电子设备便可以将实景图像的画面中心点与虚拟图像中的投影坐标重合,进而将实景图像叠加于虚拟图像中,生成融合图像。
在一种实施方式中,上述电子设备可以为服务器,管理人员可以在服务器显示的当前画面中看到预设目标(井盖)在实景图像中的位置,从而远程协助身在目标场景中的工作人员快速找到被水面淹没的该井盖,进而,工作人员可以对该井盖进行下水排查、疏通等作业。
在另一种实施方式中,上述电子设备可以为终端,工作人员可以携带该终端设备进行作业。工作人员可以在终端显示的当前画面中看到预设目标(井盖)在实景图像中的位置,进而根据实景图像中自身的位置来快速找到被水面淹没的该井盖,进而,可以对该井盖进行下水排查、疏通等作业。
作为本申请实施例的一种实施方式,上述将所述实景图像投影至所述虚拟图像,生成融合图像的步骤,可以包括:
将所述实景图像以第一透明度投影至所述虚拟图像,生成融合图像。其中,第一透明度大于所述虚拟图像的第二透明度。
在该实施方式中,电子设备可以将实景图像以第一透明度叠加至虚拟图像中进行显示,并且该第一透明度大于虚拟图像的第二透明度。也就是说,实景图像的透明度更大,实景图像没有覆盖住虚拟图像,这样,虚拟图像中的预设目标便可以透过实景图像的画面显示于实景图像的画面中。其中,第一透明度可以根据实际显示需求设定,只要大于虚拟图像的第二透明度即可,例如,可以为50%、60%、35%等,在此不做具体限定。
在一种实施方式中,虚拟图像的第二透明度一般可以为0%,也就是说,虚拟图像可以以不透明的效果显示。例如,如图2所示的显示画面中,实景图像210按照第一透明度叠加至虚拟图像220中,生成融合图像240,虚拟图像220中的预设目标230便可以透过实景图像210的画面显示于实景图像的画面中。此时,即使在实景图像210的画面中预设目标被覆盖,用户还是可以在当前画面中清楚地看到预设目标230。
作为本申请实施例的一种实施方式,上述根据所述融合图像,确定所述虚拟图像中的预设目标在所述实景图像中的位置的步骤,可以包括:
将所述预设目标覆盖所述融合图像,以得到所述预设目标在所述实景图像中的位置。
获取上述虚拟图像后,可以对该虚拟图像进行目标检测,确定其中的预设目标的位置,进而可以通过抠图等方式将虚拟图像中的预设目标抠取出来,例如,预设目标为井盖,那么电子设备可以对虚拟图像进行目标检测,确定其中井盖的位置,进而将井盖的图像抠取出来。
这样,在将实景图像投影至虚拟图像中生成融合图像时,可以保持预设目标处于最上层,即:使预设目标覆盖该融合图像。在一种实施方式中,管理人员便可以在当前融合图像的画面中看到该预设目标,从而确定预设目标在实景图像中的位置。
可见,在本实施例中,电子设备可以将预设目标覆盖融合图像,以得到预设目标在实景图像中的位置,由于预设目标覆盖融合图像,所以即使在实景图像中预设目标被覆盖,用户也能确定预设目标在实景图像中的位置。
作为本申请实施例的一种实施方式,上述虚拟图像中还可以包括预设目标对应的标签,该标签用于指示预设目标在虚拟图像中的位置。
电子设备识别得到预设目标在虚拟图像中的位置后,可以设置该预设目标对应的标签,该标签用于指示预设目标在虚拟图像中的位置,例如,该标签带有箭头或其他指示符,该箭头或其他指示符指向预设目标的位置,以便后续在融合图像中根据该箭头或其他指示符能够知晓预设目标在实景图像中的位置。可选的,预设目标的标签可以包括标识性的图案、文字等,在此不做具体限定。以预设目标为井盖为例,该标签可以包括该井盖的相关信息,例如,可以包括井盖类型、所在道路名称、井盖序号等。该标签也可以包括“这里是井盖”、“我在这”等提醒文字,在此不做具体限定。
相应的,上述根据所述融合图像,确定所述虚拟图像中的预设目标在所述实景图像中的位置的步骤,可以包括:
将所述标签覆盖所述融合图像;根据所述标签,确定所述预设目标在所述实景图像中的位置。
将实景图像投影至虚拟图像生成融合图像后,电子设备可以将预设目标的标签覆盖该融合图像,作为一种实施方式,电子设备可以将预设目标的标签始终显示于当前画面中的最上层,这样,该标签也就可以覆盖融合图像。
进而,由于标签指示预设目标在虚拟图像中的位置,所以可以根据该标签,确定预设目标在实景图像中的位置。在一种实施方式中,由于标签覆盖融合图像,所以用户可以在当前画面中看到该标签,进而也就可以根据该标签指示的位置,确定预设目标在实景图像中的位置。
例如,如图3所示的显示画面中,预设目标的标签310覆盖融合图像320,这样,即使实景图像330中预设目标被遮挡而无法看到,但是由于预设目标的标签310覆盖于融合图像320之上,所以也可以根据该标签310,确定预设目标在实景图像330中的位置。
可见,在本实施例中,虚拟图像中可以显示预设目标对应的标签,在这种情况下,电子设备可以将该标签覆盖融合图像,进而便可以根据标签确定预设目标在实景图像中的位置。这样,可以通过将预设目标对应的标签覆盖融合图像,而实现预设目标在实景图像中的位置的准确快速定位。
针对上述将实景图像以第一透明度投影至虚拟图像的情况,上述根据所述融合图像,确定所述虚拟图像中的预设目标在所述实景图像中的位置的步骤,可以包括:
在所述融合图像中识别所述预设目标,得到所述虚拟图像中的预设目标在所述实景图像中的位置。
由于实景图像以第一透明度投影至虚拟图像,所以在融合图像中,虚拟图像中的预设目标可以透过实景图像而显示出来,为了确定预设目标在实景图像中的位置,电子设备可以采用任意一种目标识别算法对融合图像进行识别,以识别其中的预设目标,进而得到虚拟图像中的预设目标在实景图像中的位置。
其中,预设目标在实景图像中的位置具体可以为表示预设目标所在区域的标识框的坐标等,在此不做具体限定。例如,预设目标为井盖,电子设备可以在融合图像中识别井盖,确定可以框选该井盖的标识框的坐标,例如,可以为标识框的两个对角角点的坐标等,该坐标即可以作为井盖的位置。
可见,在本实施例中,针对上述将实景图像以第一透明度投影至虚拟图像的情况,电子设备可以在融合图像中识别预设目标,得到虚拟图像中的预设目标在实景图像中的位置,从而可以准确定位预设目标的位置。
作为本申请实施例的一种实施方式,上述获取目标场景的实景图像和所述目标场景的虚拟图像的步骤,可以包括以下任一种实施方式:
第一种方式中,获取目标场景的实景图像和包括所述目标场景的全景图像;获取拍摄所述实景图像的目标球机的第一PTZ值;基于所述第一PTZ值,以及预先确定的所述目标球机的PTZ值与所述全景图像的投影坐标的对应关系,确定所述第一PTZ值对应的所述全景图像中的第一投影坐标;基于所述第一投影坐标从所述全景图像中获得所述目标场景的虚拟图像。
电子设备可以获取目标场景的实景图像和包括目标场景的全景图像,该全景图像可以预先获取的包括目标场景的全景图像,即历史全景图像。该全景图像可以为预先基于目标球机采集的包括目标场景的多张图像合成的。在一种情况下,实景图像中的预设目标被遮挡,此时可以触发报警,从而电子设备可以调取预先获取的包括该目标场景的历史全景图像。
进而,电子设备可以获取拍摄该实景图像的目标球机的第一PTZ值,该第一PTZ值即决定了实景图像所针对的具体视角。为了确定该实景图像对应全景图像中的哪一部分,电子设备可以基于该第一PTZ值,从上述预先确定的目标球机的PTZ值与全景图像的投影坐标之间的对应关系中,查找该第一PTZ值对应的全景图像中的第一投影坐标。
例如,目标球机的第一PTZ值为PTZ a1,在上述对应关系中,PTZ a1所对应的全景图像的投影坐标为坐标a,那么电子设备可以确定该第一PTZ值对应的全景图像中的第一投影坐标为坐标a。
其中,第一投影坐标即为目标球机的PTZ值为第一PTZ值时所采集的图像的中心点在全景图像中对应的位置。所以,确定了该第一投影坐标后,电子设备便可以基于第一投影坐标从全景图像中获得目标场景的虚拟图像。具体来说,电子设备可以以第一投影坐标为中心点,从全景图像中截取大小不小于实景图像的大小的图像,得到目标场景的虚拟图像。
第二种方式中,获取包括所述目标场景的全景图像;响应于用户操作改变所述全景图像的显示视角至所述目标场景,确定改变视角后的所述全景图像中的第二投影坐标,基于所述第二投影坐标,以及预先确定的目标球机的PTZ值与所述全景图像的投影坐标的对应关系,确定所述第二投影坐标对应的所述目标球机的第二PTZ值,并控制所述目标球机按照所述第二PTZ值运动,并获取运动后的所述目标球机采集的实景图像。
电子设备可以获取包括目标场景的全景图像,该全景图像同样可以为预先获取的包括目标场景的全景图像,即历史全景图像,可以为预先基于目标球机采集的包括目标场景的多张图像合成的。
获取该全景图像后,电子设备可以显示该全景图像后供用户查看。当用户想要查看目标场景所对应的实景图像时,可以对该全景图像进行操作,以改变全景图像显示视角至目标场景,例如,用户可以拖动全景图像以使全景图像中的目标场景转动至画面中央。
接下来,电子设备便可以确定改变视角后的全景图像中的第二投影坐标,其中,由于用户一般会将想要查看的视角调整至画面中央,所以电子设备可以确定改变视角后的全景图像的中心点为第二投影坐标。进而,可以基于该第二投影坐标,在上述预先确定的目标球机的PTZ值与全景图像的投影坐标的对应关系中查找第二投影坐标对应的PTZ值,该PTZ值即为目标球机的第二PTZ值。
如果目标球机运动至该第二PTZ值所指示的位置,那么其采集的实景图像即为针对目标场景的实景图像,所以电子设备可以控制目标球机按照第二PTZ值运动,并获取运动后的目标球机采集的实景图像,也就是目标场景的实景图像。
可见,在本实施例中,电子设备可以基于目标球机的PTZ值从全景图像中获得目标场景的虚拟图像,或者,可以根据用户操作控制目标球机运动,从而获取用户想要查看的目标场景的实景图像,无论采用哪种方式,均可以获取满足用户需求的实景图像以及虚拟图像,可以保证后续可以准确定位预设目标的位置。
作为本申请实施例的一种实施方式,如图4所示,上述方法还可以包括:
S401,接收针对所述融合图像中分界标识的操作;其中,所述操作指示目标方向;
S402,响应于所述操作,控制所述分界标识沿所述目标方向运动;
S403,响应于所述分界标识沿所述目标方向运动,沿所述目标方向减小所述融合图像、所述虚拟图像中一个图像的画面大小,并增大所述融合图像、所述虚拟图像中另一个图像的画面大小。
电子设备确定虚拟图像中的预设目标在实景图像中的位置后,可以在融合图像中提供分界标识,该分界标识用以区分融合图像区域和虚拟图像区域;用户可以针对融合图像中的分界标识进行操作,例如,拖拽、点击、长按等,在此不做具体限定。该操作用于指示目标方向,以使分界标识沿着目标方向运动,例如,可以为向界面左侧移动、向界面右侧移动、向界面上方移动或向界面下方移动等。电子设备接收针对融合图像中分界标识的操作后,便可以响应于该操作,控制分界标识沿该操作所指示的目标方向运动。
电子设备响应于分界标识沿目标方向运动,沿目标方向减小融合图像、虚拟图像中一个图像的画面大小,并增大融合图像、虚拟图像中另一个图像的画面大小。
例如,用户可以点击界面中分界标识,每检测到用户针对该分界标识的点击操作,将融合图像的画面向目标方向减小预设大小,将虚拟图像的画面增大预设大小。例如,每检测到用户针对该分界标识的点击操作,将融合图像的画面向界面左侧减小10%,虚拟图像的画面则增大10%。
这样,用户可以通过操作分界标识改变融合图像和虚拟图像的画面大小,以查看想要查看的融合图像和虚拟图像,从而将融合图像画面与虚拟图像画面进行比较,可以通过比较核实预设目标的位置的确定是否正确,也可以更为直观地查看预设目标在实景图像中的位置,并且还可以在虚拟图像中获得更多的信息。
例如,如图5(a)所示的显示画面中,实景图像510的画面叠加至虚拟图像520中进行显示,确定了虚拟图像520中的预设目标530的位置后,可以在融合图像550中提供分界标识540,即融合图像550左侧的分界线,图5(a)中预设目标530以虚线形式示出,表示其为被遮挡状态。此时用户可以针对界面中分界标识540进行操作,电子设备检测到用户发出的操作后,可以响应于该操作,控制分界标识540沿目标方向运动,并响应于分界标识540沿目标方向运动,改变融合图像550和虚拟图像520的画面大小。改变后的显示画面如图5(b)所示,融合图像550的画面大小减小,当前画面中可以看到预设目标530,用户可以通过比较融合图像550的画面以及虚拟图像520的画面,核实预设目标530的位置的确定是否正确,也可以更为直观地查看预设目标530在实景图像510中的位置,还可以在虚拟图像520中获得更多的信息。
可见,在本实施例中,电子设备可以接收针对融合图像中分界标识的操作,响应于操作,控制分界标识沿目标方向运动,进而响应于分界标识沿目标方向运动,沿目标方向减小融合图像、虚拟图像中一个图像的画面大小,并增大另一个图像的画面大小,这样,用户可以通过比较核实预设目标的位置的确定是否正确,也可以更为直观地查看预设目标在实景图像中的位置,并且还可以在虚拟图像中获得更多的信息。
作为本申请实施例的一种实施方式,如图6所示,上述将所述实景图像以第一透明度投影至所述虚拟图像的步骤,可以包括:
S601,对实时视频进行解码,得到所述实时视频包括的多帧实景图像;
电子设备可以对图像采集设备所采集的实时视频进行解码,从而得到实时视频包括的多帧实景图像。其中,解码方式可以根据图像采集设备所采集的实时视频的具体编码方式确定,只要可以解码得到实时视频包括的多帧实景图像即可,在此不做具体限定。
S602,设置所述多帧实景图像的透明度为第一透明度;
S603,将设置透明度后的多帧实景图像按照预设帧率逐帧叠加至所述虚拟图像中显示。
得到实时视频包括的多帧实景图像后,电子设备可以设置该多帧实景图像的透明度为第一透明度。进而,将设置透明度后的多帧实景图像按照预设帧率逐帧叠加至虚拟图像中显示,即可以实现实景图像以第一透明度显示于虚拟图像中的效果。
作为一种实时方式,可以通过无插件的播放器实现上述过程,具体来说,可以通过解码器对实时视频进行取流后解码,得到多帧实景图像,然后推送多帧实景图像给canvas进行渲染,canvas可以按照每秒30帧等预设帧率进行图像渲染处理,更改canvas的透明度为第一透明度,进而播放处理后的图像即可以实现实景图像与历史全景图像融合的目的,也就是实景图像按照第一透明度叠加在虚拟图像中显示的效果。
可见,在本实施例中,电子设备可以对实时视频进行解码,得到实时视频包括的多帧实景图像,设置多帧实景图像的透明度为第一透明度,进而将设置透明度后的多帧实景图像按照预设帧率逐帧叠加至虚拟图像中显示,可以很好的实现实景图像按照第一透明度叠加在虚拟图像中显示的效果,方便用户查看预设目标,从而准确定位预设目标的位置。
作为本申请实施例的一种实施方式,上述改变实景图像和融合图像的画面大小的方式,可以包括:
通过增大所述实景图像的透明度为100%以增大所述虚拟图像的画面大小,通过降低所述实景图像的透明度以增大所述融合图像的画面大小。
为了方便用户操作,可以在融合图像中设置分界标识,当用户针对分界标识发出拖动操作时,说明用户想要改变融合图像的画面大小。那么,电子设备检测到用户针对该分界标识发出的拖动操作时,可以跟随该拖动操作所指示的目标方向改变融合图像与虚拟图像的画面的分界位置,这样,融合图像和虚拟图像的画面大小也就跟随用户发出的拖动操作而发生改变。
在一种实施方式中,电子设备可以通过增大实景图像的透明度为100%以增大虚拟图像的画面大小,通过降低实景图像的透明度以增大融合图像的画面大小。增大实景图像的透明度为100%,那么实景图像也就以完全透明的状态显示,也就可以透出下方的虚拟图像的画面,从而达到增大虚拟图像的画面大小的目的。相应的,降低实景图像的透明度,那么实景图像也就以不完全透明的状态显示,也就可以遮挡下方的虚拟图像的画面,从而达到增大融合图像的画面大小的目的。
例如,如图7(a)所示的显示画面中,融合图像710位于分界标识730的左侧,预设目标的标签在融合图像710中显示,根据该标签,可以确定预设目标位于白色车辆下方。虚拟图像720位于分界标识730的右侧。此时,用户可以针对分界标识730(图7(a)中为分界线)发出拖动操作,例如,用户可以按住分界标识730向画面左侧拖动。此时,电子设备检测到用户发出的拖动操作,并跟随拖动操作所指示的目标方向即画面左侧,减小画面左侧中的融合图像710,相应地,增大画面右侧的虚拟图像720;例如,增大画面右侧中融合图像710的实景图像的画面的透明度为100%,这样实景图像完全透明,虚拟图像720完全显现,实现增大虚拟图像720画面的效果。如图7(b)所示,用户便可以看到虚拟图像720中的井盖及其标签740。
用户可以将融合图像710的画面的边界位置拖动至刚刚能够露出井盖及其标签,这样,用户可以可以对比融合图像的画面与虚拟图像中的井盖及其标签,快速准确地核实井盖的位置的确定是否准确。
在一种实施方式中,用户可以来回拖动分界标识,例如,针对上述示例,用户可以按住分界标识710左右来回拖动,这样融合图像和虚拟图像的画面大小跟随拖动操作反复增大减少,在这个过程中,用户可以通过对比融合图像的画面与虚拟图像中的井盖及其标签,快速准确地核实井盖的位置的确定是否准确。
可见,在本实施例中,电子设备通过增大实景图像的透明度为100%以增大虚拟图像的画面大小,通过降低实景图像的透明度以增大融合图像的画面大小。进而,用户可以通过更加方便的通过对比融合图像的画面与虚拟图像中的预设目标和/或其标签,快速准确地核实预设目标的位置的确定是否准确。
作为本申请实施例的一种实施方式,如图8所示,上述方法还可以包括:
S801,对所述虚拟图像进行目标检测,确定预设参照物在所述虚拟图像中的高度,作为参考高度;
为了在发生城市内涝等情况下方便用户确定水位,可以在界面中显示高度标尺,也就是说,上述预设目标可以为以虚拟图像中的地面为基准的高度标尺。为了确定该高度标尺,电子设备可以对虚拟图像进行目标检测,确定预设参照物在虚拟图像中的高度,作为参考高度。其中,预设参照物可以为台阶、长椅、石墩等实际高度已知的物体。
在一种实施方式中,电子设备可以采用边缘检测算法检测出虚拟图像中的预设参照物的上边缘和下边缘,进而根据上边缘和下边缘之间的距离确定预设参照物在虚拟图像中的高度,即参考高度。
S802,基于预先获取的所述预设参照物的实际高度与所述参考高度,确定以所述虚拟图像中的地面为基准的高度标尺;
确定了预设参照物在虚拟图像中的参考高度后,电子设备可以基于预先获取的该预设参照物的实际高度,确定虚拟图像的比例尺,也就是虚拟图像中物体与实际物体之间的比例。
例如,预设参照物为台阶,电子设备确定该台阶在虚拟图像中的参考高度为0.5厘米,预先获取的该台阶的实际高度为10厘米,那么电子设备可以确定虚拟图像中物体与实际物体之间的比例为:0.5/10=1:20。
进而,电子设备根据该比例即可以确定以虚拟图像中的地面为基准的高度标尺,例如,电子设备确定虚拟图像中物体与实际物体之间的比例为1:20,那么便可以确定高度标尺A,该高度标尺A中的1厘米对应实际高度20厘米。比如高度标尺A的高度为5厘米,其中,每5毫米对应实际高度10厘米,那么可以在高度标尺A中标识每5毫米对应的实际高度,即10厘米、20厘米、30厘米…90厘米、1米。
S803,在所述虚拟图像和/或所述融合图像中显示所述高度标尺。
电子设备可以将上述高度标尺显示于虚拟图像和/或融合图像中,这样,用户也就可以在当前画面中看到该高度标尺,进而可以将融合图像中的水面的高度与该高度标尺进行比对,便可以确定水面的大致高度。
例如,如图9所示的显界面中,融合图像的画面的右侧显示高度标尺,该高度标尺中的高度以地面为基准,这样,如果融合图像的画面中地面被水覆盖,用户在查看时,便可以将融合图像的画面中水面与高度标尺进行比对,进而可以确定融合图像中目标场景的水位的实际高度。
可见,在本实施例中,电子设备可以对虚拟图像进行目标检测,确定预设参照物在虚拟图像中的高度,作为参考高度,基于预先获取的预设参照物的实际高度与参考高度,确定以虚拟图像中的地面为基准的高度标尺,进而在虚拟图像和/或融合图像中显示高度标尺。这样,在融合图像的画面中的地面被水覆盖是情况下,也就是发生城市内涝时,用户可以将融合图像的画面中水面与高度标尺进行比对,进而可以确定融合图像中目标场景的水位的实际高度。
相应于上述目标位置的确定方法,本申请实施例还提供了一种目标位置的确定装置。下面对本申请实施例所提供的一种目标位置的确定装置进行介绍。
如图10所示,一种目标位置的确定装置,所述装置包括:
图像获取模块1010,用于获取目标场景的实景图像和所述目标场景的虚拟图像;
图像融合模块1020,用于将所述实景图像投影至所述虚拟图像,生成融合图像;
位置确定模块1030,用于根据所述融合图像,确定所述虚拟图像中的预设目标在所述实景图像中的位置。
可见,本申请实施例提供的方案中,由于实景图像和虚拟图像都是目标场景的图像,因此,虚拟图像中的预设目标在实景图像中会有一个对应的位置。当预设目标在实景图像中的位置由于实景中出现的人或物被遮挡时,例如目标场景中的道路井盖由于内涝而被积水覆盖时,可以通过将预设目标被覆盖的目标场景的实景图像投影至该目标场景的虚拟图像,得到位置一一重合的融合图像,并在融合图像中识别出虚拟图像中的该预设目标在实景图像中的对应位置,这样,管理人员便可以在当前画面中确定预设目标的位置,从而快速准确地定位预设目标,可以大大提高目标的定位效率。
作为本申请实施例的一种实施方式,上述图像融合模块1020可以包括:
图像融合单元,用于将所述实景图像以第一透明度投影至所述虚拟图像,生成融合图像;
其中,所述第一透明度大于所述虚拟图像的第二透明度。
作为本申请实施例的一种实施方式,上述位置确定模块1030可以包括:
第一位置确定单元,用于将所述预设目标覆盖所述融合图像,以得到所述预设目标在所述实景图像中的位置。
作为本申请实施例的一种实施方式,上述虚拟图像中还可以包括所述预设目标对应的标签,所述标签用于指示所述预设目标在所述虚拟图像中的位置;
上述位置确定模块1030可以包括:
标签覆盖单元,用于将所述标签覆盖所述融合图像;
第二位置确定单元,用于根据所述标签,确定所述预设目标在所述实景图像中的位置。
作为本申请实施例的一种实施方式,上述位置确定模块1030可以包括:
位置识别单元,用于在所述融合图像中识别所述预设目标,得到所述虚拟图像中的预设目标在所述实景图像中的位置。
作为本申请实施例的一种实施方式,上述图像获取模块1010可以包括:
第一获取单元,用于获取目标场景的实景图像和包括所述目标场景的全景图像;获取拍摄所述实景图像的目标球机的第一PTZ值;基于所述第一PTZ值,以及预先确定的所述目标球机的PTZ值与所述全景图像的投影坐标的对应关系,确定所述第一PTZ值对应的所述全景图像中的第一投影坐标;基于所述第一投影坐标从所述全景图像中获得所述目标场景的虚拟图像;
或者,
第二获取单元,用于获取包括所述目标场景的全景图像;响应于用户操作改变所述全景图像的显示视角至所述目标场景,确定改变视角后的所述全景图像中的第二投影坐标,基于所述第二投影坐标,以及预先确定的目标球机的PTZ值与所述全景图像的投影坐标的对应关系,确定所述第二投影坐标对应的所述目标球机的第二PTZ值,并控制所述目标球机按照所述第二PTZ值运动,并获取运动后的所述目标球机采集的实景图像。
作为本申请实施例的一种实施方式,上述装置还可以包括:
操作接收模块,用于接收针对所述融合图像中分界标识的操作;
其中,所述操作指示目标方向。
标识运动模块,用于响应于所述操作,控制所述分界标识沿所述目标方向运动;
画面大小改变模块,用于响应于所述分界标识沿所述目标方向运动,沿所述目标方向减小所述融合图像、所述虚拟图像中一个图像的画面大小,并增大所述融合图像、所述虚拟图像中另一个图像的画面大小。
作为本申请实施例的一种实施方式,可以通过增大所述实景图像的透明度为100%以增大所述虚拟图像的画面大小,通过降低所述实景图像的透明度以增大所述融合图像的画面大小。
作为本申请实施例的一种实施方式,上述预设目标可以为以所述虚拟图像中的地面为基准的高度标尺。
本申请实施例还提供了一种电子设备,如图11所示,包括处理器1101、通信接口1102、存储器1103和通信总线1104,其中,处理器1101,通信接口1102,存储器1103通过通信总线1104完成相互间的通信,
存储器1103,用于存放计算机程序;
处理器1101,用于执行存储器1103上所存放的程序时,实现上述任一实施例所述的目标位置的确定方法步骤。
可见,本申请实施例提供的方案中,由于实景图像和虚拟图像都是目标场景的图像,因此,虚拟图像中的预设目标在实景图像中会有一个对应的位置。当预设目标在实景图像中的位置由于实景中出现的人或物被遮挡时,例如目标场景中的道路井盖由于内涝而被积水覆盖时,可以通过将预设目标被覆盖的目标场景的实景图像投影至该目标场景的虚拟图像,得到位置一一重合的融合图像,并在融合图像中识别出虚拟图像中的该预设目标在实景图像中的对应位置,这样,管理人员便可以在当前画面中确定预设目标的位置,从而快速准确地定位预设目标,可以大大提高目标的定位效率。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
在本申请提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一实施例所述的目标位置的确定方法步骤。
可见,本申请实施例提供的方案中,由于实景图像和虚拟图像都是目标场景的图像,因此,虚拟图像中的预设目标在实景图像中会有一个对应的位置。当预设目标在实景图像中的位置由于实景中出现的人或物被遮挡时,例如目标场景中的道路井盖由于内涝而被积水覆盖时,可以通过将预设目标被覆盖的目标场景的实景图像投影至该目标场景的虚拟图像,得到位置一一重合的融合图像,并在融合图像中识别出虚拟图像中的该预设目标在实景图像中的对应位置,这样,管理人员便可以在当前画面中确定预设目标的位置,从而快速准确地定位预设目标,可以大大提高目标的定位效率。
在本申请提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一实施例所述的目标位置的确定方法步骤。
可见,本申请实施例提供的方案中,由于实景图像和虚拟图像都是目标场景的图像,因此,虚拟图像中的预设目标在实景图像中会有一个对应的位置。当预设目标在实景图像中的位置由于实景中出现的人或物被遮挡时,例如目标场景中的道路井盖由于内涝而被积水覆盖时,可以通过将预设目标被覆盖的目标场景的实景图像投影至该目标场景的虚拟图像,得到位置一一重合的融合图像,并在融合图像中识别出虚拟图像中的该预设目标在实景图像中的对应位置,这样,管理人员便可以在当前画面中确定预设目标的位置,从而快速准确地定位预设目标,可以大大提高目标的定位效率。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、电子设备、计算机可读存储介质以及计算机程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的较佳实施例,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。
Claims (12)
1.一种目标位置的确定方法,其特征在于,所述方法包括:
获取目标场景的实景图像和所述目标场景的虚拟图像;
将所述实景图像投影至所述虚拟图像,生成融合图像;
根据所述融合图像,确定所述虚拟图像中的预设目标在所述实景图像中的位置。
2.根据权利要求1所述的方法,其特征在于,所述将所述实景图像投影至所述虚拟图像,生成融合图像,包括:
将所述实景图像以第一透明度投影至所述虚拟图像,生成融合图像;其中,所述第一透明度大于所述虚拟图像的第二透明度。
3.根据权利要求1或2所述的方法,其特征在于,所述根据所述融合图像,确定所述虚拟图像中的预设目标在所述实景图像中的位置,包括:
将所述预设目标覆盖所述融合图像,以得到所述预设目标在所述实景图像中的位置。
4.根据权利要求1或2所述的方法,其特征在于,所述虚拟图像中还包括所述预设目标对应的标签,所述标签用于指示所述预设目标在所述虚拟图像中的位置;
所述根据所述融合图像,确定所述虚拟图像中的预设目标在所述实景图像中的位置,包括:
将所述标签覆盖所述融合图像;
根据所述标签,确定所述预设目标在所述实景图像中的位置。
5.根据权利要求2所述的方法,其特征在于,所述根据所述融合图像,确定所述虚拟图像中的预设目标在所述实景图像中的位置,包括:
在所述融合图像中识别所述预设目标,得到所述虚拟图像中的预设目标在所述实景图像中的位置。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
接收针对所述融合图像中分界标识的操作,其中,所述操作指示目标方向;
响应于所述操作,控制所述分界标识沿所述目标方向运动;
响应于所述分界标识沿所述目标方向运动,沿所述目标方向减小所述融合图像、所述虚拟图像中一个图像的画面大小,并增大所述融合图像、所述虚拟图像中另一个图像的画面大小。
7.根据权利要求6所述的方法,其特征在于,
通过增大所述实景图像的透明度为100%以增大所述虚拟图像的画面大小,通过降低所述实景图像的透明度以增大所述融合图像的画面大小。
8.根据权利要求1所述的方法,其特征在于,所述预设目标为以所述虚拟图像中的地面为基准的高度标尺。
9.一种目标位置的确定装置,其特征在于,所述装置包括:
图像获取模块,用于获取目标场景的实景图像和所述目标场景的虚拟图像;
图像融合模块,用于将所述实景图像投影至所述虚拟图像,生成融合图像;
位置确定模块,用于根据所述融合图像,确定所述虚拟图像中的预设目标在所述实景图像中的位置。
10.根据权利要求9所述的装置,其特征在于,所述图像融合模块包括:
图像融合单元,用于将所述实景图像以第一透明度投影至所述虚拟图像,生成融合图像;其中,所述第一透明度大于所述虚拟图像的第二透明度;
所述位置确定模块包括:
第一位置确定单元,用于将所述预设目标覆盖所述融合图像,以得到所述预设目标在所述实景图像中的位置;
所述虚拟图像中还包括所述预设目标对应的标签,所述标签用于指示所述预设目标在所述虚拟图像中的位置;
所述位置确定模块包括:
标签覆盖单元,用于将所述标签覆盖所述融合图像;
第二位置确定单元,用于根据所述标签,确定所述预设目标在所述实景图像中的位置;
所述位置确定模块包括:
位置识别单元,用于在所述融合图像中识别所述预设目标,得到所述虚拟图像中的预设目标在所述实景图像中的位置;
所述装置还包括:
操作接收模块,用于接收针对所述融合图像中分界标识的操作,其中,所述操作指示目标方向;
标识运动模块,用于响应于所述操作,控制所述分界标识沿所述目标方向运动;
画面大小改变模块,用于响应于所述分界标识沿所述目标方向运动,沿所述目标方向减小所述融合图像、所述虚拟图像中一个图像的画面大小,并增大所述融合图像、所述虚拟图像中另一个图像的画面大小;
其中,通过增大所述实景图像的透明度为100%以增大所述虚拟图像的画面大小,通过降低所述实景图像的透明度以增大所述融合图像的画面大小;
所述预设目标为以所述虚拟图像中的地面为基准的高度标尺。
11.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-8任一所述的方法步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-8任一所述的方法步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111150982.9A CN115937667A (zh) | 2021-09-29 | 2021-09-29 | 一种目标位置的确定方法、装置、电子设备及存储介质 |
EP22874440.5A EP4332899A1 (en) | 2021-09-29 | 2022-08-10 | Method and apparatus for determining target position, and electronic device and storage medium |
PCT/CN2022/111377 WO2023051044A1 (zh) | 2021-09-29 | 2022-08-10 | 一种目标位置的确定方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111150982.9A CN115937667A (zh) | 2021-09-29 | 2021-09-29 | 一种目标位置的确定方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115937667A true CN115937667A (zh) | 2023-04-07 |
Family
ID=85781271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111150982.9A Pending CN115937667A (zh) | 2021-09-29 | 2021-09-29 | 一种目标位置的确定方法、装置、电子设备及存储介质 |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP4332899A1 (zh) |
CN (1) | CN115937667A (zh) |
WO (1) | WO2023051044A1 (zh) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101833896B (zh) * | 2010-04-23 | 2011-10-19 | 西安电子科技大学 | 基于增强现实的地理信息指引方法与系统 |
JP5912059B2 (ja) * | 2012-04-06 | 2016-04-27 | ソニー株式会社 | 情報処理装置、情報処理方法及び情報処理システム |
CN104143212A (zh) * | 2014-07-02 | 2014-11-12 | 惠州Tcl移动通信有限公司 | 基于穿戴设备的增强现实方法及系统 |
CN105955456B (zh) * | 2016-04-15 | 2018-09-04 | 深圳超多维科技有限公司 | 虚拟现实与增强现实融合的方法、装置及智能穿戴设备 |
CN109544698B (zh) * | 2017-09-22 | 2023-04-07 | 阿里巴巴集团控股有限公司 | 图像展示方法、装置及电子设备 |
KR102056681B1 (ko) * | 2018-04-27 | 2019-12-17 | 주식회사 딥픽셀 | 현실공간과의 융합을 제공하는 가상현실 인터페이스 방법 및 장치 |
-
2021
- 2021-09-29 CN CN202111150982.9A patent/CN115937667A/zh active Pending
-
2022
- 2022-08-10 EP EP22874440.5A patent/EP4332899A1/en active Pending
- 2022-08-10 WO PCT/CN2022/111377 patent/WO2023051044A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2023051044A1 (zh) | 2023-04-06 |
EP4332899A1 (en) | 2024-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110072087B (zh) | 基于3d地图的摄像机联动方法、装置、设备及存储介质 | |
CN110009561B (zh) | 一种监控视频目标映射到三维地理场景模型的方法及系统 | |
US7944454B2 (en) | System and method for user monitoring interface of 3-D video streams from multiple cameras | |
CN109587477B (zh) | 一种图像采集设备选择方法、装置、电子设备及存储介质 | |
CN100571333C (zh) | 一种视频图像处理的方法及其装置 | |
CN101859433A (zh) | 图像拼接设备和方法 | |
US11620730B2 (en) | Method for merging multiple images and post-processing of panorama | |
CN111383204A (zh) | 视频图像融合方法、融合装置、全景监控系统及存储介质 | |
US20160098863A1 (en) | Combining a digital image with a virtual entity | |
CN109451298B (zh) | 双摄像头的偏差角检测方法、装置和设备 | |
JP2007243509A (ja) | 画像処理装置 | |
CN111638929A (zh) | 开机图像处理方法、装置、设备及存储介质 | |
JP2008176768A (ja) | 画像処理装置 | |
US9094617B2 (en) | Methods and systems for real-time image-capture feedback | |
CN110163914B (zh) | 基于视觉的定位 | |
CN110248147B (zh) | 一种图像显示方法及装置 | |
JP6991045B2 (ja) | 画像処理装置、画像処理装置の制御方法 | |
US20180121729A1 (en) | Segmentation-based display highlighting subject of interest | |
CN113312949A (zh) | 视频数据处理方法、视频数据处理装置和电子设备 | |
CN115937667A (zh) | 一种目标位置的确定方法、装置、电子设备及存储介质 | |
CN117152453A (zh) | 道路病害的检测方法、装置、电子设备和存储介质 | |
CN113689493A (zh) | 镜头附着物检测方法、装置、电子设备和存储介质 | |
Lin et al. | Large-area, multilayered, and high-resolution visual monitoring using a dual-camera system | |
CN107102794B (zh) | 操作处理方法及装置 | |
CN112866631B (zh) | 一种区域确定方法、系统、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |