CN110807413A - 目标显示方法以及相关装置 - Google Patents
目标显示方法以及相关装置 Download PDFInfo
- Publication number
- CN110807413A CN110807413A CN201911047785.7A CN201911047785A CN110807413A CN 110807413 A CN110807413 A CN 110807413A CN 201911047785 A CN201911047785 A CN 201911047785A CN 110807413 A CN110807413 A CN 110807413A
- Authority
- CN
- China
- Prior art keywords
- dimensional model
- target
- image
- original image
- position coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请公开了一种目标显示方法以及相关装置。其中,目标显示方法包括:检测摄像器件对预设位置拍摄得到的原始图像,得到原始图像中与至少一个目标对象对应的目标区域,以及原始图像的背景图像;调整预设位置的三维模型,使三维模型在视口的渲染图像与背景图像重合;将目标区域在原始图像中的原始位置转换为目标区域在三维模型中的目标位置;将原始图像中的目标区域部分显示于三维模型中的目标位置处。上述方案,能够直观地显示目标对象。
Description
技术领域
本申请涉及增强现实技术领域,特别是涉及一种目标显示方法以及相关装置。
背景技术
随着越来越多的诸如监控相机等摄像器件布控于工业园区、车站、机场、商业街、广场等重点区域,监控系统的规模逐渐庞大,有益于此,监控范围得到了扩大,且监控细节也得到了提升。然而,与之对应地,庞大的监控系统也拍摄到了海量的视频,这些数量繁多的视频相互之间分散、独立,而且还可能存在视角不完整、位置不明确等问题,故此,当需要查看诸如人、车等目标对象的动态时,需要切换多个摄像器件的监控画面,而无法直观地掌控目标的动态。有鉴于此,如何直观地显示目标对象成为亟待解决的问题。
发明内容
本申请主要解决的技术问题是提供一种目标显示方法以及相关装置,能够直观地显示目标对象。
为了解决上述问题,本申请第一方面提供了一种目标显示方法,包括:检测摄像器件对预设位置拍摄得到的原始图像,得到原始图像中与至少一个目标对象对应的目标区域,以及原始图像的背景图像;调整预设位置的三维模型,使三维模型在视口的渲染图像与背景图像重合;将目标区域在原始图像中的原始位置转换为目标区域在三维模型中的目标位置;将原始图像中的目标区域部分显示于三维模型中的目标位置处。
为了解决上述问题,本申请第二方面提供了一种目标显示装置,包括检测模块、调整模块、转换模块和显示模块,检测模块用于检测摄像器件对预设位置拍摄得到的原始图像,得到原始图像中与至少一个目标对象对应的目标区域,以及原始图像的背景图像;调整模块用于调整预设位置的三维模型,使三维模型在视口的渲染图像与背景图像重合;转换模块用于将目标区域在原始图像中的原始位置转换为目标区域在三维模型中的目标位置;显示模块用于将原始图像中的目标区域部分显示于三维模型中的目标位置处。
为了解决上述问题,本申请第三方面提供了一种目标显示装置,包括相互耦接的存储器和处理器,处理器用于执行存储器存储的程序指令,以实现上述第一方面中的目标显示方法。
为了解决上述问题,本申请第四方面提供了一种存储装置,存储有能够被处理器运行的程序指令,程序指令用于实现上述第一方面中的目标显示方法。
上述方案,通过检测摄像器件对预设位置拍摄得到的原始图像,从而得到原始图像中至少一个目标对象对应的目标区域,以及原始图像的背景图像,并调整预设位置的三维模型,使三维模型在视口的渲染图像与背景图像重合,进而将目标区域在原始图像中的原始位置转换为目标区域在三维模型中的目标位置,并将原始图像中的目标区域部分显示于三维模型中的目标位置处,使得在时间和空间上分散于各个监控视频中的目标对象均显示于三维模型中,故此,当需要查看目标对象的动态时,不必再切换摄像器件的监控画面,能够直观地显示目标对象。
附图说明
图1是本申请目标显示方法一实施例的流程示意图;
图2是本申请目标显示方法另一实施例的流程示意图;
图3是三维模型一实施例的结构示意图;
图4是本申请目标显示方法又一实施例的流程示意图;
图5是本申请目标显示方法又一实施例的流程示意图;
图6是图5中步骤S54一实施例的流程示意图;
图7是图5中步骤S55一实施例的流程示意图;
图8是图5中步骤S56一实施例的流程示意图;
图9是本申请目标显示装置一实施例的框架示意图;
图10是本申请目标显示装置另一实施例的框架示意图;
图11是本申请存储装置一实施例的框架示意图。
具体实施方式
下面结合说明书附图,对本申请实施例的方案进行详细说明。
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、接口、技术之类的具体细节,以便透彻理解本申请。
本文中术语“系统”和“网络”在本文中常被可互换使用。本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。此外,本文中的“多”表示两个或者多于两个。
请参阅图1,图1是本申请目标显示方法一实施例的流程示意图,具体而言,本实施例目标显示方法可以包括如下步骤:
步骤S11:检测摄像器件对预设位置拍摄得到的原始图像,得到原始图像中与至少一个目标对象对应的目标区域,以及原始图像的背景图像。
预设位置可以是工业园区、车站、机场、广场、步行街等等,本实施例在此不做具体限制。具体地,还可以根据实际需要,预设位置可以是室外,也可以是室内。
针对不同的应用场景,摄像器件可以为不同类型的摄像器件。例如,针对室外应用场景,摄像器件可以是防水监控相机、夜视监控相机等等;针对室内应用场景,摄像器件可以是普通网络监控相机等等,本实施例在此不做具体限制。
目标对象可以根据具体应用场景而设置,例如,针对车站、广场、步行街等应用场景,目标对象可以是人;针对工业园区等应用场景,目标对象既可以是人,也可以是车,还可以同时包含两者,本实施例在此不再一一举例。
本实施例中,可以对原始图像进行目标检测,从而获得原始图像中与至少一个目标对象对应的目标区域,关于目标检测的具体方法可以包括但不限于:R-CNN(Regionbased Convolutional Neural Network,基于区域的卷积神经网络)、Fast R-CNN、FasterR-CNN、YOLO(You OnlyLook Once)、SSD(Single Shot MultiBox Detector),关于上述目标检测方法的具体技术细节为本领域的现有技术,本实施例在此不再赘述。
在一个实施场景中,检测得到的与至少一个目标对象对应的目标区域可以是矩形区域,该矩形区域包含目标对象,在其他实施场景中,目标区域还可以是其他形状的区域,例如:六边形区域、梯形区域等等,本实施例在此不再一一举例。
本实施例中,还可以对原始图像进行背景检测,从而获得原始图像的背景图像,关于背景检测的具体方法可以包括但不限于:帧间差分法、高斯背景差分法、ViBe背景提取算法以及其改进算法ViBe+,上述算法的具体技术细节为本领域的现有技术,本实施例在此不再赘述。
步骤S12:调整预设位置的三维模型,使三维模型在视口的渲染图像与背景图像重合。
本实施例中的三维模型是与上述步骤S11中摄像器件所对应,即本实施例中的三维模型是预设位置的三维模型,举例来说,摄像器件布控于工业园区A中,则三维模型也是工业园区A的三维模型;摄像器件布控于广场B,则三维模型也是广场B的三维模型;摄像器件布控于步行街C,则三维模型也是步行街C的三维模型,以此类推,本实施例在此不再一一举例。
本实施例中,视口(viewport)是与显示三维模型的设备相关的区域。三维模型在视口的渲染图像是三维模型通过三维的光能传递处理转得到的二维图像,本实施例中,通过调整预设位置的三维模型,使得三维模型在视口的渲染图像与背景图像重合,可以使三维模型模拟真实场景下的摄像器件在预设位置处的位姿状态,例如:摄像器件所处的三维空间位置、摄像器件的偏航角、俯仰角等等。
本实施例中,三维模型的调整可以通过接收用户控制参数实现,或者也可以通过不断尝试不同的控制参数,并计算利用不同的控制参数调整三维模型后,三维模型在视口的渲染图像与背景图像之间的差值,当该差值在允许范围内时,即可以认为三维模型在视口的渲染图像与背景图像重合,本实施例在此不做具体限制。
步骤S13:将目标区域在原始图像中的原始位置转换为目标区域在三维模型中的目标位置。
在三维模型在视口的渲染图像与背景图像重合之后,可以将目标区域在原始图像中的原始位置转换为目标区域在三维模型中的目标位置,本实施例中,原始位置为二维坐标,目标位置为三维坐标。
本实施例中,具体可以先将原始位置转换为相机坐标系下的位置坐标,再将该位置坐标转换为世界坐标系下的位置坐标。
此外,为了进一步减小误差,还可以根据原始位置与原始图像中的参考位置之间的对应关系,以及计算得到的世界坐标系下的位置坐标与三维模型中的参考位置之间的对应关系,对计算得到的世界坐标系下的位置坐标进行微调。例如,根据原始位置在原始图像中地面上,以及计算得到的世界坐标系下的位置坐标距离三维模型中的地面一定的位置,则将计算得到的世界坐标系下的位置坐标映射到三维模型中的地面上。
步骤S14:将原始图像中的目标区域部分显示于三维模型中的目标位置处。
在一个实施场景中,可以提取原始图像中的目标区域部分的图像,并将提取到的图像显示于三维模型中的目标位置处。
在另一个实施场景中,为了便于后续基于三维模型所使用的三维引擎与用户交互,可以将目标区域部分的图像作为纹理图像显示于三维模型中的目标位置处。纹理既包括通常意义上物体表面的纹理即使物体表面呈现凹凸不平的沟纹,同时也包括在物体的光滑表面上的彩色图案,也称纹理贴图(texture),当把纹理按照特定的方式映射到物体表面上的时候能使物体看上去更真实。本实施例中,通过将目标区域部分的图像作为纹理图像显示于三维模型中的目标位置处,可以使得后续用户与三维模型之间的交互更加生动。
本实施例中,摄像器件可以以一定的频率拍摄得到原始图像,例如25Hz,则可以与该频率对应的工作频率执行上述步骤S11~步骤S14,从而可以使检测得到的目标对象可以在时间域上动态地显示于三维模型中,该对应的工作频率可以与摄像器件的拍摄频率一致,也可以小于摄像器件的拍摄频率,即在摄像器件每秒所拍摄得到的多帧原始图像中每隔若干帧选取一帧原始图像,并对选取得到的原始图像执行上述步骤S11~步骤S14,本实施例在此不做具体限制。
本实施例中,摄像器件可以有多个,例如,对于拍摄工业园区的摄像器件,可以包括但不限于:工业园区入口/出口处的摄像器件、工业园区内部道路处的摄像器件、工业园区停车场处的摄像器件,本实施例中,可以对多个摄像器件所拍摄得到的原始图像执行上述步骤S11~步骤S14,从而使得布控于预设位置的各个角落的摄像器件所监控到的目标对象可以在空间域上动态地显示在三维模型中。
上述方案,通过检测摄像器件对预设位置拍摄得到的原始图像,从而得到原始图像中至少一个目标对象对应的目标区域,以及原始图像的背景图像,并调整预设位置的三维模型,使三维模型在视口的渲染图像与背景图像重合,进而将目标区域在原始图像中的原始位置转换为目标区域在三维模型中的目标位置,并将原始图像中的目标区域部分显示于三维模型中的目标位置处,使得在时间和空间上分散于各个监控视频中的目标对象均显示于三维模型中,故此,当需要查看目标对象的动态时,不必再切换摄像器件的监控画面,能够直观地显示目标对象。
请参阅图2,图2是本申请目标显示方法另一实施例的流程示意图。具体而言,本实施例中目标显示方法可以包括如下步骤:
步骤S21:获取从多个视角对目标对象的活动区域拍摄得到的图像信息。
本实施例中,当目标对象为工业园区的员工、车辆,以及园区外的快递人员、拜访人员等时,目标对象的活动区域即为工业园区;当目标对象为广场上的流动人员、商贩时,目标对象的活动区域即为广场,当为其他目标对象时,可以以此类推,本实施例在此不再一一举例。
本实施例中,多个视角包括与水平面倾斜的视角,以及与水平面垂直的视角。请结合参阅图3,图3是三维模型一实施例的结构示意图,如图3所示,多个视角可以包括与水平面垂直的视角Angle_2,与水平面倾斜的视角Angle_1、Angle_3,此外,还可以包括更多的视角,例如,正面的视角、侧面的视角、背面的视角等等,本实施例在此不再一一举例。
在一个实施场景中,可以通过多个无人机从多个视角对目标对象的活动区域进行航拍,从而获得关于活动区域的图像信息;在另一个实施场景中,还可以通过一个无人机分别从多个视角对目标对象的活动区域进行航拍,从而获得关于活动区域的图像信息。
本实施例中的图像信息可以包括活动区域的侧面、顶面的高分辨率纹理等等。
步骤S22:利用图像信息构建关于目标对象的活动区域的三维模型。
本实施例中,可以利用定位、融合、建模等技术构建活动区域的三维模型,关于定位、融合、建模等技术细节为本领域的现有技术,本实施例在此不再赘述。
步骤S23:检测摄像器件对预设位置拍摄得到的原始图像,得到原始图像中与至少一个目标对象对应的目标区域,以及原始图像的背景图像。
具体可以参阅上述实施例中的步骤S11。
步骤S24:调整预设位置的三维模型,使三维模型在视口的渲染图像与背景图像重合。
具体可以参阅上述实施例中的步骤S12。
步骤S25:将目标区域在原始图像中的原始位置转换为目标区域在三维模型中的目标位置。
具体可以参阅上述实施例中的步骤S13。
步骤S26:将原始图像中的目标区域部分显示于三维模型中的目标位置处。
具体可以参阅上述实施例中的步骤S14。
本实施例中,上述步骤S21~步骤S22可以在步骤S23“检测摄像器件对预设位置拍摄得到的原始图像”之前执行,此外,在一个实施场景中,还可以在步骤S24“调整预设位置的三维模型,使三维模型在视口的渲染图像与背景图像重合”之前执行,本实施例在此不做具体限制。
请参阅图4,图4是本申请目标显示方法又一实施例的流程示意图。本实施例中,将原始图像中的目标区域部分作为纹理图像显示于三维模型的目标位置处,以便于与用户交互,具体而言,本实施例中目标显示方法包括如下步骤:
步骤S41:检测摄像器件对预设位置拍摄得到的原始图像,得到原始图像中与至少一个目标对象对应的目标区域,以及原始图像的背景图像。
具体可以参阅上述实施例中的步骤S11。
步骤S42:调整预设位置的三维模型,使三维模型在视口的渲染图像与背景图像重合。
具体可以参阅上述实施例中的步骤S12。
步骤S43:将目标区域在原始图像中的原始位置转换为目标区域在三维模型中的目标位置。
具体可以参阅上述实施例中的步骤S13。
步骤S44:将原始图像中的目标区域部分显示于三维模型中的目标位置处。
具体可以参阅上述实施例中的步骤S14。
步骤S45:接收用户对三维模型的操作指令。
本实施例中,用户对于三维模型的操作指令可以通过键盘、鼠标、智能音箱等外设输入,在此不做具体限制。例如,当用户通过鼠标操作三维模型时,可以通过拖拽三维模型实现拖拽操作指令的输入,还可以通过放缩三维模型实现放缩操作指令的输入等等,当用户通过其他外设输入操作指令时,可以以此类推,本实施例在此不再一一举例。
步骤S46:基于操作指令的类型在用户操作过程中调用三维引擎处理显示于三维模型的目标位置处的纹理图像。
三维引擎是在图像设备接口基础上开发的一套易用、高效的三维模型数据渲染的核心组件。三维引擎可以提供数据管理、渲染器、交互能力等基础功能,从而可以实现场景管理、底层三维数据的组织和表示、渲染、交互等功能。本实施例中的三维引擎可以包括但不限于:Unity、Unreal、CryEngine、Ogre等等,本实施例在此不做具体限制。
具体地,当操作指令为平移指令时,则在平移过程中调用三维引擎使三维模型在目标位置处显示纹理图像;当操作指令为水平旋转指令时,则在水平旋转过程中调用三维引擎使三维模型在目标位置处显示纹理图像;当操作指令为缩放指令时,则在缩放过程中调用三维引擎使三维模型在目标位置处显示缩放后的纹理图像,进而使得当用户平移三维模型、水平旋转三维模型、放缩三维模型时,进而从不同的角度观察目标对象时,目标对象所对应的纹理图像均在视口朝向用户,大大提升用户体验。。
上述方案,在将原始图像中的目标区域部分显示于三维模型中的目标位置之后,通过接收用户对三维模型的操作指令,从而基于该操作指令的类型调用三维引擎处理显示于三维模型的目标位置处的纹理图像,从而实现与用户的动态交互,使得目标对象的显示更为立体、直观,能够增强用户交互的友好性和便捷性。
请参阅图5,图5是本申请目标显示方法又一实施例的流程示意图。本实施例中,目标显示方法具体可以包括如下步骤:
步骤S51:检测摄像器件对预设位置拍摄得到的原始图像,得到原始图像中与至少一个目标对象对应的目标区域,以及原始图像的背景图像。
具体请参阅上述实施例中的步骤S11。
步骤S52:按照获取到的控制参数调整三维模型,使三维模型在视口的渲染图像与背景图像重合。
控制参数可以是用户输入的,也可以是通过尝试控制参数集合中每一个控制参数而确定的,本实施例在此不做具体限制。本实施例中,控制参数为三维模型在模拟摄像器件的位姿以使三维模型在视口的渲染图像与原始图像的背景图像重合时所采用的参数。
步骤S53:获取目标区域的特征点在原始图像中的第一位置坐标。
在一个实施场景中,目标对象位于参考平面上,参考平面为地面、楼面等等。在一个实施场景中,目标区域为包含目标对象的矩形,此外,目标对象还可以是包含目标对象的梯形、六边形等等,此外,矩形的底边位于参考平面上。本实施例中,当目标区域为矩形时,目标区域的特征点为矩形底边的两个端点,从而获取两个端点在原始图像中的第一位置坐标(x1,y1)和(x2,y2)。当目标区域为梯形时,目标区域的特征点为梯形底边的两个端点;或者,当目标区域为六边形时,目标区域的特征点为六边形的两个端点,本实施例在此不再一一举例。
步骤S54:利用控制参数将特征点在原始图像中的第一位置坐标转换为在三维模型中的第二位置坐标,并将第二位置坐标作为目标位置。
当目标区域的特征点为矩形底边的两个端点时,可以利用控制参数分别将两个端点在原始图像中的第一位置坐标转换为在三维模型中的第二位置坐标,本实施例中,控制参数可以为三维模型在模拟摄像器件的位姿以使三维模型在视口的渲染图像与原始图像的背景图像重合时所采用的模拟参数,模拟参数包括模拟摄像器件的位置参数和姿态参数,请结合参阅图6,具体而言可以包括如下步骤:
步骤S541:基于位置参数和姿态参数分别将两个端点的第一位置坐标转换为世界坐标系下的第三位置坐标。
在一个实施场景中,姿态参数具体可以包括偏航角yaw_angle,俯仰角pitch_angle,视场角fovy;在一个实施场景中,位置参数具体可以包括三维模型模拟摄像器件安放位置的第四位置坐标(cpx,cpy,cpz),视点位置坐标(vpx,vpy,vpz)。具体可以通过如下步骤进行实施:
利用小孔成像原理,先将两个端点的第一位置坐标转换为相机坐标系下的第五位置坐标。例如,计算端点(x1,y1)在相机坐标系下的归一化的第五位置坐标pn1,pn距离摄像器件平面垂直距离为1,且摄像器件视频分辨率为width*height,则利用下式可以计算得到归一化的第五位置坐标pn1:
fx=fy=height*0.5/tan(fovy*0.5*π/180)
pnx=(width*0.5-x1)/fx
pny=(y1-height*0.5)/fy
归一化的第五位置坐标pn1可以表示为(pnx,pny,1)。
同理,可以计算得到端点(x2,y2)在相机坐标系下的归一化的第五位置坐标pn2。
将相机坐标系下的第五位置坐标转换为世界坐标系下的第三位置坐标。例如,根据三维模型模拟摄像器件安放位置的第四位置坐标(cpx,cpy,cpz)、俯仰角pitch_angle、偏航角yaw_angle,利用下述公式计算相机坐标系下的第五位置坐标pn1在世界坐标系下的第三位置坐标pw1:
cp=cos(pitch_angle)
sp=sin(pitch_angle)
cy=cos(yaw_angle)
sy=sin(yaw_angle)
其中,(x,y,z)为相机坐标系下的第五位置坐标,(pwx,pwy,pwz)为世界坐标系下的第三位置坐标,由此,可分别计算得到两个端点的第一位置坐标(x1,y1)和(x2,y2)在世界坐标下的第三位置坐标pw1和pw2。
步骤S542:基于第三位置坐标与位置参数获取两个端点在三维模型中的第二位置坐标。
具体实施时,将第四位置坐标和第三位置坐标之间的连接与参考平面之间的交点作为两个端点在三维模型中的第二位置坐标。例如,以第四位置坐标(cpx,cpy,cpz)为原点,经过pw1连城的射线r与三维模型参考平面的交点pg1(pg1x,pg1y,pg1z),射线r的单位向量为(rx,ry,rz),则交点pg1(pg1x,pg1y,pg1z)可以通过下式求得:
本实施例中,参考平面可以为地面,因此,pg1z为0,故可求出α的值,最终计算出交点pg1(pg1x,pg1y,pg1z),同理可计算出另一个交点pg2(pg2x,pg2y,pg2z)。此外,当参考平面为楼面时,pg1z的值为楼面的高度。
本实施例中,可以将最终求得的第二位置坐标pg1(pg1x,pg1y,pg1z)和pg2(pg2x,pg2y,pg2z)作为原始图像中的目标区域部分显示在三维模型中的目标位置,也可以将第二位置坐标pg1(pg1x,pg1y,pg1z)和pg2(pg2x,pg2y,pg2z)连线的中心作为目标位置,本实施例在此不做具体限制。
步骤S55:基于第二位置坐标和第一位置坐标,缩放原始图像中的目标区域部分。
请结合参阅图7,图7是图5中步骤S55一实施例的流程示意图。具体地,可以包括如下步骤:
步骤S551:分别获取两个端点的第一位置坐标之间的第一距离,以及两个端点的第二位置坐标之间的第二距离。
本实施例中,分别计算两个端点(x1,y1)和(x2,y2)之间的第一距离L1,可以表示为:
并计算两个端点在三维模型中的第二位置坐标pg1(pg1x,pg1y,pg1z)和pg2(pg2x,pg2y,pg2z)之间的第二距离L2,可以表示为:
步骤S552:按照第二距离与第一距离之间的比例值将原始图像中大小为第一尺寸的目标区域部分缩放至第二尺寸。
按照第二距离L2与第一距离L1之间的比值,将原始图像中大小为第一尺寸的目标区域缩放至第二尺寸,也就是说按照第二距离L2与第一距离L1之间的比值将目标区域进行等比例缩放。
步骤S56:将缩放后的原始图像中的目标区域部分显示于三维模型中的目标位置处。
本实施例中,将缩放后的原始图像中的目标区域部分作为纹理图像显示于三维模型的目标位置处,从而在后续用户与三维模型的交互过程中,三维模型所使用的三维引擎可以对该纹理图像进行协调处理,使得用户与三维模型之间的交互更为生动。
具体地,请结合参阅图8,图8是图5中步骤S56一实施例的流程示意图。具体而言,可以包括如下步骤:
步骤S561:在三维模型中的目标位置处设置一尺寸与缩放后的原始图像中的目标区域部分一致的面板模型。
在三维模型的目标位置处设置一个尺寸与缩放后的原始图像中的目标区域部分一致的面板模型,本实施例中的目标位置为两个端点在三维模型中的第二位置坐标连线的中心。
步骤S562:将缩放后的原始图像中的目标区域部分作为纹理图像设置于面板模型上。
将缩放后的原始图像中的目标区域部分设置于面板模型上,从而可以在三维模型中显示摄像器件所拍摄到的目标对象,使得目标对象的显示更加直观。
请参阅图9,图9是本申请目标显示装置90一实施例的框架示意图。本实施例中,目标显示装置90包括检测模块91、调整模块92、转换模块93和显示模块94,检测模块91用于检测摄像器件对预设位置拍摄得到的原始图像,得到原始图像中与至少一个目标对象对应的目标区域,以及原始图像的背景图像;调整模块92用于调整预设位置的三维模型,使三维模型在视口的渲染图像与背景图像重合;转换模块93用于将目标区域在原始图像中的原始位置转换为目标区域在三维模型中的目标位置;显示模块94用于将原始图像中的目标区域部分显示于三维模型中的目标位置处。
上述方案,通过检测摄像器件对预设位置拍摄得到的原始图像,从而得到原始图像中至少一个目标对象对应的目标区域,以及原始图像的背景图像,并调整预设位置的三维模型,使三维模型在视口的渲染图像与背景图像重合,进而将目标区域在原始图像中的原始位置转换为目标区域在三维模型中的目标位置,并将原始图像中的目标区域部分显示于三维模型中的目标位置处,使得在时间和空间上分散于各个监控视频中的目标对象均显示于三维模型中,故此,当需要查看目标对象的动态时,不必再切换摄像器件的监控画面,能够直观地显示目标对象。
在一些实施例中,调整模块92具体用于按照获取到的控制参数调整三维模型,使三维模型在视口的渲染图像与背景图像重合,转换模块93包括坐标获取子模块,用于获取目标区域的特征点在原始图像中的第一位置坐标,转换模块93还包括坐标转换子模块,用于利用控制参数将特征点在原始图像中的第一位置坐标转换为在三维模型中的第二位置坐标,并将第二位置坐标作为目标位置,转换模块93还包括图像缩放子模块,用于基于第二位置坐标和第一位置坐标,缩放原始图像中的目标区域部分,显示模块94具体用于将缩放后的原始图像中的目标区域部分作为纹理图像显示于三维模型中的目标位置处。
在一些实施例中,目标对象位于参考平面上,目标区域为包含目标对象的矩形,且矩形的底边位于参考平面上,目标区域的特征点为底边的两个端点;坐标获取子模块具体用于分别获取两个端点在原始图像中的第一位置坐标,坐标转换子模块具体用于利用控制参数分别将两个端点在原始图像中的第一位置坐标转换为在三维模型中的第二位置坐标,图像缩放子模块包括距离获取单元,用于分别获取两个端点的第一位置坐标之间的第一距离,以及两个端点的第二位置坐标之间的第二距离,图像缩放子模块还包括图像缩放单元,用于按照第二距离与第一距离之间的比例值将原始图像中大小为第一尺寸的目标区域部分缩放至第二尺寸。
在一些实施例中,控制参数为三维模型在模拟摄像器件的位姿以使三维模型在视口的渲染图像与原始图像的背景图像重合时所采用的模拟参数,模拟参数包括模拟摄像器件的位置参数和姿态参数,坐标转换子模块包括第一坐标转换单元,用于基于位置参数和姿态参数分别将两个端点的第一位置坐标转换为世界坐标系下的第三位置坐标,坐标转换子模块还包括第二坐标转换单元,用于基于第三位置坐标与位置参数获取两个端点在三维模型中的第二位置坐标。
在一些实施例中,位置参数包括三维模型模拟摄像器件安放位置的第四位置坐标,第二坐标转换单元具体用于将第四位置坐标和第三位置坐标之间的连线与参考平面之间的交点作为两个端点在三维模型中的第二位置坐标。
在一些实施例中,参考平面包括地面、楼面。
在一些实施例中,目标对象包括行人、车辆。
在一些实施例中,第一位置坐标为平面坐标,第二位置坐标、第三位置坐标、第四位置坐标为空间坐标。
在一些实施例中,目标显示装置90还包括图像信息获取模块,用于获取从多个视角对目标对象的活动区域拍摄得到的图像信息,目标显示装置90还包括三维模型构建模块,用于利用图像信息构建关于目标对象的活动区域的三维模型。在一个实施场景中,多个视角包括与水平面倾斜的视角,以及与水平面垂直的视角。
在一些实施例中,目标显示装置90还包括操作指令接收模块,用于接收用户对三维模型的操作指令,目标显示装置90还包括操作指令执行模块,用于基于操作指令的类型在用户操作过程中调用三维引擎处理显示于三维模型的目标位置处的纹理图像。在一个实施场景中,操作指令执行模块还用于在操作指令接收模块接收到平移指令时,在平移过程中调用三维引擎使所述三维模型在所述目标位置处显示所述纹理图像;在另一个实施场景中,操作指令执行模块还用于在操作指令接收模块接收到水平旋转指令时,在水平旋转过程中调用三维引擎使所述三维模型在所述目标位置处显示所述纹理图像;在又一个实施场景中,操作指令执行模块还用于在操作指令接收模块接收到缩放指令时,在缩放过程中调用三维引擎使所述三维模型在所述目标位置处显示缩放后的所述纹理图像。
区别于前述实施例中,在将原始图像中的目标区域部分显示于三维模型中的目标位置之后,通过接收用户对三维模型的操作指令,从而基于该操作指令的类型调用三维引擎处理显示于三维模型的目标位置处的纹理图像,从而实现与用户的动态交互,使得目标对象的显示更为立体、直观,能够增强用户交互的友好性和便捷性。
请参阅图10,图10是本申请目标显示装置100一实施例的框架示意图。本实施例中,目标显示装置100包括相互耦接的存储器101和处理器102,处理器102用于执行存储器101存储的程序指令,以实现上述任一目标显示方式实施例中的步骤。
具体而言,处理器102用于控制其自身以及存储器101以实现上述任一目标显示方法实施例中的步骤。处理器102还可以称为CPU(Central Processing Unit,中央处理单元)。处理器102可能是一种集成电路芯片,具有信号的处理能力。处理器102还可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。另外,处理器102可以由多个集成电路芯片共同实现。
本实施例中,处理器102用于检测摄像器件对预设位置拍摄得到的原始图像,得到原始图像中与至少一个目标对象对应的目标区域,以及原始图像的背景图像;处理器102还用于调整预设位置的三维模型,使三维模型在视口的渲染图像与背景图像重合;处理器102还用于将目标区域在原始图像中的原始位置转换为目标区域在三维模型中的目标位置;处理器102还用于将原始图像中的目标区域部分显示于三维模型中的目标位置处。
上述方案,通过检测摄像器件对预设位置拍摄得到的原始图像,从而得到原始图像中至少一个目标对象对应的目标区域,以及原始图像的背景图像,并调整预设位置的三维模型,使三维模型在视口的渲染图像与背景图像重合,进而将目标区域在原始图像中的原始位置转换为目标区域在三维模型中的目标位置,并将原始图像中的目标区域部分显示于三维模型中的目标位置处,使得在时间和空间上分散于各个监控视频中的目标对象均显示于三维模型中,故此,当需要查看目标对象的动态时,不必再切换摄像器件的监控画面,能够直观地显示目标对象。
在一些实施例中,处理器102还用于按照获取到的控制参数调整三维模型,使三维模型在视口的渲染图像与背景图像重合,处理器102还用于获取目标区域的特征点在原始图像中的第一位置坐标;处理器102还用于利用控制参数将特征点在原始图像中的第一位置坐标转换为在三维模型中的第二位置坐标,并将第二位置坐标作为目标位置;处理器102还用于基于第二位置坐标和第一位置坐标,缩放原始图像中的目标区域部分,处理器102还用于将缩放后的原始图像中的目标区域部分作为纹理图像显示于三维模型中的目标位置处。
在一些实施例中,目标对象位于参考平面上,目标区域为包含目标对象的矩形,且矩形的底边位于参考平面上,目标区域的特征点为底边的两个端点,处理器102还用于分别获取两个端点在原始图像中的第一位置坐标,处理器102还用于利用控制参数分别将两个端点在原始图像中的第一位置坐标转换为在三维模型中的第二位置坐标,处理器102还用于分别获取两个端点的第一位置坐标之间的第一距离,以及两个端点的第二位置坐标之间的第二距离;处理器102还用于按照第二距离与第一距离之间的比例值将原始图像中大小为第一尺寸的目标区域部分缩放至第二尺寸。
在一些实施例中,控制参数为三维模型在模拟摄像器件的位姿以使三维模型在视口的渲染图像与原始图像的背景图像重合时所采用的模拟参数,模拟参数包括模拟摄像器件的位置参数和姿态参数,处理器102还用于基于位置参数和姿态参数分别将两个端点的第一位置坐标转换为世界坐标系下的第三位置坐标;处理器102还用于基于第三位置坐标与位置参数获取两个端点在三维模型中的第二位置坐标。
在一些实施例中,位置参数包括三维模型模拟摄像器件安放位置的第四位置坐标,处理器102还用于将第四位置坐标和第三位置坐标之间的连线与参考平面之间的交点作为两个端点在三维模型中的第二位置坐标。
在一些实施例中,参考平面包括地面、楼面。
在一些实施例中,目标对象包括行人、车辆。
在一些实施例中,第一位置坐标为平面坐标,第二位置坐标、第三位置坐标、第四位置坐标为空间坐标。
在一些实施例中,处理器102还用于获取从多个视角对目标对象的活动区域拍摄得到的图像信息;处理器102还用于利用图像信息构建关于目标对象的活动区域的三维模型,在一个实施场景中,多个视角包括与水平面倾斜的视角,以及与水平面垂直的视角。
在一些实施例中,目标显示装置100还包括人机交互电路,用于接收用户对三维模型的操作指令,处理器102还用于基于操作指令的类型在用户操作过程中调用三维引擎处理显示于三维模型的目标位置处的目标区域部分。在一个实施场景中,处理器102还用于在操作指令为平移指令时,在平移过程中调用三维引擎使所述三维模型在所述目标位置处显示所述纹理图像;在另一个实施场景中,处理器102还用于在操作指令为水平旋转指令时,在水平旋转过程中调用三维引擎使所述三维模型在所述目标位置处显示所述纹理图像,在又一实施场景中,处理器102还用于在操作指令为缩放指令时,在缩放过程中调用三维引擎使所述三维模型在所述目标位置处显示缩放后的所述纹理图像。
区别于前述实施例中,在将原始图像中的目标区域部分显示于三维模型中的目标位置之后,通过接收用户对三维模型的操作指令,从而基于该操作指令的类型调用三维引擎处理显示于三维模型的目标位置处的纹理图像,从而实现与用户的动态交互,使得目标对象的显示更为立体、直观,能够增强用户交互的友好性和便捷性。
在一些实施例中,目标显示装置100还包括摄像器件,用于对预设位置拍摄得到原始图像。
请参阅图11,图11为本申请存储装置110一实施例的框架示意图。存储装置110存储有能够被处理器运行的程序指令111,程序指令111用于实现上述任一目标显示方法实施例中的步骤。
上述方案,通过检测摄像器件对预设位置拍摄得到的原始图像,从而得到原始图像中至少一个目标对象对应的目标区域,以及原始图像的背景图像,并调整预设位置的三维模型,使三维模型在视口的渲染图像与背景图像重合,进而将目标区域在原始图像中的原始位置转换为目标区域在三维模型中的目标位置,并将原始图像中的目标区域部分显示于三维模型中的目标位置处,使得在时间和空间上分散于各个监控视频中的目标对象均显示于三维模型中,故此,当需要查看目标对象的动态时,不必再切换摄像器件的监控画面,能够直观地显示目标对象。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性、机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
Claims (14)
1.一种目标显示方法,其特征在于,包括:
检测摄像器件对预设位置拍摄得到的原始图像,得到所述原始图像中与至少一个目标对象对应的目标区域,以及所述原始图像的背景图像;
调整所述预设位置的三维模型,使所述三维模型在视口的渲染图像与所述背景图像重合;
将所述目标区域在所述原始图像中的原始位置转换为所述目标区域在所述三维模型中的目标位置;
将所述原始图像中的所述目标区域部分显示于所述三维模型中的目标位置处。
2.根据权利要求1所述的目标显示方法,其特征在于,所述调整所述预设位置的三维模型,使所述三维模型在视口的渲染图像与所述背景图像重合包括:
按照获取到的控制参数调整所述三维模型,使所述三维模型在视口的渲染图像与所述背景图像重合;
所述将所述目标区域在所述原始图像中的原始位置转换为所述目标区域在所述三维模型中的目标位置包括:
获取所述目标区域的特征点在所述原始图像中的第一位置坐标;
利用所述控制参数将所述特征点在所述原始图像中的第一位置坐标转换为在所述三维模型中的第二位置坐标,并将所述第二位置坐标作为所述目标位置;
基于所述第二位置坐标和所述第一位置坐标,缩放所述原始图像中的所述目标区域部分;
所述将所述原始图像中的所述目标区域部分显示于所述三维模型中的目标位置处包括:
将缩放后的所述原始图像中的所述目标区域部分作为纹理图像显示于所述三维模型的目标位置处。
3.根据权利要求2所述的目标显示方法,其特征在于,所述目标对象位于参考平面上,所述目标区域为包含所述目标对象的矩形,且所述矩形的底边位于所述参考平面上,所述目标区域的特征点为所述底边的两个端点;
所述获取所述目标区域的特征点在所述原始图像中的第一位置坐标包括:
分别获取所述两个端点在所述原始图像中的第一位置坐标;
所述利用所述控制参数将所述特征点在所述原始图像中的第一位置坐标转换为在所述三维模型中的第二位置坐标包括:
利用所述控制参数分别将所述两个端点在所述原始图像中的第一位置坐标转换为在所述三维模型中的第二位置坐标;
所述基于所述第二位置坐标和所述第一位置坐标,缩放所述原始图像中的所述目标区域部分包括:
分别获取所述两个端点的第一位置坐标之间的第一距离,以及所述两个端点的第二位置坐标之间的第二距离;
按照所述第二距离与所述第一距离之间的比例值将所述原始图像中大小为第一尺寸的目标区域部分缩放至第二尺寸。
4.根据权利要求3所述的目标显示方法,其特征在于,所述控制参数为所述三维模型在模拟所述摄像器件的位姿以使所述三维模型在视口的渲染图像与所述原始图像的背景图像重合时所采用的模拟参数,所述模拟参数包括模拟所述摄像器件的位置参数和姿态参数;所述利用所述控制参数分别将所述两个端点在所述原始图像中的第一位置坐标转换为在所述三维模型中的第二位置坐标包括:
基于所述位置参数和所述姿态参数分别将所述两个端点的第一位置坐标转换为世界坐标系下的第三位置坐标;
基于所述第三位置坐标与所述位置参数获取所述两个端点在所述三维模型中的第二位置坐标。
5.根据权利要求4所述的目标显示方法,其特征在于,所述位置参数包括所述三维模型模拟所述摄像器件安放位置的第四位置坐标,所述基于所述第三位置坐标与所述位置参数获取所述两个端点在所述三维模型中的第二位置坐标包括:
将所述第四位置坐标和所述第三位置坐标之间的连线与所述参考平面之间的交点作为所述两个端点在所述三维模型中的第二位置坐标。
6.根据权利要求5所述的目标显示方法,其特征在于,所述参考平面包括地面、楼面;和/或,
所述目标对象包括行人、车辆;和/或,
所述第一位置坐标为平面坐标,所述第二位置坐标、所述第三位置坐标、所述第四位置坐标为空间坐标。
7.根据权利要求2所述的目标显示方式,其特征在于,所述将缩放后的所述原始图像中的所述目标区域部分作为纹理图像显示于所述三维模型的目标位置处之后,所述方法还包括:
接收用户对所述三维模型的操作指令;
基于所述操作指令的类型在用户操作过程中调用三维引擎处理显示于所述三维模型的所述目标位置处的所述纹理图像。
8.根据权利要求7所述的目标显示方式,其特征在于,所述基于所述操作指令的类型在用户操作过程中调用三维引擎处理显示于所述三维模型的所述目标位置处的所述纹理图像包括:
若所述操作指令为平移指令,则在平移过程中调用三维引擎使所述三维模型在所述目标位置处显示所述纹理图像;和/或,
若所述操作指令为水平旋转指令,则在水平旋转过程中调用三维引擎使所述三维模型在所述目标位置处显示所述纹理图像;和/或,
若所述操作指令为缩放指令,则在缩放过程中调用三维引擎使所述三维模型在所述目标位置处显示缩放后的所述纹理图像。
9.根据权利要求1所述的目标显示方法,其特征在于,所述调整所述预设位置的三维模型,使所述三维模型在视口的渲染图像与所述背景图像重合之前,所述方法包括:
获取从多个视角对所述目标对象的活动区域拍摄得到的图像信息;
利用所述图像信息构建关于所述目标对象的活动区域的三维模型。
10.根据权利要求9所述的目标显示方法,其特征在于,所述多个视角包括与水平面倾斜的视角,以及与水平面垂直的视角。
11.一种目标显示装置,其特征在于,包括:
检测模块,用于检测摄像器件对预设位置拍摄得到的原始图像,得到原始图像中与至少一个目标对象对应的目标区域,以及所述原始图像的背景图像;
调整模块,用于调整所述预设位置的三维模型,使所述三维模型在视口的渲染图像与所述背景图像重合;
转换模块,用于将所述目标区域在所述原始图像中的原始位置转换为所述目标区域在所述三维模型中的目标位置;
显示模块,用于将所述原始图像中的所述目标区域部分显示于所述三维模型中的目标位置处。
12.一种目标显示装置,其特征在于,包括相互耦接的存储器和处理器,所述处理器用于执行所述存储器存储的程序指令,以实现权利要求1至10任一项所述的目标显示方法。
13.根据权利要求12所述的目标显示装置,其特征在于,所述目标显示装置还包括摄像器件,用于对预设位置拍摄得到原始图像。
14.一种存储装置,其特征在于,存储有能够被处理器运行的程序指令,所述程序指令用于实现权利要求1至10任一项所述的目标显示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911047785.7A CN110807413B (zh) | 2019-10-30 | 2019-10-30 | 目标显示方法以及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911047785.7A CN110807413B (zh) | 2019-10-30 | 2019-10-30 | 目标显示方法以及相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110807413A true CN110807413A (zh) | 2020-02-18 |
CN110807413B CN110807413B (zh) | 2022-08-09 |
Family
ID=69489727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911047785.7A Active CN110807413B (zh) | 2019-10-30 | 2019-10-30 | 目标显示方法以及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110807413B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111540060A (zh) * | 2020-03-25 | 2020-08-14 | 深圳奇迹智慧网络有限公司 | 增强现实设备的显示校准方法、装置、电子设备 |
CN113436348A (zh) * | 2021-06-25 | 2021-09-24 | 北京达佳互联信息技术有限公司 | 三维模型处理方法、装置、电子设备及存储介质 |
WO2023056879A1 (zh) * | 2021-10-08 | 2023-04-13 | 北京字跳网络技术有限公司 | 一种模型处理方法、装置、设备及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140376821A1 (en) * | 2011-11-07 | 2014-12-25 | Dimensional Perception Technologies Ltd. | Method and system for determining position and/or orientation |
CN106846446A (zh) * | 2017-01-24 | 2017-06-13 | 南宁市勘察测绘地理信息院 | 一种真实环境下建筑效果图制作方法 |
CN107101580A (zh) * | 2017-05-18 | 2017-08-29 | 陈坤龙 | 一种基于激光的图像测量方法、系统及装置 |
CN107316020A (zh) * | 2017-06-26 | 2017-11-03 | 司马大大(北京)智能系统有限公司 | 人脸替换方法、装置及电子设备 |
CN108564647A (zh) * | 2018-03-30 | 2018-09-21 | 王乐陶 | 一种建立虚拟三维地图的方法 |
CN109816790A (zh) * | 2018-12-26 | 2019-05-28 | 江苏嘉禾环境科技有限公司 | 一种用于水文监测的三维实景建模方法 |
CN110189402A (zh) * | 2019-05-22 | 2019-08-30 | 武汉尺子科技有限公司 | 一种基于ar的户型图三维展示方法、介质、设备和装置 |
-
2019
- 2019-10-30 CN CN201911047785.7A patent/CN110807413B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140376821A1 (en) * | 2011-11-07 | 2014-12-25 | Dimensional Perception Technologies Ltd. | Method and system for determining position and/or orientation |
CN106846446A (zh) * | 2017-01-24 | 2017-06-13 | 南宁市勘察测绘地理信息院 | 一种真实环境下建筑效果图制作方法 |
CN107101580A (zh) * | 2017-05-18 | 2017-08-29 | 陈坤龙 | 一种基于激光的图像测量方法、系统及装置 |
CN107316020A (zh) * | 2017-06-26 | 2017-11-03 | 司马大大(北京)智能系统有限公司 | 人脸替换方法、装置及电子设备 |
CN108564647A (zh) * | 2018-03-30 | 2018-09-21 | 王乐陶 | 一种建立虚拟三维地图的方法 |
CN109816790A (zh) * | 2018-12-26 | 2019-05-28 | 江苏嘉禾环境科技有限公司 | 一种用于水文监测的三维实景建模方法 |
CN110189402A (zh) * | 2019-05-22 | 2019-08-30 | 武汉尺子科技有限公司 | 一种基于ar的户型图三维展示方法、介质、设备和装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111540060A (zh) * | 2020-03-25 | 2020-08-14 | 深圳奇迹智慧网络有限公司 | 增强现实设备的显示校准方法、装置、电子设备 |
CN111540060B (zh) * | 2020-03-25 | 2024-03-08 | 深圳奇迹智慧网络有限公司 | 增强现实设备的显示校准方法、装置、电子设备 |
CN113436348A (zh) * | 2021-06-25 | 2021-09-24 | 北京达佳互联信息技术有限公司 | 三维模型处理方法、装置、电子设备及存储介质 |
CN113436348B (zh) * | 2021-06-25 | 2023-10-03 | 北京达佳互联信息技术有限公司 | 三维模型处理方法、装置、电子设备及存储介质 |
WO2023056879A1 (zh) * | 2021-10-08 | 2023-04-13 | 北京字跳网络技术有限公司 | 一种模型处理方法、装置、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110807413B (zh) | 2022-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3534336B1 (en) | Panoramic image generating method and apparatus | |
CN110807413B (zh) | 目标显示方法以及相关装置 | |
CN107079142B (zh) | 多摄像机网的广义视图变形的系统和方法 | |
CN107169924B (zh) | 三维全景图像的建立方法和系统 | |
US10846844B1 (en) | Collaborative disparity decomposition | |
US20200013220A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP6174968B2 (ja) | 撮像シミュレーション装置 | |
TWI587241B (zh) | Method, device and system for generating two - dimensional floor plan | |
JP6683307B2 (ja) | 多数のカメラを用いた最適の球形映像獲得方法 | |
WO2021027927A1 (zh) | 摄像机组件和监控摄像机 | |
US11373329B2 (en) | Method of generating 3-dimensional model data | |
Ma et al. | 3d reconstruction from full-view fisheye camera | |
CN113132708B (zh) | 利用鱼眼相机获取三维场景图像的方法和装置、设备和介质 | |
JP2006318015A (ja) | 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム | |
CN116862997A (zh) | 相机标定计算并验证的方法、装置、设备及存储介质 | |
CN111476716B (zh) | 一种实时视频拼接方法和装置 | |
CN114900743A (zh) | 基于视频推流的场景渲染过渡方法以及系统 | |
CN113542679A (zh) | 一种图像播放方法及装置 | |
CN115004683A (zh) | 成像装置、成像方法和程序 | |
Chen et al. | A 3-D surveillance system using multiple integrated cameras | |
CN112862976B (zh) | 一种数据处理方法、装置及电子设备 | |
TWI808336B (zh) | 影像顯示方法與影像監控系統 | |
Chen et al. | Integration of multiple views for a 3-d indoor surveillance system | |
WO2022040988A1 (zh) | 图像处理方法、装置及可移动平台 | |
CN113452954B (zh) | 行为分析方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |