CN107564089A - 三维图像处理方法、装置、存储介质和计算机设备 - Google Patents
三维图像处理方法、装置、存储介质和计算机设备 Download PDFInfo
- Publication number
- CN107564089A CN107564089A CN201710682445.6A CN201710682445A CN107564089A CN 107564089 A CN107564089 A CN 107564089A CN 201710682445 A CN201710682445 A CN 201710682445A CN 107564089 A CN107564089 A CN 107564089A
- Authority
- CN
- China
- Prior art keywords
- matrix
- vector
- mrow
- direction vector
- mtd
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明提供一种三维图像处理方法,包括:在世界坐标系中获取当前图像采集设备位置坐标,第一方向向量和第二方向向量,并利用视图转换算法得到透视矩阵,在图像采集设备坐标系中获取预设的近平面顶点坐标、近平面距离和远平面距离,并利用投影转换算法得到投影矩阵,将透视矩阵与投影矩阵相乘得到变换矩阵,将变换矩阵与添加的增强现实元素对应的纹理初始顶点坐标相乘得到增强现实元素对应的纹理目标顶点坐标,根据纹理目标顶点坐标渲染增强现实元素生成三维图像。实现移动终端转动带动图像采集设备转动时,增强现实元素对应的三维图像做相应的转动,增加三维图像与真实背景图片的融合度,提高图片的真实性,还提供一种三维图像处理装置、存储介质和计算机设备。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种三维图像处理方法、装置、存储介质和计算机设备。
背景技术
随着移动终端的不断普及,越来越多的人使用移动终端进行拍照和摄影,为满足用户对拍摄的需求,提高拍照趣味性,各种拍照应用应运而生,提供如美化图片、在图片中添加AR(Augmented Reality,增强现实)元素等功能。
传统的提供AR元素的功能,绘制的AR元素一般在图像的固定位置,展现方式固定,导致添加的AR元素不能与移动终端拍摄的真实场景对应的图片元素很好的融合,影响整体图片的真实性。
发明内容
基于此,有必要针对上述问题,提供一种三维图像处理方法、装置、存储介质和计算机设备,能够在图像采集设备发生偏转时,根据偏转后的图像采集设备位置坐标和方向向量等信息得到图像采集设备偏转后增强现实元素对应的纹理顶点坐标并形成对应的三维图像,实现移动终端转动带动图像采集设备转动时,增强现实元素对应的三维图像做相应的转动,增加增强现实元素对应的三维图像与真实背景图片的融合度,从而提高图片的真实性。
一种三维图像处理方法,所述方法包括:
在世界坐标系中获取当前图像采集设备位置坐标,当前垂直于图像采集设备成像装置平面的第一方向向量和当前平行于图像采集设备成像装置平面的第二方向向量;
根据所述当前图像采集设备位置坐标、所述第一方向向量和所述第二方向向量利用视图转换算法得到透视矩阵;
获取在图像采集设备坐标系中预设的近平面顶点坐标、近平面距离和远平面距离;
根据所述近平面顶点坐标、近平面距离和远平面距离利用投影转换算法得到投影矩阵;
将所述透视矩阵与所述投影矩阵相乘得到变换矩阵,将所述变换矩阵与添加的增强现实元素对应的纹理初始顶点坐标相乘得到所述增强现实元素对应的纹理目标顶点坐标;
根据所述纹理目标顶点坐标渲染所述增强现实元素生成三维图像。
一种三维图像处理装置,所述装置包括:
透视矩阵生成模块,用于在世界坐标系中获取当前图像采集设备位置坐标,当前垂直于图像采集设备成像装置平面的第一方向向量和当前平行于图像采集设备成像装置平面的第二方向向量,根据所述当前图像采集设备位置坐标、所述第一方向向量和所述第二方向向量利用视图转换算法得到透视矩阵;
投影矩阵生成模块,用于获取在图像采集设备坐标系中预设的近平面顶点坐标、近平面距离和远平面距离,根据所述近平面顶点坐标、近平面距离和远平面距离利用投影转换算法得到投影矩阵;
目标顶点坐标生成模块,用于将所述透视矩阵与所述投影矩阵相乘得到变换矩阵,将所述变换矩阵与添加的增强现实元素对应的纹理初始顶点坐标相乘得到所述增强现实元素对应的纹理目标顶点坐标;
渲染模块,用于根据所述纹理目标顶点坐标渲染所述增强现实元素生成三维图像。
一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可执行指令,所述计算机可执行指令被处理器执行时,使得所述处理器执行以下步骤:在世界坐标系中获取当前图像采集设备位置坐标,当前垂直于图像采集设备成像装置平面的第一方向向量和当前平行于图像采集设备成像装置平面的第二方向向量;根据所述当前图像采集设备位置坐标、所述第一方向向量和所述第二方向向量利用视图转换算法得到透视矩阵;获取在图像采集设备坐标系中预设的近平面顶点坐标、近平面距离和远平面距离;根据所述近平面顶点坐标、近平面距离和远平面距离利用投影转换算法得到投影矩阵;将所述透视矩阵与所述投影矩阵相乘得到变换矩阵,将所述变换矩阵与添加的增强现实元素对应的纹理初始顶点坐标相乘得到所述增强现实元素对应的纹理目标顶点坐标;根据所述纹理目标顶点坐标渲染所述增强现实元素生成三维图像。
一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中储存有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行以下步骤:在世界坐标系中获取当前图像采集设备位置坐标,当前垂直于图像采集设备成像装置平面的第一方向向量和当前平行于图像采集设备成像装置平面的第二方向向量;根据所述当前图像采集设备位置坐标、所述第一方向向量和所述第二方向向量利用视图转换算法得到透视矩阵;获取在图像采集设备坐标系中预设的近平面顶点坐标、近平面距离和远平面距离;根据所述近平面顶点坐标、近平面距离和远平面距离利用投影转换算法得到投影矩阵;将所述透视矩阵与所述投影矩阵相乘得到变换矩阵,将所述变换矩阵与添加的增强现实元素对应的纹理初始顶点坐标相乘得到所述增强现实元素对应的纹理目标顶点坐标;根据所述纹理目标顶点坐标渲染所述增强现实元素生成三维图像。
上述三维图像处理方法、装置、存储介质和计算机设备,根据获取到的图像采集设备当前在世界坐标系中的位置坐标、垂直于图像采集设备成像装置平面的第一方向向量以及平行于图像采集设备成像装置平面的第二方向向量,利用视图转换算法得到透视矩阵,根据获取的图像采集设备坐标系中预设的近平面顶点坐标、近平面距离、远平面距离利用投影转换算法得到投影矩阵,然后利用透视矩阵和投影矩阵相乘得到变换矩阵,将变换矩阵与增强现实元素对应的纹理初始顶点坐标相乘得到纹理目标顶点坐标,从而根据纹理目标顶点坐标渲染增强现实元素生成对应的三维图像。通过图像采集设备当前对应的位置坐标和方向向量等信息确定当前对应的变换矩阵,通过当前变换矩阵确定增强现实元素当前对应的纹理目标顶点坐标,从而确定渲染生成的三维图像的当前显示位置,实现当移动终端带动图像采集设备转动时,增强现实元素对应的三维图像随着图像采集设备做相应的转动,从而增加增强现实元素对应的三维图像与真实背景图片的融合度,提高图片的真实性。
附图说明
图1为一个实施例中三维图像处理方法的流程图;
图2为另一个实施例中三维图像处理方法的流程图;
图2A为一个实施例中世界坐标系示意图;
图2B为发生偏转后移动终端在世界坐标系中的位置示意图;
图3为一个实施例中透视矩阵获取方法流程图;
图4为一个具体实施例中三维图像处理方法的流程图;
图5为一个实施例中图像采集设备视椎体的示意图;
图6为一个实施例中增强现实元素显示界面示意图;
图7为一个实施例中三维图像处理方法的原理架构图;
图8为一个实施例中三维图像处理装置的结构框图;
图9为一个实施例中透视矩阵生成模块的结构框图;
图10为另一个实施例中透视矩阵生成模块的结构框图;
图11为另一个实施例中三维图像处理装置的结构框图;
图12为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,在一个实施例中,提供一种三维图像处理方法,包括以下内容:
步骤S110,在世界坐标系中获取当前图像采集设备位置坐标,当前垂直于图像采集设备成像装置平面的第一方向向量和当前平行于图像采集设备成像装置平面的第二方向向量。
其中,世界坐标系是指系统的绝对坐标系,在没有建立用户坐标系之前画面上所有的点的坐标都是以该坐标系的原点来确定各自的位置的。特别地,在视觉中由于图像采集设备可安放在环境中的任意位置,在环境中选择一个基准坐标坐标系来描述图像采集设备的位置,并用它描述环境中任何物体的位置,该坐标系称为世界坐标系。图像采集设备坐标系与世界坐标系之间的关系可以用旋转矩阵与平移向量来描述。
其中,图像采集设备是指记录动态影像的设备,包括摄像机、录像机等,成像装置是指图像采集设备中形成图像的装置,成像装置平面是指用于取景的平面。
确定世界坐标系后,获取图像采集设备当前在世界坐标系中的位置坐标,垂直于图像采集设备成像装置平面的第一方向向量和平行于图像采集设备成像装置平面的第二方向向量,图像采集设备的当前位置坐标,当前第一方向向量和当前第二方向向量能够共同确定图像采集设备在空间中的位置和状态。具体地,第一方向向量可以表示图像采集设备成像装置当前的朝向,第二方向向量为图像采集设备当前的由底部向成像装置方向延伸的方向向量,第一方向向量和第二方向向量确定了图像采集设备的当前偏转状态。
步骤S120,根据当前图像采集设备位置坐标、第一方向向量和第二方向向量利用视图转换算法得到透视矩阵。
具体地,获取当前图像采集设备的位置坐标、第一方向向量和第二方向向量后,调用视图转换算法计算得到透视矩阵,透视矩阵也称透视变换矩阵,能够将图像采集设备空间中的点从视锥体变换到规则观察体中,待裁剪完毕后进行透视除法的行为。其中视锥体是指图像采集设备的视野范围形成的锥体,在锥体中选取两个矩形屏幕形成的棱椎体。规则观察体可以是一个正方体。进一步地,利用OpenGL(Open Graphics Library,开源图形编程库)进行处理时,可以调用OpenGL中对应的视图转换函数直接进行计算得到透视矩阵。
步骤S130,获取在图像采集设备坐标系中预设的近平面顶点坐标、近平面距离和远平面距离,根据近平面顶点坐标、近平面距离和远平面距离利用投影转换算法得到投影矩阵。
其中,图像采集设备坐标系是指以图像采集设备中的成像装置的光心为原点,图像采集设备中的成像装置的光轴作为Z轴,x,y轴与图像的X轴,Y轴平行形成的直角坐标系。
图像采集设备近平面顶点坐标、近平面距离和远平面距离依照工程需要设定,能够控制图像采集设备的视野及远近,能够共同决定能够看到的物体。在图像采集设备视野形成的视锥中做两个截面,距离图像采集设备较近的截面为近平面,距离图像采集设备较远的截面为远平面。由于移动终端的显示屏幕为矩形,图像采集设备近平面和远平面之间的图像需要投影到显示屏幕上,因此将近平面和远平面设置为矩形,通过在靠近图像采集设备的位置选取四个点作为近平面顶点坐标形成近平面矩形,根据相似性原理以及预设的近平面距离和远平面距离获取远平面。
设置近平面顶点坐标、近平面距离和远平面距离后,利用投影转换算法得到投影矩阵。由于移动终端显示屏显示的是一个二维平面,通过投影矩阵能够将三维图像中的三维几何图形转换为可作为二维图像渲染的形式。如变换三维物体到一个规范视域体,可以是从(-1,-1,0)延伸至(1,1,1)的盒子,当三维物体的所有顶点被映射到规范视域体后,只有x坐标和y坐标被用于映射到屏幕上,z坐标通常被深度缓冲用于可见度测试。
步骤S140,将透视矩阵与投影矩阵相乘得到变换矩阵,将变换矩阵与添加的增强现实元素对应的纹理初始顶点坐标相乘得到增强现实元素对应的纹理目标顶点坐标。
其中,增强现实元素是指通过增强现实技术添加的虚拟元素,增强现实技术(Augmented Reality,简称AR),是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、三维模型的技术,目标是在屏幕上把虚拟世界套在现实世界并进行互动。
纹理表示物体表面细节的一幅或几幅二维图形,也称为纹理贴图,当把纹理按照特定的方式映射到物体表面上的时候能够使物体更加真实,纹理映射是指为三角形赋予图像数据的技术,能够更真实的表现场景。
进一步地,纹理坐标顶点实际上是指进行纹理映射的三角形的顶点坐标,由于移动终端显示屏为矩形,因此将纹理贴图以矩形的形式实现,而进行纹理映射主要通过三角形,因此将每个纹理贴图拆分成两个三角形进行纹理映射,获取对应的三角形的顶点坐标,确定纹理贴图的显示位置和视角。
具体地,透视矩阵与投影矩阵均可以对三维图像进行变换,将透视矩阵与投影矩阵相乘得到变换矩阵,实现透视投影的效果。透视投影是指在二维画布平面上绘图或者渲染体现接近真实三维物体的视觉效果的方法。因此,变换矩阵能够反应当前图像采集设备所处位置和视角将三维图像转换为二维图像的变化规律。将得到的变换矩阵与增强现实元素对应的纹理初始顶点坐标相乘得到纹理目标顶点坐标,也就是确定了当前三维图像转换为二维图像进行渲染时的位置和视角。
进一步地,由于变换矩阵根据图像采集设备当前位置坐标和朝向向量等信息确定,因此得到的纹理目标顶点坐标即为当前图像采集设备视野范围内增强现实元素呈现的效果,当图像采集设备发生转动时,变换矩阵随之变化,从而使纹理目标顶点坐标相应变化。
步骤S150,根据纹理目标顶点坐标渲染增强现实元素生成三维图像。
具体的,根据纹理目标顶点坐标渲染纹理贴图,在移动终端显示屏上以二维图像的形式显示增强现实元素对应的三维图像,该三维图像坐标对应于当前图像采集设备视野范围。由于变换矩阵根据图像采集设备转动而对应变化,因此根据变换矩阵生成的纹理目标顶点坐标渲染而成的三维图像,也呈现随图像采集设备转动而改变在显示屏中显示视角的效果。
本实施例中,根据获取到的图像采集设备当前在世界坐标系中的位置坐标、垂直于图像采集设备成像装置平面的第一方向向量以及平行于图像采集设备成像装置平面的第二方向向量,利用视图转换算法得到透视矩阵,根据获取的图像采集设备坐标系中预设的近平面顶点坐标、近平面距离、远平面距离利用投影转换算法得到投影矩阵,然后利用透视矩阵和投影矩阵相乘得到变换矩阵,将变换矩阵与增强现实元素对应的纹理初始顶点坐标相乘得到纹理目标顶点坐标,从而根据纹理目标顶点坐标渲染增强现实元素生成对应的三维图像。通过图像采集设备当前对应的位置坐标和方向向量等信息确定当前对应的变换矩阵,通过当前变换矩阵确定增强现实元素当前对应的纹理目标顶点坐标,从而确定渲染生成的三维图像的当前显示位置,实现当移动终端带动图像采集设备转动时,增强现实元素对应的三维图像随着图像采集设备做相应的转动,从而增加增强现实元素对应的三维图像与真实背景图片的融合度,提高图片的真实性。
如图2所示,在一个实施例中,步骤S110包括:
步骤S111,获取移动终端在世界坐标系中的各个坐标维度方向上的初始方向向量,形成初始方向向量矩阵。
具体地,初始状态是指移动终端未发生偏转之前的状态。预先建立世界坐标系并将移动终端放置在世界坐标系中,获取移动终端初始状态下相对于世界坐标系的坐标维度方向上的初始方向向量。
具体地,在一个实施例中,如图2A所示,Y轴指向真实世界中的北方,Z轴垂直于地面指向天空,X轴指向水平方向且垂直于Y-Z平面,建立真实世界坐标。将移动终端200按图2A中的位置放置,即屏幕朝向Z方向,移动终端200上方向朝向Y方向,移动终端200右方朝向X方向,将此时移动终端200的状态作为移动终端200的初始状态。根据移动终端200在真实世界坐标系中的位置获取移动终端200对应的屏幕朝向方向向量,上方向方向向量,右方向方向向量,构成移动终端200初始状态对应的初始方向向量矩阵。
步骤S113,当移动终端偏转时,利用传感器获取移动终端当前相对于世界坐标系的各个坐标维度的欧拉角,根据欧拉角得到对应的当前旋转矩阵。
其中,传感器能够感知移动终端的方位,并能够在世界坐标系中唯一确定移动终端的位置。当移动终端发生偏转时,传感器能够感知到移动终端相对于世界坐标系各个坐标维度的偏转角度。具体地,传感器可以是系统提供的传感器,如旋转向量传感器等。
欧拉角是指将角位移分解为绕三个互相垂直轴的三个旋转组成的序列,一般让物体初始位置与世界坐标系坐标轴对齐,然后根据物体的旋转获取欧拉角。在本实施例中,欧拉角是指移动终端的初始方向向量相对于世界坐标系的各个坐标维度的偏转角度。如图2B所示,在一个实施例中,移动终端在水平面上进行旋转,相对于世界坐标系的Y轴形成了偏转角度,称之为欧拉角β。
进一步地,将欧拉角转换为旋转矩阵,是将偏离的角度转换为偏离的向量便于计算。
步骤S115,将初始向量矩阵与当前旋转矩阵相乘得到移动终端偏转后对应的当前方向向量矩阵。
具体地,将初始向量矩阵与当前旋转矩阵相乘相当于与将初始向量与在各个世界坐标系的维度方向的欧拉角做运算,得到偏转后的各个坐标维度对应的当前方向向量,形成当前方向向量矩阵。根据当前方向向量矩阵能够唯一标定偏转后移动终端的位置。
步骤S117,根据当前方向向量矩阵中的第一坐标维度方向向量确定第一方向向量。
具体地,图像采集设备安装在移动终端内,当移动终端发生偏转时,图像采集设备跟随移动终端发生相应的偏转,使得图像采集设备视野内的图像或图像显示角度等发生相应变化,为了计算当前图像采集设备内显示图像的效果,需要获取图像采集设备偏转后的位置,图像采集设备偏转后的位置由图像采集设备的位置坐标以及图像采集设备各个方向的方向向量共同确定。
在一个实施例中,为了方便计算,设置图像采集设备的初始状态各个方向的位置与移动终端初始方向位置保持一致,具体地,根据图像采集设备成像装置的朝向确定第一方向向量。若图像采集设备成像装置为前置成像装置,则图像采集设备成像装置朝向与移动终端屏幕朝向方向一致,朝向世界坐标系的Z轴方向,也就是图像采集设备对应的第一方向向量与移动终端屏幕朝向方向向量一致,当根据当前旋转矩阵获取到偏转后移动终端各个坐标维度对应的方向向量后,即可根据移动终端的当前方向向量矩阵中的屏幕朝向方向向量确定第一方向向量。在其他实施例中,若图像采集设备成像装置为后置成像装置,则第一方向向量与移动终端对应的当前方向向量矩阵中的屏幕朝向向量相反。
步骤S119,将当前方向向量矩阵中的第二坐标维度方向向量作为第二方向向量。
本实施例中,为了使图像采集设备能够按照真实场景成像,图像采集设备的位置应该与移动终端的位置保持一致,平行于图像采集设备成像装置平面且指向图像采集设备平面上方的方向向量应该与移动终端上方向向量一致,得到移动终端对应的当前方向向量矩阵后,获取第二坐标维度方向向量也就是移动终端上方向向量,将移动终端上方向向量作为第二方向向量。根据获取的第一方向向量和第二方向向量确定移动终端发生偏转后对应的位置。其中,移动终端屏幕朝向具体是指垂直于移动终端显示屏幕的方向向量,移动终端上方向向量具体是指移动终端显示屏按照屏幕设计正常放置时显示屏幕的上方方向。
本实施例中,通过传感器获取移动终端在世界坐标系中的初始向量矩阵,并通过传感器检测移动终端发生偏转时,在各个坐标维度上发生的偏转角度,根据在各个坐标维度产生的欧拉角生成对应的旋转矩阵,利用旋转矩阵得到移动终端发生偏转后,在世界坐标系中对应的各个坐标维度上的方向向量,确定移动终端发生偏转后在世界坐标系中的位置。进一步地,根据移动终端偏转后的方向向量获取图像采集设备在偏转后对应的方向向量,从而确定偏转后图像采集设备的位置,以便计算偏转后图像采集设备的成像规律。通过传感器获取移动终端的偏转角度,从而确定移动终端偏转后在世界坐标系中所处的位置,进一步确定发生偏转后图像采集设备所处的位置,有利于进一步地计算图像采集设备当前位置的成像规律,使得绘制的增强现实元素达到跟随移动终端偏转而相应变化的效果。
在一个实施例中,当前旋转矩阵与欧拉角的转换公式为:
其中,α、β、γ分别表示移动终端相对于世界坐标系的X轴、Y轴和Z轴的欧拉角。
本实施例中,利用转换公式将各个坐标维度的偏转角度转换为旋转矩阵,利用旋转矩阵乘以移动终端初始向量矩阵得到偏转后的向量矩阵,利用旋转矩阵与初始向量矩阵相乘能够保证只改变初始向量的方向不改变初始向量的大小,能够方便快速的得到偏转后移动终端各个坐标维度对应的方向向量。
如图3所示,在一个实施例中,步骤S120包括:
步骤S121,获取世界坐标系的原点坐标,通过原点坐标与当前图像采集设备位置坐标计算得到当前图像采集设备的位置向量,对位置向量进行标准化得到标准化位置向量。
具体地,获取世界坐标系的原点坐标,根据世界坐标系的原点坐标与当前图像采集设备在世界坐标系中的位置坐标得到图像采集设备在世界坐标系中的位置向量。为了将三维图像转换为可二维绘制的图像,需要将图像采集设备视野范围内的图像转换到规范视域体,由于规范视域体通常是固定范围的正方体,如正方体范围从(-1,-1,0)延伸至(1,1,1),为了避免将图像采集设备视野范围内的图像转换到规范视域体后发生失真现象,将图像采集设备的位置向量进行标准化。向量标准化的具体过程为,将位置向量的各个维度的坐标分别与位置向量的长度做除法得到标准化位置向量。
步骤S123,将第一方向向量与标准化位置向量卷积得到对应的第一目标向量,并将第一目标向量进行标准化,得到第一标准化目标向量。
将第一方向向量与标准化位置向量进行卷积得到第一方向向量映射到规范视域体中的第一目标向量,进一步地,为了避免造成图像失真,对第一目标向量进行标准化,将第一目标向量的各个维度的坐标与第一目标向量的模做除法,得到第一标准化目标向量。
步骤S125,将第一标准化目标向量与标准化位置向量进行卷积得到第二目标向量,将标准化位置向量、第一标准化目标向量、第二目标向量构造生成透视矩阵。
具体地,通过卷积运算将三维图像进行视图变换和透视变换,实现将三维图像在图像采集设备视锥中的坐标转换为透视坐标,构造生成透视矩阵,当根据透视矩阵中的透视坐标进行图像渲染时,能够实现在二维平面渲染出三维图像的效果。
在一个实施例中,调用OpenGL中的setLookAtM()函数利用第一方向向量、图像采集设备位置坐标、第二方向向量获取对应的透视矩阵。
本实施例中,通过一系列的矩阵运算将图像采集设备坐标变换到规范视域体中,形成对应的透视坐标,并构造成对应的透视矩阵,便于在二维平面对三维图像进行渲染。
在一个实施例中,三维图像处理方法还包括:
在移动终端发生偏转前,获取待添加的增强现实元素中的预设基本图形以及增强现实元素在移动终端显示屏中的预设显示位置,根据预设基本图形和预设显示位置获取对应的绘制预设基本图形的纹理对应的纹理初始顶点坐标。
其中,预设基本图形是指基本的纹理贴图,增强现实元素中可能包括多个基本图形也可能只有一个基本图形,如纹理贴图为心形,增强现实元素中包括多个心形气球,则此时增强现实元素中包括多个纹理贴图。若纹理贴图是由多个心形气球构成的图像,则增强现实元素中只包括一个纹理贴图。
由于图像采集设备成像的投影平面,如近平面或远平面为矩形,对纹理贴图进行渲染时采用矩形进行渲染,将纹理贴图包含在一个矩形框内,对于矩形相对于纹理贴图多余的部分渲染为透明。在一个实施例中,调用openGL对纹理贴图进行渲染,使用三角形进行纹理映射,将包含纹理贴图的矩形按照对角线分成两个三角形,获取矩形对应的两个三角形的顶点分别进行渲染得到对应的纹理贴图,从而形成增强现实元素。
具体地,在初始显示界面,当移动终端未发生偏转时,根据预设的增强现实元素在显示屏幕中显示的位置,根据初始位置获取渲染纹理图像的三角形纹理初始顶点坐标,对增强现实元素进行渲染。
本实施例中,根据预设的增强现实元素的显示位置,以及通过纹理映射渲染三维图像的原理获取纹理初始顶点坐标,以便于计算发生偏转后对应的纹理顶点坐标,从而实现在发生偏转在对应位置对增强现实元素进行渲染。
如图4所示,在一个具体实施例中,提供一种三维图像处理方法,包括以下内容:
步骤S401,获取移动终端在世界坐标系中的各个坐标维度方向上的初始方向向量,形成初始方向向量矩阵。
步骤S402,当移动终端偏转时,利用传感器获取移动终端当前相对于世界坐标系的各个坐标维度的欧拉角,根据欧拉角得到对应的当前旋转矩阵。
步骤S403,将初始向量矩阵与当前旋转矩阵相乘得到移动终端偏转后对应的当前方向向量矩阵。
步骤S404,根据当前方向向量矩阵中的第一坐标维度方向向量确定当前垂直于图像采集设备成像装置平面的第一方向向量。
步骤S405,将当前方向向量矩阵中的第二坐标维度方向向量作为当前平行于图像采集设备成像装置平面的第二方向向量。
步骤S406,在世界坐标系中获取当前图像采集设备位置坐标,当前第一方向向量和当前第二方向向量,根据当前图像采集设备位置坐标、第一方向向量和第二方向向量利用视图转换算法得到透视矩阵。
步骤S407,获取在图像采集设备坐标系中预设的近平面顶点坐标、近平面距离和远平面距离,根据近平面顶点坐标、近平面距离和远平面距离利用投影转换算法得到投影矩阵。
如图5所示,为一个实施例中,由近平面和远平面在图像采集设备坐标系中形成的图像采集设备视锥体500,在视锥体500包括视点510的可视区间520,可视区间520是一个平截头体,包括近平面521和远平面522。在可视区间520外的图像不进行显示,在可视区间520内的图像进行显示。近平面顶点坐标、近平面距离和远平面距离共同决定了可视区间520的大小,因此共同决定了图像采集设备显示的画面。
进一步地,通过调用OpenGL中的Matrix.frustumM()函数,根据近平面顶点坐标,近平面距离d1和远平面距离d2计算得到投影矩阵。具体地,分别使用left,right,bottom,top表示近平面上下左右坐标值,near,far表示近、远平面距离。
r_width=1.0/(right-left);r_height=1.0/(top-bottom);r_depth=1.0/(near-far);x=2.0*(near*r_width);y=2.0*(near*r_height);A=(right+left)*r_width;B=(top+bottom)*r_height;C=(far+near)*r_depth;D=2.0*(far*near*r_depth);构造得到投影矩阵:[x,0,0,0,0,y,0,0,A,B,C,-1,0,0,D,0]。
步骤S408,将透视矩阵与投影矩阵相乘得到变换矩阵,将变换矩阵与添加的增强现实元素对应的纹理初始顶点坐标相乘得到增强现实元素对应的纹理目标顶点坐标。
步骤S409,根据纹理目标顶点坐标渲染增强现实元素生成三维图像。
具体地,如图6所示,在移动终端中点击拍照按钮610A后,未选择增强现实元素前显示图像采集设备的预览页面600,点击增加增强现实元素的按钮610B后,增强现实元素620A根据预设位置渲染显示在相机显示页面620中,当移动终端发生偏转后,根据移动终端偏转的角度获取图像采集设备对应的偏转角度,并获取对应的变换矩阵,将增强现实元素对应的纹理贴图的顶点坐标变换到与图像采集设备偏转后的视角对应的角度,根据变换后的纹理目标顶点坐标渲染生成变换后的三维图像620B,显示在相机变换后的显示页面630中。
本实施例中,传感器通过获取移动终端的偏转角度确定移动终端偏转后的位置,从而确定图像采集设备偏转后的位置,利用透视投影的原理,确定图像采集设备偏转后将图像采集设备中的三维物体变换到能够渲染的二维物体的变换矩阵,根据变换矩阵获取变换后的纹理顶点坐标,从而根据纹理顶点坐标对纹理进行渲染,生成偏转后的增强现实元素对应的三维图像。实现当移动终端带动图像采集设备转动时,增强现实元素对应的三维图像随着图像采集设备做相应的转动,从而增加增强现实元素对应的三维图像与真实背景图片的融合度,提高图片的真实性。
如图7所示,为一个实施例中,三维图像处理方法的原理架构图。首先开启图像采集设备显示图像采集设备的初始画面,然后传感器检测移动终端是否发生偏转,当传感器检测到移动终端发生偏转时,获取对应的欧拉角,根据欧拉角计算得到对应的旋转矩阵,根据旋转矩阵确定当前移动终端的位置和摆放方向,从而进一步确定图像采集设备的位置和视野方向,根据图像采集设备位置和方向参数计算投影矩阵和透视矩阵,根据投影矩阵和透视矩阵计算变换矩阵,根据变换矩阵将图像采集设备视野中的三维图像转换为在二维平面上可渲染的图像,根据变换矩阵获取转换后的增强现实元素对应的纹理目标顶点坐标,根据纹理目标顶点坐标绘制增强现实元素。从而实现移动终端偏转时,增强现实元素显示对应于当前图像采集设备视野的图像,增强图像显示的真实性。
如图8所示,在一个实施例中,提供一种三维图像处理装置,包括:
透视矩阵生成模块810,用于在世界坐标系中获取当前图像采集设备位置坐标,当前垂直于图像采集设备成像装置平面的第一方向向量和当前平行于图像采集设备成像装置平面的第二方向向量,根据当前图像采集设备位置坐标、第一方向向量和第二方向向量利用视图转换算法得到透视矩阵。
投影矩阵生成模块820,用于获取在图像采集设备坐标系中预设的近平面顶点坐标、近平面距离和远平面距离,根据近平面顶点坐标、近平面距离和远平面距离利用投影转换算法得到投影矩阵。
目标顶点坐标生成模块830,用于将透视矩阵与投影矩阵相乘得到变换矩阵,将变换矩阵与添加的增强现实元素对应的纹理初始顶点坐标相乘得到增强现实元素对应的纹理目标顶点坐标。
渲染模块840,用于根据纹理目标顶点坐标渲染增强现实元素生成三维图像。
上述三维图像处理装置,根据获取到的图像采集设备当前在世界坐标系中的位置坐标、垂直于图像采集设备成像装置平面的第一方向向量以及平行于图像采集设备成像装置平面的第二方向向量,利用视图转换算法得到透视矩阵,根据获取的图像采集设备坐标系中预设的近平面顶点坐标、近平面距离、远平面距离利用投影转换算法得到投影矩阵,然后利用透视矩阵和投影矩阵相乘得到变换矩阵,将变换矩阵与增强现实元素对应的纹理初始顶点坐标相乘得到纹理目标顶点坐标,从而根据纹理目标顶点坐标渲染增强现实元素生成对应的三维图像。通过图像采集设备当前对应的位置坐标和方向向量等信息确定当前对应的变换矩阵,通过当前变换矩阵确定增强现实元素当前对应的纹理目标顶点坐标,从而确定渲染生成的三维图像的当前显示位置,实现当移动终端带动图像采集设备转动时,增强现实元素对应的三维图像随着图像采集设备做相应的转动,从而增加增强现实元素对应的三维图像与真实背景图片的融合度,提高图片的真实性。
如图9所示,在一个实施例中,透视矩阵生成模块810包括:
第一获取模块811,用于获取移动终端在世界坐标系中的各个坐标维度方向上的初始方向向量,形成初始方向向量矩阵。
旋转矩阵生成模块812,用于当移动终端偏转时,利用传感器获取移动终端当前相对于世界坐标系的各个坐标维度的欧拉角,根据欧拉角得到对应的当前旋转矩阵。
方向向量矩阵生成模块813,用于将初始向量矩阵与当前旋转矩阵相乘得到移动终端偏转后对应的当前方向向量矩阵。
第一方向向量获取模块814,用于根据当前方向向量矩阵中的第一坐标维度方向向量确定第一方向向量。
第二方向向量获取模块815,用于将当前方向向量矩阵中的第二坐标维度方向向量作为第二方向向量。
在一个实施例中,当前旋转矩阵与欧拉角的转换公式为:
其中,α、β、γ分别表示移动终端相对于世界坐标系的X轴、Y轴和Z轴的欧拉角。
如图10所示,在一个实施例中,透视矩阵生成模块810还包括:
第二获取模块810A,用于获取世界坐标系的原点坐标,通过原点坐标与当前图像采集设备位置坐标计算得到当前图像采集设备的位置向量,对位置向量进行标准化得到标准化位置向量。
卷积模块810B,用于将第一方向向量与标准化位置向量卷积得到对应的第一目标向量,并将第一目标向量进行标准化,得到第一标准化目标向量,将第一标准化目标向量与标准化位置向量进行卷积得到第二目标向量。
组合模块810C,用于将标准化位置向量、第一标准化目标向量、第二目标向量构造生成透视矩阵。
如图11所示,在一个实施例中,三维图像处理装置还包括:
初始状态获取模块850,用于在移动终端发生偏转前,获取待添加的增强现实元素中的预设基本图形以及增强现实元素在移动终端显示屏中的预设显示位置。
初始顶点坐标获取模块860,根据预设基本图形和预设显示位置获取对应的绘制预设基本图形的纹理对应的纹理初始顶点坐标。
如图12所示,为一个实施例中计算机设备的内部结构图,该计算机设备通过系统连接总线连接处理器、非易失性存储介质、内存储器和网络接口。其中,该计算机设备的非易失性存储介质可存储操作系统和计算机可读指令,该计算机可读指令被执行时,可使得处理器执行一种三维图像处理方法。该计算机设备的处理器用于提供计算和控制能力,支撑整个计算机设备的运行。该内存储器中可储存有计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器执行一种三维图像处理方法。计算机设备的网络接口用于进行网络通信,如发送欧拉角数据、初始顶点坐标数据等。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。触摸层和显示屏构成触控屏。图像采集装置可以是摄像头。
本领域技术人员可以理解,图12中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的三维图像处理装置可以实现为一种计算机程序的形式,所述计算机程序可在如图12所示的计算机设备上运行,所述计算机设备的非易失性存储介质可存储组成该三维图像处理装置的各个程序模块,比如图8中的透视矩阵生成模块810、投影矩阵生成模块820、目标顶点坐标生成模块830及渲染模块840。各个程序模块中包括计算机可读指令,所述计算机可读指令用于使所述计算机设备执行本说明书中描述的本申请各个实施例的三维图像处理方法中的步骤,例如,所述计算机设备可以通过如图8所示的三维图像处理装置中的透视矩阵生成模块810在世界坐标系中获取当前图像采集设备位置坐标,当前垂直于图像采集设备成像装置平面的第一方向向量和当前平行于图像采集设备成像装置平面的第二方向向量,根据当前图像采集设备位置坐标、第一方向向量和第二方向向量利用视图转换算法得到透视矩阵,通过投影矩阵生成模块820获取在图像采集设备坐标系中预设的近平面顶点坐标、近平面距离和远平面距离,根据近平面顶点坐标、近平面距离和远平面距离利用投影转换算法得到投影矩阵,通过目标顶点坐标生成模块830将透视矩阵与投影矩阵相乘得到变换矩阵,将变换矩阵与添加的增强现实元素对应的纹理初始顶点坐标相乘得到增强现实元素对应的纹理目标顶点坐标。并通过渲染模块840根据纹理目标顶点坐标渲染增强现实元素生成三维图像。
在一个实施例中,提供一种计算机可读存储介质,计算机可读存储介质上存储有计算机可执行指令,计算机可执行指令被处理器执行时,使得处理器执行以下步骤:在世界坐标系中获取当前图像采集设备位置坐标,当前垂直于图像采集设备成像装置平面的第一方向向量和当前平行于图像采集设备成像装置平面的第二方向向量;根据当前图像采集设备位置坐标、第一方向向量和第二方向向量利用视图转换算法得到透视矩阵;获取在图像采集设备坐标系中预设的近平面顶点坐标、近平面距离和远平面距离;根据近平面顶点坐标、近平面距离和远平面距离利用投影转换算法得到投影矩阵;将透视矩阵与投影矩阵相乘得到变换矩阵,将变换矩阵与添加的增强现实元素对应的纹理初始顶点坐标相乘得到增强现实元素对应的纹理目标顶点坐标;根据纹理目标顶点坐标渲染增强现实元素生成三维图像。
本实施例中,计算机可读存储介质通过图像采集设备当前对应的位置坐标和方向向量等信息确定当前对应的变换矩阵,通过当前变换矩阵确定增强现实元素当前对应的纹理目标顶点坐标,从而确定渲染生成的三维图像的当前显示位置,实现当移动终端带动图像采集设备转动时,增强现实元素对应的三维图像随着图像采集设备做相应的转动,从而增加增强现实元素对应的三维图像与真实背景图片的融合度,提高图片的真实性。
在一个实施例中,计算机可执行指令被处理器执行时,还使得处理器执行以下步骤:获取移动终端在世界坐标系中的各个坐标维度方向上的初始方向向量,形成初始方向向量矩阵;当移动终端偏转时,利用传感器获取移动终端当前相对于世界坐标系的各个坐标维度的欧拉角,根据欧拉角得到对应的当前旋转矩阵;将初始向量矩阵与当前旋转矩阵相乘得到移动终端偏转后对应的当前方向向量矩阵;根据当前方向向量矩阵中的第一坐标维度方向向量确定第一方向向量;将当前方向向量矩阵中的第二坐标维度方向向量作为第二方向向量。
在一个实施例中,计算机可执行指令被处理器执行时,还使得处理器执行以下步骤:当前旋转矩阵与欧拉角的转换公式为:
其中,α、β、γ分别表示移动终端相对于世界坐标系的X轴、Y轴和Z轴的欧拉角。
在一个实施例中,计算机可执行指令被处理器执行时,还使得处理器执行以下步骤:获取世界坐标系的原点坐标,通过原点坐标与当前图像采集设备位置坐标计算得到当前图像采集设备的位置向量,对位置向量进行标准化得到标准化位置向量;将第一方向向量与标准化位置向量卷积得到对应的第一目标向量,并将第一目标向量进行标准化,得到第一标准化目标向量;将第一标准化目标向量与标准化位置向量进行卷积得到第二目标向量;将标准化位置向量、第一标准化目标向量、第二目标向量构造生成透视矩阵。
在一个实施例中,计算机可执行指令被处理器执行时,还使得处理器执行以下步骤:在移动终端发生偏转前,获取待添加的增强现实元素中的预设基本图形以及增强现实元素在移动终端显示屏中的预设显示位置;根据预设基本图形和预设显示位置获取对应的绘制预设基本图形的纹理对应的纹理初始顶点坐标。
在一个实施例中,提供一种计算机设备,包括存储器和处理器,存储器中储存有计算机可读指令,计算机可读指令被处理器执行时,使得处理器执行步骤:在世界坐标系中获取当前图像采集设备位置坐标,当前垂直于图像采集设备成像装置平面的第一方向向量和当前平行于图像采集设备成像装置平面的第二方向向量;根据当前图像采集设备位置坐标、第一方向向量和第二方向向量利用视图转换算法得到透视矩阵;获取在图像采集设备坐标系中预设的近平面顶点坐标、近平面距离和远平面距离;根据近平面顶点坐标、近平面距离和远平面距离利用投影转换算法得到投影矩阵;将透视矩阵与投影矩阵相乘得到变换矩阵,将变换矩阵与添加的增强现实元素对应的纹理初始顶点坐标相乘得到增强现实元素对应的纹理目标顶点坐标;根据纹理目标顶点坐标渲染增强现实元素生成三维图像。
通过图像采集设备当前对应的位置坐标和方向向量等信息确定当前对应的变换矩阵,通过当前变换矩阵确定增强现实元素当前对应的纹理目标顶点坐标,从而确定渲染生成的三维图像的当前显示位置,实现当移动终端带动图像采集设备转动时,增强现实元素对应的三维图像随着图像采集设备做相应的转动,从而增加增强现实元素对应的三维图像与真实背景图片的融合度,提高图片的真实性。
在一个实施例中,计算机可读指令被处理器执行时,还使得处理器执行以下步骤:获取移动终端在世界坐标系中的各个坐标维度方向上的初始方向向量,形成初始方向向量矩阵;当移动终端偏转时,利用传感器获取移动终端当前相对于世界坐标系的各个坐标维度的欧拉角,根据欧拉角得到对应的当前旋转矩阵;将初始向量矩阵与当前旋转矩阵相乘得到移动终端偏转后对应的当前方向向量矩阵;根据当前方向向量矩阵中的第一坐标维度方向向量确定第一方向向量;将当前方向向量矩阵中的第二坐标维度方向向量作为第二方向向量。
在一个实施例中,计算机可读指令被处理器执行时,还使得处理器执行以下步骤:当前旋转矩阵与欧拉角的转换公式为:
其中,α、β、γ分别表示移动终端相对于世界坐标系的X轴、Y轴和Z轴的欧拉角。
在一个实施例中,计算机可读指令被处理器执行时,还使得处理器执行以下步骤:获取世界坐标系的原点坐标,通过原点坐标与当前图像采集设备位置坐标计算得到当前图像采集设备的位置向量,对位置向量进行标准化得到标准化位置向量;将第一方向向量与标准化位置向量卷积得到对应的第一目标向量,并将第一目标向量进行标准化,得到第一标准化目标向量;将第一标准化目标向量与标准化位置向量进行卷积得到第二目标向量;将标准化位置向量、第一标准化目标向量、第二目标向量构造生成透视矩阵。
在一个实施例中,计算机可读指令被处理器执行时,还使得处理器执行以下步骤:在移动终端发生偏转前,获取待添加的增强现实元素中的预设基本图形以及增强现实元素在移动终端显示屏中的预设显示位置;根据预设基本图形和预设显示位置获取对应的绘制预设基本图形的纹理对应的纹理初始顶点坐标。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (12)
1.一种三维图像处理方法,所述方法包括:
在世界坐标系中获取当前图像采集设备位置坐标,当前垂直于图像采集设备成像装置平面的第一方向向量和当前平行于图像采集设备成像装置平面的第二方向向量;
根据所述当前图像采集设备位置坐标、所述第一方向向量和所述第二方向向量利用视图转换算法得到透视矩阵;
获取在图像采集设备坐标系中预设的近平面顶点坐标、近平面距离和远平面距离,根据所述近平面顶点坐标、近平面距离和远平面距离利用投影转换算法得到投影矩阵;
将所述透视矩阵与所述投影矩阵相乘得到变换矩阵,将所述变换矩阵与添加的增强现实元素对应的纹理初始顶点坐标相乘得到所述增强现实元素对应的纹理目标顶点坐标;
根据所述纹理目标顶点坐标渲染所述增强现实元素生成三维图像。
2.根据权利要求1所述的方法,其特征在于,所述在世界坐标系中获取当前图像采集设备位置坐标,当前垂直于图像采集设备成像装置平面的第一方向向量和当前平行于图像采集设备成像装置平面的第二方向向量的步骤包括:
获取移动终端在所述世界坐标系中的各个坐标维度方向上的初始方向向量,形成初始方向向量矩阵;
当所述移动终端偏转时,利用传感器获取所述移动终端当前相对于所述世界坐标系的各个坐标维度的欧拉角,根据所述欧拉角得到对应的当前旋转矩阵;
将所述初始向量矩阵与所述当前旋转矩阵相乘得到移动终端偏转后对应的当前方向向量矩阵;
根据所述当前方向向量矩阵中的第一坐标维度方向向量确定所述第一方向向量;
将所述当前方向向量矩阵中的第二坐标维度方向向量作为所述第二方向向量。
3.根据权利要求2所述的方法,其特征在于,所述当前旋转矩阵与所述欧拉角的转换公式为:
<mrow>
<mi>R</mi>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>cos</mi>
<mi>&beta;</mi>
<mi>cos</mi>
<mi>&gamma;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>cos</mi>
<mi>&gamma;</mi>
<mi>sin</mi>
<mi>&alpha;</mi>
<mi>sin</mi>
<mi>&beta;</mi>
<mo>-</mo>
<mi>cos</mi>
<mi>&alpha;</mi>
<mi>sin</mi>
<mi>&gamma;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>sin</mi>
<mi>&alpha;</mi>
<mi>sin</mi>
<mi>&gamma;</mi>
<mo>+</mo>
<mi>cos</mi>
<mi>&alpha;</mi>
<mi>cos</mi>
<mi>&gamma;</mi>
<mi>sin</mi>
<mi>&beta;</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>cos</mi>
<mi>&beta;</mi>
<mi>sin</mi>
<mi>&gamma;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>cos</mi>
<mi>&alpha;</mi>
<mi>cos</mi>
<mi>&gamma;</mi>
<mo>+</mo>
<mi>sin</mi>
<mi>&alpha;</mi>
<mi>sin</mi>
<mi>&beta;</mi>
<mi>sin</mi>
<mi>&gamma;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>cos</mi>
<mi>&alpha;</mi>
<mi>sin</mi>
<mi>&beta;</mi>
<mi>sin</mi>
<mi>&gamma;</mi>
<mo>-</mo>
<mi>cos</mi>
<mi>&gamma;</mi>
<mi>sin</mi>
<mi>&alpha;</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>-</mo>
<mi>sin</mi>
<mi>&beta;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>cos</mi>
<mi>&beta;</mi>
<mi>sin</mi>
<mi>&alpha;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>cos</mi>
<mi>&alpha;</mi>
<mi>cos</mi>
<mi>&beta;</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中,α、β、γ分别表示移动终端相对于所述世界坐标系的X轴、Y轴和Z轴的欧拉角。
4.根据权利要求1所述的方法,其特征在于,所述根据所述当前图像采集设备位置坐标、所述第一方向向量和所述第二方向向量利用视图转换算法得到透视矩阵的步骤包括:
获取所述世界坐标系的原点坐标,通过所述原点坐标与所述当前图像采集设备位置坐标计算得到当前图像采集设备的位置向量,对所述位置向量进行标准化得到标准化位置向量;
将所述第一方向向量与所述标准化位置向量卷积得到对应的第一目标向量,并将所述第一目标向量进行标准化,得到第一标准化目标向量;
将所述第一标准化目标向量与所述标准化位置向量进行卷积得到第二目标向量;
将所述标准化位置向量、所述第一标准化目标向量、所述第二目标向量构造生成所述透视矩阵。
5.根据权利要求1所述的方法,其特征在于,所述将所述变换矩阵与添加的增强现实元素对应的纹理初始顶点坐标相乘得到所述增强现实元素对应的纹理目标顶点坐标的步骤之前,还包括:
在所述移动终端发生偏转前,获取待添加的增强现实元素中的预设基本图形以及所述增强现实元素在移动终端显示屏中的预设显示位置;
根据所述预设基本图形和所述预设显示位置获取对应的绘制所述预设基本图形的纹理对应的纹理初始顶点坐标。
6.一种三维图像处理装置,其特征在于,所述装置包括:
透视矩阵生成模块,用于在世界坐标系中获取当前图像采集设备位置坐标,当前垂直于图像采集设备成像装置平面的第一方向向量和当前平行于图像采集设备成像装置平面的第二方向向量,根据所述当前图像采集设备位置坐标、所述第一方向向量和所述第二方向向量利用视图转换算法得到透视矩阵;
投影矩阵生成模块,用于获取在图像采集设备坐标系中预设的近平面顶点坐标、近平面距离和远平面距离,根据所述近平面顶点坐标、近平面距离和远平面距离利用投影转换算法得到投影矩阵;
目标顶点坐标生成模块,用于将所述透视矩阵与所述投影矩阵相乘得到变换矩阵,将所述变换矩阵与添加的增强现实元素对应的纹理初始顶点坐标相乘得到所述增强现实元素对应的纹理目标顶点坐标;
渲染模块,用于根据所述纹理目标顶点坐标渲染所述增强现实元素生成三维图像。
7.根据权利要求6所述的装置,其特征在于,所述透视矩阵生成模块包括:
第一获取模块,用于获取移动终端在所述世界坐标系中的各个坐标维度方向上的初始方向向量,形成初始方向向量矩阵;
旋转矩阵生成模块,用于当所述移动终端偏转时,利用传感器获取所述移动终端当前相对于所述世界坐标系的各个坐标维度的欧拉角,根据所述欧拉角得到对应的当前旋转矩阵;
方向向量矩阵生成模块,用于将所述初始向量矩阵与所述当前旋转矩阵相乘得到移动终端偏转后对应的当前方向向量矩阵;
第一方向向量获取模块,用于根据所述当前方向向量矩阵中的第一坐标维度方向向量确定所述第一方向向量;
第二方向向量获取模块,用于将所述当前方向向量矩阵中的第二坐标维度方向向量作为所述第二方向向量。
8.根据权利要求7所述的装置,其特征在于,所述当前旋转矩阵与所述欧拉角的转换公式为:
<mrow>
<mi>R</mi>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>cos</mi>
<mi>&beta;</mi>
<mi>cos</mi>
<mi>&gamma;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>cos</mi>
<mi>&gamma;</mi>
<mi>sin</mi>
<mi>&alpha;</mi>
<mi>sin</mi>
<mi>&beta;</mi>
<mo>-</mo>
<mi>cos</mi>
<mi>&alpha;</mi>
<mi>sin</mi>
<mi>&gamma;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>sin</mi>
<mi>&alpha;</mi>
<mi>sin</mi>
<mi>&gamma;</mi>
<mo>+</mo>
<mi>cos</mi>
<mi>&alpha;</mi>
<mi>cos</mi>
<mi>&gamma;</mi>
<mi>sin</mi>
<mi>&beta;</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>cos</mi>
<mi>&beta;</mi>
<mi>sin</mi>
<mi>&gamma;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>cos</mi>
<mi>&alpha;</mi>
<mi>cos</mi>
<mi>&gamma;</mi>
<mo>+</mo>
<mi>sin</mi>
<mi>&alpha;</mi>
<mi>sin</mi>
<mi>&beta;</mi>
<mi>sin</mi>
<mi>&gamma;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>cos</mi>
<mi>&alpha;</mi>
<mi>sin</mi>
<mi>&beta;</mi>
<mi>sin</mi>
<mi>&gamma;</mi>
<mo>-</mo>
<mi>cos</mi>
<mi>&gamma;</mi>
<mi>sin</mi>
<mi>&alpha;</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>-</mo>
<mi>sin</mi>
<mi>&beta;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>cos</mi>
<mi>&beta;</mi>
<mi>sin</mi>
<mi>&alpha;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>cos</mi>
<mi>&alpha;</mi>
<mi>cos</mi>
<mi>&beta;</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中,α、β、γ分别表示移动终端相对于所述世界坐标系的X轴、Y轴和Z轴的欧拉角。
9.根据权利要求6所述的装置,其特征在于,所述透视矩阵生成模块还包括:
第二获取模块,用于获取所述世界坐标系的原点坐标,通过所述原点坐标与所述当前图像采集设备位置坐标计算得到当前图像采集设备的位置向量,对所述位置向量进行标准化得到标准化位置向量;
卷积模块,用于将所述第一方向向量与所述标准化位置向量卷积得到对应的第一目标向量,并将所述第一目标向量进行标准化,得到第一标准化目标向量,将所述第一标准化目标向量与所述标准化位置向量进行卷积得到第二目标向量;
组合模块,用于将所述标准化位置向量、所述第一标准化目标向量、所述第二目标向量构造生成所述透视矩阵。
10.根据权利要求6所述的装置,其特征在于,所述装置还包括:
初始状态获取模块,用于在所述移动终端发生偏转前,获取待添加的增强现实元素中的预设基本图形以及所述增强现实元素在移动终端显示屏中的预设显示位置;
初始顶点坐标获取模块,根据所述预设基本图形和所述预设显示位置获取对应的绘制所述预设基本图形的纹理对应的纹理初始顶点坐标。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可执行指令,所述计算机可执行指令被处理器执行时,使得所述处理器执行权利要求1至5中任一项所述方法的步骤。
12.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中储存有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行权利要求1至5中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710682445.6A CN107564089B (zh) | 2017-08-10 | 2017-08-10 | 三维图像处理方法、装置、存储介质和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710682445.6A CN107564089B (zh) | 2017-08-10 | 2017-08-10 | 三维图像处理方法、装置、存储介质和计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107564089A true CN107564089A (zh) | 2018-01-09 |
CN107564089B CN107564089B (zh) | 2022-03-01 |
Family
ID=60974415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710682445.6A Active CN107564089B (zh) | 2017-08-10 | 2017-08-10 | 三维图像处理方法、装置、存储介质和计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107564089B (zh) |
Cited By (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108062784A (zh) * | 2018-02-05 | 2018-05-22 | 深圳市易尚展示股份有限公司 | 三维模型纹理贴图转换方法与装置 |
CN108346181A (zh) * | 2018-03-30 | 2018-07-31 | 中煤科工集团重庆研究院有限公司 | 矿井三维全巷道虚化及设施设备显示方法 |
CN108520672A (zh) * | 2018-03-01 | 2018-09-11 | 吉林大学 | 一种具有多屏幕立体成像的驾驶模拟仿真系统 |
CN108665407A (zh) * | 2018-05-21 | 2018-10-16 | 武汉山骁科技有限公司 | 一种基于视线方向纹理采样的MatCap算法 |
CN108765539A (zh) * | 2018-05-24 | 2018-11-06 | 武汉斗鱼网络科技有限公司 | 基于OpenGLES的图像渲染方法、装置、设备及存储介质 |
CN108921778A (zh) * | 2018-07-06 | 2018-11-30 | 成都品果科技有限公司 | 一种星球效果图生成方法 |
CN109147055A (zh) * | 2018-08-03 | 2019-01-04 | 五八有限公司 | 增强现实显示方法、装置、设备及存储介质 |
CN109189302A (zh) * | 2018-08-29 | 2019-01-11 | 百度在线网络技术(北京)有限公司 | Ar虚拟模型的控制方法及装置 |
CN109214351A (zh) * | 2018-09-20 | 2019-01-15 | 太平洋未来科技(深圳)有限公司 | 一种ar成像方法、装置及电子设备 |
CN109255832A (zh) * | 2018-09-21 | 2019-01-22 | 四川长虹电器股份有限公司 | 一种基于OpenGL的目标光场创建方法 |
CN109272454A (zh) * | 2018-07-27 | 2019-01-25 | 阿里巴巴集团控股有限公司 | 一种增强现实设备的坐标系校准方法及装置 |
CN109300184A (zh) * | 2018-09-29 | 2019-02-01 | 五八有限公司 | Ar动态展示方法、装置、计算机设备及可读存储介质 |
CN109725728A (zh) * | 2018-12-29 | 2019-05-07 | 三星电子(中国)研发中心 | 一种ar设备的显示修正方法和装置 |
CN109871620A (zh) * | 2019-02-22 | 2019-06-11 | 深圳市瑞源祥橡塑制品有限公司 | 目标点在基准面的投影点获取方法、装置及其应用 |
CN109938768A (zh) * | 2019-03-11 | 2019-06-28 | 深圳市比邻星精密技术有限公司 | 超声成像方法、装置、计算机设备及存储介质 |
CN110110647A (zh) * | 2019-04-30 | 2019-08-09 | 北京小米移动软件有限公司 | 基于ar设备进行信息显示的方法、装置及存储介质 |
CN110163942A (zh) * | 2018-07-18 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种图像数据处理方法和装置 |
CN110298924A (zh) * | 2019-05-13 | 2019-10-01 | 西安电子科技大学 | 一种ar系统中用于显示检测信息的坐标变换方法 |
CN110335224A (zh) * | 2019-07-05 | 2019-10-15 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN110458943A (zh) * | 2019-07-31 | 2019-11-15 | 深圳市商汤科技有限公司 | 移动对象旋转方法及装置、控制设备及存储介质 |
CN110766744A (zh) * | 2019-11-05 | 2020-02-07 | 北京华捷艾米科技有限公司 | 一种基于3d深度摄像头的mr体积测量方法及装置 |
CN111246118A (zh) * | 2020-04-27 | 2020-06-05 | 成都派沃特科技股份有限公司 | Ar元素的显示方法、装置、设备及存储介质 |
CN111275813A (zh) * | 2020-01-20 | 2020-06-12 | 北京字节跳动网络技术有限公司 | 数据处理方法、装置和电子设备 |
CN111274995A (zh) * | 2020-02-13 | 2020-06-12 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置、设备和计算机可读存储介质 |
CN111327886A (zh) * | 2020-03-05 | 2020-06-23 | 胡嘉君 | 3d光场渲染方法及装置 |
CN111405314A (zh) * | 2020-03-09 | 2020-07-10 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、装置、设备及存储介质 |
CN111476902A (zh) * | 2020-04-27 | 2020-07-31 | 北京小马慧行科技有限公司 | 3d点云中物体的标注方法、装置、存储介质和处理器 |
CN111582293A (zh) * | 2019-02-19 | 2020-08-25 | 曜科智能科技(上海)有限公司 | 平面几何一致性检测方法、计算机设备、及存储介质 |
CN111784810A (zh) * | 2019-04-04 | 2020-10-16 | 网易(杭州)网络有限公司 | 虚拟地图显示方法及装置、存储介质、电子设备 |
CN111815788A (zh) * | 2020-07-22 | 2020-10-23 | 腾讯科技(深圳)有限公司 | 三维地图处理方法、装置、设备和存储介质 |
CN111833459A (zh) * | 2020-07-10 | 2020-10-27 | 北京字节跳动网络技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN111870931A (zh) * | 2020-06-24 | 2020-11-03 | 合肥安达创展科技股份有限公司 | 一种体感互动的人机交互方法及系统 |
CN112184801A (zh) * | 2020-09-30 | 2021-01-05 | 湖北安泰泽善科技有限公司 | 一种用于鱼眼摄像头的数据展示方法和移动终端 |
CN112184543A (zh) * | 2020-09-30 | 2021-01-05 | 湖北安泰泽善科技有限公司 | 一种用于鱼眼摄像头的数据展示方法和装置 |
CN112257131A (zh) * | 2020-09-18 | 2021-01-22 | 杭州群核信息技术有限公司 | 一种基于矩阵变换实现吊顶俯视效果图的方法 |
CN112308768A (zh) * | 2020-10-19 | 2021-02-02 | 武汉中科通达高新技术股份有限公司 | 一种数据处理方法、装置、电子设备以及存储介质 |
CN112308757A (zh) * | 2020-10-19 | 2021-02-02 | 武汉中科通达高新技术股份有限公司 | 一种数据展示方法和移动终端 |
CN112306344A (zh) * | 2020-10-19 | 2021-02-02 | 武汉中科通达高新技术股份有限公司 | 一种数据处理方法及移动终端 |
CN112529769A (zh) * | 2020-12-04 | 2021-03-19 | 威创集团股份有限公司 | 二维图像适应屏幕的方法及系统、计算机设备和存储介质 |
CN112734628A (zh) * | 2020-12-30 | 2021-04-30 | 威创集团股份有限公司 | 一种经三维转换后的跟踪点的投影位置计算方法及系统 |
CN112734896A (zh) * | 2021-01-08 | 2021-04-30 | 网易(杭州)网络有限公司 | 环境遮蔽渲染方法、装置、存储介质及电子设备 |
CN112927356A (zh) * | 2021-03-03 | 2021-06-08 | 中国人民解放军战略支援部队信息工程大学 | 一种无人机图像的三维显示方法 |
CN113129455A (zh) * | 2021-04-28 | 2021-07-16 | 南昌虚拟现实研究院股份有限公司 | 一种图像处理方法、装置、存储介质及设备 |
CN113421320A (zh) * | 2021-07-19 | 2021-09-21 | 上海米哈游璃月科技有限公司 | 爆炸动画的碎片运动方法、装置、电子设备及存储介质 |
CN113470154A (zh) * | 2021-07-30 | 2021-10-01 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN113689536A (zh) * | 2021-08-25 | 2021-11-23 | 杭州群核信息技术有限公司 | 纹理铺贴方法、装置和存储介质 |
CN113741835A (zh) * | 2020-05-29 | 2021-12-03 | 北京嗨动视觉科技有限公司 | 走马灯效果实现方法和走马灯效果实现装置 |
CN114359456A (zh) * | 2021-12-27 | 2022-04-15 | 北京城市网邻信息技术有限公司 | 贴图方法、装置、电子设备及可读存储介质 |
CN116542847A (zh) * | 2023-07-05 | 2023-08-04 | 海豚乐智科技(成都)有限责任公司 | 一种低小慢目标高速图像模拟方法、存储介质及装置 |
CN117036444A (zh) * | 2023-10-08 | 2023-11-10 | 深圳市其域创新科技有限公司 | 三维模型输出方法、装置、设备及计算机可读存储介质 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101101505A (zh) * | 2006-07-07 | 2008-01-09 | 华为技术有限公司 | 一种实现三维增强现实的方法及系统 |
US20110157179A1 (en) * | 2009-12-29 | 2011-06-30 | National Taiwan University Of Science And Technology | Method and system for providing augmented reality based on marker tracking, and computer program product thereof |
CN102222333A (zh) * | 2011-05-20 | 2011-10-19 | 同济大学 | 一种基于混合注册的地下工程移动增强现实方法及其装置 |
KR20130017258A (ko) * | 2011-08-10 | 2013-02-20 | 중앙대학교 산학협력단 | 다수의 평면을 가지는 모델 기반의 증강현실 구현장치 및 방법 |
CN102945328A (zh) * | 2012-11-22 | 2013-02-27 | 北京理工大学 | 基于gpu并行运算的x射线造影图像仿真方法 |
CN103679792A (zh) * | 2013-12-24 | 2014-03-26 | Tcl集团股份有限公司 | 一种三维模型的渲染方法和系统 |
CN103793936A (zh) * | 2012-10-31 | 2014-05-14 | 波音公司 | 用于增强现实的自动化参考框架校准 |
CN103970518A (zh) * | 2013-01-31 | 2014-08-06 | 腾讯科技(深圳)有限公司 | 一种逻辑窗口的3d渲染方法和装置 |
CN105005986A (zh) * | 2015-06-19 | 2015-10-28 | 北京邮电大学 | 一种三维注册方法及装置 |
JP2016007277A (ja) * | 2014-06-23 | 2016-01-18 | 公立大学法人公立はこだて未来大学 | 手術支援装置および手術支援システム |
CN105701828A (zh) * | 2016-01-14 | 2016-06-22 | 广州视睿电子科技有限公司 | 一种图像处理方法和装置 |
CN106250839A (zh) * | 2016-07-27 | 2016-12-21 | 徐鹤菲 | 一种虹膜图像透视校正方法、装置和移动终端 |
CN106251282A (zh) * | 2016-07-19 | 2016-12-21 | 中国人民解放军63920部队 | 一种机械臂采样环境仿真图的生成方法及装置 |
CN106327587A (zh) * | 2016-11-16 | 2017-01-11 | 北京航空航天大学 | 一种用于增强现实手术导航的腹腔镜视频精准融合方法 |
CN106373085A (zh) * | 2016-09-20 | 2017-02-01 | 福州大学 | 一种基于增强现实的智能终端3d手表试戴方法及系统 |
CN106548519A (zh) * | 2016-11-04 | 2017-03-29 | 上海玄彩美科网络科技有限公司 | 基于orb‑slam和深度相机的真实感的增强现实方法 |
CN107016704A (zh) * | 2017-03-09 | 2017-08-04 | 杭州电子科技大学 | 一种基于增强现实的虚拟现实实现方法 |
-
2017
- 2017-08-10 CN CN201710682445.6A patent/CN107564089B/zh active Active
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101101505A (zh) * | 2006-07-07 | 2008-01-09 | 华为技术有限公司 | 一种实现三维增强现实的方法及系统 |
US20110157179A1 (en) * | 2009-12-29 | 2011-06-30 | National Taiwan University Of Science And Technology | Method and system for providing augmented reality based on marker tracking, and computer program product thereof |
CN102222333A (zh) * | 2011-05-20 | 2011-10-19 | 同济大学 | 一种基于混合注册的地下工程移动增强现实方法及其装置 |
KR20130017258A (ko) * | 2011-08-10 | 2013-02-20 | 중앙대학교 산학협력단 | 다수의 평면을 가지는 모델 기반의 증강현실 구현장치 및 방법 |
CN103793936A (zh) * | 2012-10-31 | 2014-05-14 | 波音公司 | 用于增强现实的自动化参考框架校准 |
RU2013148372A (ru) * | 2012-10-31 | 2015-05-10 | Дзе Боинг Компани | Автоматическая калибровка системы отсчета дополненной реальности |
CN102945328A (zh) * | 2012-11-22 | 2013-02-27 | 北京理工大学 | 基于gpu并行运算的x射线造影图像仿真方法 |
CN103970518A (zh) * | 2013-01-31 | 2014-08-06 | 腾讯科技(深圳)有限公司 | 一种逻辑窗口的3d渲染方法和装置 |
CN103679792A (zh) * | 2013-12-24 | 2014-03-26 | Tcl集团股份有限公司 | 一种三维模型的渲染方法和系统 |
JP2016007277A (ja) * | 2014-06-23 | 2016-01-18 | 公立大学法人公立はこだて未来大学 | 手術支援装置および手術支援システム |
CN105005986A (zh) * | 2015-06-19 | 2015-10-28 | 北京邮电大学 | 一种三维注册方法及装置 |
CN105701828A (zh) * | 2016-01-14 | 2016-06-22 | 广州视睿电子科技有限公司 | 一种图像处理方法和装置 |
CN106251282A (zh) * | 2016-07-19 | 2016-12-21 | 中国人民解放军63920部队 | 一种机械臂采样环境仿真图的生成方法及装置 |
CN106250839A (zh) * | 2016-07-27 | 2016-12-21 | 徐鹤菲 | 一种虹膜图像透视校正方法、装置和移动终端 |
CN106373085A (zh) * | 2016-09-20 | 2017-02-01 | 福州大学 | 一种基于增强现实的智能终端3d手表试戴方法及系统 |
CN106548519A (zh) * | 2016-11-04 | 2017-03-29 | 上海玄彩美科网络科技有限公司 | 基于orb‑slam和深度相机的真实感的增强现实方法 |
CN106327587A (zh) * | 2016-11-16 | 2017-01-11 | 北京航空航天大学 | 一种用于增强现实手术导航的腹腔镜视频精准融合方法 |
CN107016704A (zh) * | 2017-03-09 | 2017-08-04 | 杭州电子科技大学 | 一种基于增强现实的虚拟现实实现方法 |
Non-Patent Citations (3)
Title |
---|
Y. GENC .ETAL: "Optical see-through calibration with vision-based trackers: Propagation of projection matrices", 《IEEE》 * |
张丹: "应用于校园增强现实系统的建筑物识别算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
王剑钢: "基于增强现实的地理信息指引系统", 《中国优秀硕士学位论文全文数据库 (基础科学辑)》 * |
Cited By (81)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108062784A (zh) * | 2018-02-05 | 2018-05-22 | 深圳市易尚展示股份有限公司 | 三维模型纹理贴图转换方法与装置 |
CN108520672A (zh) * | 2018-03-01 | 2018-09-11 | 吉林大学 | 一种具有多屏幕立体成像的驾驶模拟仿真系统 |
CN108346181A (zh) * | 2018-03-30 | 2018-07-31 | 中煤科工集团重庆研究院有限公司 | 矿井三维全巷道虚化及设施设备显示方法 |
CN108346181B (zh) * | 2018-03-30 | 2022-04-05 | 中煤科工集团重庆研究院有限公司 | 矿井三维全巷道虚化及设施设备显示方法 |
CN108665407A (zh) * | 2018-05-21 | 2018-10-16 | 武汉山骁科技有限公司 | 一种基于视线方向纹理采样的MatCap算法 |
CN108765539A (zh) * | 2018-05-24 | 2018-11-06 | 武汉斗鱼网络科技有限公司 | 基于OpenGLES的图像渲染方法、装置、设备及存储介质 |
CN108765539B (zh) * | 2018-05-24 | 2022-05-13 | 武汉斗鱼网络科技有限公司 | 基于OpenGLES的图像渲染方法、装置、设备及存储介质 |
CN108921778A (zh) * | 2018-07-06 | 2018-11-30 | 成都品果科技有限公司 | 一种星球效果图生成方法 |
CN108921778B (zh) * | 2018-07-06 | 2022-12-30 | 成都品果科技有限公司 | 一种星球效果图生成方法 |
CN110163942B (zh) * | 2018-07-18 | 2023-02-14 | 腾讯科技(深圳)有限公司 | 一种图像数据处理方法和装置 |
CN110163942A (zh) * | 2018-07-18 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 一种图像数据处理方法和装置 |
WO2020019962A1 (zh) * | 2018-07-27 | 2020-01-30 | 阿里巴巴集团控股有限公司 | 一种增强现实设备的坐标系校准方法及装置 |
CN109272454A (zh) * | 2018-07-27 | 2019-01-25 | 阿里巴巴集团控股有限公司 | 一种增强现实设备的坐标系校准方法及装置 |
TWI712004B (zh) * | 2018-07-27 | 2020-12-01 | 開曼群島商創新先進技術有限公司 | 擴增實境設備的座標系校準方法及裝置 |
CN109147055A (zh) * | 2018-08-03 | 2019-01-04 | 五八有限公司 | 增强现实显示方法、装置、设备及存储介质 |
CN109147055B (zh) * | 2018-08-03 | 2023-09-08 | 五八有限公司 | 增强现实显示方法、装置、设备及存储介质 |
CN109189302A (zh) * | 2018-08-29 | 2019-01-11 | 百度在线网络技术(北京)有限公司 | Ar虚拟模型的控制方法及装置 |
CN109214351A (zh) * | 2018-09-20 | 2019-01-15 | 太平洋未来科技(深圳)有限公司 | 一种ar成像方法、装置及电子设备 |
CN109214351B (zh) * | 2018-09-20 | 2020-07-07 | 太平洋未来科技(深圳)有限公司 | 一种ar成像方法、装置及电子设备 |
CN109255832A (zh) * | 2018-09-21 | 2019-01-22 | 四川长虹电器股份有限公司 | 一种基于OpenGL的目标光场创建方法 |
CN109300184A (zh) * | 2018-09-29 | 2019-02-01 | 五八有限公司 | Ar动态展示方法、装置、计算机设备及可读存储介质 |
CN109725728A (zh) * | 2018-12-29 | 2019-05-07 | 三星电子(中国)研发中心 | 一种ar设备的显示修正方法和装置 |
CN111582293A (zh) * | 2019-02-19 | 2020-08-25 | 曜科智能科技(上海)有限公司 | 平面几何一致性检测方法、计算机设备、及存储介质 |
CN111582293B (zh) * | 2019-02-19 | 2023-03-24 | 曜科智能科技(上海)有限公司 | 平面几何一致性检测方法、计算机设备、及存储介质 |
CN109871620B (zh) * | 2019-02-22 | 2022-11-25 | 深圳市瑞源祥橡塑制品有限公司 | 目标点在基准面的投影点获取方法、装置及其应用 |
CN109871620A (zh) * | 2019-02-22 | 2019-06-11 | 深圳市瑞源祥橡塑制品有限公司 | 目标点在基准面的投影点获取方法、装置及其应用 |
CN109938768A (zh) * | 2019-03-11 | 2019-06-28 | 深圳市比邻星精密技术有限公司 | 超声成像方法、装置、计算机设备及存储介质 |
CN111784810B (zh) * | 2019-04-04 | 2023-12-29 | 网易(杭州)网络有限公司 | 虚拟地图显示方法及装置、存储介质、电子设备 |
CN111784810A (zh) * | 2019-04-04 | 2020-10-16 | 网易(杭州)网络有限公司 | 虚拟地图显示方法及装置、存储介质、电子设备 |
CN110110647A (zh) * | 2019-04-30 | 2019-08-09 | 北京小米移动软件有限公司 | 基于ar设备进行信息显示的方法、装置及存储介质 |
CN110298924A (zh) * | 2019-05-13 | 2019-10-01 | 西安电子科技大学 | 一种ar系统中用于显示检测信息的坐标变换方法 |
CN110335224B (zh) * | 2019-07-05 | 2022-12-13 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN110335224A (zh) * | 2019-07-05 | 2019-10-15 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
CN110458943A (zh) * | 2019-07-31 | 2019-11-15 | 深圳市商汤科技有限公司 | 移动对象旋转方法及装置、控制设备及存储介质 |
CN110458943B (zh) * | 2019-07-31 | 2021-09-14 | 深圳市商汤科技有限公司 | 移动对象旋转方法及装置、控制设备及存储介质 |
CN110766744A (zh) * | 2019-11-05 | 2020-02-07 | 北京华捷艾米科技有限公司 | 一种基于3d深度摄像头的mr体积测量方法及装置 |
CN111275813A (zh) * | 2020-01-20 | 2020-06-12 | 北京字节跳动网络技术有限公司 | 数据处理方法、装置和电子设备 |
CN111274995B (zh) * | 2020-02-13 | 2023-07-14 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置、设备和计算机可读存储介质 |
CN111274995A (zh) * | 2020-02-13 | 2020-06-12 | 腾讯科技(深圳)有限公司 | 视频分类方法、装置、设备和计算机可读存储介质 |
CN111327886A (zh) * | 2020-03-05 | 2020-06-23 | 胡嘉君 | 3d光场渲染方法及装置 |
CN111405314A (zh) * | 2020-03-09 | 2020-07-10 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、装置、设备及存储介质 |
CN111246118B (zh) * | 2020-04-27 | 2020-08-21 | 成都派沃特科技股份有限公司 | Ar元素的显示方法、装置、设备及存储介质 |
CN111246118A (zh) * | 2020-04-27 | 2020-06-05 | 成都派沃特科技股份有限公司 | Ar元素的显示方法、装置、设备及存储介质 |
CN111476902A (zh) * | 2020-04-27 | 2020-07-31 | 北京小马慧行科技有限公司 | 3d点云中物体的标注方法、装置、存储介质和处理器 |
CN111476902B (zh) * | 2020-04-27 | 2023-10-24 | 北京小马慧行科技有限公司 | 3d点云中物体的标注方法、装置、存储介质和处理器 |
CN113741835B (zh) * | 2020-05-29 | 2024-05-24 | 北京嗨动视觉科技有限公司 | 走马灯效果实现方法和走马灯效果实现装置 |
CN113741835A (zh) * | 2020-05-29 | 2021-12-03 | 北京嗨动视觉科技有限公司 | 走马灯效果实现方法和走马灯效果实现装置 |
CN111870931A (zh) * | 2020-06-24 | 2020-11-03 | 合肥安达创展科技股份有限公司 | 一种体感互动的人机交互方法及系统 |
CN111833459B (zh) * | 2020-07-10 | 2024-04-26 | 北京字节跳动网络技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN111833459A (zh) * | 2020-07-10 | 2020-10-27 | 北京字节跳动网络技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN111815788A (zh) * | 2020-07-22 | 2020-10-23 | 腾讯科技(深圳)有限公司 | 三维地图处理方法、装置、设备和存储介质 |
CN112257131A (zh) * | 2020-09-18 | 2021-01-22 | 杭州群核信息技术有限公司 | 一种基于矩阵变换实现吊顶俯视效果图的方法 |
CN112257131B (zh) * | 2020-09-18 | 2023-10-03 | 杭州群核信息技术有限公司 | 一种基于矩阵变换实现吊顶俯视效果图的方法 |
CN112184543B (zh) * | 2020-09-30 | 2024-04-16 | 湖北安泰泽善科技有限公司 | 一种用于鱼眼摄像头的数据展示方法和装置 |
CN112184543A (zh) * | 2020-09-30 | 2021-01-05 | 湖北安泰泽善科技有限公司 | 一种用于鱼眼摄像头的数据展示方法和装置 |
CN112184801A (zh) * | 2020-09-30 | 2021-01-05 | 湖北安泰泽善科技有限公司 | 一种用于鱼眼摄像头的数据展示方法和移动终端 |
CN112308768B (zh) * | 2020-10-19 | 2023-09-08 | 武汉中科通达高新技术股份有限公司 | 一种数据处理方法、装置、电子设备以及存储介质 |
CN112308757B (zh) * | 2020-10-19 | 2024-03-22 | 武汉中科通达高新技术股份有限公司 | 一种数据展示方法和移动终端 |
CN112306344A (zh) * | 2020-10-19 | 2021-02-02 | 武汉中科通达高新技术股份有限公司 | 一种数据处理方法及移动终端 |
CN112308757A (zh) * | 2020-10-19 | 2021-02-02 | 武汉中科通达高新技术股份有限公司 | 一种数据展示方法和移动终端 |
CN112306344B (zh) * | 2020-10-19 | 2023-11-28 | 武汉中科通达高新技术股份有限公司 | 一种数据处理方法及移动终端 |
CN112308768A (zh) * | 2020-10-19 | 2021-02-02 | 武汉中科通达高新技术股份有限公司 | 一种数据处理方法、装置、电子设备以及存储介质 |
CN112529769B (zh) * | 2020-12-04 | 2023-08-18 | 威创集团股份有限公司 | 二维图像适应屏幕的方法及系统、计算机设备和存储介质 |
CN112529769A (zh) * | 2020-12-04 | 2021-03-19 | 威创集团股份有限公司 | 二维图像适应屏幕的方法及系统、计算机设备和存储介质 |
CN112734628A (zh) * | 2020-12-30 | 2021-04-30 | 威创集团股份有限公司 | 一种经三维转换后的跟踪点的投影位置计算方法及系统 |
CN112734628B (zh) * | 2020-12-30 | 2023-06-09 | 威创集团股份有限公司 | 一种经三维转换后的跟踪点的投影位置计算方法及系统 |
CN112734896A (zh) * | 2021-01-08 | 2021-04-30 | 网易(杭州)网络有限公司 | 环境遮蔽渲染方法、装置、存储介质及电子设备 |
CN112734896B (zh) * | 2021-01-08 | 2024-04-26 | 网易(杭州)网络有限公司 | 环境遮蔽渲染方法、装置、存储介质及电子设备 |
CN112927356A (zh) * | 2021-03-03 | 2021-06-08 | 中国人民解放军战略支援部队信息工程大学 | 一种无人机图像的三维显示方法 |
CN112927356B (zh) * | 2021-03-03 | 2022-12-09 | 中国人民解放军战略支援部队信息工程大学 | 一种无人机图像的三维显示方法 |
CN113129455B (zh) * | 2021-04-28 | 2023-05-12 | 南昌虚拟现实研究院股份有限公司 | 一种图像处理方法、装置、存储介质及设备 |
CN113129455A (zh) * | 2021-04-28 | 2021-07-16 | 南昌虚拟现实研究院股份有限公司 | 一种图像处理方法、装置、存储介质及设备 |
CN113421320A (zh) * | 2021-07-19 | 2021-09-21 | 上海米哈游璃月科技有限公司 | 爆炸动画的碎片运动方法、装置、电子设备及存储介质 |
CN113470154B (zh) * | 2021-07-30 | 2023-11-28 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN113470154A (zh) * | 2021-07-30 | 2021-10-01 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备及存储介质 |
CN113689536A (zh) * | 2021-08-25 | 2021-11-23 | 杭州群核信息技术有限公司 | 纹理铺贴方法、装置和存储介质 |
CN114359456B (zh) * | 2021-12-27 | 2023-03-24 | 北京城市网邻信息技术有限公司 | 贴图方法、装置、电子设备及可读存储介质 |
CN114359456A (zh) * | 2021-12-27 | 2022-04-15 | 北京城市网邻信息技术有限公司 | 贴图方法、装置、电子设备及可读存储介质 |
CN116542847A (zh) * | 2023-07-05 | 2023-08-04 | 海豚乐智科技(成都)有限责任公司 | 一种低小慢目标高速图像模拟方法、存储介质及装置 |
CN116542847B (zh) * | 2023-07-05 | 2023-10-10 | 海豚乐智科技(成都)有限责任公司 | 一种低小慢目标高速图像模拟方法、存储介质及装置 |
CN117036444A (zh) * | 2023-10-08 | 2023-11-10 | 深圳市其域创新科技有限公司 | 三维模型输出方法、装置、设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN107564089B (zh) | 2022-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107564089A (zh) | 三维图像处理方法、装置、存储介质和计算机设备 | |
AU2011312140C1 (en) | Rapid 3D modeling | |
Guillou et al. | Using vanishing points for camera calibration and coarse 3D reconstruction from a single image | |
CN104995666B (zh) | 用于在真实环境中表示虚拟信息的方法 | |
JP4764305B2 (ja) | 立体画像生成装置、方法およびプログラム | |
CN110648274B (zh) | 鱼眼图像的生成方法及装置 | |
EP2546806A2 (en) | Image based rendering for AR - enabling user generation of 3D content | |
CN105913478A (zh) | 360度全景显示方法、显示模块及移动终端 | |
CN104574501A (zh) | 一种针对复杂三维场景的高质量纹理映射方法 | |
CA2395257A1 (en) | Any aspect passive volumetric image processing method | |
CN113763569B (zh) | 一种在三维仿真中使用的图像标注方法及装置、电子设备 | |
CN102096938A (zh) | 一种可量测全景图像的构建方法 | |
EP3275182B1 (en) | Methods and systems for light field augmented reality/virtual reality on mobile devices | |
CN111524230B (zh) | 一种三维模型与展开全景图联动浏览方法及计算机系统 | |
Yu et al. | Multiperspective modeling, rendering, and imaging | |
EP3573018B1 (en) | Image generation device, and image display control device | |
KR20200024946A (ko) | 전방향의 구형 라이트 필드 렌더링 방법 | |
CN116912437A (zh) | 一种基于语义点云的实景三维可视化方法及系统 | |
Deepu et al. | 3D Reconstruction from Single 2D Image | |
CN114693820A (zh) | 对象提取方法、装置、电子设备及存储介质 | |
CN110910482B (zh) | 视频数据组织调度的方法、系统及可读存储介质 | |
Maesen et al. | Omnidirectional free viewpoint video using panoramic light fields | |
Lechlek et al. | Interactive hdr image-based rendering from unstructured ldr photographs | |
Nakagawa | LiDAR VR generation with point-based rendering | |
JPS63259778A (ja) | 画像デ−タの表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |