CN111768496B - 图像处理方法、装置、服务器及计算机可读存储介质 - Google Patents
图像处理方法、装置、服务器及计算机可读存储介质 Download PDFInfo
- Publication number
- CN111768496B CN111768496B CN202010603502.9A CN202010603502A CN111768496B CN 111768496 B CN111768496 B CN 111768496B CN 202010603502 A CN202010603502 A CN 202010603502A CN 111768496 B CN111768496 B CN 111768496B
- Authority
- CN
- China
- Prior art keywords
- image
- target object
- virtual scene
- model
- constructing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 102
- 238000000034 method Methods 0.000 claims abstract description 32
- 238000004364 calculation method Methods 0.000 claims abstract description 17
- 238000005034 decoration Methods 0.000 claims description 34
- 230000009471 action Effects 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 12
- 238000010276 construction Methods 0.000 claims description 11
- 238000009877 rendering Methods 0.000 claims description 6
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 15
- 230000000007 visual effect Effects 0.000 abstract description 11
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 241000238631 Hexapoda Species 0.000 description 1
- 241000124008 Mammalia Species 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000003370 grooming effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例涉及一种图像处理方法、装置、服务器及计算机可读存储介质。上述方法,包括:从待处理的2D图像中划分得到前景区域,提取前景区域的图像特征;在数据库中对图像特征进行相似度匹配计算,识别得到前景区域中的目标物体,获取与目标物体匹配的物理参数;根据物理参数构建目标物体的3D模型;确定目标虚拟场景,获取与目标虚拟场景匹配的虚拟场景数据;根据虚拟场景数据构建3D虚拟场景图像;将3D虚拟场景图像与目标物体的3D模型融合得到3D图像。上述图像处理方法、装置、服务器及计算机可读存储介质,可以将2D图像转换为3D虚拟场景的3D图像,使图像观看者能感知更多的图像信息,提高图像的视觉显示效果,且简便快捷。
Description
本申请为申请号为2017107375327,申请日2017年08月24日,发明名称“图像处理方法、装置、服务器及计算机可读存储介质”的分案申请。
技术领域
本申请涉及计算机技术领域,特别是涉及一种图像处理方法、装置、服务器及计算机可读存储介质。
背景技术
成像设备(例如相机、摄影机等)拍摄得到的图像通常以2D(2Dimensions,2维)的形式呈现,2D图像也称为平面图像,2D图像可能会丢失某些被摄物体的信息。而3D(3Dimensions,3维)图像可以使观看者感知并体验到被摄物体的深度,从而获得更多的被摄物体信息。传统的2D图像转3D图像,需要用户手动对2D图像的区域进行移位,从而创造不同视角的图像构建3D图像,操作繁琐。
发明内容
本申请实施例提供一种图像处理方法、装置、服务器及计算机可读存储介质,可以自动将2D图像转换为包含有3D虚拟场景的3D图像,使图像观看者能感知更多的图像信息,提高图像的视觉显示效果,且简便快捷。
一种图像处理方法,包括:
接收移动终端发送的图像处理请求,所述图像处理请求包括待处理的2D图像及任务类型;
从所述2D图像中划分得到前景区域,并提取所述前景区域的图像特征;
在数据库中对所述图像特征进行相似度匹配计算,识别得到所述前景区域中的目标物体,并获取与所述目标物体匹配的物理参数;
根据所述物理参数构建所述目标物体的3D模型;
当所述任务类型为虚拟场景处理时,根据所述任务类型确定目标虚拟场景,获取与所述目标虚拟场景匹配的虚拟场景数据;
根据所述虚拟场景数据构建3D虚拟场景图像;
将所述3D虚拟场景图像与所述目标物体的3D模型融合得到3D图像,并将所述3D图像返回给所述移动终端。
在一个实施例中,所述根据所述物理参数构建所述目标物体的3D模型之前,还包括:
获取目标动作;
确定与所述目标动作匹配的动作数据;
所述根据所述物理参数构建所述目标物体的3D模型,包括:
根据所述物理参数及所述动作数据构建所述目标物体的3D模型。
在一个实施例中,所述方法还包括:
检测所述虚拟场景数据中是否包含与所述目标虚拟场景匹配的第一装扮参数;
当所述虚拟场景数据中包含所述第一装扮参数时,根据所述物理参数及所述第一装扮参数构建所述目标物体的3D模型。
在一个实施例中,所述根据所述物理参数构建所述目标物体的3D模型之前,还包括:
获取装扮类别;
在所述装扮类别中选取与所述物理参数对应的第二装扮参数;
所述根据所述物理参数构建所述目标物体的3D模型,包括:
根据所述物理参数及所述第二装扮参数构建所述目标物体的3D模型。
在一个实施例中,所述物理参数包括形状参数、大小参数及纹理参数;
所述根据所述物理参数构建所述目标物体的3D模型,包括:
根据所述形状参数及大小参数按比例构建所述目标物体的3D网格模型;
根据所述纹理参数对所述3D网格模型进行渲染。
在一个实施例中,所述方法还包括:
当所述任务类型为全景处理时,从所述2D图像中划分得到背景区域,并提取所述背景区域的图像特征;
在所述数据库中对所述背景区域的图像特征进行相似度匹配计算,识别所述2D图像的图像场景;
从所述数据库中获取与所述图像场景匹配的多角度场景图像;
根据所述多角度场景图像合成3D全景场景图像,将所述3D全景场景图像与所述目标物体的3D模型融合,得到所述3D图像。
在一个实施例中,所述图像特征包括形状特征、空间特征、边缘特征、颜色特征及纹理特征中的至少一个。
一种图像处理装置,包括:
接收模块,用于接收移动终端发送的图像处理请求,所述图像处理请求包括待处理的2D图像及任务类型;
划分模块,用于从所述2D图像中划分得到前景区域,并提取所述前景区域的图像特征;
计算模块,用于在数据库中对所述图像特征进行相似度匹配计算,识别得到所述前景区域中的目标物体,并获取与所述目标物体匹配的物理参数;
构建模块,用于根据所述物理参数构建所述目标物体的3D模型;
确定模块,用于当所述任务类型为虚拟场景处理时,根据所述任务类型确定目标虚拟场景,获取与所述目标虚拟场景匹配的虚拟场景数据;
所述构建模块,还用于根据所述虚拟场景数据构建3D虚拟场景图像;
融合模块,用于将所述3D虚拟场景图像与所述目标物体的3D模型融合得到3D图像,并将所述3D图像返回给所述移动终端。
一种服务器,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序指令被所述处理器执行时,使得所述处理器实现如上所述的方法。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的方法。
附图说明
图1为一个实施例中图像处理方法的应用场景图;
图2为一个实施例中服务器的框图;
图3为一个实施例中图像处理方法的流程示意图;
图4为一个实施例中构建2D图像的目标物体的3D模型的流程示意图;
图5为一个实施例中将2D图像转换为3D图像的流程示意图;
图6为另一个实施例中将2D图像转换为3D图像的流程示意图;
图7为又一个实施例中将2D图像转换为3D图像的流程示意图;
图8为一个实施例中图像处理装置的框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元件,但这些元件不受这些术语限制。这些术语仅用于将第一个元件与另一个元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一客户端称为第二客户端,且类似地,可将第二客户端称为第一客户端。第一客户端和第二客户端两者都是客户端,但其不是同一客户端。
图1为一个实施例中图像处理方法的应用场景图。如图1所示,移动终端10可通过网络与服务器20建立通信连接,其中,服务器20可以是单一的服务器,也可以是由多个服务器组成的服务器集群,或是服务器集群中的某一台服务器。移动终端10向服务器20发送图像处理请求。服务器20接收移动终端10发送的图像处理请求,图像处理请求包括待处理的2D图像,提取2D图像的图像特征。服务器20在数据库中对提取的图像特征进行相似度匹配计算,识别2D图像的目标物体,并获取与目标物体匹配的物理参数。服务器20根据物理参数构建目标物体的3D模型,并将2D图像的目标物体替换为3D模型,得到3D图像,并将3D图像返回给移动终端10。移动终端10可对服务器20返回的3D图像进行展示。
图2为一个实施例中服务器20的框图。如图2所示,该服务器20包括通过系统总线连接的处理器、非易失性存储介质、内存储器和网络接口。其中,该服务器20的非易失性存储介质存储有操作系统、数据库和计算机程序,数据库中存储有图像数据等,该计算机程序用于实现本申请实施例中提供的适用于服务器的一种图像处理方法。该服务器20的处理器用于提供计算和控制能力,支撑整个服务器20的运行。该服务器20的内存储器为非易失性存储介质中的操作系统和计算机程序提供高速缓存的运行环境。该服务器20的网络接口用于据以与外部的移动终端通过网络连接通信,比如接收移动终端发送的图像处理请求、向移动终端返回3D图像等。服务器20可以用独立的服务器或者是多个服务器组成的服务器集群来实现。本领域技术人员可以理解,图2中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的服务器20的限定,具体地服务器20可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
如图3所示,在一个实施例中,提供一种图像处理方法,包括以下步骤:
步骤310,接收移动终端发送的图像处理请求,图像处理请求包括待处理的2D图像。
移动终端可将通过摄像头等成像装置采集的2D图像,或是预先存储的2D图像等发送至服务器,由服务器将该2D图像转换为3D图像,在本实施例中,2D图像可以是通过摄像头采集的平面照片等。移动终端可向服务器发送图像处理请求,图像处理请求中可包含有待处理的2D图像、2D图像的图像信息,以及移动终端信息等。图像信息可包括图像标识等信息,其中,图像标识可以是图像名称、图像编号等可用于在移动终端中唯一标识图像的信息;移动终端信息可包括移动终端的标识、账户等信息,其中,移动终端的标识可以是移动终端的MAC(Media Access Control,介质访问控制层)等。
步骤320,提取2D图像的图像特征。
服务器接收移动终端发送的图像处理请求后,可解析图像处理请求,并获取图像处理请求中包含的待处理的2D图像。服务器可提取2D图像的图像特征。图像特征可包括形状特征、空间特征、边缘特征、颜色特征及纹理特征等,其中,形状特征指的是2D图像中局部的形状,空间特征指的是2D图像中分割出来的多个区域之间的相互的空间位置或相对方向关系,边缘特征指的是2D图像中组成两个区域之间的边界像素等,颜色特征及纹理特征均是一种全局特征,可用于描述图像或图像区域所对应的物体的表面性质。针对同一2D图像中的不同类型的图像特征,服务器可采用不同的方式进行提取,例如,颜色特征可通过2D图像的颜色直方图进行提取,形状特征可通过构建图像灰度梯度方向矩阵,并从中获取2D图像的边界特征描述进行提取等,在此并不作限制。
步骤330,在数据库中对图像特征进行相似度匹配计算,识别2D图像的目标物体,并获取与目标物体匹配的物理参数。
服务器可基于大数据对移动终端上传的2D图像进行处理,利用大数据将2D图像转换为3D图像。在一个实施例中,服务器可通过预先建立的物体识别模型对图像特征进行分析,并识别2D图像的目标物体,其中,目标物体指的是2D图像的主体,可以是人、动物、植物或其他没有生命的物体等。该物体识别模型可预先根据数据库中存储的大量的图像数据进行构建,可将数据库中存储的大量的图像数据作为物体识别模型的样本,对每个样本中包含的目标物体的特征点进行标记,标记的特征点可用于描述样本中目标物体的形状、大小、空间及边界等特征,对标记的大量样本进行训练学习,可得到物体识别模型,该物体识别模型中建立了图像特征与特征点形状的映射关系。物体识别模型可先根据图像特征对2D图像的目标物体进行初步的粗略分类,确定目标物体所属的大类,其中,大类可包括人、动物、植物、建筑、生活用品等,但不限于此。服务器得到2D图像的目标物体的粗略分类后,可再通过物体识别模型进行细化的分类,例如,动物类别下又可分为昆虫类、飞禽类、哺乳类等,再找到与所述图像特征具备映射关系的特征点形状,从而识别得到2D图像的目标物体。
在一个实施例中,服务器也可将提取的2D图像的图像特征进行编码,并将大量的图像进行编码后存储在数据库中,可利用提取的图像特征的编码值与数据库中存储的大量的图像的编码值进行全局或局部的相似度匹配计算,并保留数据库中相似度大于阈值的图像,进行进一步地筛选。服务器可将提取的2D图像的图像特征与数据库中筛选得到的图像进行一一比对,并确定2D图像的目标物体。
服务器识别2D图像的目标物体,可获取与该目标物体匹配的物理参数,物理参数可用于描述目标物体的形状及大小等物理特征,其中,物理参数可包括形状参数、大小参数及纹理参数等,例如,若目标物体是杯子,物理参数可以是杯子的形状、高、宽、口径大小及杯子外壳上的图案纹理等数据,若目标物体是人,物理参数可以是人的身高、肩宽、腰围、脸型等。在一个实施例中,数据库中可预先存储有与目标物体匹配的物理参数,服务器识别2D图像的目标物体后,可从数据库中直接获取与该目标物体匹配的物理参数。
在一个实施例中,服务器也可从2D图像中获取目标物体的物理参数,并结合数据库中存储的物理参数,共同构建目标物体的3D模型。例如,服务器识别2D图像的目标物体为杯子,服务器可从数据库中获取该杯子的形状、高、宽、口径大小及杯子外壳上的图案纹理等数据,也可从2D图像中获取该杯子的摆放角度等物理参数。
步骤340,根据物理参数构建目标物体的3D模型,并将2D图像的目标物体替换为3D模型,得到3D图像。
服务器可将移动终端上传的2D图像转换为3D图像,转换的方式可以是多种的,例如,可以将2D图像的目标物体从平面转化可让观看者感知到物体深度的3D模型,也可以将2D图像的拍摄场景转换为3D实景等,使观看者能够进行360度全景观察。
在一个实施例中,服务器可根据2D图像中与目标物体匹配的物理参数构建目标物体的3D模型,其中,3D模型可由顶点,以及由顶点组成的线、多边形等图形进行描述。服务器可将通过图形处理器对物理参数进行加载处理,将物理参数转化为构建3D模型的多个顶点信息,其中,顶点信息可包括各个顶点的顶点坐标、颜色、纹理等,从而组成目标物体的3D模型。在一个实施例中,服务器可确定2D图像中目标物体的位置信息,并根据该位置信息将2D图像的目标物体替换为构建的3D模型,得到3D图像。
步骤350,将3D图像返回给移动终端。
服务器根据移动终端的标识将3D图像返回给移动终端。移动终端可对3D图像进行展示,在一个实施例中,用户可通过触控等操作控制3D图像的展示。例如,移动终端可根据用户的手势操作轨迹等旋转展示3D图像中的3D模型,也可以根据重力传感器感应移动终端的变化方向,并根据变化方向旋转展示3D图像中的3D模型,但不限于此。
在本实施例中,可在数据库中对提取的2D图像的图像特征进行相似度匹配计算,识别2D图像的目标物体,并根据目标物体匹配的物理参数构建目标物体的3D模型,可基于大数据自动将2D图像转化为3D图像,使图像观看者能感知更多的图像信息,简便快捷。且通过大数据识别2D图像的目标物体,获取与目标物体匹配的物理参数,可以得到更多的目标物体信息,使构建的3D模型更真实、具备更多细节。
如图4所示,在一个实施例中,步骤根据物理参数构建目标物体的3D模型,包括以下步骤:
步骤402,根据形状参数及大小参数按比例构建目标物体的3D网格模型。
物理参数可用于描述目标物体的形状及大小等物理特征,其中,物理参数可包括形状参数、大小参数及纹理参数等。服务器可将通过图形处理器对物理参数进行加载处理,并根据形状参数及大小参数等按比例构建目标物体的3D网格模型,使构建的目标物体的3D网格模型贴近2D图像中目标物体的大小与形状。服务器可将物理参数转化为构建3D模型的多个顶点信息,并将各个顶点组合不同的几何图元,根据组合的几何图元构建3D网格模型,其中,几何图元可包括点、线及多边形等。
步骤404,根据纹理参数对3D网格模型进行渲染。
服务器可根据纹理参数、颜色参数等对3D网格模型进行着色,并渲染得到绘制的3D模型,服务器可根据2D图像中目标物体的位置信息与形状轮廓对3D模型进行调整,并将2D图像的目标物体替换为该3D模型,得到3D图像。
在一个实施例中,服务器也可从2D图像中获取多角度的目标物体图像,并将获取的多角度的目标物体图像划分为左眼图像及右眼图像,其中,左眼图像指的是根据人的左眼采集的图像,右眼图像指的是根据人的右眼采集的图像,可再根据左眼图像与右眼图像生成立体的3D模型,并不仅限于上述方式。
在本实施例中,可基于大数据生成2D图像中目标物体的3D模型,将平面的2D图像转化为立体的3D图像,使图像观看者能感知更多的图像信息,且简便快捷。
在一个实施例中,步骤320提取2D图像的图像特征,包括:将2D图像划分为前景区域及除前景区域外的背景区域,并分别提取前景区域及背景区域的图像特征,前景区域包括目标物体。
服务器根据移动终端发送的图像处理请求获取待处理的2D图像后,可先对2D图像进行区域划分,将2D图像划分为包含目标物体的前景区域,以及除前景区域外的背景区域。前景区域可以是预设的形状,例如矩形等,可先确定2D图像中目标物体所处的大致位置,并根据该大致位置选取预设形状的前景区域,划分2D图像的前景区域及背景区域。服务器可分别提取前景区域及背景区域的图像特征,并可在数据库中仅对前景区域的图像特征进行相似度匹配计算,从而识别2D图像的目标物体。
在本实施例中,将2D图像划分为前景区域及背景区域,可仅对前景区域的图像特征进行分析,识别2D图像的目标物体,可使识别结果更为准确,减少噪声。
如图5所示,在一个实施例中,在步骤根据物理参数构建目标物体的3D模型之后,上述图像处理方法还包括以下步骤:
步骤502,在数据库中对背景区域的图像特征进行相似度匹配计算,识别2D图像的图像场景。
在一个实施例中,用户可在移动终端上选择需要进行处理的2D图像,并选择对应的处理类型,其中,处理类型可包括多种,例如,仅对2D图像的目标物体进行3D处理、仅对2D图像的背景进行3D处理,或是对2D图像的目标物体及背景均进行处理等。在本实施例中,处理类型可全景处理、虚拟场景处理、目标物体装扮处理及单目标物体转3D处理等,其中,全景处理指的是将2D图像的背景从2D平面转换为3D实景,虚拟场景处理指的是将2D图像的背景从实景转换为虚拟的3D背景,目标物体装扮处理指的是将2D图像的目标物体从平面转换为立体的3D模型的同时,对3D模型进行装扮,单目标物体转3D处理指的是仅将2D图像的目标物体从平面转换为立体的3D模型。可以理解地,将2D图像转换为3D图像还有很多其他的处理方式,并不仅限于此。
在一个实施例中,服务器接收移动终端发送的图像处理请求后,可获取处理类型,当处理类型为全景处理时,服务器可基于大数据对2D图像进行场景识别。在一个实施例中,服务器可通过预先建立的场景识别模型对2D图像的背景区域的图像特征进行分析,识别2D图像的图像场景,图像场景可包括2D图像拍摄的地点、背景建筑、风景环境等。在一个实施例中,也可将2D图像的背景区域的图像特征与数据库中存储的大量图像的图像特征进行相似度匹配计算,从中选取相似度大于阈值的图像,并确定2D图像的图像场景。
步骤504,从数据库中获取与图像场景匹配的多角度场景图像。
服务器可根据识别的2D图像的图像场景,从数据库中获取与图像场景匹配的多角度场景图像。在一个实施例中,移动终端向服务器发送图像处理请求时,可同时向服务器发送2D图像的采集地址信息,服务器根据图像处理请求获取2D图像的采集地址信息后,可利用2D图像的采集地址信息从数据库选取与该采集地址信息对应的多张多角度拍摄图像,并从与该采集地址信息对应的多张多角度拍摄图像中选取多张与2D图像的图像场景匹配的多角度场景图像。
步骤506,根据多角度场景图像合成3D全景场景图像,并将3D全景场景图像与目标物体的3D模型融合,得到3D图像。
服务器可根据选取的多张与图像场景匹配的多角度场景图像,合成3D全景场景图像,该3D全景场景图像可呈现3D实景效果。服务器可确定选取的每张场景图像的景物边界,并根据景物边界对多张多角度场景图像进行对准,从而合成3D全景场景图像。在一个实施例中,服务器可将目标物体的3D模型与3D全景场景图像融合,得到3D图像,并将3D图像返回给移动终端。用户可通过触控等操作控制3D图像的展示。例如,移动终端可根据用户的手势操作轨迹等拖动上下左右或放大缩小展示3D图像的3D全景场景等。
在一个实施例中,服务器也可仅将2D图像的背景区域进行处理,将2D图像的背景转换为3D全景场景,不对目标物体进行3D转换。
在本实施例中,可将2D图像转换为包含有3D全景场景的3D图像,使图像观看者能感知更多的图像信息,提高图像的视觉显示效果。
如图6所示,在一个实施例中,在步骤根据物理参数构建目标物体的3D模型之后,上述图像处理方法还包括以下步骤:
步骤602,根据处理类型确定目标虚拟场景,并获取与目标虚拟场景匹配的虚拟场景数据。
在一个实施例中,服务器接收移动终端发送的图像处理请求后,可获取处理类型,当处理类型为虚拟场景处理时,可获取目标虚拟场景,其中,虚拟场景可指的是非现实的场景,用户可在移动终端选择所需的目标虚拟场景,替换2D图像的背景,例如,宇宙虚拟场景、海底虚拟场景等,但不限于此。数据库可预先存储有大量的不同虚拟场景的虚拟场景数据,服务器可从数据库中获取与目标虚拟场景匹配的虚拟场景数据,其中,虚拟场景数据可包括用于构建3D虚拟场景图像的顶点信息。
步骤604,根据虚拟场景数据构建3D虚拟场景图像。
服务器可根据获取的虚拟场景数据构建3D虚拟场景图像,进一步地,可根据虚拟场景数据中包含的多个顶点信息,例如顶点坐标、颜色、纹理等信息,构建3D虚拟场景图像。
步骤606,将3D虚拟场景图像与目标物体的3D模型融合,得到3D图像。
服务器可将3D虚拟场景图像与目标物体的3D模型融合,得到3D图像。在一个实施例中,若虚拟场景数据包含有与目标虚拟场景匹配的第一装扮参数时,可根据目标物体的物理参数及第一装扮参数共同构建目标物体的3D模型,其中,第一装扮参数可包括与目标虚拟场景匹配的服饰、发型、妆容等。根据目标物体的物理参数及第一装扮参数共同构建目标物体的3D模型,使构建的目标物体的3D模型更符合目标虚拟场景。在一个实施例中,也可根据目标虚拟场景的特点调整3D模型与3D虚拟场景图像融合后,在3D图像中的展示位置及展示姿式等。
例如,服务器根据图像处理请求获取的目标虚拟场景为月球虚拟场景,则可根据与月球虚拟场景匹配的虚拟场景数据构建3D虚拟月球场景图像,其中,虚拟场景数据包含有第一装扮参数,该第一装扮参数可用于构建身着太空服的3D呈现效果。服务器可根据与月球虚拟场景匹配的第一装扮参数及2D图像中包含的人的物理参数,共同构建人身着太空服的3D模型,并调整人的3D模型与3D虚拟月球场景图像融合后,在3D图像中的展示位置,使该3D图像在移动终端呈现时,可呈现出人身着太空服漂浮在3D虚拟的月球中的效果。
在本实施例中,可将2D图像转换为包含有3D虚拟场景的3D图像,使图像观看者能感知更多的图像信息,提高图像的视觉显示效果。
如图7所示,在一个实施例中,在步骤根据物理参数构建目标物体的3D模型之后,上述图像处理方法还包括以下步骤:
步骤702,根据处理类型确定装扮类别。
服务器接收移动终端发送的图像处理请求后,可获取处理类型,当处理类型为目标物体装扮处理时,可获取装扮类别。用户可在移动终端选择所需的装扮类别,例如潮流装扮、侠客装扮、职业装扮等,但不限于此。数据库可预先存储有属于不同装扮类别的装扮参数,装扮参数中可包括用于构建3D模型的顶点信息,可用于呈现出不同装扮类别风格的服饰、发型、妆容等装扮效果。
步骤704,在装扮类别中选取与物理参数对应的第二装扮参数。
服务器确定装扮类别后,可从数据库中存储的属于同一装扮类别的装扮参数中,选取与物理参数对应的第二装扮参数,例如,若目标物体为人,可根据目标物体的性别、身高、脸型等选取对应的第二装扮参数。进一步地,可选取与目标物体的物理参数对应的服饰参数、发型参数、妆容参数等。
步骤706,根据物理参数及第二装扮参数构建目标物体的3D模型。
服务器可根据目标物体的物理参数及选取的第二装扮参数共同构建目标物体的3D模型,并将2D图像的目标物体替换为构建的3D模型,得到3D图像。服务器可将3D图像返回给移动终端,在移动终端上可展示带有特定服饰、发型或妆容等装扮的3D模型。
在本实施例中,可将2D图像转换为包含有带有特定装扮的3D模型的3D图像,使图像观看者能感知更多的图像信息,提高图像的视觉显示效果。
在一个实施例中,在步骤根据物理参数构建目标物体的3D模型之后,上述图像处理方法还包括以下步骤:
步骤(a),根据处理类型确定目标动作,并获取与所述目标动作匹配的动作数据。
服务器接收移动终端发送的图像处理请求后,可获取处理类型,当处理类型为目标物体动作处理时,可获取目标动作。用户可在移动终端选择所需的目标动作,使2D图像的目标物体呈现目标动作的姿势,例如,2D图像的目标物体为人,用户可选择的动作可包括飞、跳跃等,但不限于此。数据库中可预先存储有大量的不同动作的动作数据,动作数据可包括用于构建3D模型的顶点信息,使构建的3D模型呈现出相应的动作姿势。
步骤(b),根据物理参数及动作数据构建目标物体的3D模型。
服务器可根据目标物体的物理参数及获取的动作数据,共同构建目标物体的3D模型,并将2D图像的目标物体替换为构建的3D模型,得到3D图像。服务器可将3D图像返回给移动终端,在移动终端上可展示呈现出特定的动作姿势的3D模型。
可以理解地,上述的几种不同处理类型可叠加进行选择,例如,用户可在移动终端同时选择对2D图像进行虚拟场景处理及目标物体动作处理,也可同时选择目标物体装扮处理及目标物体动作处理等,使最终转化得到的3D图像呈现多种不同的3D效果。
在本实施例中,可将2D图像转换为包含有带有特定动作姿势的3D模型的3D图像,使图像观看者能感知更多的图像信息,提高图像的视觉显示效果。
在一个实施例中,提供一种图像处理方法,包括以下步骤:
步骤(1),接收移动终端发送的图像处理请求,图像处理请求包括待处理的2D图像及处理类型。
步骤(2),将2D图像划分为前景区域及除前景区域外的背景区域,并分别提取前景区域及背景区域的图像特征,前景区域包括目标物体。
步骤(3),在数据库中对前景区域的图像特征进行相似度匹配计算,识别2D图像的目标物体,并获取与目标物体匹配的物理参数。
步骤(4),当处理类型为单目标物体转3D处理时,根据物理参数中的形状参数及大小参数按比例构建目标物体的3D网格模型,再根据纹理参数对3D网格模型进行渲染,构建目标物体的3D模型,并将2D图像的目标物体替换为3D模型,得到3D图像。
步骤(5),当处理类型为全景处理时,根据物理参数的形状参数及大小参数按比例构建目标物体的3D网格模型,再根据纹理参数对所述3D网格模型进行渲染,构建目标物体的3D模型;在数据库中对背景区域的图像特征进行相似度匹配计算,识别2D图像的图像场景,从数据库中获取与图像场景匹配的多角度场景图像,再根据多角度场景图像合成3D全景场景图像,并将3D全景场景图像与目标物体的3D模型融合,得到3D图像。
步骤(6),当处理类型为虚拟场景处理时,根据处理类型确定目标虚拟场景,并获取与目标虚拟场景匹配的虚拟场景数据,根据虚拟场景数据构建3D虚拟场景图像;当虚拟场景数据包含有与目标虚拟场景匹配的第一装扮参数时,根据物理参数及第一装扮参数构建目标物体的3D模型,并将3D虚拟场景图像与目标物体的3D模型融合,得到3D图像。
步骤(7),当处理类型为目标物体装扮处理,根据处理类型确定装扮类别,在装扮类别中选取与物理参数对应的第二装扮参数,根据物理参数及第二装扮参数构建目标物体的3D模型,并将2D图像的目标物体替换为3D模型,得到3D图像。
步骤(8),将3D图像返回给移动终端。
在本实施例中,可基于大数据自动将2D图像转化为3D图像,使图像观看者能感知更多的图像信息,简便快捷。且通过大数据识别2D图像的目标物体,获取与目标物体匹配的物理参数,可以得到更多的目标物体信息,使构建的3D模型更真实、具备更多细节。此外,可对2D图像进行不同的3D转换处理,提高图像的视觉显示效果。
如图8所示,在一个实施例中,提供一种图像处理装置800,包括接收模块810、提取模块820、识别模块830、构建模块840及发送模块850。
接收模块810,用于接收移动终端发送的图像处理请求,图像处理请求包括待处理的2D图像。
提取模块820,用于提取2D图像的图像特征。
识别模块830,用于在数据库中对图像特征进行相似度匹配计算,识别2D图像的目标物体,并获取与目标物体匹配的物理参数。
构建模块840,用于根据物理参数构建目标物体的3D模型,并将2D图像的目标物体替换为3D模型,得到3D图像。
发送模块850,用于将3D图像返回给移动终端。
在本实施例中,可在数据库中对提取的2D图像的图像特征进行相似度匹配计算,识别2D图像的目标物体,并根据目标物体匹配的物理参数构建目标物体的3D模型,可基于大数据自动将2D图像转化为3D图像,使图像观看者能感知更多的图像信息,简便快捷。且通过大数据识别2D图像的目标物体,获取与目标物体匹配的物理参数,可以得到更多的目标物体信息,使构建的3D模型更真实、具备更多细节。
在一个实施例中,物理参数包括形状参数、大小参数及纹理参数。
构建模块840,包括网格模型构建单元及渲染单元。
网格模型构建单元,用于根据形状参数及大小参数按比例构建目标物体的3D网格模型。
渲染单元,用于根据纹理参数对3D网格模型进行渲染。
在本实施例中,可基于大数据生成2D图像中目标物体的3D模型,将平面的2D图像转化为立体的3D图像,使图像观看者能感知更多的图像信息,且简便快捷。
在一个实施例中,提取模块820,还用于将2D图像划分为前景区域及除前景区域外的背景区域,并分别提取前景区域及背景区域的图像特征,前景区域包括目标物体。
在本实施例中,将2D图像划分为前景区域及背景区域,可仅对前景区域的图像特征进行分析,识别2D图像的目标物体,可使识别结果更为准确,减少噪声。
在一个实施例中,图像处理请求包括处理类型,处理类型包括全景处理。
识别模块830,还用于在数据库中对背景区域的图像特征进行相似度匹配计算,识别2D图像的图像场景。
上述图像处理装置800,除了包括接收模块810、提取模块820、识别模块830、构建模块840及发送模块850,还包括场景图像获取模块及合成模块。
场景图像获取模块,用于从数据库中获取与图像场景匹配的多角度场景图像。
合成模块,用于根据多角度场景图像合成3D全景场景图像,并将3D全景场景图像与目标物体的3D模型融合,得到3D图像。
在本实施例中,可将2D图像转换为包含有3D全景场景的3D图像,使图像观看者能感知更多的图像信息,提高图像的视觉显示效果。
在一个实施例中,处理类型包括虚拟场景处理。
上述图像处理装置800,还包括虚拟场景数据获取模块。
虚拟场景数据获取模块,根据处理类型确定目标虚拟场景,并获取与目标虚拟场景匹配的虚拟场景数据。
构建模块840,还用于根据虚拟场景数据构建3D虚拟场景图像,并将3D虚拟场景图像与目标物体的3D模型融合,得到3D图像。
在一个实施例中,构建模块840,还用于当虚拟场景数据包含有与目标虚拟场景匹配的第一装扮参数时,根据物理参数及第一装扮参数构建目标物体的3D模型。
在本实施例中,可将2D图像转换为包含有3D虚拟场景的3D图像,使图像观看者能感知更多的图像信息,提高图像的视觉显示效果。
在一个实施例中,处理类型包括目标物体装扮处理。
上述图像处理装置800,还包括类别确定模块。
类别确定模块,用于根据处理类型确定装扮类别,并在装扮类别中选取与物理参数对应的第二装扮参数。
构建模块840,还用于根据所述物理参数及第二装扮参数构建目标物体的3D模型。
在本实施例中,可将2D图像转换为包含有带有特定装扮的3D模型的3D图像,使图像观看者能感知更多的图像信息,提高图像的视觉显示效果。
在一个实施例中,提供一种服务器,包括存储器及处理器,存储器中储存有计算机程序,计算机程序指令被处理器执行时,使得处理器实现上述的图像处理方法。
在一个实施例中,提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述的图像处理方法。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等。
如此处所使用的对存储器、存储、数据库或其它介质的任何引用可包括非易失性和/或易失性存储器。合适的非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM),它用作外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDR SDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种图像处理方法,其特征在于,包括:
接收移动终端发送的图像处理请求,所述图像处理请求包括待处理的2D图像及任务类型;
从所述2D图像中划分得到前景区域,并提取所述前景区域的图像特征;
在数据库中对所述图像特征进行相似度匹配计算,识别得到所述前景区域中的目标物体,并获取与所述目标物体匹配的物理参数;
根据所述物理参数构建所述目标物体的3D模型;
当所述任务类型为虚拟场景处理时,根据所述任务类型确定目标虚拟场景,获取与所述目标虚拟场景匹配的虚拟场景数据;
根据所述虚拟场景数据构建3D虚拟场景图像;
将所述3D虚拟场景图像与所述目标物体的3D模型融合得到3D图像,并将所述3D图像返回给所述移动终端。
2.根据权利要求1所述的方法,其特征在于,所述根据所述物理参数构建所述目标物体的3D模型之前,还包括:
获取目标动作;
确定与所述目标动作匹配的动作数据;
所述根据所述物理参数构建所述目标物体的3D模型,包括:
根据所述物理参数及所述动作数据构建所述目标物体的3D模型。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
检测所述虚拟场景数据中是否包含与所述目标虚拟场景匹配的第一装扮参数;
当所述虚拟场景数据中包含所述第一装扮参数时,根据所述物理参数及所述第一装扮参数构建所述目标物体的3D模型。
4.根据权利要求1所述的方法,其特征在于,所述根据所述物理参数构建所述目标物体的3D模型之前,还包括:
获取装扮类别;
在所述装扮类别中选取与所述物理参数对应的第二装扮参数;
所述根据所述物理参数构建所述目标物体的3D模型,包括:
根据所述物理参数及所述第二装扮参数构建所述目标物体的3D模型。
5.根据权利要求1所述的方法,其特征在于,所述物理参数包括形状参数、大小参数及纹理参数;
所述根据所述物理参数构建所述目标物体的3D模型,包括:
根据所述形状参数及大小参数按比例构建所述目标物体的3D网格模型;
根据所述纹理参数对所述3D网格模型进行渲染。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当所述任务类型为全景处理时,从所述2D图像中划分得到背景区域,并提取所述背景区域的图像特征;
在所述数据库中对所述背景区域的图像特征进行相似度匹配计算,识别所述2D图像的图像场景;
从所述数据库中获取与所述图像场景匹配的多角度场景图像;
根据所述多角度场景图像合成3D全景场景图像,将所述3D全景场景图像与所述目标物体的3D模型融合,得到所述3D图像。
7.根据权利要求1所述的方法,其特征在于,所述图像特征包括形状特征、空间特征、边缘特征、颜色特征及纹理特征中的至少一个。
8.一种图像处理装置,其特征在于,包括:
接收模块,用于接收移动终端发送的图像处理请求,所述图像处理请求包括待处理的2D图像及任务类型;
划分模块,用于从所述2D图像中划分得到前景区域,并提取所述前景区域的图像特征;
计算模块,用于在数据库中对所述图像特征进行相似度匹配计算,识别得到所述前景区域中的目标物体,并获取与所述目标物体匹配的物理参数;
构建模块,用于根据所述物理参数构建所述目标物体的3D模型;
确定模块,用于当所述任务类型为虚拟场景处理时,根据所述任务类型确定目标虚拟场景,获取与所述目标虚拟场景匹配的虚拟场景数据;
所述构建模块,还用于根据所述虚拟场景数据构建3D虚拟场景图像;
融合模块,用于将所述3D虚拟场景图像与所述目标物体的3D模型融合得到3D图像,并将所述3D图像返回给所述移动终端。
9.一种可穿戴设备,包括存储器以及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至7中任一项所述的图像处理方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的图像处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010603502.9A CN111768496B (zh) | 2017-08-24 | 2017-08-24 | 图像处理方法、装置、服务器及计算机可读存储介质 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710737532.7A CN107393000B (zh) | 2017-08-24 | 2017-08-24 | 图像处理方法、装置、服务器及计算机可读存储介质 |
CN202010603502.9A CN111768496B (zh) | 2017-08-24 | 2017-08-24 | 图像处理方法、装置、服务器及计算机可读存储介质 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710737532.7A Division CN107393000B (zh) | 2017-08-24 | 2017-08-24 | 图像处理方法、装置、服务器及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111768496A CN111768496A (zh) | 2020-10-13 |
CN111768496B true CN111768496B (zh) | 2024-02-09 |
Family
ID=60345947
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010603502.9A Active CN111768496B (zh) | 2017-08-24 | 2017-08-24 | 图像处理方法、装置、服务器及计算机可读存储介质 |
CN201710737532.7A Active CN107393000B (zh) | 2017-08-24 | 2017-08-24 | 图像处理方法、装置、服务器及计算机可读存储介质 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710737532.7A Active CN107393000B (zh) | 2017-08-24 | 2017-08-24 | 图像处理方法、装置、服务器及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN111768496B (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109840934A (zh) * | 2017-11-29 | 2019-06-04 | 深圳市掌网科技股份有限公司 | 一种工件的三维模型生成方法和系统 |
KR102329592B1 (ko) * | 2017-12-30 | 2021-11-19 | 미디어 그룹 코 엘티디 | 재료 인식을 기반으로 하는 음식 준비 방법 및 시스템 |
CN108769646B (zh) | 2018-05-06 | 2020-02-18 | Oppo广东移动通信有限公司 | 三维视频通信方法及系统、电子装置、服务器和可读存储介质 |
CN108898643B (zh) * | 2018-06-15 | 2022-03-11 | 广东数相智能科技有限公司 | 图像生成方法、装置与计算机可读存储介质 |
CN110914871A (zh) * | 2018-07-27 | 2020-03-24 | 深圳市大疆创新科技有限公司 | 获取三维场景的方法与装置 |
CN111199511A (zh) * | 2018-11-19 | 2020-05-26 | 北京京东尚科信息技术有限公司 | 图形的生成方法、装置和计算机可读存储介质 |
CN109639969B (zh) * | 2018-12-12 | 2021-01-26 | 维沃移动通信(杭州)有限公司 | 一种图像处理方法、终端及服务器 |
CN111598976B (zh) | 2019-02-01 | 2023-08-22 | 华为技术有限公司 | 场景识别方法及装置、终端、存储介质 |
CN110363224B (zh) * | 2019-06-19 | 2021-07-06 | 创新奇智(北京)科技有限公司 | 一种基于图像的物体分类方法、系统及电子设备 |
CN111192368B (zh) * | 2020-01-15 | 2022-06-24 | 石家庄中扬网络科技股份有限公司 | 三维模型显示方法、终端设备及存储介质 |
CN111447504B (zh) * | 2020-03-27 | 2022-05-03 | 北京字节跳动网络技术有限公司 | 三维视频的处理方法、装置、可读存储介质和电子设备 |
CN111627118A (zh) * | 2020-06-02 | 2020-09-04 | 上海商汤智能科技有限公司 | 景物画像的展示方法、展示装置、电子设备及存储介质 |
CN111862305A (zh) * | 2020-06-30 | 2020-10-30 | 北京百度网讯科技有限公司 | 处理图像的方法、装置和计算机存储介质 |
CN112348944B (zh) * | 2020-10-29 | 2022-06-28 | 久瓴(江苏)数字智能科技有限公司 | 三维模型数据更新方法、装置、计算机设备和存储介质 |
CN112577488B (zh) * | 2020-11-24 | 2022-09-02 | 腾讯科技(深圳)有限公司 | 导航路线确定方法、装置、计算机设备和存储介质 |
CN112612980B (zh) * | 2020-12-22 | 2024-03-01 | 北京百度网讯科技有限公司 | 图片服务方法、装置、设备、存储介质及计算机程序产品 |
US20220245375A1 (en) * | 2021-01-30 | 2022-08-04 | David Young | Volumetric Security |
CN114926351B (zh) * | 2022-04-12 | 2023-06-23 | 荣耀终端有限公司 | 图像处理方法、电子设备以及计算机存储介质 |
CN114660994B (zh) * | 2022-05-25 | 2022-08-23 | 中科航迈数控软件(深圳)有限公司 | 一种数控机床加工工艺决策优化方法、系统及相关设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103729885A (zh) * | 2014-01-21 | 2014-04-16 | 北京邮电大学 | 多视角投影与三维注册联合的手绘场景三维建模方法 |
CN104143212A (zh) * | 2014-07-02 | 2014-11-12 | 惠州Tcl移动通信有限公司 | 基于穿戴设备的增强现实方法及系统 |
CN104504671A (zh) * | 2014-12-12 | 2015-04-08 | 浙江大学 | 一种用于立体显示的虚实融合图像生成方法 |
CN104656893A (zh) * | 2015-02-06 | 2015-05-27 | 西北工业大学 | 一种信息物理空间的远程交互式操控系统及方法 |
CN105825544A (zh) * | 2015-11-25 | 2016-08-03 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4533191B2 (ja) * | 2005-03-04 | 2010-09-01 | 株式会社シーズ・ラボ | 三次元地図表示装置および三次元地図表示プログラム |
US7499586B2 (en) * | 2005-10-04 | 2009-03-03 | Microsoft Corporation | Photographing big things |
CA2806520C (en) * | 2011-01-23 | 2016-02-16 | Extreme Reality Ltd. | Methods, systems, devices and associated processing logic for generating stereoscopic images and video |
CN104658034B (zh) * | 2013-11-18 | 2019-03-01 | 清华大学 | Ct图像数据的融合绘制方法 |
EP3179407B1 (en) * | 2015-12-07 | 2022-07-13 | Dassault Systèmes | Recognition of a 3d modeled object from a 2d image |
CN105551084B (zh) * | 2016-01-28 | 2018-06-08 | 北京航空航天大学 | 一种基于图像内容解析的室外三维场景组合构建方法 |
US10257505B2 (en) * | 2016-02-08 | 2019-04-09 | Microsoft Technology Licensing, Llc | Optimized object scanning using sensor fusion |
CN105913485B (zh) * | 2016-04-06 | 2019-02-12 | 北京小小牛创意科技有限公司 | 一种三维虚拟场景的生成方法及装置 |
-
2017
- 2017-08-24 CN CN202010603502.9A patent/CN111768496B/zh active Active
- 2017-08-24 CN CN201710737532.7A patent/CN107393000B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103729885A (zh) * | 2014-01-21 | 2014-04-16 | 北京邮电大学 | 多视角投影与三维注册联合的手绘场景三维建模方法 |
CN104143212A (zh) * | 2014-07-02 | 2014-11-12 | 惠州Tcl移动通信有限公司 | 基于穿戴设备的增强现实方法及系统 |
CN104504671A (zh) * | 2014-12-12 | 2015-04-08 | 浙江大学 | 一种用于立体显示的虚实融合图像生成方法 |
CN104656893A (zh) * | 2015-02-06 | 2015-05-27 | 西北工业大学 | 一种信息物理空间的远程交互式操控系统及方法 |
CN105825544A (zh) * | 2015-11-25 | 2016-08-03 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
Also Published As
Publication number | Publication date |
---|---|
CN107393000B (zh) | 2020-07-28 |
CN111768496A (zh) | 2020-10-13 |
CN107393000A (zh) | 2017-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111768496B (zh) | 图像处理方法、装置、服务器及计算机可读存储介质 | |
JP6425780B1 (ja) | 画像処理システム、画像処理装置、画像処理方法及びプログラム | |
CN110515452B (zh) | 图像处理方法、装置、存储介质和计算机设备 | |
CN108305312B (zh) | 3d虚拟形象的生成方法和装置 | |
CN110738595B (zh) | 图片处理方法、装置和设备及计算机存储介质 | |
JP5093053B2 (ja) | 電子カメラ | |
US8781161B2 (en) | Image processing method and apparatus for generating a 3D model of a target object | |
KR20170008638A (ko) | 3차원 컨텐츠 생성 장치 및 그 3차원 컨텐츠 생성 방법 | |
JP7387202B2 (ja) | 3次元顔モデル生成方法、装置、コンピュータデバイス及びコンピュータプログラム | |
CN110381268B (zh) | 生成视频的方法,装置,存储介质及电子设备 | |
JP2006053694A (ja) | 空間シミュレータ、空間シミュレート方法、空間シミュレートプログラム、記録媒体 | |
CN108109161B (zh) | 基于自适应阈值分割的视频数据实时处理方法及装置 | |
CN108111911B (zh) | 基于自适应跟踪框分割的视频数据实时处理方法及装置 | |
CN110070573B (zh) | 关节图确定方法、装置、设备和存储介质 | |
CN113220251B (zh) | 物体显示方法、装置、电子设备及存储介质 | |
CN113657357B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
KR20200100020A (ko) | 3차원 컨텐츠 생성 장치 및 그 3차원 컨텐츠 생성 방법 | |
KR20230078777A (ko) | 3차원 재구성 방법, 장치와 시스템, 매체 및 컴퓨터 기기 | |
CN111836058B (zh) | 用于实时视频播放方法、装置、设备以及存储介质 | |
Wang et al. | Neural opacity point cloud | |
CN111652792B (zh) | 图像的局部处理、直播方法、装置、设备和存储介质 | |
CN108010038B (zh) | 基于自适应阈值分割的直播服饰装扮方法及装置 | |
Fu et al. | Image Stitching Techniques Applied to Plane or 3D Models: A Review | |
US20120162215A1 (en) | Apparatus and method for generating texture of three-dimensional reconstructed object depending on resolution level of two-dimensional image | |
CN114266693A (zh) | 图像处理方法、模型生成方法及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |