CN104899917A - 一种基于3d的物品虚拟穿戴的图片保存和分享方法 - Google Patents
一种基于3d的物品虚拟穿戴的图片保存和分享方法 Download PDFInfo
- Publication number
- CN104899917A CN104899917A CN201510242443.6A CN201510242443A CN104899917A CN 104899917 A CN104899917 A CN 104899917A CN 201510242443 A CN201510242443 A CN 201510242443A CN 104899917 A CN104899917 A CN 104899917A
- Authority
- CN
- China
- Prior art keywords
- wearing
- picture
- face
- model
- glasses
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
本发明提供一种基于3D的物品虚拟穿戴的图片保存和分享方法,包括以下步骤:步骤S1,建立原始的穿戴部位三维坐标;步骤S2,得到原始的穿戴物品模型;步骤S3,对原始的穿戴部位三维坐标进行处理得到标准的穿戴部位图像;步骤S4,对原始的穿戴物品模型进行处理得到标准的穿戴物品模型;步骤S5,将标准的穿戴物品模型放置在标准的穿戴部位图像上实现合成;步骤S6,将穿戴物品模型和穿戴部位图像进行叠加生成演示图像;步骤S7,拍照并生成本地二维码;步骤S8,扫描本地二维码,若无网络则实现下载和保存,若有网络则实现下载、保证和分享功能。本发明即使在没有网络的情况下也能直接下载和保存穿戴效果图,便于用户分享穿戴效果图。
Description
技术领域
本发明涉及一种图片保存和分享方法,尤其涉及一种基于3D的物品虚拟穿戴的图片保存和分享方法。
背景技术
目前基于3D眼镜试戴的方式有以下几种方式:第一,通过微软发行的Kinect体感设备和微软发布的Kinect程序二次开发包,以红外检测的方式,达到人体移动的时候红外检测点实时的进行移动,再将虚拟的眼镜模型与已经检测到的红外点进行绑定,达到位置的同步移动;第二,基于平面图片的眼镜虚拟试戴,通过用户上传自己的照片来实现眼镜虚拟试戴,通过对平面图形的面部识别算法来识别用户上传的照片中的人脸部分,从而将眼镜图片与之叠加;第三,基于Total Immersion SDK的眼镜虚拟试戴,这是目前国外的一款非常流行的二次开发SDK,通过国外已经开发并封装好的SDK进行项目的二次技术开发,开发效果和性能较好,但是加入开发的成本高昂,而且每一个项目,每一个平台都需要向法国总部支付费用,而且开发限制非常多,不能连接数据库、不能随意让客户进行修改等。
以上几种方式均存在各种各样的缺陷:第一,基于Kinect体感设备的眼镜虚拟试戴缺陷包括:需要特定的Kinect体感硬件设备,费用高昂;识别过程需要先通过人体识别从而进行面部识别;识别过程容易收到干扰,识别不稳定。第二,基于平面图片的眼镜虚拟试戴缺陷包括:试戴过程过于死板和僵化,没有实时的互动性;通过用户上传照片的方式进行试戴,无法同一时刻体验到戴上眼镜的不同角度试戴,操作麻烦不简便。第三,基于Total Immersion SDK的眼镜虚拟试戴缺陷包括:基于原厂家的二次开发难度大,不方便,而且成本高;技术限制多,如无法连接数据库,无法实时修改开发内容;二次开发产品带有水印,去水印费用高,且每年都需要缴费,不利于长期发展。
而另一方面,目前的3D物品虚拟穿戴产品,其穿戴效果图的图片保存和分享方法都太过繁琐,而且对网络要求高,图片经过压缩等处理容易产生失真,用户对图片的下载、保存和分享不够便利。
发明内容
本发明所要解决的技术问题是需要提供一种即使在没有网络的情况下也能直接下载和保存穿戴效果图,便于用户分享穿戴效果图的基于3D的物品虚拟穿戴的图片保存和分享方法,同时,该基于3D的物品虚拟穿戴无需特别设备,使用方便,实时跟随效果好。
对此,本发明提供一种基于3D的物品虚拟穿戴的图片保存和分享方法,包括以下步骤:
步骤S1,通过摄像头对穿戴部位进行捕捉,采集穿戴部位的灰度数据,并以穿戴部位中心为坐标原点,建立原始的穿戴部位三维坐标;
步骤S2,通过3dmax软件对穿戴物品进行原始建模,得到原始的穿戴物品模型;
步骤S3,根据使用者的移动和转动,对原始的穿戴部位三维坐标进行缩放、平移和旋转处理,得到标准的穿戴部位图像;
步骤S4,根据使用者的移动和转动,对原始的穿戴物品模型进行缩放、平移和旋转处理,得到标准的穿戴物品模型;
步骤S5,将步骤S4得到的标准的穿戴物品模型放置在步骤S3得到的标准的穿戴部位图像上,实现图像合成;
步骤S6,将步骤S5的穿戴物品模型和穿戴部位图像进行叠加,生成最终的演示图像;
步骤S7,实时检测用户的拍照指令,接收到拍照指令后对演示图像进行拍照并生成本地二维码;
步骤S8,用户扫描本地二维码,若无网络状态下则直接下载和保存穿戴效果图,若在网络状态下则实现穿戴效果图的下载、保证和分享功能。
本发明的进一步改进在于,所述步骤S7中,接收到拍照指令后,对当前整个屏幕画面进行捕捉,并将捕捉到的画面以二进制文件的形式进行本地存储,然后将存储二进制文件的位置编写进本地二维码中。
本发明的进一步改进在于,步骤S8中,用户在通过智能终端扫描本地二维码,能够访问二进制文件的本地存储位置,进而实现图片的下载、保存和分享至朋友圈功能。
本发明的进一步改进在于,所述步骤S3的缩放和步骤S4中的缩放采用事先约定好的缩放倍数。
本发明的进一步改进在于,若原始的穿戴部位三维坐标中的两个点的实际距离为2x毫米,这两个点在标准的穿戴部位图像中的像素差约定为3x,那么当这两点在原始的穿戴部位三维坐标中的像素差为h,则其从原始的穿戴部位三维坐标到标准的穿戴部位图像的缩放比例为3x/h。
本发明的进一步改进在于,所述物品虚拟穿戴为眼镜虚拟试戴,所述步骤S1中,通过摄像头对人脸进行捕捉,采集人脸的灰度数据,并以人脸的中心为坐标原点建立原始的人脸三维坐标,所述穿戴部位三维坐标为人脸三维坐标;步骤S2中,通过3dmax软件对试戴眼镜进行原始建模,得到原始的眼镜模型,所述眼镜模型为穿戴物品模型;所述步骤S3的标准的穿戴部位图像为标准的人脸图像;所述步骤S4的标准的穿戴物品模型为标准的眼镜模型。
本发明的进一步改进在于,所述步骤S1中,通过摄像头对人脸画面进行捕捉,通过人脸与人脸周围的灰度变化关系判断出人脸的区域,在判断出人脸区域之后,在人脸上进行三维注册并把空间坐标定位在人脸位置。
本发明的进一步改进在于,所述步骤S4中,所述眼镜模型在3dmax软件中设定了自己的坐标点和位置信息,当人脸转动时眼镜模型便跟着人脸的转动而转动。
本发明的进一步改进在于,步骤S2中,通过3dmax软件对试戴眼镜的照片进行原始建模,得到原始的眼镜模型,然后对眼镜模型进行贴图烘焙处理;所述贴图烘焙处理为对眼镜模型各个不同的部位贴上贴图,贴图由试戴眼镜的照片拍摄并且通过PS处理得到,通过贴图与眼镜模型之间的关系划分眼镜模型的UV数据,最后在3dmax软件或maya软件中对眼镜模型进行打光和烘焙效果处理,将效果烘焙到一张或者几张贴图上面,进而得到烘焙处理后的贴图文件。
本发明的进一步改进在于,所述步骤S4中,将得到的眼镜模型的中点放置在人脸图像的中点下方的2~4mm后实现图像合成。
与现有技术相比,本发明的有益效果在于:当用户穿戴效果良好想要进行拍照的时候,只需通过触摸拍照按钮等方式发送拍照指令,即可实现穿戴效果图的拍照并自动生成本地二维码,用户扫描本地二维码便能访问下载图片,这一过程无需连接网络,在连通网络之后还能对其进行微信和朋友圈分享等功能,将试戴效果传播出去,让更多人了解;同时,所述基于3D的物品虚拟穿戴无需特别的设备,普通电脑或手机摄像头便能实现虚拟穿戴和虚拟试戴,消费者使用方便;虚拟穿戴和虚拟试戴的过程方便简单,没有复杂操作,消费者的穿戴部位或人脸出现在摄像头检测范围内即可;穿戴和试戴过程流畅,消费者可以实时进行虚拟穿戴和虚拟试戴,实时的转动穿戴部位即可查看穿戴物品在穿戴部位上的过程和效果,实时的转动头部即可查看虚拟眼镜戴在人脸上的过程和效果。
附图说明
图1是本发明一种实施例的工作流程示意图。
具体实施方式
下面结合附图,对本发明的较优的实施例作进一步的详细说明:
实施例1:
如图1所示,本例提供一种基于3D的物品虚拟穿戴的图片保存和分享方法,包括以下步骤:
步骤S1,通过摄像头对穿戴部位进行捕捉,采集穿戴部位的灰度数据,并以穿戴部位中心为坐标原点,建立原始的穿戴部位三维坐标;
步骤S2,通过3dmax软件对穿戴物品进行原始建模,得到原始的穿戴物品模型;
步骤S3,根据使用者的移动和转动,对原始的穿戴部位三维坐标进行缩放、平移和旋转处理,得到标准的穿戴部位图像;
步骤S4,根据使用者的移动和转动,对原始的穿戴物品模型进行缩放、平移和旋转处理,得到标准的穿戴物品模型;
步骤S5,将步骤S4得到的标准的穿戴物品模型放置在步骤S3得到的标准的穿戴部位图像上,实现图像合成;
步骤S6,将步骤S5的穿戴物品模型和穿戴部位图像进行叠加,生成最终的演示图像;
步骤S7,实时检测用户的拍照指令,接收到拍照指令后对演示图像进行拍照并生成本地二维码;
步骤S8,用户扫描本地二维码,若无网络状态下则直接下载和保存穿戴效果图,若在网络状态下则实现穿戴效果图的下载、保证和分享功能。
本例所述步骤S7中,接收到拍照指令后,对当前整个屏幕画面进行捕捉,并将捕捉到的画面以二进制文件的形式进行本地存储,然后将存储二进制文件的位置编写进本地二维码中。所述步骤S8中,用户在通过智能终端扫描本地二维码,能够访问二进制文件的本地存储位置,进而实现图片的下载、保存和分享至朋友圈功能。所述本地二维码是指存储位置位于本地智能终端、本地存储器或本地服务器的二维码,该二维码会以二进制文件的格式对穿戴效果图进行存储,不经过压缩和处理,因此,穿戴效果图不会产生失真,即使在无网络的情况下,也能够方便的实现下载和保存功能。
本例所述步骤S1和步骤S2的不是顺序步骤,可以步骤S2和步骤S1同时进行;也可以是先完成步骤S2,即事先对穿戴物品进行好原始建模,得到原始的穿戴物品模型对应的数据库,使用的时候,直接根据用户的选择在数据库中调取用户所需要的穿戴物品模型即可。所述步骤S3和步骤S4用于实现在使用者移动或转动的时候,使得原始的穿戴部位三维坐标和原始的穿戴物品模型实时跟随变化,进而得到最新的、实时跟随的穿戴部位图像和穿戴物品模型,即得到标准的穿戴部位图像和标准的穿戴物品模型,步骤S4对穿戴物品模型的缩放、平移和旋转处理与步骤S3对穿戴部位图像的缩放、平移和旋转处理是实时跟随的。所述步骤S5中,优选将步骤S4得到的标准的穿戴物品模型放置在步骤S3的标准的穿戴部位图像的中点,进而实现图像的合成。
所述缩放是指原始的穿戴部位三维坐标与原始的穿戴物品模型的缩放,比如眼镜虚拟试戴中,所述缩放指的是原始的人脸三维坐标或人脸图像以及原始的眼镜模型的缩放,需要进行穿戴部位与穿戴物品按照真实比例演示虚拟穿戴,就必须要进行图像的缩放。
所述穿戴物品包括眼镜、首饰、衣物、帽子和包包等日常消费的穿戴物品,这种图像的缩放的解决方案有三种:第一种是缩放穿戴部位三维坐标以适应穿戴物品模型的大小;第二种是缩放穿戴物品模型以适应穿戴部位三维坐标的大小;第三种是将原始的穿戴部位三维坐标与原始的穿戴物品模型按照事先约定好的“协议”同时缩放穿戴部位三维坐标和穿戴物品模型,本例使用的是第三种方案,它将更有利于用制作好的标准的穿戴部位图像去适应大量不同的镜架库中的标准的穿戴物品模型;本例应用第三种方案,相当于对穿戴物品模型和穿戴部位三维坐标提出了一种相互之间都遵循的协议,或者说是一种预先设置好的标准,来达到原始的穿戴部位三维坐标与原始的穿戴物品模型在缩放这点上的“默契”。
本例所述步骤S3的缩放和步骤S4中的缩放采用事先约定好的缩放倍数,其所采用缩放协议内容为:设定原始的穿戴部位三维坐标中的目标物上的两个点的实际距离为2x毫米,这两个点在标准的穿戴部位图像中的像素差约定为3x,那么当这两点在原始的穿戴部位三维坐标中的像素差为h,则其从原始的穿戴部位三维坐标到标准的穿戴部位图像的缩放比例为3x/h,所述标准的穿戴部位图像也称标准图像。
该缩放协议的正确性的推导如下:假设真实世界中有两点间的距离为2x毫米,那么在标准的穿戴部位图像中的像素差为3x;原始的穿戴部位三维坐标中这两点的像素差为h1,按照协议得到缩放比例则为3x/h1。另外两点间的距离为2y毫米,那么在标准的穿戴部位图像中的像素差为3y;原始的穿戴部位三维坐标中这两点的像素差为h2按照协议得到缩放比例为3y/h2。真实世界中距离比=2y:2x=(h2*3y/h2):(h1*3x/h1)=3y:3x=标准的穿戴部位图像中的像素差比。本例所述的x、y和h均为自然数。
本例所述的平移采用平移算法,即针对穿戴部位三维坐标和穿戴物品模型分别计算出相对位移量,然后根据相对位移量分别对穿戴部位三维坐标和穿戴物品模型进行平移,使得穿戴物品模型到达穿戴部位三维坐标的合适位置。
本例所述的旋转,主要是根据采集穿戴部位的灰度数据变换进而判断穿戴部位的角度变化,进而控制穿戴物品模型实现实时的角度跟随,使得穿戴物品模型就像是贴在标准的穿戴部位图像上一样,能够根据使用者的位置和角度变换,进而实现虚拟穿戴效果的实时跟随。
实施例2:
在实施例1的基础上,本例所述物品虚拟穿戴为眼镜虚拟试戴,所述步骤S1中,通过摄像头对人脸进行捕捉,采集人脸的灰度数据,并以人脸的中心为坐标原点建立原始的人脸三维坐标,所述穿戴部位三维坐标为人脸三维坐标;步骤S2中,通过3dmax软件对试戴眼镜进行原始建模,得到原始的眼镜模型,所述眼镜模型为穿戴物品模型;所述步骤S3的标准的穿戴部位图像为标准的人脸图像;所述步骤S4的标准的穿戴物品模型为标准的眼镜模型。
本例首先通过摄像头对人脸进行捕捉,对人脸进行灰度采集与坐标确定,即以人脸的中心为中点在人脸上建立起三维空间的人脸三维坐标,所述建立起三维空间的人脸三维坐标的过程为:通过摄像头对人脸的画面进行捕捉,通过人脸与人脸周围的灰度变化关系判断出人脸的区域,因为人脸在摄像头的捕捉下即使人是静止不动的,人脸也会有极轻微的转动,那么,人脸周围区域也会有灰度变化,依此原理判断出人脸区域之后,我们在人脸上进行人脸三维注册,并把空间坐标定位在人脸位置,而眼镜模型位于人脸三维坐标的在建模软件中所设定的位置中,该眼镜模型拥有自己的坐标点,当人脸转动时眼镜模型便跟着人脸进行转动。所述建模软件优选为3dmax软件。
然后再将眼镜模型放置在虚拟的三维坐标的中点,让眼镜模型与人脸三维坐标一起移动与旋转,当人脸与摄像头的距离发生变化的时候,其眼镜模型与人脸坐标也一起根据透视的原理进行缩放变化,这整个过程都是通过虚拟图像与现实场景叠加的方式进行,在这个变换的过程中,用户可以随时进行合成图像和拍照等功能。
本例所述步骤S1中,通过摄像头对人脸画面进行捕捉,通过人脸与人脸周围的灰度变化关系判断出人脸的区域,在判断出人脸区域之后,在人脸上进行三维注册并把空间坐标定位在人脸位置。所述步骤S4中,所述眼镜模型在3dmax软件中设定了自己的坐标点和位置信息,当人脸转动时眼镜模型便跟着人脸的转动而转动。所述步骤S2中,通过3dmax软件对试戴眼镜的照片进行原始建模,得到原始的眼镜模型,然后对眼镜模型进行贴图烘焙处理;所述贴图烘焙处理为对眼镜模型各个不同的部位贴上贴图,贴图由试戴眼镜的照片拍摄并且通过PS处理得到,通过贴图与眼镜模型之间的关系划分眼镜模型的UV数据,最后在3dmax软件或maya软件中对眼镜模型进行打光和烘焙效果处理,将效果烘焙到一张或者几张贴图上面,进而得到烘焙处理后的贴图文件,以便使得眼镜模型更加真实。
优选的,所述步骤S4中,将得到的眼镜模型的中点放置在人脸图像的中点下方的2~4mm后实现图像合成。所述步骤S4中,将得到的眼镜模型的中点放置在人脸图像的中点下方的2~4mm后实现图像合成。也就是说,本例所述的平移算法与实施例1的平移算法有所改进,改进的地方主要是考虑了眼镜镜架自身重力因素,进而提高虚拟试戴真实度,这是眼镜试戴放大的一个关键,因为眼镜通过鼻托安放在鼻梁上,因其自身重力影响而自然下垂2-4mm,因此,本例在眼镜试戴方法的时候考虑了眼镜自然下垂的影响,没有将瞳孔位置直接放在镜架水平中心线上,否则就会显得不真实。
本例所述的人脸图像与眼镜模型只要分别计算出相对位移量,就能实现平移。经过推导,分别得到需要平移的位移量如下所示,其中,ΔX是人脸图像和眼镜模型所需要平移的x轴数据,ΔY人脸图像和眼镜模型所需要平移的y轴数据,x1为人脸图像的中心的x轴数据,x2为眼镜模型的中心的x轴数据,y1为人脸图像的中心的y轴数据,y2为眼镜模型的中心的y轴数据,zoomface是固定的偏移参数,PD是矫正参数;所述PD是经过反复调试后得到的校正参数,优选为0.5~1,其中,以0.85为最佳;所述
本例由于在眼镜模型与人脸图像之间经过了上述标准化算法处理,因此眼镜模型与人脸图像之间的跟踪识别便特别准确顺畅;所述眼镜模型通过3dmax软件建模得到,每一个眼镜模型都是超过10万个面的高精模型。
更加值得一提的是,本例进行了在人脸上的人脸三维注册,进而得到人脸三维坐标,所述人脸三维注册指的是将人脸与人脸边缘环境进行灰度计算,得到人脸的区域,将获得的人脸区域作为一个新的坐标轴建立XYZ轴,这个XYZ轴便是注册在人脸上的三维标记;这样做的好处在于,当头部有转动的时候人脸三维坐标会跟着转动,从而让虚拟的眼镜模型也跟着人脸三维坐标一起转动;尤其是当小角度转动的时候,本例所述小角度具体为3°以下的小角度,由于人脸周围的灰度会发生变化,在通过坐标矩阵的转换,能够进行虚拟的人脸三维坐标的小角度转动计算,因为转动的时候人脸与人脸边缘的区域灰度值发生了变化,比如人脸边缘区域的灰度值为0,在转动的时候,灰度值变为了1,通过这种变化,我们就可以计算出3°以下的小角度转动的灰度变换情况,进而使得虚拟的眼镜试戴能有真的戴在人脸上一般神奇和顺畅的效果,即使在3°以下的小角度转动的时候跟踪稳定贴合度也非常高,在此基础上,还由于建模细致,因此眼镜模型效果非常真实。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。
Claims (10)
1.一种基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在于,包括以下步骤:
步骤S1,通过摄像头对穿戴部位进行捕捉,采集穿戴部位的灰度数据,并以穿戴部位中心为坐标原点,建立原始的穿戴部位三维坐标;
步骤S2,通过3dmax软件对穿戴物品进行原始建模,得到原始的穿戴物品模型;
步骤S3,根据使用者的移动和转动,对原始的穿戴部位三维坐标进行缩放、平移和旋转处理,得到标准的穿戴部位图像;
步骤S4,根据使用者的移动和转动,对原始的穿戴物品模型进行缩放、平移和旋转处理,得到标准的穿戴物品模型;
步骤S5,将步骤S4得到的标准的穿戴物品模型放置在步骤S3得到的标准的穿戴部位图像上,实现图像合成;
步骤S6,将步骤S5的穿戴物品模型和穿戴部位图像进行叠加,生成最终的演示图像;
步骤S7,实时检测用户的拍照指令,接收到拍照指令后对演示图像进行拍照并生成本地二维码;
步骤S8,用户扫描本地二维码,若无网络状态下则直接下载和保存穿戴效果图,若在网络状态下则实现穿戴效果图的下载、保证和分享功能。
2.根据权利要求1所述的基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在于,所述步骤S7中,接收到拍照指令后,对当前整个屏幕画面进行捕捉,并将捕捉到的画面以二进制文件的形式进行本地存储,然后将存储二进制文件的位置编写进本地二维码中。
3.根据权利要求2所述的基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在于,步骤S8中,用户在通过智能终端扫描本地二维码,能够访问二进制文件的本地存储位置,进而实现图片的下载、保存和分享至朋友圈功能。
4.根据权利要求1至3任意一项所述的基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在于,所述步骤S3的缩放和步骤S4中的缩放采用事先约定好的缩放倍数。
5.根据权利要求4所述的基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在于,若原始的穿戴部位三维坐标中的两个点的实际距离为2x毫米,这两个点在标准的穿戴部位图像中的像素差约定为3x,那么当这两点在原始的穿戴部位三维坐标中的像素差为h,则其从原始的穿戴部位三维坐标到标准的穿戴部位图像的缩放比例为3x/h。
6.根据权利要求1至3任意一项所述的基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在于,所述物品虚拟穿戴为眼镜虚拟试戴,所述步骤S1中,通过摄像头对人脸进行捕捉,采集人脸的灰度数据,并以人脸的中心为坐标原点建立原始的人脸三维坐标,所述穿戴部位三维坐标为人脸三维坐标;步骤S2中,通过3dmax软件对试戴眼镜进行原始建模,得到原始的眼镜模型,所述眼镜模型为穿戴物品模型;所述步骤S3的标准的穿戴部位图像为标准的人脸图像;所述步骤S4的标准的穿戴物品模型为标准的眼镜模型。
7.根据权利要求6所述的基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在于,所述步骤S1中,通过摄像头对人脸画面进行捕捉,通过人脸与人脸周围的灰度变化关系判断出人脸的区域,在判断出人脸区域之后,在人脸上进行三维注册并把空间坐标定位在人脸位置。
8.根据权利要求7所述的基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在于,所述步骤S4中,所述眼镜模型在3dmax软件中设定了自己的坐标点和位置信息,当人脸转动时眼镜模型便跟着人脸的转动而转动。
9.根据权利要求6所述的基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在于,步骤S2中,通过3dmax软件对试戴眼镜的照片进行原始建模,得到原始的眼镜模型,然后对眼镜模型进行贴图烘焙处理;所述贴图烘焙处理为对眼镜模型各个不同的部位贴上贴图,贴图由试戴眼镜的照片拍摄并且通过PS处理得到,通过贴图与眼镜模型之间的关系划分眼镜模型的UV数据,最后在3dmax软件或maya软件中对眼镜模型进行打光和烘焙效果处理,将效果烘焙到一张或者几张贴图上面,进而得到烘焙处理后的贴图文件。
10.根据权利要求6所述的基于3D的物品虚拟穿戴的图片保存和分享方法,其特征在于,所述步骤S4中,将得到的眼镜模型的中点放置在人脸图像的中点下方的2~4mm后实现图像合成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510242443.6A CN104899917B (zh) | 2015-05-13 | 2015-05-13 | 一种基于3d的物品虚拟穿戴的图片保存和分享方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510242443.6A CN104899917B (zh) | 2015-05-13 | 2015-05-13 | 一种基于3d的物品虚拟穿戴的图片保存和分享方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104899917A true CN104899917A (zh) | 2015-09-09 |
CN104899917B CN104899917B (zh) | 2019-06-18 |
Family
ID=54032560
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510242443.6A Active CN104899917B (zh) | 2015-05-13 | 2015-05-13 | 一种基于3d的物品虚拟穿戴的图片保存和分享方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104899917B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106373085A (zh) * | 2016-09-20 | 2017-02-01 | 福州大学 | 一种基于增强现实的智能终端3d手表试戴方法及系统 |
CN106530013A (zh) * | 2016-11-21 | 2017-03-22 | 汕头市智美科技有限公司 | 一种广告推送方法及装置 |
CN106845379A (zh) * | 2017-01-12 | 2017-06-13 | 段元文 | 图像显示方法及装置 |
WO2018176958A1 (zh) * | 2017-03-28 | 2018-10-04 | 武汉斗鱼网络科技有限公司 | 一种随图像中关键点移动的自适应贴图方法和系统 |
CN109472859A (zh) * | 2018-10-31 | 2019-03-15 | 上海与德通讯技术有限公司 | 穿戴效果的显示方法、电子设备及计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1495447A1 (en) * | 2002-03-26 | 2005-01-12 | KIM, So-Woon | System and method for 3-dimension simulation of glasses |
CN103456008A (zh) * | 2013-08-26 | 2013-12-18 | 刘晓英 | 一种面部与眼镜匹配方法 |
CN104111954A (zh) * | 2013-04-22 | 2014-10-22 | 腾讯科技(深圳)有限公司 | 一种获取位置信息的方法、装置和系统 |
CN104407709A (zh) * | 2014-12-09 | 2015-03-11 | 北京银河润泰科技有限公司 | 可穿戴设备的穿戴状态的处理方法及装置 |
CN104408764A (zh) * | 2014-11-07 | 2015-03-11 | 成都好视界眼镜有限公司 | 眼镜虚拟试戴方法、装置及系统 |
-
2015
- 2015-05-13 CN CN201510242443.6A patent/CN104899917B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1495447A1 (en) * | 2002-03-26 | 2005-01-12 | KIM, So-Woon | System and method for 3-dimension simulation of glasses |
CN104111954A (zh) * | 2013-04-22 | 2014-10-22 | 腾讯科技(深圳)有限公司 | 一种获取位置信息的方法、装置和系统 |
CN103456008A (zh) * | 2013-08-26 | 2013-12-18 | 刘晓英 | 一种面部与眼镜匹配方法 |
CN104408764A (zh) * | 2014-11-07 | 2015-03-11 | 成都好视界眼镜有限公司 | 眼镜虚拟试戴方法、装置及系统 |
CN104407709A (zh) * | 2014-12-09 | 2015-03-11 | 北京银河润泰科技有限公司 | 可穿戴设备的穿戴状态的处理方法及装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106373085A (zh) * | 2016-09-20 | 2017-02-01 | 福州大学 | 一种基于增强现实的智能终端3d手表试戴方法及系统 |
CN106530013A (zh) * | 2016-11-21 | 2017-03-22 | 汕头市智美科技有限公司 | 一种广告推送方法及装置 |
CN106845379A (zh) * | 2017-01-12 | 2017-06-13 | 段元文 | 图像显示方法及装置 |
WO2018176958A1 (zh) * | 2017-03-28 | 2018-10-04 | 武汉斗鱼网络科技有限公司 | 一种随图像中关键点移动的自适应贴图方法和系统 |
CN109472859A (zh) * | 2018-10-31 | 2019-03-15 | 上海与德通讯技术有限公司 | 穿戴效果的显示方法、电子设备及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN104899917B (zh) | 2019-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104881114B (zh) | 一种基于3d眼镜试戴的角度转动实时匹配方法 | |
CN104881526A (zh) | 一种基于3d的物品穿戴方法及眼镜试戴方法 | |
CN104898832B (zh) | 一种基于智能终端的3d实时眼镜试戴方法 | |
CN114981844A (zh) | 3d身体模型生成 | |
CN109671141B (zh) | 图像的渲染方法和装置、存储介质、电子装置 | |
US11908083B2 (en) | Deforming custom mesh based on body mesh | |
US11670059B2 (en) | Controlling interactive fashion based on body gestures | |
US11663792B2 (en) | Body fitted accessory with physics simulation | |
CN104899917A (zh) | 一种基于3d的物品虚拟穿戴的图片保存和分享方法 | |
US11798238B2 (en) | Blending body mesh into external mesh | |
US20240070986A1 (en) | External mesh with vertex attributes | |
KR102534637B1 (ko) | 증강 현실 시스템 | |
US11836866B2 (en) | Deforming real-world object using an external mesh | |
KR20230079177A (ko) | 증강 현실 콘텐츠 생성기들을 절차적으로 생성함 | |
CN107945270A (zh) | 一种三维数字沙盘系统 | |
KR20230079264A (ko) | 증강 현실 콘텐츠 생성기들에 대한 수집 파이프라인 | |
Schönauer et al. | Wide area motion tracking using consumer hardware | |
Stricker et al. | From interactive to adaptive augmented reality | |
RU148909U1 (ru) | Устройство для подбора товаров, соответствующих размерам пользователя | |
US20240013463A1 (en) | Applying animated 3d avatar in ar experiences | |
CN110349269A (zh) | 一种目标穿戴物试戴方法及系统 | |
WO2023121896A1 (en) | Real-time motion and appearance transfer | |
WO2023121897A1 (en) | Real-time garment exchange | |
KR20240056545A (ko) | 신체 메시에 기초한 커스텀 메시 변형 | |
WO2024015917A1 (en) | Incremental scanning for custom landmarkers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210729 Address after: 518000 l2-002, zone B, yifangtiandi, Yicheng central garden, No. 4020, Renmin Road, Jinglong community, Longhua street, Longhua District, Shenzhen City, Guangdong Province Patentee after: Shenzhen Moke glasses Intelligent Technology Co.,Ltd. Address before: 518000 shops 12, 13, 22, 23 and 25, floor 3, Henggang building, No. 5008, Longgang Avenue, Henggang street, Longgang District, Shenzhen, Guangdong Patentee before: SHENZHEN BIAIQI VISION TECHNOLOGY Co.,Ltd. |
|
TR01 | Transfer of patent right |