CN110136238A - 一种结合物理光照模型的ar绘画方法 - Google Patents

一种结合物理光照模型的ar绘画方法 Download PDF

Info

Publication number
CN110136238A
CN110136238A CN201910259285.3A CN201910259285A CN110136238A CN 110136238 A CN110136238 A CN 110136238A CN 201910259285 A CN201910259285 A CN 201910259285A CN 110136238 A CN110136238 A CN 110136238A
Authority
CN
China
Prior art keywords
scene
pt3d
coordinate
model
texture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910259285.3A
Other languages
English (en)
Other versions
CN110136238B (zh
Inventor
熊永春
刘培
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HANGZHOU QUWEI SCIENCE & TECHNOLOGY Co Ltd
Original Assignee
HANGZHOU QUWEI SCIENCE & TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HANGZHOU QUWEI SCIENCE & TECHNOLOGY Co Ltd filed Critical HANGZHOU QUWEI SCIENCE & TECHNOLOGY Co Ltd
Priority to CN201910259285.3A priority Critical patent/CN110136238B/zh
Publication of CN110136238A publication Critical patent/CN110136238A/zh
Application granted granted Critical
Publication of CN110136238B publication Critical patent/CN110136238B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Abstract

本发明公开了一种结合物理光照模型的AR绘画方法,包括以下步骤:S1,ARkit捕捉当前AR场景,并通过OpenGL渲染到纹理,并作为背景纹理;S2,使用Metal+Scenekit搭建Scene场景;S3,记录画笔2D屏幕轨迹坐标,获取当前相机V矩阵和P矩阵,依次将2D屏幕轨迹坐标转为3D空间坐标轨迹;S4,采用插值和曲线平滑算法生成均匀而平滑的3D空间轨迹坐标;S5,根据3D空间轨迹坐标,计算顶点坐标、法线、切线、纹理坐标、RGB等数据,并根据椭圆计算公式推导,构造具有形变效果的3D几何图形节点,将节点添加到Scene场景之中;S6,采用PBR物理光照模型计算光照效果,多重采样消除锯齿,通过Metal渲染Scene场景,将3D图形渲染到OpenGL和Metal的共享纹理;S7,背景纹理与共享纹理融合,OpenGL渲染最终图案到屏幕。

Description

一种结合物理光照模型的AR绘画方法
技术领域
本发明属于计算机技术领域,具体涉及一种结合物理光照模型的AR绘画方法。
背景技术
目前,大多数空间绘画技术都基于VR(虚拟现实)空间画笔完成,需要通过VR设备和手柄实现在虚拟场景中进行艺术创作,如果没有眼镜现实设备作为载体,则无法体验3D立体场景绘画。在移动互联时代,电子移动终端和AR(增强现实技术)快速发展,基于移动终端的增强现实应用越来越受大众欢迎。现今人机交互、计算机绘图还处于一个应用多种设备辅助完成的阶段,其操作较复杂使之失去创作绘画的乐趣,因此将AR技术与图形绘制算法相结合应用到资源和计算能力有限的手持移动终端随之成为研究热点。
因此,如何将增强现实技术应用于移动端实现现实场景绘画,增强绘画作品的真实感和立体感是亟需解决的问题。
发明内容
有鉴于此,本发明提供了一种结合物理光照模型的AR绘画方法。
为解决上述技术问题,本发明采用如下的技术方案:
一种结合物理光照模型的AR绘画方法,包括以下步骤:
步骤1,利用移动端的摄像机拍摄画面,ARkit捕捉当前AR场景,通过会话ARSession管理设备相机和ARKit追踪设备与现实世界之间的相对位置和运动数据实时的捕获所述AR场景,将所述AR场景的YUV颜色空间转为RGB颜色空间,并通过OpenGL渲染到纹理作为背景纹理;
步骤2,使用Metal+Scenekit搭建3D Scene场景,3D场景由一个一个节点组成,每一个节点管理着场景中的每个物体,所述Scenekit为3D图形开发框架;
步骤3,根据所述3D场景同时计算所述摄像机的V观察矩阵和P投影矩阵,用户选择任意AR画笔,进行绘图操作,所述移动端获取所述绘图操作的2D坐标轨迹,通过将所述3D场景的2D屏幕坐标转为3D空间坐标,从而对应得到所述2D坐标轨迹的3D空间运动轨迹坐标;
步骤4,采用线性插值算法和曲线平滑算法对所述3D空间运动轨迹坐标进行圆滑处理,形成均匀且圆滑的3D坐标轨迹;
步骤5,根据3D空间轨迹坐标,计算包括顶点坐标、法线、切线、纹理坐标、RGB的数据,并根据椭圆计算公式推导,构造3D几何图形节点,将节点添加到Scene场景之中;
步骤6,采用Scenekit中PBR物理光照模型计算光照效果,多重采样消除锯齿,通过Metal渲染3D场景,将3D图形渲染到OpenGL和Metal的共享纹理;
步骤7,背景纹理与共享纹理融合,由OpenGL渲染最终图案到屏幕,记录所述绘图操作生成过程,并生成视频文件,选择播放类型,点击开,播放绘画过程,点击关,所述人机交互界面显示绘画结束时的静止状态。
优选地,所述步骤3中通过将所述3D场景的2D屏幕坐标转为3D空间坐标转换的数学公式为:
pt3Dnear=pt2DscreenNear*inv(V*P*M) (1)
pt3Dfar=pt2DscreenFar*inv(V*P*M) (2)
pt3D=pt3Dnear+(pt3Dfar-pt3Dnear)*scale (3)
其中,pt2DscreenNear为近裁剪平面坐标,其中z坐标取值为0;pt2DscreenFar为远裁剪平面坐标,其中z坐标取值为1;inv()为矩阵逆运算;M为世界矩阵;V为观察矩阵;P为投影矩阵;scale为自定义的比例参数;pt3D为3D空间坐标值;根据公式(1)~(3)依次计算得到所述3D空间坐标值,形成所述3D空间运动轨迹坐标。
优选地,所述步骤4线性插值算法的计算公式为:
q=p+α(p-n) (4)
其中α为系数,p为前驱顶点,n为后继顶点,q为需要插入的顶点。此外,所述曲线平滑算法是对均匀间距的所述3D空间运动轨迹坐标进行计算,输出平滑的3D坐标轨迹,所述步骤4中曲线平滑算法采用三角函数拟合算法,公式为:
k=tanf(π*fc) (5)
n=1.0/(1.0+k/α+k*k) (6)
a0=k*k*n,a1=a0*2,a2=a0 (7)
b1=(k*k-1.0)*n*2,b2=(1.0-k/α+k*k)*n (8)
z1=val*a1+z2-b1*(val*a0+z1),z2=val*a2-b2*(val*a0+z1) (9)
smothval=val*a0+z1 (10)
其中,a0,a1,a2,b1,b2,z1,z2为所述曲线平滑算法计算中的6个参数;val为所述3D空间运动轨迹坐标;k和n为中间系数;fc为平滑系数,初始值为0.01;α为常量系数;通过公式(5)~(8)初始化计算所述参数a0,a1,a2,b1,b2的值,然后利用公式(9)迭代计算z1和z2参数,最后通过公式(10)得到圆滑处理后的所述3D坐标轨迹。
优选地,所述步骤5中构造几何图形计算方法为:
(4)根据3D坐标轨迹,按顺序依次取Pt3Dpre和pt3Dnext前后相邻坐标点,计算切线向量V,并计算过Pt3Dpre垂直于向量V的平面,以Pt3Dpre为原点选取平面上向量V′:
V=pt3Dnext-pt3Dpre (11)
(5)V′绕向量V旋转,分别计算旋转m度(0°,45°,90°,135°,180°,225°,270°,315°)的单位向量Vdirect m即3D顶点在8个方向的法线,然后分别在每个Vdirect m乘上半径randius计算8个顶点坐标
pt3Dm=pt3D+Vdirect m*randius (12)
(6)分别对画笔轨迹的首尾cnt个顶点处做特殊处理,使图形产生拉伸形变效果,所述半径randius计算公式如下:
randius=α*width (13)
其中,width为画笔宽度值,α为系数,根据椭圆的方式式推导α系数的计算公式如下:
取b=1,a=mb,故该类椭圆中y轴的计算公式如下:
α系数取值为0-1,故该公式迁移到此处x的取值范围为0-m,从而得到画笔轨迹的首尾顶点的α系数变化规律如下:
其中,cnt为首尾顶点的个数,j为顶点索引。完成以上顶点作标,切线,法线计算,构造几何图形。
优选地,采用Scenekit框架中PBR物理光照模型计算顶点颜色的光照效果,物理光照模型结合了现实世界中灯光和材质之间交互的精确光照模型,使用物理光照模型渲染出来的物体更真实,且物理光照模型具有以下三种材质属性,一是漫反射属性,提供了材质的“基础”颜色;二是粗糙度属性,是真实曲面中微观细节的近似值;三是金属性,产生整体的金属或非金属外观。
优选地,通过AE模板配置工具完成所述画笔模板配置,包括配置画笔类型、画笔颜色、笔尖粗细、动画类型、画笔漫反射纹理、法线纹理、粗糙度纹理、金属度纹理,配置好生成各种画笔模板供用户选择,用户直接通过选择不同的画笔实现多样化绘制并控制开关播放绘画过程。
优选地,选择保存或分享,将所述绘画过程保存或分享社交平台。
采用本发明具有如下的有益效果:与现有技术相比,本发明公开提供了一种结合物理光照模型的AR绘画方法,使用移动端在现实场景中绘画,通过切换不同的纹理画刷,实现多样化绘制,并实时动态播放绘图过程。采用Scenekit框架中PBR物理光照模型,物理光照模型结合了现实世界中灯光和材质之间交互的精确光照模型,使用物理光照模型渲染出来的物体更真实,且物理光照模型具有漫反射属性、粗糙度属性、金属性。可通过该物理光照模型可以对几何图形进行漫反射贴图、法线贴图、金属度贴图和粗糙度贴图,从而产生逼真效果,由于Scenekit中PBR物理光照模型暂时不支持OpenGL API所以采用Metal将Scene首先渲染到OpenGL和Metal的共享纹理,然后再由OpenGL渲染到屏幕。
附图说明
图1为本发明实施例的结合物理光照模型的AR绘画方法的步骤流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1,本发明实施例公开了一种结合物理光照模型的AR绘画方法,其包括以下步骤:
S1,利用移动端的摄像机拍摄画面,ARkit捕捉当前AR场景,通过会话ARSession管理设备相机和ARKit追踪设备与现实世界之间的相对位置和运动数据实时的捕获所述AR场景,最后将AR场景的YUV颜色空间转为RGB颜色空间,并通过OpenGL渲染到纹理;
S2,使用Metal+Scenekit搭建3D Scene场景,3D场景由一个一个节点组成的,每一个节点管理着场景中的每个物体。物体如灯光,几何图形,照相机等。
S3,根据3D场景同时计算摄像机的V观察矩阵和P投影矩阵,用户选择任意AR画笔,进行绘图操作,移动端获取绘图操作的2D坐标轨迹,通过将3D场景的2D屏幕坐标转为3D空间坐标,从而对应得到2D坐标轨迹的3D空间运动轨迹坐标。
S4,采用线性插值算法和曲线平滑算法对3D空间运动轨迹坐标进行圆滑处理,形成均匀且圆滑的3D坐标轨迹。
S5,根据3D空间轨迹坐标,计算包括顶点坐标、法线、切线、纹理坐标、RGB的数据,并根据椭圆计算公式推导,构造3D几何图形节点,将节点添加到Scene场景之中。
S6,采用Scenekit 3D图形框架中的PBR物理光照模型,多重采样消除锯齿,通过Metal渲染3D场景,将3D图形渲染到OpenGL和Metal的共享纹理;
S7,背景纹理与共享纹理混合,由OpenGL渲染最终图案到屏幕,记录绘图操作生成过程,并生成视频文件,选择播放类型,点击开,播放绘画过程,点击关,人机交互界面显示绘画结束时的静止状态。
具体应用实例中,S3中计算3D空间坐标转换的数学公式为:
pt3Dnear=pt2DscreenNear*inv(V*P*M) (1)
pt3Dfar=pt2DscreenFar*inv(V*P*M) (2)
pt3D=pt3Dnear+(pt3Dfar-pt3Dnear)*scale (3)
其中,pt2DscreenNear为近裁剪平面坐标,其中z坐标取值为0;pt2DscreenFar为远裁剪平面坐标,其中z坐标取值为1;inv()为矩阵逆运算;M为世界矩阵;V为观察矩阵;P为投影矩阵;scale是自定义的比例参数;pt3D为3D空间坐标值;根据公式(1)~(3)依次计算得到3D空间坐标值,形成3D空间运动轨迹坐标。
利用线性插值算法将3D运动轨迹坐标转换为均匀间距的3D运动轨迹坐标,S4线性插值算法的计算公式为:
q=p+α(p-n) (4)
其中α为系数,p为前驱顶点,n为后继顶点,q为需要插入的顶点。此外,曲线平滑算法是对均匀间距的3D空间运动轨迹坐标进行计算,输出平滑的3D坐标轨迹,S4中曲线平滑算法采用三角函数拟合算法,公式为:
k=tan f(π*fc) (5)
n=1.0/(1.0+k/α+k*k) (6)
a0=k*k*n,a1=a0*2,a2=a0 (7)
b1=(k*k-1.0)*n*2,b2=(1.0-k/α+k*k)*n (8)
z1=val*a1+z2-b1*(val*a0+z1).z2=val*a2-b2*(val*a0+z1) (9)
smothval=val*a0+z1 (10)
其中,a0,a1,a2,b1,b2,z1,z2为曲线平滑算法计算中的6个参数;val为所述3D空间运动轨迹坐标;k和n为中间系数;fc为平滑系数,初始值为0.01;α为常量系数;通过公式(5)~(8)初始化计算所述参数a0,a1,a2,b1,b2的值,然后利用公式(9)迭代计算z1和z2参数,最后通过公式(10)得到圆滑处理后的3D坐标轨迹。
具体应用实例中,S5中构造几何图形计算方法是:
(1)根据3D坐标轨迹,按顺序依次取Pt3Dpre和pt3Dnext前后相邻坐标点。计算切线向量V,并计算过Pt3Dpre垂直于向量V的平面,以Pt3Dpre为原点选取平面上向量V。
V=pt3Dnext-pt3Dpre (11)
(2)V′绕向量V旋转,分别计算旋转m度(0°,45°,90°,135°,180°,225°,270°,315°)的单位向量Vdirect m也就是3D顶点在8个方向的法线,然后分别在每个Vdirect m乘上半径randius计算8个顶点坐标。
pt3Dm=pt3D+Vdirect m*randius (12)
(3)为了绘画的美观,分别对画笔轨迹的首尾cnt个顶点处做特殊处理,使图形产生拉伸形变效果,半径randius计算公式如下:
randius=α*width (13)
其中,width为画笔宽度值,α为系数,根据椭圆的方式式推导α系数的计算公式如下:
取b=1,a=mb,故该类椭圆中y轴的计算公式如下:
α系数取值为0-1,故该公式迁移到此处x的取值范围为0-m,从而得到画笔轨迹的首尾顶点的α系数变化规律如下:
其中,cnt为首尾顶点的个数,j为顶点索引。完成以上顶点作标,切线,法线计算,构造几何图形。
具体应用实例中,Scenekit框架中PBR物理光照模型是结合了现实世界中灯光和材质之间交互的精确光照模型,使用物理光照模型渲染出来的物体更真实,且物理光照模型具有以下三种材质属性,一是漫反射属性,提供了材质的“基础”颜色。二是粗糙度属性,是真实曲面中微观细节的近似值,此属性有助于生成类似于真实物理中的节能规律的照明计算,从而在哑光和光亮表面之间产生更真实的变化。三是金属性,例如折射率、产生尖锐反射的倾向以及在掠射角产生菲涅耳反射的倾向,这些因素共同产生整体的金属或非金属外观。通过该物理光照模型可以对几何图形进行漫反射贴图、法线贴图、金属度贴图和粗糙度贴图,从而产生逼真的效果,由于Scenekit中PBR物理光照模型暂时不支持OpenGL API所以本发明采用Metal将Scene首先渲染到OpenGL和Metal的共享纹理,然后再由OpenGL渲染到屏幕。
具体应用实例中,通过AE模板配置工具完成所述画笔素材配置,包括配置画笔类型、画笔颜色、笔尖粗细、动画类型、画笔漫反射纹理、法线纹理、粗糙度纹理、金属度纹理以及等等,配置好生成各种画笔模板供用户选择。用户直接通过选择不同的画笔实现多样化绘制。
具体应用实例中,用户可以对画笔绘制的内容进行播放、保存和分享,播放绘画并将作品保存或分享到诸如QQ、微信的社交平台。
为了进一步优化上述技术方案,在绘制绘画轨迹之后还设置有绘画处理功能,可对绘制轨迹进行撤销处理,可清空动画播放等。
以上本发明实施例的结合物理光照模型的AR绘画方法,用户可以任意选择自己喜欢的AR画笔,通过手持移动端在现实场景中绘制自己喜欢的图案。本发明的特征在于结合了现实世界中灯光和材质之间交互的精确物理光照模型,并采用自定义的几何图形产生生动的拉伸形变效果,使得绘画内容逼真且具有真实的光照,增强绘画过程中真实感和立体感。通过人机交互界面,切换不同的纹理画刷,实现多样化绘制,并支持实时动态播放绘图过程,用户可通过拍照或制作视频与朋友分享生活的乐趣,满足人们的创作和作品欣赏需求。
应当理解,本文所述的示例性实施例是说明性的而非限制性的。尽管结合附图描述了本发明的一个或多个实施例,本领域普通技术人员应当理解,在不脱离通过所附权利要求所限定的本发明的精神和范围的情况下,可以做出各种形式和细节的改变。

Claims (7)

1.一种结合物理光照模型的AR绘画方法,其特征在于,包括以下步骤:
步骤1,利用移动端的摄像机拍摄画面,ARkit捕捉当前AR场景,通过会话ARSession管理设备相机和ARKit追踪设备与现实世界之间的相对位置和运动数据实时的捕获所述AR场景,将所述AR场景的YUV颜色空间转为RGB颜色空间,并通过OpenGL渲染到纹理作为背景纹理;
步骤2,使用Metal+Scenekit搭建3D Scene场景,Scenekit是3D图形框架,3D场景由一个一个节点组成,每一个节点管理着场景中的每个物体;
步骤3,根据所述3D场景同时计算所述摄像机的V观察矩阵和P投影矩阵,用户选择任意AR画笔,进行绘图操作,所述移动端获取所述绘图操作的2D坐标轨迹,通过将所述3D场景的2D屏幕坐标转为3D空间坐标,从而对应得到所述2D坐标轨迹的3D空间运动轨迹坐标;
步骤4,采用线性插值算法和曲线平滑算法对所述3D空间运动轨迹坐标进行圆滑处理,形成均匀且圆滑的3D坐标轨迹;
步骤5,根据3D空间轨迹坐标,计算包括顶点坐标、法线、切线、纹理坐标、RGB的数据,并根据椭圆计算公式推导,构造具有形变效果的3D几何图形节点,将节点添加到Scene场景之中;
步骤6,采用PBR物理光照模型计算光照效果,多重采样消除锯齿,通过Metal渲染3DScene场景,将3D图形渲染到OpenGL和Metal的共享纹理;
步骤7,背景纹理与共享纹理融合由OpenGL渲染最终图案到屏幕,记录所述绘图操作生成过程,并生成视频文件,选择播放类型,点击开,播放绘画过程,点击关,所述人机交互界面显示绘画结束时的静止状态。
2.如权利要求1所述的结合物理光照模型的AR绘画方法,其特征在于,所述步骤3中通过将所述3D场景的2D屏幕坐标转为3D空间坐标转换的数学公式为:
pt3Dnear=pt2DscreenNear*inv(V*P*M) (1)
pt3Dfar=pt2DscreeFar*inv(V*P*M) (2)
pt3D=pt3Dnear+(pt3Dfar-pt3Dnear)*scale (3)
其中,pt2DscreenNear为近裁剪平面坐标,其中z坐标取值为0;pt2DscreenFar为远裁剪平面坐标,其中z坐标取值为1;inv()为矩阵逆运算;M为世界矩阵;V为观察矩阵;P为投影矩阵;scale为自定义的比例参数;pt3D为3D空间坐标值;根据公式(1)~(3)依次计算得到所述3D空间坐标值,形成所述3D空间运动轨迹坐标。
3.如权利要求1所述的结合物理光照模型的AR绘画方法,其特征在于,所述步骤4线性插值算法的计算公式为:
q=p+α(p-n) (4)
其中α为系数,p为前驱顶点,n为后继顶点,q为需要插入的顶点。此外,所述曲线平滑算法是对均匀间距的所述3D空间运动轨迹坐标进行计算,输出平滑的3D坐标轨迹,所述步骤4中曲线平滑算法采用三角函数拟合算法,公式为:
k=tanf(π*fc) (5)
n=1.0/(1.0+k/α+k*k) (6)
a0=k*k*n,a1=a0*2,a2=a0 (7)
b1=(k*k-1.0)*n*2,b2=(1.0-k/α+k*k)*n (8)
z1=val*a1+z2-b1*(val*a0+z1),z2=val*a2-b2*(val*a0+z1) (9)
smothval=val*a0+z1 (10)
其中,a0,a1,a2,b1,b2,z1,z2为所述曲线平滑算法计算中的6个参数;val为所述3D空间运动轨迹坐标;k和n为中间系数;fc为平滑系数,初始值为0.01;α为常量系数;通过公式(5)~(8)初始化计算所述参数a0,a1,a2,bl,b2的值,然后利用公式(9)迭代计算z1和z2参数,最后通过公式(10)得到圆滑处理后的所述3D坐标轨迹。
4.如权利要求1所述的结合物理光照模型的AR绘画方法,其特征在于,所述步骤5中构造几何图形计算方法为:
(1)根据3D坐标轨迹,按顺序依次取Pt3Dpre和pt3Dnext前后相邻坐标点,计算切线向量V,并计算过Pt3Dpre垂直于向量V的平面,以Pt3Dpre为原点选取平面上向量V′:
V=pt3Dnext-pt3Dpre (11)
(2)V′绕向量V旋转,分别计算旋转m度(0°,45°,90°,135°.180°,225°,270°,315°)的单位向量Vdirect m即3D顶点在8个方向的法线,然后分别在每个Vdirect m乘上半径randius计算8个顶点坐标
pt3Dm=pt3D+Vdirectm*randius (12)
(3)分别对画笔轨迹的首尾cnt个顶点处做特殊处理,使图形产生拉伸形变效果,所述半径randius计算公式如下:
randius=α*width (13)
其中,width为画笔宽度值,α为系数,根据椭圆的方式式推导α系数的计算公式如下:
取b=1,a=mb,故该类椭圆中y轴的计算公式如下:
α系数取值为0-1,故该公式迁移到此处x的取值范围为0-m,从而得到画笔轨迹的首尾顶点的α系数变化规律如下:
其中,cnt为首尾顶点的个数,j为顶点索引。完成以上顶点作标,切线,法线计算,构造几何图形。
5.如权利要求1所述的结合物理光照模型的AR绘画方法,其特征在于,采用Scenekit框架中PBR物理光照模型,物理光照模型结合了现实世界中灯光和材质之间交互的精确光照模型,使用物理光照模型渲染出来的物体更真实,且物理光照模型具有以下三种材质属性,一是漫反射属性,提供了材质的“基础”颜色;二是粗糙度属性,是真实曲面中微观细节的近似值;三是金属性,产生整体的金属或非金属外观。
6.如权利要求1所述的结合物理光照模型的AR绘画方法,其特征在于,通过AE模板配置工具完成所述画笔素材配置,包括配置画笔类型、画笔颜色、笔尖粗细、动画类型、画笔漫反射纹理、法线纹理、粗糙度纹理、金属度纹理,配置好生成各种画笔模板供用户选择,用户直接通过选择不同的画笔实现多样化绘制。
7.如权利要求1所述的结合物理光照模型的AR绘画方法,其特征在于,用户对画笔绘制的内容进行播放、保存和分享。
CN201910259285.3A 2019-04-02 2019-04-02 一种结合物理光照模型的ar绘画方法 Active CN110136238B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910259285.3A CN110136238B (zh) 2019-04-02 2019-04-02 一种结合物理光照模型的ar绘画方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910259285.3A CN110136238B (zh) 2019-04-02 2019-04-02 一种结合物理光照模型的ar绘画方法

Publications (2)

Publication Number Publication Date
CN110136238A true CN110136238A (zh) 2019-08-16
CN110136238B CN110136238B (zh) 2023-06-23

Family

ID=67569148

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910259285.3A Active CN110136238B (zh) 2019-04-02 2019-04-02 一种结合物理光照模型的ar绘画方法

Country Status (1)

Country Link
CN (1) CN110136238B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111429558A (zh) * 2020-03-02 2020-07-17 武汉大学 实时模拟动态水体缩略模型的方法及系统
CN111862290A (zh) * 2020-07-03 2020-10-30 完美世界(北京)软件科技发展有限公司 一种基于径向模糊的绒毛渲染方法、装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995022122A1 (en) * 1994-02-14 1995-08-17 Parametric Technology Corporation Real-time image generation system for simulating physical paint, drawing media, and feature modeling with 3-d graphics
CN102254340A (zh) * 2011-07-29 2011-11-23 北京麒麟网信息科技有限公司 一种基于gpu加速的环境光遮挡图像绘制方法及系统
CN102722861A (zh) * 2011-05-06 2012-10-10 新奥特(北京)视频技术有限公司 一种基于cpu的图形渲染引擎及实现方法
WO2017004882A1 (zh) * 2015-07-08 2017-01-12 北京大学深圳研究生院 面向平面显示设备的视频立体化绘制方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1995022122A1 (en) * 1994-02-14 1995-08-17 Parametric Technology Corporation Real-time image generation system for simulating physical paint, drawing media, and feature modeling with 3-d graphics
CN102722861A (zh) * 2011-05-06 2012-10-10 新奥特(北京)视频技术有限公司 一种基于cpu的图形渲染引擎及实现方法
CN102254340A (zh) * 2011-07-29 2011-11-23 北京麒麟网信息科技有限公司 一种基于gpu加速的环境光遮挡图像绘制方法及系统
WO2017004882A1 (zh) * 2015-07-08 2017-01-12 北京大学深圳研究生院 面向平面显示设备的视频立体化绘制方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111429558A (zh) * 2020-03-02 2020-07-17 武汉大学 实时模拟动态水体缩略模型的方法及系统
CN111862290A (zh) * 2020-07-03 2020-10-30 完美世界(北京)软件科技发展有限公司 一种基于径向模糊的绒毛渲染方法、装置及存储介质

Also Published As

Publication number Publication date
CN110136238B (zh) 2023-06-23

Similar Documents

Publication Publication Date Title
Arora et al. Symbiosissketch: Combining 2d & 3d sketching for designing detailed 3d objects in situ
US10325407B2 (en) Attribute detection tools for mixed reality
Chen et al. A system of 3D hair style synthesis based on the wisp model
Way et al. The synthesis of rock textures in Chinese landscape painting
US8988461B1 (en) 3D drawing and painting system with a 3D scalar field
Majumder et al. Hardware accelerated real time charcoal rendering
US20090157366A1 (en) System for simulating digital watercolor image and method therefor
Eroglu et al. Fluid sketching―Immersive sketching based on fluid flow
US9905045B1 (en) Statistical hair scattering model
CN110473248A (zh) 一种利用图像构建人体三维模型的测量方法
CN110276816A (zh) 区域填色方法、装置、电子设备及计算机可读存储介质
CN110136238A (zh) 一种结合物理光照模型的ar绘画方法
CN110221689A (zh) 一种基于增强现实的空间绘画方法
Li et al. real-time rendering of 3D animal models in Chinese ink painting style
CN116416386A (zh) 一种基于数字孪生l5级仿真高清渲染还原系统
Lee Physically-based modeling of brush painting
Yang et al. Self‐adaptive Algorithm for Simulating Sand Painting in Real‐Time
Zhao et al. The application of traditional Chinese painting technique and stroke effect in digital ink painting
Xu et al. PointWorks: Abstraction and Rendering of Sparsely Scanned Outdoor Environments.
Magnenat-Thalmann et al. Interactive virtual hair-dressing room
Chen et al. Real-time artistic silhouettes rendering for 3D models
CN110400369A (zh) 一种人脸重建的方法、系统平台及存储介质
US11222446B2 (en) Virtual face chart
Kozbelt Psychological implications of the history of realistic depiction: Ancient Greece, Renaissance Italy and CGI
Todo et al. Stroke Transfer: Example-based Synthesis of Animatable Stroke Styles

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 22nd floor, block a, Huaxing Times Square, 478 Wensan Road, Xihu District, Hangzhou, Zhejiang 310000

Applicant after: Hangzhou Xiaoying Innovation Technology Co.,Ltd.

Address before: 310007 16th floor, HANGGANG and metallurgical technology building, No. 294, Tianmushan Road, Xihu District, Hangzhou City, Zhejiang Province

Applicant before: HANGZHOU QUWEI SCIENCE & TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant